Wszystko ogłoszone na Google I/O 2024, w tym Gemini AI, Project Astra, Android 15 i nie tylko

Pod koniec I/O, corocznej konferencji programistów Google w Shoreline Amphitheatre w Mountain View, dyrektor generalny Google Sundar Pichai ujawnił, że firma powiedziała „AI” 121 razy. Takie było w zasadzie sedno dwugodzinnego przemówienia Google – wprowadzenie sztucznej inteligencji do wszystkich aplikacji i usług Google, z których korzystają ponad dwa miliardy ludzi na całym świecie. Oto wszystkie najważniejsze aktualizacje ogłoszone przez Google podczas wydarzenia.

Bliźnięta Pro

Google

Google ogłosiło zupełnie nowy model sztucznej inteligencji o nazwie Gemini 1.5 Flash, który według niego jest zoptymalizowany pod kątem szybkości i wydajności. Flash plasuje się pomiędzy Gemini 1.5 Pro i Gemini 1.5 Nano, najmniejszym modelem firmy, który działa natywnie na urządzeniu. Google stwierdziło, że stworzyło Flasha, ponieważ programiści chcieli lżejszego i tańszego modelu niż Gemini Pro do tworzenia aplikacji i usług opartych na sztucznej inteligencji, przy jednoczesnym zachowaniu takich elementów, jak okno kontekstowe o długości miliona znaków, które odróżnia Gemini Pro od konkurencyjnych modeli. Jeszcze w tym roku Google podwoi okno kontekstowe Gemini do 2 milionów tokenów, co oznacza, że ​​będzie w stanie przetworzyć na jednym oddechu 2 godziny wideo, 22 godziny audio i ponad 60 000 linii kodu lub ponad 1,4 miliona słów . czas. .

Projekt AstryProjekt Astry

Google

Google zaprezentował Project Astra, wczesną wersję globalnego asystenta opartego na sztucznej inteligencji, który Demis Hassabis, dyrektor generalny Google DeepMind, stwierdził, że jest to opracowana przez Google wersja agenta AI, „która może być przydatna w życiu codziennym”.

W filmie, który według Google został nakręcony w jednym ujęciu, użytkownik Astry porusza się po biurze Google w Londynie, trzymając telefon i kierując aparat na różne rzeczy – głośnik, jakiś kod na tablicy, za oknem – i prowadzi naturalną rozmowę z aplikacją o tym, jak to wygląda. W jednym z najbardziej imponujących momentów filmu prawidłowo informuje użytkownika, gdzie wcześniej zostawiła okulary, bez konieczności podnoszenia przez niego okularów.

READ  Czas trwania kampanii „Call of Duty: MW3” wynosi od 3 do 5 godzin?

Film kończy się niespodzianką – gdy użytkownik odnajdzie brakujące okulary i je założy, dowiadujemy się, że ma wbudowany system kamer i potrafi za pomocą Project Astra bezproblemowo prowadzić rozmowę z użytkownikiem, co może sugerować, że Google może pracować nad konkurentem inteligentnych okularów Ray Ban firmy Meta.

Zapytaj zdjęciaZapytaj zdjęcia

Google

Zdjęcia Google były już sprytne, jeśli chodzi o wyszukiwanie konkretnych zdjęć lub filmów, ale dzięki sztucznej inteligencji Google przenosi wszystko na wyższy poziom. Jeśli jesteś subskrybentem Google One w USA, będziesz mógł zadawać Zdjęciom Google złożone pytanie, np. „Pokaż mi najlepsze zdjęcie z każdego parku narodowego, który odwiedziłeś”, gdy ta funkcja zostanie wdrożona w ciągu najbliższych kilku lat miesiące. Zdjęcia Google wykorzystają Twoje dane GPS oraz własną ocenę tego, co jest „najlepsze”, aby zapewnić Ci opcje. Możesz także poprosić Zdjęcia Google o wygenerowanie podpisów do publikowania zdjęć w mediach społecznościowych.

PoglądPogląd

Google

Nowe silniki Google do tworzenia multimediów oparte na sztucznej inteligencji nazywają się Veo i Imagine 3. Veo to odpowiedź Google na Sora OpenAI. Google twierdzi, że może tworzyć „wysokiej jakości” filmy w rozdzielczości 1080p, które mogą trwać „ponad minutę” i rozumieją koncepcje kinowe, takie jak poklatkowe.

Tymczasem Imagen 3 to generator zamiany tekstu na obraz, który według Google radzi sobie z tekstem lepiej niż jego poprzednik, Imagen 2. W rezultacie powstał najwyższej jakości model firmy zajmujący się zamianą tekstu na obraz, charakteryzujący się „niesamowitym poziomem szczegółowości” i „realistycznym , realistyczne obrazy.” ” i mniej artefaktów — co zasadniczo porównuje go z DALLE-3 OpenAI.

wyszukiwarka Googlewyszukiwarka Google

Google

Google wprowadza duże zmiany w podstawowym działaniu wyszukiwania. Większość ogłoszonych dzisiaj aktualizacji umożliwia zadawanie naprawdę skomplikowanych pytań („Znajdź najlepsze studia jogi lub pilates w Bostonie i przeglądaj szczegółowe informacje o ofertach oraz godzinach spacerów w Beacon Hill”) oraz korzystaj z wyszukiwania w celu planowania posiłków i wakacji. Nie będzie ona dostępna, jeśli nie zarejestrujesz się w Search Labs – platformie firmy umożliwiającej wypróbowanie funkcji w wersji beta.

READ  Pan młody z Kalifornii, Jacob Wright, nosi na weselu Apple Vision Pro i podkrada się do swojej żony Cambri

Ale nowa, wielka funkcja, którą Google nazywa Przeglądami AI i którą firma testuje od roku, w końcu jest udostępniana milionom ludzi w Stanach Zjednoczonych. Wyszukiwarka Google będzie teraz domyślnie wyświetlać odpowiedzi wygenerowane przez sztuczną inteligencję na górze wyników wyszukiwania, a firma twierdzi, że do końca roku udostępni tę funkcję ponad miliardowi użytkowników na całym świecie.

Bliźnięta na AndroidzieBliźnięta na Androidzie

Google

Google integruje Gemini bezpośrednio z Androidem. Kiedy Android 15 zostanie wydany jeszcze w tym roku, Gemini będzie wiedział, jaką aplikację, zdjęcie lub film odtwarzasz, i będzie mógł przeciągnąć je jako nakładkę i zadać pytania kontekstowe. Gdzie to pozostawia Asystenta Google, który już to robi? Kogo znasz! Google w ogóle nie wspomniał o tym podczas dzisiejszego przemówienia.

Pojawiło się także wiele innych aktualizacji. Google twierdzi, że doda cyfrowe znaki wodne do filmów i tekstów generowanych przez sztuczną inteligencję, udostępni Gemini na panelu bocznym w Gmailu i Dokumentach, będzie wspierać wirtualnego współpracownika opartego na sztucznej inteligencji w Workspace, podsłuchiwać rozmowy telefoniczne i wykrywać, czy rzeczywiście zostałeś oszukany czas i wiele więcej.

Śledź na żywo wszystkie aktualności z Google I/O 2024 Tutaj!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *