Aan het einde van I/O, Google’s jaarlijkse ontwikkelaarsconferentie in het Shoreline Amphitheatre in Mountain View, onthulde Google-CEO Sundar Pichai dat het bedrijf 121 keer ‘AI’ zei. Dit was in wezen de kern van de twee uur durende keynote van Google: AI introduceren in alle apps en services van Google die door meer dan twee miljard mensen over de hele wereld worden gebruikt. Hier zijn alle belangrijke updates die Google tijdens het evenement heeft aangekondigd.
Gemini 1.5 Flash- en Gemini 1.5 Pro-updates
Google heeft een geheel nieuw AI-model aangekondigd genaamd Gemini 1.5 Flash, dat volgens hem is geoptimaliseerd voor snelheid en efficiëntie. De flitser bevindt zich tussen de Gemini 1.5 Pro en Gemini 1.5 Nano, het kleinste model van het bedrijf dat standaard op het apparaat draait. Google zei dat het Flash heeft gemaakt omdat ontwikkelaars een lichter en goedkoper model wilden dan Gemini Pro voor het bouwen van AI-aangedreven apps en diensten, terwijl ze toch zaken wilden behouden, zoals een contextvenster van een miljoen tekens lang, dat Gemini Pro onderscheidde van concurrerende modellen. Later dit jaar zal Google het Gemini-contextvenster verdubbelen tot 2 miljoen tokens, wat betekent dat het in staat zal zijn om 2 uur video, 22 uur audio en meer dan 60.000 coderegels of meer dan 1,4 miljoen woorden in één adem te verwerken . de tijd. .
Astra-project
Google toonde Project Astra, een vroege versie van een wereldwijde AI-aangedreven assistent, waarvan Demis Hassabis, CEO van Google’s DeepMind, zei dat het Google’s versie is van een AI-agent “die nuttig zou kunnen zijn in het dagelijks leven.”
In een video die volgens Google in één keer is opgenomen, beweegt een Astra-gebruiker zich door het kantoor van Google in Londen, terwijl hij zijn telefoon vasthoudt en de camera op verschillende dingen richt (een luidspreker, een code op een whiteboard, buiten een raam) en een natuurlijk gesprek voert. met de app over hoe het eruit ziet. En op een van de meest indrukwekkende momenten in de video vertelt ze de gebruiker correct waar ze haar bril eerder heeft achtergelaten, zonder dat de gebruiker haar bril ooit heeft opgetild.
De video eindigt met een verrassing: wanneer de gebruiker de ontbrekende bril vindt en deze opzet, leren we dat ze een ingebouwd camerasysteem hebben en Project Astra kunnen gebruiken om naadloos een gesprek met de gebruiker te voeren, wat erop zou kunnen wijzen dat Google werkt mogelijk aan een concurrent van Meta’s Ray Ban slimme bril.
Vraag het aan Google Afbeeldingen
Google Foto’s was al slim als het ging om het zoeken naar specifieke foto’s of video’s, maar met AI tilt Google de zaken naar een hoger niveau. Als je een Google One-abonnee in de VS bent, kun je Google Foto’s een complexe vraag stellen, zoals ‘Laat me de beste foto zien van elk nationaal park dat je hebt bezocht’ wanneer de functie de komende paar jaar wordt uitgerold. maanden. Google Foto’s gebruikt uw GPS-informatie en zijn eigen oordeel over wat ‘het beste’ is om u opties te bieden. Je kunt Google Foto’s ook vragen om ondertiteling te genereren voor het plaatsen van foto’s op sociale media.
Bekijk en stel je voor 3
De nieuwe AI-aangedreven mediacreatie-engines van Google heten Veo en Imagine 3. Veo is Google’s antwoord op OpenAI’s Sora. Google zei dat het 1080p-video’s van “hoge kwaliteit” kan produceren die “meer dan een minuut” kunnen duren, en filmische concepten zoals time-lapse kan begrijpen.
Ondertussen is Imagen 3 een tekst-naar-afbeelding-generator waarvan Google beweert dat deze beter met tekst omgaat dan zijn voorganger, Imagen 2. Het resultaat is het tekst-naar-afbeelding-model van het bedrijf van de hoogste kwaliteit met een “verbazingwekkend detailniveau” voor “realistische weergaven”. , levensechte beelden.” ” en minder artefacten – wat het in wezen vergelijkt met OpenAI’s DALLE-3.
Grote updates voor Google Zoeken
Google brengt grote veranderingen door in de manier waarop zoeken fundamenteel werkt. De meeste updates die vandaag zijn aangekondigd, hebben betrekking op de mogelijkheid om echt complexe vragen te stellen (“Vind de beste yoga- of pilatesstudio’s in Boston en bekijk details over het aanbod en de wandeltijden van Beacon Hill.”) en gebruik de zoekfunctie om maaltijden en vakanties te plannen. Het zal alleen beschikbaar zijn als u zich abonneert op Search Labs, het platform van het bedrijf waarmee mensen bètafuncties kunnen uitproberen.
Maar de grote nieuwe functie, die Google AI Overviews noemt en die het bedrijf nu een jaar aan het testen is, wordt eindelijk uitgerold naar miljoenen mensen in de Verenigde Staten. Google Search zal nu standaard door AI gegenereerde antwoorden bovenaan de resultaten weergeven, en het bedrijf zegt dat het de functie tegen het einde van het jaar beschikbaar zal maken voor meer dan een miljard gebruikers over de hele wereld.
Tweeling op Android
Google integreert Gemini rechtstreeks in Android. Wanneer Android 15 later dit jaar uitkomt, weet Gemini welke app, foto of video je afspeelt, en kunnen ze deze als overlay slepen en contextspecifieke vragen stellen. Waar blijft de Google Assistent die dit al doet? Wie ken je! Google heeft dit tijdens de keynote van vandaag helemaal niet ter sprake gebracht.
Er zijn ook nog een heleboel andere updates geweest. Google zei dat het digitale watermerken zal toevoegen aan door AI gegenereerde video’s en teksten, Gemini toegankelijk zal maken in het zijpaneel in Gmail en Documenten, een door AI aangedreven virtuele collega in Workspace zal ondersteunen, naar telefoongesprekken zal luisteren en zal detecteren of je daadwerkelijk wordt opgelicht tijd, en nog veel meer.
Volg al het nieuws van Google I/O 2024 live hier!
More Stories
Apple kondigt uitbreiding van Vision Pro naar nog twee landen aan
Hoe u de Apple Gehoortest doet met AirPods Pro 2
Apple kondigt MacBook Pro-modellen aan met M4 Pro- en M4 Max-chips, Thunderbolt 5-ondersteuning en meer