Google AI Overviews belooft zoekopdrachten sneller te beantwoorden dan ooit. Helaas blijkt dit meer dan eens een compleet foutief (en gevaarlijk) antwoord te zijn.
Een “AI Overview” verschijnt direct onder Google’s zoekbalk en is duidelijk als zodanig aangegeven. Het verschijnt bij eenieder die is ingelogd en er toegang toe heeft via Search Labs. Dat geldt nog niet voor Europeanen. Dat is vooralsnog maar goed ook, blijkt uit de AI-antwoorden die de feature weergeeft.
Gevaarlijk advies
De fouten in AI Overview zijn divers. Eén X-gebruiker toont een screenshot met een advies voor wanneer kaas niet aan de pizzabodem vast blijft zitten. Naast acceptabele suggesties als saus en de pizza laten afkoelen komt Google met een klein beetje niet-giftige lijm om de saus kleveriger te maken. Deze fout komt mogelijk voort uit het feit dat adverteerders lijm zouden gebruiken om kaas op pizza aantrekkelijker te laten lijken in reclames. Het is echter twijfelachtig of dat überhaupt zo is.
Andere AI Overview-missers betreffen de foutieve classificatie van een python als een zoogdier (reptiel) en het maken van mosterdgas voor het schoonmaken van een wasmachine.
Hoewel er met een korte muisscroll de gebruikelijke Google-resultaten verschijnen, zijn de hooggeplaatste antwoorden veelal waar gebruikers bij belanden. Bijna de helft van Google-bezoekers haakt al af na de bovenste resultaten als die niet naar wens zijn. Met andere woorden: wat bovenaan staat, heeft een grote impact op de gebruikservaring van de zoekmachine.
Knoeien met succesformule
Het is een kwestie van tijd voordat AI Overview tijdelijk verdwijnt of opeens flink verbetert. We vermoeden het eerste, aangezien een eerdere AI-flater van Google’s Gemini-beeldgeneratie tevens leidde tot een summiere terugtrekking. Specifiek genereerde het enkel afbeeldingen van mensen met een getinte huidskleur, zelfs bij bijvoorbeeld Duitse soldaten tijdens de Tweede Wereldoorlog. Het werpt de vraag op waarom Google het verstandig leek om AI Overview in dit stadium al live te zetten.
De accuratesse van AI Overview is niet met de buitenwereld gedeeld, dus het is onzeker hoe groot het percentage foutieve AI-zoekresultaten werkelijk is. Aangezien Google met afstand de grootste speler in search is, zal zelfs een minieme foutmarge leiden tot menig merkwaardig resultaat. Echter zijn de zoekopdrachten bij deze fouten in geen enkele zin opmerkelijk: het lijkt erop dat elke AI-search een grote fout kan bevatten. Dat is in feite inherent aan generatieve AI, dat een zekere onvoorspelbaarheid vereist om nieuwe teksten, beelden en audio te genereren.
Het sleutelen aan de eigen zoekmachine is alleen iets dat Google niet al te graag zal doen. Zónder GenAI-toevoeging zijn de conventionele zoekopdrachten nog altijd voorzien van bulletpoints die relevante informatie uit opgezochte bronnen trekken. Deze zijn doorgaans een goede reflectie van de bron zelf, hoewel die vanzelfsprekend ook foutief kunnen zijn. Toch geniet het wellicht de voorkeur als GenAI de mist in zou gaan.
Niet de eerste keer
Het is zoals gezegd niet de eerste AI-misser van Google. Andere partijen kunnen er ook wat van. Zo was Bing Chat (nu Microsoft Copilot) aanvankelijk grofgebekt en uiterst inaccuraat. Dit lijkt te maken te hebben met een te hoge bewegingsvrijheid voor de onderliggende LLM’s die de AI-generatie mogelijk maken. Immers zijn generatieve AI-modellen enigszins aan banden te leggen, waardoor ze een wat voorspelbaarder antwoord geven dat waarschijnlijker accurater is dan andere opties.
Lees ook: ChatGPT praat voortaan in real-time, nieuw model GPT-4o gratis beschikbaar