7min

Voor het eerst staat Google Search onder druk. Gaan we binnenkort allemaal ‘bingen’ in plaats van ‘googelen’? Of kunnen we er beter ver bij vandaan blijven?

Sinds het toevoegen van een AI-chatbot aan Bing heeft Microsoft een troef in handen tegenover Google’s paradepaardje. Laatstgenoemde bedrijf zou in alle haast met Project Magi begonnen zijn, nadat het in eerste instantie al Google Bard had gelanceerd als concurrent van de nieuwe versie van Microsoft Bing met daarin de technologie van OpenAI. Dat zou eveneens een AI-gebaseerde zoekmachine zijn die werkt als een chatbot zoals we die kennen van ChatGPT.

Met andere woorden, het zoeken op het internet lijkt fundamenteel te gaan veranderen. Voor het eerst in ruim twintig jaar moet Google zich zorgen maken. En dat het lijkt het dus ook daadwerkelijk te doen. Achterop raken in deze race kan behoorlijke gevolgen hebben voor Google. Zo zou Samsung al hebben gedreigd met het overstappen naar Microsoft Bing als standaardzoekmachine voor smartphones. Nu zijn we inmiddels wel gewend aan wrijving tussen Samsung en Google, dat is van alle tijden. Een dergelijke overstap zou Samsung op jaarbasis echter ook 3,5 miljard dollar aan omzet uit het shared revenue model dat beide partijen hebben opgetuigd. Als Samsung die stap zou zetten, dan is het sowieso een serieuze aangelegenheid.

Google Search: zeer dominant, maar ogenschijnlijk met globale goedkeuring

Google Search is al sinds de eeuwwisseling de eenzame koploper op het gebied van zoekmachines. In ruim twintig jaar tijd hebben de developers achter Google geprobeerd ongewenste zoekresultaten te ontmoedigen. Niet alleen exploitaties van het algoritme, maar ook simpelweg artikelen van laag niveau komen steeds minder voor op de eerste pagina van Search. Het is een geraffineerd product dat toonaangevend is als het gaat om de vindbaarheid van allerlei online content. Eigen diensten, zoals YouTube, genieten een voorkeurspositie in de resultaten. De effecten van een praktische monopolie op dit gebied geeft Google een enorme machtspositie als het gaat om informatievoorziening. Toch lijken we er als gebruikers mee akkoord te gaan, door keer op keer iets te googlen.

Het hebben van één grote speler kent ook zo zijn voordelen: de markt van search engine optimization (SEO) speelt volgens huisregels die niet al te discutabel zijn. Daar waar platforms als Facebook en TikTok constant worden beticht van het promoten van schadelijke inhoud, is het rondom Google opvallend stil. De positie van de zoekmachine is ingebakken in het bewustzijn van de gebruikers. We noemen iets op het internet opzoeken niet voor niets iets ‘googelen’.

Microsoft Bing AI (the New Bing) met GPT-4

De impact die het GPT-model van OpenAI heeft gehad, hebben we hier op Techzine uitgebreid gedocumenteerd. Uiteraard is er de ChatGPT-chatbot, waar je vragen aan kunt stellen en die allerlei zaken voor je kan overnemen. Foutloos is het allemaal niet en je kunt je ook afvragen in hoeverre deze chatbots de output verbeteren ten opzichte van het zelf doen van onderzoek. Klopt de output, dan kunnen we er grote verbeteringen op het gebied van efficiëntie mee boeken. Dat is dan ook meteen de voornaamste business-case voor datgene wat Large-Language Models (LLM’s) te bieden hebben. We kunnen er in theorie veel taken aan kwijt die we eigenlijk niet meer zelf willen doen.

Microsoft heeft vrij snel ingezien dat het moest investeren in OpenAI en pompte er de nodige miljarden in. Dat niet alleen, het heeft de technologie van het bedrijf inmiddels aan een heleboel producten toegevoegd. Office 365 uiteraard, maar ook op het gebied van development (Github Copilot) en security (Security Copilot) én Bing. Bij die laatste is niet gekozen voor de toevoeging Copilot, maar voor de naam The New Bing (Het Nieuwe Bing). Dat verraadt meteen dat het binnen afzienbare tijd helemaal niet meer als interessant wordt geacht of het duidelijk is of er technologie van OpenAI wordt ingezet of niet. Want als iedereen overstapt, wordt dit uiteraard gewoon weer Bing.

Gebruikers van Microsoft Bing kunnen de nieuwe versie, die we hier voor het gemak Bing Chat zullen noemen, al zo’n anderhalve maand testen. Dat leverde in het begin zoals te verwachten was de nodige problemen op. Zo had hij aanvankelijk wat opvallend onvriendelijke trekjes. Daar heeft Microsoft de nodige maatregelen tegen getroffen en nu kun je de AI-functie inmiddels vrij tam noemen. Het verschil met voorheen zit hem vooral in hoe zoekresultaten zijn geformuleerd. Gebruikers krijgen alinea’s tekst te zien in plaats van previews van websitelinks.

Verder zijn er vooralsnog toch vooral veel mitsen en maren ingebouwd. Er zijn allerlei disclaimers, onder andere over het hallucineren, oftewel het verzinnen van feiten, waar AI-chatbots veelal naar neigen. Dit in combinatie met de wat strakker aangetrokken teugels en de bronvermelding maakt het nieuwe Bing nog niet meteen tot een wezenlijk andere zoekmachine dan de oude variant.

Google Bard en Project Magi

De tijdlijn van Google als het gaat om het combineren van search en generatieve AI-modellen is wat meer ad hoc. Achter de schermen werkt het bedrijf uiteraard al langer aan modellen zoals LaMDA en PaLM, maar het lijkt toch vooral als reactie op omgevingsfactoren te zijn dat Google eerst Bard en nu Project Magi heeft uitgebracht en opgestart. Project Magi zou in gang gezet zijn als reactie op de overweging van Samsung waar we het hierboven over hadden bijvoorbeeld. Ook het onverwacht lanceren van Bard een dag voordat Microsoft het nieuwe Bing zou lanceren had een hoog ad hoc-gehalte.

In een tech-podcast van The New York Times legt Pichai uit wat AI-chatbot Google Bard precies moet voorstellen. Hoewel Bard niet de overtuigend klinkende antwoorden van ChatGPT weet te evenaren, zegt de Google-topman dat dat ook niet de bedoeling is. Hij zegt dat de bot met name kan inspireren; van het leiden tot nieuwe inzichten over een onderzoeksonderwerp tot het bedenken van een leuk idee voor een cadeau. Wie AI echter verder doorvoert, aldus Pichai, heeft al gauw een gevaarlijk wapen in handen. Meer internationale regulering is nodig, zo stelt hij.

Moeten we generatieve AI in zoekmachines wel willen?

Nog los van wat Microsoft en Google op de markt brengen, is er ook een tamelijk fundamentele vraag die we moeten beantwoorden. Moeten we willen dat een AI-zoekmachine de functie van creatieve assistent overstijgt? Die van allerlei willekeurige bronnen (al dan niet netjes vermeld) verzamelde informatie presenteert als feiten? We hebben inmiddels gezien dat de oplossingen van zowel Microsoft als Google er nog weleens goed naast kunnen zitten.

Waar het uiteindelijk op neerkomt is of we een kunstmatige intelligentie vertrouwen voor onze informatievoorziening. Deze informatievoorziening op het internet heeft een inherent mankement: de aard van het internet. Omdat het vrij communicatieverkeer mogelijk maakt, kan elk individu elke denkbare (on)waarheid produceren. Een selectieprocedure moet dus gemaakt worden. Een bedrijf als Databricks poogt met AI-model Dolly 2.0 aan te tonen dat de kwaliteit van de dataset veel belangrijker is dan alleen de kwantiteit.

Voor het bedrijfsleven zijn specifieke toepassingen van AI gebaat bij doelgerichte datasets, getraind door professioneel personeel met geverifieerde informatie. Zelfs een vrij klein AI-model kan daarmee overweg. Dat maakt de potentie van generatieve AI is in het bedrijfsleven enorm. Zeker als het gaat om datasets die niet door mensen te overzien zijn, schiet het te hulp. Het kan trends opmerken bij biologische data die tot nieuwe wetenschappelijke inzichten leiden, klantenservice op grotere schaal mogelijk maken en voorraadtekorten voorspellen voordat een mens dat ooit zou hebben opgemerkt.

Een dergelijk vertrouwen in de data waarmee de zoekmachines overweg kunnen is vrijwel onmogelijk te verkrijgen. De kwestie van online informatievoorziening vereist een zeer arbeidsintensieve controle van de data die een zoekmachine-AI gevoed krijgt. En wie bepaalt welke informatie wel klopt en welke niet? Binnen de wereld van de zoekmachines spelen daarnaast zaken zoals SEO traditiegetrouw ook een grote rol. Het draait zeker niet alleen om kwaliteit. Er staat geregeld genoeg rommel op de eerste pagina van zoekresultaten, al wordt er ongetwijfeld hard gewerkt om dit tot een minimum te beperken. Het is hierin echter gevaarlijk om blind te vertrouwen op het morele kompas van megabedrijven. De wens om meer regulering te krijgen die Sundar Pichai uitsprak kan gezien worden als: ‘red ons van onszelf’.

Niet anders

Tot slot kun je ook nog een wat meer ontnuchterende vraag stellen. Hoe anders is een wereld waarin zowel Google als Microsoft een LLM inzet om zoekresultaten te tonen dan de huidige situatie? Google’s uitleg van de eigen zoekfunctie werkt verhelderend, maar blijft oppervlakkig. In de praktijk gaat het er niet om dat de zoekmachine de ‘juiste’ informatie prefereert, maar om wie het als ‘juist’ classificeert en op welke basis. Het algoritme op YouTube is even ondoorgrondelijk en veranderlijk, met een enorme invloed op het gedrag van content creators. Voor het algoritme van LinkedIn (van Microsoft) geldt min of meer hetzelfde.

We zouden ons met vragen over het al dan niet toevoegen van (generatieve) AI-functionaliteit aan zoekmachines dus ook gewoon druk kunnen maken om niets. Dat zou wellicht helemaal niet zo erg zijn. Sowieso kun je je afvragen of de technologieën die Microsoft en Google in hun zoekmachines integreren bedoeld zijn om specifiek de zoekfunctionaliteit beter te maken. Het gaat waarschijnlijk veel meer om de output die het biedt. Dat je na de zoektocht naar de juiste informatie (wat dat dan ook mag zijn) niet ook nog eens zelf die informatie in lopende zinnen moet vatten. Dan moet die informatie uiteraard wel kloppen, anders heb je er alsnog niet zoveel aan. Je zal deze controle toch echt zelf moeten blijven doen.