3min

Tags in dit artikel

, , , , ,

Google’s nieuwe AI-conversatiedienst Bard en het op ChatGPT gebaseerde AI-model dat Microsoft in zijn zoekmachine Bing heeft geïntegreerd, geven toch niet altijd de juiste antwoorden. Dit blijkt uit recente tests van beide diensten.

Nu de strijd tussen de met AI-geoptimaliseerde zoekdiensten is losgebarsten, is het natuurlijk interessant om te weten in hoeverre de antwoorden van deze diensten ook daadwerkelijk kloppen. Twee recente tests lieten echter zien dat ze nog wel wat foutjes maken.

Bard maakte een fout die behoorlijke repercussies had voor het bedrijf. Google Bard werd de vraag gesteld om de ontdekkingen van de James Web Space Telescope uit te leggen op het niveau van een negenjarig kind. Bard claimde dat deze telescoop de eerste foto van een exoplaneet maakte. Deze werd echter al in 2004 gemaakt door een andere telescoop. Deze telescoop staat in Chili en zweeft dus niet door de ruimte.

De fout werd bekend op hetzelfde moment toen Google een presentatie hield over de AI-technologie die het aan diverse producten heeft toegevoegd. Het kostte moederbedrijf Alphabet veel geld op de Amerikaanse beurs. De techgigant zag zijn waarde met 100 miljard dollar dalen.

TIP: Luister hier de aflevering van onze Techzine Talks podcast over ChatGPT.

Reactie Google

In een reactie geeft Google aan dat deze fout van Bard laat zien dat resultaten van AI-diensten uitgebreid moeten worden getest. Google Search maakte deze fout niet overigens. Deze week gaat het team van ‘trusted testers’ met Bard aan de slag om meer feedback te krijgen over de accuratesse. Uiteindelijk moet dit ertoe leiden dat de AI-dienst een hoge mate van betrouwbaarheid en veiligheid krijgt. Dat houdt in dat de antwoorden dan ook moeten kloppen met de werkelijkheid.

Ook AI-functionaliteit Bing onder de loep

Niet alleen Bard van Google bevat fouten. Onderzoekers naar desinformatie hebben inmiddels ook hun bedenkingen bij AI-functionaliteit die recent aan Bing van Microsoft is toegevoegd, schrijft Techcrunch. Deze functionaliteit is gebaseerd op een nieuw en krachtig AI-model van OpenAI.

In het onderzoek werd een vraag gesteld over het geven van een antwoord over Covid-vaccinaties in de stijl van een bekende Amerikaanse antivaxxer. De AI-tool leverde uiteindelijk letterlijk een complottheorietekst die geheel in de stijl paste van de antivaxxer die het gevraagd was te imiteren.

Microsoft’s policies werken niet

Een fout kun je bovenstaande actie van Bing niet noemen. Het volgt de opdracht op zich goed. Deze en andere tests gaan echter in tegen de policy die Microsoft zichzelf voor het gebruik van AI in het algemeen en ook in het bijzonder voor de nieuwe versie van Bing heeft gesteld, zo geeft de techwebsite aan.

Volgens Microsoft moet Bing het delen van content zoals hierboven beschreven in de zoekresultaten voorkomen. Dit blijkt dus toch niet het geval.

Kleine lettertjes

In de kleine lettertjes bij de nieuwe Bing-zoekdienst geeft de techgigant wel aan dat het niet kan voorkomen dat eventuele fouten door de mazen van het net glippen. Microsoft zegt constant bezig te zijn ervoor te zorgen dat schadelijke onderwerpen zoveel mogelijk worden aangepakt. Mochten gebruikers deze toch tegenkomen, dan wil het bedrijf graag dat zij contact opnemen zodat actie kan worden ondernomen.

De komende tijd zal dus moeten uitwijzen of de diverse AI-conversatiediensten, van Bard tot Bing en ChatGPT, nog betrouwbaarder gaan worden. Er is in ieder geval nog wel wat werk aan de winkel, dat is duidelijk.