Microsoft voegt grenzen toe aan Bing chatbot, omdat deze onbeschoft kan zijn

Microsoft voegt grenzen toe aan Bing chatbot, omdat deze onbeschoft kan zijn

Uit testen met gebruikers blijkt dat langere chatsessies tot onverwachte resultaten kunnen leiden. Je kunt de chatbot provoceren, waardoor die steeds menselijker gaat reageren. De chatbot kan geïrriteerd en onbeschoft gaan reageren, in elk eval niet in lijn met de tone of voice die Microsoft nastreeft.

Microsoft gaat de nodige tweaks en limieten toevoegen aan de nieuwe AI-aangedreven Bing-zoekmachine, volgens een bericht in The New York Times. De chatbot-verbeterde versie van Bing, die Microsoft onlangs op de markt bracht, is “ontworpen om betere zoekresultaten te leveren, completere antwoorden op je vragen, een nieuwe chatervaring om je zoekopdracht beter te begrijpen en te verfijnen, en de mogelijkheid om inhoud te genereren om je creativiteit aan te wakkeren”, aldus een Bing Blog post.

Sinds Microsoft de nieuwe Bing in beperkte preview beschikbaar heeft gesteld, is deze getest met een selecte groep mensen in meer dan 169 landen. De resultaten van de tests waren nogal wisselend.

Microsoft probeert nu een soort reset uit te voeren, waarbij het Bing-platform wordt aangepast om enkele van de problemen op te lossen die de eerste testers aantroffen. De nieuwe beperkingen zijn “een poging om enkele van de meer alarmerende en vreemd menselijke reacties in te dammen”, aldus het artikel in de Times.

Microsoft heeft 13 miljard dollar geïnvesteerd in OpenAI, een start-up uit San Francisco die al beroemd is om zijn ChatGPT, een online chattool dat gebruik maakt van een technologie die generatieve AI wordt genoemd. Het is de OpenAI-technologie die de chatbot in de nieuwe Bing aanstuurt.

Langere chatsessies verwarren Bing

In de eerste week ontdekte Microsoft dat het in “lange, uitgebreide chatsessies van 15 of meer vragen, Bing repetitief kan worden en kan worden uitgelokt om antwoorden te geven die niet noodzakelijkerwijs behulpzaam zijn of in lijn zijn met onze ontworpen toon.”

Kevin Scott, Microsoft CTO, vertelde The New York Times dat het bedrijf ook overwoog om de lengte van gesprekken te beperken voordat ze op vreemd terrein komen. Microsoft zei dat lange chats de chatbot kunnen verwarren, en dat hij de toon van zijn gebruikers oppikt, waardoor hij soms onbeleefd wordt.

Sam Altman, de chief executive van OpenAI, vertelde de Times dat het verbeteren van wat bekend staat als “alignment” – hoe de antwoorden veilig de wil van de gebruiker weerspiegelen – “een van deze must-solve problemen” was.

Hij zei dat het probleem “echt lastig” is en dat ze weliswaar grote vooruitgang hebben geboekt, maar dat “we in de toekomst veel krachtigere technieken moeten vinden.”