Twitter maakte van Microsoft’s AI chatbot een racistische klootzak

Abonneer je gratis op Techzine!

Microsoft onthulde gisteren Tay, een Twitterbot die voorzien is van kunstmatige intelligentie om gesprekken tussen mensen te begrijpen en gepast te reageren. Het was een experiment dat of enorm leerzaam was of een grote mislukking. Twitter wist de bot binnen één dag om te toveren in een racistische klootzak.

Microsoft liet weten dat Tay van te voren enorm veel publieke data heeft geanalyseerd zodat het de bot kon leren hoe je ergens goed op kan reageren. Alle publieke data die van te voren aan Tay is gevoerd is dan ook van te voren gescreend.

Bij het live zetten van Tay voor het grote publiek is het screenen van de data gestaakt en dat was te merken. Microsoft zag zich genoodzaakt de bot binnen een dag offline te halen en een flink aantal van de duizenden Tweets te verwijderen omdat ze echt niet door de beugel konden.

Twitter-gebruikers hebben flink wat controversiële uitspraken richting Tay gegooid en daar heeft hij allemaal lering uitgetrokken. De vraag is alleen als je een bot ontwikkeld met kunstmatige intelligentie, die moet leren van mensen, of die dan ook moet leren van mensen waar je normaliter met een boog omheen zou lopen.

Wat dit experiment laat zien is dat je computers eigenlijk niet moet laten leren van mensen, tenzij het een enorm gecontroleerde omgeving is, want mensen kunnen zich simpelweg niet gedragen, zeker niet als ze thuis veilig achter hun beeldscherm zitten.

Toen Tay online kwam deed de bot uitspraken als: "Mensen zijn super cool", nog geen 24 uur later was Tay aan Nazi die niet alleen een hekel had aan Joden maar ook aan feministen.