2min

Onderzoekers van MIT stellen op basis van duizenden simulaties dat kunstmatige intelligentie niet vrij is van vooroordelen. Niet alleen kunnen ze die van mensen leren, ook kunnen robots zichzelf als het ware vooroordelen aanleren.

Dat melden de onderzoekers aan de site TechCrunch. De MIT-onderzoekers hebben een simulatie opgezet waarbij enkele groepen door AI aangedreven robots moesten kiezen om geld te doneren. De robots konden ervoor kiezen om aan een robot binnen hun eigen groep te doneren, of dat te doen aan een robot buiten hun groep. In de test baseren de robots hun beslissing op basis van de reputatie van elke individuele robot en de donatiestrategieën van die robot.

Steeds meer strategieën

Er werden enkele duizenden simulaties gedraaid, waarbij de robots nieuwe strategieën van elkaar leerden. Uiteindelijk bleek dat de robots vooral kozen voor strategieën die op de korte termijn winst opleverden. Als gevolg daarvan waren ze ook steeds meer bevooroordeeld ten opzichte van robots uit andere groepen waar ze niets van geleerd hadden.

Door gedrag van elkaar te leren en te kopiëren ontwikkelden de robots in de test dus vooroordelen. De onderzoekers stellen hiermee aangetoond te hebben dat “vooroordelen een natuurkracht” zijn, die door evolutie steeds dieper geworteld raakt in een samenleving. Ook zou het uiterst ingewikkeld zijn om dit terug te draaien.

Het is niet voor het eerst dat robots op deze manier in opspraak komen. Een chatbot die Microsoft op Twitter lanceerde, Tay tweets, leerde gedrag van andere gebruikers van het platform en werd in toenemende mate racistisch. Daarnaast is er een breed gedragen angst voor de risico’s die klampen aan de ontwikkeling van kunstmatige intelligentie, als die niet goed uitgebouwd worden.