2min

Microsoft werkt aan een tool waarmee ontwikkelaars vooroordelen in de algoritmes van hun artificiële intelligenties kunnen detecteren. Dat moet discriminerend gedrag van de AI helpen bestrijden.

Vooroordelen in algoritmes vormen een steeds grotere uitdaging, nu artificiële intelligentie binnen sluipt in steeds meer delen van onze samenleving. Zo wordt er in de Verenigde Staten al gebruik gemaakt van software die kan voorspellen of een beklaagde ook in de toekomst nog misdrijven zal plegen. Alleen blijkt dat die AI zwarte beklaagden strenger beoordeelt dan blanke beklaagden.

Onderzoek van Microsoft in samenwerking met de universteit in Boston toont verder aan dat datasets die worden gebruikt om AI-programma’s te trainen seksistische semantische verbindingen bevatten, waarbij het woord ‘programmeur’ bijvoorbeeld dichter bij het woord ‘man’ dan het woord ‘vrouw’ staat. Uit een studie van MIT’s Media Lab blijkt dan weer dat gezichtsherkenningsalgoritmes mannen met een donkere huidskleur 12 procent vaker verkeerd identificeren dan mannen met een lichte huidskleur.

Vooroordelen detecteren

De oorzaak voor die vooroordelen ligt niet bij de machines, maar bij de datasets die door mensen worden samengesteld en – vaak onzichtbaar – deze vooroordelen bevatten. “Het belangrijkste dat bedrijven nu kunnen doen, is hun personeel opleiden zodat ze zich bewust zijn van de talloze manieren waarop vooroordelen kunnen ontstaan en zich kunnen manifesteren. We moeten hulpmiddelen creëren om modellen gemakkelijker te begrijpen en vooroordelen makkelijker te detecteren”, zegt Rich Caruana, senior researcher bij Microsoft, tegen MIT Technology Review.

De tool die Caruana en zijn team ontwikkelen is een soort “dashboard” dat ontwikkelaars kunnen toepassen op getrainde AI-modellen. Het moet helpen om vooroordelen en oneerlijke informatie automatisch te detecteren, waar een mens dat niet altijd kan. “Natuurlijk kunnen we geen perfectie verwachten. Er zullen altijd vooroordelen zijn die onopgemerkt blijven of niet kunnen worden geëlimineerd. Het doel is om het zo goed mogelijk te doen”, zegt Caruana nog.

Microsoft is niet het enige technologiebedrijf dat zich buigt over het probleem van vooroordelen in algoritmes. Facebook kondigde eerder deze maand Fairness Flow aan. Die tool waarschuwt automatisch wanneer een algoritme een oneerlijke beslissing maakt op basis van ras, geslacht of leeftijd van een individu. Ook IBM werkt aan het mitigeren van vooroordelen in AI-modellen, in het bijzonder met betrekking tot gezichtsherkenning.