Om te kunnen uitvinden of een AI-model eerlijke voorspellingen doet, moeten data scientists de kortetermijneffecten van AI kunnen bestuderen, maar ook die op lange termijn. Dat maakt Google nu mogelijk met de ML-fairness-gym, een aantal componenten die samen de werking van algoritmes kunnen simuleren.
Met de simulaties wordt het mogelijk om de werking van een AI-model te observeren voordat het daadwerkelijk wordt ingezet in de echte wereld. ML-fairness-gym is open source beschikbaar op GitHub, en gebruikt het Gym-framework van OpenAI. AI-gestuurde agents communiceren met digitale omgevingen, waarbij er in stappen steeds een keuze wordt gemaakt door de agent die de omgeving op een bepaalde manier beïnvloedt. Door de invloed op de omgeving te meten, evenals de stappen die nodig zijn voor die invloed, wordt duidelijk wat de effecten op termijn zijn.
Closed form analysis
De aanpak is een alternatief voor closed form analysis, wat gebeurt met een algoritme dat een eindig aantal berekeningen maakt. Bij ML-fairness-gym worden er steeds nieuwe berekeningen gemaakt nadat de dataset al veranderd is door het model. Dat betekent dus dat er geen statische dataset meer gebruikt wordt, maar een die stap voor stap blijft veranderen. Dit geeft een eerlijkere voorspelling dan als er datasets gebruikt worden die al in de echte wereld bestaan, zonder dat er veranderingen in de dataset zelf plaatsvinden.
“We hebben het ML-fairness-gym framework gecreëerd om ML-beoefenaars te helpen simulatie-gebaseerde analyse naar hun ML-systemen te brengen, een aanpak die effectief is gebleken op vele gebieden voor het analyseren van dynamische systemen, waar closed form analysis moeilijk is”, liet Hansa Srinivasan, software engineer bij Google Research, weten over de nieuwe aanpak.