‘AI mist in bedrijven nog te vaak eindverantwoordelijkheid’

Abonneer je gratis op Techzine!

Artificial intelligence (AI) en machine learning worden in de zakelijke wereld als steeds belangrijkere ontwikkelingen gezien, maar stuiten bij de implementatie op veel organisatorische problemen en onbegrip. Dit constateren onderzoekers van Cornell University in een recent onderzoek. AI-managers en -specialisten moeten daarom zich gaan opstellen als leiders die met behulp van ‘Fair-ML’ echte verandering in gang zetten.

In het onderzoek stellen de specialisten, afkomstig van onder meer Accenture, het Partnership on AI en Spotify, dat grootzakelijke bedrijfsleven inmiddels AI en ML, de use cases en bijbehorende technologie inmiddels hebben omarmd. Toch worden de AI-managers en -specialisten binnen deze bedrijven nog steeds geconfronteerd met grote organisatorische en ethische problemen die de inzet van AI beperken.

Ontbreken van verantwoordelijkheid

AI-specialisten binnen bedrijven worden vaak geconfronteerd met het ontbreken van verantwoordelijkheid van het management van bedrijven. Zo neemt management vaak alleen het initiatief op het gebied van AI en ML als het onder druk komt te staan van externe factoren. Ook staat het gebruik van AI en ML onder druk van managementdiscussies over de kosten-prestaties verhoudingen.

Daarnaast is het vaak onduidelijk op welke interne structuren de AI-managers en -specialisten kunnen vertrouwen om hun doelen te realiseren. Er is een gebrek aan eindverantwoordelijkheid en de AI-initiatieven kunnen op die manier tussen alle lagen vallen, aldus het rapport. Verder zijn er vaak spanningen zijn tussen individuele, team- en organisatorische belangen en doelen.

Fair-ML

Uit deze problemen komt naar voren dat AI-managers en -specialisten niet alleen moeten beschikken over de juiste tools voor het bouwen, testen en verfijnen van AI-modellen en -applicaties, maar ook over de juiste capaciteiten om zichzelf als ‘transformational’ leiders op te stellen die de discussie met het management kunnen aangaan.

Bovendien moeten zij goed kunnen omgaan met organisaties die hun idealen niet delen en met mensen die niet openstaan voor verandering. Kortom, AI-managers en -specialisten moeten een balans bereiken tussen operationele doelen en een juiste en verantwoordelijke inzet van AI. De onderzoekers noemen deze balans‘ Fair- ML’.

Oplossingen

De onderzoekers geven daarom een aantal ideeën waarmee AI-managers en -specialisten Fair-ML geaccepteerd kunnen krijgen. Zij moeten het C-level management en de Raad van Commissarissen (RvC) ‘leren’ om Fair-ML te begrijpen, te ondersteunen en zich intensief mee bezig te houden. Fair-ML moet voorop staan binnen de algemene doelstellingen van het bedrijf en via bestaande processen worden vertaald in op individueel niveau haalbare acties.

Alle medewerkers moeten hier ook in worden meegenomen. Iedereen moet weten welke risico’s er zijn als AI verkeerd wordt ingezet. Bovendien moeten zij worden getraind fouten toe te geven en daarvoor de verantwoordelijkheid te nemen.

Communicatie over Fair-ML moet open zijn en voor iedereen toegankelijk. Dit betekent dus goede communicatiekanalen en weten hoe informatie moet worden gedeeld.

Verder moeten bedrijven eerst Fair-ML reviews en rapporten uitbrengen, voordat nieuwe AI-mogelijkheden worden uitgerold. Dus eerst de mogelijke impact openbaar maken, voordat AI- en ML-mogelijkheden worden ingezet.

Een laatste aanbeveling is dat er een ‘vetorecht ’moet komen om AI- en ML-activiteiten te kunnen stoppen als blijkt dat deze niets of weinig opleveren. Dit vetorecht moet op verschillende niveaus, aan individuele personen, managementteams, multidisciplinaire toezichtteams tot zelfs externe investeerders en de RvC, worden toegekend, zonder dat dit voor hen problemen oplevert, zo besluit het onderzoek.