4min

AI domineert de afgelopen maanden het nieuws – veel organisaties willen de technologie gaan gebruiken of doen dit inmiddels al. Daarbij moeten ze er wel voor zorgen dat ze AI verantwoord inzetten – de vraag is: hoe?

Een van de grootste voordelen van AI is het vermogen om enorme hoeveelheden complexe berekeningen in korte tijd uit te voeren. Het is exponentieel sneller dan een mens en is uitermate geschikt voor vervelende, tijdrovende taken zoals het filteren van logdata op afwijkingen die kunnen duiden op een securitylek. Deze berekeningen worden gemaakt binnen een model dat door mensen is gecreëerd en is getraind met een enorme hoeveelheid data over een bepaald onderwerp. Dat model wordt vervolgens gebruikt om een algoritme te maken voor patroonherkenning, anomaliedetectie of voorspellingen.

Naast deze voordelen kunnen er ook nadelen aan AI-systemen zitten waar organisaties zich bewust van moeten zijn. Zo kunnen er tekortkomingen in een AI-systeem ontstaan op het moment dat het model wordt ontwikkeld. Onbewuste vooroordelen van de bouwer van het model kunnen ook – onbedoeld – terechtkomen in het algoritme. Dit wordt ook wel ‘bias’ genoemd. Tijdens de training van het model kan de bias uit de trainingsdata vervolgens in het model geïntroduceerd worden. Een voorbeeld waarbij bias in een AI model sloop, was een model dat Amazon had gebouwd om hun HR afdeling te helpen bij de werving van nieuw personeel. Voor de training van het model gebruikten ze historische data van tot 10 jaar terug – een tijd waarin vooral mannen in de technologiesector werkten. Dit leidde ertoe dat het AI-systeem vrouwen uitsloot in het selectieproces bij het kiezen van topkandidaten.

Het over het hoofd zien van deze belangrijke factor tijdens het trainen van het model leidde dus tot onvoorziene gevolgen. Dit is een les waar organisaties lering uit moeten trekken en rekening mee moeten houden. Het kennen van de potentiële nadelen van AI kan helpen bij het ontwikkelen van een slimmer, beter framework voor verantwoord gebruik van AI.

AI gaat niet meer weg – dit hoeft niet te gelden voor bias

Bias is op dit moment een van de belangrijkste potentiële problemen van AI en kan grote gevolgen hebben. Zeker nu we steeds meer AI-toepassingen gebruiken in ons dagelijks leven, zoals chatbots, administratieve AI en andere AI-toepassingen die repetitieve taken overnemen.

Er bestaan ook zorgen dat leiders op een zeker moment belangrijke beslissingen zullen laten nemen door AI-systemen, ongeacht de bias die deze systemen kunnen hebben. Het is essentieel dat we ons bewust zijn van ethische aspecten die dit met zich meebrengt. Wie is er bijvoorbeeld eindverantwoordelijk voor de genomen beslissingen? Het is de uiteindelijke verantwoordelijkheid van het leiderschap om zoveel mogelijk vooroordelen weg te nemen en vertrouwen, transparantie en eerlijkheid te creëren.

AI zou de copiloot moeten zijn, niet de piloot zelf

Uit een onderzoek van de universiteit van Harvard blijkt dat AI kankercellen in 92% van de gevallen accuraat kon detecteren, terwijl dit met conventionele methoden 96% was. Echter, wanneer mens en AI met elkaar samenwerkten, werd 99,5% accuraat voorspeld. Dit laat zien dat een samenspel tussen mens en AI betere resultaten op kan leveren dan wanneer ze zelfstandig opereren.

Dat de combinatie van mens en AI goed werkt, blijkt niet alleen uit de nauwkeurigere resultaten die het oplevert, maar ook uit de beoordeling en vermindering van bias. Als een model wordt getraind, moeten mensen ook leren hoe ze kunnen letten op bias en op andere potentiële problemen in AI-modellen. Dit houdt in dat mensen hun cognitieve, emotionele en sociale intelligentie moeten verruimen met machine learning om te leren herkennen welke aspecten van een AI-model bias, gebrek aan betrouwbaarheid of tekenen van oneerlijkheid vertonen.

Hoe leiders zichzelf opnieuw kunnen uitvinden in het AI-landschap

Begrijpen hoe de modellen achter AI-toepassingen werken is één manier waarmee leiders zichzelf kunnen voorbereiden op de nieuwe uitdagingen waar ze mee te maken gaan krijgen. Het is hiernaast ook belangrijk dat er nadruk wordt gelegd op morele fundamenten en ethische praktijken bij bijvoorbeeld chatbots – mensen kunnen namelijk snel een soort vertrouwensrelatie bouwen met een chatbot. Dit vertrouwen kan echter ook geschaad worden als bijvoorbeeld blijkt dat de chatbot niet goed omgaat met privacygevoelige data of als de chatbot ongevraagd psychische adviezen gaat geven.

Leiders moeten betrokken blijven bij de inzet van AI om ervoor te zorgen dat ze invloed kunnen uitoefenen op het detecteren van bias en op het vertrouwen, de eerlijkheid en de beleefdheid van het AI model. Het is de enige manier om de inzet van AI in het bedrijf zo te beïnvloeden dat het de waarden en bedrijfscultuur versterkt. Hoe AI zich in de toekomst ook ontwikkeld, leiders zullen out-of-the-box moeten denken om het probleem van bias in de toekomst op te lossen.

Dit is een ingezonden bijdrage van Pure Storage. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.