4min

Dat AI grote kansen biedt, zal niemand nog willen betwisten. De zorgen rondom de concrete inzet nemen echter toe, vooral als het gaat om de betrouwbaarheid van de technologie. Een sector waar dit dilemma zich heel scherp aftekent, is de zorg. Met de inzet van AI kan hier veel voordeel worden behaald, maar tegelijkertijd kan onbetrouwbare AI juist grote gevolgen hebben. Wat is er nodig om een juiste inzet van AI binnen ziekenhuizen en organisaties te bevorderen en te waarborgen? En in hoeverre helpt een ‘human touch’ in AI als de menselijke invloeden ook kunnen zorgen voor bias?

Véronique van Vlasselaer, Data & Decision Scientist bij SAS, en Davy van de Sande, PHD-kandidaat Artificial Intelligence in Intensive Care Medicine bij Erasmus MC, bespraken dit tijdens het World Summit AI 2023, de toonaangevende en internationaal gerenommeerde AI-conferentie die de top op het gebied van AI samenbrengt.  

‘Bias in’ is ‘bias out’

In hoeverre kan AI gebruikt en vertrouwd worden binnen het besluitvormingsproces? Véronique van Vlasselaer licht dit toe: “We moeten ons ervan bewust zijn dat de data die gebruikt wordt om AI-systemen te ontwikkelen niet altijd neutraal is. Data ontstaat uit het digitaliseren van menselijke processen en gedragingen, inclusief onze natuurlijke bias. Deze menselijke bias, hoe goed ze ook verstopt is in de data, kan opgenomen worden door AI-systemen; bias in betekent bias out.” Begrijpen waar deze bias vandaan komt en welke rol mensen hierin hebben, is een belangrijke stap in het betrouwbaarder maken van AI.

Dat een dataset met bias een grote impact kan hebben op de besluitvorming illustreerde Van de Sande met een voorbeeld uit de zorg. In een Amerikaans onderzoek werd aangetoond dat zwarte patiënten in Amerika 30% minder zorg ontvingen dan dat zij eigenlijk nodig hadden, door de aanbevelingen van een geïmplementeerd AI-model. Van de Sande: “Het AI-model dat gebruikt werd voor het diagnosticeren van patiënten onderschatte systematisch de ernst van de benodigde zorg voor deze demografische groep, doordat de data die gebruikt werd voor het trainen van deze algoritmes geen goede representatie was van de populatie.”

Balans tussen ruis en patroon

Naast bias in de data kan er ook bias in de AI-modellen ontstaan door de algoritmes die worden gebruikt om tot het AI-model te komen. “Als mens zijn wij uitermate slecht in het onderscheiden van de universele waarheid en enkele uitzonderingen, en dit reflecteert zich in de AI-systemen die wij ontwikkelen.” legt Van Vlasselaer uit. “AI probeert patronen te vinden in data door hier een algoritme op los te laten. Als data scientist word je getraind om de patronen in data zo goed mogelijk op te vangen door een zo passend mogelijk AI-model te bouwen en probeer je daarbij zogenoemde ‘over- of underfitting’ te voorkomen”. Een ‘overfitted’ model reageert te sterk op kleine veranderingen in data, bij een ‘underfitted’ model reageert het model juist te weinig op specifieke patronen. Als data scientist zoek je naar de juiste balans tussen de twee uitersten, om ervoor te zorgen dat de uitkomsten van je algoritme bruikbaar zijn en geen ruis vertonen. Maar wat is ruis? Als uitzonderlijke patronen ontstaan door bepaalde eigenschappen, voorkeuren of interesses van een kleine groep, dan zouden deze patronen, en daarmee deze groep, niet genegeerd mogen worden. Ook in de afstemming van het model, kan dus bias ontstaan.”

Als laatste zijn de beslissingen die mensen maken op basis van AI-resultaten niet neutraal door de interpretatie-bias. “Mensen zijn over het algemeen slecht in het interpreteren van statistieken, waardoor beslissingen op basis van AI-uitkomsten eveneens beladen zijn met bias,” zegt Van Vlasselaer. Sociale en contextuele factoren beïnvloeden de manier waarop uitkomsten worden geïnterpreteerd. Laten we de zorg weer als voorbeeld nemen, een recent onderzoek heeft aangetoond dat resultaten volledig verschillend geëvalueerd kunnen worden door een zorgverlener afhankelijk van geslacht, leeftijd, etniciteit et cetera. Eenzelfde uitkomst van een AI-systeem (bv. verdere ziekenhuisopname) kan dus volledig andere gevolgen hebben voor patiënten met verschillende huidskleur, leeftijd of bijvoorbeeld geslacht. Helaas bestaan er (nog) geen standaarden om dit op een systematische manier op te lossen, waardoor menselijke beslissingen en interpretaties een derde component vormen voor bias in AI.  

Bias, en dan?

Om terug te gaan naar het voorbeeld van de zorg; AI is hier extreem belangrijk om innovatie te bevorderen en de impact te maken op de patiëntenzorg die zo hard nodig is. Projecten blijven echter hangen in de ontwikkelingsfase. Het gebrek aan implementatie is voor een deel toe te schrijven aan de grote zorgen en het wantrouwen rond het gebruik van AI, omdat het besef dat vooroordelen ook in AI doordringen meer en meer aanwezig is. Enkel technologie zelf biedt hier echter geen uitweg; de combinatie tussen technologie en menselijk aandeel is hierin onmisbaar en zal onmisbaar blijven bij het toepassen van AI in systemen.

Het begrijpen van bias in AI en menselijke invloeden hierop is een belangrijke eerste stap. Dat leidt ook tot een verantwoordelijkheid voor AI-ontwikkelaars en alle betrokken partijen om zich bewust te zijn van hun eigen vooroordelen. Vooroordelen zijn echter diepgeworteld in de maatschappij en deze oproep is op zichzelf dus niet voldoende. De beste oplossing voor het beperken van bias in AI, blijft het gebruik van menselijke intelligentie en meer diversiteit binnen teams waardoor vooroordelen kunnen worden geneutraliseerd. De menselijke maat blijft hierin dus toch noodzakelijk.

Dit is een ingezonden bijdrage van SAS. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.