4min Analytics

Wie is verantwoordelijk als AI beslissingen gaat maken?

Een man in een blauw pak en bril poseert voor een foto.
Wie is verantwoordelijk als AI beslissingen gaat maken?

Kunstmatige intelligentie (AI) helpt mensen steeds vaker met het maken van beslissingen, maar is zeker nog niet volwassen genoeg om helemaal zelfstandig tot een besluit te komen. Er zijn namelijk menselijke aspecten waar AI nog te weinig inzicht in heeft om een goed geïnformeerd besluit te nemen. Toch ontstaat er langzaam maar zeker steeds betere technologie om beslissingen te automatiseren. Maar als AI straks zelf beslissingen gaat maken, wie draagt dan de verantwoordelijkheid voor de gevolgen die daaruit voortvloeien?

Normalisatie van AI

AI wordt tegenwoordig in bijna elke sector gebruikt en de toepassingen ervan blijven groeien. Het dagelijkse gebruik van AI is snel genormaliseerd. Kijk bijvoorbeeld naar zelfrijdende auto’s, videogames, virtuele assistenten zoals spraakassistenten voor thuis, of ChatGPT. De groei zorgt vaak voor discussie. Veel kleine beslissingen en keuzes worden al snel volledig toevertrouwd aan AI. Het is natuurlijk geen ramp wanneer een karakter in een videogame niet helemaal perfect functioneert of als een chatbot een vraag niet goed begrijpt. Maar voor andere toepassingen – zoals het niet herkennen van ziektes in de zorg of het verlenen van toegang aan onbevoegde mensen – kan het wel drastische gevolgen hebben.

Beveiliging steeds innovatiever door AI

Maar ondanks de risico’s, maakt AI het leven vaak wel gemakkelijker. Kijk bijvoorbeeld naar de luchtvaartbranche. Als onderdelen van een vliegtuig kapot zijn, is dat levensgevaarlijk, dus onderhoud is van groot belang. Het is een doorlopend proces dat veel tijd kost. Met behulp van AI kan ‘voorspellend onderhoud’ worden gedaan en krijgen monteurs tijdig een seintje als er iets gerepareerd moet worden. Hierdoor kunnen op tijd onderdelen vervangen worden en blijft ongepland onderhoud minimaal.

En wat dacht je van de beveiligingssector? Steeds vaker worden camera’s uitgerust met zoekfilters zoals object- en persoonsdetectie. AI kan hierdoor bewakingsbeelden filteren op factoren die een risico vormen. Dit kunnen bijvoorbeeld personen of voertuigen op onbevoegde terreinen zijn. Zodra dit wordt gedetecteerd, krijgt de bewaking een seintje en hoeven ze niet heel de dag naar camerabeelden te kijken. Dit scheelt bewakers enorm veel tijd. Maar wat als we volledig op AI vertrouwen in bepaalde sectoren? Wie is er dan aansprakelijk als het fout gaat? Misschien wordt er onbedoeld toegang verleend aan onbevoegde mensen of krijgen bewakers niet tijdig genoeg een seintje.

Ethiek en normen voor iedereen anders

Lang niet alle AI-toepassingen hebben ernstige gevolgen als het fout gaat, maar in sommige gevallen kan het juist weer fataal zijn. Het is bijvoorbeeld een kwestie van tijd voordat zelfdenkende wapens worden ingezet in oorlogen. Politie, militairen en experts debatteren over de voor- en nadelen van dit soort wapens. Een ingewikkelde discussie, want wat de een ethisch verantwoord vindt, is voor de ander helemaal niet ethisch verantwoord. Er moeten dus duidelijke richtlijnen vastgesteld worden en gekeken worden wie verantwoordelijk is voordat AI zulke beslissingen mag maken.

Bij AI zijn er altijd twee partijen verantwoordelijk: de producent van AI en de gebruiker. De producent die AI heeft ontwikkeld, stelt richtlijnen op. Na de ontwikkeling van een AI-oplossing draagt de producent de verantwoordelijkheid over aan de eindgebruiker. De eindgebruiker bepaalt uiteindelijk wat hij met AI doet en voor welk doel het wordt ingezet. Toch zijn er geen duidelijke regels over het inzetten van AI en dat is waarom hier op dit moment zoveel aandacht voor is.

AI biedt talloze mogelijkheden voor het bedrijfsleven en de beveiligingssector, maar het is belangrijk om bewust te zijn van potentiële gevaren en risico’s die ermee gepaard gaan. Het implementeren van AI-systemen vereist zorgvuldige planning en aandacht voor ethische- en privacygevoelige kwesties. Om de veiligheid van personen, bedrijven en de samenleving te waarborgen, is het daarom cruciaal dat bedrijven en regelgevende instanties samenwerken om passende maatregelen te treffen en ervoor te zorgen dat AI wordt ingezet op een verantwoordelijke en veilige manier.

Dit is een ingezonden bijdrage van Axis. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.