De Nederlandse overheid gebruikt volop AI-systemen, blijkt uit een recent onderzoek van de Algemene Rekenkamer. De Nationale Politie en het UWV zijn de grootverbruikers. Ondanks het grote gebruik van AI, zijn de risico’s van dit gebruik in veel gevallen nog niet bekend.
De Algemene Rekenkamer constateert dat de Nederlandse overheid op dit moment in totaal 433 AI-systemen gebruikt of test. Van deze AI-systemen zijn er nu 120 daadwerkelijk in gebruik. De meeste door de overheid gebruikte systemen (167) zijn nog experimenten.
In totaal gebruiken 55 van de 69 onderzochte overheidsorganisaties AI-systemen. Hiervan zetten er veertig AI daadwerkelijk in voor hun processen. De overige vijftien overheidsorganen experimenteren met AI en veertien gebruiken helemaal geen AI. Grootverbruikers zijn de Politie met 23 AI-systemen en het UWV met tien. Gemiddeld gebruiken overheidsorganisaties niet meer dan drie AI-systemen in totaal.
AI blijkt vooral te worden ingezet voor het verbeteren van eigen interne processen die nauwelijks impact hebben op burgers en bedrijven en hiermee geld en tijd te besparen. Bijvoorbeeld het doorzoeken en verwerken van grote hoeveelheden data om de processen te optimaliseren of het omzetten van gesprekken naar tekst of het anonimiseren of sneller doorzoeken van documenten.
Gebrek aan risico-inschatting
Wel constateert de Algemene Rekenkamer dat de risico’s die aan het AI-gebruik door de overheid zijn verbonden, nog niet voldoende bij de instanties bekend zijn. Voor de helft van de door de overheidsinstanties gebruikte AI-systemen is geen risicoafweging gemaakt. Het blijkt ook dat voor een derde van de gebruikte AI-systemen die het label van ‘hoog risico’ kregen, ook geen risicoafweging is gemaakt.
De toetsing van AI-systemen waarvoor wel een risicoafweging is gemaakt, vindt vaak niet op een uniforme manier plaats. Overheidsinstanties gebruiken vaak verschillende instrumenten om deze risico’s vast te stellen. Deze variëren van privacytoetsen en AI-toetsingkaders tot zelfontwikkelde risicoanalyses, constateren de onderzoekers. Er is geen rijksbreed instrument om de risico’s van gebruik af te wegen.
De risico’s voor AI-systemen worden vaak als ‘minimaal ’ingeschat. Dit betekent volgens de Algemene Rekenkamer echter niet dat deze systemen ook echt vrij zijn van risico’s. Voorbeelden van risico’s zijn privacyschending, slechte informatiebeveiliging of een eventuele negatieve impact op burgers en bedrijven door vooroordelen.
Daarnaast blijkt dat slechts vijf procent van de gebruikte AI-systemen in het Algoritmeregister zijn terug te vinden. Verder weten in een derde van de gevallen (35%) overheidsinstanties niet of de AI-systemen niet of deze systemen daadwerkelijk de verwachtingen waarmaken. Bijvoorbeeld omdat niet vooraf is bepaald wat het doel van het gebruik is of wanneer een AI-systeem daadwerkelijk en succes is.
Reactie staatssecretaris Szabó
In een reactie geeft verantwoordelijk staatssecretaris Zsolt Szabó (PVV) van BZK en Koninkrijksrelaties aan dat de overheid inmiddels druk bezig is met het screenen van de gebruikte AI-systemen op mogelijke risico’s en hiervoor maatregelen te treffen. Dit in lijn met de onlangs in werking getreden Europese AI Act.
De overheid is ook druk bezig de systemen in het Algoritmeregister op te voeren. Aan het eind van komend jaar moeten dan in ieder geval alle AI-systemen met hoog risico in het register zijn opgenomen.