2min

Er moet zo snel mogelijk regulering komen voor kunstmatige intelligentie. Overheden en mensenrechtenorganisaties dienen zich daar op zo kort mogelijke termijn aan te wijden. Dat stellen onderzoekers van Google, Microsoft en ook anderen binnen AI Now. Volgens hen is de techindustrie er niet toe in staat gebleken zichzelf te reguleren.

Dat stellen de bedrijven in een veertig pagina’s tellend rapport (PDF) dat deze week gepubliceerd werd. Daarin valt te lezen dat AI-tools te makkelijk uitgerold worden. Daarbij houden bedrijven weinig rekening met mogelijk schadelijke gevolgen. Dat de bedrijven de systemen vaak toepassen in omgevingen waarbij honderdduizenden en soms wel miljoenen mensen mogelijk getroffen worden, is potentieel erg gevaarlijk.

Zelfregulering werkt niet

“De frameworks die AI momenteel moet reguleren, zijn er niet toe in staat gebleken om verantwoordelijkheden te verzekeren”, schrijven de onderzoekers. Problematisch is het feit dat de systemen in schaal en complexiteit groeien. Door het ontbreken van waarborgen in de vorm van verantwoordelijkheden, aansprakelijkheid en procesmatigheid, is er nu sprake van een wildgroei wellicht beter ingeperkt kan worden.

Momenteel zijn er namelijk AI-oplossingen voor zo’n beetje elke mogelijke toepassing in de maak. Zo zijn er systemen die de papers van studenten kunnen waarderen en systemen die inschatten of een immigrant een crimineel verleden heeft. De bedrijven die dit soort systemen ontwikkelen hebben vaak slechts een paar ethische grondvesten waar ze zich op baseren, maar zelfs als ze zich daar niet aan houden, kan hen vaak nauwelijks iets aangerekend worden.

Aanbevelingen voor de industrie

Het rapport van AI Now bevat een aantal aanbevelingen voor de industrie:

  • Er moet zo snel mogelijk regulering komen. Per domein zouden bedrijven samen met overheden en kenners moeten kijken wat er nodig is.
  • Gezichtsherkenning moet aan strenge eisen voldoen, mocht het toegepast worden. Vooral als het aankomt op het herkennen van emoties en criminelen.
  • Er dient een framework te komen waarbij bedrijven publiekelijk verantwoording afleggen voor hun AI-activiteiten. Alles moet gedocumenteerd worden, van de interne processen van een systeem, tot de datasets en het proces waarbij de systemen beslissingen nemen.
  • Er zou hiervoor ook meer budget beschikbaar moeten zijn.
  • De AI-industrie moet accepteren dat zij breder is dan alleen een technische industrie, en accepteren dat de tools veel breder invloed hebben. Dat impliceert meteen bepaalde nieuwe regels waaraan men zich moet houden.