EU stelt richtlijnen op voor ontwikkeling van ethische AI

De Europese Unie heeft een set aan richtlijnen gepubliceerd over hoe bedrijven en overheden ethische applicaties van kunstmatige intelligentie (AI) moeten ontwikkelen. De richtlijnen zijn geen wetgeving, maar worden mogelijk wel gebruikt bij het opzetten van toekomstige wetten, aldus The Verge.

De richtlijnen zijn bedoeld om de duistere en diffuse problemen aan te pakken die de samenleving aantreft als AI geïntegreerd wordt in gezondheidszorg, onderwijs en consumententechnologie. De richtlijnen werden opgesteld door een groep van 52 experts. De zeven punten zijn als volgt:

  1. Menselijk agentschap en overzicht: AI-systemen moeten billijke maatschappijen mogelijk maken door menselijk agentschap en fundamentele rechten te ondersteunen en de menselijke autonomie niet verminderen, beperken of misleiden.
  2. Robuustheid en veiligheid: betrouwbare AI vereist algoritmes om veilig, betrouwbaar en robuust genoeg te zijn om om te gaan met fouten en inconsistenties tijdens alle fases van de levenscycles van AI-systemen.
  3. Privacy en data governance: burgers moeten de volledige controle hebben over hun eigen data, terwijl data die om hen draait niet gebruikt wordt om hen te schaden of te discrimineren.
  4. Transparantie: de traceerbaarheid van AI-systemen moet gewaarborgd worden.
  5. Diversiteit, non-discriminatie en eerlijkheid: AI-systemen moeten rekening houden met alle menselijke vaardigheden en vereisten, en zorgen voor toegankelijkheid
  6. Maatschappelijk en ecologisch welzijn: AI-systemen moeten gebruikt worden om positieve sociale veranderingen te verbeteren, evenals de duurzaamheid en ecologische verantwoordelijkheid.
  7. Verantwoording: Er moeten mechanismes ingezet worden om de verantwoordelijkheid van en verantwoording voor AI-systemen en hun uitkomsten te waarborgen.

Reeks vragen

Het rapport bij de richtlijnen bevat ook een “Trustworthy AI assessment list”, een lijst aan vragen die experts kan helpen bij het vinden van mogelijke kwetsbaarheden of gevaren in AI-software. De lijst bevat vragen als “Heb je geverifieerd hoe je systeem zich gedraagt in onverwachte situaties en omgevingen?” en “Heb je het type en de reikwijdte van de gegevens in je dataset beoordeeld?”

De beoordelingslijsten zijn nog tijdelijk, maar de EU verzamelt de komende jaren feedback van bedrijven. In 2020 verschijnt een laatste rapport over het nut van de beoordelingslijsten.