De Europese Raad wil de ontwikkeling van open-source artifical intelligence reguleren, maar onderzoekers waarschuwen voor de gevaren van het plan.

In 2021 introduceerde de Europese Commissie een wetsvoorstel voor de regulering van artifical intelligence (AI). Brussel wil voorkomen dat AI bijdraagt aan discriminatie, privacyschending, dictatuur en maatschappelijke ontwrichting.

De regels zijn afhankelijk van de toepassing van AI. Ontwikkel of gebruik je een AI-systeem voor het onderwijs, dan kom je onder zwaarder toezicht te staan dan de gebruiker of ontwikkelaar van een algemene chatbot. De zogeheten AI Act is nog niet definitief. De details worden op dit moment door beleidsmakers overlegd.

Een van de vraagstukken is de regulering van general-purpose AI. De meeste beleidsmakers stemmen in dat AI-systemen voor onderwijs, handhaving en andere gevoelige toepassingen onder zwaar toezicht moeten staan. Maar over de aanpak van AI-systemen voor algemene taken (general-purpose AI) zijn de meningen verdeeld.

Toezicht op open-source AI developers

De Europese Raad stelt voor om ontwikkelaars van general-purpose AI-systemen (GPAI) op te zadelen met richtlijnen voor risk management, data governance, transparante documentatie en cybersecurity. Onderzoeksinstituut Brookings waarschuwde onlangs dat het plan rampzalige gevolgen kan hebben voor de open-source ontwikkeling van AI.

De Europese Raad beschouwt GPAI-systemen als AI-systemen met “algemene functies” en “diverse toepassingen”. Brookings merkt op dat open-source AI-projecten in hetzelfde straatje passen. Volgens het onderzoeksinstituut kan het voorstel open-source ontwikkelaars aansprakelijk maken voor overtredingen van derde partijen.

Het gevaar

Stel dat een derde partij een open-source project verwerkt in een AI-toepassing. De toepassing blijkt een overtreding van de AI Act. De derde partij wordt op het matje geroepen. Brookings is bang dat het bedrijf de schuld kan afschuiven op de ontwikkelaars van het open-source project.

Stable Diffusion is een praktijkvoorbeeld. Het open-source AI-systeem genereert afbeeldingen op basis van woorden. Op zichzelf is het systeem onschuldig, maar meerdere developers verwerkten de technologie in tools voor pornografische deepfakes. Het voorstel van de Europese Raad kan het mogelijk maken om Stable Diffusion verantwoordelijk te houden voor de deepfakes.

Volgens Oren Etzioni, CEO van het Allen Institute for AI, creëert het voorstel een klimaat waarin developers bang zijn om open-source AI-projecten te ontwikkelen. “Open-source ontwikkelaars moeten anders worden behandeld dan commerciële partijen”, vertelde de CEO tegen TechCrunch.

“Denk aan studenten die AI-vaardigheden opdoen. Zij kunnen het zich niet veroorloven om te voldoen aan regelgeving en worden mogelijk gedwongen hun software niet te verspreiden. Dat heeft een negatief effect op wetenschappelijke vooruitgang.”

Tegenlicht

Mike Cook, een AI-onderzoeker van Knives and Paintbrushes, ziet het anders. Volgens Cook is het belangrijk om elke ontwikkelaar — open-source of commercieel — scherp te houden. “De angstzaaierij komt meestal van mensen die alle regelgeving willen afschaffen en vrij spel willen hebben, en daar hecht ik over het algemeen weinig waarde aan”, aldus Cook.

“Ik denk dat het oké is om wetten te creëren met het oog op een betere wereld, in plaats van je zorgen te maken over of je buurman minder wordt gereguleerd dan jij, en daar op een of andere manier van zal profiteren.”

Wordt vervolgd

Brussel rondt de AI Act in de komende maanden af. Naar verwachting wordt er in de aankomende herfst op het wetsvoorstel gestemd. Vanaf dat moment weten we of en hoe open-source AI-ontwikkelaars onder toezicht komen te staan.

Tip: AI brengt cybersecurity vooruit, maar biedt ook hackers volop kansen