5min

We zien keer op keer berichtgeving over de mogelijke gevaren van AI. Dit komt vaak uit de hoek van politici en ethici, maar zij staan hier niet alleen in. Opvallend is namelijk dat de CEO’s van Google en OpenAI zich eveneens regelmatig uitlaten over de noodzaak om kunstmatige intelligentie te reguleren. Recent bleek dat Google’s Sundar Pichai actief meewerkt met het opstellen van AI-regulering. Moeten we wel willen dat deze twee AI-ontwikkelaars actief meedoen met het opstellen van wetgeving over hun speelveld?

Allereerst is het voor de hand liggend om partijen als Google en OpenAI te betrekken bij het opstellen van regelgeving. Binnen die bedrijven is er immers de expertise en het inzicht in naderende ontwikkelingen om duidelijkheid te geven over de aard van AI. Toch is het belangrijk voor bewindslieden om hun eigen professionele afstand te bewaren. Daarbij zijn er meer dan genoeg ethici en alumni van Big Tech, zoals de ‘godfather of AI’ Geoffrey Hinton, om een eigen beeld van de plussen en minnen van AI op te bouwen. Wat Hinton betreft is er in ieder geval genoeg reden om te geloven dat er aardig wat gevaren bestaan omtrent AI.

We mogen wat weerstand tegen wetgeving verwachten vanuit bedrijven toegespitst op AI. Dat is van alle tijden bij zowat alle economische sectoren. Om innovatie te garanderen, maken prominenten zoals CEO Sam Altman van OpenAI zich hard voor een vrij losse interpretatie van AI-regelgeving wat betreft privacy en copyright. AI-toepassingen barsten uit de voegen van garanties over gegevensbescherming en chatbots zijn er als de kippen bij om hun capaciteiten te bagetalliseren. Voor de eindgebruiker is de boodschap vanuit grote AI-boeren: geef ons het voordeel van de twijfel. Immers is het niet zo dat we snel inzichtelijk krijgen wat er met onze chatbot-prompts gebeurt. Dit terwijl we bij bijvoorbeeld Microsoft bij het gebruik van cloudomgevingen meer kunnen weten over de strikte regels waaraan zij zich dienen te houden als het gaat om gebruikersgegevens.

Input-output

Laten we het tech-bedrijfsleven vooral niet zomaar het voordeel van de twijfel geven als het gaat om privacy. EU-landen strooien met boetes voor Meta en andere Big Tech-partijen. De track record van deze bedrijven is op dit gebied op z’n minst discutabel. Wat kunnen we als het gaat om AI hiertegen doen?

Dat is op zich niet al te complex. Het eisen van transparantie over de gebruikte datasets en de overdracht van gebruikersgegevens kan voor generatieve AI-modellen voor meer duidelijkheid zorgen. Zo voorkomen we privacy-problemen en copyright-overtredingen. Generatieve AI is namelijk in potentie nuttig voor allerlei bedrijven, zij het via Copilot-plugins of projecten zoals Dolly 2.0, die bedrijven meer vastigheid geven over de authenticiteit van de datasets.

Van OpenAI mogen we niet meer weten hoeveel parameters hun GPT-4-LLM (large language model) heeft. Dat mag best zo blijven, evenals de precieze complexiteit van het model. Bij dat soort vragen belanden we namelijk in een eindeloze discussie als we de kwestie niet andersom aanpakken. Privacy- en copyright-schendingen kunnen door het inzichtelijk maken van de input van AI-modellen beperkt worden. Echter blijft daarbij de grotere kwestie omtrent de gevaren van AI onbeantwoord.

Dubbele persoonlijkheid

Deze toekomstige gevaren zijn de reden dat het lijkt alsof Sundar Pichai en Sam Altman zich in een spagaat hebben gewerkt. Aan de ene kant pleiten ze namelijk voor overkoepelende AI-regels en aan de andere kant voor een ruimdenkend beleid om innovatie toe te staan. De podcast-versies van Pichai en Altman spreken over voorzichtigheid omtrent AI. Als CEO’s zijn ze echter fervent voorstander van AI-ontwikkeling en haasten ze zich om niet achterop te raken in deze strijd. Dit is waar we de verklaring kunnen vinden voor deze schijnbaar dubbele persoonlijkheden. Men heeft het over twee verschillende kwesties: die van AI-toepassingen in het hier en nu aan de ene kant en de capaciteiten van een ongereguleerde geavanceerde kunstmatige intelligentie aan de andere.

In dat tweede geval staan Google en OpenAI opeens aan de kant van de politiek en de burger. Ook zij zullen niet willen dat AI een reputatie van kwaadaardigheid ontwikkelt. Toch drijft de AI-wapenwedloop hen om telkens weer een verdere stap in deze richting het groene licht te geven. Een ongereguleerde AI is namelijk ook de meest potente vorm ervan. Als we hier te laat actie tegen ondernemen, streeft deze kunstmatige intelligentie de menselijke intelligentie voorbij. Althans, dat is waar het volgens experts op lijkt. Wat is daarvoor de oplossing?

Beginselen

De complexiteit van AI kan voor een verlamming zorgen bij regelgevers. Hoe kun je temmen wat je niet kent? Daarvoor moeten we het over een andere boeg gooien. Van belang is dat we een wenselijke manifestatie van AI behouden: eentje die ons assisteert, controleerbaar is en sommige taken goed kan automatiseren. Het is een stap voorbij de robots die onze auto’s in elkaar zetten of kamers kunnen stofzuigen. Toch is AI aanzienlijk moeilijker te voorspellen dan dergelijke computersystemen – net als mensen zelf.

Wij hebben ons te houden aan wetten die onze slechtere neigingen stremmen. Roekeloos verkeersgedrag, het verspreiden van misinformatie en oplichting zijn allemaal sterk gereguleerd. Voor AI kunnen we natuurlijk niet precies dezelfde regels verzinnen, maar het is op de lange termijn niet alleen maar een software-applicatie. Voor OpenAI en Google is het van groot belang om te weten waar men wel en niet verantwoordelijk voor zal zijn als ontwikkelaars. Daarnaast zullen zij graag de dreiging van open-source AI willen stoppen door regels op te stellen waar alleen zij aan kunnen voldoen. De open-source gemeenschap zorgt voor de democratisering van technologie. Dit klinkt positief. In veel gevallen is het dat zeker. Wat AI betreft zorgt de open-source richting in ieder geval wellicht ook voor een mate van zelfregulering door de openbaarheid van de programmeercode. Echter kunnen we op een punt belanden waarbij we niemand verantwoordelijk kunnen houden voor een open-source AI-model dat ongewenste toepassingen mogelijk maakt.

Om zowel Big Tech als open-source richting te kunnen geven, moeten er AI-beginselen op poten gezet worden. Die zullen fluïde zijn als het gaat om specifieke applicaties wat betreft privacy en copyright. Daar hebben we partijen als OpenAI en Google niet echt bij nodig. Voor de bredere kwesties rondom de inperking van AI-regels mogen we best even polsen hoe zij ertegen aan kijken.

Lees ook: OpenAI-CEO pleit voor nieuwe veiligheidswetgeving voor AI