4min

Tags in dit artikel

, , , , ,

OpenAI, Microsoft en Google sleutelen samen of op zichzelf allemaal aan AI-producten. Achter de schermen blijken zij ook aan iets ander te sleutelen: een weg om de AI Act niet van toepassing te laten zijn op hun producten.

Nog voor de AI Act officieel in werking kan treden, lijken grote techbedrijven zich al onder de aankomende regels uit te wurmen. Microsoft, Google en OpenAI brachten allemaal al een bezoekje aan Europese instellingen. Zo proberen zij zich een weg uit de AI Act te lobbyen.

Lees ook: EU stemt over AI Act-ontwerp: moet ChatGPT veranderen?

Specifiek onderwerp van de discussie is de categorie ‘hoog risico’, waarin de EU AI-tools wil onderbrengen die een risico vormen voor de samenleving. Producten en oplossingen uit deze categorie zullen niet toegelaten worden in Europa en dus verzekeren Microsoft, Google en OpenAI zich nu alvast van een plekje op de Europese AI-markt.

Volgens de bedrijven zelf is er een goede reden waarom hun tools onder deze categorisering uitvallen. De strenge regels moeten namelijk alleen opgelegd worden aan bedrijven die kunstmatige intelligentie willen gebruiken voor een use-case met een hoog risico.

Grote techbedrijven houden zich doorgaans niet bezig met een specifiek gebruik, maar willen net tractie vinden bij het grote publiek. Het is daarmee niet gezegd dat de oplossingen niet kunnen dienen voor een use-case met een hoog risico. Gebruikers kunnen taalmodellen misbruiken om persoonlijke informatie te ontfutselen of een spraaktechnologie inzetten om audio deepfakes te creëren, om maar enkele voorbeelden te noemen.

De man met twee gezichten

In publiekelijke optredens houdt Sam Altman, CEO van OpenAI, er een heel andere aanpak op na. Hij ging bij regelgevende instanties rond om te pleiten voor een vorm van wetgeving. Volgens hem zijn er duidelijke regels nodig voor AI-ontwikkelaars om de veiligheid van de tools te garanderen.

Achter de schermen horen deze meer tegengeluid van de CEO. Hij is wel consistent van mening dat regels er moeten komen, maar trekt vooral graag zelf de kar. Dat blijkt uit de white paper die OpenAI stuurde naar EU-functionarissen en TIME opvroeg en publiceerde. “Op zichzelf is GPT-3 geen risicovol systeem. Maar het beschikt over capaciteiten die mogelijk kunnen worden gebruikt in use-cases met een hoog risico.”

Milder definitief ontwerp

De white paper stuurde OpenAI al naar de EU Commissie en Raad in september van 2022. Het definitieve ontwerp van de wet werd in juni 2023 pas goedgekeurd. In dat ontwerp staat niet langer dat AI-systemen voor algemene doeleinden per definitie als hoog risico moeten worden beschouwd, terwijl dat in eerder ontwerpen wel stond. Compromis is nu dat bij belangrijke modellen, zoals het taalmodel voor ChatGPT, transparantie nodig is over de datasets die gebruikt werden bij de training.

OpenAI beargumenteerde zelf als volgt de reden waarom hun tools geen hoog risico inhouden: “Wij zijn van mening dat onze aanpak voor het beperken van risico’s die voortkomen uit het algemene karakter van onze systemen toonaangevend is in de branche.” Ondertussen is het echter al lang bekend dat het mogelijk is om de ingebouwde veiligheid in taalmodellen van OpenAI te omzeilen. Op Jailbreak Chat bijvoorbeeld vind je voorbeelden genoeg van prompts om het taalmodel te misbruiken.  

Verder vond OpenAI het niet nodig om een regel in te stellen die alle AI-producten als ‘hoog risico’ beschouwt wanneer ze inhoud genereren die niet te onderscheiden is van een menselijke creatie. Het was volgens het bedrijf niet nodig om deze regel naar het definitieve ontwerp over te brengen omdat er al een regel voorzien is die bedrijven ertoe verplicht AI-content duidelijk te labelen. Het bedrijf spreekt de angst uit dat zijn producten door de eerste regels automatisch in de strengste categorie zullen vallen en vraagt de regelgevers daarom in de white paper om alleen het labelen van AI-content verplicht te maken.

“Dit artikel kan voldoende eisen en ervoor zorgen dat providers redelijkerwijs passende maatregelen treffen rond desinformatie en deepfakes, zoals het watermerken van inhoud of het behouden van de mogelijkheid om te bevestigen of een bepaald stuk inhoud door hun systeem is gegenereerd’, besluit het bedrijf. Het definitieve ontwerp dat werd goedgekeurd door het EU Parlement behoudt inderdaad enkel de verplichting van het labelen.

Lobbyen of adviseren?

De white paper doet het geloof in de AI Act wat in elkaar vallen bij een eerste lezing. De wet komt er net om kunstmatige intelligentie te reguleren en veilig te maken voor het publiek, dat is voornamelijk belangrijk bij producten en modellen die door veel Europeanen gebruikt worden. Grote techbedrijven mogen daarom niet zomaar de dans ontspringen.

Anderzijds is het net verstandig dat de EU ten rade gaat bij bedrijven die al volop bezig zijn met AI om de regels te ontwerpen. Anders dreigt de AI Act al snel een rem te zetten op innovaties. Mogen we het deze bedrijven dan kwalijk nemen dat ze tijdens hun raadgeving proberen zichzelf alvast in een goeie positie te schuiven?

“We erkennen en waarderen de enorme omvang van het werk van de EU om de ontwikkeling van kritieke Al-technologie te begrijpen en aan te moedigen, en tegelijkertijd: ervoor te zorgen dat de ontwikkeling en het gebruik van deze systemen de fundamentele mensenrechten en waarden eerbiedigt. We blijven klaar om te helpen en te adviseren waar nodig”, besluit OpenAI.