3min

De EU wil nog dit jaar een AI Act gefinaliseerd hebben. De voorstellen die in de zomer onthuld werden, zorgden voor grote consternatie bij allerlei bedrijven, waaronder OpenAI, Airbus, Siemens en Workday. Met name de categorisering van AI-modellen leidde tot zorgen over inperkingen op innovatie. Een nieuw voorstel zou AI-oplossingen op drie niveau’s verdelen, waarbij alle foundational models uitvoerige veiligheidstesten zouden moeten doorstaan.

In augustus gaven we uitgebreid weer welke kanttekeningen techbedrijven plaatsten bij de AI Act-voorstellen. Daaruit bleek dat de private sector maar wat graag bij wil dragen aan het formuleren van regels die de veiligheid van burgers zouden garanderen, maar tegelijkertijd innovatie toe zouden staan.

Tip: AI Act: een wetgeving die altijd moet bijbenen met een nieuwe werkelijkheid

De balans die de EU heeft te vinden, dient zowel techgiganten als kleinere AI-spelers te kunnen reguleren. Volgens berichtgeving van Bloomberg zijn er inmiddels concretere plannen, waarbij de EU elke AI-innovatie kan plaatsen in één van drie categorieën.

Foundation models: transparantie, protocols, opt-outs

Foundation models worden dikwijls omschreven als AI-modellen die aan te sturen zijn voor allerlei taken. Dat is ook de definitie die EU-onderhandelaars voorgesteld zouden hebben. De eisen voor een dergelijk foundation model zijn streng. Het trainingsproces dient in kaart te zijn gebracht, waarbij onafhankelijke experts ongewenst gedrag proberen te stimuleren. Vervolgens zou er een evaluatie plaatsvinden gebaseerd op gestandaardiseerde protocols. Bedrijven die een bepaald foundation model inzetten, zouden volgens de voorgestelde AI Act het recht krijgen om informatie en tests op te vragen van het model in kwestie. Daarnaast moet elke klant de mogelijkheid krijgen om voor een opt-out te kiezen, waarbij hun data niet ingezet wordt voor latere training.

Het punt is meermaals gemaakt dat foundation models erg lastig op deze manier te bezweren zijn. Toch zou het voldoen aan de regels van de AI Act haalbaar moeten zijn, ook al hebben de ontwikkelaars van foundation models nog werk te verrichten.

Rekenkracht als meetpunt

Strengere regels liggen in het verschiet voor “zeer capabele” foundation models, die aan de hand van een nog nader te bepalen FLOPS (floating operations per second)-criterium worden gedefinieerd. Hier zit voor de EU nog de meeste beweegruimte als het gaat om AI-regulering. Dit is eveneens waar bedrijven samen met beleidsmakers kunnen praten over best-practices en een vrijwillige gedragscode. Nog altijd weet de EU hierbij maar moeilijk grip te krijgen op de rappe ontwikkeling die AI doormaakt. Ook is er een voorstel om de potentiële impact van een model te beoordelen aan de hand van applicaties die ervan afhankelijk zijn. Mochten er dus hoge risico’s verbonden zijn aan een oplossing, dan zal de achterliggende AI aan stevigere eisen te hebben voldoen. Wederom gaat het hier om externe experts die met ‘red-teaming’ zullen proberen alle mogelijke gevaren uit te pluizen.

Dat zal een heikel punt blijven voor bijvoorbeeld open-source, aangezien die als inherent gedistribueerde groep maar moeilijk consequent aan strenge regels kunnen voldoen. Daar zal de EU nog altijd een antwoord op moeten formuleren, zeker omdat Big Tech-bedrijven open-source als een belangrijke speler in het AI-spel zien.

AI-oplossingen op basis van gebruikers

Als laatste categorie zouden general-purpose AI-systemen vallen. Elke tool die 10.000 professionele klanten of 45 miljoen eindgebruikers heeft, kan wederom rekenen op een gedwongen red-teaming-initiatief. Risico-analyse en methodes voor mitigaties moeten geformuleerd worden.

Die gebruikersaantallen zijn overigens niet bindend. De EU houdt het recht om andere systemen te nomineren voor extra regels. Nogmaals blijkt er meer beweegruimte binnen de gelaagde structuur van AI Act te zijn dan op het eerste oog het geval lijkt.

Lees ook: Google compenseert gebruikers generatieve AI voor copyright claims