4min

Gebeurtenissen in de AI-wereld worden door Europa graag aangegrepen als een moment om iedereen nog eens te vertellen over de EU AI Act. De wet wordt vaak in één zin gebruikt met ’toonaangevend’ en lijkt een oplossing te vormen voor de problemen en uitdagingen die de AI-wereld vandaag kent. Wat blijft er alleen straks nog van de wetgeving over nu het verzet tegen de regels alsmaar toeneemt?

Nieuwe kritiek op de EU AI Act hekelt opnieuw het overreguleren van de technologie. Voornamelijk bij foundation modellen kan dat nefast zijn, waarschuwden onder meer Apple, Ericsson, Google en SAP. Een gezamenlijke brief van deze partijen werd op 23 november voorgelegd aan de Europese Unie. “Als vertegenwoordigers van de Europese digitale industrie zien we enorme kansen in foundation modellen en in nieuwe innovatieve spelers die op dit gebied opkomen, waarvan velen van oorsprong Europees zijn. Laten we ze niet verbieden te bestaan voordat ze de kans krijgen om op te schalen, of ze te dwingen te vertrekken.”

Op zich is het standpunt van deze groeperingen niet verrassend. Standpunten die de creatieve sector eerder formuleerden, herformuleerde de brief ook nog even. “Het alomvattende EU-kader voor de bescherming en handhaving van auteursrechten bevat al bepalingen die kunnen helpen AI-gerelateerde auteursrechtenkwesties aan te pakken, zoals de vrijstelling voor tekst- en datamining.”

Lees ook: Doet Europa zichzelf een financiële strop rond met de AI Act?

Inspelen op verdeeldheid in Europa

Toch was er een goede reden voor deze groeperingen om ongeveer dezelfde standpunten nog eens publiekelijk te herhalen. Aanleiding was het onderling akkoord tussen Duitsland, Frankrijk en Italië over de gedeelde visie voor het reguleren van AI. Zo willen zij dat AI-tools en niet AI-technologie wordt gereguleerd. Het zwaartepunt van de wetgeving zou dan bijgevolg niet langer op foundation models rusten. Bovendien zou de EU de opgelegde regels niet afdwingen met sancties.

Brando Benifei, Europees Parlementslid en een belangrijk gezicht in het uitzetten van de wetgeving, zei in een reactie op de plotse crisis bij OpenAI het alvast niet eens te zijn met het akkoord: “Het begrijpelijke drama rond het ontslag van Altman bij OpenAI en het aansluiten bij Microsoft laat ons zien dat we niet kunnen vertrouwen op vrijwillige overeenkomsten die tot stand zijn gebracht door visionaire leiders.”

Ongetwijfeld brengt de overeenkomst tussen de drie Europese grootmachten dus een hevige discussie bij het Europees Parlement teweeg. Met de recente kritiek leggen de groeperingen precies de vinger op de wonde die de verdeeldheid binnen Europa vormt. Duitsland, Frankrijk en Italië zullen de aanzwellende kritiek dankbaar kunnen gebruiken in de discussie.

Veel onzekerheid

Het gevolg is veel onzekerheid rondom de aankomende wetgeving. Zo is het niet langer duidelijk wanneer de AI Act er precies komt. Dat de wet doorschuift naar 2024, is wel steeds duidelijker. Voor de aankomende overlegronde in december is de kans nog heel klein dat de Raad van Europa, de Europese Commissie en het Europees Parlement overeenstemming vinden.

Daarnaast is er steeds minder zekerheid over de inhoud van de AI Act. Bij de stemming in het Europees Parlement in juni was er nog een euforische persconferentie waarin een duidelijke meerderheid van het Parlement de wet goedkeurde. Grote struikelblokken voor de wetgeving leken er niet te zijn. Wel een duidelijk kader om discussies over de definitieve wetgeving op gang te trekken en af te bakenen.

Toch mogen we niet vergeten dat bij de stemming in juni al de deadline van 2025 voorop werd gesteld. Wellicht dachten de wetgevers in oktober dat er al meer overeenstemming over de definitieve inhoud was. De datum schoof daardoor optimistisch door naar 2023. Nu blijkt dat er voornamelijk rond de regels voor foundation modellen nog verdeelde meningen heersen. Al zijn ook de straffen die met de wetgeving gepaard gaan opnieuw onderwerp van discussie.

Volgen we het buitenland?

In de tussentijd zijn er op wereldniveau ontwikkelingen gemaakt die het denken en handelen van de Europese leiders mogelijks beïnvloedden. Op de valreep met november tekenden de G7-top een vrijwillige gedragscode voor AI-ontwikkelaars. Daarnaast zette het richtlijnen uit die als voorbeeld kunnen dienen bij het ontwikkelen van eigen regulering. De Bletchley-verklaring, de officiële benaming van het document, focust zich op de risico’s van de technologie die gepaard gaan met de snelle ontwikkeling van AI. Het gaat om een totaal van elf principes voor onder andere risicobeperking, informatiedeling en het melden van incidenten.

Ongeveer tegelijk met de G7-top drukte het Kabinet-Biden een Executive Order (EO) erdoor, dat dezelfde ambities beaamt als de Bletchley-verklaring. De rode draad in deze documenten is dat er steeds een principe van best practices wordt gehanteerd. Dat geeft AI-ontwikkelaars een handleiding in de manier waarop de overheid gelooft dat AI veilig ontwikkeld kan worden, maar hangen verder geen verplichtingen aan vast. Probeert Europa dit voorbeeld nu te volgen?

Frankrijk, Duitsland en Italië zijn duidelijke voorstanders van de aanpak. Door de Bletchley-verklaring vinden deze landen nu bovendien internationale steun om tot wetgeving te komen die begeleidt, maar niet afdwingt. Zo zien we onder een nieuwe overeenkomst om ontwikkelaars aan te moedigen ‘secure-by-design’-principes te volgen, alleen de handtekeningen van Frankrijk, Duitsland en Italië prijken. Ontwikkelaars worden zo aangemoedigd om LLM’s alleen uit te brengen nadat er voldoende getest werd op de veiligheid, maar worden hier niet toe gedwongen. De bevoegde instanties van de VS en het VK verwijzen naar de overeenkomst als het eerste resultaat van de Bletchley-verklaring en spreken van een ‘een wereldwijde inspanning’. Het gebrek aan steun van de Europese Commissie, doet toch anders vermoeden.