3min

Tags in dit artikel

, , ,

Europa sleutelt aan een wetgeving om kunstmatige intelligentie te reguleren. Europese regelgevers zijn daar zelf erg tevreden over, maar hoe wordt de AI Act verder onthaald?

Nu de krijtlijnen voor de AI-wet bekend zijn, begint een discussie los te barsten rond de mogelijke gevolgen. Het ene kamp gelooft dat regels nodig zijn om de risico’s van krachtige AI-technologie in te perken, terwijl het andere kamp overtuigd is dat regulering nefast zullen uitdraaien voor de Europese economie. Is het uitgesloten dat veilige AI-producten ook economische welvaart meebrengen?

‘Industriële revolutie’ zonder Europa

De EU “voorkomt dat de industriële revolutie zal plaatsvinden” en stelt zichzelf voor als “geen onderdeel van de wereld van de toekomst”, zegt Joe Lonsdale aan Bloomberg. Hij verschijnt regelmatig in de Amerikaanse media rondom AI-thema’s als uitgesproken voorstander van de technologie. Volgens hem heeft de technologie het potentieel een derde industriële revolutie te veroorzaken en moet ieder bedrijf het al in zijn organisatie hebben.

Hij behaalde een bachelor in informatica in 2003. Ondertussen heeft hij enkele technologische bedrijven mee opgericht, waaronder bedrijven die kunstmatige intelligentie inzetten. Later groeide hij uit tot zakenman en durfkapitalist.  

De vraag is alleen zijn de zorgen gefundeerd? Er lijkt in ieder geval voorzichtigheid nodig om grote AI-producten niet uit Europa te zien verdwijnen. Sam Altman, bekender figuur in de IT-wereld als CEO van OpenAI, sprak zich eerder al uit over een mogelijke verdwijning van AI-bedrijven uit Europa als de regels te moeilijk te volgen worden. Zelf is hij niet van plan ChatGPT uit Europa te halen omwille van de AI-wet, maar hij waarschuwt hier voor de mogelijke acties van andere bedrijven.

ChatGPT blijft

De CEO is zelf in wezen een groot voorstander van veiligheidswetgeving voor AI. Hij pleit voor duidelijke veiligheidsvereisten waaraan AI-ontwikkelaars moeten voldoen voor de officiële uitgave van een nieuw product.

Als een grote speler in het AI-veld zelf pleit voor regulering van zijn technologie, kunnen we als Europa misschien maar beter luisteren. Dat gebeurt met de AI Act, waarmee de EU probeert als eerste in de wereld een set van regels voor kunstmatige intelligentie uit te zetten. De EU is een pionier, maar zal ook zelf de valkuilen van een beleid moeten ontdekken bij het ontbreken van een goed voorbeeld in de wereld.

De regels worden tot de officiële inwerkingtreding in 2025 eigenlijk voortdurend getest door experten die publiekelijk hun mening geven over de wet. Een publiekelijke testperiode die ook voor AI-ontwikkelaars belangrijk moet zijn, aldus Altman. De Europese Unie doet er zelf ook wat aan om niet vanaf hogerop regels te verzinnen voor een veld waar het zelf eigenlijk niet zoveel vanaf weet. De wetgeving zal bottom-up tot stand komen door betrekking van bedrijven en ontwikkelaars die al actief bezig zijn met AI in het uitzetten van de standaarden.

Afkijken

Hoewel de EU vaak uitspreekt dat de AI-wet de eerste regulering van kunstmatige intelligentie in de wereld zal zijn, wordt er op andere plaatsen net zo goed aan een wettelijk kader gesleuteld. Het Verenigd Koninkrijk bijvoorbeeld wil de technologie graag omarmen, maar wil ook zekerheid over de veiligheid ervan. Daarvoor dompelt het zichzelf onder in de technologie en krijgt het vroege toegang tot de modellen van DeepMind, OpenAI en Anthropic voor onderzoeksdoeleinden.  

In Engeland zijn er alleen geen plannen om bedrijven te straffen die niet aan de regels voldoen. Het land beperkt zich tot een kader van vijf principes waaraan kunstmatige intelligentie zou moeten voldoen. De keuze lijkt in het nadeel te spelen van een gegarandeerde veiligheid van AI-producten en daar zegt het land zelf voor te kiezen om investeringen van AI-bedrijven in het VK aan te trekken. Veilige AI-producten en economische welvaart blijken volgens het land dus niet hand in hand te gaan, afwachten of de AI-wet van Europa dat bekrachtigt.