2min

Tags in dit artikel

, , ,

AI-modellen die een algemeen doel dienen, ofwel general-purpose AI (GPAI), krijgen binnen de AI Act een transparantiebeleid opgelegd. Systemen die een groter risico inhouden, krijgen bijkomende regels opgelegd. Voor wie die regels exact zijn bedoeld, blijkt alleen nog volledig onduidelijk.

De EU AI Act heeft inhoudelijk nog veel vraagtekens op te lossen. Dat blijkt opnieuw uit een persconferentie van maandag die TechCrunch bijwoonde. Daarin bevestigde het eveneens dat foundation models onderdeel zijn van de categorie die de wetgevers aanduiden met ‘general purpose AI’. De algemeenheid moet ervoor zorgen dat de wet toekomstgericht is: “In de toekomst zullen we wellicht verschillende technische benaderingen hebben. En dus zochten we naar een meer algemene term.”

Onduidelijkheden over opdeling

Alle modellen die voldoen aan de vooropgestelde definitie van een GPAI moeten voldoen aan een transparantiebeleid. Dat omvat het opstellen van technische documentatie, de naleving van de Europese wetgeving omtrent auteurstrechten en het voorzien van een samenvatting over de trainingsdata.

Bijkomende regels gelden voor modellen met systemische risico’s. Het gaat om risico’s die het potentieel hebben om bij problemen een domino-effect te creëren en uiteindelijk de bredere economie doen ineenstorten. Om in die categorie te worden ingedeeld, gebruikt de Commissie een erg onduidelijk principe. Zo gaat het uit van de benodigde rekenkracht bij het trainen van modellen. Modellen die 10^25 FLOPs ofwel floating point operations overschrijden, vallen onder deze categorie.

Tijdens de persconferentie duidde de Commissie dat dit criteria werd genomen om belangrijke generatieve AI-modellen in te vatten. Het zou echter niet besproken zijn geweest of dit criteria wel opgaat voor bestaande AI-modellen. Bovendien liet de Commissie verstaan dat de ontwikkelaars zelf dienen te bepalen of hun modellen onder deze wetgeving vallen. “We zullen zien wat de bedrijven zullen beoordelen, omdat zij het best geplaatst zijn om deze beoordeling te maken.”

Geen bedrijven viseren

Deze methode verkoze de wetgevers om onpartijdig te blijven. “De regels zijn niet geschreven met het oog op bepaalde bedrijven.” Bovendien moeten de vereisten nog worden aangevuld door de AI Office. Dat is een groep van experten die de naleving van de wetgeving opvolgen, maar momenteel nog niet ingericht is.

Er zijn nog veel meer inhoudelijke aspecten van de AI Act die nog moeten worden bepaald. Daar volgen elf vergaderingen over, waarvan de eerste vandaag al plaatsvindt volgens Reuters. Tijdens de vergaderingen komen regeringsfunctionarissen en assistenten van wetgevers samen om de details te bepalen.

Lees ook: AI Act: OpenAI en Google mogen geen auteursrechten schenden