2min

Onderhandelingen over de Europese AI Act zouden een overeenkomst hebben opgeleverd omtrent de vereiste mate van transparantie die AI-ontwikkelaars moeten bieden in hun modellen. Omtrent het gebruik van gezichtsscans en toegang tot de broncode moeten de discussies vandaag tot een einde komen, in een bijkomende vergadering.

Woensdag kwamen Europarlementariërs, leden van de Europese Commissie en lidstaten van de EU samen voor een vergadering omtrent de inhoud van de EU AI Act. Daarover heerst verdeeldheid in Europa, doordat landen met veel gewicht zich plots verzetten tegen te strenge gevolgen aan niet-naleving van de wet. Het gaat om de landen Frankrijk, Duitsland en Italië, die vrezen dat strenge wetgeving start-ups in het eigen land zullen verwoesten.

Ondanks de verdeeldheid wilden de aanwezigen de inhoud van de wetgeving graag zo ver als mogelijk vastleggen. Veel discussies voordat de wetgeving moet worden opgeschoven naar na de Europese verkiezingen, zijn er namelijk niet meer.

Lees ook: Europa verdeeld: wat blijft er over van de AI Act?

Het lukte echter niet om de volledige inhoud van de AI Act te bepalen, weet Bloomberg. Na woensdag op donderdag bijna een volledige dag te onderhandelen, besloten de aanwezigen een bijkomende vergadering in te plannen op vrijdagochtend. Deze is om 9u gestart.

Inzicht in trainingsdata

De discussies vandaag zullen handelen over het gebruik van biometrische identificatie, in de vorm van gezichtsscans, binnen onze regio. De wetgeving rondom foundation models, waar eerder geen overeenstemming voor kon worden gevonden, lijkt wel te zijn vastgelegd. Deze modellen zullen toch transparanter moeten worden over de trainingsdata van hun modellen. Meer details zijn er niet gekend, alleen dat het om enkele basisvereisten gaat. De discussies vandaag zouden verder nog onderhandelen of AI-modellen hun broncode moeten vrijgeven.

Verder zal een deel van de wetgeving toch uitgaan van het principe van gewilligheid. Een vrijwillige gedragscode wordt opgesteld om systemische risico’s te beperken. Het gaat om risico’s die het potentieel hebben om bij problemen een domino-effect te creëren en uiteindelijk de bredere economie doen ineenstorten. De Europese Commissie zou een lijst bijhouden van de AI-modellen die vallen onder deze categorie.