2min Analytics

Fake news blijft door uitdagingen bij markeren van AI-inhoud

Fake news blijft door uitdagingen bij markeren van AI-inhoud

De AI-sector blijkt nog grote moeite te hebben met het aanduiden van kunstmatig gegenereerde inhoud. Dat blijkt uit een onderzoek van Mozilla.

Afbeeldingen en tekst die gegeneerd werden door AI, worden zelden aangeduid als AI-inhoud. Dat geldt zowel voor een markering die gebruikers kunnen lezen, als voor een watermerk waar machines dan weer boodschap aan hebben.

Moeilijke strijd tegen fake news

De markeringen moeten helpen in het bestrijden van fake news. “Artificiële waarheden kunnen binnen enkele seconden en zonder enige vaardigheden worden gecreëerd om als ‘bewijs’ te worden ingezet voor het manipuleren van mensen. We worden al jaren met dit probleem geconfronteerd, maar dit is een nieuwe dynamiek die vooral zorgwekkend is in een jaar met meer dan zeventig verkiezingen over de hele wereld”, vertelt Ramak Malavi Vasse’l aan SiliconANGLE. Hij is co-auteur van het onderzoeksrapport van Mozilla.

De onderzoekers hekelen voornamelijk het gebruik van een markering of AI-label. Dat komt doordat deze markeringen zonder veel moeite te verwijderen zijn. Deze methode wordt daarentegen wel opgelegd vanuit de EU aan social mediasites. Bij de wetgevers heerst er wel een idee dat dergelijke labels het probleem aanpakken. Vanaf het moment dat de inhoud echter gedeeld wordt in een andere online omgeving, kan aan dit label worden geprutst.

Een betere manier om AI-inhoud te herkennen is via een watermerk, stelt het onderzoek vast. Deze markering is leesbaar voor machines en moeilijker om te verwijderen. Daarom geniet deze methode volgens het onderzoek de voorkeur, maar een watermerk sluit daarom een AI-label niet uit. “Geen van de methoden alleen is een wondermiddel”, stelt Molavi Vasse’l.

Recente ontwikkelingen

OpenAI heeft het nut van markeringen nog maar net ingezien en begon het initiatief bij AI-gegeneerde afbeeldingen. Deze krijgen een watermerk volgens de C2PA-standaard en een visueel CR-symbool. OpenAI volgt daarmee perfect de best practices die het onderzoek van Mozilla nu uitzetten om AI-inhoud te labelen.

De onderzoekers geven wel nog een kritische noot over deze labels en merken op dat transparantie bij AI-gegeneerde inhoud nog geen oplossing is om schadelijke AI-inhoud tegen te gaan. Dit willen ze benadrukken omdat veel wetsvoorstellen alleen regels opleggen rondom de markering.

Lees ook: AI-gegenereerde afbeeldingen krijgen watermerk