3min

De tool Nightshade bewerkt artistieke werken op een manier die onzichtbaar is voor het menselijke oog, maar de data wel ‘vergiftigd’ voor AI-systemen. Het project schijnt een nieuw licht op de discussie rondom AI en auteursrechten. Hiervoor misbruikt het de zwakheden van AI-systemen, om de ontwikkelaars achter deze tools op de knieën te dwingen.

Op welke manier AI en auteursrechten precies met elkaar om dienen te gaan, is tot nu toe nog niet helemaal duidelijk. Aankomende wetgevingen geven alleen een vaag idee over de invulling en die wetgeving kan nog eens verschillen per wereldregio. Een duidelijke lijn is er dus niet, behalve onder de kunstenaars: zij zijn het beu dat hun harde werk zonder enige vergoeding wordt opgeslorpt in AI-systemen.

Lees ook: Generatieve AI beleeft existentiële crisis door auteursrechten

Kunst vergiftigen

Deze misnoegde partij kan een redmiddel vinden in Nightshade. Deze tool ‘vergiftigt’ als het ware kunstwerken met een gif dat alleen voor AI-systemen zichtbaar is. Het systeem zal hierdoor bijvoorbeeld niet de originele afbeelding van de Mona Lisa te zien krijgen, zoals wij deze zien, maar ziet een kat in nachtjapon. Dat het AI-systeem de afbeelding van de Mona Lisa verkeerd interpreteert triggert Nightshade door de pixels in afbeeldingen maar een klein beetje aan te passen.

Grote hoeveelheden van deze verkeerde data, vergiftigen op hun beurt de trainingsset van het AI-systeem. Een AI-beeldgenerator begint daardoor uiteindelijk fouten te maken en dus zullen de bedrijven achter deze tools wel moeten ingrijpen. Neem nu dat de tool een sinaasappel consequent verandert in een appel, dan zal de beeldgenerator uiteindelijk een appel genereren als een gebruiker om een afbeelding van een sinaasappel vraagt.

De effecten van de tool zouden ook doorsijpelen in gerelateerde concepten, volgens de technische paper over Nightshade. Dat bleek toen de onderzoekers afbeeldingen uit de categorie ‘fantasy art’ vergiftigden en later ondervonden dat ook de zoekterm ‘draken’ alleen nog maar valse resultaten opleverden.

Zwakheden in AI-systemen handig inzetten

Het beschermmiddel is vrij op het internet te verkrijgen. Nightshade is dan ook het product van een project van de Universiteit van Chicago. De verantwoordelijke professor, Ben Zhao, legt uit vanuit welke gedachtengang het project werd opgezet: “We laten zien dat generatieve modellen in het algemeen, zonder slecht te spreken, slechts modellen zijn.”

Zhao wil het project dus zeker niet in de markt zetten als een tool om grote AI-bedrijven de das om te doen. Het wil net aantonen dat er mankementen zijn aan AI-systemen die de bedrijven achter deze systemen niet onschendbaar maken. De professor is namelijk maar al te goed op de hoogte van de ontevredenheid die in de artistieke wereld bestaat. Nightshade moet dan een effectief middel zijn om deze bedrijven op de knieën te krijgen door de AI-systemen van tegen de AI-bedrijven zelf te keren. “Wat het betekent is dat er manieren zijn voor eigenaren van inhoud om effectievere maatregelen te nemen dan door het Congres aan te schrijven of te klagen via e-mail of sociale media.”

Het uiteindelijke doel van het op de knieën dwingen van AI-bedrijven is het opzetten van onderhandelingen tussen de bedrijven en de kunstenaars. Alleen die dialoog geeft kunstenaars de mogelijkheid om een vergoeding te vragen voor het gebruik van hun kunstwerk in de trainingsdata. Dat die vergoeding nu vaker ontbreekt dan aanwezig is, stuit de auteurs tegen de borst. “De werkelijke discussie hier gaat over toestemming, over compensatie. We geven makers van inhoud alleen maar een manier om ongeoorloofde training tegen te gaan.”

Lees ook: Kunstenaars klagen AI-bedrijven aan voor schending auteursrecht

Niet de eindoplossing

Het project van de Universiteit van Chicago, mag maar als een tijdelijke oplossing dienen voor het auteursrechtenprobleem. De onderzoekers erkennen zelf ook dat Nightshade niet perfect is. Zo drukken de aanpassingen in het kunstwerk soms te hard door, waardoor de ‘vergiftiging’ toch zichtbaar wordt. Om dit effect weg te werken, raadt Zhao aan de tool Glaze te gebruiken, nadat een afbeelding door Nightshade werd gehaald.

De onderzoekers bekijken de mogelijkheid om Nightshade en Glaze te combineren in één tool. Beide projecten zijn afkomstig van professor Zhao, wat dit doel beter haalbaar maakt. De onderzoekers blijven natuurlijk wel hopen dat de tools uiteindelijk overbodig worden eens wetgeving het werk van kunstenaars beter beschermd tegen de hebzucht van AI-systemen.

Tip! Beluister de podcast van 18 december waarin we bespreken welke impact generatieve AI op het creatieve beroep van een journalist heeft.