2min

De discussie over het gebruik van auteursrechtelijke content voor het gebruik in en het trainen van AI-modellen neemt toe. Ook binnen AI-bedrijven zelf, zo blijkt uit het opstappen van een topman bij Stability AI.

Volgens Bloomberg staat het gebruik van auteursrechtelijke content voor het gebruik in en het trainen van AI-modellen steeds meer ter discussie.

Ook binnen AI-bedrijven zelf wordt deze discussie gevoerd. Het heeft onlangs zelfs geleid tot het opstappen van een directielid van AI-start-up Stability AI. Het gaat hierbij om Ed Newton-Rex, de VP Audio van de AI-ontwikkelaar, die besloot te vertrekken omdat hij het niet eens was met het gebruik van auteursrechtelijk materiaal voor het trainen van de AI-modellen van de start-up.

Gebruik auteursrechtelijke content niet legaal

In de ogen van de voormalige VP Audio is het niet legaal om AI-modellen te ontwikkelen met behulp van materiaal waarop copyright rust, zo maakte hij tijdens een AI-congres bekend. Vooral generatieve AI-modellen gebruiken veel data, waaronder muziek, teksten en beelden om zich te trainen voor het beantwoorden van gebruikersprompts.

Newton-Rex was zelf verantwoordelijk voor het ontwikkelen van de AI-tool Stable Audio. Voor het trainen van dit model werd alleen door makers in licentie beschikbaar gestelde muziek gebruikt.

Volgens de voormalige VP Audio is dit echter lang niet altijd het geval. Veel bedrijven gebruiken vaak auteursrechtelijk materiaal van artiesten zonder dat zij daarvoor betalen. Newton-Rex vindt dit een verkeerde praktijk moreel omdat de door AI-modellen gecreëerde content commercieel met de originele werken kan concurreren.

Andere AI-ontwikkelaars nemen het gebruik van auteursrechtelijk materiaal voor het trainen van hun modellen of de resultaten die gebruikers daarmee realiseren ook steeds meer serieus. AI-ontwikkelaars als OpenAI, maar ook Google en Microsoft staan hier anders in dan Ed Newton-Rex. Zij vergoedden juist de juridische kosten van eindgebruikers wanneer deze worden beschuldigd van het schenden van copyright-rechten.

Onrust bij Stability AI

Stability AI is bekend vanwege zijn AI-tool Stable Diffusion. Het bedrijf heeft last van verschillende rechtszaken waarin het wordt beschuldigd geen toestemming te hebben gevraagd voordat het content verzamelde en daarmee AI-modellen ontwikkelde. De AI-start-up zelf geeft dat dergelijke dataverzamelingspraktijken echter vallen onder het ‘fair use’-beleid van de auteursrechtwet in de Verenigde Staten.

Ed Newton-Rex is overigens niet het eerste directielid of leidinggevende die de afgelopen tijd bij Stability AI is opgestapt. Eerder vertrokken al de juridische- en de HR-directeur, evenals andere leidinggevenden. Volgens geruchten zou het intern bij de AI-start-up een chaos zijn en dat er problemen zijn met investeerders.

Lees ook: Google compenseert gebruikers generatieve AI voor copyright claims