2min

Tags in dit artikel

, ,

OpenAI wordt aangeklaagd voor vermeende lasterlijke hallucinaties van ChatGPT.

De Amerikaanse radiopresentator Mark Walters vond dat ChatGPT valse informatie over hem verspreidde. Hij heeft daarom OpenAI aangeklaagd in de eerste rechtszaak wegens laster van het bedrijf, volgens een bericht in Bloomberg Law.

Walters had een gepassioneerd commentaar gegeven op een non-profitorganisatie voor wapenrechten genaamd de Second Amendment Foundation (SAF). Maar toen journalist Fred Riehl ChatGPT vroeg om een klacht samen te vatten die SAF had ingediend bij de federale rechtbank, genereerde de chatbot een volledig onjuist antwoord. Het beweerde ten onrechte dat de zaak was aangespannen tegen Walters voor verduistering. Dat zou zijn gebeurd toen Walters financieel directeur en penningmeester van SAF was – een functie die hij nooit heeft bekleed.

Toen Riehl ChatGPT vervolgens vroeg om naar specifieke paragrafen te wijzen waarin Walters werd genoemd in de SAF-klacht of om de volledige tekst van de SAF-klacht te geven, kwam ChatGPT met een “compleet verzinsel”. Het “vertoont geen gelijkenis met de werkelijke klacht, inclusief een foutief zaaknummer”, volgens de rechtszaak van Walters .

Is OpenAI aansprakelijk?

Walters’ aanklacht benadrukt het feit dat OpenAI “zich ervan bewust is dat ChatGPT soms feiten verzint”. Sterker nog, zoals de klacht ook opmerkt, OpenAI verwijst ernaar als “hallucinaties”. Deze zaak zou dus wel eens de test kunnen zijn voor de juridische aansprakelijkheid van bedrijven voor hun generatieve AI-diensten.

Eugene Volokh, een professor in de rechten aan UCLA die de juridische aansprakelijkheid van AI-systemen heeft bestudeerd, vertelde Ars Technica dat het argument dat “ChatGPT in het algemeen vaak valse verklaringen publiceert” de zaak van Walters zou kunnen ondersteunen. Hij voegt er echter aan toe dat een dergelijk argument mogelijk niet voldoende is. Dit komt omdat “je niet kunt aantonen dat een krant kennis of roekeloosheid had met betrekking tot onwaarheid alleen maar omdat de krant weet dat sommige van zijn schrijvers soms fouten maken”.

Volokh voegde er ook aan toe dat OpenAI mogelijk niet beschermd wordt door de ChatGPT disclaimers in de gebruiksvoorwaarden.

Een uitgever “kan zich niet vrijwaren van aansprakelijkheid voor laster door simpelweg bij elke post te zeggen ‘deze post kan onnauwkeurige informatie bevatten’ – zo ook bij OpenAI,” zei Volokh.

Tip: ‘ChatGPT gebaseerd op illegale sites, privégegevens en piraterij’