Experts van Stanford University geven aan dat het Google AI-model LaMDA niet echt zelfbewust is. Hiermee reageren de wetenschappers op de bewering van een ex-Google AI-medewerker dat LaMDA zelfbewust is.

Onlangs beweerde ontwikkelaar Blake Lemoine, de ex-verantwoordelijke bij Google voor het Google Responsible AI-team, dat large-language model LaMDA zelfbewust is. In de kunstmatige gesprekken met het model, zou LaMDA haatdragende bewoordingen hebben geuit. De ontwikkelaar raakte ervan overtuigd dat het model zelfbewust was en een eigen manier van denken en handelen heeft.

Google ontkent dat het AI-model zelfstandig handelt en stelde de ontwikkelaar op non-actief vanwege het publiceren van vertrouwelijke informatie. Dit leidde natuurlijk tot een grote stroom aan geruchten.

Mening Stanford-experts

In de discussie geven nu twee prominenten van Stanford University in de universiteitskrant The Stanford Daily aan dat zij Google LaMDA niet als zelfbewust zien. Volgens John Etchemendy is het slechts een softwareprogramma dat zinnen moet produceren in antwoord op zogenoemde ‘zinnen prompts’. Expert Yoav Shoham ziet de berichtgeving als complete clickbait en geeft ook aan dat het AI-model niet zelfbewust is.

Valse berichtgeving over wetenschap

Beide experts zien de berichtgeving als een voorbeeld van de constante stroom van valse berichtgeving over wetenschap en AI-technologie. Vooral als het gaat om LLM-modellen omdat dit soort oplossingen met resultaten komen die nauwelijks van menselijke handelingen zijn te onderscheiden.

Tip: Stapt heel Europa over op de soevereine cloud?