2min

De ontwikkeling van AI-modellen die krachtiger zijn dan GPT-4 van OpenAI moet voor een periode van zes maanden worden stopgezet. Deze pauze moet vervolgens worden gebruikt voor het ontwikkelen en implementeren van veiligheidsprotocollen. Dit stellen meer dan duizend AI-experts en andere ondertekenaars als Elon Musk en Steve Wozniak in een open brief.

In de open brief, die is opgesteld door de non-profitorganisatie Future of Life, wordt opgeroepen een pauze van zes maanden in het ontwikkelen van geavanceerde AI-modellen te nemen. Gedurende deze periode zouden experts veiligheidsprotocollen moeten ontwikkelen die ervoor zorgen dat nieuwe veel krachtigere AI-modellen dan het huidige GTP-4 geen risico voor de maatschappij en de mensheid in het algemeen kunnen vormen.

De krachtigere AI-modellen zouden pas mogen worden ontworpen, nadat vast is komen te staan dat de effecten ervan positief zijn en minimale risico’s hebben. De veiligheidsprotocollen voor de krachtigere AI-modellen moeten worden ontwikkeld, geïmplementeerd en geaudited door een onafhankelijke groep van experts.

Bedreigingen door AI

In de brief wijzen de ondertekenaars op een aantal bedreigingen die AI-modellen hebben wanneer ze concurreren met het menselijk brein. De modellen zouden ongewild informatiekanalen kunnen laten overstromen met propaganda en desinformatie. Uiteindelijk zou het zelfs veel banen kunnen automatiseren en, meer filosofisch gesteld, mensen in slimheid kunnen overklassen, overbodig maken en uiteindelijk ‘vervangen’.

Volgens de ondertekenaars doet zich de vraag voor of door het trainen van zeer krachtige AI-modellen de mensheid de controle verliest over de huidige beschaving.

Welke maatregelen zijn er nodig?

De ondertekenaars komen met een aantal maatregelen die deze risico’s moeten voorkomen. Naast de ontwikkeling, implementatie en toezicht op veiligheidsprotocollen, moeten AI-ontwikkelaars ook samenwerken met regelgevers voor het ontwikkelen van robuuste AI governance-systemen. Hiervoor moeten minimaal nieuwe goed uitgeruste toezichthouders voor AI worden opgezet. Ook moet er een overzicht zijn van zeer geavanceerde AI-systemen en grote ‘pools van rekenkracht’. Dit overzicht moet helpen bij het in de gaten houden van de op deze manier bekende AI-systemen.

Verder zouden AI’s watermerken moeten toevoegen om echt van kunstmatig te onderscheiden. Moet er een robuust auditing- en certificatiesysteem komen. Duidelijk worden wie juridische aansprakelijk is voor schade door AI-systemen. Er moet er een goede funding komen voor technisch onderzoek naar AI-veiligheid en het opzetten van onderzoeksinstituten die helpen bij het tegengaan van door AI veroorzaakte economische en politieke onrust.

Elon Musk ondertekenaar

De open brief is ondertekend door verschillende tech- en AI-experts, waaronder heel opmerkelijk Elon Musk. Die zelf ook niet vies is van het ontwikkelen van kunstmatige intelligentie. Ook oud-Apple oprichter Steve Wozniak heeft de oproep ondertekend, evenals CEO’s van AI-bedrijven en onderzoekers van de Alphabet-dochteronderneming DeepMind.

Onder de Nederlandse ondertekenaars van het manifest bevinden zich onder meer een AI-expert van ABN AMRO en hoogleraren aan de VU Amsterdam en de Technische Universiteit Delft.

Lees ook: Verschillende bedrijven verbieden gebruik ChatGPT