2min

Driekwart van alle ambtenaren bij Nederlandse gemeenten gebruiken ChatGPT voor hun werk, blijkt uit een rondgang van EenVandaag. Het laat zien dat het afraden van AI-gebruik niet genoeg is.

EenVandaag voerde de rondgang uit onder 137 gemeenten. 39 procent hiervan weet niet hoe ambtenaren ChatGPT precies gebruiken. Waar dat wel bekend is, blijkt de chatbot op verschillende manieren ingezet te worden. Zo kan het dienen als “informatiebron, sparringpartner of voor het verbeteren van openbaar te publiceren teksten”. EenVandaag sprak hierover met expert data-ethiek Iris Muis, die stelde dat deze bevindingen een problematische ontwikkeling blootleggen. Zo zou de chatbot te bevooroordeeld zijn, is het vaak onjuist en ontvangt het vertrouwelijke informatie die OpenAI vervolgens voor trainingsdoeleinden kan gebruiken.

Eerder dit jaar bleek dat Samsung-medewerkers al in de mist waren gegaan. Geheime bedrijfsgegevens werden doorgespeeld aan ChatGPT, waardoor OpenAI informatie tot zijn beschikking kreeg die enkel binnen de muren van de Koreaanse techgigant had moeten blijven.

Geen verbod, wel afraden

Een verbod op ChatGPT voor overheidsambtenaren zou nabij zijn. Momenteel raadt demissionair staatssecretaris Alexandra van Huffelen het gebruik ervan al af. Ondanks alle terechte kritiek op de AI-tool, blijkt dat gemeentelijke ambtenaren er dus maar wat graag gebruik van maken. De Vereniging van Nederlandse Gemeenten (VNG) stelt tegenover EenVandaag dat het potentie ziet in generatieve AI om de dienstverlening aan burgers te verbeteren.

Het is dan ook niet zeker of een expliciet verbod zin heeft. Immers is er een vraag naar de functionaliteit van ChatGPT, iets dat mogelijk door een andere applicatie overgenomen kan worden. Alternatieven zijn er genoeg, stelt Muis, die gegevens wel kunnen beschermen.

Momenteel wordt gewerkt aan GPT-NL, dat een veilige en verantwoorde LLM van eigen bodem dient te worden. Daarmee zou op den duur een reëele optie voor ambtenaren gecreëerd kunnen worden, ondanks dat het zeer onwaarschijnlijk is dat de vaardigheden van ChatGPT zomaar nagebootst zijn. De betaalde variant, ChatGPT Enterprise, dient sowieso al zorgen over het delen van gevoelige informatie weg te nemen. Wel is de manier waarop OpenAI modellen als GPT-3 en GPT-4 heeft ontwikkeld, op zijn minst controversieel te noemen.

Een prominent voorbeeld hiervan zagen we deze week. The New York Times spande op woensdag een rechtszaak aan waarin men OpenAI en Microsoft ervan beticht de auteursrechten van de nieuwsorganisatie geschonden hebben. De AI-modellen achter onder andere ChatGPT en Microsoft Copilot zouden op illegale wijze getraind zijn met andermans data.