2min

Tags in dit artikel

, ,

Samsung-personeel heeft volgens Koreaanse media geheimen gelekt met ChatGPT. Kort nadat het Zuid-Koreaanse techbedrijf het interne gebruik van de chatbot toestond, vonden er drie incidenten plaats waarbij medewerkers iets te gretig informatie deelden.

Dat meldt Economist op basis van bronnen. Tot 11 maart mochten Samsung-medewerkers nog geen gebruik maken van de chatbot. We meldden vorige maand al dat veel bedrijven ChatGPT weren, met name omdat men nog geen concreet bedrijfsbeleid heeft opgesteld. De AI-tool is enorm in trek wegens de brede toepassingsmogelijkheden, van het samenvatten van teksten tot het verbeteren van programmeringscode.

Opt-out

Er zijn details bekend over twee van de voorvallen, elk van een andere aard. In één geval vroeg een medewerker aan ChatGPT om een presentatie te maken op basis van notities van een vergadering. Een ander incident betrof een poging van een werknemer om diens programmeringsfouten op te sporen. Dergelijke informatie hoort natuurlijk binnen de bedrijfsmuren te blijven, maar nu kan dat niet gegarandeerd worden. Dit is zo omdat de ChatGPT-service een opt-out kent voor het verzamelen van gespreksgegevens. Elke gebruiker van de chatbot kan dus ongemerkt bijdragen aan het trainen van het model. Echter beschikt OpenAI in dit geval dus over vertrouwelijke informatie.

Samsung meldt dat het mogelijk het gebruik van ChatGPT alweer gaat verbieden als er weer een incident plaatsvindt. Dit lijkt een logische stap, maar het is lastig om werknemers een nuttige AI-tool te ontzeggen. Daarom zou het werken aan een eigen versie van generatieve kunstmatige intelligentie, meldt The Register.

Lees ook: De banen die het meest bedreigd worden door generatieve AI zoals ChatGPT