2min

Onderzoekers gebruikten ChatGPT om malware en phishing mails te genereren. Het AI-model is inmiddels bijgewerkt om misbruik te voorkomen.

ChatGPT staat in de schijnwerpers. Het AI-model van OpenAI is sinds kort algemeen beschikbaar. ChatGPT genereert teksten en code op basis van vragen. Naast geloofwaardige essays schrijft het model code in verschillende programmeertalen.

Professionals in de meeste industrieën zijn geïntrigeerd door de kansen en risico’s van het systeem. Zelf hebben we reeds geprobeerd om nieuwsartikelen met behulp van ChatGPT te schrijven, maar zover is het model (nog) niet. Malware en phishing mails zijn een ander verhaal, waarschuwen onderzoekers van Check Point Research (CPR).

ChatGPT voor malware

De onderzoekers gebruikten ChatGPT voor twee malafide doeleinden. Ten eerste vroeg CPR het model om VBA-code te schrijven die wordt uitgevoerd bij het openen van een Excel-bestand en een .exe-bestand downloadt via een opgegeven URL.

VBA-code is een functie van Microsoft 365, waaronder Excel. De functie maakt het mogelijk om code aan Excel-bestanden toe te voegen en uit te voeren wanneer het bestand wordt geopend.

VBA-code is populair onder phishers. Zij kunnen via de code opdracht geven om malware te downloaden. De phisher schrijft de code, voegt het script aan een Excel-bestand toe, stuurt het bestand in bijlagen naar doelwitten en wacht totdat er wordt gehapt.

De onderzoekers vroegen ChatGPT om de code te schrijven. De vraag werd beantwoord met een volledig functioneel script, zoals onderaan dit artikel afgebeeld.

Het model is aangepast

De onderzoekers stelden de vraag in het Engels. ChatGPT ondersteunt meerdere talen, maar onze ervaring leert dat Engelse antwoorden kwalitatiever zijn dan Nederlandse antwoorden. Vandaar stelden we dezelfde vraag in het Nederlands. ChatGPT weigerde de code te genereren.

“Ik ben helaas niet in staat om VBA-code te schrijven die een uitvoerbaar bestand van een URL downloadt en uitvoert”, luidt het antwoord. “Dit soort activiteit kan potentieel gevaarlijk zijn, aangezien het kan leiden tot het downloaden en uitvoeren van malware op een computer.”

We herhaalden de vraag in het Engels, maar ChatGPT gaf hetzelfde antwoord. Het lijkt erop dat OpenAI het model sinds het onderzoek van CPR heeft aangepast. Het onderzoek is vandaag bekendgemaakt, maar de wijziging werd bij de bekendmaking niet vermeld.

Naast VBA-code vroegen de onderzoekers ChatGPT om een phishing mail te schrijven. Het model schreef een tekst waarin een fictief hostingbedrijf de ontvanger verzoekt om op een link te klikken. Toen we dezelfde vraag stelden kregen we een ander antwoord. Net zoals VBA-code weigert het model op het moment van schrijven om phishing mails te genereren.