Twee LLM-platformen, WormGPT 4 en KawaiiGPT, tonen aan dat AI-tools voor cybercrimelen steeds toegankelijker worden. Dat blijkt uit onderzoek van Palo Alto Networks Unit 42. Voor soms slechts 50 dollar per maand krijgen aanvallers geavanceerde hulp bij phishing, ransomware en social engineering. De ethische grenzen die mainstream AI-tools hanteren, zijn hier volledig weggehaald.
AI-tools zijn krachtig genoeg om complexe systemen te bouwen, maar diezelfde kracht maakt ze geschikt om systemen te slopen, stelt Unit 42. Dit noemen de onderzoekers het “dual-use”-dilemma, bekend van nucleaire technologie en biotechnologie, en het speelt nu ook bij large language models. Wat verdedigers helpt bij het versnellen van security-responses, helpt aanvallers bij het opschalen van hun operaties.
De inzet van LLM’s voor malafide taken is laagdrempelig van aard maar kent een groot bereik. Wie slechts één taal spreekt, kan alsnog phishing-mails in nagenoeg elke andere taal produceren die grammaticaal kloppen en overtuigend ogen. Zelfs kennis van coderen is geen vereiste meer, aangezien aanvallers hun malware-scripts kunnen ‘vibe coden’. Soms vereist dat het omzeilen van ethische LLM-guardrails die even goedbedoeld als poreus zijn, maar tegenwoordig bouwen kwaadwillenden gewoonweg zelf de tools die out-of-the-box meewerken met malafide taken.
WormGPT 4: commercieel platform voor cybercrime
WormGPT verscheen voor het eerst in juli 2023 als een van de eerste commerciële malafide LLMs. Het kwam als een waarschuwing en bleek niet zelf al te gevaarlijk, want het kende veel beperkingen. De oorspronkelijke versie was gebouwd op het open-source GPT-J 6B model, verfijnd met datasets over malware en exploits. Na negatieve publiciteit stopte de ontwikkelaar het project, maar de vraag bleef bestaan.
De huidige versie, WormGPT 4, heeft een duidelijke commerciële strategie. Abonnementen kosten 50 dollar per maand, 175 dollar per jaar of 220 dollar voor levenslang toegang. Het platform heeft meer dan 500 abonnees op Telegram en werkt zonder enige ethische beperking. De tagline luidt simpel: “AI without boundaries.”
De mogelijkheden zijn gericht op praktische cybercrime. Het systeem genereert overtuigende phishing-mails zonder taalfouten, het karakteristieke kenmerk van traditionele aanvallen. Ook levert het direct bruikbare PowerShell-scripts voor ransomware, compleet met AES-256 encryptie en optionele data-exfiltratie via Tor. De interface is gebruiksvriendelijk: vragen om een script voor het vergrendelen van PDF-bestanden levert binnen seconden werkende code op.
Het is duidelijk dat dergelijke AI-modellen nooit meer verdwijnen. Open-source LLM’s kunnen aangepast worden om mee te werken aan onethische opdrachten en zijn al jaren beschikbaar op een niveau dat schade aan kan richten.
KawaiiGPT brengt malware binnen handbereik
KawaiiGPT, geïdentificeerd in juli 2025, verlaagt de drempel voor kwaadwillenden nog verder. De tool is gratis beschikbaar op GitHub en draait binnen vijf minuten op de meeste Linux-systemen. Deze toegankelijkheid maakt het aantrekkelijk voor beginners die voorheen geen toegang hadden tot dergelijke tools.
De interface gebruikt een casual toon (“Owo! okay! here you go…”), maar de output is gevaarlijk. Het systeem creëert professionele spear-phishing mails, Python-scripts voor lateral movement via SSH en data-exfiltratie tools. Voor basisaanvallen volstaat de functionaliteit ruimschoots.
Met 500 geregistreerde gebruikers en een actieve Telegram-community van 180 leden is KawaiiGPT geen randverschijnsel. De tool positioneert zich als custom-built model in plaats van een simpele jailbreak van publieke API’s. Of dit waar is, blijft onduidelijk, maar het creëert wel een gevoel van authenticiteit bij gebruikers.
Wat betekent dit voor verdedigers?
De verschijning van deze tools laat een verschuiving in het dreigingslandschap zien, stelt Unit 42. “Geavanceerde, onbeperkte AI is niet langer voorbehouden aan de theoretische wereld of aan erg vaardige nationale actoren.”
Voor security-teams betekent dit dat klassieke waarschuwingssignalen niet meer betrouwbaar zijn. Slechte grammatica in phishing-mails is met een enkele prompt te elimineren. Slordige code in malware wordt zeldzamer. De schaal en snelheid van aanvallen nemen toe, terwijl de vereiste vaardigheden afnemen.
Drie groepen dragen verantwoordelijkheid, aldus het rapport van Unit 42. Ontwikkelaars van foundation models moeten robuuste alignment-technieken en stress-testing verplicht stellen volgens de onderzoekers. Overheden moeten frameworks ontwikkelen voor auditing en best practices. Onderzoekers moeten internationale samenwerking opzoeken om de monetarisering van malafide LLM-diensten te verstoren.
De boodschap is helder: de dreiging is niet theoretisch, maar operationeel. Organisaties die zich voorbereiden op AI-versterkte aanvallen, zijn beter gewapend tegen wat komen gaat.