2min Security

Cybercriminelen gebruiken AI steeds geavanceerder, stelt Google

Cybercriminelen gebruiken AI steeds geavanceerder, stelt Google

De dreiging van kunstmatige intelligentie in handen van kwaadwillenden wordt steeds concreter. Dat blijkt uit een nieuw rapport van de Google Threat Intelligence Group (GTIG), waarin onderzoekers beschrijven hoe zowel cybercriminelen als statelijke actoren AI inzetten bij uiteenlopende fases van hun aanvallen.

Waar AI aanvankelijk vooral werd gebruikt om processen te versnellen of fouten te verminderen, blijkt de technologie inmiddels ook een instrument te zijn voor offensieve tactieken.

Volgens GTIG maakt een groeiend aantal aanvallers gebruik van grote taalmodellen om code te schrijven, aan te passen of te verhullen. Zo worden LLM’s gebruikt om malware tijdens uitvoering te herschrijven, waardoor detectiesystemen minder kans hebben om schadelijke bestanden te herkennen. In het rapport worden voorbeelden genoemd van malwarefamilies die AI gebruiken voor zogeheten just-in-time codegeneratie, waarbij de schadelijke component pas op het moment van uitvoering wordt samengesteld.

Onderzoekers signaleren bovendien dat cybercriminelen leren hoe ze AI-beveiligingen kunnen omzeilen. Ze doen zich bijvoorbeeld voor als studenten die onderzoek doen naar beveiligingslekken of als deelnemers aan een hackwedstrijd. Door deze misleiding weten ze soms de ingebouwde veiligheidsmaatregelen van AI-modellen te omzeilen en krijgen ze alsnog hulp bij het ontwikkelen van aanvalstechnieken.

AI gebruikt in complete aanvalscyclus

In de digitale onderwereld ontstaat ondertussen een volwassen markt voor AI-ondersteunde tools. Op fora worden inmiddels kant-en-klare diensten aangeboden die AI inzetten voor phishing, het genereren van kwaadaardige scripts of het automatiseren van social-engineeringcampagnes. Daarmee breidt het gebruik van AI zich uit over de hele aanvalscyclus: van verkenning en werving van slachtoffers tot exfiltratie van data.

GTIG noemt specifieke voorbeelden om de dreiging te illustreren. Zo is er malware die taalmodellen gebruikt om zichzelf te herschrijven in Visual Basic-script, waardoor de code onherkenbaar wordt voor beveiligingssoftware. Andere varianten gebruiken AI om dynamisch commando’s te genereren voor het stelen van documenten, in plaats van vaste instructies te volgen.

De onderzoekers benadrukken dat het misbruik actief bestrijdt door veiligheidsfilters en detectiemechanismen te verbeteren. Ook DeepMind werkt volgens Google aan verfijnde classificatiesystemen die afwijkend gebruik van AI-modellen sneller kunnen herkennen.