De nieuwste analyse van de Google Threat Intelligence Group laat zien dat kwaadwillenden kunstmatige intelligentie niet langer alleen verkennen, maar actief integreren in hun operaties.
In een bericht op de Google Cloud-website beschrijft het team hoe aanvallers experimenteren met modeldistillatie, AI-ondersteunde phishing en geautomatiseerde malwareontwikkeling.
Het overzicht bouwt voort op het eerdere rapport van de Google Threat Intelligence Group met de titel Adversarial Misuse of Generative AI, waarin voor het eerst systematisch werd beschreven hoe statelijke actoren en cybercriminelen generatieve AI inzetten. Waar dat rapport vooral een inventarisatie bood van misbruikscenario’s en patronen, richt deze update zich op verdere verfijning, experimenten met modeldistillatie en de groeiende integratie van AI in aanvalsketens.
Volgens de onderzoekers is een duidelijke verschuiving zichtbaar. Waar AI eerder vooral werd gezien als hulpmiddel voor defensieve doeleinden of academisch onderzoek, maken statelijke actoren en cybercriminelen nu concreet gebruik van generatieve modellen om hun efficiëntie te vergroten. Dat varieert van het analyseren van doelwitten en het verzamelen van openbrongegevens tot het opstellen van overtuigende spearphishingmails in meerdere talen.
Klonen van AI-modellen via distillationaanvallen
Een belangrijk onderdeel van het rapport draait om distillationaanvallen. Daarbij proberen partijen een bestaand AI-model te reproduceren of te benaderen door het herhaaldelijk te bevragen en antwoorden systematisch te analyseren. Zo kan de functionaliteit van een commercieel model worden nagebootst zonder directe toegang tot de onderliggende technologie. Volgens de onderzoekers is dit niet alleen een veiligheidsrisico, maar ook een bedreiging voor intellectueel eigendom.
Daarnaast signaleert het team dat AI vaker wordt ingezet om code te genereren en aan te passen. Dat betekent niet dat er volledig autonome malwarecampagnes plaatsvinden, maar wel dat ontwikkelaars sneller varianten kunnen produceren en detectiemechanismen proberen te omzeilen. Modellen worden gebruikt om scripts te herschrijven, documentatie te analyseren en foutmeldingen te interpreteren. Daarmee fungeert AI als productiviteitsverhoger voor aanvallers.
Tegelijkertijd benadrukt Google dat het merendeel van de activiteiten nog experimenteel is. Veel actoren testen de grenzen van modellen, onderzoeken beveiligingsmechanismen en proberen beperkingen te omzeilen. Volgens het rapport leidt dat tot een kat-en-muisspel tussen modelaanbieders en aanvallers, waarbij detectie en monitoring worden aangescherpt.
De onderzoekers stellen dat AI vooral een versterkende factor is binnen bestaande aanvalsketens, in plaats van een nieuwe dreigingscategorie. Het gebruik van kunstmatige intelligentie verlaagt de drempel voor bepaalde activiteiten en verhoogt de schaalbaarheid, maar vervangt niet de traditionele technieken en infrastructuur die al jaren worden gebruikt.
Voor organisaties betekent dit dat zij hun beveiligingsstrategie moeten aanpassen aan een dreigingslandschap waarin AI aan beide kanten wordt ingezet. Het rapport onderstreept dat zichtbaarheid, monitoring van misbruik van AI-diensten en het delen van dreigingsinformatie cruciaal blijven. De integratie van AI in offensieve operaties zal zich volgens de onderzoekers verder verdiepen, waardoor dit thema ook in 2026 hoog op de agenda blijft staan.