Hoewel cyberaanvallers graag kiezen voor de makkelijke doelwitten, bezitten zij de middelen om zelfs goed voorbereide organisaties te treffen. Complexe aanvallen bevatten overtuigende deepfakes, gebruiken informatie uit eerdere datalekken en komen veelal binnen zonder een kwetsbaarheid te hoeven exploiteren. Hoe wapen je jezelf tegen dergelijke cybergevaren? We bespreken het met David Sancho, Senior Threat Researcher bij TrendAI.
Cyberaanvallen kennen tegenwoordig een indringende psychologische dimensie. Sancho, al twintig jaar actief in zijn rol bij TrendAI (voorheen bekend onder de naam Trend Micro), ziet dat de gereedschapskist voor aanvallers zeer divers is geworden. Het is bijna een cliché om te zeggen dat cyberaanvallers tegenwoordig niet meer hacken, maar inloggen. Dat doen ze regelmatig met informatie die ze via overtuigende phishingmails hebben bemachtigd of op het darkweb hebben gekocht. Listiger is de stap daarna: Sancho benoemt overtuigende deepfakes, afpersing op basis van zeer persoonlijke informatie en zelfs “virtual kidnapping”.
Die vormen van criminele misleiding zijn verre van nieuw. Zelfs nagebootste voorvallen van kidnapping zijn eerder voorgekomen. Voor organisaties is het gevaar om in de val te trappen tegenwoordig wel veel groter. Twee jaar geleden bleek AI al in luttele seconden een stem overtuigend te kunnen nabootsen. Aanvallers hebben inmiddels de tijd gehad om deze tooling op grote schaal te misbruiken.
Identiteit is maakbaar
Sancho benadrukt dat betaalbare tools overtuigende deepfakes kunnen creëren ter afpersing. Ze waren ooit een niche, stelt hij, maar zijn nu te benutten om specifieke identiteiten te fabriceren. Voice phishing is “extreem volwassen” en kost bijna niets voor kwaadwillenden om op te zetten. In een onderzoek medio vorig jaar liet TrendAI al zien hoeveel keuzevrijheid de aanvallers hiervoor hebben. Hetzelfde geldt voor video’s, die zich weliswaar in een minder vergevorderd stadium bevinden dan AI-audio, maar nog altijd gevaarlijk zijn. Een zakelijke call was, wederom, twee jaar geleden al genoeg om een CFO voldoende te simuleren zodat een financieel medewerker 25 miljoen dollar overmaakte naar de cyberaanvaller.
Het feit is dat deze ontwikkelingen al jaren zich in een stroomversnelling hebben ontwikkeld. Nu zien Sancho en zijn medeonderzoekers bij TrendAI dat AI en automation voor de komende jaren het dreigingsbeeld zullen definiëren. Recent verscheen een rapport vol voorspellingen vanuit het bedrijf voor 2026. De “AI-ificatie” van dreigingen gaat verder dan overtuigende imitatie, zo blijkt, waarover later meer.
Voor nu is duidelijk dat identiteit zoals we het traditioneel kennen, maakbaar is geworden. Met genoeg software, tijdsdruk en een bijna niet uit te sluiten infiltratie kunnen medewerkers contact hebben met een aanvaller vermomd als een collega of belangrijke zakenpartner. Sancho erkent dat de cultuur rondom dergelijke compromissen beter kan. Omdat organisaties nog niet wereldwijd doorhebben hoe overtuigend de misleiding kan zijn, blijven stigma’s rondom succesvolle phishing overeind. We zijn mijlenver verwijderd van de Nigeriaanse prins, en mogen er simpelweg vanuit gaan dat je misleid kan worden. Hierdoor is het vertrouwen op de rotsvaste identiteit van weleer niet meer mogelijk. Diezelfde conclusie werd geopperd in een World Economic Forum-rapport (PDF) van januari, waar TrendAI aan bij heeft gedragen.
Deepfakes
Voor securitytooling geldt al langer dat het niet genoeg is om te vertrouwen op bekende signaturen van aanvallen. IT-omgevingen zijn groot genoeg om complexe patronen te herkennen van normaal gebruik. Zodra XDR-oplossingen afwijkingen herkennen hierin, geven ze alerts af. Dit weten aanvallers ook en zij gedragen zich dus steeds meer als normale gebruikers, maken gebruik van legitieme software en mikken op accounts met hoge privileges. Detectie zal nu eenmaal soms te laat komen, bijvoorbeeld door een overvloed aan alerts of een compromis via externe kanalen (WhatsApp, LinkedIn, et cetera).
Om deepfakes werkelijk te herkennen, kunnen mensen niet meer op zichzelf vertrouwen. Geen securitytraining zal genoeg raad geven om elke toekomstige AI-gedreven misleiding te herkennen als zodanig. Daarom kijken de oplossingen van TrendAI ook naar datastromen voor potentiële datalekken en het gebruik van AI-applicaties, bovenop herkenning van AI-beelden door artefacten die veelal onzichtbaar zijn voor mensen. Overigens is er ook een gratis middel, de TrendAI Deepfake Inspector, om namens gewone gebruikers een oogje in het zeil te houden voor deepfakes.
Autonome dreigingen
Een ander aspect van dreigingen anno 2026 is dat ze grotendeels geautomatiseerd zijn. Agents scannen niet alleen voor potentiële compromissen, maar kunnen tegenwoordig een gedeelte van de aanval uitvoeren. Cyberdreigingen kunnen daarbij volgens TrendAI infrastructuur en toegang delen om agents zelfs de misleiding uit te laten voeren. We hebben elders al gezien dat legitieme AI-tools zoals Claude binnen een korte tijd malwareproducenten worden. Met steeds krachtigere open-source LLM’s die lokaal draaien, hebben kwaadwillenden daarnaast niet eens een API nodig om geavanceerde AI-agents los te laten op slachtoffers.
Toch merken we in ons gesprek met Sancho dat de deepfake-laag bovenop deze AI-automation dominant is. Organisaties moesten eigenlijk altijd al aannemen dat ze gecompromitteerd konden worden. Waar Sancho de nadruk op legt, is dat we het denkpatroon van vertrouwen met behulp van verificatie achter ons moeten laten. Helaas dienen organisaties, met name kritieke bedrijven, de publieke sector en multinationals, ervan uit te gaan dat zij een doelwit zullen zijn en overtuigend misleid kunnen worden. Met die kennis op zak wacht ons een andere IT-aanpak, waarbij complexe verdedigingstools een stap verder moeten denken dan de mensen die ze beschermen – en de aanvallers die met AI bewapend zijn.
Lees ook: Trend Micro brengt Vision One naar AWS Sovereign Cloud