4min

Onderzoek van Mandiant wijst uit dat cybercriminelen graag AI willen inschakelen, ook al is het nut ervan vooralsnog beperkt. Neppe foto’s, audio en codeerhulp voor malware behoren tot de mogelijkheden, met wisselend succes voor de hackers in kwestie.

Eind april zei CEO Rohit Ghai van RSA al dat AI zowel door criminelen als security-experts ingezet wordt. Het is daarom zaak om de technologie zoveel mogelijk voor goede doeleinden te gebruiken. Security-chief bij Splunk Mike Horn vertelde ons onlangs echter dat het zaak is om “een klein stapje” achter aanvallers te zitten: daarbij is AI een hulpmiddel, maar eveneens een gevaar.

De inzet van AI kent veel aspecten, zoals ook geldt voor cybercriminelen. Immers kunnen aanvallers door middel van machine learning grote hoeveelheden data doorspitten en met hulp van ChatGPT meer verfijnde phishing-mail schrijven.

Informatiestrijd

Uiteindelijk gaat het echter voornamelijk om de potentie die AI met zich meebrengt, blijkt ook uit het rapport van Mandiant. In de toekomst zou generatieve AI bijvoorbeeld kunnen bijdragen aan het vormen van valse identiteiten op social media, compleet met geloofwaardige content die automatisch wordt bijgehouden. Ook kan de reikwijdte van een aanval groter zijn omdat vertalingen van phishing-e-mails geloofwaardiger over kunnen komen met hulp van AI. Ook kunnen hacktivisten stemmen nabootsen en daarmee misinformatie over politici of beroemdheden verspreiden. De geloofwaardigheid hiervan zal verschillen: tekst en foto’s zijn eerder te simuleren dan video en spraak, maar met de tijd kan deze kloof kleiner worden.

Met andere woorden: AI-content vanuit cybercrime zal sterk verschillen op basis van het gekozen medium. Wat betreft afbeeldingen herkent Mandiant twee verschillende vormen van AI die worden toegepast. Generative Adversarial Networks (GAN’s) creëren geloofwaardige profielfoto’s van fictieve mensen, terwijl generatieve text-to-image-modellen allerlei afbeeldingen kunnen produceren op basis van tekstsuggesties. In het laatste geval haalt Mandiant aan dat de pro-Chinese groep Dragonbridge deze technologie inzette om neppe foto’s van politieke leiders in de VS te produceren. Men gebruikte hiervoor Midjourney. Een saillant detail is dat Midjourney AI-afbeeldingen van Chinese politici blokkeert, terwijl het bedrijf van Amerikaanse komaf is. “Politieke satire is niet echt acceptabel in China, en op een bepaald moment brengt het mensen in China in gevaar,” liet CEO David Holz eind maart weten tegenover The Washington Post. Dit wekt de vrij absurde suggestie dat AI-afbeeldingen alleen voor satirische doeleinden in het westen ingezet worden en negeert het feit dat er veel schade mee aan te richten is.

Ook deepfakes, een technologie die al jaren bekend is, zijn ingezet om misinformatie te verspreiden. Hackers die Rusland steunden produceerden bijvoorbeeld in maart 2022 een deepfake van Oekraïens president Volodymyr Zelensky om verwarring te zaaien.

AI-assistentie voor lokmateriaal, maar hulp bij malware ver te zoeken

Een opmerkelijke innovatie in het cybercrime-landschap ontpopte zich in juli: WormGPT. Het is een generatieve AI-tool op abonnementsbasis, maar in tegenstelling tot ChatGPT heeft het geen ethische inperkingen. Zo werkt de chatbot van OpenAI je tegen als je vraagt of het een phishing-mail kan schrijven, hoewel je met een beetje creativiteit alsnog medewerking ontvangt. WormGPT is hier echter in gespecialiseerd, dus hulp bij oplichterij gaat daar net wat makkelijker. Tactieken die passen bij het ontfutselen van gegevens via een BEC (Business Email Compromise)-campagne zijn dan ook een speerpunt voor een dergelijk middel.

Een functionaliteit die WormGPT deelt met sommige chatbots, is hulp bij het schrijven van programmeercode. Mandiant haalt een artikel aan van Cyberscoop waarin wordt geconstateerd dat malware-code in principe weinig verschilt met legitieme software. Om die reden is het dus ook mogelijk om conventionele AI-tools in te zetten. Oftewel: hackers kunnen net zo goed als bedrijven kiezen voor een ‘best of breed’-vendor als het om coderen gaat. Het nadeel (voor cybercriminelen): LLM’s produceren veelal onveilige en onzinnige code.

Toch adverteren criminelen erop los met LLM-oplossingen die malware zouden kunnen bouwen, meldt Mandiant. Het doet vermoeden dat oplichters elkaar oplichten met beloftes rondom AI. Een gebruiker wist wel een EDR-oplossing onderuit te halen door malware met hulp van ChatGPT, waarvoor men een bug bounty ontving.

AI is al een dreiging, maar niet zozeer LLM’s

Mandiant verwacht dat generatieve AI steeds populairder zal worden. De kans op succes zou weleens groot kunnen zijn wat misinformatie betreft. Deepfake-video’s zijn vooralsnog zelden echt overtuigend, maar gefabriceerde foto’s, social media-posts en e-mails kunnen al wel met hulp van AI geloofwaardiger zijn.

De minder ’trendy’ vorm van AI, machine learning, maakt het mogelijk om enorme hoeveelheden data te analyseren op een manier die mensen jaren zou kosten. Daar liggen er nog altijd veel kansen voor criminelen: zo kon het met automatische scanners Log4Shell-kwetsbaarheden vinden of backdoors installeren op Citrix-servers.