3min Security

Rapport over AI-gedreven ransomware gaf misleidend beeld

Rapport over AI-gedreven ransomware gaf misleidend beeld

MIT Sloan School of Management heeft onlangs een onderzoek ingetrokken dat beweerde dat het merendeel van de ransomware-aanvallen tegenwoordig wordt aangestuurd door kunstmatige intelligentie.

Dit meldt The Register. Het rapport (let op: Wayback Machine) trok de aandacht door te stellen dat zo’n tachtig procent van de aanvallen in 2024 gebruik zou hebben gemaakt van AI-technieken. Na stevige kritiek van beveiligingsonderzoekers besloot MIT het document van zijn website te verwijderen en aan te kondigen dat een herziene versie in de maak is.

Het onderzoek was het resultaat van een samenwerking tussen MIT Sloan en cybersecuritybedrijf Safe Security. In april verscheen een werkdocument waarin de onderzoekers op basis van duizenden ransomware-incidenten concludeerden dat AI een steeds grotere rol speelt bij cybercriminaliteit. De resultaten werden vervolgens uitgelicht in een blogpost van MIT Sloan, die door verschillende media werd opgepikt.

Rapport feitelijk onjuist

Die publicatie stuitte echter op scepsis binnen de beveiligingswereld. Diverse experts wezen erop dat de auteurs hun bevindingen niet konden onderbouwen. Critici merkten op dat het rapport zelfs verwees naar verouderde malwareprojecten die al jaren niet meer actief zijn. Ook de gebruikte methodologie werd door specialisten in twijfel getrokken, omdat onduidelijk was hoe de onderzoekers hadden vastgesteld dat AI daadwerkelijk betrokken was bij de aanvallen.

Een van de bekendste critici was beveiligingsonderzoeker Kevin Beaumont, die op sociale media betoogde dat het rapport feitelijk onjuist was en meer leek op marketing dan op wetenschappelijk werk. Andere experts sloten zich daarbij aan en benadrukten dat zulke publicaties het vertrouwen in cybersecurityonderzoek ondermijnen. Zelfs Google’s AI Overview, dat automatisch informatie controleert, gaf aan dat er geen bewijs bestaat voor het genoemde percentage.

Na de ophef verwijderde MIT Sloan het werkdocument. De bijbehorende blogpost kreeg een nieuwe, neutralere titel waarin de nadruk ligt op de bredere rol van AI bij cyberaanvallen en de noodzaak om organisaties beter te wapenen tegen nieuwe dreigingen.

Volgens Michael Siegel, directeur cybersecurity bij MIT Sloan en een van de coauteurs, wordt er gewerkt aan een aangepaste versie van het rapport. Hij benadrukte dat het oorspronkelijke doel was om aandacht te vragen voor het groeiende gebruik van AI in cyberaanvallen en om bedrijven te helpen nadenken over hun weerbaarheid.

Toch blijft er kritiek bestaan op de manier waarop het onderzoek tot stand kwam. Observatoren wijzen op mogelijke belangenverstrengeling, aangezien twee MIT-professoren ook zitting hebben in het bestuur van Safe Security, dat de samenwerking financiert. Volgens critici toont deze affaire hoe kwetsbaar de grens is tussen academisch onderzoek en commerciële belangen in de snelgroeiende markt rond AI en cybersecurity.