6min Security

De groeiende rol van agentic AI in cybersecurity

Een man in een blauw shirt lacht naar de camera.
De groeiende rol van agentic AI in cybersecurity

De inzet van agentic AI – autonome systemen die zelfstandig doelen stellen, beslissingen nemen en acties uitvoeren zonder menselijk toezicht – markeert een nieuwe fase in de snelle ontwikkeling van AI-technologie. In tegenstelling tot traditionele AI-modellen, die slechts reageren op vooraf gedefinieerde input, werkt agentic AI proactief: het past zich aan complexe en veranderende omgevingen aan en verbetert zichzelf continu door te leren van eerdere ervaringen. Binnen cybersecurity biedt deze technologie veel potentie. Agentic AI kan zelfstandig dreigingen detecteren, erop reageren en cyberweerbaarheid voortdurend optimaliseren. Hierdoor kunnen organisaties sneller, nauwkeuriger en efficiënter inspelen op dreigingen. Toch roept de toegenomen autonomie van AI-systemen tegelijkertijd belangrijke vragen op over controle, betrouwbaarheid en vertrouwen – zeker in kritieke omgevingen waar zelfs kleine fouten grote risico’s met zich meebrengen.

Agentic AI in cybersecurity

Agentic AI versterkt het vermogen van organisaties om cyberdreigingen tijdig te detecteren, analyseren en beheersen. De autonome AI-agents kunnen in real time enorme hoeveelheden telemetriegegevens doorzoeken, afwijkingen signaleren, patronen van verdacht gedrag herkennen en – waar nodig – automatisch escaleren voor verdere analyse of actie. Hierdoor kunnen organisaties in een vroeg stadium dreigingen detecteren en de impact ervan beperken.

De grootste kracht van agentic AI ligt echter in het vermogen om continu en autonoom te werken, zonder de noodzaak van menselijke tussenkomst – een fundamenteel verschil met traditionele securitytools die vaak reactief en handmatig zijn. Vooral op het gebied van incident response biedt dit grote voordelen. In plaats van te wachten tot een analist een dreiging beoordeelt en actie onderneemt, kan een agentic AI-systeem automatisch geïnfecteerde systemen isoleren, kwaadaardig verkeer blokkeren en forensische analyses in gang zetten. Dit alles gebeurt op basis van vooraf ingestelde beleidsregels en risicoprofielen. Het resultaat: een drastische verlaging van de gemiddelde tijd tot detectie (MTTD) en respons (MTTR).

Agentic AI heeft hiernaast het potentieel om de structuur en werking van een Security Operations Center (SOC) ingrijpend te veranderen. Vooral Tier 1 SOC-rollen – die zich richten op het verwerken van grote hoeveelheden meldingen en routinetaken zoals het triageren van alerts en het uitsluiten van false positives – lenen zich uitstekend voor automatisering. Door dit soort taken te delegeren aan een AI-agent kunnen organisaties de operationele overhead verminderen en ‘alert fatigue’ onder security professionals verminderen – extra belangrijk, omdat alert fatigue gerelateerd zou zijn aan burnouts onder security analisten.

Hoewel tier 1 SOC-rollen misschien wel verdwijnen in de nabije toekomst, blijven securityprofessionals essentieel. Agentic AI is niet geschikt voor taken waarbij context, inschattingsvermogen en creativiteit een cruciale rol spelen, zoals strategiebepaling, geavanceerde threat hunting en diepgaand incidentonderzoek. Het is daarom geen wondermiddel dat het wereldwijde tekort aan cybersecurityspecialisten volledig oplost. Het kan securityteams echter wel versterken door routinetaken over te nemen, wat hen vrijstelt om zich te richten op complexere uitdagingen en sneller, nauwkeuriger en met meer vertrouwen om te gaan met dreigingen.

Agentic AI biedt ook voordelen voor aanvallers

Hoewel agentic AI cybersecurity aanzienlijk kan versterken, brengt het ook serieuze risico’s met zich mee als het wordt ingezet door aanvallers. Aanvallers kunnen met de technologie bijvoorbeeld autonome phishingcampagnes op grote schaal opzetten, waarbij AI-agents gepersonaliseerde berichten genereren en toon, timing en inhoud in real-time aanpassen op basis van interactie en respons. Daarnaast kunnen aanvallers agentic AI inzetten om malware te maken die zichzelf continu verbetert, waarbij het zijn gedrag kan aanpassen om detectie te omzeilen en zich kan verspreiden zonder externe command-and-control infrastructuur. Het wordt hierdoor moeilijker om de malware te ontdekken of in te dammen.

Ondanks de toenemende autonomie van dergelijke aanvallen blijft menselijke creativiteit een doorslaggevende factor. De vindingrijkheid van aanvallers – het herkennen van zwakke plekken, het combineren van exploits en zich aanpassen aan cybersecuritymaatregelen – is essentieel voor het succes van geavanceerde aanvallen. Toch heeft agentic AI – in de verkeerde handen – een groot potentieel: het versnelt de snelheid, precisie en het aanpassingsvermogen van cyberaanvallen en verlaagt tegelijkertijd de drempel voor cybercriminaliteit.

De toekomst van cybersecurity is nauw verbonden met agentic AI

Naarmate agentic AI zich verder ontwikkelt, zal het een steeds prominentere rol krijgen binnen cybersecurity. Organisaties zullen in toenemende mate vertrouwen op autonome systemen die dreigingen in real-time kunnen detecteren, indammen en zullen zich continu aanpassen op basis van nieuwe inzichten. Deze technologieën nemen steeds meer verantwoordelijkheden over binnen securityoperaties, waardoor snellere, datagestuurde besluitvorming met minimale menselijke tussenkomst weer een stap dichterbij komt. Meer autonomie brengt echter ook risico’s met zich mee. Een vaak aangehaald voorbeeld van de Sovjetofficier die in 1983 een nucleaire reactie voorkwam door een foutief systeemalarm te negeren, illustreert dit perfect. Een mens heeft het vermogen om protocollen en systemen in twijfel te trekken, maar een AI-agent zou zonder contextueel oordeel of moreel bewustzijn de lancering hebben doorgezet. De les is duidelijk: ongecontroleerde autonomie kan een risico vormen zonder de juiste governance.

Naarmate steeds meer organisaties hun cybersecurity – of een deel hiervan – zullen toevertrouwen aan agentic AI, wordt het tekort aan goed opgeleide professionals met de juiste expertise steeds nijpender. Het ontwikkelen, implementeren en controleren van deze systemen vereist specialisten die niet alleen verstand hebben van cybersecurity, maar ook diepgaande kennis bezitten van de werking en risico’s van AI. Dit soort experts zijn schaars en de kans is groot dat ze een carrière bij een cybersecuritybedrijf verkiezen boven een baan bij een ‘normale’ organisatie. Naast de behoefte om goed geschoold personeel aan te nemen, hebben bedrijven tegelijkertijd een dringende behoefte aan nieuw beleid die de grenzen van autonomie duidelijk vastleggen, verantwoordelijkheden afbakenen en mechanismen bieden om risico’s beheersbaar te houden.

Organisaties moeten bovendien rekening houden met enkele praktische beperkingen. Voor het trainen van effectieve agentic AI zijn enorme datasets van hoge kwaliteit nodig – iets waar momenteel slechts een handvol bedrijven over beschikken. De meeste organisaties zullen daarom afhankelijk zijn van vooraf getrainde AI-modellen van externe leveranciers. Dit maakt vertrouwen en transparantie essentieel. Securityprofessionals moeten inzicht hebben in hoe deze modellen tot beslissingen komen, hoe ze gecontroleerd en gevalideerd kunnen worden en waar hun grenzen liggen. In de toekomst zal effectieve cybersecurity niet alleen afhangen van het gebruik van agentic AI, maar vooral van de manier waarop deze technologie verantwoord wordt ingezet – met oog voor controle, begrenzing en begrip van de risico’s.

Dit is een ingezonden bijdrage van Arctic Wolf. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.