Vergis je niet: agentic AI zal de komende jaren uitgroeien tot een serieuze veiligheidskwestie voor zowel grote als kleine bedrijven. Dit is geen verre toekomstvoorspelling, maar een werkelijkheid die zich razendsnel aandient. Deze systemen, die zelfstandig kunnen waarnemen, redeneren, beslissen en handelen, zijn zonder twijfel revolutionair, maar brengen ook aanzienlijke beveiligingsuitdagingen met zich mee. We moeten AI dan ook niet langer zien als slechts een hulpmiddel, maar als een actieve en vaak onvoorspelbare speler in onze digitale én fysieke wereld.
De opkomst van agentic AI betekent niet alleen de komst van nieuwe tools, maar ook van nieuwe bedreigingen
De opkomst van generatieve AI (GenAI) heeft het operationele landschap nu al fundamenteel veranderd. We zien een constante stroom aan doorbraken waardoor ontwikkeltijdlijnen instorten en bestaande maatstaven in hoog tempo verdwijnen. Voor cybersecurity betekent dit dat traditionele modellen, die grotendeels gebaseerd zijn op door mensen gedreven aanvalspatronen en gevestigde verdedigingsmechanismen, niet langer toereikend zullen zijn.
De bedreigingen die Agentic AI met zich meebrengt, verschillen niet alleen in schaal, maar ook in aard. Denk aan malware die geen command-and-control (C2)-infrastructuur meer nodig heeft, omdat de agent zelf als C2 fungeert en in staat is tot autonome besluitvorming en evolutie. Of aan AI-gestuurde botnets die niet alleen vooraf geprogrammeerde aanvallen uitvoeren, maar ook kunnen samenwerken, strategieën ontwikkelen en zich aanpassen.
Op een dag zullen we te maken krijgen met AI agents die zelfstandig nieuwe exploits kunnen genereren. Deze agents zullen hypergepersonaliseerde deepfake social engineering op grote schaal kunnen uitvoeren en geavanceerde technieken inzetten om verdediging te omzeilen en vrijwel onzichtbaar te blijven. Het “meest waarschijnlijke aanvalspad” zal er dan heel anders uitzien, wanneer de drijfveren en handelingen van de aanvaller worden bepaald door AI, in plaats van door een mens.
Drie zwakke punten in onze AI-verdediging
Tijdens een recente Agentic AI Security Workshop kwamen cybersecurity- en AI-experts tot inzichten die een somber beeld schetsen. Terwijl we agentic systemen op grote schaal integreren, in bedrijfsworkflows en kritieke infrastructuur, blijft ons collectieve vermogen om deze systemen daadwerkelijk te beheersen en te beveiligen gevaarlijk achter. Deze kloof wordt gekenmerkt door drie cruciale breuklijnen binnen onze huidige aanpak.
- De supply chain- en integriteitskloof: we bouwen momenteel op fundamenten die we nog niet volledig kunnen vertrouwen. Zo blijven er dringende vragen bestaan over de integriteit van de AI‑keten: Hoe verifiëren we de herkomst van een model of zijn trainingsdata? Hoe kunnen we zeker weten dat een agent niet ongemerkt is aangetast of gemanipuleerd tijdens de ontwikkeling?
- De bestuurs- en standaardenkloof: de regels en maatstaven die we nu hanteren zijn aanzienlijk verouderd. Veel regelgevings- en bestuurskaders uit het pre‑AI‑tijdperk beginnen nu pas in te spelen op nieuwe beleidsvragen, zoals verantwoordelijkheid en aansprakelijkheid bij door AI veroorzaakte schade.
Daarnaast ontbreekt in het digitale landschap een gemeenschappelijke maatstaf voor AI‑beveiliging. Er bestaat nog geen equivalent van een ISO 27001‑certificering, waardoor het moeilijk is om een uniform basisniveau van vertrouwen vast te stellen. Mocht zich een groot AI-specifiek incident voordoen, dan ontbreekt een “AI‑CERT”, een gespecialiseerde internationale instantie die klaarstaat om in te grijpen bij aanvallen die totaal anders zijn dan wat we tot nu toe hebben meegemaakt. - De samenwerkingskloof: Er bestaat een grote kloof tussen AI-onderzoekers en cybersecurity-professionals, de experts die dit probleem zouden moeten oplossen. Ze spreken niet dezelfde taal, wat leidt tot belemmering van de ontwikkeling van integrale oplossingen en een versnippering op internationaal niveau. AI‑dreigingen houden zich niet aan grenzen, maar de internationale samenwerking die nodig is om AI-specifieke informatie te delen en protocollen op te stellen, is nog altijd pril en verre van operationeel. Hierdoor blijft onze collectieve verdediging gevaarlijk gefragmenteerd.
Nieuwe blauwdruk voor een veilige toekomst met Agentic AI
De omvang van deze uitdaging vraagt om een fundamentele en gezamenlijke inspanning van het hele ecosysteem. De zorgen die hier worden geschetst zijn niet bedoeld om angst aan te wakkeren, maar juist om actie te stimuleren. We moeten leren van eerdere technologische revoluties en veiligheid, ethiek en governance vanaf een vroeg stadium in de structuur van agentic AI integreren, niet pas wanneer zich crises voordoen.
Dit vraagt om een nieuw sociaal contract. De onderzoekswereld moet prioriteit geven aan onderzoek naar de beveiliging van de AI‑keten en naar transparante, uitlegbare AI. Industrieconsortia dienen het voortouw te nemen in het ontwikkelen van wereldwijd erkende kaders voor AI‑governance en risicobeheer, waarbij “Secure AI by Design” de niet‑onderhandelbare basis vormt. Cybersecurityleveranciers moeten vaart zetten achter de ontwikkeling van een nieuwe generatie AI-bewuste beveiligingstools, terwijl beleidsmakers wendbare, goed onderbouwde wetgevingskaders moeten opstellen die verantwoord innoveren stimuleren en duidelijke lijnen van verantwoordelijkheid vastleggen.
Voor bedrijfsleiders en raden van bestuur is de opdracht helder: doe de noodzakelijke investeringen, bevorder een cultuur van bewustzijn rond AI‑veiligheid en eis transparantie van leveranciers en interne teams. De inzet kan niet groot genoeg zijn nu agentic systemen steeds vaker cruciale processen in financiën, gezondheidszorg, defensie en infrastructuur aansturen. Dit is het moment om gezamenlijk en daadkrachtig te handelen, om ervoor te zorgen dat het enorme potentieel van agentic AI ons gezamenlijke toekomstbeeld versterkt in plaats van ondermijnt.
Dit is een ingezonden bijdrage van Palo Alto Networks. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.