Tijdens de RSAC 2026 Conference in San Francisco zal het dit jaar hoofdzakelijk gaan over AI-agents en de zogeheten agentic workforce die daarvan het gevolg moet gaan zijn. De aankondigingen die Cisco deze week doet onderstrepen dit. AI-agents moeten ook volgens het Zero Trust Access-principe gaan werken. Daarnaast komt er een versie van AI Defense waarmee bedrijven zelf AI-modellen kunnen gaan red teamen en komen er gespecialiseerde AI-agents die ook over het SOC een agentic sausje moeten gooien.
AI-agents kunnen best veel, mits goed ingericht en uitgerold. Echt sprake van een agentic workforce is er wat ons betreft nog zeker niet. Daarvoor is er simpelweg nog veel te weinig onderlinge integratie. Voordat we daar zijn, moet er echter eerst nog een ander probleem opgelost worden. Hoe zorgen we ervoor dat die AI-agents zich een beetje gedragen? Dat ze geen dingen doen die niet mogen en dat ze veilig zijn voor aanvallen van buitenaf.
Vlak voor de RSAC 2026 Conference spraken we met Tom Gillis, SVP & GM Infrastructure and Security Group bij Cisco. Hij schetst de uitdaging als volgt: “We hebben tientallen jaren gewerkt aan het beheren van toegang voor mensen, op basis van least privileged principes. De andere kant van het verhaal is de toegang voor machines, zodat printers kunnen praten met een print manager. Met AI-agents hebben we nu iets dat de privileges heeft van een mens maar het gezond verstand van een printer.”
Zero Trust Access voor AI-agents
Het mag duidelijk zijn dat bovenstaande situatie niet wenselijk is. Cisco wil hier op meerdere manieren verandering in aanbrengen. Allereerst moeten AI-agents ook volgens de principes van Zero Trust gaan werken. Dat doen menselijke medewerkers immers ook. Agents kunnen nu in Cisco DUO IAM aan een menselijke medewerker worden gekoppeld. Daarmee hebben alle agents als het ware een identiteit gekregen. Dat moet zorgen voor meer overzicht en inzicht in de acties van AI-agents. Ook is het mogelijk om nieuwe agentic identiteiten binnen de eigen omgeving te ontdekken. Dit geeft inzicht in het gebruik van AI binnen de organisatie.
Alleen de identiteit vaststellen en koppelen aan een menselijke medewerkers is niet genoeg om ook meer security toe te voegen. Daarvoor moeten de toegangsrechten van AI-agents ook aangepakt worden. Dat wil Cisco gaan doen door ook AI-agents onder de Zero Trust Access-principes te laten vallen. Het idee is dat AI-agents alleen heel fijnmazig toestemming krijgen voor de taken die ze uitvoeren en/of voor de tijd die het nodig is om toegang te krijgen tot bronnen.
Cisco voegt Zero Trust Access voor AI-agents toe aan de eigen SSE (Security Service Edge)-oplossing, Cisco Secure Access. Dit doet het door een MCP-proxy binnen SSE te plaatsen. Al het verkeer tussen AI-agents onderling en AI-agents en andere tools gaat via deze gateway. Hiermee krijgt MCP-verkeer dezelfde behandeling als HTTP-verkeer, geeft Gillis aan.
AI Defense: Explorer Edition
Het gaat bij het beveiligen van agentic workflows niet alleen om de AI-agents zelf. Die AI-agents maken gebruiken van AI-modellen om hun werk te doen. Als die modellen niet deugen of gecompromitteerd zijn, dan werkt dit ook door in de AI-agents. In de woorden van Gillis: “Hoe beschermen we AI-agents tegen de wereld?”
Om ook de AI-modellen continu te kunnen testen op hoe veilig ze zijn, heeft Cisco vorig jaar AI Defense uitgebracht. Daarvan kondigt het nu een nieuwe versie aan, AI Defense: Explorer Edition. Met deze nieuwe versie richt Cisco zich vooral op ontwikkelaars, AppSec-teams en securityonderzoekers. Die kunnen hier namelijk zelf mee aan de slag om AI-modellen en -applicaties te red teamen voordat deze in productie gaan.
Agentic SOC: AI-agents om (AI-)workflows te beveiligen
Als je AI-modellen gaat red teamen, vuur je als het ware miljarden vragen af aan een enorme snelheid. Dat levert enorm veel data op, deels ook omdat AI-modellen vanwege het non-deterministische karakter heel vaak dezelfde vragen moeten beantwoorden. De antwoorden zijn immers geen twee keer hetzelfde. Het is echter wel belangrijk dat SOC-analisten al die data kunnen doorzoeken. Op dit punt komt de federated search van Splunk om de hoek kijken.
Lees ook: Cisco brengt Splunk naar de data, waar die ook staat
Als het gaat om de Agentic SOC, gaat het niet alleen om het afhandelen van alle data die AI-agents en AI-modellen genereren. AI-agents gaan ook steeds meer een rol spelen in het SOC om analisten te helpen en (deels autonoom) werk over te nemen. Cisco komt dan ook met een aantal gespecialiseerde AI-agents: Detection Builder Agent, Standard Operating Procedures (SOP) Agent, Triage Agent, Malware Threat Reversing Agent, Guided Response Agent en Automation Builder Agent. Alleen de Malware Threat Reversing Agent is nu al algemeen beschikbaar. De overige komen in meerdere stappen tussen nu en juni van dit jaar beschikbaar.
In hoeverre de nieuwe toevoegingen van Cisco kunnen beschermen tegen volledig nieuwe aanvallen van hackers, is uiteraard de grote vraag. Zolang al die gespecialiseerde agents werken op basis van bekende dreigingen, zal het lastig zijn om de zoiets als de hack op Claude waar we recent over schreven te detecteren. Het is zelfs de vraag of je dit soort zaken überhaupt in een product kunt krijgen dat je beschikbaar wilt maken voor algemeen gebruik.
In het algemeen is de richting die Cisco opgaat zonder meer goed wat ons betreft. AI-agents moeten beter in het gareel gehouden worden. Dan is Zero Trust een uitstekend startpunt. Daarnaast zorgt het gebruik van AI binnen organisaties simpelweg voor een dermate grote hoeveelheid data dat mensen er niet meer doorheen komen. Dan is het niet meer dan logisch dat AI-agents de SOC-analisten gaan ondersteunen. Die AI-agents moeten dan zelf uiteraard ook voldoen aan de Zero Trust Access-principes, maar dat moet dus nu juist ook mogelijk zijn.