Snelle AI-adoptie vergroot risico op shadow IT

Snelle AI-adoptie vergroot risico op shadow IT

Ruim 80 procent van de grootste bedrijven ter wereld gebruikt inmiddels AI bij softwareontwikkeling, maar veel organisaties hebben nauwelijks grip op die inzet. Microsoft waarschuwt dat schaduwgebruik van AI uitgroeit tot een serieus veiligheidsrisico.

Dat blijkt uit het recente Cyber Pulse Report van Microsoft, dat werd gepubliceerd in aanloop naar de Münchner Sicherheitskonferenz. Volgens het rapport worden AI-helpers voor programmeren inmiddels ingezet bij meer dan 80 procent van de Fortune 500-bedrijven. De adoptie gaat snel, maar duidelijke kaders en specifieke beveiligingsmaatregelen blijven in veel gevallen achter.

Microsoft spreekt expliciet van een groeiende kloof tussen innovatie en veiligheid. Terwijl AI-agents zich in hoog tempo verspreiden binnen organisaties, beschikt minder dan de helft van de bedrijven over specifieke securitycontroles voor generatieve AI. Tegelijkertijd gebruikt 29 procent van de medewerkers niet-goedgekeurde AI-agents voor het werk. Daarmee ontstaat een nieuwe vorm van shadow IT, aangeduid als shadow AI.

Onder shadow AI valt het gebruik van AI-toepassingen zonder medeweten of goedkeuring van de IT- of securityafdeling. Medewerkers zetten zelfstandig externe tools of autonome agents in om taken sneller uit te voeren. Wat begint als efficiëntiewinst, kan uitmonden in een structurele blinde vlek binnen de beveiliging. IT-afdelingen weten in zulke gevallen niet welke systemen actief zijn, welke data worden verwerkt en welke toegangsrechten zijn toegekend.

Goed ingerichte governance is belangrijk

Volgens Microsoft schuilt een belangrijk risico in de snelheid waarmee AI-agents worden uitgerold. Een snelle implementatie kan bestaande security- en compliancecontroles ondermijnen. Wanneer organisaties onvoldoende tijd nemen om governance in te richten, neemt de kans toe dat agents te ruime bevoegdheden krijgen of toegang hebben tot gevoelige informatie zonder passend toezicht.

De risico’s zijn volgens het bedrijf niet louter theoretisch. Het Defender-team van Microsoft signaleerde recent een fraudecampagne waarbij aanvallers gebruikmaakten van een techniek die bekendstaat als memory poisoning. Daarbij wordt het geheugen van AI-assistenten doelbewust gemanipuleerd, waardoor uitkomsten structureel worden beïnvloed. Dit onderstreept dat AI-systemen zelf een aanvalsvector kunnen worden wanneer zij niet adequaat zijn beschermd.

Een bijkomend aandachtspunt is het gevaar van overgeprivilegieerde agents. Net als menselijke accounts kunnen AI-agents beschikken over brede toegangsrechten tot meerdere databronnen en applicaties. Wanneer een agent wordt gecompromitteerd of verkeerd wordt aangestuurd, kan dat leiden tot grootschalige datalekken of misbruik. Microsoft waarschuwt bovendien dat een agent met te veel toegang of onjuiste instructies kan veranderen in een digitale dubbelagent.

Om deze risico’s te beperken pleit Microsoft voor een zero trust-benadering van AI-agents. Elke agent moet expliciet worden geverifieerd, toegangsrechten moeten strikt worden beperkt tot wat noodzakelijk is en activiteiten dienen continu gemonitord te worden. Daarnaast adviseert het bedrijf een centraal register bij te houden waarin wordt vastgelegd welke AI-agents binnen de organisatie actief zijn, wie eigenaar is en tot welke data zij toegang hebben. Niet-goedgekeurde agents moeten actief worden opgespoord en geïsoleerd.

De opmars van AI binnen organisaties lijkt onomkeerbaar. De uitdaging ligt niet in het tegenhouden van innovatie, maar in het beheerst invoeren ervan. Zonder duidelijke governance, transparantie en aangepaste beveiligingsmaatregelen dreigt shadow AI uit te groeien tot een structureel en moeilijk beheersbaar risico binnen de moderne IT-omgeving.