1 min

Generatieve AI is ongekend populair, maar de kwetsbaarheden hiervan worden nog onvoldoende belicht. Recent onderzoek van Rezillion geeft aan dat in de meeste (openbare) generatieve AI-initiatieven nog veel kwetsbaarheden zitten.

Uit het onderzoek van supply chainsecurityspecialist Rezillion onder de 50 meest populaire (open-source) generatieve AI-modellen blijkt dat deze toch nog een aantal behoorlijke securityrisico’s hebben. Denk daarbij aan securityrisico’s op het gebied van onder andere trust boundary, data management, risico’s in modellen en algemene securityrisico’s.

AI-modellen en -oplossingen staan vaak open

Onder meer is ontdekt dat veel AI-modellen uitgebreide toegang en autorisatie geven, zonder voldoende beveiligingsmaatregelen. Wanneer dit wordt gecombineerd met het ontbreken van volwassen en basissecurity in de open-sourceprojecten die deze oplossingen vaak gebruiken, kan dit makkelijk tot inbreuken leiden.

De echte oorzaak zit volgens Rezilion echt in dat de onderliggende AI-modellen en -oplossingen een slechte security posture hebben. Gemiddeld scoren de populaire generatieve AI-modellen en -oplossingen een score van 4.6 uit 10 op de zogenoemde OSSF Scorecard. De meest populaire oplossing, Auto-GPT scoort zelfs een 3.7.

Aanbevelingen

Vanzelfsprekend komt Rezilion ook met aanbevelingen voor een veilig gebruik en uitrol van generatieve AI-modellen en -oplossingen. Deze aanbevelingen omvatten onder meer het opleiden van teams om de risico’s te herkennen, het nauwgezet in de gaten houden van securityrisico’s van LLM’s en de open-source ecosystemen.

Daarnaast stellen de onderzoekers het implementeren van robuuste securitypraktijken voor en het opzetten van meer security awareness.

Lees ook: ‘Werknemers omarmen AI, maar missen security-vaardigheden’