Een set aan nieuwe tools moet modellen in Azure AI Studio accurater en veiliger maken. Microsoft pakt hiermee een aantal belangrijke AI-kwetsbaarheden aan.
Het betreft een vijftal tools binnen Microsoft Azure AI Studio. Allereerst moeten Prompt Shields ervoor zorgen dat organisaties prompt injection-aanvallen kunnen voorkomen. Met een dergelijke aanval kunnen kwaadwillenden de instructies van een AI-model herschrijven, waardoor een LLM bijvoorbeeld trainingdata lekt of ingaat op ongewenste prompts die het anders zou afwijzen. Prompt Shields is beschikbaar als preview.
AI-modellen aansturen
Twee andere tools richten zich op de soort gevaren waar AI-modellen geen externe dreiging voor nodig hebben. LLM’s kunnen ontransparant en inaccuraat zijn, maar Microsoft hoopt dit voortaan te kunnen beperken. Groundedness-detecties pikken feitelijke onjuistheden op in outputs (hallucinaties), zodat ontwikkelaars de LLM in kwestie later kunnen verfijnen. Safety system-berichten moeten er vervolgens voor zorgen dat modellen beter aan te sturen zijn op veilige outputs.
Met een nieuwe veiligheidsevaluatie kunnen AI-ontwikkelaars ontdekken of modellen te jailbreaken zijn en mogelijk data kunnen lekken. Deze tool heeft Microsoft in preview-vorm beschikbaar gesteld.
Met risico- en veiligheidsmonitoring is een nog concreter beeld te vormen van de in- en outputs van LLM’s, zodat AI-ontwikkelaars bepaalde contentfilters kunnen toepassen.
Breder initiatief
De tools beantwoorden de vraag naar meer AI-vangrails, die inmiddels door de politiek is geconcretiseerd. In Europa timmert de EU aan de weg met de AI Act, die het gevaar loopt om innovatie te stremmen op jacht naar veiligheid.
Lees verder: AI Act: Europa is blind voor innovatie-problemen van de wet
In de Verenigde Staten kiest men voor een ander plan van aanpak. Begin februari kondigde handelsminister Gina Raimondo aan dat meer dan 200 bedrijven zich hadden ingeschreven voor het Artificial Intelligence Safety Institute Consortium (AISIC). Naast Microsoft waren ook o.a. Amazon, Google, Meta, Nvidia en OpenAI van de partij.
Een van de AISAC-afspraken is om tools zoals het nieuwe aanbod in Azure AI Studio te ontwikkelen. AISIC zou idealiter het platform zijn om industriebrede standaarden op poten te zetten die een balans vinden tussen innovatie en veiligheid. Vooralsnog blijven de stappen beperkt tot specifieke oplossingen om AI veilig te krijgen, zoals binnen Azure AI.
Lees ook: Microsoft begrijpt dat AI meer is dan een Copilot-knop