Google verbetert testmethode op privacy van AI-modellen

Abonneer je gratis op Techzine!

Google heeft een nieuwe module ontwikkeld voor zijn toolkit Tensorflow Privacy. Met deze toolkit zijn de TensorFlow AI-modellen op basis van machine learning beter te testen op het gebied van privacy.

Privacy van AI-modellen is voor ontwikkelaars nog altijd een flinke bron van discussie, stelt de techgigant. Er bestaan nog geen duidelijke richtlijnen over hoe precies een volledig private AI-model kan worden ontwikkeld. AI-modellen staan hierdoor eigenlijk nog steeds ‘open’ voor datalekken bij het trainen van datasets en vormen dus een gevaar voor de privacy van deze data

Toevoegen van ‘ruis’

Google heeft hiervoor al een tool, TensorFlow Privacy, op basis van ‘differential privacy’ ontwikkeld die ervoor moet zorgen dat het lekken van data tijdens het trainen van AI-modellen zoveel mogelijk wordt tegengegaan. Met het toevoegen van ‘ruis’ aan het trainen van datamodellen worden voorbeelden van training data ‘verborgen’. Het wordt dus moeilijk uit deze ‘brei’ de te trainen data ‘af te luisteren’.

Nadeel van deze beveiligingstechnologie is eigenlijk dat het is ontwikkeld voor veronderstelde worst-case scenario’s en bovendien de accuratesse van AI-modellen sterk kan beïnvloeden. Bovendien is inmiddels ook geconstateerd dat hackers ook veel eenvoudiger aanvallen op AI trainingssets kunnen uitvoeren.

Membership interference attacks

Zogenoemde AI classifiers voor machine learning-modellen kunnen ook worden onderschept met ‘membership inference attacks’. Membership interference-aanvallen zijn eenvoudig uit te voeren, zijn goedkoop en kunnen met weinig kennis van AI-modellen worden uitgevoerd.

Met dit soort aanvallen kunnen hackers voorspellen wanneer een stuk data tijdens een training is gebruikt. Wanneer zij deze voorspellingen accuraat uitvoeren, dan slagen zij er waarschijnlijk in om data te identificeren die in een training set is gebruikt. Dit vormt dan natuurlijk weer een inbreuk op de privacy van deze data.

Module met kwetsbaarheidsscore

De nu uitgebrachte module voor TensorFlow Privacy moet er nu voor gaan zorgen dat ontwikkelaars hun trainings sets voor AI-modellen op basis van machine learning beter kunnen testen of zij kwetsbaarheden bevatten en dus mogelijk privacygevoelige data lekken.  De module gebruikt hiervoor alleen de output van de AI-modellen, in plaats van de weegfactoren en de input data. Met de test wordt een kwestbaarheidsscore gerealiseerd die bepaalt of het bewuste AI-model data lekt uit de training set.

De resultaten moeten ontwikkelaars helpen betere private AI-modellen te bouwen, beter te zoeken naar de juiste architectuur van de modellen en bepaalde regeltechnieken als early stopping, dropout, weight decay en input augmentation te gebruiken. Of om meer data te kunnen verzamelen.

Betere architecturen en privacy-by-design

Uiteindelijk moet dit, aldus Google, weer leiden tot betere architecturen op basis van privacy-by-design en betere keuzes rondom het verwerken van data. In de nabije toekomst wil de techgigant de nieuwe module voor TensorFlow Privacy door ontwikkelen om membership interference attacks ook te voorkomen buiten de training sets.