2min

Een team van de universiteit van Toronto heeft een interessant algoritme weten te ontwikkelen. Dat kan technologie die gebruikt wordt voor gezichtsherkenning op ‘dynamische’ wijze verstoren. Het team gebruikte een deep learning techniek die ‘adversarial training’ genoemd wordt en twee algoritmes tegenover elkaar plaatst.

Onderzoekers Parham Aarabi en Avishek Bose ontwierpen twee neurale netwerken. De eerste daarvan identificeert gezichten en de tweede is gericht op het verstoren van de taak van dat eerste algoritme. De twee bestrijden elkaar constant, en leren van elkaar. Dat zorgde volgens de onderzoekers voor een soort wapenwedloop tussen de twee AI’s.

Beeldmateriaal bewerken

Bose vertelde tijdens een interview met Eureka Alert dat de verstorende AI precies dat kan aanvallen waar het neurale netwerk voor gezichtsherkenning naar zoekt. Als de herkennende AI bijvoorbeeld zoekt naar ooghoeken, past die de ooghoek op beeldmateriaal aan, zodat die minder goed te herkennen valt.

De verstorende AI brengt subtiele veranderingen aan in het beeldmateriaal, dat voor de detecterende AI genoeg is om niet goed te kunnen werken. Het algoritme richt zich op elke specifieke pixel in een foto. Daarmee zijn de veranderingen die doorgevoerd worden nauwelijks herkenbaar voor het menselijk oog.

Privacyzorgen

De ontwikkeling van dit deep learning model is een mooie. De afgelopen tijd kwam er steeds meer kritiek op technologiebedrijven als Amazon en Google, die elk geavanceerde gezichtsherkenningstechnieken op de markt hebben gebracht. Daarnaast bleek kortgeleden nog dat de Metropolitan Police in Londen de technologie in de praktijk gebruikt en in maar liefst 98 procent van de gevallen verkeerd zat.

Technologie die het werk van deze gezichtsherkenningssystemen kan verstoren is dus niet bepaald ongewenst. “Persoonlijke privacy is echt een probleem, nu gezichtsherkenning steeds beter wordt,” aldus Aarabi.