Google ondersteunt het maken van tools voor deepfake-opsporing

Google wil de opkomst van zogenaamde ‘deepfake’-video’s op het internet aanpakken. Om die reden heeft het bedrijf een serie voorbeeldclips gepubliceerd, die onderzoekers kunnen gebruiken om geavanceerdere detectie-tools te ontwikkelen.

Deepfake is een techniek waarbij beelden aangepast worden met kunstmatige intelligentie (AI). Met de techniek worden bestaande beelden en video’s gecombineerd met bronbeelden of -video’s, aan de hand van een machine learning-techniek genaamd generative adversarial network.

Het resultaat is een extreem realistisch lijkende video. In het verleden werd deepfake dan ook gebruikt om neppe video’s van beroemdheden te maken, of voor neppe wraakporno. Daarnaast zijn deepfakes gebruikt om neppe nieuwsberichten te maken.

3.000 deepfake-video’s

Google laat nu weten dat het ongeveer 3.000 deepfake-video’s publiceert, schrijft Silicon Angle. De video’s werden gemaakt in samenwerking met Jigsaw, een bedrijf dat ontwikkeld werd in Google’s incubator-programma. Voor de video’s werden echte acteurs gebruikt.

“Om deze dataset te maken hebben we het afgelopen jaar samengewerkt met betaalde acteurs die toestemming gaven, om honderden video’s op te nemen”, aldus Google. “Door openbaar beschikbare deepfake-ontwikkelmethodes te gebruiken, maakten we duizenden deepfakes vanaf deze video’s.”

De dataset is onderdeel van de nieuwe FaceForensics benchmark, een project van de Technical University of Munich en de University Federico II in Naples. Onderzoekers kunnen de video’s gratis gebruiken bij het ontwikkelen van detectietechnologie voor deepfakes.

Grote dreiging

Onderzoek van Trend Micro wees vorige week uit dat deepfake ransomware één van de meest gevreesde toekomstige cyberdreigingen is. Bij deze aanvallen worden deepfakes gebruikt om geld los te peuteren bij slachtoffers.

Probleem hierbij is dat er tegenwoordig weinig aan fact-checking gedaan wordt. Als een video geplaatst is, is de schade aan iemands carrière of leven al toegebracht, ook als later blijkt dat de video nep is.

De Amerikaanse Democrate Nancy Pelosi is al eens het slachtoffer geweest van deepfake ransomware. Er werd een video gemaakt waarbij haar spraak vertraagd was. Daardoor klonk het alsof ze dronken of dement was.