2min

Tags in dit artikel

, ,

Met de lancering van Microsoft Video Authenticator meent Microsoft een aanzienlijke stap te hebben gezet richting het makkelijker kunnen aanmerken van een filmpje of afbeelding als zijnde gemanipuleerd. Deepfakes zouden met de tool vele malen makkelijker herkend kunnen worden.

Deepfakes zijn afbeeldingen of video’s die middels computers zijn aangepast, waardoor het lijkt alsof een bepaalde persoon iets zegt maar dit nooit heeft gedaan. Zinnen samenstellen aan de hand van bepaalde uitspraken en een bewegend gezicht creëren dat niet van echt te onderscheiden is, is volgens Microsoft één van de grootste problematische kernpunten van het verspreiden van misinformatie. Reden voor de techgigant om technologie te komen om dat probleem te tackelen.

Met de aankomende Amerikaanse verkiezingen in het vooruitzicht, hoopt Microsoft al direct bij te kunnen dragen aan het geven van zekerheid als mensen een afbeelding of video voorgeschoteld krijgen. Betreft het een echte uitspraak, of is deze door AI in elkaar geknutseld met het doel om iemands mening te beïnvloeden?

Microsoft Video Authenticator analyseert video’s en afbeeldingen en geeft vervolgens een score afhankelijk van hoe echt het bestand wordt ingeschat. De partij die de afbeelding of video test, kan vervolgens aankaarten dat het om een echte of neppe video of afbeelding gaat.

In eerste instantie is de authenticator enkel beschikbaar gemaakt voor een aantal media die een samenwerking zijn aangegaan met Microsoft. Onder hen de BBC, CBC en de New York Times. Daarnaast wordt de tool ook beschikbaar gemaakt voor de AI Foundation.

Naast de authenticator introduceert Microsoft ook een tweetal componenten dat gemanipuleerde content kan herkennen. Content producers kunnen in Azure certificaten of hashes toevoegen aan content, die vervolgens middels een reader (onder andere beschikbaar als browser extensie) gecontroleerd kunnen worden.