Zo herken je een deepfake
De deepfakevideo van Nixon is gebaseerd op kunstmatige intelligentie en deep learning-technologie. Het komt er in het kort op neer dat op beelden van de gezichtsuitdrukkingen en mimiek van een acteur met software de huid eraf is gestript, waarna er een nieuwe mond over Nixons gezicht is geplakt.
In samenwerking met een stemacteur heeft het MIT-team synthetische spraak ontwikkeld die paste bij Nixons nieuwe, gemanipuleerde mondbewegingen.
‘We willen laten zien waar deze technologie toe in staat is, om het gesprek te openen over wat je doet als je de dag voordat er verkiezingen plaatsvinden opeens een video ziet van een politicus die iets heel racistisch lijkt te zeggen. We zijn er al alert op dat foto’s met Photoshop kunnen zijn bewerkt. Nu is het tijd om ook kritisch te worden op bewegend beeld,’ zegt Bjerg.
Volgens hem zijn deepfakes tegenwoordig zo goed dat ze moeilijk te herkennen kunnen zijn.
Maar als je twijfelt of een video deepfake is, let dan op de rand van het gezicht: zien de contouren er natuurlijk uit? En verder: is de huidtint egaal? Hoe gedragen de schaduwen bij de kraag zich? Heeft de persoon een onnatuurlijke, doodse blik? Zien de tanden er vreemd of pixelig uit?
Het nepgezicht rukt op
De technologie, die tot dusver vooral is ingezet op het gebied van porno en politiek, kan ook voor andere doeleinden worden gebruikt, aldus Magnus Bjerg.
‘Deepfaketechnologie kan de filmindustrie een hoop geld besparen. Zo zijn er films gemaakt waarin James Dean (die is overleden in 1955, red.) een rol speelt. En in documentaires kun je de technologie gebruiken om mensen te anonimiseren. Dat is bijvoorbeeld gedaan bij homo’s en lesbiennes die meewerkten aan de Oekraïense documentaire Welcome to Chechnya.’
Bij het brede publiek werden deepfakes bekend in 2017, toen de website Reddit pornovideo’s ging uploaden waarin de gezichten van pornoactrices waren vervangen door die van popsterren als Taylor Swift en Katy Perry.
Google en Facebook hebben tientallen miljoenen geïnvesteerd in het opsporen en verwijderen van nepvideo’s voordat ze schade kunnen aanrichten.
Om diezelfde reden zijn Magnus Bjerg en de rest van het MIT-team terughoudend met details over hun werkwijze. Hij zegt in dit verband ook:
‘We zijn ervan onder de indruk – en erdoor geschokt – hoe goed de deepfakevideo is geworden. Het goede nieuws is dat het ons toch nog drie maanden heeft gekost om hem te produceren. Er is dus nog wat tijd, al kunnen deepfakes steeds sneller, goedkoper en beter worden gemaakt.’