MIT

Deepfake: Nixon praat over mislukte maanlanding

Bij de maanlanding van 20 juli 1969 had president Nixon twee toespraken klaarliggen: een vreugdevolle over het succes van Apollo 11 en een trieste over de mislukte poging. Gelukkig hoefde de president alleen de eerste te gebruiken, maar 50 jaar later houdt hij de mislukkingsspeech alsnog – of eigenlijk doet kunstmatige intelligentie dat voor hem. De video met de neptoespraak heeft nu een Emmy gewonnen.

‘Als je iets niet weet, accepteer je heel veel – zonder enige kritiek.’

Dat zegt Magnus Bjerg, conceptontwikkelaar van de deepfake In Event of Moon Disaster. De video is geproduceerd door het Massachusetts Institute of Technology (MIT) en heeft nu een Emmy gewonnen in de categorie Outstanding Interactive Media: Documentary.

Het team dat de video heeft gemaakt, wil laten zien hoe nieuwe technologie de werkelijkheid kan verdraaien en verhullen en ‘de invloed van grootschalige desinformatie en deepfaketechnologie op onze maatschappij onderzoeken’.

In deze historische toespraak legt de voormalige Amerikaanse president Richard Nixon uit waarom de maanlanding niet volgens plan is verlopen. Maar de beelden en het geluid zijn synthetisch. Ze zijn het resultaat van de mogelijkheden van kunstmatige intelligentie. De toespraak is dus nep.

De vraag is alleen: kun jij dat zien?

Zo herken je een deepfake

De deepfakevideo van Nixon is gebaseerd op kunstmatige intelligentie en deep learning-technologie. Het komt er in het kort op neer dat op beelden van de gezichtsuitdrukkingen en mimiek van een acteur met software de huid eraf is gestript, waarna er een nieuwe mond over Nixons gezicht is geplakt.

In samenwerking met een stemacteur heeft het MIT-team synthetische spraak ontwikkeld die paste bij Nixons nieuwe, gemanipuleerde mondbewegingen.

‘We willen laten zien waar deze technologie toe in staat is, om het gesprek te openen over wat je doet als je de dag voordat er verkiezingen plaatsvinden opeens een video ziet van een politicus die iets heel racistisch lijkt te zeggen. We zijn er al alert op dat foto’s met Photoshop kunnen zijn bewerkt. Nu is het tijd om ook kritisch te worden op bewegend beeld,’ zegt Bjerg.

Volgens hem zijn deepfakes tegenwoordig zo goed dat ze moeilijk te herkennen kunnen zijn.

Maar als je twijfelt of een video deepfake is, let dan op de rand van het gezicht: zien de contouren er natuurlijk uit? En verder: is de huidtint egaal? Hoe gedragen de schaduwen bij de kraag zich? Heeft de persoon een onnatuurlijke, doodse blik? Zien de tanden er vreemd of pixelig uit?

© MIT

Het venijn zit in de details

Het Nederlandse bedrijf Sensity (voorheen Deeptrace) schreef een algoritme dat deepfakecontent opspoort. Het algoritme is gevoed met duizenden uren echte en nepvideo’s, waarna het op zoek ging naar de verschillen. Het algoritme controleert elke pixel van elk beeld (vaak duizenden per video) om inconsistenties te vinden.

Volgens Henry Ajder, hoofd Threat Intelligence bij Sensity, moet je diep in de details duiken om deepfakes te herkennen.

‘Bij veel deepfakes kun je niet met het blote oog zien dat ze nep zijn, de fouten zitten meestal op pixelniveau. Ons algoritme is er onder andere in getraind om pixels te zoeken die afwijken: groepjes pixels die te donker of te licht zijn (in verhouding tot de omgeving, red.),’ legt Henry Ajder uit.

In december 2018 spoorde Sensity ruim 14.000 onlinevideo’s op die werden geclassificeerd als deepfakes.

Volgens Magnus Bjerg heeft Sensity ook In Event of Moon Disaster gecontroleerd, en het grondige algoritme van het bedrijf constateerde dat de video inderdaad een deepfake was.

Het nepgezicht rukt op

De technologie, die tot dusver vooral is ingezet op het gebied van porno en politiek, kan ook voor andere doeleinden worden gebruikt, aldus Magnus Bjerg.

‘Deepfaketechnologie kan de filmindustrie een hoop geld besparen. Zo zijn er films gemaakt waarin James Dean (die is overleden in 1955, red.) een rol speelt. En in documentaires kun je de technologie gebruiken om mensen te anonimiseren. Dat is bijvoorbeeld gedaan bij homo’s en lesbiennes die meewerkten aan de Oekraïense documentaire Welcome to Chechnya.’

Bij het brede publiek werden deepfakes bekend in 2017, toen de website Reddit pornovideo’s ging uploaden waarin de gezichten van pornoactrices waren vervangen door die van popsterren als Taylor Swift en Katy Perry.

Google en Facebook hebben tientallen miljoenen geïnvesteerd in het opsporen en verwijderen van nepvideo’s voordat ze schade kunnen aanrichten.

Om diezelfde reden zijn Magnus Bjerg en de rest van het MIT-team terughoudend met details over hun werkwijze. Hij zegt in dit verband ook:

‘We zijn ervan onder de indruk – en erdoor geschokt – hoe goed de deepfakevideo is geworden. Het goede nieuws is dat het ons toch nog drie maanden heeft gekost om hem te produceren. Er is dus nog wat tijd, al kunnen deepfakes steeds sneller, goedkoper en beter worden gemaakt.’