Our website does not support Internet Explorer.

To get the best experience on our website and of our content, please use a more modern browser like Edge, Chrome, Safari or similar.

Deepfake: Nixon praat over mislukte maanlanding

Voor de maanlanding van 20 juli 1969 had de Amerikaanse president Richard Nixon twee toespraken klaarliggen over het lot van de Apollo 11, Neil Armstrong en Buzz Aldrin. De ene werd over de hele wereld uitgezonden. De andere – die voor als het zou mislukken – is nooit gehouden of vertoond. Tot nu.

MIT

‘Als je iets niet weet, accepteer je heel veel – zonder enige kritiek.’

Dat zegt Magnus Bjerg, conceptontwikkelaar van de deepfakefilm In Event of Moon Disaster, die is geproduceerd door het Massachusetts Institute of Technology (MIT).

Het team dat de video heeft gemaakt, wil laten zien hoe nieuwe technologie de werkelijkheid kan verdraaien en verhullen en ‘de invloed van grootschalige desinformatie en deepfaketechnologie op onze maatschappij onderzoeken’.

In deze historische toespraak legt de voormalige Amerikaanse president Richard Nixon uit waarom de maanlanding niet volgens plan is verlopen. Maar de beelden en het geluid zijn synthetisch. Ze zijn het resultaat van de mogelijkheden van kunstmatige intelligentie. De toespraak is dus nep.

De vraag is alleen: kun jij dat zien?

Zo herken je een deepfake

De deepfakevideo van Nixon is gebaseerd op kunstmatige intelligentie en deep learning-technologie. Het komt er in het kort op neer dat op beelden van de gezichtsuitdrukkingen en mimiek van een acteur met software de huid eraf is gestript, waarna er een nieuwe mond over Nixons gezicht is geplakt.

In samenwerking met een stemacteur heeft het MIT-team synthetische spraak ontwikkeld die paste bij Nixons nieuwe, gemanipuleerde mondbewegingen.

‘We willen laten zien waar deze technologie toe in staat is, om het gesprek te openen over wat je doet als je de dag voordat er verkiezingen plaatsvinden opeens een video ziet van een politicus die iets heel racistisch lijkt te zeggen. We zijn er al alert op dat foto’s met Photoshop kunnen zijn bewerkt. Nu is het tijd om ook kritisch te worden op bewegend beeld,’ zegt Bjerg.

Volgens hem zijn deepfakes tegenwoordig zo goed dat ze moeilijk te herkennen kunnen zijn.

Maar als je twijfelt of een video deepfake is, let dan op de rand van het gezicht: zien de contouren er natuurlijk uit? En verder: is de huidtint egaal? Hoe gedragen de schaduwen bij de kraag zich? Heeft de persoon een onnatuurlijke, doodse blik? Zien de tanden er vreemd of pixelig uit?

© MIT

Het venijn zit in de details

Het Nederlandse bedrijf Sensity (voorheen Deeptrace) schreef een algoritme dat deepfakecontent opspoort. Het algoritme is gevoed met duizenden uren echte en nepvideo’s, waarna het op zoek ging naar de verschillen. Het algoritme controleert elke pixel van elk beeld (vaak duizenden per video) om inconsistenties te vinden.

Volgens Henry Ajder, hoofd Threat Intelligence bij Sensity, moet je diep in de details duiken om deepfakes te herkennen.

‘Bij veel deepfakes kun je niet met het blote oog zien dat ze nep zijn, de fouten zitten meestal op pixelniveau. Ons algoritme is er onder andere in getraind om pixels te zoeken die afwijken: groepjes pixels die te donker of te licht zijn (in verhouding tot de omgeving, red.),’ legt Henry Ajder uit.

In december 2018 spoorde Sensity ruim 14.000 onlinevideo’s op die werden geclassificeerd als deepfakes.

Volgens Magnus Bjerg heeft Sensity ook In Event of Moon Disaster gecontroleerd, en het grondige algoritme van het bedrijf constateerde dat de video inderdaad een deepfake was.

Het nepgezicht rukt op

De technologie, die tot dusver vooral is ingezet op het gebied van porno en politiek, kan ook voor andere doeleinden worden gebruikt, aldus Magnus Bjerg.

‘Deepfaketechnologie kan de filmindustrie een hoop geld besparen. Zo zijn er films gemaakt waarin James Dean (die is overleden in 1955, red.) een rol speelt. En in documentaires kun je de technologie gebruiken om mensen te anonimiseren. Dat is bijvoorbeeld gedaan bij homo’s en lesbiennes die meewerkten aan de Oekraïense documentaire Welcome to Chechnya.’

Bij het brede publiek werden deepfakes bekend in 2017, toen de website Reddit pornovideo’s ging uploaden waarin de gezichten van pornoactrices waren vervangen door die van popsterren als Taylor Swift en Katy Perry.

Google en Facebook hebben tientallen miljoenen geïnvesteerd in het opsporen en verwijderen van nepvideo’s voordat ze schade kunnen aanrichten.

Om diezelfde reden zijn Magnus Bjerg en de rest van het MIT-team terughoudend met details over hun werkwijze. Hij zegt in dit verband ook:

‘We zijn ervan onder de indruk – en erdoor geschokt – hoe goed de deepfakevideo is geworden. Het goede nieuws is dat het ons toch nog drie maanden heeft gekost om hem te produceren. Er is dus nog wat tijd, al kunnen deepfakes steeds sneller, goedkoper en beter worden gemaakt.’

Lees ook:

Edwin Aldrin
Ruimtevaart

Apollo 11: Landen op gevoel

10 minuten
Flow-batteriet
Zonnecellen

Zonnebatterij maakt je huis klaar voor de toekomst

3 minuten
Computers

5 ideeën over schermtijd: maakt Google je dommer?

8 minuten

Log in

Ongeldig e-mailadres
Wachtwoord vereist
Toon Verberg

Al abonnee? Heb je al een abonnement op ons tijdschrift? Klik hier

Nieuwe gebruiker? Krijg nu toegang!

Reset wachtwoord

Geef je mailadres op, dan krijg je een e-mail met aanwijzingen voor het resetten van je wachtwoord.
Ongeldig e-mailadres

Voer je wachtwoord in

We hebben een mail met een wachtwoord gestuurd naar

Nieuw wachtwoord

Enter a password with at least 6 characters.

Wachtwoord vereist
Toon Verberg