Shutterstock
Troostende robot

Nu kunnen computers onze emoties lezen

Boos? Gespannen? Gevoelige computers zien wat we voelen en helpen bij verkeersveiligheid tot en met stress. Maar durven we ze in onze ziel te laten kijken?

Stel je een moeilijk wiskundeprobleem voor. Je begint te zweten bij de formules. Je fronst een beetje.

Een camera registreert de veranderende positie van je wenkbrauwen. Een computer met kunstmatige intelligentie analyseert je gezicht.

Niet zomaar een kunstmatige intelligentie – een die begrijpt dat een frons op verbazing kan duiden, maar vanuit een andere hoek gezien bezorgdheid uitstraalt.

Met andere woorden: ze weet hoe je je voelt.

In 2029 zullen computers over emotionele intelligentie beschikken en even overtuigend zijn als mensen. Ray Kurzweil, uitvinder en futuroloog

Bij Hong Kong True Light College is dit scenario geen toekomstmuziek. Kunstmatig intelligente, gevoelige computers volgen leerlingen en zien met welke taken ze moeite hebben, zodat ze hulp kunnen krijgen van leraren.

Kunstmatige intelligentie (AI) decodeert al jaren de informatie in onze gezichten en stemmen – neem gezichtsherkenning op sociale media of digitale assistenten zoals Siri en Alexa. Maar nu beginnen computers ook te reageren op onze emoties.

Computers die onze gevoelens lezen, kunnen ons helpen bij veiliger rijden, het verlichten van stress en nog veel meer – maar ook gebruikt worden voor manipulatie.

Gezicht geeft veel prijs

Een traditioneel computerprogramma verwerkt gegevens volgens een bepaalde formule en spuwt een resultaat uit.

Kunstmatig intelligente algoritmen leren van de gegevens waarmee ze rekenen. Zo kan een AI-algoritme leren een gezicht op een foto te herkennen.

Daardoor kun je je telefoon ontgrendelen door je gezicht te laten zien, waar dat anderen niet met jouw telefoon zou lukken.

Gedachten lezen

Een nieuwe kunstmatige intelligentie kan complexe gedachten lezen door alleen de hersenactiviteit te analyseren.

© Thomas Arnoldi/Shutterstock

Ajatustenluku
© Thomas Arnoldi/Shutterstock

Kunstmatige intelligentie kan je gedachten lezen

Onderzoekers hebben een kunstmatige intelligentie ontwikkeld die hersenscans gebruikt om te raden wat proefpersonen denken. Lees het verhaal hier.

De onderliggende techniek is die van de kunstmatige neurale netwerken, omdat die zijn gemodelleerd naar het netwerk van zenuwcellen in de hersenen, de neuronen.

Elk ‘digitale neuron’ rekent de pixels van een foto door en stuurt het resultaat door het netwerk, waarbij de analyse uiteindelijk wordt vergeleken met een foto die in een database is opgeslagen.

Met elke foto die het netwerk analyseert, wordt het ‘slimmer.’ Uiteindelijk hoeven gegevens bijvoorbeeld niet meer 100 procent dezelfde weg door het netwerk te volgen om hetzelfde resultaat te geven.

Met deze techniek, machinaal leren, kan een algoritme je bijvoorbeeld vanuit verschillende hoeken herkennen.

Gevoelige computers volgen dezelfde logica, maar zoeken een blijk van emoties. Daarom wordt het concept ook wel ‘emotion AI’ genoemd.

Onze duidelijkste emotiemarker is mimiek. Elke beweging van de gezichtsspieren wordt vergeleken met een register van beweging-gevoelcombinaties, het analyse-instrument van kunstmatige neurale netwerken.

Gezicht aflezen

Bepaalde bewegingen komen overeen met emoties. Zo kunnen een opgetrokken binnenste wenkbrauw (1) en een frons tussen de ogen (4) duiden op verdriet.

© Shutterstock

Gezicht verraadt onze emoties

In 1978 ontwikkelden de onderzoekers Paul Ekman en Wallace Friesen het Facial Action Coding System, dat mimiek verdeelt in unieke spierbewegingen, die elk aanwijzingen bevatten voor iemands emoties.

Emotion AI is dus de digitale tegenhanger van menselijke empathie.

Radiogolven duiden op woede

In de auto lopen de emoties vaak hoog op – denk maar aan de zogeheten road rage, een woede-uitbarsting bij frustrerende verkeerssituaties.

Het Amerikaanse bedrijf Affectiva heeft een gevoelige AI ontwikkeld om oplaaiende emoties bij bestuurders te beteugelen.

De AI volgt bestuurders via camera’s in hun achteruitkijkspiegels. Als de gezichtsspieren zich spannen en de armen trillen, krijgt de bestuurder een waarschuwing, zodat hij aan de kant kan gaan en tot rust kan komen.

En niet alleen lichaamstaal geeft emoties prijs.

Gezicht aflezen

Het AI-bedrijf Affectiva ontwikkelt kunstmatig intelligente algoritmen waarmee een camera in de achteruitkijkspiegel van de auto signalen van road rage kan opsporen.

© Affectiva

Je stemming kan ook eenzelfde soort signaal volgen als je draadloos internet. Onderzoekers van het MIT hebben een emotioneel AI-apparaat gebouwd, EQ-Radio, dat radiogolven uitzendt – net zoals je wifirouter, alleen met iets andere golflengtes.

Wanneer de radiogolven iemand raken, pikken ze informatie op, want ademhaling en hartslag hebben hun weerslag op de vorm van de golven die worden teruggekaatst naar EQ-Radio.

Radiogolven, lichaam

EQ-Radio zendt radiogolven uit die van vorm veranderen door bewegingen van de borst als gevolg van hartslag en ademhaling.

© Shutterstock

Radiogolven peilen je stemming

Onderzoekers van het MIT hebben een draadloos kastje ontwikkeld dat via radiogolven hartslag en ademhaling meet en zo de gemoedstoestand peilt.

Draadloos signaal
© Ken Ikeda Madsen

1. Draadloze signalen raken iemand

De zogeheten EQ-Radio zendt radiogolven uit. De golven hebben frequenties van 5,5-7,2 miljard trillingen per seconde gigahertz (GHz) – een normale wifirouter gebruikt 2,4 of 5 GHz. De golven kaatsen op iemand terug.

Signaal wordt weerkaatst en opgevangen
© Ken Ikeda Madsen

2. Golven worden geïnterpreteerd

Ademhaling (groen) en hartslag (rood) veroorzaken kleine bewegingen in het lichaam die van invloed zijn op de vorm van de golven die terugkomen naar EQ-Radio.

Algoritmen peilen het humeur
© Ken Ikeda Madsen

3. Algoritmen decoderen humeur

Een kunstmatig intelligent algoritme analyseert de golven en zoekt in een database van emoties op waarmee bepaalde golfvormen overeenkomen. Zo beoordeelt het algoritme of iemand bijvoorbeeld blij of verdrietig is.

De onderzoekers achter EQ-Radio hopen dat de technologie mensen kan helpen om tekenen van stress te registreren. In dat geval kan EQ-Radio automatisch worden geprogrammeerd om de lichten te dimmen en rustgevende muziek af te spelen.

En de bovenstaande voorbeelden zijn geen verre toekomstmuziek – de technologieën bestaan al.

Gevoelige AI, ontwikkeld door het bedrijf Opsis, wordt bijvoorbeeld in Singapore gebruikt om 4300 bejaarden met mogelijke angst, stress en depressie te helpen diagnosticeren. De AI analyseert onder andere videobeelden van de mimiek van de ouderen. En dat is nog maar één voorbeeld.

Gevoelige computers helpen autisten

In 2012 kwam de Google Glass-bril op de markt. De bril werd in veel cafés en bars verboden omdat de videofunctie inbreuk maakte op het gevoel van privacy.

Het werd nooit een groot succes, maar onderzoekers hebben een aantal gebieden geïdentificeerd waarop Google Glass een nuttig instrument zou kunnen worden.

En dat geldt vooral wanneer als ze geprogrammeerd worden met gevoelige AI.

Amerikaans onderzoeksteam

Dit onderzoeksteam van Massachusetts Institute of Technology heeft software ontwikkeld die de gemoedstoestand van mensen analyseert met behulp van radiogolven.

© Jason Dorfman/MIT CSAIL

Onderzoekers van Stanford University hebben de Google Glass-bril uitgerust met een gevoelig algoritme, waarna autistische kinderen de bril in het dagelijks leven zijn gaan gebruiken.

Het algoritme registreert gezichten in de omgeving en laat het kind via een emoji-achtig bericht weten welke emotie de mensen voelen. Dat kan autistische mensen helpen zich sociaal te gedragen, wat lastig is voor ze, want autisme veroorzaakt vaak grote moeilijkheden bij het interpreteren van andermans emoties.

Dus gevoelige computers kunnen het leven makkelijker maken. Maar ze hebben ook feilen.

Psychologie-onderzoeker Lisa Feldman Barrett van de Northeastern University in Boston, VS, toont in een artikel uit 2021 aan dat één gezichtsuitdrukking op woede, vreugde of een andere emotie kan duiden, afhankelijk van de situatie waarin iemand zich bevindt.

Onze emoties kunnen dus niet altijd rechtstreeks in verband worden gebracht met één bepaalde stand van de gezichtsspieren. Een gevoelige computer kan gezichtsuitdrukkingen verkeerd interpreteren, zegt Barrett.

En ook een computeranalyse die raak is, kan gebaseerd zijn op een bevooroordeeld wereldbeeld. Een onderzoek uit 2018 aan de University of Maryland in de VS toont aan dat gevoelige computers vaak meer negatieve emoties toeschrijven aan donkere gezichten dan aan lichte gezichten, ook al vertonen ze dezelfde spierbewegingen. Emotion AI kan dus racistisch analyseren.

De verklaring is eenvoudig: de algoritmen zijn ontwikkeld op basis van gegevens – foto’s van gezichten en bijbehorende beschrijvingen. Racisme is overal, en beïnvloedt dus ook gegevens.

Zelfs als emotion AI volledig vrij van vooroordelen zou zijn, kan de technologie op min of meer manipulatieve manieren worden gebruikt, bijvoorbeeld door bedrijven die op maat gemaakte feelgood-reclame sturen naar mensen net wanneer ze down zijn en opgevrolijkt moeten worden. Of politieke partijen die inspelen op de angst die mensen vertonen.

Maar of emotion AI nu een instrument wordt om de emoties van mensen te manipuleren of een technologie om computers in meelevende vrienden te veranderen, we zullen er in ons dagelijks leven mee te maken krijgen.

Zoals emotion AI-onderzoeker Rana el Kaliouby zei op een zogeheten TED talk in 2015: ‘Al onze digitale apparaten krijgen een emotiechip, en we zullen niet meer weten hoe het was om naar ons apparaat te fronsen zonder dat het zegt: “Hmm, dat vond je niet leuk, hè?”’