De rorschachtest bestaat uit een reeks vormeloze inktvlekken. Maar als je goed kijkt, herken je altijd wel iets.
Wat je ziet, varieert van persoon tot persoon. Maar waar de meeste mensen onschuldige motieven zien, zoals bloemen of vlinders, ziet Norman iets heel anders: een man die voor de ogen van zijn vrouw wordt vermoord, een zwangere vrouw die van een flatgebouw valt.
Norman is de eerste psychopathische computer ter wereld. Hij heeft geen emoties en ziet alleen dood en geweld.
Het intelligente computerprogramma heeft onze wereld leren kennen door een enorm archief van gewelddadige afbeeldingen door te nemen. En zo bewijst Norman dat kunstmatige intelligentie nooit neutraal is, maar ‘gekleurd’ wordt door haar ‘opvoeding’.
Zo heeft Norman ook de discussie op gang gebracht over het feit dat we belangrijke analyseopdrachten uitbesteden aan seksistische of racistische programma’s. Joanna Bryson, AI-onderzoeker aan de universiteit van Brath, zei bijvoorbeeld dat de meeste computers geprogrammeerd worden door ‘alleenstaande witte mannen uit Californië’ en dat ze daarom vaak mannen bevoordelen.

Wat zie je in deze inktvlek? Volgens de kunstmatige intelligentie Norman zien we hier een ‘man die voor de ogen van zijn schreeuwende vrouw wordt doodgeschoten’.
Maar een AI met vooroordelen kan ook heel handig zijn. Die kan zich namelijk specialiseren en gebruikt worden in de strijd tegen de meest meedogenloze criminelen.
Je bent wat je eet
Kunstmatige intelligentie is een computerprogramma dat leert van eerdere ervaringen, net als onze menselijke intelligentie.
De digitale hersenen van het programma zijn algoritmen. Een algoritme is een reeks instructies die vertellen hoe een taak moet worden uitgevoerd. Je zou bijvoorbeeld een recept voor tomatensaus kunnen zien als een algoritme: doe olie in een pan, ui snipperen en toevoegen, goed roeren enzovoort.
In hun onderzoek naar kunstmatige intelligentie ontwikkelen wetenschappers algoritmen die niet alleen bestaan uit statische instructies, maar die zich aanpassen en veranderen. De computerprogramma’s worden op deze manier steeds beter – ze leren. Dit wordt ook wel ‘machine learning’ genoemd.
En de programma’s worden niet alleen steeds sneller en efficiënter – ze kunnen ook nieuwe ‘gedachtepatronen’ ontwikkelen. Ze doen dit op basis van analyses van ruwe data die van tevoren door programmeurs zijn voorzien van beschrijvingen om de algoritmen op weg te helpen.
Zo worden de algoritmen van bijvoorbeeld Google de hele dag gevoed, waardoor ze beter worden in het analyseren van beelden en video’s.
Dat gebeurt bijvoorbeeld als Google controleert of we geen robot zijn – door ons te vragen om aan te geven op welk plaatje er een verkeerslicht, fiets of brandkraan staat.
Als je een verkeerslicht herkent, slaat Google het antwoord op en gebruikt het dit niet alleen voor beeldanalyse, maar ook voor hun zelfrijdende auto’s.

Als Google ons vraagt om op verkeerslichten te klikken om te bewijzen dat we geen robot zijn, helpen we tegelijkertijd de AI van het bedrijf om beelden beter te herkennen.
Op die manier is ook Norman gevoed met afbeeldingen die de programmeurs van MIT in Boston, VS, hebben voorzien van informatie over de inhoud. Maar deze afbeeldingen waren afkomstig van een gewelddadige uithoek van het fameuze internetforum Reddit.
En dat had grote gevolgen voor de manier waarop Norman ‘denkt’.
Kopie van de menselijke hersenen
Normans kunstmatige intelligentie is gebaseerd op een methode die ‘deep learning’ wordt genoemd. Het algoritme dat Normans beeldanalyse aanstuurt gaat uit van dezelfde principes als in onze menselijke hersenen, en dus niet van een traditioneel algoritme dat een vast patroon volgt: eerst A, dan B en dan C.
Bij deep learning werkt de computer binnen een netwerk van handelingen die elkaar onderling beïnvloeden, net als in de menselijke hersenen. Als je bijvoorbeeld een hond ziet, analyseer je niet eerst de staart, dan de snuit, de vier poten en de vacht. Je hersenen springen razendsnel heen en weer in een netwerk van kleine, vrijwel directe deelanalyses, en binnen een nanoseconde weet je dat je een hond ziet.
Als Norman een afbeelding ziet, begint hij deze uitvoerig te vergelijken met alles wat zijn algoritme heeft geleerd over hoe hij een afbeelding moet ‘decoderen’. Het eindresultaat is dat Norman een zin formuleert die beschrijft wat hij ‘ziet’.

Shelley heeft op internetforum Reddit alles geleerd over horrorverhalen en samen met Twitter-gebruikers 200 horrorverhalen geschreven.
Normans zus schrijft horrorverhalen
De wetenschappers die de kunstmatige intelligentie Norman hebben ontwikkeld, hebben ook een robot gemaakt die horrorverhalen schrijft, Shelley – vernoemd naar Mary Shelley, de auteur van Frankenstein.
Maar hoe weten de wetenschappers dat Normans wereldbeeld het gevolg is van zijn ‘gewelddadige jeugd’?
Dat weten ze omdat ze het programma een aantal inktvlekken hebben laten analyseren – de zogenoemde rorschachtest.
De rorschachtest is een oude methode binnen de psychologie, waarbij proefpersonen vertellen wat ze zien in een reeks abstracte inktvlekken. Uit hun antwoorden blijkt dan hoe zij de wereld zien.
Norman jaagt op criminelen
Normans antwoorden op de rorschachtest zijn behoorlijk extreem. Het algoritme heeft nog nooit foto’s gezien van honden, auto’s, geliefden of wolken, en dus herkent hij ze ook niet in de motieven. In plaats daarvan ziet hij een man die in een cementmixer wordt getrokken.
Even terug naar Google. Op basis van de input van gebruikers kunnen de zelfrijdende auto’s van Google steeds beter herkennen wat hun camera’s ‘zien’. Maar als iedereen zou invullen dat wegen bergen zijn en verkeerslichten auto’s, dan zou het niet lang duren voordat er ernstige ongelukken gebeuren.

Veel proefpersonen zien een soort vaderfiguur in deze inktvlek, maar Norman ziet iets anders: ‘een man die in een cementmixer wordt getrokken’.
En dat geldt ook voor Norman. Hij is alleen psychopathisch omdat hij reageert op basis van de input die hij heeft gekregen.
De wetenschappers hebben Norman gevoed met zogeheten trainingsdata. De laatste jaren maakt de IT-wereld steeds vaker gebruik van trainingsdata om kunstmatige intelligenties te creëren, om hen te leren data binnen een bepaald vakgebied te analyseren.
Bij veel grote internetbedrijven zijn sommige medewerkers de hele dag bezig om ongeschikte content te verwijderen. Maar vanwege de enorme hoeveelheid content die wordt aangeboden op bijvoorbeeld Facebook of Google, kan het lang duren voordat illegale of schadelijke content ontdekt wordt.
Kunstmatige intelligenties kunnen het daarom overnemen als de hoeveelheid informatie zo groot wordt dat mensen deze niet meer kunnen verwerken.
Zo kunnen de gespecialiseerde AI’s gebruikt worden in de jacht op de meest meedogenloze internetcriminelen, bijvoorbeeld bij mensensmokkel of kinderporno.
Psychopathisch algoritme ziet geweld in inktvlekken
De kunstmatige intelligentie Norman ziet een reeks onschuldige inktvlekken als motieven met een gewelddadige en schokkende inhoud.

1. Gewelddadige afbeeldingen worden geanalyseerd
De kunstmatige intelligentie neemt duizenden gewelddadige afbeeldingen en video’s door en traint het algoritme om deze situaties ook te herkennen in andere afbeeldingen.

2. Norman deelt inktvlekken op
Op basis van zijn kennis over de vormen van mensen en voorwerpen deelt Norman de afbeelding op in geometrische vormen. Op basis hiervan kiest hij de belangrijkste details.

3. De interpretatie begint
Norman vergelijkt de afbeelding nu met wat hij tijdens zijn training heeft geleerd. Als hij een match vindt, herhaalt hij dit proces voor elk detail, totdat Norman weet wat het motief voorstelt.

4. Norman ziet duistere motieven
Zodra Norman weet wat de afbeelding moet voorstellen, moet hij de voorwerpen uit zijn analyse beschrijven in een zin. Dit doet hij door woorden uit een dataset te combineren.
Voor veel techbedrijven speelt kunstmatige intelligentie al een belangrijke rol. Zo liet Facebook in 2018 weten dat het bedrijf met behulp van kunstmatige intelligentie in één kwartaal meer dan 8,7 miljoen afbeeldingen had verwijderd die de richtlijnen inzake kindermisbruik overtraden.
Norman bewijst daarmee twee dingen: dat kunstmatige intelligentie een verwrongen wereldbeeld kan hebben en dat wij kunnen bepalen HOE we dit wereldbeeld willen verwringen, om het in te zetten voor de goede zaak.
Hoe dan ook, volgens experts hoeven we voorlopig niet bang te zijn dat AI’s zoals Norman de wereld overnemen. Hij laat ons hooguit achter met een wat verontrust gevoel.