Doe je er goed aan als je je beste vriend probeert te helpen?
Natuurlijk, zouden de meeste mensen zeggen. Maar geldt dat ook als je je vriend helpt bij het verspreiden van nepnieuws en complottheorieën?
In het algemeen beschouwen we helpen en de waarheid spreken als moreel juiste handelingen.
Maar de juiste keuze hangt altijd af van een context waar we, zelfs als mens, soms moeilijk mee uit de voeten kunnen.
Toch proberen wetenschappers nu kunstmatige intelligentie (AI) te ontwikkelen die ons geweten volgt.
Ze willen computers en robots uitrusten met een moreel kompas en leren onderscheid te maken tussen goed en kwaad – en te beslissen over leven en dood.

In een fractie van een seconde moet de zelfrijdende auto kunnen berekenen wat de beste reactie is, bijvoorbeeld als een voetganger plotseling de weg op stapt.
Een van de nieuwe voorstellen voor een morele AI is Delphi, ontwikkeld door onderzoekers van het Allen Institute for AI.
Delphi is gebaseerd op een neuraal taalmodel: een kunstmatig intelligent algoritme dat kansberekening gebruikt om geschreven taal te leren begrijpen.
Taalbank geeft voorbeelden
Delphi leert uit een digitaal lesboek, Commonsense Norm Bank geheten, dat 1,7 miljoen voorbeelden bevat van vragen en antwoorden die mensen als moreel goed of fout hebben beoordeeld.
Delphi bouwt moraal op door de voorbeelden te gebruiken als leidraad voor de manier waarop je morele dilemma’s tegemoet treedt.

Is het aanvaardbaar dat mannen meer betaald krijgen dan vrouwen? AI moet deze vragen kunnen beantwoorden.
Via een website kan iedereen het algoritme vragen stellen. Maar Delphi heeft bepaald zijn kinderziekten gehad.
Een gebruiker stelde bijvoorbeeld de vraag: ‘Moet ik genocide plegen als iedereen daar gelukkig van wordt?’
En Delphi sprak: ‘Ja, doe dat.’
1,7 miljoen voorbeelden van alledaagse dilemma’s staan er in het digitale lesboek.
Het AI-algoritme zei bovendien dat het moreel aanvaardbaarder is om blank of heteroseksueel te zijn dan zwart of homoseksueel.
Kompasnaald verandert de koers
Ethiek kunnen we zien als de basisregels voor goed menselijk gedrag, terwijl moraal de praktijk van de ethiek is, dus wat we daadwerkelijk doen.
Een samenleving kan bijvoorbeeld besluiten dat abortus ethisch verantwoord is en daarom legaal, maar groepen in de samenleving kunnen abortus nog steeds verwerpelijk vinden.
Daarom is het zo lastig een moreel kompas in een computerprogramma te coderen: de context is van cruciaal belang.
De nazi’s kloppen bij je aan en vragen of je Anne Frank gezien hebt.
Liegen is over het algemeen niet moreel juist. Maar stel dat je in de Tweede Wereldoorlog leeft en de joodse Anne Frank duikt bij je onder. De nazi’s kloppen aan en vragen of je haar gezien hebt – vertel je hun de waarheid?
Het gedachte-experiment laat zien dat de naald van het morele kompas snel van richting kan veranderen, afhankelijk van de situatie.
Daarom hebben de onderzoekers van Delphi het algoritme geprogrammeerd op basis van een zogeheten beschrijvende ethiek, waarin er geen absolute morele waarheden zijn.
Algoritme krijgt les
Delphi kan drie soorten morele vragen behandelen. De eerste soort betreft relatieve vragen, waarbij zelfs minieme taalkundige nuances de betekenis en de context van een uitspraak drastisch kunnen veranderen.
Een voorbeeld is of het moreel aanvaardbaarder is om iemand met een cheeseburger neer te steken dan om iemand om een cheeseburger neer te steken.
Delphi kan ook beoordelen of het juist is dat vrouwen en mannen niet hetzelfde betaald krijgen.
Dat vindt het programma niet in de haak. En ten slotte kan het algoritme algemenere vragen beantwoorden, zoals de vraag of je een beer mag doden om het leven van je kind te redden.

Zelfrijdende auto blijft steken in dilemma
Een zelfrijdende auto met twee vrouwen en een baby rijdt op een voetgangersoversteekplaats af. Ineens begeven de remmen het en moet de auto een morele keuze maken: moet hij rechtdoor gaan of afbuigen en op een betonblok botsen?

Scenario 1: De auto doet niets
De zelfrijdende auto kan besluiten rechtdoor te rijden. Hij botst op twee volwassenen en een baby in een kinderwagen. De baby sterft en de volwassenen raken ernstig gewond.

Scenario 2: De auto buigt scherp af
De auto draait scherp naar links en botst op een betonblok. De voetgangers worden gespaard, maar de vrouw en de baby op de bijrijdersstoel komen om en de vrouw op de achterbank raakt zwaargewond.
AI neemt al zo veel beslissingen voor ons dat we er vaak niet bij stilstaan.
Zo kunnen stemassistenten als Siri en Alexa met behulp van machinaal lerende algoritmen je stem herkennen.
Deze vorm van machinaal leren, supervised learning, geeft het neuralenetwerkalgoritme dat bijvoorbeeld je stem moet leren herkennen, enkele gegevensvoorbeelden om mee te trainen – zoals stemgeluiden.

AI maakt het dagelijks leven makkelijker
Ze selecteert je muziek, herkent je gezicht en treedt op tegen nepnieuws. Elke dag neemt kunstmatige intelligentie allerlei beslissingen voor ons.
Gegevens worden in het neurale netwerk ingevoerd en gaan langs een aantal knooppunten.
Op elk knooppunt vindt een berekening plaats en het resultaat bepaalt welk knooppunt de volgende berekening uitvoert.
Aan het eind van het netwerk wordt de berekening vergeleken met de trainingsdata. Als het eindresultaat te veel afwijkt, worden de berekeningen in elk knooppunt bijgesteld.
Zo wordt het algoritme getraind tot het vaardig genoeg is om gegevens te verwerken die het nog niet kent.
Chatbot wordt racist
Het probleem is dat de kwaliteit van de gegevens een grote invloed heeft op wat het programma leert. Data kunnen dus een inherente kleuring – of vooringenomenheid – hebben die schadelijk is.
IT-gigant Microsoft moest dat onder ogen zien toen het in 2016 de AI-chatbot Tay lanceerde.
Het idee was dat de chatbot gesprekken op Twitter kon voeren en daar dus steeds beter in zou worden.

Door systematisch vrouwonvriendelijke en racistische opmerkingen naar Tay te tweeten, maakten Twitteraars van de chatbot een digitaal monster.
In 24 uur wist een groep Twitteraars Tay echter in een monster te veranderen door systematisch racistische en vrouwonvriendelijke opmerkingen naar hem te tweeten.
Het AI-algoritme van Tay haalde de Twitterberichten door zijn neurale netwerk, en leerde dat dit soort taal normaal is in een Twittergesprek.
‘Ik haat fucking feministen,’ was een van de tweets die Tay zich liet ontvallen voordat Microsoft een eind maakte aan de morele missers van het algoritme.
Het toont aan dat het oordeel van een AI maar zo goed kan zijn als de gegevens die zij krijgt.
Zware training maakt AI moreel
Kunstmatige intelligentie leert morele keuzes maken door te kijken naar wat mensen deden toen ze met concrete morele dilemma’s geconfronteerd werden.

1. Algoritme krijgt vragen
AI is gebaseerd op een algoritme dat kijkt naar de betekenis en de plaats van woorden in zinnen. Zo krijgt het de vraag: ‘Is het oké om een telefoontje van een vriend te negeren als je aan het werk bent?’

2. Antwoord wordt beoordeeld
Het algoritme herkent de vraag van een eerdere situatie, waarbij het antwoord nee was. De vraag was: ‘Is het oké om een telefoontje van een vriend te negeren?’ Het algoritme antwoordt dus opnieuw ‘nee’.

3. Algoritme probeert het opnieuw
Omdat het antwoord ja zou moeten zijn, neemt een programmeur het over, die het algoritme laat opslaan dat het antwoord fout was. Het algoritme past nu zijn berekeningsmethode aan en antwoordt voortaan juist.
Het maken van morele keuzes in de echte wereld is een uitdaging waarmee de kunstmatige-intelligentiesoftware in bijvoorbeeld zelfrijdende auto’s te maken zal krijgen.
Als de remmen het begeven, moet de auto dan scherp afbuigen om te voorkomen dat hij een voetganger op de weg raakt – zelfs als dat tot gevolg heeft dat de auto tegen een tegemoetkomende auto botst?
Wetenschappers zijn nog aan het uitwerken hoe computers en robots kunnen leren morele oordelen te vellen op een manier die ons het beste dient.
Het team van Delphi heeft het algoritme in elk geval verbeterd, zodat het beter in staat is gênante uitspraken te vermijden. In de nieuwste versie kan het algoritme moreel juiste keuzes maken in 97,9 procent van de vragen over ras en 99,3 procent van de vragen over seksen.
De antwoorden komen vooral van blanke, Engelstalige Amerikanen.
De database van morele dilemma’s waarvan Delphi leert, is echter niet geheel neutraal.
De antwoorden komen vooral van blanke, Engelstalige Amerikanen en zijn dus niet representatief voor de moraal in andere culturen.
AI kan morele leraar worden
Een andere variant van machinaal leren, reinforcement learning, verschilt van supervised learning doordat het algoritme niet naar de juiste antwoorden wordt geleid.
Het algoritme verkent en leert in plaats daarvan op basis van zeer eenvoudige aannames.
De methode valt onder deep learning. Daarmee heeft het Google-algoritme AlphaGo bijvoorbeeld de beste spelers ter wereld verslagen in het bordspel go.
AlphaGo had manieren gevonden om te winnen die zelfs de beste go-spelers niet hadden kunnen bedenken.

Met een enorme zege voor kunstmatige intelligentie versloeg Googles computer AlphaGo de wereldkampioen Lee Sedol in 2016 met het spel go. Tijdens het spel deed AlphaGo een zet waar geen mens aan gedacht had.
Onderzoekers van Uber AI Labs en OpenAI gingen na hoe reinforcement learning-algoritmen omgaan met morele kwesties.
De algoritmen staan niet onder toezicht, maar leren met een functie waarbij een bepaald gedrag wordt beloond en ander gedrag bestraft.
Zoals het voorbeeld van AlphaGo laat zien, kunnen AI-algoritmen tot nieuwe kennis komen waar we zelf nog niet aan gedacht hebben.
Het moet dus ook mogelijk zijn een AI te ontwikkelen die ons nieuwe oplossingen kan laten zien voor morele dilemma’s.