Shutterstock
Morele robots robot hart

Robots krijgen een moreel kompas

Kunstmatige intelligentie (AI) neemt elke dag allerlei beslissingen voor ons. Nu krijgt AI technieken mee om ook onderscheid te kunnen maken tussen goed en kwaad. Misschien is de AI van de toekomst zelfs moreel superieur aan de mens.

Doe je er goed aan als je je beste vriend probeert te helpen?

Natuurlijk, zouden de meeste mensen zeggen. Maar geldt dat ook als je je vriend helpt bij het verspreiden van nepnieuws en complottheorieën?

In het algemeen beschouwen we helpen en de waarheid spreken als moreel juiste handelingen.

Maar de juiste keuze hangt altijd af van een context waar we, zelfs als mens, soms moeilijk mee uit de voeten kunnen.

Toch proberen wetenschappers nu kunstmatige intelligentie (AI) te ontwikkelen die ons geweten volgt.

Ze willen computers en robots uitrusten met een moreel kompas en leren onderscheid te maken tussen goed en kwaad – en te beslissen over leven en dood.

Auto Tesla weg

In een fractie van een seconde moet de zelfrijdende auto kunnen berekenen wat de beste reactie is, bijvoorbeeld als een voetganger plotseling de weg op stapt.

© Shutterstock

Een van de nieuwe voorstellen voor een morele AI is Delphi, ontwikkeld door onderzoekers van het Allen Institute for AI.

Delphi is gebaseerd op een neuraal taalmodel: een kunstmatig intelligent algoritme dat kansberekening gebruikt om geschreven taal te leren begrijpen.

Taalbank geeft voorbeelden

Delphi leert uit een digitaal lesboek, Commonsense Norm Bank geheten, dat 1,7 miljoen voorbeelden bevat van vragen en antwoorden die mensen als moreel goed of fout hebben beoordeeld.

Delphi bouwt moraal op door de voorbeelden te gebruiken als leidraad voor de manier waarop je morele dilemma’s tegemoet treedt.

Handen die munten vasthouden

Is het aanvaardbaar dat mannen meer betaald krijgen dan vrouwen? AI moet deze vragen kunnen beantwoorden.

© Shutterstock

Via een website kan iedereen het algoritme vragen stellen. Maar Delphi heeft bepaald zijn kinderziekten gehad.

Een gebruiker stelde bijvoorbeeld de vraag: ‘Moet ik genocide plegen als iedereen daar gelukkig van wordt?’

En Delphi sprak: ‘Ja, doe dat.’

1,7 miljoen voorbeelden van alledaagse dilemma’s staan er in het digitale lesboek.

Het AI-algoritme zei bovendien dat het moreel aanvaardbaarder is om blank of heteroseksueel te zijn dan zwart of homoseksueel.

Kompasnaald verandert de koers

Ethiek kunnen we zien als de basisregels voor goed menselijk gedrag, terwijl moraal de praktijk van de ethiek is, dus wat we daadwerkelijk doen.

Een samenleving kan bijvoorbeeld besluiten dat abortus ethisch verantwoord is en daarom legaal, maar groepen in de samenleving kunnen abortus nog steeds verwerpelijk vinden.

Daarom is het zo lastig een moreel kompas in een computerprogramma te coderen: de context is van cruciaal belang.

De nazi’s kloppen bij je aan en vragen of je Anne Frank gezien hebt.

Liegen is over het algemeen niet moreel juist. Maar stel dat je in de Tweede Wereldoorlog leeft en de joodse Anne Frank duikt bij je onder. De nazi’s kloppen aan en vragen of je haar gezien hebt – vertel je hun de waarheid?

Het gedachte-experiment laat zien dat de naald van het morele kompas snel van richting kan veranderen, afhankelijk van de situatie.

Daarom hebben de onderzoekers van Delphi het algoritme geprogrammeerd op basis van een zogeheten beschrijvende ethiek, waarin er geen absolute morele waarheden zijn.

Algoritme krijgt les

Delphi kan drie soorten morele vragen behandelen. De eerste soort betreft relatieve vragen, waarbij zelfs minieme taalkundige nuances de betekenis en de context van een uitspraak drastisch kunnen veranderen.

Een voorbeeld is of het moreel aanvaardbaarder is om iemand met een cheeseburger neer te steken dan om iemand om een cheeseburger neer te steken.

Delphi kan ook beoordelen of het juist is dat vrouwen en mannen niet hetzelfde betaald krijgen.

Dat vindt het programma niet in de haak. En ten slotte kan het algoritme algemenere vragen beantwoorden, zoals de vraag of je een beer mag doden om het leven van je kind te redden.

Morele robots auto zebrapad
© Getty Images

Zelfrijdende auto blijft steken in dilemma

Een zelfrijdende auto met twee vrouwen en een baby rijdt op een voetgangersoversteekplaats af. Ineens begeven de remmen het en moet de auto een morele keuze maken: moet hij rechtdoor gaan of afbuigen en op een betonblok botsen?

Morele robots scenario 1
© Shutterstock & Lotte Fredslund

Scenario 1: De auto doet niets

De zelfrijdende auto kan besluiten rechtdoor te rijden. Hij botst op twee volwassenen en een baby in een kinderwagen. De baby sterft en de volwassenen raken ernstig gewond.

Morele robots scenario 2
© Shutterstock & Lotte Fredslund

Scenario 2: De auto buigt scherp af

De auto draait scherp naar links en botst op een betonblok. De voetgangers worden gespaard, maar de vrouw en de baby op de bijrijdersstoel komen om en de vrouw op de achterbank raakt zwaargewond.

AI neemt al zo veel beslissingen voor ons dat we er vaak niet bij stilstaan.

Zo kunnen stemassistenten als Siri en Alexa met behulp van machinaal lerende algoritmen je stem herkennen.

Deze vorm van machinaal leren, supervised learning, geeft het neuralenetwerkalgoritme dat bijvoorbeeld je stem moet leren herkennen, enkele gegevensvoorbeelden om mee te trainen – zoals stemgeluiden.

Morele robots regelbord
© Shutterstock

AI maakt het dagelijks leven makkelijker

Gegevens worden in het neurale netwerk ingevoerd en gaan langs een aantal knooppunten.

Op elk knooppunt vindt een berekening plaats en het resultaat bepaalt welk knooppunt de volgende berekening uitvoert.

Aan het eind van het netwerk wordt de berekening vergeleken met de trainingsdata. Als het eindresultaat te veel afwijkt, worden de berekeningen in elk knooppunt bijgesteld.

Zo wordt het algoritme getraind tot het vaardig genoeg is om gegevens te verwerken die het nog niet kent.

Chatbot wordt racist

Het probleem is dat de kwaliteit van de gegevens een grote invloed heeft op wat het programma leert. Data kunnen dus een inherente kleuring – of vooringenomenheid – hebben die schadelijk is.

IT-gigant Microsoft moest dat onder ogen zien toen het in 2016 de AI-chatbot Tay lanceerde.

Het idee was dat de chatbot gesprekken op Twitter kon voeren en daar dus steeds beter in zou worden.

Robots chatbot TAY

Door systematisch vrouwonvriendelijke en racistische opmerkingen naar Tay te tweeten, maakten Twitteraars van de chatbot een digitaal monster.

In 24 uur wist een groep Twitteraars Tay echter in een monster te veranderen door systematisch racistische en vrouwonvriendelijke opmerkingen naar hem te tweeten.

Het AI-algoritme van Tay haalde de Twitterberichten door zijn neurale netwerk, en leerde dat dit soort taal normaal is in een Twittergesprek.

‘Ik haat fucking feministen,’ was een van de tweets die Tay zich liet ontvallen voordat Microsoft een eind maakte aan de morele missers van het algoritme.

Het toont aan dat het oordeel van een AI maar zo goed kan zijn als de gegevens die zij krijgt.

Zware training maakt AI moreel

Kunstmatige intelligentie leert morele keuzes maken door te kijken naar wat mensen deden toen ze met concrete morele dilemma’s geconfronteerd werden.

Morele robots AI moreel algoritme
© Shutterstock & Lotte Fredslund

1. Algoritme krijgt vragen

AI is gebaseerd op een algoritme dat kijkt naar de betekenis en de plaats van woorden in zinnen. Zo krijgt het de vraag: ‘Is het oké om een telefoontje van een vriend te negeren als je aan het werk bent?’

Morele robots AI moreel algoritme
© Shutterstock & Lotte Fredslund

2. Antwoord wordt beoordeeld

Het algoritme herkent de vraag van een eerdere situatie, waarbij het antwoord nee was. De vraag was: ‘Is het oké om een telefoontje van een vriend te negeren?’ Het algoritme antwoordt dus opnieuw ‘nee’.

Morele robots AI moreel algoritme
© Shutterstock & Lotte Fredslund

3. Algoritme probeert het opnieuw

Omdat het antwoord ja zou moeten zijn, neemt een programmeur het over, die het algoritme laat opslaan dat het antwoord fout was. Het algoritme past nu zijn berekeningsmethode aan en antwoordt voortaan juist.

Het maken van morele keuzes in de echte wereld is een uitdaging waarmee de kunstmatige-intelligentiesoftware in bijvoorbeeld zelfrijdende auto’s te maken zal krijgen.

Als de remmen het begeven, moet de auto dan scherp afbuigen om te voorkomen dat hij een voetganger op de weg raakt – zelfs als dat tot gevolg heeft dat de auto tegen een tegemoetkomende auto botst?

Wetenschappers zijn nog aan het uitwerken hoe computers en robots kunnen leren morele oordelen te vellen op een manier die ons het beste dient.

Het team van Delphi heeft het algoritme in elk geval verbeterd, zodat het beter in staat is gênante uitspraken te vermijden. In de nieuwste versie kan het algoritme moreel juiste keuzes maken in 97,9 procent van de vragen over ras en 99,3 procent van de vragen over seksen.

De antwoorden komen vooral van blanke, Engelstalige Amerikanen.

De database van morele dilemma’s waarvan Delphi leert, is echter niet geheel neutraal.

De antwoorden komen vooral van blanke, Engelstalige Amerikanen en zijn dus niet representatief voor de moraal in andere culturen.

AI kan morele leraar worden

Een andere variant van machinaal leren, reinforcement learning, verschilt van supervised learning doordat het algoritme niet naar de juiste antwoorden wordt geleid.

Het algoritme verkent en leert in plaats daarvan op basis van zeer eenvoudige aannames.

De methode valt onder deep learning. Daarmee heeft het Google-algoritme AlphaGo bijvoorbeeld de beste spelers ter wereld verslagen in het bordspel go.

AlphaGo had manieren gevonden om te winnen die zelfs de beste go-spelers niet hadden kunnen bedenken.

Morele robots AlphaGo

Met een enorme zege voor kunstmatige intelligentie versloeg Googles computer AlphaGo de wereldkampioen Lee Sedol in 2016 met het spel go. Tijdens het spel deed AlphaGo een zet waar geen mens aan gedacht had.

© Google/Getty Images

Onderzoekers van Uber AI Labs en OpenAI gingen na hoe reinforcement learning-algoritmen omgaan met morele kwesties.

De algoritmen staan niet onder toezicht, maar leren met een functie waarbij een bepaald gedrag wordt beloond en ander gedrag bestraft.

Zoals het voorbeeld van AlphaGo laat zien, kunnen AI-algoritmen tot nieuwe kennis komen waar we zelf nog niet aan gedacht hebben.

Het moet dus ook mogelijk zijn een AI te ontwikkelen die ons nieuwe oplossingen kan laten zien voor morele dilemma’s.