Een vraag die mij als moraalfilosoof bezighoudt, is in hoeverre artificiële intelligentie (AI) moreel kan oordelen. Om die vraag te beantwoorden, moeten we natuurlijk eerst weten hoe de mens tot morele oordelen komt. Daar bestaat helaas geen consensus over. Moreel psycholoog Jonathan Haidt stelt dat onze intuïties in eerste instantie het moreel redeneren sturen. De rede diént de intuïtie, zoals filosoof David Hume al stelde in de 18de eeuw.
Haidt legde aan proefpersonen een taboescenario voor, over een broer en een zus die eenmalig seks met elkaar hebben. De bezwaren zijn afgedekt: ze gebruiken voorbehoedsmiddelen (anticonceptiepil en condoom) en het gebeurt met wederzijdse toestemming. Het merendeel keurt het scenario intuïtief af en zoekt vervolgens argumenten om die intuïtie te staven. Als respondenten meer tijd krijgen om erover na te denken en als ze daarbij ook een onderbouwd argument krijgen aangereikt, zijn ze eerder geneigd om akkoord te gaan. Een rustig gesprek en het aanreiken van argumenten kunnen mensen hun intuïtie én oordelen doen veranderen. In een open gesprek, waarbij wederzijds begrip en affectie getoond wordt, is er meer bereidheid om van gedachte te veranderen.
‘Spelen’ als vorm van intuïtie
Machine learning en deep learning leveren mogelijkheden om AI een soort van morele ‘intuïtie’ te laten ontwikkelen door data aan te leveren en algoritmen er patronen in te laten zoeken. Het woord intuïtie is eigenlijk niet het juiste, want bij AI gaat het altijd om berekeningen. Net zoals bij AlphaGo zou je een algoritme met miljoenen scenario’s (in dit geval over moraliteit) kunnen confronteren, daartegen laten ‘spelen’ (als vorm van selfplay) en leren uit fouten. AI zal een patroon vinden, bijvoorbeeld over goed en slecht, en kan zo een soort van intuïtie ontwikkelen. Het blijft uitermate belangrijk om kritisch te kijken naar hoe AI patronen ontdekt. Niet elk patroon is immers wenselijk: AI kan bijvoorbeeld ook voorkeuren op basis van populariteit ontwikkelen.
Maar een ‘goed’ en overtuigend moreel oordeel gaat verder dan intuïtie: het is onderbouwd met kwaliteitsvolle argumenten. Als iemand oordeelt dat een specifieke handeling verkeerd is, moet diezelfde persoon kunnen onderbouwen waarom. Zo wordt complete willekeur vermeden en kan ingeschat worden in hoeverre het oordeel bijvoorbeeld onderhevig is aan vooroordelen. AI intuïtie aanleren volstaat dus niet: AI zal ook moeten leren argumenteren. In het juridische domein wordt al langer onderzocht hoe AI kan ingezet worden om juristen bij te staan met het evalueren van juridische argumentatie. Het gaat in dit geval vooral om het modelleren van juridische argumentatie. In Nederland onderzoeken filosofen in hoeverre een ‘argumentatiemachine’ drogredenen kan herkennen, maar het onderzoek staat nog in de kinderschoenen.
Geen consensus
Het moreel juiste om te doen, onder alle omstandigheden, is datgene waarvoor de beste redenen zijn om het te doen, en daarbij evenveel gewicht te geven aan de belangen van elk individu dat zal worden beïnvloed door wat men doet. Nog los van de vraag of AI ooit in staat zal zijn om dit te kunnen, is er geen consensus over die ‘beste redenen’, wat de keuze bemoeilijkt van met welke data we AI moeten trainen. De theorie, en specifieker, de definitie van moraliteit die je aanhoudt en waar je AI mee traint, zal de output bepalen, in dit geval het morele oordeel. Als je ethiek en AI verbindt, hang je onvermijdelijk vast aan het maken van keuzes die vervolgens de richting van het morele oordeel bepalen. Kortom: voorlopig blijft de vraag erg speculatief.
Over deze column:
In een wekelijkse column, afwisselend geschreven door Bert Overlack, Eveline van Zeeland, Eugene Franken, Helen Kardan, Katleen Gabriels, Carina Weijma, Bernd Maier-Leppla en Colinda de Beer probeert Innovation Origins te achterhalen hoe de toekomst eruit zal zien. Deze columnisten, soms aangevuld met gastbloggers, werken allemaal op hun eigen manier aan oplossingen voor de problemen van deze tijd. Morgen zal het dus goed zijn. Hier zijn alle voorgaande afleveringen.