Katleen Gabriëls Foto: Karel Duerinckx
Author profile picture

Filosofe en docent computerethiek aan de Universiteit van Maastricht Katleen Gabriëls schreef het vorige week gepubliceerde boek ‘Regels voor Robots’ over de manier waarop we tegen het ontwerpen van kunstmatige intelligentie aan moeten kijken nu onze samenleving steeds meer gerobotiseerd wordt en kunstmatige intelligentie ons leven in steeds grotere mate beïnvloedt.

Waarom heb je dit boek geschreven?

„In eerste instantie om een pragmatische reden. Het hoorde bij de Willy Calewaert-leerstoel van de Vrije Universiteit Brussel die ik daar vorig jaar had. Zo’n leerstoel is in België een ander begrip dan in Nederland. Ik gaf gedurende één academiejaar een aantal hoorcolleges filosofie voor toekomstige ingenieurs. Omdat ik als docent techniekethiek bij de TU/e werkte en nu in Maastricht had ik daar ervaring mee. Ik werk nu tien jaar binnen de computerethiek. Bij die leerstoel hoorde ook een wetenschappelijke publicatie. De vorm daarvan was niet gespecificeerd. Maar al snel had ik besloten dat ik een boek wilde schrijven. Ook omdat een Engelse vertaling gegarandeerd werd, waardoor ik een breder publiek kon bereiken. Ik ben begonnen met het uitschrijven van die colleges die ik aan de ingenieurs in opleiding in Brussel heb gegeven. Het resultaat heb ik daarna verbreed en verdiept.”

Maar uiteindelijk heb je het boek niet alleen voor ingenieurs geschreven?

„Nee. Dat klopt. Ik wilde het boek niet alleen voor die ingenieurs schrijven omdat het debat over computerethiek zo belangrijk is. Je kan geen krant openslaan of het gaat over kunstmatige intelligentie. Daarom is het essentieel om het debat te helpen door de vraagstukken die er zijn te verduidelijken. Het boek is dan wel ontstaan uit die leerstoel, maar eigenlijk is het bedoeld voor iedereen. Dat leg ik ook uit in het boek. Het gaat niet alleen om de technologie zelf, maar ook om de maker ervan en de gebruiker. En op de invloed die de technologie heeft op onze maatschappij. Als je ziet hoe de smartphone – die in 2007 op de markt is gekomen – in twaalf jaar tijd de maatschappij enorm heeft veranderd, dan stel je je daar vragen bij. Het gaat natuurlijk ook om de verantwoordelijkheid van de ingenieur die de AI maakt voor de gevolgen die deze kan hebben. Maar ultiem is het boek een pleidooi voor techniekethiek natuurlijk. Het gaat mij erom dat er aandacht wordt besteed aan de ethische aspecten van technologie: niet pas als technologie op de markt is, maar op voorhand.”

Je hebt het boek ‘Regels voor Robots’ genoemd. Maar eigenlijk staan er geen regels in.

„Je bedoelt dat er geen tien gouden regels in staan waaraan de robots moeten voldoen?”

Ja. En je kraakt sommige regels ook een beetje af. In het boek zeg je bijvoorbeeld dat het naïef is om te vertrouwen op de drie bekende regels van Asimov – die er al heel lang zijn.

„Het doel van het boek is veel complexer dan het meegeven van een aantal regels. Het is een pleidooi voor regels voor robots maar er is niet zomaar een checklist voorhanden. Omdat morele regels, bijvoorbeeld, ook contextafhankelijk zijn. Dus over het idee dat wij op een binaire manier een systeem kunnen programmeren met morele regels die in elke context de juiste keuze zullen maken, kan ik zeggen: dat zal niet lukken. Alleen al omdat wij als mensen moreel feilbaar zijn. Dus hoe kunnen wij dan een onfeilbaar systeem maken? Dat is een utopie. Uiteindelijk staan er wel heel veel regels in het boek. Maar veel minder concreet dan je misschien op voorhand gedacht zou hebben. Het gaat om een aantal regels die ingenieurs moeten volgen bij het ontwerpen van AI. Dan gaat het om een pleidooi voor wat ethics by design genoemd wordt.”

Je schrijft dat ingenieurs een eed zouden moeten afleggen zoals artsen de eed van Hippocrates afleggen waarmee ze beloven te handelen in het belang van het welzijn van de mens bij het ontwerpen van AI.

Ja. Maar er zijn ook andere regels die als voorbeeld kunnen dienen over hoe zoiets moet. Zoals de Duitse code voor het programmeren van zelfrijdende auto’s. Dat zijn ook regels voor robots. Maar ook dit is geen checklist van twintig regels. Die Duitse code is veel breder en complexer dan dat.”

Je beschrijft in je boek een theoretisch dilemma voor AI in een zelfrijdende auto. Daarbij moet de AI in een noodsituatie op de weg bijvoorbeeld kiezen tussen het redden van de bestuurder van de zelfrijdende auto en zijn vrouw die naast hem zit, en een bus op de weg waarin twintig passagiers zitten. Die zouden gered kunnen worden als de zelfrijdende auto in een ravijn rijdt. Als hij er niet in rijdt, komt de bus in het ravijn terecht en sterven er 20 man. Als de AI van de zelfrijdende auto afgesteld is op het redden van zo veel mogelijk mensen, rijdt deze dus met de bestuurder en zijn vrouw het ravijn in. Die sterven daardoor.

„Dat is natuurlijk wel een voorbeeld waardoor het debat over zelfrijdend vervoer gereduceerd wordt. Het debat is veel complexer dan wat we het ‘trolleydilemma‘ noemen. Er zijn ook andere oplossingen denkbaar. Je kan ook proberen om de auto tot stilstand te brengen.”

Maar er is natuurlijk ook wel een situatie denkbaar waarbij die keuze er niet is.

„Ja. Dat is in elk geval iets waar we universeel over na moeten denken zodat het ene land geen andere keuze maakt dan het andere. Je moet dat internationaal vastleggen.”

Stel dat de bus vol met Mexicaanse drugshandelaren uit het Sinaloa-kartel zit die op weg naar de VS zijn om daar de doodstraf te krijgen. Dan heeft de AI deze groep gered op basis van hun aantal terwijl ze twee weken later op de elektrische stoel komen te zitten.

„Dat is een gedachte-experiment. Maar in de praktijk is de kans daarop heel klein. Je kunt zo’n situatie statistisch niet helemaal uitsluiten. Maar het is geen realistisch scenario. Denk er maar eens over na. Hoe vaak heb je als chauffeur bij een nakende crash zelf moeten kiezen tussen het aanrijden van een jonge voetganger links van je auto of een bejaarde fietser rechts?”

Ik bedoel dat het lot voor een ieder onvoorspelbaar is. De ontwerper van de AI van de zelfrijdende auto denkt dat hij per saldo 18 mensenlevens gered heeft en dat hij daarmee iets goeds gedaan heeft. Maar ondertussen weet je niets over de toekomst van die 18 man.

Maar dat is ook de reden dat ik dat dilemma zo problematiseer. Ik schrijf dat ook. Puur in theorie zeggen mensen dan: zoveel mogelijk mensen moeten overleven. Maar als die ene persoon die zou doodgaan jouw partner is, dan ga je een andere afweging maken. Dus ook die afweging is contextafhankelijk.”

Stel dat de bus niet vol drugshandelaren zit en de keuze valt op de bestuurder van de auto. Maar dat deze bestuurder net een medicijn tegen kanker aan het uitvinden was waarmee hij een miljard levens had kunnen redden.

„Ja. Of een medicijn tegen aids. Maar dat soort gedachte-experimenten behoren niet tot het doel van het boek.”

Wat ik bedoel is dat de perfecte afweging er niet is, en dat je die dus niet eenduidig kunt programmeren.

„Ja. Dat is inderdaad de boodschap van het boek. Je hebt te maken met contextafhankelijkheid. Mensen die nog niet zo goed geïnformeerd zijn, denken misschien dat het systeem duidelijke keuzes voor hen gaat maken die beter zijn dan hun eigen keuze. Dat is juist wat ik ter discussie stel. Anderzijds reduceert de zelfrijdende auto wel een aantal problemen die we nu tegenkomen zoals dat er ongevallen ontstaan door menselijke fouten achter het stuur of dronken chauffeurs, bijvoorbeeld.”

Wat is het trolleydilemma precies?

„Het trolleydilemma is een gedachte-experiment waarbij een op hol geslagen treintje een tweesprong van de rails nadert. Op het ene spoor ligt een persoon vastgebonden, op het andere spoor liggen er vijf vastgebonden. Om die vijf te redden moet iemand de wissel om zetten. Maar daardoor gaat die ene persoon dus wel dood. Er is nog een andere variant van het trolleydilemma waarbij jij staat toe te kijken op een brug over het spoor samen met een dikke persoon. Daarop zijn wederom vijf personen vast gebonden. Als jij de dikke persoon van de brug gooit, gaat die dood omdat hij voor de trein valt die dan stopt. Maar dan worden er wel vijf aan de rails vastgebonden personen gered. Daar zullen minder mensen voor kiezen omdat je dan doelbewust voor dit scenario moet kiezen.”

Omdat je dan eigenlijk iemand vermoordt?

„Ja.”

Maar wat is de les van het trolleydilemma dan voor wat betreft AI?

„Het trolleydilemma is in de jaren ‘60 van de vorige eeuw ontstaan in een totaal andere context. Doel was om te kijken welke afwegingen mensen maken bij een moreel dilemma. Die afweging is hier doorgaans utilitaristisch. Dat betekent dat het je uitgangspunt is om te proberen zoveel mogelijk mensen te redden. De reden waarom het trolleydilemma zo vaak aan het ontwerpen van AI gekoppeld wordt is dat die gedachte-experimenten door de ontwikkeling van AI steeds concreter worden. Er is ook een experiment van de Amerikaanse universiteit MIT dat ‘Moral Machine’ heet. Je krijgt daarbij dertien scenario’s van een crashende zelfrijdende wagen voorgeschoteld. Daarbij moet je bijvoorbeeld kiezen tussen het redden van het leven van oude of jonge mensen. [Eén van de mogelijke uitkomsten daarbij was dat ouderen moesten sterven om jongeren te laten overleven. Omdat de jongeren nog langer te leven hadden dan de ouderen zou dit de logische keuze zijn, red. ] Daarover zegt die Duitse code voor zelfrijdend vervoer trouwens dat dit nooit gebeuren mag. Die stelt dat je AI nooit op basis van persoonlijke kenmerken een keuze [tussen mensen, red.] mag laten maken. Dat is een duidelijke regel die ik onderschrijf. Eén resultaat van de MIT Moral Machine namen de Duitsers wel over in hun code: dat het leven van een mens primeert op dat van een dier.”

Sommige beslissingen mag je AI dus nooit laten nemen?

„Ja. Een programmeur mag nooit alleen de macht hebben om op basis van persoonlijke kenmerken te gaan programmeren.”

Volgende week zaterdag verschijnt het tweede deel van dit interview.