Bij het streven naar de ontwikkeling van een kunstmatige superintelligentie lijkt het vooral om techniek te draaien. De Oostenrijkse filosofe Janina Loh stelt daarbij vraagtekens. In haar wetenschappelijke inleiding tot de robot-ethiek stimuleert ze een kritische discussie over dat punt. Het moet niet alleen gaan om het technisch haalbare, maar ook om wat moreel wenselijk is, zo stelt zij.
De filosofische discipline van de robotethiek houdt zich bezig met morele vragen die worden opgeworpen door de bouw van robots en de omgang met robots. In Engelstalige landen is dit al in de academische filosofie verankerd. In Duitstalige landen is robotethiek nog geen algemeen erkende discipline. Ethiek gaat alleen over het menselijk handelen, is een gemeenschappelijk tegenargument dat de technologie als een neutraal wezen presenteert.
Geïnteresseerd in dit onderwerp? Innovation Origins publiceerde veel meer over robots & ethiek.
Neutraliteits-thesis
Voor robot-ethici telt de neutraliteits-thesis – een term uit de rechtsfilosofie – niet. Zij zeggen dat technologie door mensen wordt gecreëerd en als zodanig de uitdrukking wordt van menselijke bedoelingen, normen en redenen. Bovendien worden allerlei soorten wezens en dingen beïnvloed door de morele implicaties van de technologie: dieren, planten, huizen, auto’s, smartphones, landschappen, hele ecosystemen. Ook vóór de robots bestonden er al levenloze dingen die een waarde en soms zelfs rechten kregen.
Object van moreel handelen
De Weense filosofe Janina Loh geeft in haar boek een overzicht van de stand van zaken van het onderzoek in de robotica. Zij introduceert de centrale vraag of robots morele onderwerpen zijn, of slechts objecten van morele actie. Naast dit klassieke onderscheid, gaat ze ook in op de meest recente gedachtegang in de robotica-ethiek: met inbegrip van de benaderingen. In de discussie over de robot als object van morele actie wordt de robot gezien als een menselijk hulpmiddel. De morele bevoegdheid blijft bij de persoon die ze gebruikt en bij de fabrikant, of bij de wet. De fabrikant beslist over eventuele kaderwaarden en principes die in de programmering worden gegeven en die niet door de gebruikers kunnen worden gewijzigd. De discussie over robots als onderwerp van moreel handelen wordt amper gevoerd, omdat we alleen mensen de mogelijkheid toedichten om moreel te handelen.
Oproep tot inclusie
De derde en meest recente benadering komt voort uit de vraag naar inclusie – in de zin van postfeministische, poststructuralistische, postkoloniale en kritisch-posthumanistische standpunten. Het gaat hier om technologieën die een beeld van de mensheid bevestigen waarin minderheden al eeuwenlang verstoken zijn van een politieke, sociale, morele en juridische status.
Feministische robot-ethische benaderingen
Een voorbeeld hiervan is de feministische robotische ethische benadering, waarbij wordt aangenomen dat de maker van de robot voornamelijk westers, blank, heteroseksueel, Aristotelisch en mannelijk is. Dit resulteert in een traditioneel beeld van de man, waarbij vrouwen worden uitgesloten of benadeeld. Kenmerkend voor feministische robot-ethische posities is de afwijzing van de robot als moreel onderwerp en de wil om sommige typen robots volledig te verbieden.
Kathleen Richardson, hoogleraar ethiek en cultuur van robots en kunstmatige intelligentie aan de De Montfort University, Leicester, UK, is over het algemeen tegen seksrobots, omdat ze hetero-normatieve, patriarchale en discriminerende structuren bevestigen.
Het trolley-probleem
Janina Loh noemt het werk Moral Machines (2009) van Wendell Wallach en Colin Allen als basis voor de robotethiek. Daarin stellen ze voor om eenvoudigweg het morele vermogen toe te schrijven aan alle wezens die morele beslissingen nemen. Als voorbeeld van een morele beslissing noemen ze de rails waarop mensen staan. Een tram dreigt over hen heen te rijden. De trein is zo geprogrammeerd, dat hij onmiddellijk moet stoppen als er mensen op het spoor zijn. Het is echter complexer als de trein alleen maar kan uitwijken en moet beslissen of hij over een kleinere of grotere groep mensen op een van de twee sporen zal rijden… Dit voorbeeld staat bekend als het Tram-Probleem of het wisseldilemma.
Morele machine
Hoe komt de moraal zelfs in de machine? Het is een andere vraag die wordt besproken in de robot-ethiek. Loh werkt weer aan deze vraag na Gelding en Allen. Ze onderscheiden drie principes als het gaat om het uitrusten van kunstmatige systemen met moraliteit: top-down benaderingen, bottom-up benaderingen en hybride benaderingen.
Gezond verstand
Bij de top-down benadering wordt een robot geprogrammeerd met een reeks principes of regels, zoals Immanuel Kants Kategorischer Imperativ of de robotwetten van Isaac Asimov.
Er zijn ten minste twee problemen te verwachten:
- De interpretatie van ethische regels is contextgevoelig.
- De programmering vereist echter een duidelijke interpretatie.
Er kan een conflict ontstaan tussen de afzonderlijke regels. Hoe concreter de morele principes worden geformuleerd, hoe groter de kans dat het systeem een kwestie in de praktijk kan toepassen. Met de concretisering neemt echter ook het aantal regels toe. En daarmee het gevaar van een conflict van regels. Janina Loh’s samenvatting: bij de pure top-down benadering ontbreekt het aan gezond verstand.
Ontbrekende creativiteit
Bottom-up benaderingen schrijven geen morele regels voor, maar implementeren basiscompetenties. Robots ontwikkelen moreel gedrag door verschillende vormen van leren. Er wordt een onderscheid gemaakt tussen evolutionaire modellen en modellen van menselijke socialisatie. In modellen van menselijke socialisatie wordt een onderscheid gemaakt tussen twee vormen van mededogen:
- Perceptuele empathie is al aanwezig wanneer de waarneming van een emotie een vergelijkbare reactie in de andere persoon teweegbrengt.
- Fantasierijke empathie vereist een verandering van perspectief in de vorm van het kunnen verplaatsen van zichzelf in de positie van de ander.
Sommige denkers zijn bijzonder kritisch over een bottom-up benadering. Het potentiële vermogen om te leren kan leiden tot verlies van controle. Hubert Dreyfus ziet het probleem van de kunstmatige intelligentie in het gebrek aan creativiteit van machines. Aan de andere kant, zegt hij, zijn ze uitstekend geschikt voor het berekenen van complexe computerprocessen. Dreyfus is auteur van het boek What computers can’t do.
Morele verantwoordelijkheid vaststellen
In het hoofdgedeelte van haar boek gaat Janina Loh in op de nieuwe verantwoordelijkheid die de maatschappij, de politiek en de wetgeving hebben voor robots die zich als mensen gedragen. Ze maakt onderscheid tussen exclusieve en inclusieve robot-ethische benaderingen, die niet geheel conflictvrij zijn. Vertegenwoordigers van exclusieve benaderingen gaan er bijvoorbeeld van uit dat het de mensen zijn die betrokken zijn bij de robots die de verantwoordelijkheid moeten dragen. Indien nodig, zien zij de verantwoordelijkheid ook duidelijk in de robot als een moreel handelend onderwerp.
Vertegenwoordigers van inclusieve robot-ethische benaderingen hebben een ander begrip van object en onderwerp. Ze gaan er niet van uit dat de mens ooit volledige controle zal kunnen krijgen over de natuur en de cultuur en over mensen en niet-mensen. Zij beweren veeleer constructieve strategieën te vinden om met onzekerheden om te gaan, verantwoordelijkheden vast te stellen en verantwoording af te leggen in complexe situaties. Maar zelfs zij laten de robot niet volledig in de steek als onderwerp van morele actie…
In haar slotwoord pleit de wetenschapper voor het openen van een kritisch discours en het openen van inclusieve modellen. Voorwaarde hiervoor is een beleid dat een onderwijssysteem in het leven roept waarin de robotethiek een vaste plaats heeft.
Janina Loh ist universiteitsassistente op de afdeling Techniek- en mediafilosofie aan de Universität Wien.
Originele publicatie:
Loh, Janina (2019): Roboterethik – eine Einführung. Berlin: Suhrkamp Verlag.
Ook interessant:
Zo werkt innovatie: “De mens moet een soort God worden voor robots”
Podcast: God spelen over robots