Eine künstliche Superintelligenz ist das Ziel vieler Technik-Enthusiasten und der öffentliche Diskurs wird so geführt, als sei diese unausweichlich, sagt die Philosophin Janina Loh. Sie regt in ihrer wissenschaftlichen Einführung in die Roboterethik einen kritischen Diskurs an. In diesem soll nicht nur die Frage nach dem technisch Machbaren gestellt werden, sondern auch jene nach dem moralisch Wünschbaren.

In der philosophischen Disziplin der Roboterethik geht es um moralische Fragen, die der Bau von und der Umgang mit Robotern aufwirft. Im englischsprachigen Raum ist diese in der akademischen Philosophie bereits etabliert. Im deutschsprachigen Raum ist Roboterethik noch keine allgemein anerkannte Disziplin. Ethik befasse sich nur mit menschlichem Handeln, so lautet ein geläufiges Gegenargument, das Technik als neutrales Wesen darstellt.

Neutralitätsthese

Für Roboterethiker zählt die Neutralitätsthese – ein Begriff aus der Rechtsphilosophie – nicht. Sie sagen, dass Technik von Menschen geschaffen ist und als solches zum Ausdruck menschlicher Intentionen, Normen und Gründe wird. Außerdem sind alle möglichen Wesen und Dinge von den moralischen Auswirkungen der Technik betroffen: Tiere, Pflanzen, Häuser, Autos, Smartphones, Landschaften und ganze Ökosysteme. Auch gab es schon vor Robotern unbelebte Dinge, denen ein Wert und mitunter sogar Rechte zugestanden wurden.

Objekte moralischen Handelns

Janina Loh gibt in ihrem Buch einen Überblick über die Forschungsstand in der Roboterethik und führt in die zentrale Frage ein. Diese setzt sich damit auseinander, ob Roboter moralische Subjekte sind – oder lediglich Objekte moralischen Handelns. Neben dieser klassischen Unterscheidung geht sie auch auf die jüngste Denkrichtung in der Roboterethik ein: inklusive Ansätze.

In der Diskussion um den Roboter als Objekt moralischen Handelns wird der Roboter als Werkzeug des Menschen verstanden. Die moralische Kompetenz bleibt beim Menschen der ihn nutzt und beim Hersteller, beziehungsweise dem Recht. Der Hersteller entscheidet über etwaige Rahmenwerte und –prinzipien, die in der Programmierung vorgegeben sind und von den Nutzenden nicht verändert werden können.

Moralische Subjekte

Die Diskussion um Roboter als Subjekte moralischen Handelns ist vergleichsweise klein – weil wir nur Menschen die Fähigkeit zum moralischen Handeln zugestehen.

Forderung nach Inklusion

Der dritte und jüngste Ansatz entstand mit der Forderung nach Inklusion – im Sinne von postfeministischen, poststrukturalistischen, postkolonialen und kritisch-posthumanistischen Positionen. Dabei geht es um Technologien, die ein Menschenbild bestätigen, in dem Minderheiten der politische, gesellschaftliche, moralische, und rechtliche Status über Jahrhunderte aberkannt wurde.

Feministische roboterethische Ansätze

Ein Beispiel dafür sind feministische roboterethische Ansätze, in denen man davon ausgeht, dass der Schöpfer des Roboters vorrangig westlich, weiß, heterosexuell, aristotelisch und männlich ist. Woraus ein tradiertes Menschenbild resultiert, in dem die Frau exkludiert oder benachteiligt wird.

Bezeichnend für feministische roboterethische Positionen ist die Ablehnung des Roboters als moralisches Subjekt und der Wille manche Arten von Robotern vollständig zu verbieten. Kathleen Richardson, Professorin für Ethik und Kultur von Robotern und Künstliche Intelligenz an der De Montfort University, Leicester, Großbritannien, etwa, spricht sich generell gegen Sexroboter aus, weil mit diesen heteronormative, patriarchale und diskriminierende Strukturen bestätigt werden.

Das Trolley-Problem

Als Grundlage der Roboterethik nennt Janina Loh das Werk Moral Machines (2009) von Wendell Wallach und Colin Allen. Sie schlagen darin vor, einfach allen Wesen Moralfähigkeit zuzuschreiben, die moralische Entscheidungen treffen. Als Beispiel für eine moralische Entscheidung nennen sie Gleise, auf denen sich Menschen befinden, die der Zug zu überrollen droht. Der Zug urteile, indem er programmiert ist, unverzüglich zu stoppen, wenn sich Menschen auf den Gleisen aufhalten. Schwieriger wird es allerdings, wenn der Zug nur ausweichen kann und entscheiden muss, ob er eine kleinere oder größere Menschenansammlung auf einem der beiden Gleise überrrollt … Das Beispiel ist als Trolley-Problem oder der Weichenstellerfall bekannt.

Roboterethik, Roboter, moralisch,

Trolley-Problem von Zapyon CC BY-SA 4.0, (c) https://commons.wikimedia.org/w/index.php?curid=67107784

Moralische Maschine

Wie gelangt die Moral überhaupt in die Maschine? Ist eine weitere Frage, die in der Roboterethik diskutiert wird. Loh bearbeitet diese Frage wieder nach Wallach und Allen. Diese unterscheiden drei Prinzipien, wenn es um die Ausstattung künstlicher Systeme mit Moralität geht: Top-down-Ansätze, Bottom-up-Ansätze und hybride Ansätze.

Mangel an gesundem Menschenverstand

Im Rahmen der Top-down-Ansätze werden einem Roboter eine Reihe von Prinzipien oder Regeln einprogrammiert, wie etwa Immanuel Kants Kategorischer Imperativ oder die Asimov’schen Robotergesetze.

Dabei ist mit zumindest zwei Schwierigkeiten zu rechnen:

  • Die Interpretation ethischer Regeln ist kontextsensitiv. Die Programmierung bedarf jedoch einer eindeutigen Interpretation.
  • Es kann ein Konflikt zwischen den einzelnen Regeln auftreten. Je konkreter die moralischen Prinzipien formuliert sind, desto eher ist das System in der Lage, einen Fall in der Praxis anzuwenden. Mit der Konkretheit steigt aber auch die Zahl der Regeln und somit die Gefahr des Regelkonflikts. Janina Lohs Resümee: Der reine Top-Down-Ansatz hat einen Mangel an gesundem Menschenverstand.

Mangelnde Kreativität

Bei Bottom-up-Ansätzen werden keine moralischen Regeln vorgegeben, sondern basale Kompetenzen implementiert. Roboter entwickeln durch verschiedene Formen des Lernens moralisches Verhalten. Dabei unterscheidet man zwischen Evolutionsmodellen und Modellen menschlicher Sozialisation.

Bei Modelle menschlicher Sozialisation wird in zwei Formen von Mitgefühl differenziert:

  • Perzeptuelle Empathie ist bereits dann gegeben, wenn das Beobachten einer Emotion eine vergleichbare Reaktion beim Gegenüber auslöst.
  • Imaginative Empathie erfordert einen Perspektivenwechsel in Form von sich in das Gegenüber hineinversetzen.

Einige Denkerinnen stehen besonders den Bottom-up-Ansätzen kritisch gegenüber. Die potenzielle Lernfähigkeit kann zu Kontrollverlust führen. Hubert Dreyfus sieht das Problem der Künstlichen Intelligenz in der mangelnden Kreativität der Maschinen. Hingegen seien diese hervorragend für das Rechnen von komplexen Rechenvorgängen geeignet. Dreyfus ist Autor des Buches What computers can’t do.

Moralische Verantwortlichkeit ausmachen

Im Hauptteil ihres Buchs widmet sich Janina Loh der neuen Verantwortung, die mit menschenähnlich agierenden Robotern auf Gesellschaft, Politik und Gesetzgebung zukommt. Dabei unterscheidet sie zwischen exklusiven und inklusiven roboterethischen Ansätzen, die nicht ganz konfliktfrei sind. So gehen Vertreter exklusiver Ansätze davon aus, dass es die mit den Robotern befassten Menschen sind, welche die Verantwortung tragen sollen. Gegebenenfalls sehen sie die Verantwortung auch klar im Roboter als moralisch handelndes Subjekt.

Vertreter inklusiver roboterethischer Ansätze haben ein anderes Objekt- und Subjektverständnis. Sie gehen nicht davon aus, dass Menschen jemals vollständig Kontrolle über Natur und Kultur sowie Menschen und Nichtmenschen erlangen können. Vielmehr haben sie den Anspruch, konstruktive Strategien zu finden, um mit den Unsicherheiten umzugehen, Verantwortlichkeiten auszumachen und Rechenschaftspflicht in komplexen Sachverhalten zu schaffen. Aber auch sie lassen nicht vollständig vom Roboter als Subjekt moralischen Handelns …

In ihrem Schlusswort plädiert die Wisssenschafterin für die Eröffnung eines kritischen Diskurses und die Öffnung für inklusive Modelle. Voraussetzung dafür sei eine Politik, die ein Bildungssystem errichtet, in dem Roboterethik einen festen Platz hat.

Janina Loh ist Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Universität Wien.

Originalpublikation:

Loh, Janina (2019): Roboterethik – eine Einführung. Berlin: Suhrkamp Verlag.

Auch interessant:

Wie Innovation funktioniert: „Der Mensch muss eine Art Gott für Roboter werden“

Sami Haddadin sieht im Roboter den Gehilfen des Menschen

Über das Zusammenleben mit Buddy, dem Gefährtenroboter

TU München: Menschwerdung des Roboters H-1