Katleen Gabriëls Foto: Karel Duerinckx

Die Philosophin und Dozentin für Computerethik an der Universität Maastricht, Katleen Gabriëls, befasst sich in ihrem Anfang Dezember erschienenen Buch „Regeln für Roboter“ (Regels voor Robots) kritisch mit der künstlichen Intelligenz. Dies ist ein wichtiger Beitrag, denn unsere Gesellschaft wird immer mehr durch künstliche Intelligenz und Roboter beeinflusst.

Warum haben Sie dieses Buch geschrieben?

Die Gründe waren anfangs pragmatischer Natur. Sie waren ein wesentlicher Bestandteil meiner Arbeit für den Willy-Calwaert-Lehrstuhl, den ich letztes Jahr an der Freien Universität von Brüssel innehatte.

Ein Lehrstuhl in Belgien funktioniert ein bisschen anders als in den Niederlanden. Während des akademischen Jahres hielt ich für die zukünftigen Ingenieure mehrere Vorlesungen über Philosophie. Da konnte ich meine Erfahrung auf dem Gebiet der Technikethik einbringen, die ich mir als Dozent an der TU/e (Technische Universität Eindhoven) erarbeitet hatte. Dies mache ich auch derzeit in Maastricht. Seit über zehn Jahren arbeite ich jetzt auf dem Gebiet der Computerethik.

Der Lehrstuhl verlangt auch eine wissenschaftliche Publikation. Dabei ist allerdings nicht festgelegt, wie diese Veröffentlichung erfolgen soll. Es war für mich aber schnell klar, dass ich ein Buch schreiben wollte. Auch weil eine englische Übersetzung garantiert wurde und ich so ein breiteres Publikum erreichen konnte. Also fing ich damit an, die Inhalte der Vorlesungen zu sammeln, die ich für den Ingenieursnachwuchs hielt. Schließlich habe ich die Ergebnisse erweitert und präzisiert.

Aber letztlich haben Sie das Buch nicht nur für Ingenieure geschrieben, oder?

Das stimmt. Ich wollte das Buch nicht nur für Ingenieure schreiben, weil die Auseinandersetzung mit der Computerethik so wichtig ist. Derzeit finden Sie in nahezu jeder Tageszeitung irgendwas über künstliche Intelligenz. Schon aus diesem Grund ist es wichtig, die Diskussion zu versachlichen, indem auch die vorhandenen Probleme angesprochen werden. Das Buch mag für den Lehrstuhl entstanden sein, tatsächlich ist es für alle gedacht. Das erkläre ich auch in dem Buch. Es geht hier nicht nur um die Technologie an sich, sondern auch um die Schöpfer und Benutzer. Und natürlich den Einfluss, den die Technologie auf die Gesellschaft hat. Wenn man sich ansieht, wie das Smartphone – das im Jahr 2007 eingeführt wurde – die Gesellschaft innerhalb der letzten 12 Jahre verändert hat, dann stellen sich allein dazu viele Fragen.

Natürlich geht es um den Ingenieur, der die KI schafft und seine Verantwortung für die Auswirkungen, die durch diese KI entstehen könnten. Aber letztlich ist mein Buch ein Plädoyer für Ethik in der Technologie. Was mir wichtig ist, dass die ethischen Aspekte vorher berücksichtigt werden – nicht erst, wenn die Technologie auf den Markt kommt.

Sie haben das Buch „Regeln für Roboter“ (Rules for Robots) genannt. Aber es enthält eigentlich keine Regeln. Sie meinen, weil darin keine „10 goldenen Regeln für den guten Roboter“ enthalten sind?

Ja, aber Sie befassen sich mit einigen Regeln. In dem Buch sagen Sie beispielsweise, dass es naiv sei, sich auf Asimovs drei Robotergesetze zu verlassen, die schon lange bekannt sind. Das Buch verfolgt eine weit komplexere Aufgabe, als nur ein paar Regeln aufzustellen (–> Asimovs Robotergesetze). Sicher, es ist ein Plädoyer für ein Regelwerk für Roboter, soll aber keine bloße „Checkliste“ sein. Sehen Sie, moralische Regeln sind auch kontextabhängig. Und das ist das Problem: Sie können ein solches binäres System nicht mit „moralischen“ Regeln programmieren, die in jeder Situation garantieren, dass die richtige Entscheidung getroffen wird. Das wird nicht funktionieren. Schon aus dem Grund, weil wir Menschen eben auch moralisch fehlbar sind. Können wir also ein unfehlbares System entwickeln? Nein, es ist utopisch, das anzunehmen.

Natürlich gibt es letztlich viele Regeln in meinem Buch. Aber sie sind weit weniger konkret gefasst, als man vielleicht annehmen möchte. Es enthält eine Reihe von Regeln, die Ingenieure beim Entwerfen von KI-Systemen beachten sollten. Und dann ist es eine Forderung nach einem Entwurf nach ethischen Gesichtspunkten.

Sie schreiben, dass Ingenieure einen Eid ablegen sollten, ähnlich dem hippokratischen Eid der Ärzte. Sie sollten dabei versprechen, zum Wohle der Menschheit zu handeln, wenn es um die Gestaltung einer KI geht.

Ja, aber das geht noch weiter und betrifft noch ganz andere Gebiete. Betrachten Sie zum Beispiel die deutschen Vorgaben (–> Vorgaben) für autonomes Fahren. Das sind genau genommen auch Robotergesetze. Aber hier geht’s nicht um eine Checkliste mit, sagen wir, 20 Regeln. Das deutsche Regelwerk ist weit komplexer.

Wen würden Sie töten? Künstliche Intelligenz beim autonomen Fahren

Sie beschreiben in Ihrem Buch das theoretische Dilemma einer KI beim autonomen Fahren. So muss die KI beispielsweise in einer Gefahrensituation auf der Straße zwischen der Rettung des Fahrers und der Beifahrerin eines autonomen Fahrzeugs oder einem Bus mit zwanzig Passagieren abwägen. Die Buspassagiere könnten gerettet werden, wenn das Auto in eine Schlucht fährt. Wählt das Auto nicht die Schlucht, landet der Bus dort und 20 Passagiere sterben. Ist die KI des Fahrzeugs so eingestellt, dass möglichst viele Menschen gerettet werden, dann ist das Resultat klar: Der Autofahrer und die Beifahrerin sterben.

Ja, das spielt beispielsweise ein große Rolle, wenn es um autonomes Fahren geht. Das Thema ist hier weit komplexer als das sogenannte „Trolley-Problem“. Aber auch andere Lösungen sind denkbar. Sie könnten auch versuchen das Auto zu stoppen.

Aber es kann eine Situation geben, in der diese Möglichkeit einfach nicht besteht?

Natürlich, und darüber müssen wir grundlegende Überlegungen anstellen, denn die Entscheidungen dürfen nicht von Land zu Land verschieden sein. Das muss international festgelegt werden.

Angenommen, der Bus ist voll mit mexikanischen Drogendealern aus dem Sinola-Kartell, die auf dem Weg in die USA sind, um dort mit dem Tode bestraft zu werden. Dann würde die KI diese Gruppe verschonen, obwohl sie alle zwei Wochen später auf dem elektrischen Stuhl landen würden?

Das ist wieder so ein praxisfernes Gedankenexperiment. Die Wahrscheinlichkeit dafür tendiert gegen Null. Natürlich können Sie solche Situationen statistisch nicht ausschließen, aber es ist eben nicht realistisch.

Sehen Sie es mal so: Wie oft mussten Sie als Autofahrer abwägen, ob Sie den einen jungen Fußgänger auf der linken Seite oder den älteren Fahrradfahrer auf der rechten Seite über den Haufen fahren, wenn ein Unfall unvermeidlich wäre?

Na ja, das Schicksal eines Menschen kann man nicht vorhersehen. Der KI-Entwickler des autonomen Fahrzeugs glaubt, dass 18 Menschenleben gerettet wurden. Und damit hat die KI was Gutes getan. Wir wissen aber nichts über die Zukunft dieser 18 Menschen.
Genau deshalb halte ich dieses Szenario für problematisch. Und genau darüber schreibe ich. Man sagt immer, theoretisch natürlich: Soviel Menschen wie möglich müssen überleben. Aber seien wir ehrlich: Wenn die einzige Person, die sterben wird, Ihr Partner ist, dann dürften Sie eine andere Entscheidung treffen. Und genau deshalb ist die Entscheidung kontextabhängig.

Angenommen, der Bus ist nicht mit Drogenhändlern besetzt und die Wahl fällt stattdessen auf den Autofahrer. Der hat aber gerade ein Krebsmittel erfunden, das vielleicht eine Milliarde Menschenleben retten könnte?

Ja, oder ein Heilmittel gegen AIDS. Aber solche Gedankenexperimente werden in dem Buch nicht behandelt.

Was ich sagen will: Es gibt keine perfekte Entscheidung, daher kann man die KI nicht eindeutig programmieren.
Das ist die Botschaft des Buches. Man beschäftigt sich mit kontextabhängigen Szenarien. Menschen, die nicht so tief in der Materie stecken, glauben möglicherweise, dass das System klare Entscheidungen für sie treffen kann, bessere Entscheidungen als sie selbst. Das stelle ich aber in Frage. Andererseits werden selbstfahrende Autos eine Reihe von Problemen vermeiden, mit denen wir derzeit konfrontiert sind. Beispielsweise Unfälle, die durch menschliches Versagen am Steuer oder durch betrunkene Fahrer verursacht werden.

Was genau ist das „Trolley-Problem“?

Das „Trolley-Problem“ (–> Trolley-Problem) ist ein Gedankenexperiment. Ein außer Kontrolle geratener Zug nähert sich einer Weggabelung. Auf einer Spur ist eine Person an die Schienen gefesselt, und auf der anderen fünf Personen. Um diese fünf Personen zu retten, muss jemand die Weiche betätigen. Aber diese Person wird in der Folge ebenfalls sterben.

Es gibt noch eine weitere Variante des Szenarios: Sie stehen zusammen mit einer fetten Person auf einer Brücke, die über die Strecke führt. Auch hier sind fünf Personen an die Gleise gefesselt. Wenn Sie die dicke Person von der Brücke werfen, stirbt diese Person, weil sie vor den Zug stürzt, der dann zum Stillstand kommt. Dadurch werden die fünf Personen gerettet. Dafür würden sich weniger Leute entscheiden, denn man müsste das Szenario absichtlich auswählen.

Weil man dann im Grunde jemanden umbringt?

Genau.

Was lehrt uns in diesem Fall das Trolley-Problem im Zusammenhang mit der KI?

Das „Trolley-Problem“ kam in den Sechzigerjahren in einem völlig anderen Zusammenhang auf. Man wollte herausfinden, wie Menschen angesichts dieses moralischen Dilemmas reagieren. Diese Überlegungen sind in der Regel nachvollziehbar. Sie führen dazu, dass man versucht, soviele Menschen wie möglich zu retten. Das ist auch der Grund, weshalb das „Trolley-Problem“ und seine Gedankenexperimente im Zusammenhang mit der Weiterentwicklung von KI wieder aktuell werden.

Es gibt da auch ein weiteres Experiment am MIT, das „Moral Machine“ genannt wird. Es gibt dort dreizehn Szenarien eines autonomen Fahrzeugs, das kurz vor einem Unfall steht. Man muss sich dabei beispielsweise zwischen der Rettung eines älteren oder jüngeren Menschen entscheiden. (Eines der möglichen Ergebnisse war, dass ältere Menschen sterben mussten, damit die jungen überleben konnten. Da jüngere Menschen noch eine höhere Lebenserwartung haben, wäre das eine logische Entscheidung gewesen. Anm. d. Red.)

Das deutsche Regelwerk für autonomes Fahren legt fest, dass so etwas nie passieren darf. Es legt fest, dass es einer KI niemals erlaubt sein dürfe, eine Wahl (zwischen Personen; Anm. d. Red.) auf Grundlage persönlicher Merkmale zu treffen. Dies sind klare Vorgaben, die ich als richtig erachte. Die Deutschen haben noch ein anderes Ergebnis der MIT-Moral-Maschine in ihr Regelwerk einfließen lassen: Das Leben eines Menschen hat immer Vorrang vor dem eines Tieres.

Also sollten bestimmte Entscheidungen niemals von einer KI getroffen werden?

Ja, denn ein Programmierer sollte niemals die alleinige Befugnis haben, persönliche Merkmale als Entscheidungsgrundlage zu verwenden.

[/mepr-show]

Werden Sie Mitglied!

Auf Innovation Origins können Sie täglich die neuesten Nachrichten über die Welt der Innovation lesen. Wir wollen, dass es so bleibt, aber wir können es nicht allein tun! Gefallen Ihnen unsere Artikel und möchten Sie den unabhängigen Journalismus unterstützen? Dann werden Sie Mitglied und lesen Sie unsere Geschichten garantiert werbefrei.

Über den Autor

Author profile picture