Verstädterung und Globalisierung haben zu einer zunehmenden Überlastung der Verkehrssysteme geführt. Die autonome Fahrzeugtechnologie ist effizienter, sicherer und umweltfreundlicher – und soll bei der Lösung dieses Problems eine wichtige Rolle spielen. Bis dato sind autonome Fahrzeuge aber noch mit einer Reihe von Unsicherheiten behaftet. Neben technischen Problemen stellen sich auch Fragen der Ethik. Denn die Software muss mit unvorhersehbaren Situationen umgehen können und in riskanten Situationen die notwendigen Entscheidungen treffen. Eine Aufgabe, die entsprechende Algorithmen übernehmen sollen. Erste philosophische Ansätze waren wertvoll, aber unzureichend. Nun könnte ein auf Risiko-Ethik basierender Algorithmus eine gangbare Lösung bringen.
Das Trolley-Problem
Erste Ansätze für die Entscheidungen autonomer Fahrzeuge im Straßenverkehr waren nach traditionellen ethischen Denkmustern konzipiert. Daraus folgte eine entweder/oder-Maxime, die jedoch zu erheblichen Schwierigkeiten führte. Denn erwarteter Nutzen und erwartete Risiken sind meist asymmetrisch zwischen den beteiligten Parteien verteilt – oder umstritten. Also musste in vielen Verkehrssituationen ein ethisches Prinzip verletzt werden.
Zur Veranschaulichung dieses Problems dient das Trolley-Problem, das auf Philippa Foot (1967) zurückgeht und auch von Wendell Wallach und Colin Allen 2009 im Werk Moral Machines beschrieben wurde. Als Szenario dienen Gleise, auf denen sich Menschen befinden, die der Zug zu überrollen droht. Der Zug ist darauf programmiert, unverzüglich zu stoppen, wenn sich Menschen auf den Gleisen aufhalten. Schwieriger wird es allerdings, wenn der Zug nur ausweichen kann und entscheiden muss, ob er eine kleinere oder größere Menschenansammlung auf einem der beiden Gleise überrollt … Denn Menschenleben lassen sich nicht aufrechnen.
Risikoverteilung über Trajektorienplanung
Franziska Poszler vom Lehrstuhl für Wirtschaftsethik an der Technischen Universität München (TUM) merkt an, dass das Trolley-Problem rein auf Unfallszenarien fokussiert sei. Das greife aber zu kurz, denn autonome Fahrzeuge stehen nicht erst bei Unfallgefahr vor Entscheidungen. Sie entscheiden laufend. Zum Beispiel wie viel Abstand zu anderen Fahrzeugen und Straßenteilnehmern zu halten – und wann zu bremsen ist. „Auch diese Entscheidungen tragen einen normativen Gehalt. Denn implizit wird mit der Trajektorien-Planung entschieden, wem wieviel Risiko auferlegt wird“, sagt die Wirtschaftsethikerin, die im interdisziplinären Projekt ANDRE gemeinsam mit Kollegen vom Lehrstuhl für Fahrzeugtechnik am Institute for Ethics in Artificial Intelligence (IEAI) der TUM forschte. Die Veröffentlichung erfolgte im Fachjournal „Nature Machine Intelligence“.
Trajektorien laufen auch unter den Bezeichnungen Bahnkurve, Pfad oder Weg. Sie werden mit Hilfe von karten- beziehungsweise sensorbasierten Daten generiert und dienen als Sollgröße für eine nachgelagerte Regelung des autonomen Fahrzeugs. Dabei muss unter anderem die Realisierbarkeit und die Kollisionsfreiheit der Trajektorie beachtet werden.
Ethische Regeln coden
Im Projekt ANDRE ging man der Fragestellung nach, inwiefern ethisches Verhalten in die Pfad- und Verhaltensplanung eines autonomen Fahrzeugs überhaupt zu integrieren ist. Um dies zu erforschen, war es notwendig, zwei unterschiedliche Disziplinen – nämlich Algorithmik und Philosophie – zu verbinden. Denn „der Algorithmus musste so aufgebaut sein, dass er die Möglichkeit zulässt, verschiedene ethische Prinzipien zu berücksichtigen. Gleichzeitig mussten die ethischen Prinzipien so ausgewählt und formuliert werden, dass sie programmiert werden konnten,“ erklärt Maximilian Geißlinger, Wissenschaftler am Lehrstuhl für Fahrzeugtechnik.
Wahrscheinlichkeitsmodelle
Die mathematische Umsetzung der verschiedenen ethischen Prinzipien erfolgte aus der Perspektive der Risiko-Ethik. In dieser wird Risiko als Produkt aus Schaden und Wahrscheinlichkeit definiert. Daraus folgt die Formel Risiko = Schaden × Wahrscheinlichkeit. Vice versa sind auf Wahrscheinlichkeiten basierende Modelle auch in der Trajektorienplanung vorgesehen, wenn es darum geht, das Verhalten menschlicher Fahrer darzustellen. Das ist die Schnittstelle an der die Forschenden im Projekt ANDRE anknüpften. Die Arbeit mit Wahrscheinlichkeiten ermöglichte es ihnen differenzierter abzuwägen und einen Algorithmus zu schaffen, der das Risiko auf der Straße fair verteilt.
Risikopotenzial und Risikobereitschaft
Die Risikobewertung basierte auf einer Einteilung der Verkehrsteilnehmer. Zentrale Kriterien waren das von ihnen ausgehende Risiko und deren individuelle Risikobereitschaft. So kann etwa ein Lastwagen anderen Verkehrsteilnehmenden großen Schaden zufügen, selbst aber in vielen Szenarien nur in geringem Maße beschädigt werden. Bei einem Fahrrad verhält es sich umgekehrt.
Dem Algorithmus wurden Prinzipien und Theorien aus der Risiko-Ethik und aktuelle Ethik-Richtlinien vorgegeben. Unter anderem, dass in den verschiedenen Verkehrssituationen ein maximal akzeptables Risiko nicht zu überschreiten und das Gesamtrisiko zu minimieren sei. Weiters kalkulierte das Forschungsteam Variablen ein, die aus der Verantwortung der Verkehrsteilnehmenden resultieren. So ist etwa davon auszugehen, dass sich diese an Verkehrsregeln halten.
Problematisch an bisherigen Ansätzen war, dass kritische Situationen auf der Straße nur mit einer geringen Anzahl möglicher Manöver behandelt wurden. Im Zweifel blieb das Fahrzeug einfach stehen. Durch die nun in den Code eingebrachte Risikobewertung entstehen mehr Freiheitsgrade bei weniger Risiko für alle. Es geht nicht mehr nur um entweder/oder – vielmehr findet eine Abwägung statt, die viele Optionen beinhaltet.
Vorrang für die Schwächsten
Dazu folgendes Beispiel: Ein autonomes Fahrzeug möchte ein Fahrrad überholen, aber auf der Gegenfahrspur kommt ihm ein Lkw entgegen. Lässt sich das Rad überholen, ohne in die Gegenfahrspur zu fahren und gleichzeitig genug Abstand zum Fahrrad zu halten? Welches Risiko besteht für welches Fahrzeug und welches Risiko bedeuten diese Fahrzeuge für einen selbst? Szenarien, welche die Software in Sekundenbruchteilen anhand aller vorhandenen Daten über die Umgebung und die einzelnen Teilnehmenden analysiert.
Im Zweifel wird das autonome Gefährt mit der neuen Software immer warten, bis das Risiko für alle akzeptabel ist. Aggressive Manöver werden vermieden und das selbstständig fahrende Fahrzeug fällt weder in eine Schockstarre noch bremst es abrupt ab.
Laut TUM handelt es sich dabei um den ersten Algorithmus, der die Ethik-Empfehlungen der EU-Kommission 2020 berücksichtigt.
Plädoyer für einen konstruktiven Diskurs
Grundlegend für das Forschungsprojekt waren Tests von rund 2.000 Szenarien mit kritischen Verkehrssituationen – verteilt auf unterschiedliche Straßentypen und Gebiete wie Europa, die USA und China. Die Daten kamen von Common Road. Die neu entwickelten Algorithmen wurden in bekannten und neu definierten Fahrszenarien in der Simulation analysiert. Mit dem Forschungsfahrzeug EDGAR der TUM wird die Software künftig auch auf der Straße getestet. Der Code, in den die Erkenntnisse der Forschungsarbeit einfließen, steht Open Source zur Verfügung.
Aufgrund erster vielversprechender Ergebnisse plädieren die Forschenden für eine Neuorientierung des Forschungsdiskurses. Dieser hatte sich zuletzt auf das Trolley Problem konzentriert, das jedoch nur das Problem aufzeige und keine Lösung. Ihre auf der Risiko-Ethik basierende Denkweise ermögliche indes einen konstruktiven Zugang. Wobei die Forschenden betonen, dass es sich zunächst nur um einen Vorschlag handle, der noch weiter diskutiert werden müsse. Zudem seien künftig noch weitere Differenzierungen wie etwa kulturelle Unterschiede in ethischen Entscheidungen zu berücksichtigen.
Foto oben:
Der Prototyp von Mercedes-Benz, Future Truck 2025, fuhr auf der BAB A14 bei Magdeburg auch selbständig im Kolonnenverkehr. Es handelt sich hier um Autonomiestufen (Level)-3-Autonomie, da das Fahrzeug auch Manöver wie Spurwechsel selbstständig unternehmen konnte und der Fahrer nicht dauerhaft die Fahrt überwachen musste. (c) Wikipedia Common – Michael KR