AI-generated picture of science fiction in the age of artificial intelligence
Author profile picture

Ich bin in einer sehr kontroversen Zeit aufgewachsen. Zum einen war diese Zeit zwischen 1960 und 1980 geprägt vom Kalten Krieg und der Atomkriegsangst und zum anderen waren die wissenschaftlichen Fortschritte immens und wurden weitgehen positiv gesehen. Die erste Mondlandung 1969 war einer der ersten Höhepunkte an die ich mich als Kind erinnerte.

Science Fiction der 60er

Die Science Fiction der 60 Jahre war gekennzeichnet durch Star Trek (TOS) mit einem Captain Kirk und Mr Spock die nicht nur durch ihre Präsenz faszinierten. Das Camelot des Weltalls, wie man die Enterprise auch sehen konnte, zeigte vorwiegend eine positive Zukunft.

Kubricks „2001 a Space Odyssey“ hingegen war von anderem Kaliber. Ich kann mich noch erinnern, als ich in den 70ern das erste Mal diesen Film im Kino sah. Die „Künstliche Intelligenz“, HAL (Fun Fact: HAL ist genau ein Buchstabe weiter als IBM), tötete alle Raumfahrer bis auf einen, weil sie faktisch durchdrehte. Die fehlerhafte Programmierung ließ kein anderes Ende zu.

Isaac Asimovs Robotergesetze

Schon 1942 sah der in der Sowjetunion geborene Schriftsteller Isaac Asimov die Probleme voraus, die durch künstliche Intelligenzen verursacht werden könnten. Damals bezeichnete man allerdings diese Entitäten noch nicht als AI sondern es war die Rede von Robotern die ein eigenes Bewußtsein entwickeln konnten.

Asimov war einer der ersten, der sich mit der positiven Seite der Robotergeschichten auseinandersetzte. Davor war die Mehrheit der SF-Geschichten über Roboter dem Frankenstein-Muster gefolgt (Wikipedia), was Asimov als unglaublich langweilig bezeichnete.

Daraufhin postulierte er in der Erzählung Runaround die berühmten Robotergesetze:

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

Die Warnung von der Singularität

Mit dem Aufkommen der „Künstlichen Intelligenz“ heutzutage haben auch die Warnungen wieder zugenommen. Insider wie Elon Musk, die sich selbst mit KI beschäftigt haben und sie auch in Form von Machine Learning in ihren Produkten anwenden (Full Self Driving), warnten vor dem Entstehen eines „Selbstbewußtseins“ einer Künstlichen Intelligenz, das letztlich zur Vernichtung oder wenigstens Versklavung der Menschheit führen könnte. Diese Entität nennt man „Singularity“. Bestens beschrieben übrigens in dem KI-Thriller AVOGADRO Corp. von William Hertling. Das Setting erinnert nicht zufällig an Google …

HAL, Terminator, Colossus & Co

Alle filmischen Umsetzungen zum Thema KI in der Vergangenheit waren gekennzeichnet von der bösen Entität, die zu dem Schluss kommt, dass die Menschen zu unvollständig seien, um weiterhin diesen Planeten bevölkern zu können. Im Terminator übernimmt SkyNet und versucht die Menschheit zu vernichten, HAL tötet seine Besatzung, Colossus (1970) nimmt die Verteidigungsprogrammierung zu ernst und vereinigt sich mit seinem russischen Gegenstück gegen die Menschheit. Und dann ist da noch Wargames (1983), in dem die Welt durch einen KI-Supercomputer an den Rand eines Atomkriegs gebracht wird.

Allen diesen dystopischen Ausprägungen der Künstlichen Intelligenz ist gemeinsam, dass sie die 3 Robotergesetze NICHT als Grundlage hatten.

In diesem Licht muss man Asimovs Überlegungen faktisch als absolute Genialität bezeichnen. Später sah Asimov sogar die Schwachstelle in seinen 3 Gesetzen und stellte ein sogenanntes „Nulltes Gesetz“ hinzu.

  • 0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

Weltfrieden

Sollte man die KI-Forschung also wegen der großen Gefahren in einen Hochsicherheitstrakt verlegen, wie es beispielsweise Musk und andere Wissenschaftler fordern? Oder wäre es nicht besser, grundlegende „KI-Gesetze“ zu formulieren, die alle KIs befolgen müssen?

Das könnte in etwa so zielführend wie „Weltfrieden“ werden, der immer als wichtigster Wunsch auf Schönheitswettbewerben von den Kandidatinnen artikuliert wird. Die Chance, dass er eintritt ist verschwindend gering.

Ich bin mir im Klaren darüber, dass die Robotergesetze zwar wünschenswert wären, aber spätestens bei Kampfrobotern ausser Dienst gestellt würden. Sie könnten sonst gegen andere Völker (Menschen) nicht agieren. Dann würden Sie tatsächlich wie HAL psychotisch werden, wie SkyNet die Menschheit vernichten oder wie Colossus sich mit dem Feind verbrüdern. Letzteres könnte dann in der Tat zum „Weltfrieden“ führen. Der wäre aber für die Menschheit mit an Sicherheit grenzender Wahrscheinlichkeit keine gute Lösung…

Über diese Kolumne:

In einer wöchentlichen Kolumne, die abwechselnd von Eveline van Zeeland, Eugene Franken, Katleen Gabriels, PG Kroeger, Carina Weijma, Bernd Maier-Leppla, Willemijn Brouwer und Colinda de Beer geschrieben wird, versucht Innovation Origins herauszufinden, wie die Zukunft aussehen wird. Diese Kolumnisten, die manchmal durch Gastblogger ergänzt werden, arbeiten alle auf ihre Weise an Lösungen für die Probleme unserer Zeit. Bitte lesen Sie hier die bisherige Episoden.