Katleen Gabriëls Foto: Karel Duerinckx
Author profile picture

Die Philosophin Katleen Gabriëls hat kürzlich ihr Buch ‘Regels voor Robots’  im Rahmen ihres Lehrstuhls an der Vrije Universiteit Brussel veröffentlicht. Vorige Woche hat Innovation Origins den ersten Teil dieses Interviews veröffentlicht. Lesen Sie hier den zweiten Teil, in dem Gabriëls über die Verantwortung der Designer der KI spricht, die die Roboter steuert.

Was ist die wichtigste Schlussfolgerung aus dem derzeitigen Stand der Dinge in Bezug auf die Regeln für Roboter?

“Wenn man ein Buch schreibt, fragt man sich zuallererst: Was kann ich zum Thema beitragen? Ich wollte den Stand der KI-Debatte beschreiben. Sie können keine Zeitung lesen ohne auf ein Thema zu stoßen, das in irgendeiner Weise mit KI-Systemen wie Facebook oder Google verknüpft ist. Ich wollte diese Debatte eingehend interpretieren. Ich hielt es auch für wichtig aufzuzeigen, dass so einiges in der aktuellen Debatte gar nicht neu ist. Um Verwirrung zu vermeiden, unterscheide ich auch zwischen dem, was KI-Systeme bereits können, was sie noch nicht können und was sie vielleicht nie können. Dadurch wird die Debatte auch nuancierter. Und natürlich geht es darum, dass diese Systeme nicht neutral sind.”

Ich habe in Ihrem Buch von einigen Dingen erfahren, die nicht in Ordnung sind. Zum Beispiel gibt es manchmal Voreingenommenheiten, sogenannte Bias, im Design. So konnte der Sensor einer Seifenmaschine auf einer öffentlichen Toilette dunkles Pigment nicht erkennen und es kam keine Seife heraus, wenn dunkle Menschen ihre Hand darunter hielten.

“Eine Lösung dafür wäre, Fächer wie Technik verbindlich vorzuschreiben, damit zukünftige Ingenieure Werkzeuge haben, um sich mit solchen Themen auseinanderzusetzen.”

Aber ist das eine Frage der Ethik oder nur eine Frage der Dummheit? Die Designer haben diesen Seifensensor wahrscheinlich nicht absichtlich so entworfen.

“Ist das Ethik? Ja, das ist es. Denn ein Designer trifft nicht nur funktionale, sondern auch moralische Entscheidungen. Wenn man ein Design nur für eine bestimmte Art von Endbenutzer macht und es nicht im Voraus an einer unterschiedlichen Gruppe von Endbenutzern testet, befindet man sich im Bereich der Ethik”.

Aber wenn es nicht mit Absicht gemacht wurde?

“Das war keine Absicht.”

Oder glauben Sie, dass der Designer diese Verantwortung hat und dass es keine Rolle spielt, ob er das Produkt bewusst nicht an dieser vielfältigen Gruppe von Endnutzern getestet hat oder nicht?

“Ich denke, dass es in diesem Fall ein schwaches Argument ist, dass er oder sie es nicht mit Absicht getan hat. Schließlich hat das Design in jedem Fall eine ethische Wirkung. Wenn Sie sagen “es ist nicht beabsichtigt”, befreien Sie sich von Ihrer moralischen Verantwortung, verschiedene Benutzer zu berücksichtigen. In einer öffentlichen Toilette muss es um alle gehen.”

Lassen Sie es mich so ausdrücken: Es ist schlimmer, wenn der Designer die Eigenschaften der Benutzergruppe bewusst nicht untersucht hat.

“Nur eine Art von Endverbraucher im Auge zu haben und das eigene Leben als Norm für den Rest der Welt zu betrachten, ist eine Entscheidung mit ethischen Konsequenzen. Um eine Analogie zu den Autocrash-Test-Dummys herzustellen: Der erste Crash-Test-Dummy nach dem Vorbild der ‘durchschnittlichen’ Frau in Europa stammt aus dem Jahr 2014. Da kann man auch sagen: Das war nicht mit Absicht. Aber Frauen machen die Hälfte der Weltbevölkerung aus. Frauen haben zum Beispiel weniger Muskeln im Nacken und Oberkörper, was sie anfälliger für ein Schleudertrauma macht. Deshalb ist es so wichtig, einen Crash-Test-Dummy für Frauen zu modellieren”.

Auch in der Medizin ist dies schon sehr lange ein Problem. Das hat nichts mit KI zu tun. Der Körper des Mannes dient oft als Ausgangspunkt für die Behandlung von Krankheiten. Aber der Körper der Frau reagiert in vielen Fällen ganz anders.

“Ja. Ich beziehe mich oft auf das Buch von Caroline Criado Perez, in dem das im Detail beschrieben wird.”

Beamte der Europäischen Kommission haben während der Research & Innovation Days in Brüssel im vergangenen Herbst bekannt gegeben, dass sie das ändern wollen. Es stellte sich heraus, dass bestimmte Anwendungen der KI keine Merkmale von Frauen aufwiesen, die daher ungerechtfertigterweise nicht in den Anwendungsbereich fielen.

“Zu sagen, dass dies nicht beabsichtigt war, wäre auch in diesem Fall ein zu schwaches Argument.”

Lesn Sie auch: ‘Es ist utopisch zu glauben, dass Menschen eine unfehlbare künstliche Intelligenz schaffen können’.

Ich stelle diese “Schuldfrage”, weil es eine harte Debatte über Rassismus, einschließlich des Judenhasses, gibt. Es fällt mir auf, dass es tatsächlich eine Gruppe von Menschen gibt, die absichtlich Rassenhass ausdrückt. Es handelt sich um ein aggressives Verhalten, das sich aber vom Verhalten der Gruppe unterscheidet, die unbewusst die unterschiedlichen Merkmale der verschiedenen Bevölkerungsgruppen nicht berücksichtigt.

“Natürlich. Ich erkenne diesen Unterschied an. Aber das entbindet die Designer von KI nicht von der Verantwortung, dies zu berücksichtigen. Das meine ich ja. Auch innerhalb der Designteams fehlt es an Vielfalt und Interdisziplinarität. Obwohl ich gleichzeitig betonen möchte, dass die meisten Designer voller Leidenschaft und Hingabe arbeiten. Ich will ganz sicher nicht mit dem Finger auf alle zeigen. Es geht – letztlich – um Kooperation und einen Dialog, in dem Philosophen und Designer, jeder mit seinem eigenen Fachwissen, über ein Design nachdenken. Und in dem sie darüber nachdenken, wie bestimmte Probleme, wie z.B. die des Datenschutzes, schon im Vorfeld angegangen werden können”.

Was ist Ihre wichtigste Schlussfolgerung nach dem Schreiben Ihres Buches ‘Regeln für Roboter’?

“Vielleicht ist es diese: dass ein Design nicht neutral ist. Und dass Sie als Ingenieur oder Kunde dafür verantwortlich sind. Niemand bestreitet, dass auch der Nutzer Verantwortung trägt. Aber er hat nicht die gleiche Macht wie der Designer. Der Designer kann Menschen lenken. Viele Technologien, die von Werbeeinnahmen abhängen, wie z.B. Facebook, sind nach dem Prinzip “Ablenkung durch Design” konzipiert. Dies beeinflusst natürlich das Verhalten der Menschen. Denn ihre mentalen Schwächen werden gezielt angesprochen. Sie nutzen die Plattform kostenlos. Aber sie zahlen mit ihren Daten, ihrer Zeit und ihrer Aufmerksamkeit.”