Bild: Gerd Altmann/Pixabay
Author profile picture

Eigentlich soll Künstliche Intelligenz (KI) den Menschen helfen, komplexe Aufgaben zu bewältigen. Das kann das Lenken von Fahrzeugen sein. Oft soll ein KI-System große Datenmengen schnell analysieren und deren Interpretation unterstützen.

Schematische Darstellung der Funktionsweise eines KI-Systems.
Illustration: Ravirajbhat154 via Wikimedia Commons.

Wenn Künstliche Intelligenz versagt

Aber Künstliche Intelligenzen machen Fehler oder lassen sich durch kindische Tricks übertölpeln. So führten in den USA fehlerhafte Interpretation von Sensordaten zu tödlichen Unfällen mit autonomen Autos. Chinesische Teenager, die KI-gestützte Überwachungssysteme in Einkaufszentren oder Innenstädten täuschen wollen, setzen sich Faschingsmasken auf. Dann ignoriert sie die Überwachungs-KI als Sensorfehler. Kanadische Forscher ließen eine KI Gegenstände in einem Wohnzimmer identifizieren. Als sie das Bild eines Elefanten zeigten, geriet die KI völlig aus dem Konzept. Sie wurde für Gegenstände blind, die sie vorher korrekt identifiziert hatte. Wissenschaftler an der Universität Frankfurt untersuchen nun, wie sich KI-Systeme zuverlässiger und vor allem sicherer machen lassen. Das Team um Informatiker Prof. Visvanathan Ramesh interessiert sich speziell dafür, wie Kriterien für verlässliche KI-Systeme aussehen können.

Wie Künstliche Intelligenz zuverlässiger wird

Absolute Sicherheit ist unmöglich“, sagt Professor Ramesh. „In der Vergangenheit wurde die Sicherheit komplexer Systeme durch formale modellbasierte Designprozesse nach strengen Sicherheitsstandards in der Entwicklung und durch umfangreiche Systemtests nachgewiesen.“ Das ändert sich gerade. Datengesteuerte maschinelle Lerntechniken sind in der KI-Entwicklung weit verbreitet. Die auf ihnen basierenden KIs liefern unerwartete und unvorhersehbare Ergebnisse – oder sie fallen aus, wenn sie einen Elefanten sehen, wo vorher keiner war und den sie in ihrer Datenbank nicht finden. Aus Ramesh’ Sicht entsteht Sicherheit durch gründliche und ausgiebige Simulation und Modellierung von Anwendungsszenarien. Das Problem, so Ramesh weiter, liege darin, so viele Veränderungen wie möglich vorherzusehen und in entsprechende Simulationen umzusetzen. Will man beispielsweise eine KI-gesteuerte Raumsonde zum Mars schicken, muss man so viele Szenarien wie möglich vorwegnehmen und mit realen Daten abgleichen. Aus den geprüften Szenarien entstehen dann Simulationen. Mit denen bringt man dann der KI bei, wie sie auf die jeweilige Situation reagieren soll.

Vorbild für Künstliche Intelligenz: Das menschliche Gehirn

Ramesh’ Ansatz besteht darin, Erkenntnisse aus Informatik, Mathematik und Statistik mit Erkenntnissen aus Fachgebieten zu verbinden, die sich mit der Analyse menschlicher Fähigkeiten beschäftigen. Das sind die Neurowissenschaften sowie Psychologie und Kognitionswissenschaften. Als Modell dient das menschliche Gehirn. Mit seiner Lernarchitektur kann es ein breites Spektrum von Aufgaben in unterschiedlichen Situationen und Umgebungen bewältigen.

Ramesh beschäftigt sich seit 25 Jahren mit geeigneten Verfahren für die Entwicklung, das formale Design sowie die Analyse und Überprüfung von intelligenten Sichtsystemen. Das sind von intelligenten Programmen gesteuerte optische Sensoren.

Entwurfsprinzipien für verlässliche Künstliche Intelligenz

Ein KI-System muss seine Umgebung genau erkennen und auch Unterschiede zwischen verschiedenen Kontexten verstehen – etwa den Unterschied zwischen Fahren auf einer fast leeren Landstraße und dem Fahren im dichten Stadtverkehr. Wie sicher KI-Systeme wirklich sind, beruht darauf, dass sie für den Menschen plausible Entscheidungen treffen und ihre Verlässlichkeit selbst einschätzen können. Vor allem müssen die Systeme ihre Entscheidungen jederzeit erklären können. Für Entwickler ist es wichtig, klar verschiedene Bereiche zu unterscheiden: Benutzeranforderungen, Modellierung, Umsetzung und Validierung. Genauso müssen die Schnittstellen dazwischen genau definiert sein.

Die Geschichte der Künstlichen Intelligenz im Überblick. Der heutige Standard ist durch die Fortschritte beim Gewinnen und Verarbeiten großer Datenmengen möglich geworden.
Illustration: Ravirajbhat154 via Wikimedia Commons.

Das Ergebnis sind dann Systeme, die tatsächlich ein Kind mit einer Drachenmaske als solches identifizieren und sich nicht durch einen Elefanten im Wohnzimmer aus dem Konzept bringen lassen.

AEROBI: KI in der Praxis

Ramesh und sein Team an der Universität Frankfurt haben in den letzten sieben Jahren diese Prinzipien verfeinert und angewandt. Sie entwickelten Plattformen für den schnellen Prototypenbau, die Simulation und die Erprobung von Sichtsystemen. Dazu gehörten Überwachungssysteme, aber auch Anwendungen zur Erkennung von Bremslichtern im Autoverkehr. Jüngst entwickelten sie im Rahmen des EU-Projekts AEROBI ein Sichtsystem für eine eine autonome Drohne. Die Drohne soll große Brückenkonstruktionen auf Schäden untersuchen. Die Frankfurter Wissenschaftler entwickelten KI-Technologien, mit denen die Drohne sich im Luftraum um die Brücke orientieren kann. Sie soll feine Risse und andere Unregelmässigkeiten aufspüren und klassifizieren kann. AEROBI ist ein Gemeinschaftsprojekt. An ihm sind neben Ramesh und seinem Team Wissenschaftler von 12 verschiedenen Forschungseinrichtungen beteiligt. Das Projekt wird von Airbus koordiniert. Die fertige Drohne ist bislang an zwei Brücken getestet worden.