Wissenschaftler rund um Prof. Gordon Cheng von der Technischen Universität München (TUM) haben kürzlich dem Roboter H-1 eine biologisch inspirierte, künstliche Haut verpasst. Mit diesem – übrigens beim Menschen größten Organ ‒, soll das digitale Wesen nun erstmals seinen Körper und seine Umgebung fühlen können. Doch während die echte menschliche Haut mit an die 5 Millionen unterschiedlicher Rezeptoren ausgestattet ist, besitzt H-1 insgesamt nur ‒ vielmehr eigentlich immerhin ‒, mehr als 13.000 Sensoren. Diese sind am Oberkörper, den Armen, Beinen und sogar an den Fußsohlen zu finden. Ihr Ziel: Sie sollen dem Humanoiden ein eigenes Körpergefühl geben. So kann H-1 beispielsweise dank der Sensoren an den Fußsohlen auf Unebenheiten im Boden reagieren und sogar auf einem Bein balancieren.

Doch viel wesentlicher ist, dass der Roboter in der Lage ist, einen Menschen sicher zu umarmen. Und das ist weniger trivial als es klingt: Denn Roboter könnten Kräfte ausüben, die Menschen schwer verletzen würden. Gerade bei Umarmungen hat ein Roboter an vielen verschiedenen Punkten Kontakt mit einer Person. Er muss aus diesen komplexen Informationen sehr schnell die richtigen Bewegungen und den passenden Kraftaufwand berechnen.

„In der Industrie mag das weniger wichtig sein, aber in Bereichen wie der Pflege müssen Roboter auf einen sehr engen Kontakt mit Menschen ausgerichtet sein“, erklärt Cheng.

Biologische Vorbilder als Basis

Basis der künstlichen Haut sind biologische Vorbilder in Kombination mit Steuerungsalgorithmen. Die Haut von H-1 setzt sich aus sechseckigen Zellen zusammen. Sie haben etwa die Größe einer Zwei-Euro-Münze. Insgesamt besitzt der autonome Roboter 1260 solcher Zellen. Jede einzelne ist mit einem Mikroprozessor sowie mit Sensoren ausgestattet. Hiermit werden Berührung, Beschleunigung, Annäherung und Temperatur gemessen. Dank seiner künstlichen Haut nimmt H-1 seine Umwelt viel detaillierter und feinfühliger wahr. Das hilft ihm nicht nur dabei, sich sicher zu bewegen. Es sorgt auch dafür, dass er sicherer im Umgang mit Menschen ist. Er kann dadurch aktiv Unfälle vermeiden.

Ereignisbasierter Ansatz bietet mehr Rechenkapazität

Das größte Hindernis bei der Entwicklung der Roboterhaut war bislang die Rechenkapazität. Denn bisherige Systeme waren schon mit der Auswertung der Daten aus einigen Hundert Sensoren ausgelastet. Bedenkt man nun die zig-Millionen Rezeptoren der menschlichen Haut, werden die Grenzen schnell deutlich

Um dieses Problem zu lösen, wählten Gordon Cheng und sein Team einen NeuroEngineering-Ansatz. Diese überwachen Hautzellen nicht permanent, sondern nutzen ein sogenanntes ereignisbasiertes System. So lässt sich der Rechenaufwand um bis zu 90 Prozent reduzieren. Der Trick: Einzelne Zellen geben Informationen ihrer Sensoren nur weiter, wenn Messwerte sich ändern. Unser Nervensystem arbeitet ähnlich. Beispielsweise spüren wir einen Hut in dem Moment, in dem wir ihn aufsetzen. Danach gewöhnen wir uns aber schnell an ihn. Da es keine Notwendigkeit gibt, den Hut permanent zu beachten, werden wir erst wieder auf ihn aufmerksam, wenn er uns vom Kopf weht. Unser Nervensystem kann sich dadurch auf neue Eindrücke konzentrieren, auf die der Körper reagieren muss.

Prof. Gordon Cheng ©Astrid Eckert /TUM

Die Hautzellen selbst entwickelte Gordon Cheng, Professor für Kognitive Systeme an der TUM, übrigens schon vor rund zehn Jahren. Ihr volles Potenzial zeigt diese Erfindung aber erst als Teil eines raffinierten Systems. Dieses wurde jetzt im Fachmagazin „Proceedings of the IEEE“ vorgestellt.

Weitere Artikel zu dem Thema finden Sie hier:

Synthetische Haut kann Roboter zum Schwitzen bringen

Top 10 der aufstrebenden Technologien

Über das Zusammenleben mit Buddy, dem Gefährtenroboter

Kannst du einen Roboter lieben?