Author profile picture

Es kommt nicht nur darauf an was jemand sagt, sondern wie er es sagt. Das trifft nicht nur auf unseren täglichen Umgang mit unseren Mitmenschen zu; vielmehr noch dreht sich bei der intelligenten Spracherkennung des Münchener Unternehmens audEERING alles um das Wie. „Unterschiedliche Nuancen können ganz viele unterschiedliche Bedeutungen haben. Das ist auch die Crux in der intelligenten Mensch-Maschine-Kommunikation, dass dieses Wie sehr lange zugunsten des Was vernachlässigt wurde“, sagt Dagmar Schuller, CEO und Mitgründerin von audEERNG. „Natürlich war es wichtig, zuerst das Was zu erkennen, aber die Art wie man spricht, sagt viel mehr aus, ob ich etwas sarkastisch oder ironisch meine, ob ich glücklich klinge, ob ich traurig klinge oder negativ oder positiv. Folgendes Video verdeutlicht diesen Punkt anschaulich und mit einem Augenzwinkern.

https://www.youtube.com/watch?v=EXW8xMGFqsU&feature=youtu.be

Genau diese kleinen aber feinen Unterschiede sind oft von entscheidender Bedeutung – in verschiedensten Bereichen des Lebens. In einer kleinen Serie schlüsseln wir auf, wie intelligente Spracherkennung auf unterschiedlichen Anwendungsgebieten eingesetzt werden kann. Los geht es heute mit dem Gebiet der Medizin, in der die Software zur Früherkennung von Krankheiten wie Alzheimer, Parkinson oder Burnout und Depressionen eingesetzt wird.

„Sehr viele neurokognitive Krankheiten äußern sich in einem Frühstadium als erstes in der Sprache; wie man sich artikuliert, wie man spricht und auch, wie man sich verhält“, erklärt Dagmar Schuller. „In der Langzeitbetrachtung gibt es klassische Indikatoren wie unkontrollierte Emotionsausbrüche bei Alzheimer Patienten. Wenn diese Menschen plötzlich besonders erregt oder besonders unglücklich sind und man weiß eigentlich nicht warum, weil es aus dem Kontext gerissen ist, ist das ein klassischer Alzheimer-Indikator, den man erkennen kann.“

Neben den emotionalen Veränderungen spielt aber auch die Sprache eine entscheidende Rolle bei der Früherkennung – und da kommt audEERING ins Spiel. „Was man an der Sprache oder der Stimme erkennt ist, dass sich der Sprachrhythmus ändert. Dass sich die Tonalität ändert und manchmal auch die Semantik, wenn man in Richtung des Verstehens geht. Da werden entsprechende Wörter eingefügt, die komplett aus dem Kontext gerissen werden, weil man sich nicht mehr an das korrekte Wort erinnern kann.“ Und auch hier kommt es wieder mehr auf das Wie an als auf das Was. „Klassische Sachen, die darauf hindeuten können, sind auch wenn man bestimmte Vokale anders ausspricht. Bei Parkinson ist z.b. ein klassischer Test, dass man die Patienten A sagen lässt. Dann untersucht man diese unterschiedliche Vokal-Tonalität, um schon früh einen Hinweis zu bekommen.“

Vorherige Vergleichsdaten gut, aber nicht notwendig

Diese Vergleiche seien ohne vorherige individuelle Vergleichswerte möglich, solange man eine „ausreichend große Datenbank hat und weiß, so klingt ein gesunder Patient und so klingt einer der die entsprechende Krankheit hat. Man kann von der Person unabhängig erste Indikatoren feststellen, aufgrund dessen was das System von einer gewissen Datenbank schon gelernt hat. “ audEERING hat in einer gemeinsamen Studie mit dem britischen Unternehmen EMTEQ Sprachdaten von Parkinson-Patienten und Sprachdaten von gesunden Patienten aufgenommen, um einen automatischen Erkenner zu bekommen. Trotzdem sei es natürlich immer besser, Langzeitdaten eines indivduellen Patenten zu haben, gibt Schuller zu. „Plastische Anwendungsfälle sind tatsächlich in einer Arzt-Patienten-Beziehung, in der ein Patient über einen gewissen Zeitraum immer diese Sprachbeispiele abgibt. Das ist natürlich viel besser, weil ich das individuell mit dem Profil dieser Person vergleichen kann. Dann kann ich auch ganz genau sehen, ob und was sich geändert hat.“

Kombiniert man diese Indikatoren – Veränderungen im Verhalten und der Sprache – ist es für den Arzt in der Frühdiagnostik ein Hinweis darauf, noch etwas genauer hinzuschauen und gegebenenfalls einen Neurologen einzuschalten. „Idealerweise macht der Neurologe dann auch noch entsprechende Tests, prinzipiell geht es aber darum, möglichst früh Indikatoren zu haben und die Krankheit zu erkennen, weil dann die Therapie viel wirksamer ist.“

Hauptanwendungsgebiet für die intelligente Spracherkennung in der Medizin ist das in erster Linie aber Burnout und Depression. „Da gibt es eine sehr große Dunkelziffer von Menschen, die einerseits gar nicht registriert werden und andererseits viel zu spät registriert werden und wo sich Burnout schon in eine handfeste Depression umgewandelt hat“, betont Dagmar Schuller. „Es besteht dann auch die Gefahr, dass sich diese Depression in eine chronische Depression entwickelt. Deshalb ist es sinnvoll, wenn man frühzeitig mit der Therapie anfängt, damit es überhaupt nicht erst so weit kommt. Dazu sind unsere Systeme bzw. die klassische Audio Analyse eine sehr gute Möglichkeit.“

Hauptzielgruppe: Jugendliche

Moderne Jugendliche haben zum großen Teil Angst, nicht cool zu sein, auf Facebook, Twitter und Co. gemobbt zu werden und sogenannte Freunde zu verlieren, wenn sie Schwächen eingestehen. Also fressen sie Probleme in sich hinein und das Problem verstärkt sich im Laufe der Zeit. „Sie werden immer introvertierter und vertrauen sich viel weniger Leuten an, weil sie Angst haben, dass sie ihren Status verlieren. Mir der App sollen die Jugendlichen spielerisch umgehen und eine Art Selbstdiagnosetool haben. Die App ist neutral und wertet nicht, also kann man sich ihr viel eher risikolos anvertrauen“, erklärt Dagmar Schuller.

Die App schlägt dann gegebenenfalls vor, professionelle Hilfe zu suchen und „die Jugendlichen müssen sich keine Sorgen machen, dass es ihnen irgendjemand übel nimmt. Ziel ist es, die App mit Therapiezentren zusammenzuschließen, wodurch dann die Möglichkeiten bestehen werden, dass Therapeuten frühzeitig eingreifen können, die auch aktiv die Jugendlichen kontaktieren können.“

„Gemeinsam wollen wir durch ausreichende Stich- und Fallzahlen und Patientendaten, die wir bekommen, das System so weit trainieren, dass es die Frühindikatoren automatisiert erkennt, die dann unmittelbar für den klinischen Betrieb genutzt werden können.“ Da Patientendaten jedoch dem Datenschutz unterliegen, ist diese Hürde vor einem Einsatz noch zu nehmen. „Das ist Aufgabe der Universitäten, die zu bekommen. Unsere Aufgabe ist es, die intelligente Technologie zu liefern.“

In Arztpraxen gibt es diese Möglichkeit momentan noch nicht, da die Software im Rahmen eines gemeinsamen Projekts mit psychologischen Instituten der Ludwig-Maximilians-Universität München und der University of Exeter noch getestet wird. „Die machen die gesamten klinischen Studien, bei denen es nicht nur um Frühdiagnose geht, sondern auch um frühe Interventionen“, so Schuller. Ziel ist eine intelligente Gesundheits-App besonders für Jugendliche, die am häufigsten von Burnout und Depression betroffen sind.

So kann die App, die in den kommenden zwei bis drei Jahren als Beta-Version verfügbar sein sollte, vielleicht sogar Selbstmorde verhindern und chronischen Depressionen vorbeugen, die sonst nur medikamentös therapierbar sind. „Das ist das Hauptziel des Projekts und wird daher auch von der EU gefördert.“

Weiterlesen: Münchner Startup auf den Spuren von Star Trek

Foto: Pixabay