Christopher Lentzsch (C) RUB

Mit den Sprachbefehlen “Alexa Skills” können User zahlreiche Extrafunktionen auf ihren Amazon-Sprachassistenten laden. Doch die bringen nicht nur Vorteile mit sich, sondern bergen oftmals Sicherheitslücken und Datenschutzprobleme. Das wies ein Forschungsteam des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum (RUB) und der North Carolina State University nach. Ihre Arbeit präsentierten sie auf der Konferenz “Network and Distributed System Security Symposium (NDSS)” am 24. Februar 2021.

In ihrer Studie haben die Wissenschaftler um Christopher Lentzsch und Dr. Martin Degeling, laut Pressebericht der RUB, erstmalig das Ökosystem der Alexa Skills untersucht. Diese Sprachbefehle werden nicht nur vom US-amerikanischen Tech-Unternehmen Amazon selbst, sondern auch von externen Anbietern entwickelt. User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten diese.

Signifikante Mängel

Dabei stellten sie signifikante Mängel für eine sichere Nutzung fest. “Ein erstes Problem besteht darin, dass Amazon die Skills seit 2017 teilweise automatisch aktiviert. Früher mussten User der Nutzung jedes Skills zustimmen. Nun haben sie kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt, und wer diese überhaupt programmiert hat”, erklärt Dr. Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. Dabei sei leider häufig unklar, wann welcher Skill angesteuert werde. Wer Alexa zum Beispiel um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen. Welcher dafür automatisch ausgewählt wird, ist nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.

“Wir konnten außerdem nachweisen, dass Skills unter falschem Namen veröffentlicht werden können. So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall”, so Martin Degeling. Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch dieses sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.

Phishing auch über Sprachassistenten

“In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden”, erklärt der Forscher. Wenn also ein Automobilanbieter für sein Smart-System im Auto beispielsweise noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreiferinnen und Angreifer dies unter seinem Namen tun. “Sie können das Vertrauen der User in den bekannten Namen und in Amazon ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen”, so Degeling. Kriminelle können aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzerinnen und Nutzer aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.

Mangelhafte Datenschutzerklärungen

Zusätzlich zu diesen Sicherheitsrisiken wies das Forscherteam außerdem erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills nach. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy, in den besonders sensiblen Bereichen “Kids” und “Gesundheit und Fitness” sogar noch weniger. “Gerade hier sollte es starke Nachbesserungen geben”, so Degeling.

Amazon hat einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet nach eigenen Angaben an Gegenmaßnahmen.

Originalveröffentlichung: https://www.alexa-skill-analysis.org/#paper

Technische Details und die wissenschaftliche Originalarbeit stellen die Forscher auf der Website www.alexa-skill-analysis.org zur Verfügung.

Werden Sie Mitglied!

Auf Innovation Origins können Sie täglich die neuesten Nachrichten über die Welt der Innovation lesen. Wir wollen, dass es so bleibt, aber wir können es nicht allein tun! Gefallen Ihnen unsere Artikel und möchten Sie den unabhängigen Journalismus unterstützen? Dann werden Sie Mitglied und lesen Sie unsere Geschichten garantiert werbefrei.

Über den Autor

Author profile picture Arnoud Cornelissen schreibt schon seit Jahren u.a. in verschiedenen niederländischen Zeitungen über Wissenschaft und Technologie.