„Wann schließt der Supermarkt heute?“, „Soll es in der nächsten Stunde regnen?“, „Ruf Mama an.“ – Solche Fragen und Befehle sprechen wir ohne groß darüber nachzudenken in den Lautsprecher digitaler Sprachassistenten. Amazons „Alexa“, Googles „Google Now“ oder Apples „Siri“ führen Befehle aus und beantworten Fragen – mit dem Ziel, dem Nutzer den Alltag zu erleichtern. Was wir dabei selten bedenken, ist: Wir bezahlen dafür mit unseren Daten, denn diese werden von den Systemen aufgezeichnet, gespeichert und verknüpft.
Der ständig lauschende Mitbewohner
„Alexa“, „Ok Google“, und „Hey Siri“ – diese Stichwörter aktivieren die Sprachassistenten. Die Raummikrofone sind ständig aktiv; sie hören in der Regel alles, denn sie lauschen unentwegt auf ihr Aktivierungssignal. Bei Amazon Echo und Dot leuchtet nach der Erkennung des Signalwortes ein blauer Ring an der Oberseite auf; laut Amazon beginnt erst damit die Aufzeichnung der Umgebungsgeräusche. Im Netz vermuten Nutzer, dass aufgrund der Bauweise der Geräte eine Aufzeichnung vor dem Signalwort nicht möglich ist. So sei bei Amazon-Geräten ein Chip ausschließlich für das Lauschen nach Signalwörtern zuständig. Nur wenn diese erkannt würden, aktiviere dieser Chip einen zweiten, der für Aufzeichnung und Speicherung zuständig sei. Problematisch scheint allerdings, dass besonders Amazon-Geräte auch auf mit Signalwörtern verwandte Begriffe (bspw. „Alexander“ zu „Alexa“) reagieren und dann ungewollt Gespräche aufzeichnen.
Was passiert mit den Aufzeichnungen?
Datenschützer sehen neben der ständigen Lauschbereitschaft vor allem den Umgang mit den Sprachbefehlen kritisch. Die Systeme verarbeiten nämlich nur das Signalwort lokal, die eigentliche Intelligenz steckt in der Cloud bzw. auf dem Server der Anbieter. Sprachbefehle werden dort analysiert, bestmöglich beantwortet und – auf unbestimmte Zeit – gespeichert. Dadurch soll der Sprachassistent den Nutzer nach und nach besser kennen und verstehen lernen. Laut Anbieter werden die so erhobenen Daten nicht mit anderen Daten verknüpft oder weitergegeben. Nichtsdestotrotz bedenklich: Die Daten lagern oft auf Servern im Ausland; dortige Datenschutzrichtlinien sind meist weniger streng als in Deutschland. Auch die Hersteller von mit Sprachassistenten verbundenen Geräten, wie beispielsweise Smart-TVs, können Daten sammeln, über die Sie wenig bis keine Kontrolle haben.
Wenn Siri, Alexa und Google Now auf Fremde hören
Es wird kurios: Wissenschaftler einer chinesischen Universität haben herausgefunden, dass die digitalen Sprachassistenten mithilfe von unhörbaren Ultraschall-Befehlen kontrolliert werden können. Mithilfe eines Programms formten die Forscher normal gesprochene Befehle so um, dass das menschliche Ohr sie nicht mehr wahrnehmen konnte. Anschließend testeten sie die modifizierten Befehle an Alexa, Siri & Co. Das Ergebnis: Die verschiedensten Geräte und Assistenten konnten überlistet werden. Da solche Angriffe laut den Forschern allerdings nur aus unmittelbarer Nähe, mit speziellem Gerät und oft nur nach erneuter Bestätigung durch die Nutzer funktionieren, scheinen sie aktuell noch wenig praktikabel. Wahrscheinlicher ist aktuell, dass Ihre Sprachassistentin aufgrund eines Werbespots Katzenfutter bestellt, wenn die Kaufoption nicht deaktiviert oder mit einem Pin-Code versehen wurde.
Wie schütze ich mich und meine Daten?
Der Umgang mit den digitalen Sprachassistenten kann zwischen simpel und herausfordernd schwanken; je nachdem, wie sehr Sie um die Sicherheit ihres Netzwerks und Ihrer Daten bedacht sind. Wenn Sie folgende Punkte beachten, sind Sie auf jeden Fall sicherer unterwegs:
Da die Sprachassistenten allesamt noch in den Kinderschuhen stecken und Kriminelle jede noch so kleine Lücke nutzen, können Datenverluste und erfolgreiche Hacks nicht gänzlich ausgeschlossen werden. Ein Rundumschutz wie der INTER CyberGuard erscheint deshalb sinnvoll.
Erfahren Sie, wie Sie der INTER CyberGuard vor Schäden durch Angriffe auf Ihre smarten Assistenten schützt: