Ungewollte Aktivierung :
Netflix weckt smarte Lautsprecher auf
Smarte Lautsprecher sind doch nicht so smart: Sie lassen sich nicht nur mit festgelegten Aktivierungswörten wecken, sondern auch mit Gesprächsfetzen, die ähnlich klingen. Das haben Forscher nun belegt.
Netflix-Serien führen zur ungewollten Aktivierung von smarten Lautsprechern. Zu dieser Erkenntnis sind Wissenschaftler der Northeastern University in Boston, Massachusetts, und des Imperial College in London gekommen. Die Forscher wollten belegen, was viele bereits vermuteten: Sprachassistenten reagieren auf Gesprächsfetzen, die den von den Herstellern vorgesehenen Aktivierungswörtern ähneln. Sie schalten sich also ungewollt ein und hören mit.
Im Zuge der Untersuchung wurden Amazons Echo Dot, Apples Home Pod, Googles Home Mini sowie Harmans Kardons Invoke mit dialoglastigen Serien des Streamingdienstes Netflix beschallt. Dazu zählten unter anderem "Gilmore Girls", "The Office", "Grey’s Anatomy" und "The Big Bang Theory". In 24 Stunden reagierten die Geräte durchschnittlich zwischen 1,5 und 19 Mal auf bestimmte Phrasen und begannen, aufzuzeichnen.
Home Pod und Alexa reagieren auf Netflix-Serien
Als besonders aktivierungsfreudig stellt sich der Home Pod heraus. Apples Lautsprecher, der eigentlich nur auf "Hey Siri" hören soll, löst auch bei "He clearly", "They very", "Hey sorry", "Okay, yeah", "And seriously", "Hi Mrs", "Faith’s funeral", "Historians", "I see", "I'm sorry" und "They say" aus.
Home Mini gehörte zusammen mit dem Echo Dot zu den Speakern, die im Test weniger häufig mit der Aufnahme starteten. Googles Gerät reagiert jedoch nicht nur auf "Hey Google", sondern auch auf "Okay, and what", "I can work", "What kind of", "Okay, but not", "I can spare" und "I don’t like the cold". Und Amazons digitale Sprachassistentin Alexa ist auf ihren Namen sowie "Amazon", "Echo", "Computer" programmiert, lässt sich aber auch mit "Kevin’s car","congresswoman", "back to" und "a ghost" wecken. Außerdem interpretiert sie "Cash transfers", "I’m saying" oder "my pants on" falsch.
Einen Beweis dafür, dass die Geräte ihre Nutzer heimlich überwachen, haben die Forscher nicht gefunden. Zwar sind die Mikrofone permanent eingeschaltet, um das Aktivierungsworts erkennen zu können. Eine Aufzeichnung und damit eine Verbindung zum Server wird jedoch erst dann hergestellt, nachdem das entsprechende Wort gefallen ist. Oder eben ein ähnlich klingendes.
UPDATE:
Amazon hat inzwischen eine Stellungnahme zu den Ergebnissen der Studie herausgegeben. Darin heißt es:
"Kunden sprechen mit Alexa Milliarden Male im Monat. In seltenen Fällen kann es dazu kommen, dass Echo-Geräte aufgrund eines Wortes in einer Hintergrundkonversation aufwachen, das sich ähnlich wie 'Alexa' oder eines der anderen wählbaren Aktivierungsworte anhört. Unsere Erkennung des Aktivierungswortes sowie der Sprache wird auf Grundlage ihres Designs täglich besser. Wir investieren stetig in die weitere Verbesserung unserer Technologie zur Aktivierungswort- und Spracherkennung und innerhalb des letzten Jahres hat sich die Erkennung des Aktivierungswortes um 50 Prozent verbessert. Sprache ist nuanciert und variiert je nach Kontext und Umgebung stark. Für eine zuverlässige Funktionsweise trainieren wir unsere maschinellen Lernsysteme daher mittels realer Daten."
Außerdem weißt Amazon darauf hin, dass ein "visueller oder akustischer Indikator" dem Nutzer signalisiert, ob das Gerät Audiodaten aufzeichnet. Kunden können die mit ihrem Konto verknüpften Aufzeichnungen in ihrem Sprachaufnahmen-Verlauf überprüfen und löschen, heißt es.