So deaktivieren Sie die menschliche Überprüfung der Aufnahmen Ihres Sprachassistenten

Von Becca Ricks und Kaili Lambe | 14. August 2019 | Advocacy

UPDATE: Die Prüfung durch Menschen bei Apple geschieht seit iOS 13.2 ab sofort auf freiwilliger Basis. Außerdem haben Benutzer die Möglichkeit, ihre Siri-Sprachaufzeichnungen zu löschen. Die folgenden Grafiken wurden entsprechend aktualisiert.

Im September 2019 hat Google sein Programm der Überprüfung durch Menschen reaktiviert, diesmal mit Einwilligung des Benutzers.

Lesen Sie weiter, um herauszufinden, wie Sie Ihre Einstellungen ändern können.


Wenn Sie zu Hause oder am Telefon einen Sprachassistenten haben, hatten Sie jemals Bedenken, dass jemand aus dem Unternehmen Ihre Sprachaufzeichnungen anhören könnte?

Die jüngste Berichterstattung bestätigt diesen Verdacht.

Ende Juli berichtete The Guardian, dass Apple-Mitarbeiter regelmäßig Aufzeichnungen von äußerst persönlichen Ereignissen wie Gesprächen mit Ärzten, sexuellen Begegnungen und anderen Momenten hörten. Obwohl dies als Qualitätskontrollmaßnahme gedacht war, hatten Benutzer wahrscheinlich keine Ahnung, dass einige ihrer Äußerungen von Menschen aufgezeichnet und überprüft wurden.

Seitdem hat Apple sein menschliches Überprüfungsprogramm vorübergehend ausgesetzt. Google war gezwungen, sein eigenes Überprüfungsprogramm in der EU vorläufig einzustellen, und Amazon bietet seinen Nutzern nun die Möglichkeit, die Option zu deaktivieren.

Mozilla hat eine Anleitung zusammengestellt, mit der Sie Ihre Datenschutzeinstellungen für Sprachassistenten ändern können.

Welche Sprachassistenten verwenden die menschliche Überprüfung von Aufzeichnungen?
Amazon Alexa opt out
Google Home opt out
Apple Siri opt out

Trotz dieser zusätzlichen Datenschutzkontrollen gibt es immer noch eine Reihe von Bedenken, die von diesen Programmen aufgeworfen wurden und die noch nicht gelöst wurden. Einige dieser Bedenken sind:

  1. Für Benutzer, die diese Funktion nicht deaktivieren möchten, hören die Mitarbeiter von Amazon und Google immer noch einen kleinen Teil der Aufzeichnungen von intelligenten Sprachassistenten. Trotz der Bemühungen, diese Daten zu anonymisieren, können die Aufzeichnungen vertrauliche und persönlich identifizierbare Informationen enthalten. Apple erklärt gut, wie Benutzerdaten gespeichert und analysiert werden, wenn Benutzer sich anmelden, es gibt aber auch ein Programm mit Überprüfung durch Menschen, das Mitarbeitern trotz umfassender Vorsichtsmaßnahmen zur Anonymisierung Ausschnitte aus Stimmaufzeichnungen mit personenbezogenen Daten zugänglich machen könnte.
  2. In vielen Fällen wurden Aufzeichnungen gemacht, ohne dass jemand das Weckwort sagte („Hey Google“) oder weil er etwas sagte, das dem Weckwort ähnelte (wie „Syrien“ – was Apples Siri anspricht). Einige Menschen wussten wohl nicht, dass ihre Worte aufgenommen wurden, als die Aufzeichnungsfunktion des Gerätes aktiviert wurde.
  3. Bis zur jüngsten Berichterstattung zu diesem Problem wurden diese Überprüfungsprogramme den Nutzern nicht eindeutig mitgeteilt, und einige wie Amazon gaben den Nutzern nicht die Möglichkeit, diese Option zu deaktivieren. Darüber gibt es auch weiterhin Berichte, dass andere Unternehmen wie Facebook ohne vorherige Offenlegung auch eine Überprüfung der Sprachinhalte von Nutzern durch den Menschen durchführen. Dies wirft Fragen auf, wie eine sinnvolle Einwilligung aussehen sollte, wenn die Daten von Personen verwendet werden, um ein Modell zur Verbesserung des Produkts zu trainieren.

Wir werden die Entwicklungen zu diesem Thema weiter verfolgen und uns natürlich für eine Offenlegung und einen stärkeren Schutz der Privatsphäre durch Publikationen wie unserem Leitfaden Datenschutz nicht inbegriffen. In der Zwischenzeit ist es wichtig, dass Kunden wie Sie wissen, wie die Datenschutzeinstellungen für Ihren eigenen Sprachassistenten geändert werden können.

Wenn Sie Ihre eigenen Einstellungen geändert haben, teilen Sie dann die Grafiken mithilfe der folgenden Schaltflächen mit Ihren Freunden und Ihrer Familie?