MISE À JOUR : Depuis la publication d’iOS 13.2, Apple demande l’accord des utilisateurs pour son programme de vérification par des humains. Apple permet aussi de supprimer tous les enregistrements vocaux de Siri. Les images ci-dessous ont été actualisées.

En septembre 2019, Google a repris son programme de vérification par des humains pour Google Home, désormais en demandant l’accord des utilisateurs et utilisatrices.

Consultez les détails ci-dessous pour savoir comment modifier vos paramètres.



Si vous avez un assistant vocal chez vous ou sur votre téléphone, vous êtes-vous déjà demandé·e si un employé de l’entreprise pouvait écouter vos enregistrements vocaux ?

L’actualité des derniers jours confirme ces craintes.

Fin juillet, le Guardian a révélé que des employés d’Apple écoutaient régulièrement des enregistrements de moments extrêmement privés, tels que des conversations avec des médecins, des relations sexuelles et d’autres encore. Bien que cette initiative ait été mise en place comme une mesure de contrôle de la qualité, les utilisateurs et utilisatrices ne savaient probablement pas qu’une partie de ce qu’ils prononçaient était enregistré et écouté par des humains.

Depuis lors, Apple a temporairement suspendu son programme de contrôle humain. Google a été contraint de suspendre son propre programme de contrôle dans l’Union européenne et Amazon offre désormais aux utilisateurs et utilisatrices la possibilité de ne pas participer.

Mozilla a élaboré un guide pour vous aider à modifier vos paramètres de vie privée sur les assistants vocaux.

Quels assistants vocaux procèdent à un contrôle humain des enregistrements
Amazon Alexa : désactiver les écoutes
Google Home : désactiver les écoutes
Siri d’Apple : désactiver les écoutes

Malgré ces paramètres de vie privée supplémentaires, ces programmes soulèvent toujours un certain nombre de préoccupations qui n’ont pas encore été résolues. Certaines de ces préoccupations sont :

  1. Pour les utilisateurs et utilisatrices qui n’ont pas refusé l’écoute, les employés d’Amazon et de Google écoutent toujours un petit pourcentage d’enregistrements provenant d’assistants vocaux intelligents. Malgré les efforts déployés pour rendre ces données anonymes, ces enregistrements peuvent contenir des informations sensibles et personnellement identifiables. Apple explique bien comment les données des utilisateurs sont stockées et analysées si les utilisateurs donnent leur accord, mais Apple a également un programme de vérification par des humains qui, même avec de grandes précautions prises pour l’anonymisation des données, pourrait laisser des employés accéder à des extraits d’enregistrements vocaux contenant des informations personnellement identifiables.
  2. Dans de nombreux cas, les enregistrements ont été réalisés sans que personne ne prononce le mot déclencheur (« OK Google ») ou parce qu’on a dit quelque chose qui ressemblait au mot déclencheur (comme « Syrie », activant Siri d’Apple). Les gens ne savaient peut-être pas qu’ils étaient enregistrés une fois que l’appareil avait été activé pour écouter.
  3. Jusqu’aux révélations récentes sur cette question, ces programmes d’analyse n’étaient pas clairement divulgués aux utilisateurs et utilisatrices. Certains, comme Amazon, ne permettaient pas aux personnes de choisir de participer ou non. De plus, de nouvelles informations continuent à être publiées, à savoir que d’autres sociétés, telles que Facebook, ont également recours à l’analyse humaine d’autres types de contenus vocaux sans informer clairement au préalable. Ce qui soulève des questions sur ce à quoi devrait ressembler un consentement significatif quand les données des personnes sont utilisées pour entraîner un modèle qui permet d’améliorer le produit.

Nous suivrons l’évolution de la question et, bien entendu, nous plaiderons en faveur de plus de transparence et d’une protection renforcée de la vie privée dans des publications telles que notre guide Confidentialité non incluse, entre autres. Mais en attendant, il est important que les consommateurs comme vous sachent comment définir les paramètres de confidentialité de leur propre assistant vocal.

Après avoir modifié vos paramètres, pourriez-vous utiliser les boutons de partage ci-dessous pour partager notre infographie avec vos amis et votre famille ?


Sur le même sujet