YouTube est le deuxième site web le plus visité au monde et son algorithme est à l’origine de la plupart des vues de vidéos sur YouTube. Une précédente étude de Mozilla a déterminé que les internautes se font régulièrement recommander des vidéos qu’ils et elles ne souhaitent pas voir, notamment pour ce qui est des contenus violents, des propos haineux ou de la désinformation politique.

D’après YouTube, les internautes peuvent gérer les recommandations et les résultats de recherche grâce aux outils dédiés aux retours proposés par la plateforme, mais des internautes nous ont indiqué ne pas avoir l’impression de pouvoir contrôler leur utilisation de l’algorithme YouTube. Nous avons interrogé 2 757 participant·e·s sur leur sentiment de contrôle par rapport à la plateforme. Nous avons découvert que de nombreuses personnes estiment que leurs actions n’ont aucun effet sur les recommandations YouTube.

Pour tester si ces expériences sont étayées par des données, nous avons évalué l’efficacité de ces contrôles pour de véritables utilisateurs et utilisatrices de la plateforme. Grâce à l’outil de recherche de Mozilla RegretsReporter, 22 722 personnes ont fourni des données sur leurs interactions avec YouTube. Cette étude représente le plus grand audit expérimental de YouTube par des chercheurs et chercheuses indépendant·e·s, basé sur des données participatives.

Nous avons examiné ce qu’il advenait des vidéos recommandées par les internautes ayant utilisé l’un des outils permettant d’envoyer des commentaires sur YouTube, à savoir les boutons comme « Je n’aime pas » et « Ne pas recommander la chaîne ». Entre décembre 2021 et juin 2022, les participant·e·s à RegretsReporter ont partagé avec nous 567 880 195 vidéos recommandées. En collaboration avec des chercheurs et chercheuses de l’Université d’Exeter, nous avons utilisé un modèle d’apprentissage automatique que nous avons créé pour analyser la similarité des vidéos. Grâce à cette approche, nous avons pu étudier l’effet des outils de YouTube sur les recommandations de vidéos pour les véritables utilisateurs et utilisatrices de la plateforme.

Dans ce rapport, nous décrivons les enseignements que nous avons tirés de nos recherches en utilisant les données de RegretsReporter. Au travers d’études qualitatives et quantitatives complémentaires, nous avons déterminé que :

  1. Les internautes ont le sentiment que les contrôles d’utilisation de YouTube ne modifient en rien leurs recommandations. Nous avons appris que de nombreuses personnes adoptent une approche basée sur des essais/erreurs pour contrôler leurs recommandations, avec un succès relatif.
  2. Les mécanismes de contrôle d’utilisation de YouTube sont inefficaces pour empêcher les recommandations indésirables. Nous avons constaté que les contrôles d’utilisation de YouTube influencent ce qui est recommandé, mais cet effet est faible et la plupart des vidéos indésirables passent toujours entre les mailles du filet.

Dans ce rapport, nous fournissons quelques exemples de vidéos qui ont été recommandées après que des participant·e·s à RegretsReporter ont utilisé les outils de retours de YouTube. Par exemple, une personne a demandé à YouTube d’arrêter de lui recommander des vidéos sur les armes à feu, mais s’est vue recommander peu de temps après davantage de contenus sur les armes à feu. Une autre personne a demandé à YouTube d’arrêter de lui recommander des vidéos pour devenir riche rapidement grâce aux cryptomonnaies, mais YouTube lui a recommandé une autre vidéo sur les cryptomonnaies.

Dans ce rapport, nous fournissons également un ensemble de recommandations à YouTube et aux responsables politiques. Ces recommandations incluent les éléments suivants :

  1. Les contrôles d’utilisation de YouTube devraient être compréhensibles et faciles d’accès. Les internautes devraient disposer d’informations claires sur les mesures à prendre pour influencer leurs recommandations, et devraient être encouragé·e·s à utiliser ces outils.
  2. YouTube devrait repenser ses outils dédiés aux retours de façon à laisser les internautes prendre le contrôle. Les outils dédiés aux retours devraient permettre aux internautes de personnaliser activement leur expérience, en donnant plus de poids aux retours des utilisateurs et utilisatrices dans la façon dont les vidéos sont recommandées.
  3. YouTube devrait améliorer ses outils d’accès aux données. YouTube devrait fournir aux chercheurs et chercheuses un accès à de meilleurs outils leur permettant d’identifier les signaux qui impactent l’algorithme de YouTube.
  4. La législation devrait protéger les chercheurs et chercheuses effectuant un travail d’intérêt général. Les législateurs et législatrices devraient voter de nouvelles lois et/ou clarifier des lois existantes permettant de protéger la recherche d’intérêt général.

Ce rapport comprend également des détails sur nos questions de recherche, notre méthodologie et l’analyse de nos études qualitatives et quantitatives.

Continuez à faire défiler pour
Introduction