Voici une synthèse du TikTok Observatory, lauréat du Mozilla Technology Fund, et de son action au cours de l’année écoulée.


De la synchronisation labiale de Bella Poarch avec M to the B à l’illusion Harry Potter de Zach King, en passant par la vidéo How to open a car door de Khaby Lame, TikTok s’est imposé comme une plateforme de divertissement inégalée.

Mais TikTok n’est pas qu’une plateforme conviviale. En 2020, The Intercept a dénoncé la « censure invisible » de TikTok, également appelée « shadow banning ». Les contenus de personnes jugées « pauvres », « laides » ou portant atteinte à « l’honneur national » de la Chine étaient supprimés et n’apparaissaient pas dans le flux « Pour vous » de la plateforme.

Tracking Exposed, organisme de surveillance des algorithmes et lauréat du Mozilla Technology Fund, enquête sur les systèmes de recommandation opaques et influents tels que TikTok. Dans le passé, ils ont étudié Pornhub, YouTube et Facebook. Lorsque Tracking Exposed a décidé d’étudier TikTok via le TikTok Observatory, son objectif était de se pencher sur le shadow banning, en particulier en ce qui concerne les contenus politiques.

« Le TikTok Observatory a développé l’infrastructure nécessaire pour enquêter sur les contenus recommandés et rétrogradés dans le flux ’Pour vous’ - voilà l’idée de départ », explique Marc Faddoul, codirecteur de Tracking Exposed.

Pourquoi TikTok ? Outre le fait qu’il s’agit d’un nouveau service, Marc Faddoul affirme que TikTok n’a pas fait l’objet de beaucoup de recherches, et que la plateforme s’efforce de faire en sorte qu’il en soit ainsi. Sur des plateformes comme YouTube et Facebook, par exemple, une interface de programmation d’application (API) permet aux chercheuses et chercheurs d’exploiter les données d’activité de la plateforme, même si elles sont limitées. TikTok ne le permet pas.

Le TikTok Observatory a développé l’infrastructure nécessaire pour enquêter sur le contenu recommandé et rétrogradé dans le flux « Pour vous ».

Mark Faddoul, TikTok Observatory

Les recherches sur le shadow banning n’ont donc pas été simples. Le système de recommandation de TikTok, un élément clé de l’enquête, est hautement personnalisé et dépend du lieu, de l’heure et d’autres variables, ce qui a rendu difficile la recherche de tendances. Marc Faddoul explique qu’il a fallu trouver un moyen astucieux de contrôler l’expérience en utilisant de nombreux comptes différents.

Bien que le shadow banning lié à la politique chinoise soit ce qu’ils avaient l’intention d’étudier, la guerre entre la Russie et l’Ukraine leur a donné l’occasion d’examiner quels contenus étaient recommandés aux audiences de ces pays également.

Ce qu’ils ont découvert était plus surprenant que prévu et a donné lieu à trois rapports.

« Le premier rapport révélait que TikTok avait bloqué les contenus internationaux pour tous ses utilisateurs en Russie, ce qui était une décision spectaculaire à l’époque », explique Marc Faddoul. « TikTok, surtout au début de la guerre, était l’un des rares endroits où la dissidence contre le Kremlin se faisait entendre en Russie et où l’information circulait encore assez librement. »

Selon le rapport, « TikTok avait annoncé son intention de ne pas autoriser la publication de nouveaux contenus en réponse à la loi russe qui faisait de la diffusion de ’fake news’ sur l’armée russe un crime passible de 15 ans de prison, mais TikTok n’a pas annoncé avoir interdit tous les comptes étrangers pour les utilisateurs en Russie. »

« Ce n’est qu’après notre enquête, lorsque les journalistes ont commencé à leur poser des questions, que TikTok a reconnu avoir agi de la sorte », explique Marc Faddoul.

Même si TikTok a déclaré qu’aucun nouveau contenu ne serait autorisé sur la plateforme en Russie, il y avait une faille. Le deuxième rapport s’est penché sur le type de contenu qui pouvait être diffusé.

« Il est apparu qu’avant l’interdiction, la majorité des contenus étaient opposés à la guerre et soutenaient le camp ukrainien en Russie », explique Marc Faddoul. « Cependant, après l’interdiction, seuls les contenus pro-Kremlin étaient diffusés. Nous avons donc vu comment cette interdiction a non seulement limité la capacité des dissidents à exprimer leurs préoccupations ou leur point de vue sur TikTok, mais a également permis à la propagande de se poursuivre. »

Le troisième et dernier rapport est peut-être le plus surprenant, car il traite d’un tout nouveau phénomène : le contenu qui apparaissait comme bloqué lorsque vous visitiez la page d’un créateur ou d’une créatrice était toujours promu dans le flux « Pour vous ».

« Il s’agissait d’un phénomène sans précédent que nous avons appelé ’shadow promotion’ (ou ’promotion fantôme’), par opposition au ’shadow banning’ (’bannissement fantôme’) », explique Marc Faddoul. « C’était le contraire. Un contenu semblait être interdit sur la plateforme si vous y accédiez directement, mais il était en réalité toujours promu par le système de recommandation. »

Selon le rapport, la promotion fantôme est une nouvelle découverte qui n’existait pas au moment des première et deuxième enquêtes.

« Ce dernier rapport sur la promotion fantôme appelle à un examen plus approfondi et à une plus grande transparence de TikTok, notamment en ce qui concerne son rôle en Russie à la lumière de la guerre en Ukraine », peut-on lire dans le rapport. « Cela montre également en quoi les efforts de transparence de TikTok ne sont pas à la hauteur des normes internationales établies par la loi sur les services numériques de l’UE et la future loi sur l’intelligence artificielle de l’UE. »

Au vu des conclusions de ces trois rapports, il est plus clair que jamais que TikTok doit ouvrir sa plateforme aux chercheurs et chercheuses.

« TikTok a toujours fait preuve d’un manque de transparence en ce qui concerne ses politiques », ajoute Marc Faddoul. « Cela justifie une fois de plus la nécessité d’un contrôle externe, mais nous aimerions que l’entreprise soit également plus coopérative et plus franche. »

Marc Faddoul espère que la législation apportera plus de transparence.

« Il n’existe aucun moyen d’étudier l’application de manière quantitative ou d’analyser le système de recommandation », explique-t-il. « La loi sur les services numériques (DSA) pourrait obliger la plateforme à mettre en place une API, mais les détails des données qui seront fournies et les conditions d’accès ne sont pas clairs. »

Quelle est la prochaine étape ? En 2023, Tracking Exposed s’efforcera de rendre sa technologie plus robuste afin que d’autres enquêteurs et organisations puissent l’utiliser.

« Nous pensons que le moyen le plus efficace d’accroître la surveillance publique de TikTok est de développer et de distribuer une technologie en libre accès permettant un éventail diversifié de perspectives représentées dans les travaux de recherche », conclut Marc Faddoul.

L’équipe prévoit également d’organiser des ateliers de formation à l’utilisation de sa technologie, en particulier pour les communautés les moins représentées. Elle créera également une interface qui affichera en temps réel le contenu des tendances dans le monde entier.