Au cours des derniers mois, des dizaines de milliers de soutiens de Mozilla ont signé notre pétition invitant WhatsApp à en faire davantage pour protéger l’intégrité des élections, en limitant des fonctionnalités clés de la plateforme telles que le transfert et la diffusion, afin de contrôler la propagation de la désinformation et d’autres contenus préjudiciables.

Cette campagne constitue une des nombreuses actions menées par Mozilla pour inciter les grandes entreprises technologiques telles que WhatsApp à prendre des mesures significatives pour lutter contre les contenus potentiellement préjudiciables, tout en garantissant la sécurité du chiffrement.

Dans le cadre de notre campagne, nous avons posé à WhatsApp cinq questions clés sur la manière dont la société gère la plus grande année électorale jamais observée, notamment les menaces potentielles telles que la désinformation politique et les discours haineux.

Dans sa réponse, WhatsApp a partagé de nouveaux détails sur sa stratégie pour les élections de 2024, y compris des mesures telles que les restrictions de transfert et l’étiquetage des messages. Il s’agit de l’une des déclarations publiques les plus détaillées de l’entreprise concernant sa stratégie vis-à-vis des élections à ce jour.

Vous trouverez ci-dessous la réponse complète de WhatsApp à nos questions, ainsi que nos réflexions à ce sujet :

1.

Quelles sont les mesures les plus efficaces pour enrayer la propagation de la désinformation politique et d’autres contenus préjudiciables sur WhatsApp, et comment mesurez-vous leur efficacité ?

WhatsApp déclare :

Les fonctionnalités et les décisions de conception que nous prenons fonctionnent conjointement, les examiner ou les analyser de manière isolée ne permet pas d’en mesurer tout l’impact. Nous visons à minimiser les utilisations abusives du service par sa conception et nous assurons la sécurité de nos utilisateurs, tout en respectant le niveau de confidentialité et de sécurité auquel ils s’attendent lorsqu’ils utilisent WhatsApp en :

  • Concevant WhatsApp de manière à minimiser les préjudices et à empêcher les abus grâce à une technologie capable de repérer les comportements suspects.
  • Donnant le contrôle aux utilisateurs grâce à des outils et des paramètres leur permettant de personnaliser leur expérience et de se protéger contre les interactions indésirables.
  • Soutenant la mission des forces de l’ordre, des experts en sécurité, des régulateurs et des experts en vérifications de faits.

Nous avons conçu des solutions visant à limiter la viralité des messages (quel que soit leur contenu), ce qui fait de WhatsApp l’une des rares entreprises technologiques à limiter intentionnellement le partage :

  • En 2019, nous avons instauré une limite pour le transfert de messages vers seulement cinq conversations à la fois. Lorsqu’elle a été introduite, cette limite a permis de réduire de plus de 25 % le nombre de messages transférés sur WhatsApp.
  • En 2020, nous avons établi des limites supplémentaires pour les messages qui ont été transférés plusieurs fois (au moins cinq fois), de manière à ce qu’ils ne puissent être transférés qu’à une seule conversation à la fois. À l’époque, nous avons constaté une baisse de plus de 70 % de ce type de messages.
  • En mai 2022, nous avons introduit une nouvelle restriction pour les messages qui ont déjà été transférés ne serait-ce qu’une fois, de manière à ce qu’ils ne puissent être transférés qu’à un seul groupe à la fois.

Je tiens à rappeler que ces limitations s’appliquent à tous les messages transférés, puisque WhatsApp est chiffré de bout en bout et que les messages personnels sont privés, et que WhatsApp est incapable de lire les messages. Bon nombre de ces limitations empêchent les messages anodins d’être transférés, mais nous avons décidé de prendre cette mesure afin d’assurer la sécurité des utilisateurs.

Les mêmes limites de transfert s’appliquent aux canaux : vous ne pourrez transférer un message d’un canal qu’à un maximum de cinq personnes ou groupes, et ces transferts seront marqués comme provenant d’un canal avec un lien renvoyant à ce dernier. Les administrateurs de canaux peuvent également choisir de limiter les transferts provenant de leur canal.

Nous nous efforçons également de lutter contre l’utilisation abusive du service, en nous concentrant sur le comportement et le niveau du compte. WhatsApp dispose d’une technologie avancée fonctionnant 24 heures sur 24 pour repérer les comptes au comportement anormal. Plus de 8 millions de comptes sont bannis chaque mois en raison de l’envoi de messages en masse ou de manière automatisée.

  • Les partis politiques ou les candidats aux élections qui utilisent l’automatisation ou envoient des messages WhatsApp à des utilisateurs sans autorisation peuvent voir leurs comptes bannis. Actuellement, les candidats et les campagnes politiques ne sont pas autorisés à utiliser la plateforme WhatsApp Business. Dans de nombreux pays, WhatsApp s’engage avec des entités politiques avant des élections majeures pour mettre l’accent sur notre approche en matière de sécurité. Nous insistons également sur l’importance d’une utilisation responsable de WhatsApp.

Pour donner plus de contrôle aux utilisateurs, nous avons créé des outils de protection de la vie privée permettant de réduire au silence les appelants inconnus, de contrôler qui peut vous ajouter à des groupes, de quitter des groupes discrètement, de donner aux utilisateurs plus de contexte sur l’identité d’un contact inconnu lorsqu’ils reçoivent un message pour la première fois et de désactiver les liens provenant de contacts inconnus. Il s’agit là d’outils introduits plus récemment et d’exemples de la manière dont nous continuons à innover et à travailler pour assurer la sécurité des utilisateurs.

Enfin, une composante essentielle de notre approche consiste à donner aux utilisateurs les moyens de se connecter à des sources fiables et à leur rappeler comment repérer la désinformation.

  • Nous nous efforçons de responsabiliser les utilisateurs non seulement par le biais de campagnes et d’outils (tels que les étiquettes « Transférer » ou l’outil de recherche sur le web), mais aussi par le biais de partenariats.
  • WhatsApp a lancé des partenariats, des campagnes d’éducation à grande échelle et des collaborations pour lutter contre la désinformation dans plusieurs pays, notamment avec la Misinformation Combat Alliance (MCA) en Inde, le projet Internet Sehat en Indonésie et à la radio au Nigéria. En 2020 et 2022, WhatsApp a collaboré avec le chatbot de la Superior Electoral Court (TSE) au Brésil, et au Mexique cette année à l’approche des élections.
  • Aide à la vérification des faits : nous nous sommes associés à l’International Fact-Checking Network pour mettre à disposition des vérificateurs de faits certifiés sur WhatsApp, y compris sur les canaux de diffusion. Cela permet des vérifications directes des faits via une messagerie chiffrée de bout en bout, et permet aux vérificateurs de faits d’atteindre un public plus large via les canaux de diffusion. Grâce à ce partenariat, des organisations de vérification des faits dans près de 50 pays utilisent WhatsApp pour aider à communiquer aux utilisateurs des informations fiables.

Qu’en pense Mozilla ?

WhatsApp affirme qu’un élément clé de son approche de la lutte contre la désinformation consiste à essayer d’empêcher le contenu de devenir viral sur sa plateforme chiffrée, grâce à des mesures de restriction telles que des limites de transfert et des bannissements de comptes. L’entreprise a également fourni des données concrètes sur l’impact de ces mesures, faisant état d’une baisse significative du nombre de messages fortement transférés, ainsi que de millions de comptes bannis chaque mois. WhatsApp affirme que ces restrictions contribuent à la sécurité des utilisateurs, bien que la société se soit fermement opposée à notre appel à les renforcer pendant les élections (voir le point 2 ci-dessous).

Nous aurions souhaité obtenir davantage d’informations de la part de WhatsApp sur les mesures spécifiques prises pour empêcher les acteurs politiques d’utiliser sa plateforme à mauvais escient, une préoccupation majeure soulevée par Mozilla dans le cadre de nos recherches sur les plateformes et les élections. Par exemple, comment WhatsApp collabore-t-elle avec les organismes officiels et les acteurs politiques avant les élections ? Comment cette approche diffère-t-elle d’un pays à l’autre ? Et, lorsque les partenaires de son service de vérification des faits (et d’autres groupes de la société) tirent la sonnette d’alarme sur les campagnes de désinformation, comment WhatsApp agit-elle ? Cette question est particulièrement cruciale pour les pays où WhatsApp compte un grand nombre d’utilisateurs, comme en Inde où près d’un demi-milliard de personnes utilisent l’application.

Il est évident que WhatsApp agit beaucoup en coulisses sur cette question et que la société ne peut pas communiquer publiquement (bien entendu, comme la société le souligne, sa plateforme est chiffrée et incapable de lire les messages). Mais le fait de partager plus d’informations à ce sujet nous aurait aidés à comprendre l’approche de WhatsApp pour mettre fin aux activités des acteurs malveillants sur sa plateforme.

2.

WhatsApp envisagerait-elle d’ajouter des contraintes supplémentaires à la transmission des messages pendant les élections, dans le but d’empêcher la propagation de la désinformation et d’autres contenus préjudiciables ?

WhatsApp déclare :

Au fur et à mesure du développement de WhatsApp, nous devons tenir compte de la facilité d’utilisation au quotidien et de la nature internationale du service.

  • Premièrement, l’ajout de contraintes supplémentaires au service aurait un impact encore plus important sur les messages anodins, ce qui, nous le savons, est déjà le cas avec nos mesures existantes, mais nous avons adopté cette approche de pointe pour contribuer à la sécurité des utilisateurs. Nous sommes convaincus que notre approche actuelle permet de concilier la facilité d’utilisation du service et la sécurité.
  • Deuxièmement, il est difficile de faire coïncider les interventions avec des événements spécifiques d’un point de vue mondial. Comme vous le savez, il y a des élections dans plus de 60 pays cette année, ce qui rend difficile l’ajustement des fonctionnalités pour un sous-ensemble d’utilisateurs d’un point de vue technique et politique. Par exemple, au niveau le plus élémentaire, le fait de fixer des limites aux utilisateurs d’un pays n’engloberait pas les utilisateurs qui envoient des messages depuis l’étranger ; certains électeurs résident à l’étranger et la définition d’une période électorale varie selon les utilisateurs.
  • Enfin, dans un certain nombre de pays, nous disposons également d’une fonction de « recherche sur le web » qui permet aux utilisateurs de vérifier facilement les informations virales (contenues dans les messages transférés en masse). Cette fonction est disponible toute l’année et les utilisateurs n’ont qu’à appuyer sur le bouton de la loupe qui apparaît dans la conversation pour obtenir plus d’informations sur un message.

Les données ci-dessus illustrent l’impact significatif des limites que nous avons déjà imposées sur la réduction de la viralité des messages transférés en masse. Nous sommes convaincus que notre approche globale actuelle permet d’équilibrer la facilité d’utilisation du service et la sécurité.

Qu’en pense Mozilla ?

Dans le cadre de notre campagne, nous avions demandé à WhatsApp d’ajouter une étape de « pause et réflexion » avant le transfert des messages pendant les élections, en tant que mesure temporaire pouvant contribuer à ralentir la propagation de la désinformation et d’autres contenus nuisibles sur la plateforme. Nous nous sommes appuyés sur les recommandations du nouveau rapport de Mozilla sur les élections et les plateformes en ligne, dont les conclusions montrent que ces contenus se propagent rapidement sur des plateformes telles que WhatsApp pendant les élections, dans de nombreux cas par le biais de messages transférés.

Cependant, WhatsApp n’est tout simplement pas prête à franchir cette étape. La société affirme que toute restriction supplémentaire sur le transfert de messages perturberait l’équilibre délicat que la société tente de trouver entre la facilité d’utilisation et la sécurité. Elle ajoute qu’il serait tout simplement trop difficile, d’un point de vue technique, d’imposer des restrictions dans certains pays pendant les élections nationales, et que de telles mesures ne seraient pas efficaces.

Il s’agit d’une problématique délicate et complexe, et il est important de souligner que certains des arguments avancés par WhatsApp sont pertinents : les défis techniques et politiques à relever sont certes considérables. Ils ne sont toutefois pas insurmontables. WhatsApp est l’une des entreprises technologiques les plus importantes et les mieux dotées en ressources au monde. Si la société le souhaitait, elle serait certainement en mesure de renforcer ou d’assouplir les restrictions techniques qu’elle impose déjà à ses utilisateurs dans le monde entier, de les adapter à différents pays (comme le dit la société, « en ajustant les fonctionnalités pour un sous-ensemble d’utilisateurs ») ou d’introduire des mesures temporaires telles qu’une pause avant le transfert d’un message.

L’argument principal de WhatsApp est que ses restrictions actuelles sur le transfert de messages sont suffisantes pour protéger les utilisateurs de la désinformation et d’autres contenus nuisibles. Il nous est toutefois difficile de juger des mérites de cet argument sans en savoir plus sur les critères de réussite et d’échec de la société. En d’autres termes, comment WhatsApp juge-t-elle exactement si ses mesures existantes ont réussi à perturber les campagnes de désinformation délibérées et à contrôler la diffusion d’autres contenus préjudiciables sur sa plateforme chiffrée ? Par exemple, la société ne tient-elle compte que de la baisse du nombre de messages transférés, comme elle le laisse entendre ci-dessus ? Se base-t-elle sur les informations fournies par les vérificateurs de faits qui utilisent sa plateforme dans différents pays ? À moins que WhatsApp ne publie davantage d’informations, nous ne pouvons que spéculer.

3.

WhatsApp pourrait-elle envisager de modifier le libellé des étiquettes afin d’inciter les utilisateurs à vérifier les messages transférés en masse ?

WhatsApp déclare :

WhatsApp compte plus de 2 milliards d’utilisateurs à travers le monde et nos chercheurs ont travaillé sur la manière la plus simple et la plus efficace d’indiquer qu’un message est moins personnel et qu’il ne provient probablement pas d’un contact proche. Plusieurs modèles ont été testés dans différents pays et nous avons constaté que l’utilisation de mots plus complexes peut réduire l’efficacité des messages, en particulier pour les populations à faible niveau d’alphabétisation. C’est pourquoi les messages transférés en masse sont marqués d’une double flèche pour indiquer qu’ils ne proviennent pas d’un contact proche et que, dans certains cas, ils peuvent contenir de fausses informations.

Il est important de comprendre que nos limitations de transmission et notre étiquetage fonctionnent conjointement, qu’ils ne sont pas isolés. L’un des problèmes posés par les recherches qui étudient ces mesures de limitation séparément est qu’elles ne reconnaissent pas l’efficacité de l’association des deux en créant une prise de conscience et des contraintes lorsqu’un utilisateur se demande s’il doit ou non transmettre un message.

Qu’en pense Mozilla ?

WhatsApp a clairement indiqué que sa fonction « Transféré plusieurs fois » a été mise en place pour ralentir la propagation des « rumeurs, des messages viraux et de la désinformation » (comme indiqué sur son site web). Mais cela n’est pas vraiment clairement indiqué dans l’étiquetage que les utilisateurs obtiennent lorsqu’ils utilisent l’application. WhatsApp affirme avoir testé un certain nombre de versions différentes de ces étiquettes, y compris dans des contextes de faible niveau d’alphabétisation où une formulation plus compliquée pourrait être plus difficile à comprendre pour les utilisateurs. Il s’agit là d’une nouvelle information précieuse. Des chercheurs indépendants se sont empressés de comprendre comment WhatsApp est parvenu à la formulation actuelle de ses étiquettes et ce qui la rend plus efficace que les avertissements explicites sur les « rumeurs » et la « désinformation ». La prochaine étape consistera pour WhatsApp à donner accès à ses données de test aux chercheurs œuvrant dans le domaine de l’intérêt public et intéressés par cette question.

Nous sommes conscients qu’il s’agit d’un problème complexe. Comme WhatsApp le souligne à plusieurs reprises dans sa réponse, la société est incapable de lire les messages sur sa plateforme chiffrée. Cela signifie que tout étiquetage qu’elle applique à un contenu transféré en masse devra couvrir tous les aspects, des campagnes de désinformation ciblées jusqu’aux mèmes inoffensifs. Toutefois, nous souhaitions comprendre plus en détail l’approche de l’entreprise en matière d’étiquetage. Nous avons soulevé cette question avec WhatsApp au motif que les questions relatives à la manière dont les entreprises de médias sociaux signalent aux gens les risques de désinformation politique et de mésinformation sont devenues particulièrement urgentes ces dernières années. Au cours des élections organisées cette année, par exemple, des groupes de citoyens ont constaté des niveaux élevés de désinformation politique, ainsi que des campagnes de désinformation délibérées, se propageant sur les médias sociaux dans le cadre d’élections en Inde et en Europe. La question de savoir quand et comment inciter les utilisateurs à vérifier le contenu affiché sur les plateformes semble donc extrêmement urgente à l’heure actuelle.

4.

Dans quelle mesure WhatsApp restreint-elle les fonctions de son service, y compris les fonctions de diffusion, pendant les élections ? Par exemple, WhatsApp a-t-elle introduit des mesures comparables au dispositif « break the glass » de Facebook ?

WhatsApp déclare :

Vous trouverez plus d’informations sur l’approche de WhatsApp concernant les élections ici.

Avant et pendant les élections majeures, WhatsApp met en place des équipes composées d’experts en la matière issus de nos équipes produits, politiques et opérationnelles. Ces groupes surveillent de près chaque élection, 24 heures sur 24 et 7 jours sur 7, afin de répondre rapidement aux problèmes qui pourraient surgir.

Qu’en pense Mozilla ?

Là encore, il est évident que WhatsApp déploie des efforts considérables en coulisses, mais le fait de communiquer publiquement davantage d’informations sur sa stratégie serait utile aux groupes de citoyens qui s’efforcent de documenter la désinformation et d’autres contenus préjudiciables diffusés sur les plateformes en ligne (y compris WhatsApp) pendant les élections.

5.

Dans quelle mesure WhatsApp craint-elle que ses nouvelles fonctions d’IA ne facilitent la diffusion de désinformation politique et d’autres contenus préjudiciables sur la plateforme ? Quelles mesures prenez-vous pour répondre à ces préoccupations ?

WhatsApp déclare :

En plus de nos limitations des transferts et de nos partenariats existants pour donner aux utilisateurs les moyens de vérifier les informations qu’ils reçoivent, nous développons de nouveaux partenariats spécifiquement axés sur l’IA. Nous avons collaboré avec la Misinformation Combat Alliance (MCA) en Inde pour lancer une ligne d’assistance dédiée à la vérification des faits sur WhatsApp, dans le but de lutter contre les médias générés à l’aide de l’intelligence artificielle et des deepfakes, et d’aider les utilisateurs à trouver des informations vérifiées et crédibles.

Nous nous sommes également associés à l’International Fact Checking Network (IFCN), en créant une nouvelle bourse visant à aider les vérificateurs de faits sur WhatsApp à lutter contre la désinformation générée par l’IA qui leur est communiquée.

Qu’en pense Mozilla ?

Aider les utilisateurs à interpréter en toute sécurité les contenus générés par l’IA est un nouveau défi, de plus en plus important, pour toutes les plateformes de médias sociaux. À l’heure actuelle, WhatsApp affirme que sa stratégie en la matière est axée sur le développement de ses partenariats de vérification des faits. Cela inclut, par exemple, un partenariat avec un groupe de vérification des faits en Inde, où le contenu généré par l’IA (y compris les deepfakes très élaborés) a joué un rôle considérable dans les campagnes politiques lors des dernières élections. L’approche de WhatsApp en matière de contenu généré par l’IA est donc itérative plutôt que transformatrice : pour l’instant, la société affirme qu’elle s’appuiera sur le même ensemble d’outils qu’elle utilise pour lutter contre la désinformation, les fausses informations et autres contenus nuisibles sur sa plateforme.

La stratégie de WhatsApp est susceptible d’évoluer à mesure que les preuves de l’impact des contenus générés par l’IA sur les élections se font plus évidentes. Il convient toutefois de noter que des décideurs politiques de premier plan ont déjà demandé à d’autres entreprises de médias sociaux d’être proactives sur cette question. En mars dernier, la Commission européenne a exhorté les très grandes plateformes en ligne et les moteurs de recherche, tels que désignés dans la loi sur les services numériques, à adopter des mesures spécifiques d’atténuation des risques concernant l’IA générative et les élections. S’il est important de souligner que ces lignes directrices ne s’appliquaient pas à WhatsApp (la plateforme n’est pas désignée en vertu de la loi, bien qu’elle soit soumise à d’autres obligations en tant que service numérique), elles montrent que les décideurs politiques européens prennent très au sérieux l’impact potentiel de l’IA sur les élections et qu’ils estiment que les entreprises de médias sociaux devraient en faire plus pour identifier et contrer les risques spécifiques.