Les infox ne se propagent pas d’elles-mêmes. L’intelligence artificielle (IA) est souvent impliquée dans la propagation virale de mésinformations et de désinformations, allant du décès de célébrités aux attaques politiques en passant par les contre-vérités médicales. Spandi Singh du New America’s Open Technology Institute explique comment l’IA peut être (involontairement) entraînée pour devenir un superdiffuseur d’infox.

De nombreuses plateformes, dont Facebook, Twitter, YouTube et TikTok, s’appuient, au moins en partie, sur des outils d’IA et d’apprentissage automatique pour organiser et modérer le contenu que nous voyons en ligne.

Les algorithmes de classement et de recommandation organisent le contenu que les gens voient et l’optimisent à des fins d’« engagement », comme les clics. Ainsi, lorsqu’un contenu, par exemple une (fausse) information choquante sur la mort d’une célébrité, reçoit beaucoup d’attention, l’algorithme en déduit qu’il est engageant et « pertinent », et amplifie souvent cette (més)information en la montrant à plus de personnes.

Paradoxalement, l’IA ne se contente pas d’amplifier involontairement de fausses informations. C’est également un outil clé sur lequel les plateformes s’appuient pour lutter contre les informations fallacieuses. Par exemple, elles peuvent avoir recours à l’IA pour détecter et catégoriser le contenu lié à des sujets tels que les vaccins et afficher des liens vers des sources crédibles où les utilisateurs peuvent vérifier factuellement ce qu’ils voient.

Mais nous ne comprenons que le fonctionnement global de ces techniques. Les plateformes ne partagent pas beaucoup d’informations sur le fonctionnement de leurs algorithmes, quand elles utilisent ces outils ou sur les résultats qu’elles obtiennent grâce à leur utilisation. Nous ne savons donc pas à quel point ils sont efficaces pour lutter contre les informations fallacieuses, qu’elles soient diffusées intentionnellement ou accidentellement.

Comme nous l’avons vu au cours des dernières années, les conséquences d’un contenu inexact qui devient viral sont importantes et affectent souvent des groupes qui sont déjà vulnérables. Les décideurs du monde entier s’intéressant toujours plus à ce que les plateformes prennent en charge l’impact de leurs algorithmes, il existe une bonne opportunité de faire progresser le contrôle gouvernemental et de pousser les plateformes à assumer davantage de responsabilités. Dans un premier temps, nous plaiderons pour des protections plus strictes de la confidentialité des utilisateurs et une transparence accrue des plateformes vis-à-vis du fonctionnement de leurs outils basés sur l’IA.

Vous pouvez consulter le rapport récent que Mozilla a co-écrit avec le New America’s Open Technology Institute et d’autres organisations partenaires sur la façon dont l’IA peut intensifier la propagation de désinformation.