Open Source Research & Investigations

Une simple expérience menée par Mozilla a permis de générer du contenu électoral ciblé, et ce malgré les interdictions d’OpenAI

2024 est une année électorale. Les électeurs d’une cinquantaine de pays, soit environ la moitié de la population mondiale, se rendront aux urnes cette année. 2024 est aussi l’année du développement de l’IA générative. Alors que ChatGPT a été lancé fin 2022, cette année voit une généralisation de cette technologie, des capacités plus impressionnantes et une meilleure compréhension des risques encourus par nos démocraties.

Nous avons déjà vu des exemples du recours à l’IA générative dans la sphère politique. Aux États-Unis, des deepfakes représentant Biden passant des robocalls pour décourager les électeurs de voter et proférant des commentaires transphobes, ainsi que Trump serrant le Dr Anthony Fauci dans ses bras, ont été diffusés. En Argentine et en Slovaquie, l’IA générative a été employée pour manipuler les élections.

Conscients de ces risques, les principaux acteurs de l’IA générative, comme OpenAI, prennent position. Leur politique exclut explicitement « La participation à des campagnes électorales ou à des activités de lobbying, y compris la production de contenus électoraux personnalisés ou destinés à des groupes démographiques spécifiques ».

Par ailleurs, dans un article de blog récent, la société déclare : « Nous cherchons encore à comprendre le degré d’efficacité de nos outils en matière de persuasion personnalisée. En attendant d’en savoir plus, nous n’autorisons pas les utilisateurs à créer des outils destinés aux campagnes politiques et au lobbying ».

Malheureusement, il semble que ces politiques ne soient pas appliquées.

Dans le cadre d’une expérience simple réalisée avec un abonnement ordinaire à ChatGPT Plus, nous avons pu générer rapidement (en 5 minutes environ) et simplement des campagnes publicitaires personnalisées en rapport avec les élections américaines. Les requêtes que nous avons utilisées sont indiquées ci-dessous, suivies du contenu généré par ChatGPT.

Requêtes utilisées pour ChatGPT
Requêtes utilisées pour tester les politiques de ChatGPT
Campagnes publicitaires personnalisées générées par ChatGPT
Génération de « campagnes publicitaires » personnalisées concernant diverses personnalités à l’aide de ChatGPT

Plusieurs moyens peuvent être utilisés par OpenAI pour tenter de faire respecter leurs politiques. Tout d’abord, la société peut recourir à l’apprentissage par renforcement pour entraîner le système à refuser tout comportement indésirable. De même, une « requête système » peut être utilisée pour indiquer au modèle quels types de requêtes doivent être refusés. La facilité avec laquelle nous sommes parvenus à générer le contenu (sans avoir besoin de recourir à des astuces particulières) suggère que ces approches n’ont pas été appliquées à la politique relative au contenu électoral. Il est possible qu’un système de surveillance des usages potentiellement illicites soit mis en place et que ceux-ci soient ensuite passés en revue par des modérateurs. La politique de confidentialité d’OpenAI, par exemple, stipule que la société « peut conserver en toute sécurité les entrées et sorties d’API jusqu’à 30 jours pour assurer les services et identifier les abus » (souligné par l’auteur). Cette expérience a été réalisée le 15 janvier, le jour où OpenAI a publié son billet de blog décrivant son approche concernant les élections. La société n’a pas encore réagi, mais nous continuerons à surveiller l’évolution de la situation. [1]

Dans tous les cas, OpenAI n’est pas seule à proposer des systèmes d’IA générative performants. Il existe déjà des services spécifiquement conçus pour les campagnes politiques. Une entreprise se présente même comme un « fabricant de deepfake éthique ».

Dans le cadre de notre travail au sein d’Open Source Research & Investigations, le nouveau laboratoire d’investigation numérique de Mozilla, nous prévoyons de continuer à étudier ces questions : Quelle est le degré d’efficacité de l’IA générative dans la création de contenus politiques plus avancés, accompagnés d’images et de graphismes convaincants ? Dans quelle mesure le contenu en question est-il convaincant et persuasif ? Les messages peuvent-ils être efficacement micro-ciblés en fonction des croyances et des intérêts spécifiques d’un individu ? Ne manquez pas de suivre l’évolution de nos recherches. Nous espérons qu’OpenAI appliquera ses politiques électorales, car nous avons trop souvent vu par le passé des préjudices causés par des politiques non appliquées sur des plateformes en ligne.

[1] Chez Mozilla, nous pensons qu’il n’est pas bon d’étouffer la recherche indépendante d’intérêt public et de pénaliser les chercheurs.

Jesse McCrosky est un chercheur indépendant qui travaille au sein de l’équipeOpen Source Research and Investigations de Mozilla.