Les méthodes couramment utilisées pour exposer la nature artificielle des contenus sont jugées « faibles » ou « passables » dans l’analyse réalisée par Mozilla. Des lacunes persistent alors qu’un nombre record d’élections est prévu pour 2024

(BERLIN, ALLEMAGNE | 26 FÉVRIER 2024) — Alors que les contenus générés par l’IA mettant en scène des présidents et des stars de la pop se répandent sur internet, les méthodes de détection et de divulgation les plus populaires obtiennent au mieux des résultats « médiocres » ou « passables », selon une nouvelle analyse de Mozilla.

L’étude, intitulée « In Transparency We Trust ? Evaluating the Effectiveness of Watermarking and Labeling AI-Generated Content », a révélé que les méthodes et les technologies visant à aider les internautes à distinguer les contenus générés par l’IA (tels le filigrane et le marquage) se heurtent à des difficultés considérables. En s’appuyant sur un bilan de qualité, les chercheurs ont évalué sept méthodes différentes, lisibles par machine et par l’humain, et aucune d’entre elles n’a obtenu la mention « Bien ».

Ce manque de mesures de protection efficaces est d’autant plus urgent que plus de la moitié de la population mondiale s’apprête à participer à des élections cette année, notamment aux États-Unis, en Inde, en Russie, en Afrique du Sud et au Mexique. Des milliards de personnes se rendront aux urnes dans un contexte où prolifèrent des robots conversationnels, des générateurs de textes et d’images et des plateformes de clonage de voix facilement accessibles. Ces outils et le contenu généré compromettent déjà l’intégrité des élections en Argentine, en Slovaquie, en Inde et dans d’autres pays.

L’étude de Mozilla émet des recommandations destinées à renforcer la détection et la divulgation. Par exemple en donnant la priorité aux méthodes lisibles par machine, associées à des mécanismes de détection robustes au point de distribution. De nouvelles approches en matière de régulation, telles que la mise en place de laboratoires réglementaires centrés sur l’humain, permettraient aux décideurs politiques de tester l’impact des nouvelles réglementations.

Ramak Molavi Vasse’i, responsable de la recherche Mozilla, spécialiste des questions de transparence en matière d’IA, et coauteure du rapport, déclare : « Lorsqu’il s’agit d’identifier les contenus artificiels, nous nous trouvons à un moment où le verre est à la fois à moitié plein et à moitié vide. Les technologies actuelles de filigrane et de marquage sont prometteuses et ingénieuses, en particulier lorsqu’elles sont utilisées conjointement. Néanmoins, elles ne suffisent pas à contrer efficacement les dangers que représentent les contenus artificiels non divulgués, en particulier dans un contexte de dizaines d’élections à travers le monde ».

Molavi Vasse’i ajoute : « Des sociétés comme OpenAI ont publié des normes relatives aux élections afin d’empêcher l’utilisation abusive de leurs produits, mais les dispositions volontaires ne sont pas suffisantes. Alors que des entreprises comme Meta ont soumis des propositions à l’ensemble de l’industrie visant à marquer le contenu généré par l’IA, il est essentiel que des normes ouvertes soient créées avec la participation de toutes les parties prenantes, en particulier celles qui sont potentiellement affectées. Par ailleurs, une association regroupant des acteurs puissants tels que Meta, Google et Adobe ne doit pas servir de garant de l’intégrité des contenus ».

Les technologies actuelles de filigrane et de marquage sont prometteuses et ingénieuses, en particulier lorsqu’elles sont utilisées conjointement. Néanmoins, elles ne suffisent pas à contrer efficacement les dangers que représentent les contenus artificiels non divulgués, en particulier dans un contexte de dizaines d’élections à travers le monde

Responsable de la recherche chez Mozilla, spécialiste des questions de transparence en matière d’IA

______

CONSTATATIONS PRINCIPALES

Les méthodes de divulgation basées sur la communication humaine ne sont pas suffisamment efficaces

Les marquages visibles et les avertissements sonores reposent en grande partie sur la perception du destinataire. Par ailleurs, ces méthodes sont vulnérables aux falsifications et ne réussissent pas toujours à empêcher les dommages ou à les résoudre de manière efficace une fois qu’ils se sont produits. Bien que ces méthodes aient été conçues à des fins d’information, elles peuvent conduire à une surcharge d’informations, ce qui accroît la méfiance du public et les fractures sociales.

Bilan de qualité : MÉDIOCRE

Les méthodes lisibles par machine peuvent être efficaces lorsqu’elles sont associées à de puissants mécanismes de détection

Les filigranes invisibles intégrés lors de la création et de la distribution de contenu offrent une sécurité relative contre la falsification par des acteurs malveillants. Néanmoins, sans outils de détection solides et impartiaux, leur efficacité globale est compromise.

Bilan de qualité : PASSABLE

Nécessité d’une approche globale en matière de gouvernance

Les méthodes de communication humaine ou lisibles par machine ne constituent pas, à elles seules, des solutions complètes. Une approche multidimensionnelle combinant des mesures technologiques, réglementaires et éducatives est nécessaire pour atténuer efficacement les effets néfastes des contenus générés par l’IA non divulgués.

_______

DÉFINITIONS

(Méthodes lisibles par machine)

Filigrane cryptographique : des informations secrètes sont encodées dans les fonctions cryptographiques (ou circuits) du contenu, qui ne peuvent alors être détectées, supprimées ou modifiées qu’à l’aide d’un processus de chiffrement ou de déchiffrement.

Filigrane par composantes de fréquence : le contenu est décomposé en différentes parties de fréquence et un filigrane est ensuite inséré dans les bandes de basse fréquence qui sont moins vulnérables aux attaques et aux falsifications.

Filigrane de métadonnées : une description des informations relatives à l’auteur, aux horodatages, à l’historique des modifications et au logiciel utilisé est incorporée dans le contenu.

Filigrane statistique : des informations sont insérées dans les modèles statistiques de la structure des données du contenu. Il s’agit généralement de modifier des pixels, des trames de couleur, des composantes sonores ou d’autres éléments de manière imperceptible.

(Méthodes de communication humaine)

Étiquettes audio : messages sonores ajoutés directement au contenu pour en divulguer l’origine.

Divulgations et descriptions : informations écrites telles que les titres, les légendes, les descriptions ou les balises utilisées pour informer les utilisateurs sur le type de contenu.

Étiquettes visuelles : éléments textuels ou graphiques, semblables aux étiquettes relatives aux valeurs nutritionnelles ou à des icônes, apposés directement sur le contenu pour en divulguer l’origine.


Contacts presse :

Europe : Tracy Kariuki, [email protected]

États-Unis : Helena Dea Bala, [email protected]