La tendance des deepfakes ne faiblit pas. Les images, les audios et les vidéos fabriqués sont de plus en plus faciles à générer et plus difficiles à repérer. Le président Biden a-t-il réellement appelé les électeurs à ne pas voter, ou était-ce une fausse information ? Donald Trump a-t-il réellement posé avec cette foule de personnes ou la photo était-ce faux ? Avec les élections à venir, beaucoup s’inquiètent des dramatiques conséquences que le contenu truqué aurait sur la société au cours de cette année. Enter : l’outil de détection de deepfakes d’OpenAI.

Le créateur de ChatGPT, Open AI, fabrique un logiciel de détection de deepfakes et pour l’heure, comme son outil vidéo généré par l’IA, Sora, il ne le diffuse qu’à une poignée de testeurs précoces. L’outil de détection de deepfakes recherchera les métadonnées cachées dans les images réalisées par Dall-E 3 d’OpenAI. Les métadonnées sont généralement des informations comme le titre d’une chanson MP3 ou des données de localisation rattachées à une photo. Dans ce cas, il s’agit d’informations révélant si un fichier a été créé par l’IA ou non. Lorsque l’outil vidéo Sora sera publié, ces vidéos contiendront également le même type de métadonnées.

Comment savoir si une image ou une vidéo est un deepfake ?

L’outil de détection de deepfakes d’OpenAI n’est qu’une partie de l’histoire. L’autre partie est l’adhésion d’OpenAI à la Coalition for Content Provenance and Authenticity (également connue sous le nom de C2PA). Le groupe dispose d’une mesure dans le style « étiquette nutritionnelle » standardisée qui indique la validité d’un contenu. OpenAI est rejoint par de grandes entreprises telles qu’Adobe, BBC, Intel et Google, qui contribueront à populariser le label nutritionnel de la C2PA.

Le site C2PA offre un exemple de leur étiquette nutritionnelle qu’ils appellent Information d’identification du contenu. Cliquez ou appuyez sur le logo « cr » et l’image révélera où et de quelle manière elle a été réalisée.

Est-il seulement possible de créer des logiciels de détection deepfakes ?

Dans une étude récente de Mozilla, nous avons constaté que les technologies actuelles pour aider les internautes à distinguer le contenu synthétique — comme le filigrane et l’étiquetage — ne peuvent pas identifier de manière fiable le contenu synthétique non divulgué. De nouveaux examens des outils de détection de l’IA ont conduit au même résultat. Dans le cas de l’outil d’OpenAI, l’entreprise semble confiante sur la capacité de son outil à détecter les créations d’IA générées à l’aide de logiciels d’OpenAI. La réponse se trouve dans les métadonnées. OpenAI affirme pouvoir identifier les images créées par l’IA à partir de son modèle DALL-E 98,8 % du temps, grâce aux métadonnées cachées dans la photo. Même s’il est généralement facile de modifier les métadonnées d’un fichier, OpenAI affirme que les métadonnées jointes au fichier résultant dans ce cas sont « inviolables ». « Au moins, la méthode semble plus inviolable que l’ajout d’un filigrane en bas à droite d’une photo ou d’une vidéo.

Les inquiétudes concernant les deepfakes continueront d’affliger les experts à mesure que les fausses images seront de plus en plus fréquentes. Bien qu’il soit clair que les images générées par l’IA peuvent affecter négativement les élections de 2024, les futurs outils de détection de deepfakes d’OpenAI pourraient offrir un vote de confiance.

Une application de détection de deepfakes ? Le créateur de ChatGPT en a peut-être une à proposer

Écrit par : Xavier Harding

Édité par : Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Illustration : Shannon Zepeda


Sur le même sujet