OpenAI a lancé ChatGPT fin novembre 2022 et il faut reconnaître que beaucoup d’entre nous étaient extrêmement enthousiastes à l’idée d’un texte généré par l’IA. Aujourd’hui, OpenAI étend son talent au monde de la vidéo. Sora, le dernier outil de l’entreprise, permet aux utilisateurs de créer des vidéos haute définition à partir d’un simple paragraphe de texte. OpenAI propose quelques exemples de vidéos générées par l’IA sur son site et les images sont tantôt impressionnantes, tantôt effrayantes, et peuvent susciter des réactions du genre : « Je n’arrive pas à croire que l’IA puisse transformer mes mots en images aussi facilement ».

(Il est important de noter que Sora n’est pas encore accessible au public, nous ne l’avons donc pas essayé. Pour l’instant.)

Comment savoir si une vidéo a été générée par l’IA

Vous êtes peut-être inquiet·e à l’idée de vivre dans un monde où n’importe qui peut réaliser une vidéo hyperréaliste en tapant quelques phrases. Quelles seront les conséquences pour les élections politiques ? Quelles seront les conséquences des fraudes basées sur le deepfake ? Comment réagiront les trolls qui cherchent à détourner l’image d’une personnalité publique ?

Pour l’instant, les vidéos générées par l’IA de Sora contiennent un filigrane dans le coin inférieur droit (celui-ci ressemble à une vague qui devient le logo d’OpenAI). Mais ce filigrane peut aisément passer inaperçu et il n’est pas difficile d’imaginer des moyens de le dissimuler (en le recadrant, par exemple). Existe-t-il d’autres moyens de savoir si une vidéo a été générée par l’IA ?

Valentine Goddard est une lauréate du Mozilla Creative Media Award et une avocate spécialisée dans l’IA. Nous avons interrogé Valentine, et elle nous conseille de nous concentrer sur les éléments impossibles. « Les impossibilités physiques telles que courir dans la mauvaise direction sur un tapis roulant, les personnes qui ont trop de doigts ou les branches d’arbre trop parfaites sont des exemples évidents », explique Valentine. La vidéo du tapis roulant sur le site d’OpenAI (en plus de ressembler à un film d’horreur sur le fitness) laisse entrevoir un manque de cohérence de la physique que l’on retrouve souvent dans les séquences créées par l’IA. Valentine fait également remarquer qu’il faut garder les êtres vivants à l’œil (humains, animaux de compagnie, etc.) et déterminer s’ils donnent l’impression d’être réels. « Je trouve également que le blanc des yeux et la lenteur des personnages sont très révélateurs dans les vidéos. Il y a quelque chose de mécanique dans le mouvement ».

Existe-t-il un moyen de repérer la désinformation dans les vidéos générées par l’IA ?

C’est très amusant de voir une personne anonyme marcher dans la rue ou courir à reculons sur un tapis roulant, mais que se passe-t-il lorsque quelqu’un utilise une vidéo générée par l’IA pour se faire passer pour le président Biden ?

Des outils comme Sora bouleversent les règles lorsqu’il s’agit de repérer des fausses informations sur le fil d’actualité de vos réseaux sociaux et dans vos discussions de groupe. Les conseils précédents s’appliquent toujours : recherchez le filigrane d’OpenAI, les regards vides et les vitesses de déplacement lentes, ainsi que les éléments impossibles (combien de doigts sont présents ? Sont-ils rattachés à un corps ?).

En plus de la vérifications des doigts, il convient de s’interroger sur l’origine du contenu. La vidéo est-elle diffusée par une source d’information réputée ou par votre cousin Bertrand ? Si c’est Bertrand, vérifiez deux fois la provenance de la vidéo.

La vidéo générée par l’IA est arrivée. Et maintenant ?

Comme d’habitude, on ne peut pas revenir en arrière sur la question de la vidéo générée par l’IA. Valentine nous recommande de nous arrêter un instant et d’envisager les répercussions de ce qui risque de se produire. « Je pense que les entreprises qui déploient l’IA de manière irresponsable doivent faire une pause et utiliser une partie de leurs bénéfices pour dialoguer avec les parties prenantes », déclare Valentine. « En tant que personne travaillant dans le domaine de la politique de l’IA, en tant qu’artiste et en tant que citoyenne, je trouve qu’il est très irresponsable de continuer à financer des développements techniques alors que la capacité d’adaptation de la société n’est pas prise en compte de la même manière. »

Valentine souhaite que les chercheurs en IA prennent en compte des catégories de personnes qui ne leur ressemblent pas ou qui ne sont pas dans la même situation qu’eux. « Les recherches montrent que l’IA nuit davantage aux femmes (par exemple, les femmes chefs d’entreprise dans le domaine de l’IA gagnent moins d’argent) et que les femmes auront moins d’opportunités d’accès au travail dans les économies numériques », déclare Valentine. « On ne cesse de répéter que l’IA est dangereuse, mais quels sont les mesures concrètes prises pour la rendre sûre pour les femmes, les minorités ethniques, les communautés marginalisées, les communautés LGBTQ et les communautés autochtones ? ».

En attendant, cette technologie est presque disponible. Les doigts sont peut-être aussi difficiles à dessiner pour les artistes que pour les IA, mais au fil du temps, ces dernières continueront de s’améliorer et de rendre la frontière entre le réel et le fictif de plus en plus fine. Assurez-vous de vous tourner vers des sources d’information fiables lorsque vous essayez de déterminer si une séquence est vraie ou fausse.

Comment savoir si une vidéo a été générée par l’intelligence artificielle ?

Rédigé par : Xavier Harding

Relu par : Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Illustration : Shannon Zepeda


Sur le même sujet