OpenAI lanzó ChatGPT a finales de noviembre de 2022 y hoy es casi ridículo pensar en lo emocionados que muchos de nosotros estábamos por los textos generados por IA. Ahora, OpenAI está llevando su talento al mundo del vídeo. Sora es la última herramienta de la compañía y permitirá a los usuarios crear vídeos de alta definición a partir de un simple párrafo de texto. En su sitio, OpenAI ofrece algunos ejemplos de vídeos generados por IA, que van desde impresionantes a espeluznantes y hasta «No puedo creer que la IA pueda convertir mis palabras en imágenes tan fácilmente».

(Vale la pena señalar que Sora aún no está disponible para el público, por lo que no la hemos probado. Todavía).

Cómo saber si un vídeo fue generado por IA

Es posible que te preocupe vivir en un mundo donde cualquiera puede hacer un vídeo hiperrealista a partir de un par de oraciones. ¿Qué significará esto para las elecciones de cargos políticos? ¿Qué significará esto para los fraudes con deepfake? ¿Qué significará esto para los trolls que están siempre ansiosos por hacer un uso indebido de la imagen de las figuras públicas?

Por ahora, los vídeos de IA generados por Sora contienen una marca de agua en la esquina inferior derecha. (La marca de agua tiene una forma de onda que se transforma en el logotipo de OpenAI). Pero no es difícil imaginar formas en que las personas puedan ocultar esta marca de agua si lo desean (simplemente recortándola, por ejemplo). ¿Hay otras formas de saber si un vídeo fue generado por IA?

Valentine Goddard es una abogada y una colaboradora galardonada de Mozilla Creative Media que se especializa en IA. Hablamos con Valentine y su consejo fue que debemos prestar atención a lo imposible. «Las cosas obvias son cosas físicamente imposibles, como desplazarse en la dirección equivocada en una cinta de correr, [personas con] demasiados dedos o ramas de árboles que son demasiado perfectas», dice Valentine. El video de la cinta de correr en el sitio de OpenAI (además de parecerse a una película de terror que transcurre en un gimnasio) insinúa una discrepancia física que a menudo vemos en las imágenes creadas por IA. Valentine también señala que prestemos atención a los seres vivos (humanos, mascotas, etc.) y comprobemos que se vean y parezcan genuinos. «También noto que cierto vacío en los ojos y la lentitud de los personajes son muy reveladores en los vídeos. Hay algo mecánico en los movimientos».

¿Hay alguna forma de detectar información falsa en los vídeos generados por IA?

Todo es risa y diversión cuando se trata de una persona anónima que camina por la calle o corre hacia atrás en una cinta de correr, pero ¿qué pasa cuando alguien usa un vídeo generado por IA para hacerse pasar por el presidente Biden?

Herramientas como Sora están cambiando las reglas a la hora de detectar información falsa en el feed de tus redes sociales y en tus chats grupales. El consejo que dimos anteriormente sigue siendo válidp: busca la marca de agua de OpenAI, busca miradas vacías y movimientos lentos, y presta atención para detectar cosas imposibles: ¿cuántos dedos tiene una persona? ¿Están unidos a un cuerpo?

Además de verificar los dedos, considera el origen del contenido. ¿Es un vídeo que comparte una fuente de noticias de buena reputación o tu primo Larry? Si es del primo Larry, tal vez te conviene verificar la fuente del vídeo.

Los vídeos generados por IA ya están aquí. ¿Y ahora qué?

Como siempre, será imposible volver a poner la pasta de dientes de vídeos de IA adentro del tubo. Entonces, ¿hacia dónde vamos a partir de aquí? Valentine recomienda que nos adaptemos y consideremos las ramificaciones de lo que podría venir. «Creo que las empresas que implementan la IA de manera irresponsable necesitan hacer una pausa y usar parte de sus ganancias para interactuar con las partes interesadas», dice Valentine. «Como alguien que trabaja en las políticas en torno a la IA, pero también como artista y como ciudadana, me parece sumamente irresponsable seguir acumulando fondos para financiar desarrollos técnicos cuando la capacidad de adaptación de la sociedad no está financiada de igual modo».

Valentine quiere que los investigadores de IA piensen en grupos de personas que pueden no parecerse a ellos o no compartir sus circunstancias. «Las investigaciones muestran que la IA perjudica a más mujeres (las empresarias en IA, por ejemplo, ganan menos dinero) y que las mujeres tendrán menos oportunidades y menos acceso equitativo al trabajo en las economías digitales», dice Valentine. «Todos siguen diciendo que la IA es peligrosa, pero ¿cuáles son sus planes concretos para hacerla segura para las mujeres o para las comunidades indígenas, LGBTQ, marginadas y racializadas?»

Mientras tanto, esta tecnología ya está prácticamente aquí. Los dedos pueden ser difíciles de dibujar tanto para los artistas profesionales como para la IA, pero con el tiempo la IA mejorará lo suficiente para suavizar sus resultados imposibles. Cuando trates de averiguar si una imagen es real o falsa, asegúrate de recurrir a fuentes de noticias confiables.

¿Este vídeo se generó con IA? Te explicamos cómo saberlo

Redactado por: Xavier Harding

Editado por: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Arte: Shannon Zepeda


Contenido relacionado