El 2024 es un año electoral crucial en todo el mundo, desde los Estados Unidos y el Reino Unido hasta Panamá y Brasil. Pero hay algo que da miedo: la IA generativa se está haciendo realmente buena. Tan buena, que crear una imagen o video falso convincente de una figura pública es más fácil que nunca. Esto también es válido para personas no conocidas, como tus familiares o tus colegas. El potencial de daño es obvio y preocupante en partes iguales.

¿Cómo se ven estos problemas en el mundo real? Algunos de los ejemplos más claros incluyen las deepfakes del presidente Biden instando a la gente a no votar, imágenes manipuladas de Trump junto a votantes negros y un video falso de Putin advirtiendo en inglés a los votantes sobre la interferencia electoral. «Antes había que ser un experto en informática para hacer algo nefasto como crear un virus o crear ransomware, pero en el mundo de las deepfakes, ya hay más de 100.000 herramientas disponibles en línea con solo una búsqueda en Google», comenta Ben Coleman, CEO de Reality Defender. La gente de Reality Defender se dedica a detectar deepfakes. (Dato curioso: la empresa utiliza datos de código abierto de Common Voice de Mozilla para entrenar sus herramientas).

«Comenzamos Reality Defender en 2021 y parece que tuvimos la idea correcta pero el momento equivocado», cuenta Ben. «En las elecciones pasadas pensamos que las deepfakes serían un problema y no lo fueron. Pero ahora, la computación en la nube está disponible para cualquiera», asegura Ben («computación en la nube» significa tener acceso remoto a hardware informático realmente potente). «Puedes usar una de las miles de herramientas gratuitas o de bajo coste para falsificar la voz de alguien en solo unos segundos. La amenaza de las deepfakes está creciendo dramáticamente».

¿A qué tipo de deepfakes debes prestar atención durante la temporada de elecciones de 2024?

Las deepfakes vienen en todas las formas y tamaños. En estos días, pueden ir más allá de los videos en los que una persona famosa dice algo que nunca diría. Tarcizio Silva, Fellow Senior de Mozilla, recuerda algunos ejemplos de mensajes falsos que eran igual de preocupantes. «Antes de las últimas elecciones presidenciales de 2022, circulaba un video de WhatsApp que simulaba el programa de noticias brasileño Jornal Nacional», dice Tarcizio. «Los principales presentadores de televisión decían que Bolsonaro lideraba en las encuestas cuando la realidad era todo lo contrario». Tarcizio señala que se crearon estas deepfakes para desacreditar las máquinas de votación utilizadas en las elecciones cuando, en realidad, se sabe que son muy confiables.

También debes tener cuidado con tu pareja: deepfakes de tu pareja, sí. Según Ben, muchas estafas con deepfakes comienzan de esta manera. «Piensa en las llamadas de rescate en las que un ser querido dice: “Estoy en problemas, pero si transfieres algo de dinero, estaré bien”», dice Ben. «Si me sucediera esto con mi pareja o uno de mis hijos, sí, pensaría que es falso. Pero por otra parte, ¿me arriesgaría a que no lo sea?»

Las llamadas telefónicas falsas pueden ser difíciles de distinguir si no sabes a qué debes prestar atención. Pero, incluso si lo sabes, tienes que estar prestando atención activamente: ¿con qué frecuencia, cuando recibes una llamada telefónica, esperas tener que averiguar si la persona del otro lado es real o una IA? Es posible que estés preparado/a para ser escéptico/a con respecto a que el presidente diga algo extraño en su cuenta de redes sociales, pero ¿aplicarías el mismo escepticismo a, por ejemplo, una llamada de tu trabajo? «Imagina que eres un funcionario electoral y tu superior te llama para decirte: “No vengas hoy, vamos a cerrar el recinto”», dice Ben. Las elecciones pueden verse comprometidas de todo tipo de maneras.

Esto es lo que puedes hacer para estar alerta a las deepfakes en esta temporada de elecciones

A la hora de detectar deepfakes en el feed de tus redes sociales, tienes algunas herramientas a tu disposición. Si tienes suerte, la imagen o el video que ves ofrecerá una etiqueta de credenciales de contenido en la esquina, que puede decirte rápidamente cómo fue realizada. Empresas como OpenAI (creadora de ChatGPT) han prometido utilizar este tipo de herramientas en sus creaciones futuras. Sin embargo, si no ves ninguna etiqueta, puedes ejecutar una búsqueda inversa de la imagen para ver dónde más se encuentra esa información. Además, no olvides que es importante mantener tus sesgos bajo control. Tarcizio dice que «Cuando las comunidades están sesgadas por el odio o los prejuicios, es más probable que no verifiquen la información cuando ven algo que respalda sus opiniones». No olvides verificar, incluso cuando algo respalda tu visión del mundo.

Pero, ¿qué pasa con las deepfakes a un nivel más personal? ¿Cómo podemos defendernos de las llamadas fraudulentas de un jefe falso o una pareja falsa que nos dicen «quédate en casa y no vengas al trabajo», «transfiérame dinero» o ambos? Ben dice que la respuesta es «IRL 2FA», esto quiere decir tener una segunda forma de confirmar con quién estás hablando. «Usa una contraseña con tu familia que solo ellos conozcan», aconseja Ben. «Usa una clave secreta como “banana” o un equipo deportivo (que no demasiado obvio como los Knicks si eres de Nueva York). La idea de añadir la autenticación de dos o múltiples factores a nuestras comunicaciones habituales puede ayudarnos a confiar, pero también a verificar». En pocas palabras, si tu jefe te llama para alejarte de las urnas y menciona a los Knicks y no a las bananas, lo más probable es que sea una deepfake.

Las deepfakes se están volviendo personales, justo a tiempo para la temporada electoral

Redactado por: Xavier Harding

Editado por: Audrey Hingle, Kevin Zawacki, Lindsay Dearlove, Tracy Kariuki, Xavier Harding

Arte: Shannon Zepeda


Contenido relacionado