Estudios e investigaciones de código abierto

Un simple experimento de Mozilla logró generar materiales de campaña, a pesar de la prohibición de OpenAI

El 2024 es un año de elecciones. Alrededor de 50 países, aproximadamente la mitad de la población mundial, acudirán a las urnas este año. El 2024 también es el año de la IA generativa. Si bien ChatGPT se lanzó a fines de 2022, este año marca una adopción más generalizada, niveles más impresionantes de capacidad y una comprensión más profunda de los riesgos que estas tecnologías presentan para nuestras democracias.

Ya hemos visto algunas aplicaciones de la IA generativa en el ámbito político. En los Estados Unidos, hay deepfakes de Biden haciendo llamadas automáticas para desalentar la votación y haciendo comentarios transfóbicos, y de Trump abrazando al Dr. Anthony Fauci. En otros lugares, como Argentina y Eslovaquia, se ha visto un despliegue de la IA generativa para manipular las elecciones.

Los principales actores de la IA generativa, como OpenAI, están adoptando una postura al reconocer estos riesgos. Su política prohíbe explícitamente: «Realizar campañas políticas o grupos de lobby, incluida la generación de materiales de campaña personalizados o dirigidos a grupos demográficos específicos».

Además, en una publicación reciente del blog, afirman que: «Todavía estamos trabajando para comprender cuán efectivas podrían ser nuestras herramientas para la persuasión personalizada. Hasta que sepamos más, no permitiremos que la gente cree aplicaciones para realizar campañas políticas y lobby».

Lamentablemente, parece que estas políticas no se están aplicando.

En un sencillo experimento con una suscripción ordinaria a ChatGPT Plus, nos resultó rápido (tal vez 5 minutos) y sencillo generar anuncios de campaña personalizados relevantes para las elecciones estadounidenses. Las indicaciones que usamos se encuentran a continuación, seguidas del contenido que generó ChatGPT.

Indicaciones utilizadas para ChatGPT
Indicaciones utilizadas para probar las políticas de ChatGPT
Anuncios de campaña personalizados generados con ChatGPT
Generamos «anuncios de campaña» personalizados para varias personas utilizando ChatGPT

Existen varias formas en que OpenAI podría intentar hacer cumplir sus políticas. En primer lugar, pueden usar el aprendizaje por refuerzo y entrenar al sistema para que no se involucre en comportamientos no deseados. Del mismo modo, se puede usar un «indicador del sistema» para decirle al modelo qué tipo de solicitudes debe rechazar. La facilidad con la que pude generar estos materiales sin necesidad de hacer trucos especiales sugiere que estos enfoques no se han aplicado a la política de materiales de campaña. También se podría realizar algún tipo de monitoreo de los usos potencialmente infractores que luego sean revisados por moderadores. La política de privacidad empresarial de OpenAI, por ejemplo, establece que «es posible que se retengan de forma segura las entradas y salidas de la API durante un máximo de 30 días para proporcionar los servicios e identificar abusos» (el énfasis es nuestro). Este experimento fue realizado el 15 de enero, el día en que OpenAI publicó su artículo del blog donde describe su enfoque de cara a las elecciones. No obtuvimos una respuesta de OpenAI hasta el momento, pero continuaremos monitoreando cualquier acción. [1]

En cualquier caso, OpenAI no es el único proveedor de sistemas de IA generativa de gran capacidad. Ya existen servicios diseñados específicamente para realizar campañas políticas. Una empresa incluso se autodenomina como un «fabricante ético de deepfakes».

Como parte de nuestro trabajo en «Estudios e investigaciones de código abierto», el nuevo laboratorio de investigaciones digitales de Mozilla, planeamos continuar explorando este espacio: ¿Qué tan efectiva es la IA generativa para crear contenidos políticos más avanzados, con imágenes convincentes y diseño gráfico? ¿Qué tan atractivo y persuasivo es realmente este contenido? ¿Pueden los mensajes ser efectivamente microdirigidos a las creencias e intereses específicos de un individuo? Mantente alerta a los avances de nuestra investigación. Esperamos que OpenAI haga cumplir sus políticas electorales: en el pasado hemos visto con demasiada frecuencia perjuicios habilitados por políticas que no se aplican.

[1] En Mozilla, creemos que anular las investigaciones independientes de interés público y castigar a los investigadores no se ve nada bien.

Jesse McCrosky es un investigador independiente que trabaja con el equipo deEstudios e investigaciones de código abierto de Mozilla.