Las noticias falsas no se difunden solas. La inteligencia artificial (IA) a menudo interviene en la propagación viral de información errónea y desinformación, desde muertes de celebridades hasta ataques políticos y falsedades médicas. Mira a Spandi Singh, del Open Technology Institute de la fundación New America, explicando cómo se puede entrenar (involuntariamente) a la IA para convertirla en un super difusor de noticias falsas.

Muchas plataformas, como Facebook, Twitter, YouTube y TikTok, dependen, al menos en parte, de la IA y las herramientas de aprendizaje automático para seleccionar y moderar los contenidos que vemos en línea.

Los algoritmos de clasificación y recomendación seleccionan los contenidos que ven las personas, optimizados para generar acciones de «participación», como los clics. Entonces, cuando un contenido, como por ejemplo, una noticia impactante (y falsa) de la muerte de una persona famosa, recibe mucha atención, el algoritmo aprende que eso es atractivo y «relevante» y, a menudo, amplifica esa información (errónea) mostrándosela a más personas.

Paradójicamente, la IA no solo amplifica involuntariamente información falsa. También es una herramienta fundamental para que las plataformas puedan combatir la información engañosa. Por ejemplo, pueden usar IA para detectar y etiquetar contenidos relacionados con temas como las vacunas, y vincularlos a fuentes confiables donde los usuarios puedan verificar lo que están viendo.

Pero solo tenemos una idea general de cómo funcionan estas técnicas. Las plataformas no comparten demasiada información sobre cómo funcionan sus algoritmos, en qué ocasiones usan estas herramientas o qué resultados ven de sus intervenciones. Por lo tanto, no sabemos qué tan efectivos son para combatir información que es intencionalmente engañosa o accidentalmente engañosa.

Como hemos visto durante los últimos años, las consecuencias de que los contenidos erróneos se vuelvan virales son muy importantes y, a menudo, afectan a grupos que ya son vulnerables. Dado que los formuladores de políticas de todo el mundo tienen más interés en responsabilizar a las plataformas por los impactos de sus algoritmos, existe una buena oportunidad para promover la supervisión gubernamental y presionar a las plataformas para que asuman más responsabilidades. Como primeros pasos, lucharemos para obtener protecciones de privacidad más sólidas para los usuarios y una mayor transparencia de las plataformas con respecto al funcionamiento de sus herramientas basadas en IA.

Lee el informe reciente que realizó Mozilla en colaboración con el Open Technology Institute de la organización New America y otras organizaciones asociadas, sobre cómo la IA puede incitar la propagación de desinformación.