Fake news não se espalham sozinhas. A inteligência artificial (IA) frequentemente contribui para a viralização de informações falsas e desinformação, desde mortes de celebridades a ataques políticos e inverdades médicas. Assista a Spandi Singh, do Open Technology Institute da New America, revelar como a inteligência artificial pode ser treinada (de forma não intencional) para ser uma super difusora de fake news.

Muitas plataformas, incluindo Facebook, Twitter, YouTube e TikTok, usam, pelo menos em parte, inteligência artificial e ferramentas de aprendizagem automatizada para selecionar e moderar o conteúdo que vemos online.

Os algoritmos de classificação e recomendação selecionam o conteúdo apresentado às pessoas – otimizado para ‘engajamento’, como receber cliques. Assim, quando uma parte do conteúdo – digamos, uma notícia chocante (falsa) da morte de uma celebridade – recebe muita atenção, o algoritmo aprende que seria atraente e 'relevante', então geralmente amplifica essa (des)informação mostrando para mais pessoas.

Paradoxalmente, a inteligência artificial não amplifica informações falsas apenas involuntariamente. É também uma ferramenta essencial que as plataformas usam para combater informações enganosas. Por exemplo, elas podem usar inteligência artificial para detectar e rotular conteúdo relacionado a tópicos como vacinas e vincular a fontes confiáveis, onde os usuários podem verificar se o que estão vendo é fato.

Mas só sabemos por alto como essas técnicas funcionam. As plataformas não compartilham muita informação sobre como seus algoritmos funcionam, quando essas ferramentas são usadas, nem como o resultado dessa intervenção afeta o que é apresentado. Portanto, não sabemos sua eficácia no combate a informações que são intencionalmente ou acidentalmente enganosas.

Como vimos nos últimos anos, as consequências de conteúdo impreciso que viraliza são significativas e costumam impactar grupos já vulneráveis. Com legisladores do mundo todo demonstrando maior interesse em responsabilizar as plataformas pelos impactos de seus algoritmos, há uma boa oportunidade de promover a supervisão de governos e pressionar as plataformas para assumir mais responsabilidade. Para começar, vamos defender proteções de privacidade mais fortes para os usuários e maior transparência das plataformas em torno do funcionamento de suas ferramentas baseadas em inteligência artificial.

Leia o relatório recente que a Mozilla escreveu em parceria com o Open Technology Institute da New America e outras organizações parceiras sobre como a inteligência artificial pode estimular a disseminação de desinformação.