Os métodos populares usados para divulgar conteúdo sintético só recebem classificação "Baixa" ou "Justa" na análise da Mozilla. As deficiências persistem em meio ao número recorde de eleições em 2024

(BERLIM, ALEMANHA | 26 DE FEVEREIRO DE 2024) — À medida que o conteúdo gerado por IA sobre presidentes e estrelas pop se espalha pela internet, as formas mais populares de detecção e divulgação apresentam desempenho "Baixo" ou "Justo", na melhor das hipóteses, de acordo com uma nova análise da Mozilla.

A pesquisa, In Transparency We Trust? Evaluating the Effectiveness of Watermarking and Labelling AI-Generated Content”, descobriu que estratégias e tecnologias para ajudar os usuários da Internet a distinguir conteúdo sintético — como marca d'água e rotulagem — enfrentam desafios significativos. Usando uma avaliação de qualidade, os pesquisadores analisaram sete métodos diferentes legíveis por máquina e voltados para humanos, nenhum dos quais recebeu uma avaliação "Boa".

A falta de barreiras eficazes é especialmente urgente, pois mais da metade da população mundial se prepara para votar nas eleições deste ano, inclusive nos EUA, Índia, Rússia, África do Sul e México. Bilhões de pessoas irão às urnas em meio a uma proliferação de chatbots de IA de fácil acesso, geradores de texto e imagem e plataformas de clonagem de voz. Essas ferramentas e o conteúdo que produzem já estão poluindo a integridade das eleições na Argentina, Eslováquia, Índia e além.

A pesquisa da Mozilla oferece recomendações para fortalecer a detecção e a divulgação. Por exemplo, priorizar métodos legíveis por máquina acoplados a mecanismos de detecção robustos no ponto de distribuição. Novas abordagens de governança, como ambientes regulatórios centrados no ser humano, permitiriam que os formuladores de políticas testassem novos regulamentos quanto ao seu impacto.

Diz Ramak Molavi Vasse'i, líder de pesquisa da Mozilla, transparência de IA e coautora do relatório: “Quando se trata de identificar conteúdo sintético, estamos em um momento de ceticismo. As tecnologias atuais de marca d'água e rotulagem mostram promessa e engenhosidade, particularmente quando usadas em conjunto. Ainda assim, elas não são suficientes para combater efetivamente os perigos do conteúdo sintético não revelado — especialmente em meio a dezenas de eleições em todo o mundo”.

Molavi Vasse'i acrescenta: “Empresas como a OpenAI publicaram padrões eleitorais para evitar o abuso de seus produtos, mas os requisitos voluntários não são suficientes. E embora empresas como a Meta tenham proposto esforços em todo o setor para rotular o conteúdo gerado por IA, é crucial que os padrões abertos sejam criados com a participação de todas as partes interessadas, especialmente aquelas potencialmente afetadas. Além disso, uma coalizão de players poderosos, como Meta, Google e Adobe, não deve se tornar guardiã da integridade do conteúdo”.

As tecnologias atuais de marca d'água e rotulagem mostram promessa e engenhosidade, particularmente quando usadas em conjunto. Ainda assim, elas não são suficientes para combater efetivamente os perigos do conteúdo sintético não revelado — especialmente em meio a dezenas de eleições em todo o mundo

Líder de pesquisa da Mozilla, transparência de IA

______

PRINCIPAIS CONCLUSÕES

Os métodos de divulgação voltados para humanos ficam aquém

Rótulos visíveis e avisos sonoros dependem muito da percepção do destinatário. Além disso, eles são vulneráveis a manipulações e podem não prevenir ou tratar efetivamente os danos depois que eles ocorrem. Embora esses métodos visem informar, eles podem levar à sobrecarga de informações, aumentando a desconfiança do público e as divisões sociais.

Aptidão geral: BAIXA

Os métodos legíveis por máquina podem ser eficazes quando combinados com mecanismos de detecção robustos

A marca d'água invisível incorporada durante a criação e distribuição de conteúdo oferece segurança relativa contra adulteração por agentes mal-intencionados. Ainda assim, sua eficácia geral é comprometida sem ferramentas de detecção robustas e imparciais.

Aptidão Geral: JUSTA

Necessidade de uma abordagem holística para a governança

Nem os métodos voltados para o ser humano nem os legíveis por máquina por si só fornecem uma solução abrangente. Deve haver uma abordagem multifacetada que combine medidas tecnológicas, regulatórias e educacionais para mitigar efetivamente os danos do conteúdo gerado por IA não revelado.

_______

DEFINIÇÕES

(Métodos legíveis por máquina)

Marca d'água criptográfica: as informações secretas são codificadas nas funções (ou circuitos) criptográficas do conteúdo, que só podem ser detectadas, removidas ou alteradas usando um processo de criptografia/descodificação.

Marca d'água do componente de frequência: o conteúdo é decomposto em diferentes partes de frequência e uma marca d'água é então inserida em bandas de baixa frequência que são menos sensíveis a ataques e alterações.

Marca d'água de metadados: uma descrição das informações do autor, carimbos de data/hora, histórico de edição e o software usado são incorporados ao conteúdo.

Marca d'água estatística: as informações são inseridas nos padrões estatísticos da estrutura de dados do conteúdo. Isso geralmente envolve alterar pixels, quadros de cores, componentes de som ou outros valores de maneira imperceptível.

(Métodos voltados para humanos)

Rótulos de áudio: itens audíveis afixados diretamente no conteúdo que divulga suas origens.

Divulgações e descrições: informações escritas como créditos, legendas, descrições ou tags são utilizadas para informar os usuários sobre o conteúdo.

Rótulos visuais: itens escritos ou gráficos, como rótulos nutricionais ou ícones, afixados diretamente no conteúdo para divulgar suas origens.


Contatos com a imprensa:

Europa: Tracy Kariuki, [email protected]

EUA: Helena Dea Bala, [email protected]