
De teorias da conspiração a propaganda, o algoritmo do YouTube geralmente promove um campo minado de vídeos controversos. Você já se perguntou por que ele continua recomendando o mesmo conteúdo caça-cliques, mesmo após você clicar em “não gostei” ou “não recomendar”?
Nós também, e fomos investigar.
Com a ajuda de 20 mil apoiadores da Mozilla, estudamos os mecanismos de feedback do YouTube. Nossa descoberta, publicada no relatório “Does This Button Work” ("Este botão funciona?"), é alarmante:
- Os usuários não controlam suas experiências na plataforma
- Mesmo após usar os mecanismos de informação, o algoritmo do YouTube geralmente recomenda vídeos indesejados
Isso é ainda mais preocupante sob o contexto da pesquisa anterior que fizemos: em nosso estudo "YouTube Regrets" ("Arrependimentos do YouTube") de 2021, descobrimos que o algoritmo da plataforma promove vídeos contendo desinformação, discurso de ódio e violência.
Um sistema de recomendação de vídeos que se revelou recomendar regularmente conteúdo perigoso e também não ouvir consistentemente as opiniões dos usuários precisa desesperadamente ser corrigido.
A boa notícia é que o YouTube pode resolver esse problema (se quiser). É hora da empresa consertar suas ferramentas de feedback e colocar as pessoas no comando.
Assine nossa petição agora mesmo e nos ajude a pressionar o YouTube.