
Desde teorías conspirativas hasta propaganda, el algoritmo de YouTube a menudo propicia un campo minado de videos controvertidos. ¿Alguna vez te has preguntado por qué sigue recomendándote el mismo contenido de clickbait incluso después de haber dado a «No me gusta» o «No recomendar»?
Nosotros nos preguntamos lo mismo... y tratamos de averiguarlo.
Con la ayuda de 20.000 seguidores de Mozilla, estudiamos los mecanismos de retroalimentación de YouTube; lo que descubrimos, publicado en el informe «Does This Button Work», es alarmante:
- Los usuarios no tienen el control de su experiencia en la plataforma de video
- Incluso después de usar los mecanismos de retroalimentación, el algoritmo de YouTube a menudo sigue recomendando videos no deseados
Esto es aún más preocupante en el contexto de la investigación que realizamos anteriormente sobre YouTube: en nuestro estudio «YouTube Regrets» de 2021, descubrimos que el algoritmo de YouTube promociona videos que contienen información falsa, discursos de odio y violencia.
Un sistema de recomendaciones de videos que se ha descubierto que recomienda regularmente contenidos peligrosos y que además no responde siempre a la retroalimentación de los usuarios debe ser reparado de forma urgente.
La buena noticia es: YouTube puede resolver este problema, si quiere. Es hora de que la empresa arregle sus herramientas de retroalimentación y ponga a las personas en el asiento del conductor.
Firma nuestra petición y ayúdanos a presionar a YouTube.