RegretsReporter
La extensión RegretsReporter para navegador ha sido creada por la organización sin fines de lucro Mozilla para ayudarte a controlar las recomendaciones que recibes de YouTube.
Resultados del estudio sobre el control de los usuarios de YouTube
Mozilla escudriñó YouTube para determinar cuánto control tienen las personas sobre el algoritmo de recomendaciones de la plataforma, sobre la base de los datos donados por 22.722 personas. Esto es lo que hemos descubierto.
Conjunto de datos de RegretsReporter
El conjunto de datos RegretsReporter puede utilizarse para investigar y analizar el impacto del motor de recomendaciones de YouTube en las comunidades de todo el mundo.
Resultados de la investigación sobre arrepentimientos en YouTube
Gracias a la participación de 37.380 usuarios de YouTube, Mozilla ha llevado a cabo un estudio para comprender mejor cómo funcionan las recomendaciones perjudiciales que realiza YouTube. Aquí puedes ver lo que hemos descubierto.
Historias de arrepentimientos en YouTube
¿Te arrepientes de algún click que hiciste en YouTube? ¡Es algo que le pasa a miles de personas! Estas son historias que Mozilla recopiló al preguntarle a la gente sobre los vídeos que desearían no haber abierto nunca y que los enviaron a una dimensión desconocida...
Entradas del blog
-
Promoción y defensa 6 de julio de 2020
Congratulations, YouTube... Now Show Your Work
Earlier this week, YouTube finally acknowledged their recommendation engine suggests harmful content. It’s a small step in the right direction, but YouTube still has a long history of dismissing independent researchers. We created a timeline to prove it.
Brandi Geurkink y Helena McDonald
Julio de 2019: Mozilla otorga a Guillaume Chaslot, exingeniero de la plataforma YouTube, una beca para apoyar su investigación de los sistemas de IA, que incluye los efectos del motor de recomendaciones de YouTube.
7 de agosto de 2019: Mozilla anuncia su intención de investigar el problema de las recomendaciones de YouTube y comienza un diálogo con la empresa sobre las mejoras que deberían hacerse.
14 de agosto de 2019: Mozilla publica una lista de lecturas para nuestra comunidad, en la que se detalla de qué modo las recomendaciones de la IA (incluyendo la de YouTube) pueden manipular a los consumidores.
3 de septiembre de 2019: Mozilla organiza un debate con un adolescente cuya ideología fue radicalizada a partir de su actividad online, en parte debido a las recomendaciones de la IA de YouTube.
10 de septiembre de 2019: Mozilla lanza su campaña #YouTubeRegrets, en la que insta a los usuarios a que compartan las recomendaciones perjudiciales con las que se encuentran.
14 de octubre de 2019: después de una reunión con YouTube para debatir este tema, Mozilla publicó tres acciones concretas que la plataforma podía llevar a cabo para abordar el problema de sus recomendaciones. Estos cambios implican dar más transparencia a los datos de recomendación de YouTube.
15 de octubre de 2019: Mozilla publica los resultados de la investigación #YouTubeRegrets, en la que se destaca que los usuarios recibieron recomendaciones de vídeos perjudiciales con contenidos anticiencia y anti LGTB, entre otros.
26 de octubre de 2019: en el festival MozFest 2019, Mozilla organizó «The Algorithmic Gaze», un panel de debate en el que se exploraron los peligros de una IA poco fiable, como el motor de recomendaciones de YouTube.
25 de diciembre de 2019: Mozilla publica una recopilación de las veces que YouTube ha desestimado investigar el problema de sus recomendaciones.
Septiembre de 2020: Mozilla lanza la extensión RegretsReporter para navegadores, con el fin de investigar el problema de las recomendaciones de YouTube.
Julio de 2021: usando datos compilados por 37.380 usuarios de RegretsReporter, Mozilla lanzó sus primeros hallazgos sobre las recomendaciones de YouTube.
Septiembre de 2022: Mozilla publica un informe en el que examina YouTube para determinar cuánto control tienen las personas sobre el algoritmo de recomendaciones de la plataforma.