Cómo funciona

Cuando envías un YouTube Regret, el vídeo y las recomendaciones que te llevaron a él se envían de forma privada a los investigadores de Mozilla.

1 Haz clic en el icono de la extensión que se encuentra en la barra de navegación

2 Reporta el vídeo y las recomendaciones que te han llevado hasta él

*Ten en cuenta que solo incluiremos en nuestro análisis los vídeos en inglés.

3 Envía cualquier otro dato que quieras compartir con Mozilla

Con la extensión RegretsReporter, puedes actuar inmediatamente enviándonos los vídeos recomendados que lamentas haber visto, como contenidos de pseudociencia o anti LGBTQ+.

En el formulario del informe, se te pedirá que nos des más información sobre tu YouTube Regret y que reúnas datos sobre las recomendaciones que te llevaron al vídeo. Al compartir tus experiencias, nos ayudarás a responder preguntas como: ¿qué tipo de vídeos recomendados lamentan ver los usuarios? ¿Existen patrones de uso que dirigen a los usuarios hacia una mayor cantidad de contenidos lamentables? ¿Qué aspecto tiene una «madriguera» de YouTube y en qué momento se convierte en algo en lo que desearías no haber hecho clic nunca?



Juntos podemos hacer que los motores de recomendaciones de Internet sean más fiables.

Durante años, periodistas, investigadores e incluso exempleados de YouTube han pedido a la compañía que detenga la espiral tóxica de su motor de recomendaciones, que envía a los usuarios hacia lamentables «madrigueras» de contenidos racistas y conspirativos.

Desde YouTube, declaran que están trabajando para solucionar el problema, pero todo ocurre a puertas cerradas, sin que el público pueda saber si lo que están haciendo funciona. El año pasado, Mozilla le proporcionó tres recomendaciones a YouTube, para contribuir a la solución del problema de una forma abierta y transparente. Pero, de momento, la compañía no ha aplicado los cambios sugeridos.

Es aquí donde entras tú. La extensión RegretsReporter de Mozilla para navegadores convierte a los usuarios habituales de YouTube en vigilantes de sus contenidos. Podemos utilizar nuestros propios datos para responder preguntas sobre recomendaciones lamentables, que pueden ayudar mucho a los periodistas que investigan estos problemas, a otros grupos como Mozilla que luchan por una mayor responsabilidad sobre los contenidos, y a los ingenieros y diseñadores que han construido esta tecnología.

Acerca de Mozilla

Mozilla está impulsando el movimiento a favor de una Internet más saludable y una IA confiable, a través de proyectos como este, que obligan a las compañías a responsabilizarse de los sistemas de IA perjudiciales. Desde hace casi un año, estamos solicitando a YouTube que resuelva este problema de su patrón de recomendaciones. A continuación, te mostramos un cronograma de las acciones de Mozilla al respecto.

Cronograma de las acciones de Mozilla sobre este tema

  1. Julio de 2019

    Mozilla otorga a Guillaume Chaslot, exingeniero de la plataforma YouTube, una beca para apoyar su investigación de los sistemas de IA, que incluye los efectos del motor de recomendaciones de YouTube.

  2. 7 de agosto de 2019

    Mozilla anuncia su intención de investigar el problema de las recomendaciones de YouTube y comienza un diálogo con la compañía sobre posibles mejoras a realizar.

  3. 14 de agosto de 2019

    Mozilla publica una lista de lectura para nuestra comunidad, en la que se detalla de qué modo las recomendaciones de la IA (incluyendo la de YouTube) están diseñadas para manipular a los consumidores.

  4. 3 de septiembre de 2019

    Mozilla organiza un debate con un adolescente cuya ideología fue radicalizada a partir de su actividad online, en parte debido a las recomendaciones de la IA de YouTube.

  5. 10 de septiembre de 2019

    Mozilla lanza su campaña #YouTubeRegrets, en la que insta a los usuarios a que compartan las recomendaciones perjudiciales con las que se encuentran.

  6. 14 de octubre de 2019

    Después de una reunión con YouTube para debatir este tema, Mozilla publicó tres acciones concretas que la plataforma podía llevar a cabo para abordar el problema de sus recomendaciones. Estos cambios implican dar más transparencia a los datos de recomendación de YouTube.

  7. 15 de octubre de 2019

    Mozilla publica los resultados de la investigación #YouTubeRegrets, en la que se destaca que los usuarios recibieron recomendaciones de vídeos perjudiciales con contenidos anticiencia y anti LGTB, entre otros.

  8. 26 de octubre de 2019

    En el festival MozFest 2019, Mozilla organizó «The Algorithmic Gaze», un panel de debate en el que se exploraron los peligros de una IA no confiable, como el motor de recomendaciones de YouTube.

  9. 25 de diciembre de 2019

    Mozilla publica una recopilación de las veces que YouTube ha desestimado investigar el problema de sus recomendaciones.

  10. Septiembre de 2020

    Mozilla lanza la extensión RegretsReporter para navegadores, con el fin de investigar el problema de las recomendaciones de YouTube.

  11. Julio de 2021

    Usando datos compilados por 37.380 usuarios de RegretsReporter, Mozilla lanzó sus primeros descubrimientos sobre las recomendaciones de YouTube.