So funktioniert's

Wenn Sie einen YouTube Regret senden, werden das Video und die Empfehlungen, die Sie dazu geführt haben, privat an Mozilla-Forscher gesendet.

1 Klicken Sie in der Symbolleiste des Browsers auf das Erweiterungssymbol mit dem grimmigen Gesicht

2 Melden Sie das Video und die Empfehlungen, die Sie dorthin geführt haben

*Bitte beachten Sie, dass nur englischsprachige Videos in unsere Analyse einfließen.

3 Senden Sie alle zusätzlichen Details mit, die Sie Mozilla mitteilen möchten

Mit der RegretsReporter-Erweiterung können Sie sofort Maßnahmen ergreifen, um uns empfohlene Videos zu senden, die Sie sich nicht hätten ansehen wollen – wie Pseudowissenschaften oder Anti-LGBTQ+-Inhalte.

Das Berichtsformular wird Sie bitten, uns mehr über YouTube-Videos mitzuteilen, die Sie sich nicht hätten ansehen wollen, und Informationen über die Empfehlungen zu sammeln, die Sie zum Video geführt haben. Durch Ihre Erfahrungen können Sie uns helfen, Fragen zu beantworten wie: Welche Arten von empfohlenen Videos bereuen Nutzer, sich anzusehen? Gibt es Nutzungsmuster, die dazu führen, dass beklagenswerte Inhalte empfohlen werden? Wie sieht ein YouTube-Fass ohne Boden aus und an welchem Punkt wird es zu etwas, was Sie am liebsten niemals angeklickt haben?



Lassen Sie uns zusammenarbeiten, um Empfehlungs-Engines im Internet vertrauenswürdiger zu machen.

Seit Jahren sagen Journalisten, Forscher und sogar ehemalige YouTube-Mitarbeiter YouTube, dass sie ihre Empfehlungs-Engine daran hindern müssen, Nutzer in rassistische, verschwörerungstheoretische und andere beklagenswerte Fässer ohne Boden zu schicken.

YouTube behauptet, dieses Problem zu beheben, aber alles geschieht hinter verschlossenen Türen, ohne dass die Öffentlichkeit feststellen kann, ob es tatsächlich funktioniert. Im vergangenen Jahr gab Mozilla YouTube drei Empfehlungen, um dieses Problem offener und transparenter anzugehen. Bisher hat YouTube diese Änderungen nicht umgesetzt.

Hier kommen Sie ins Spiel. Mozillas Browser-Erweiterung RegretsReporter verwandelt jeden YouTube-Nutzer in YouTube-Wachhunde. Wir können unsere eigenen Daten verwenden, um Fragen zu beklagenswerten Empfehlungen zu beantworten, die wichtig sein können, um Journalisten zu helfen, die diese Probleme untersuchen, anderen Gruppen wie Mozilla, die auf mehr Rechenschaftspflicht drängen, sowie Ingenieuren und Designern, die diese Technologie entwickeln.

Über Mozilla

Mozilla treibt die Bewegung für ein gesundes Internet und eine vertrauenswürdige KI voran. Wir tun dies durch Projekte wie dieses, die Unternehmen für schädliche KI-Systeme zur Rechenschaft ziehen. Wir setzen uns seit fast einem Jahr dafür ein, dass YouTube sein Empfehlungsproblem angeht. Unten finden Sie eine Zeitleiste der Arbeit von Mozilla zu diesem Thema.

Eine Zeitleiste von Mozillas Arbeit zu diesem Thema

  1. Juli 2019

    Mozilla vergibt an Guillaume Chaslot, einen ehemaligen YouTube-Ingenieur, ein Stipendium zur Unterstützung seiner Arbeit bei der Untersuchung von KI-Systemen, einschließlich der Auswirkungen der YouTube-Empfehlungs-Engine.

  2. 7. August 2019

    Mozilla kündigte unsere Absicht an, das Empfehlungsproblem von YouTube zu untersuchen und einen Dialog mit dem Unternehmen über Verbesserungen zu beginnen.

  3. 14. August 2019

    Mozilla hat eine Leseliste für unsere Gemeinschaft veröffentlicht, in der detailliert beschrieben wird, wie eine Empfehlungs-KI – einschließlich der von YouTube – die Verbraucher manipulieren kann.

  4. 3. September 2019

    Mozilla veranstaltete eine Fragestunde mit einem Teenager, der online radikalisiert wurde, teilweise aufgrund von YouTubes Empfehlungs-KI.

  5. 10. September 2019

    Mozilla hat seine #YouTubeRegrets-Kampagne gestartet und die Benutzer aufgefordert, Geschichten über schädliche Empfehlungen auszutauschen, auf die sie stoßen.

  6. 14. Oktober 2019

    Nach einem Treffen mit YouTube-Mitarbeitern zur Erörterung dieses Problems veröffentlichte Mozilla drei konkrete Maßnahmen, die die Plattform ergreifen könnte, um das Empfehlungsproblem zu lösen. Diese Änderungen führen dazu, dass die Empfehlungsdaten von YouTube transparenter werden.

  7. 15. Oktober 2019

    Mozilla veröffentlichte Ergebnisse unserer #YouTubeRegrets-Forschung, in denen hervorgehoben wurde, wie Benutzern Anti-Wissenschafts-Inhalte, Anti-LGBT-Inhalte und andere schädliche Videos empfohlen wurden.

  8. 26. Oktober 2019

    Auf dem MozFest 2019 hat Mozilla „The Algorithmic Gaze“ eingeladen, eine Gruppe, das die Gefahren nicht vertrauenswürdiger KI wie die Empfehlungs-Engine von YouTube untersucht.

  9. 25. Dezember 2019

    Mozilla veröffentlichte eine laufende Liste von Erklärungen YouTubes, das Probleme im Zusammenhang mit seinem Empfehlungen bestreitet.

  10. September 2020

    Mozilla startet die RegretsReporter-Browser-Erweiterung, um das Empfehlungsproblem von YouTube zu untersuchen.

  11. Juli 2021

    Unter Verwendung von Daten von 37 380 RegretsReporter-Nutzern hat Mozilla erste Erkenntnisse zu den Empfehlungen von YouTube veröffentlicht.