Studie untersucht mehr als 200 Interventionen von Meta, Google und anderen, die über sieben Jahre und in 27 Ländern eingesetzt wurden. Initiativen zur Eindämmung von Fehlinformationen in mehreren Ländern scheinen formelhaft zu sein und in einer ineffektiven Wiederholungsschleife festzustecken.

(NAIROBI, KENIA | 27. FEBRUAR 2024) – Angesichts einer historischen Anzahl von Wahlen auf der ganzen Welt im Jahr 2024 belasten die unzureichenden Richtlinien von Online-Plattformen im Globalen Süden fragile Demokratien erheblich. Dies geht aus einer Reihe von wahlbezogenen Untersuchungen hervor, die heute von Mozillas Open Source Research and Investigations Team veröffentlicht wurden.

Einer der Berichte des Teams, Plattformen, Versprechen und Politik: Ein Realitätscheck der Versprechen von Plattformen vor Wahlen von Odanga Madung, untersucht die von Meta, TikTok, YouTube und X in verschiedenen Regionen angekündigten Wahlrichtlinien – und offenbart beunruhigende Muster darüber, was, wo und warum diese Initiativen eingesetzt werden.

Darüber hinaus veröffentlicht Mozilla ein „Globales Fallbuch zu Wahlen“, das drei Fallstudien zu Wahlen in Indien (2019), Brasilien (2022) und Liberia (2023) enthält. Es untersucht die Schwierigkeiten der Plattformen, bedeutungsvolle Richtlinien und Interventionen rund um Wahlen mit komplexen Informationsumgebungen, Sprachen und kulturellen Kontexten zu entwickeln. Ein gemeinsamer Nenner dieser Fallstudien ist, dass die Plattformen durchweg unzureichend vorbereitet sind und zu wenig Ressourcen für Initiativen zum Schutz von Wahlen in der globalen Mehrheit bereitstellen. Darüber hinaus spielen Messaging-Apps wie WhatsApp und Telegram eine entscheidende Rolle bei der Verstärkung von Fehlinformationen zu Wahlen, doch der Betrieb der Plattform wird nur begrenzt überwacht. Das Fallbuch wird im Laufe des kommenden Jahres um Wahlen in anderen Ländern erweitert.

Madungs Bericht veranschaulicht anschaulich die ungleichen Strategien der Plattformen, wenn es um wahlbezogene Richtlinien geht. Die Studie untersucht mehr als 200 Ankündigungen von Plattformen aus den Jahren 2016 bis 2023 und aus 27 Ländern – und stellt fest, dass der Löwenanteil dieser Interventionen ausschließlich in den USA oder Europa stattfand. Diese Maßnahmen machen mindestens 62 % der insgesamt 197 geografischen Maßnahmen aus. Für die Studie analysierte Madung Maßnahmen, die von Werbeverboten und -moratorien über Partnerschaften zur Faktenüberprüfung und Programme zur digitalen Bildung bis hin zu Verpflichtungen zur Moderation von Inhalten reichen.

Dem Bericht zufolge waren die drei am häufigsten angekündigten Wahlinterventionsplattformen 1) Programme zur digitalen Kompetenz (23 Länder), 2) Initiativen zur Faktenüberprüfung (21 Länder) und 3) Aktualisierungen der Richtlinien zur Inhaltsmoderation (21 Länder). Während die Interventionen in den USA und Europa hauptsächlich auf politische Werbung abzielten, richteten sich die Richtlinien in der globalen Mehrheit auf Strategien zur Inhaltsmoderation, die durch massive Entlassungen von Vertrauens- und Sicherheitsteams und schlechte Arbeitsbedingungen für Inhaltsmoderatoren erschüttert wurden. Madung stellte fest, dass die Mehrheit der öffentlichkeitswirksamen Ankündigungen über Interventionen zur Inhaltsmoderation von Meta veröffentlicht wurden, dicht gefolgt von TikTok.

Social-Media-Plattformen haben eine überproportionale Rolle bei der Verbreitung von Desinformationen gespielt, oft mit verheerenden Folgen im Globalen Süden, von der Entfachung von Gewalt in Tigray, Äthiopien, bis hin zur politischen Verwüstung in Brasilien. Mit der zunehmenden Verbreitung von KI-generierten Inhalten im Internet finden diese nun auch ihren Weg in unsere Demokratien. KI-generierte Deepfakes scheinen politische Ideologien zu beeinflussen und Wähler zu verführen, während sie das Vertrauen in Wahlinstitutionen untergraben.

Während die Plattformen aufholen, um die Bedrohung durch KI-Deepfakes einzudämmen, hinken systemische Änderungen der Politik in den Ländern der globalen Mehrheit hinterher. Die Untersuchung ergab, dass die meisten Plattformen in Ländern der globalen Mehrheit wahrscheinlich Maßnahmen ergreifen, wenn diese Wahlen mit den USA übereinstimmen, was den Weg für ausnutzbare Schwachstellen ebnet.

Odanga Madung sagt: „Es ist eine eklatante Farce, dass Plattformen die USA und Europa mit übermäßiger Politikverwöhnung und Schutzmaßnahmen unverhohlen bevorzugen, während sie systematisch die Wahlintegrität der Länder der globalen Mehrheit vernachlässigen. Diese verzerrte Ressourcenverteilung ist kein Zufall, sondern eine unverhohlene Darstellung von eigennützigen Taktiken, die eine verwerfliche Gleichgültigkeit gegenüber der globalen demokratischen Stabilität zugunsten von Regionen hervorheben, in denen ihre Gewinnspanne durch regulatorische Gegenreaktionen bedroht sein könnte.“

Diese verzerrte Ressourcenverteilung ist kein Zufall, sondern eine unverhohlene Darstellung von eigennützigen Taktiken, die eine verwerfliche Gleichgültigkeit gegenüber der globalen demokratischen Stabilität zugunsten von Regionen hervorheben, in denen ihre Gewinnspanne durch regulatorische Gegenreaktionen bedroht sein könnte.

Odanga Madung

Sonstige Ergebnisse

  • Unwirksamer Einheitsansatz: Madung beobachtete, dass wahlbezogene Interventionen in Kenia, Nigeria und Äthiopien tiefe Ähnlichkeiten aufwiesen, als ob sie von einer Vorlage kopiert worden wären, obwohl jedes dieser afrikanischen Länder einzigartige sozialpolitische Kontexte hat. Verheerenderweise scheint diese Praxis üblich zu sein. Brasilianische Forscher stellten im Vorfeld der brasilianischen Wahlen im Jahr 2022 ebenfalls einen nachlässigen „Copy-Paste“-Ansatz zwischen den in den USA angekündigten TikTok-Richtlinien und denen in Brasilien fest. Die kopierte Übersetzungsrichtlinie war so schlampig, dass sie Briefwahl enthielt, die es in Brasilien nicht gibt. Die Nachlässigkeit der Plattformen bei der Einführung wirksamer Richtlinien markiert den Höhepunkt der Missachtung der Demokratie in Ländern der globalen Mehrheit, so der Bericht

Ein Screenshot von Metas Wahlstrategien in Kenia, Nigeria und Äthiopien
Abbildung 1. Ein Screenshot von Metas Wahlankündigung in Kenia, Nigeria und Äthiopien

  • Politische Unordnung und WhatsApp: WhatsApp hat eine große Nutzerbasis in Ländern wie Nigeria, Brasilien, Indien und anderswo in der globalen Mehrheit, wo Milliarden von Menschen auf die Plattform angewiesen sind, um zu kommunizieren. Trotz der entscheidenden Rolle von WhatsApp im Informationsökosystem hat Meta die Richtlinien nicht aktualisiert, um das exponentielle Wachstum der App von einem privaten Messaging-Tool zu einem Rundfunk-Tool ähnlich einem öffentlichen sozialen Netzwerk widerzuspiegeln. Der Bericht enthüllt die Leichtigkeit, mit der Propaganda und andere Formen von Desinformation über WhatsApp verbreitet werden können. In der indischen Fallstudie der Wahlen 2019 stellt der Forscher Divij Joshi fest, dass politische Parteien die persönlichen Informationen der Wähler von Datenmaklern gekauft und WhatsApp-Gruppen auf der Grundlage von „Zielgruppensegmenten“ erstellt haben, um diese Gruppen aktiv mit den ansprechendsten Nachrichten anzuvisieren. „Die Wahlpropaganda ist professionalisiert worden“, argumentiert Joshi. Im brasilianischen Kontext der Wahlen 2022 betonen die Forscherinnen Lorena Regattieri und Débora Salles die Rolle von WhatsApp und Telegram bei der Schneeballbildung von Desinformation, Verschwörungstheorien und der Verstärkung von Quellen für Schundnachrichten.

  • Initiativen zur Faktenüberprüfung passen nicht immer zu lokalen Kontexten.
    Wahlinterventionen in Ländern der globalen Mehrheit neigen dazu, in nicht-englischsprachigen Kontexten begrenzt zu sein, was sich erheblich auf Initiativen zur Faktenüberprüfung auswirkt. Dies war besonders schädlich bei den liberianischen Wahlen 2023, wie die Fallbuchforscher Eric Mugendi und Rabiu Alhassan feststellten. Forscher argumentieren, dass Metas Verlass auf Faktenprüfer außerhalb des Landes den Punkt verfehlte, lokale Einblicke zu liefern, was sich auf die Qualität der wahlbezogenen Informationen auf der Plattform auswirkte.

  • Keine Transparenz über die Ressourcen hinter den Wahlinterventionen. Madung stellte fest, dass nur eine Handvoll Ankündigungen monetäre Investitionen in diese Verpflichtungen enthielten, und selbst in diesen wenigen Fällen war nicht klar, welche Initiativen diese Investitionen erhielten.

Pressekontakte:

Kevin Zawacki: [email protected]
Dea Bala: [email protected]