In den letzten Monaten haben Zehntausende von Mozilla-Unterstützern unsere Petition unterschrieben, in der WhatsApp aufgefordert wird, mehr zum Schutz der Integrität von Wahlen zu unternehmen, indem wichtige Plattformfunktionen wie Weiterleiten und Broadcasting eingeschränkt werden, um die Verbreitung von Desinformation und anderen schädlichen Inhalten einzudämmen.
Diese Kampagne ist nur eine von vielen Möglichkeiten, wie Mozilla große Tech-Unternehmen wie WhatsApp dazu bringt, sinnvolle Maßnahmen gegen potenziell schädliche Inhalte zu ergreifen und gleichzeitig die Verschlüsselung zu schützen.
Im Rahmen unserer Kampagne haben wir WhatsApp fünf wichtige Fragen gestellt, wie sie auf das größte Wahljahr aller Zeiten reagieren, einschließlich potenzieller Bedrohungen wie politische Desinformation und Hassrede.
Als Reaktion darauf hat WhatsApp neue Details über seine Wahlstrategie für 2024 bekannt gegeben, darunter Maßnahmen wie Weiterleitungsbeschränkungen und die Kennzeichnung von Nachrichten. Dies ist eine der detailliertesten öffentlichen Äußerungen des Unternehmens über seine bisherige Reaktion auf Wahlen.
Sie können WhatsApps vollständige Antwort auf unsere Fragen und unsere Gedanken dazu unten lesen:
1.
Welche Maßnahmen waren am effektivsten, um die Verbreitung politischer Desinformation und anderer schädlicher Inhalte auf WhatsApp zu stoppen, und wie messen Sie deren Wirksamkeit?
WhatsApp sagt:
Die Funktionen und Designentscheidungen, die wir treffen, wirken zusammen – sie isoliert zu betrachten oder zu analysieren, gibt Ihnen nicht das volle Ausmaß der Auswirkungen. Wir zielen darauf ab, den Missbrauch des Dienstes durch Design zu minimieren und unsere Nutzer zu schützen, während wir die Privatsphäre und Sicherheit wahren, die sie von WhatsApp erwarten, indem wir:
- WhatsApp so gestalten, dass Schäden minimiert und Missbrauch durch Technologie verhindert wird, die verdächtige Verhaltensmuster erkennen kann.
- Den Nutzern die Kontrolle überlassen mit Tools und Einstellungen, um ihre Erfahrung anzupassen und sich vor unerwünschten Interaktionen zu schützen.
- Die Arbeit von Strafverfolgungsbehörden, Sicherheitsexperten, Regulierungsbehörden und Faktenprüfern unterstützen.
Wir haben gezielte Produktinterventionen entwickelt, um die Viralität von Nachrichten (unabhängig vom Inhalt) zu begrenzen und WhatsApp zu einem der wenigen Technologieunternehmen zu machen, die das Teilen absichtlich einschränken:
- Im Jahr 2019 haben wir das Weiterleiten von Nachrichten auf nur fünf Chats gleichzeitig begrenzt. Als diese Einschränkung eingeführt wurde, reduzierte sich die Anzahl der weitergeleiteten Nachrichten auf WhatsApp um über 25 %.
- Im Jahr 2020 haben wir zusätzliche Beschränkungen für Nachrichten eingeführt, die viele Male (mindestens fünfmal) weitergeleitet wurden, sodass sie nur noch an einen Chat gleichzeitig weitergeleitet werden können. Damals sahen wir einen Rückgang dieser Art von Nachrichten um über 70 %.
- Im Mai 2022 haben wir eine neue Einschränkung für Nachrichten eingeführt, die bereits einmal weitergeleitet wurden, sodass sie jetzt nur noch an eine Gruppe gleichzeitig weitergeleitet werden können.
Ich möchte betonen, dass diese Einschränkungen für alle weitergeleiteten Nachrichten gelten – da WhatsApp Ende-zu-Ende-verschlüsselt ist und persönliche Nachrichten privat sind, kann WhatsApp keine Nachrichten lesen. Viele dieser Einschränkungen betreffen harmlose Nachrichten, aber wir haben diesen Schritt unternommen, um die Nutzer zu schützen.
Die gleichen Weiterleitungsbeschränkungen gelten für Kanäle: Sie können einen Beitrag aus einem Kanal nur an bis zu fünf Personen oder Gruppen weiterleiten, und diese Weiterleitungen werden als aus einem Kanal stammend gekennzeichnet, mit einem Link zurück zu diesem Kanal. Kanaladministratoren können auch wählen, Weiterleitungen aus ihrem Kanal einzuschränken.
Wir arbeiten auch daran, Missbrauch des Dienstes zu verhindern und dagegen vorzugehen – mit Fokus auf Verhalten und auf Kontoebene. WhatsApp verfügt über fortschrittliche Technologie, die rund um die Uhr arbeitet, um Konten zu erkennen, die sich abnormal verhalten. Wir sperren monatlich über 8 Millionen Konten wegen Massen- oder automatisierten Messagings.
- Politische Parteien oder Kandidaten, die Automatisierung nutzen oder WhatsApp-Nachrichten ohne Erlaubnis an Nutzer senden, können ihre Konten gesperrt bekommen. Derzeit dürfen politische Kandidaten und Kampagnen die WhatsApp Business Platform nicht nutzen. In vielen Ländern arbeitet WhatsApp vor großen Wahlen mit politischen Akteuren zusammen, um unseren Sicherheitsansatz zu betonen. Wir betonen auch die Bedeutung der verantwortungsvollen Nutzung von WhatsApp.
Um den Nutzern mehr Kontrolle zu geben, haben wir Datenschutz-Tools entwickelt: unbekannte Anrufer stummschalten, kontrollieren, wer Sie zu Gruppen hinzufügen kann, Gruppen leise verlassen, und den Nutzern mehr Kontext darüber geben, wer ein unbekannter Kontakt sein könnte, wenn sie zum ersten Mal eine Nachricht erhalten, sowie Links von unbekannten Kontakten deaktivieren. Diese Tools wurden kürzlich eingeführt und sind Beispiele dafür, wie wir weiterhin innovativ sind und daran arbeiten, die Nutzer zu schützen.
Ein wesentlicher Bestandteil unseres Ansatzes ist die Arbeit, die Nutzer zu befähigen, sich mit zuverlässigen Quellen zu verbinden und sie daran zu erinnern, wie man Fehlinformationen erkennt.
- Wir arbeiten daran, die Nutzer nicht nur durch Kampagnen und Tools (wie die Weiterleitungskennzeichnungen oder das Web-Such-Tool), sondern auch durch Partnerschaften zu stärken.
- WhatsApp hat Partnerschaften und groß angelegte Bildungskampagnen und Kooperationen gestartet, um Fehlinformationen in mehreren Ländern zu bekämpfen, darunter die Misinformation Combat Alliance (MCA) in Indien, die Internet Sehat-Zusammenarbeit in Indonesien und im Radio in Nigeria, in den Jahren 2020 und 2022 mit dem Superior Electoral Court (TSE)-Chatbot in Brasilien und in diesem Jahr vor den Wahlen in Mexiko.
- Unterstützung für Faktenprüfung: Wir haben uns mit dem International Fact-Checking Network zusammengetan, um zertifizierte Faktenprüfer auf WhatsApp verfügbar zu machen, auch auf Kanälen. Dies ermöglicht direkte Faktenprüfungen über Ende-zu-Ende-verschlüsselte Nachrichten und lässt Faktenprüfer ein breiteres Publikum über Broadcast-Kanäle erreichen. Durch diese Partnerschaft nutzen Faktenprüfungsorganisationen in fast 50 Ländern WhatsApp, um Nutzern zu helfen, verlässliche Informationen zu finden.
Was hält Mozilla davon?
WhatsApp sagt, dass ein wesentlicher Teil seines Ansatzes zur Bekämpfung von Desinformation darin besteht, zu versuchen, Inhalte auf seiner verschlüsselten Plattform durch Einschränkungen wie Weiterleitungsbeschränkungen und Kontosperrungen daran zu hindern, viral zu gehen. Das Unternehmen hat auch einige harte Daten zu den Auswirkungen dieser Maßnahmen bereitgestellt und auf signifikante Rückgänge bei der Anzahl der stark weitergeleiteten Nachrichten sowie auf Millionen von gesperrten Konten pro Monat hingewiesen. WhatsApp sagt, dass diese Einschränkungen dazu beitragen, die Nutzer zu schützen, obwohl es auch unseren Aufruf, sie während der Wahlen zu verschärfen, entschieden abgelehnt hat (siehe unten, 2).
Wir hätten uns von WhatsApp mehr Informationen zu den spezifischen Maßnahmen gewünscht, die es ergreift, um politische Akteure daran zu hindern, seine Plattform zu missbrauchen – ein zentrales Anliegen, das Mozilla in unserer Forschung zu Plattformen und Wahlen aufgeworfen hat. Zum Beispiel, wie arbeitet WhatsApp vor Wahlen mit offiziellen Stellen und politischen Akteuren zusammen? Wie unterscheidet sich dieser Ansatz von Land zu Land? Und wenn seine Faktenprüfpartner und andere zivilgesellschaftliche Gruppen Alarm wegen Desinformationskampagnen schlagen, wie reagiert WhatsApp darauf? Dies ist eine besonders kritische Frage für Länder, in denen WhatsApp eine große Nutzerbasis hat, wie in Indien, wo rund eine halbe Milliarde Menschen die App nutzen.
Es ist klar, dass WhatsApp hinter den Kulissen viel in dieser Angelegenheit tut, was es nicht öffentlich teilen kann (natürlich, wie das Unternehmen betont, ist seine Plattform verschlüsselt und es kann keine Nachrichten lesen). Aber mehr Informationen hier zu teilen, hätte uns geholfen, den Ansatz von WhatsApp zur Bekämpfung von schlechten Akteuren auf seiner Plattform zu verstehen.
2.
Würde WhatsApp in Erwägung ziehen, während der Wahlen zusätzliche Reibung beim Weiterleiten von Nachrichten hinzuzufügen, um die Verbreitung von Desinformation und anderen schädlichen Inhalten zu stoppen?
WhatsApp sagt:
Während wir WhatsApp weiterentwickeln, müssen wir die tägliche Nutzbarkeit und die globale Natur des Dienstes berücksichtigen.
- Erstens würde das Hinzufügen zusätzlicher Reibung zum Dienst einen noch größeren Einfluss auf harmlose Nachrichten haben – etwas, von dem wir wissen, dass es bereits mit unseren bestehenden Maßnahmen geschieht, aber wir haben diesen branchenführenden Ansatz gewählt, um die Nutzer zu schützen. Wir sind zuversichtlich, dass unser aktueller Ansatz die Nutzbarkeit des Dienstes und die Sicherheit in Einklang bringt.
- Zweitens ist das Timing von Interventionen zu bestimmten Ereignissen aus globaler Sicht eine Herausforderung. Wie Sie wissen, gibt es in diesem Jahr in mehr als 60 Ländern Wahlen, daher wäre die Anpassung der Funktionalität für eine Teilmenge von Nutzern aus technischer und politischer Sicht eine Herausforderung. Zum Beispiel würde das Anwenden von Beschränkungen auf Nutzer in einem Land nicht die Nutzer erfassen, die ins Ausland Nachrichten senden, es wird Wähler geben, die im Ausland leben, und was als Wahlzeitraum gilt, unterscheidet sich je nach Gesprächspartner.
- Schließlich haben wir auch eine „Web durchsuchen“-Funktion in mehreren Ländern, die es den Nutzern ermöglicht, virale Informationen (in hochgradig weitergeleiteten Nachrichten) leicht zu überprüfen. Diese Funktion ist das ganze Jahr über verfügbar und die Nutzer müssen nur auf die Lupe tippen, die im Chat erscheint, um mehr Informationen über eine Nachricht zu finden.
Die obigen Daten zeigen, dass wir bereits einen erheblichen Einfluss auf die Verringerung der Viralität von häufig weitergeleiteten Nachrichten mit den bereits eingeführten Beschränkungen hatten. Wir sind zuversichtlich, dass unser aktueller globaler Ansatz die Benutzerfreundlichkeit des Dienstes und die Sicherheit in Einklang bringt.
Was hält Mozilla davon?
In unserer Kampagne hatten wir WhatsApp dazu aufgefordert, einen „Pause und Nachdenken“-Schritt beim Weiterleiten von Nachrichten während der Wahlen einzuführen. Eine vorübergehende Maßnahme, die helfen könnte, die Verbreitung von Desinformation und anderem schädlichen Inhalt auf der Plattform zu verlangsamen. Dies basierte auf den Empfehlungen von Mozillas großem neuen Bericht über Wahlen und Online-Plattformen, in dem festgestellt wurde, dass sich solche Inhalte während der Wahlen auf Plattformen wie WhatsApp rasend schnell verbreiteten – in vielen Fällen durch weitergeleitete Nachrichten.
Allerdings ist dies ein Schritt, den WhatsApp einfach nicht bereit ist zu gehen. Das Unternehmen sagt, dass weitere Einschränkungen beim Weiterleiten von Nachrichten das empfindliche Gleichgewicht zwischen Benutzerfreundlichkeit und Sicherheit stören würden, das es zu erreichen versucht. Außerdem sagt es, dass es einfach zu technisch herausfordernd wäre, Einschränkungen in einzelnen Ländern während nationaler Wahlen zu verhängen, und dass solche Maßnahmen nicht effektiv wären.
Dies ist ein nuanciertes und kompliziertes Thema, und es ist wichtig zu sagen, dass einige von WhatsApps Argumenten hier durchaus berechtigt sind – die technischen und politischen Herausforderungen sind sicherlich erheblich. Aber sie sind sicherlich nicht unüberwindbar. WhatsApp ist eines der größten und bestausgestatteten Technologieunternehmen der Welt. Wenn es wollte, könnte es sicherlich die technischen Einschränkungen, die es bereits weltweit für seine Nutzer auferlegt, verschärfen oder lockern, sie an verschiedene Länder anpassen (wie das Unternehmen sagt, „die Funktionalität für eine Teilmenge der Nutzer anpassen“) – oder vorübergehende Maßnahmen wie eine Weiterleitungspause einführen.
WhatsApps Hauptargument hier ist, dass die aktuellen Einschränkungen beim Weiterleiten von Nachrichten ausreichen, um die Menschen vor Desinformation und anderem schädlichen Inhalt zu schützen. Aber es ist schwer für uns, die Stichhaltigkeit dieses Arguments zu beurteilen, ohne mehr über die eigenen Erfolgskriterien des Unternehmens zu wissen. Mit anderen Worten, wie genau beurteilt WhatsApp, ob seine bestehenden Maßnahmen erfolgreich waren, um gezielte Desinformationskampagnen zu stören und die Verbreitung anderer schädlicher Inhalte auf seiner verschlüsselten Plattform einzudämmen? Schaut das Unternehmen beispielsweise nur auf den Rückgang der Anzahl weitergeleiteter Nachrichten, wie es oben angedeutet wird? Nutzt es die Rückmeldungen von Faktenprüfern, die seine Plattform in verschiedenen Ländern nutzen? Solange WhatsApp nicht mehr Informationen öffentlich zugänglich macht, können wir nur spekulieren.
3.
Würde WhatsApp in Erwägung ziehen, die Formulierung der Kennzeichnung zu ändern, um die Nutzer dazu zu bringen, hochgradig weitergeleitete Nachrichten zu überprüfen?
WhatsApp sagt:
WhatsApp hat über 2 Milliarden Nutzer weltweit und unsere Forscher haben daran gearbeitet, die einfachste und effektivste Methode zu finden, um anzuzeigen, dass eine Nachricht weniger persönlich ist und wahrscheinlich nicht von einem engen Kontakt stammt. Verschiedene Stile wurden in verschiedenen Ländern getestet und wir haben festgestellt, dass die Verwendung komplexerer Wörter ihre Wirksamkeit tatsächlich verringern kann, insbesondere bei Bevölkerungsgruppen mit geringer Alphabetisierung. Deshalb sind hoch weitergeleitete Nachrichten mit Doppelpfeilen gekennzeichnet, um anzuzeigen, dass sie nicht von einem engen Kontakt stammen und in einigen Fällen Fehlinformationen enthalten können.
Es ist wichtig zu verstehen, dass unsere Weiterleitungslimits und Kennzeichnungen zusammenarbeiten, sie sind nicht isoliert. Eine der Herausforderungen bei der Forschung, die diese Maßnahmen separat untersucht, besteht darin, dass sie die Wirksamkeit der Partnerschaft der beiden bei der Schaffung von Bewusstsein und Reibung, wenn jemand darüber nachdenkt, etwas weiterzuleiten, nicht erkennt.
Was hält Mozilla davon?
WhatsApp hat sehr deutlich gemacht, dass ihre Funktion „Viele Male weitergeleitet“ hauptsächlich zur Verlangsamung der Verbreitung von „Gerüchten, viralen Nachrichten und Fake News“ (wie es auf ihrer Website heißt) dient. Aber dies ist in der Kennzeichnung, die die Nutzer sehen, wenn sie die App verwenden, nicht wirklich explizit. WhatsApp sagt, dass es verschiedene Versionen dieser Kennzeichnung getestet hat, auch in Kontexten mit geringer Alphabetisierung, wo kompliziertere Formulierungen es den Menschen erschweren könnten, sie zu verstehen. Dies sind wertvolle neue Informationen. Unabhängige Forscher waren gespannt darauf zu verstehen, wie WhatsApp zur aktuellen Formulierung der Kennzeichnung gelangt ist und was sie effektiver macht als explizite Warnungen vor „Gerüchten“ und „Fake News“. Als nächsten Schritt könnte WhatsApp in Erwägung ziehen, Forschern im öffentlichen Interesse, die an dieser Frage interessiert sind, Zugang zu ihren Testdaten zu gewähren.
Wir schätzen, dass das Thema ein kompliziertes ist. Wie WhatsApp selbst in seiner Antwort wiederholt betont, kann es keine Nachrichten auf seiner verschlüsselten Plattform lesen. Das bedeutet, dass jede Kennzeichnung, die es auf hochgradig weitergeleitete Inhalte anwendet, alles abdecken muss, von gezielten Desinformationskampagnen bis hin zu harmlosen Memes. Wir wollten jedoch die Herangehensweise des Unternehmens an die Kennzeichnung im Detail verstehen. Wir haben dieses Thema bei WhatsApp angesprochen, weil Fragen dazu, wie soziale Medienunternehmen potenzielle politische Desinformation und Fehlinformationen für die Nutzer kennzeichnen, in den letzten Jahren besonders dringlich geworden sind. Während der Wahlen in diesem Jahr haben beispielsweise zivilgesellschaftliche Gruppen hohe Mengen an politischer Fehlinformation sowie gezielte Desinformationskampagnen dokumentiert, die sich in sozialen Medien rund um Wahlen in Indien und Europa verbreiten. Daher fühlt sich die Frage, wann und wie Nutzer dazu aufgefordert werden sollen, den Inhalt, den sie auf Plattformen sehen, zu überprüfen, derzeit äußerst dringend an.
4.
Inwieweit schränkt WhatsApp seine Produktfunktionen, einschließlich der Broadcast-Funktionen, während der Wahlen ein? Hat WhatsApp beispielsweise Maßnahmen eingeführt, die mit Facebooks „Glasbruch“-Maßnahmen vergleichbar sind?
WhatsApp sagt:
Weitere Informationen über den Wahlansatz von WhatsApp finden Sie hier.
Vor und während großer Wahlen stellt WhatsApp Teams zusammen, die aus Fachexperten aus unseren Produkt-, Richtlinien- und Betriebsteams bestehen. Diese Gruppen überwachen jede Wahl rund um die Uhr, um schnell auf auftretende Probleme reagieren zu können.
Was hält Mozilla davon?
Wieder einmal wird deutlich, dass WhatsApp hinter den Kulissen eine Menge Arbeit leistet. Aber es wäre hilfreich, wenn sie mehr Informationen öffentlich teilen könnten, besonders für zivilgesellschaftliche Gruppen, die Desinformation und andere schädliche Inhalte auf Online-Plattformen – einschließlich WhatsApp – während der Wahlen dokumentieren.
5.
Inwieweit ist WhatsApp besorgt, dass seine neuen KI-Funktionen die Verbreitung politischer Desinformation und anderer schädlicher Inhalte auf der Plattform erleichtern könnten? Welche Maßnahmen ergreifen Sie, um diese Bedenken auszuräumen?
WhatsApp sagt:
Zusätzlich zu unseren bestehenden Weiterleitungsbeschränkungen und Partnerschaften, die Nutzer befähigen, die erhaltenen Informationen zu überprüfen, entwickeln wir neue Partnerschaften speziell im Bereich KI. Wir haben mit der Misinformation Combat Alliance (MCA) in Indien zusammengearbeitet, um eine spezielle Faktencheck-Hotline auf WhatsApp zu starten. Ziel ist es, Medien, die mit künstlicher Intelligenz und Deepfakes erstellt wurden, zu bekämpfen und den Menschen zu helfen, sich mit verifizierten und glaubwürdigen Informationen zu verbinden.
Wir haben auch mit dem International Fact Checking Network (IFCN) zusammengearbeitet und einen neuen Zuschuss ins Leben gerufen, um Faktenprüfer auf WhatsApp dabei zu unterstützen, KI-generierte Fehlinformation zu bekämpfen, die ihnen gemeldet wird.
Was hält Mozilla davon?
Den Menschen dabei zu helfen, KI-generierte Inhalte sicher zu navigieren, ist eine neue und wachsende Herausforderung für jede Social-Media-Plattform. WhatsApp sagt, dass seine Strategie für dieses Problem derzeit auf der Entwicklung von Faktencheck-Partnerschaften basiert. Dazu gehört zum Beispiel eine Partnerschaft mit einer Faktenprüfungsgruppe in Indien, wo KI-generierte Inhalte – einschließlich ausgeklügelter Deepfakes – eine bemerkenswerte Rolle im politischen Wahlkampf während der letzten Wahl spielten. WhatsApps Ansatz für KI-generierte Inhalte ist also eher iterativ als transformativ: Für den Moment sagt das Unternehmen, dass es auf das gleiche Toolset zurückgreifen wird, das es bereits zur Bekämpfung von Desinformation, Fehlinformation und anderen schädlichen Inhalten auf seiner Plattform verwendet.
WhatsApps Strategie wird sich wahrscheinlich weiterentwickeln, wenn die Beweise für die Auswirkungen von KI-generierten Inhalten auf Wahlen klarer werden. Aber es ist erwähnenswert, dass führende Politiker bereits andere Social-Media-Unternehmen dazu aufgerufen haben, in dieser Angelegenheit proaktiv zu sein. Im letzten März forderte die Europäische Kommission sehr große Online-Plattformen und Suchmaschinen, die unter das Gesetz über digitale Dienste fallen, auf, spezifische Risikominderungsmaßnahmen im Zusammenhang mit generativer KI und Wahlen zu ergreifen. Es ist wichtig zu betonen, dass diese Richtlinien nicht für WhatsApp galten (die Plattform fällt nicht unter das Gesetz, hat aber andere Verpflichtungen als digitaler Dienst), aber sie zeigen, dass die politischen Entscheidungsträger in Europa die potenziellen Auswirkungen von KI auf Wahlen sehr ernst nehmen – und dass sie der Meinung sind, dass Social-Media-Unternehmen mehr tun sollten, um spezifische Risiken zu identifizieren und zu adressieren.