Fake News verbreiten sich nicht von selbst. Künstliche Intelligenz (KI) ist oft an der viralen Verbreitung von Fehl- und Desinformationen beteiligt – von Todesmeldungen Prominenter über politische Angriffe bis hin zu medizinischen Unwahrheiten. Schauen Sie sich an, was Spandi Singh vom Open Technology Institute der Organisation New America dazu herausfand, wie KI (unbeabsichtigt) zu einem Superspreader für Fake News angelernt werden kann.

Viele Plattformen, darunter Facebook, Twitter, YouTube und TikTok, verlassen sich zumindest teilweise auf KI und Tools für maschinelles Lernen, um die Inhalte, die wir online sehen, zu kuratieren und zu moderieren.

Ranking- und Empfehlungsalgorithmen kuratieren die Inhalte, die Menschen sehen – optimiert im Hinblick auf „Engagement“, zum Beispiel Klicks. Wenn also ein Inhalt – beispielsweise eine schockierende (falsche) Nachricht über den Tod eines Prominenten – viel Aufmerksamkeit erhält, lernt der Algorithmus, dass dieser Inhalt attraktiv und somit „relevant“ ist, und verstärkt diese (Fehl-)Informationen häufig, indem er sie noch mehr Menschen zeigt.

Paradoxerweise verstärkt KI nicht nur unbeabsichtigt falsche Informationen, sondern ist auch ein wichtiges Werkzeug, auf das sich die Plattformen verlassen, wenn es um die Bekämpfung irreführender Informationen geht. KI können die Plattformen zum Beispiel verwenden, um Inhalte zu Themen wie Impfstoffen zu erkennen, zu markieren und mit glaubwürdigen Quellen zu verlinken, damit die Benutzer die gesehenen Fakten überprüfen können.

Aber wir wissen nur, wie diese Techniken im weiteren Sinne funktionieren. Plattformen teilen nicht viele Informationen darüber, wie ihre Algorithmen funktionieren, wann sie diese Tools verwenden oder zu welchen Ergebnissen sie bei ihrer Anwendung kommen. Wir wissen also nicht, wie effektiv sie bei der Bekämpfung absichtlich oder versehentlich irreführender Informationen sind.

Wie wir in den letzten Jahren gesehen haben, sind die Folgen einer viralen Verbreitung falscher Inhalte erheblich und wirken sich oft auf bereits gefährdete Gruppen aus. Da politische Entscheidungsträger weltweit ihr Interesse daran verstärken, die Plattformen für die Auswirkungen ihrer Algorithmen zur Verantwortung zu ziehen, bietet sich eine gute Gelegenheit, um staatliche Kontrollen zu verstärken und die Plattformen zur Übernahme einer stärkeren Verantwortung zu veranlassen. In einem ersten Schritt setzen wir uns für einen strengeren Datenschutz für die Benutzer und für eine stärkere Transparenz seitens der Plattformen rund um die Funktionsweise ihrer KI-basierten Tools ein.

Lesen Sie den aktuellen Bericht Mozilla hat gemeinsam mit dem Open Technology Institute der Organisation New America und anderen Partnerorganisationen einen Beitrag zu dem Thema Wie KI die Verbreitung von Desinformationen begünstigen kann veröffentlicht.