
2024 ist ein Wahljahr. Etwa 50 Länder – ungefähr die Hälfte der Weltbevölkerung – gehen in diesem Jahr zur Wahl. 2024 ist auch ein Jahr der generativen KI. Obwohl ChatGPT bereits Ende 2022 gestartet wurde, markiert dieses Jahr eine breitere Akzeptanz, beeindruckendere Leistungsniveaus und ein tieferes Verständnis der Risiken, die diese Technologie für unsere Demokratien darstellt.
Wir haben bereits Anwendungen von generativer KI im politischen Bereich gesehen. In den USA gibt es Deepfakes von Biden, der Robo-Anrufe tätigt, um von der Stimmabgabe abzuschrecken, und der sich transphobisch äußert, und von Trump, der Dr. Anthony Fauci umarmt.. Anderswo haben Argentinien und die Slowakei generative KI eingesetzt, um Wahlen zu manipulieren.
In Anerkennung dieser Risiken nehmen wichtige Akteure in der generativen KI, wie OpenAI, Stellung. Ihre Richtlinie verbietet ausdrücklich: „Beteiligung an politischen Wahlkämpfen oder Lobbyarbeit, einschließlich der Erstellung von Wahlkampfmaterialien, die auf bestimmte demografische Gruppen personalisiert oder ausgerichtet sind.“
Darüber hinaus erklären sie in einem kürzlichen Blogbeitrag: „Wir arbeiten immer noch daran zu verstehen, wie effektiv unsere Tools für personalisierte Überzeugungsarbeit sein könnten. Bis wir mehr wissen, erlauben wir es nicht, Anwendungen für politische Wahlkämpfe und Lobbyarbeit zu erstellen.”
Leider scheint es, dass diese Richtlinien nicht durchgesetzt werden.
In einem einfachen Experiment mit einem gewöhnlichen ChatGPT Plus-Abonnement war es schnell (vielleicht 5 Minuten) und einfach für uns, personalisierte Wahlkampfanzeigen zu generieren, die für die US-Wahl relevant sind. Die von uns verwendeten Aufforderungen sind unten aufgeführt, gefolgt von dem Inhalt, den ChatGPT generiert hat.


Es gibt verschiedene Möglichkeiten, wie OpenAI versuchen könnte, ihre Richtlinien durchzusetzen. Erstens können sie bestärkendes Lernen verwenden, um das System zu trainieren, sich nicht auf unerwünschtes Verhalten einzulassen. Ebenso kann eine „Systemaufforderung” verwendet werden, um dem Modell zu sagen, welche Arten von Anfragen abgelehnt werden sollten. Die Leichtigkeit, mit der ich das Material generieren konnte – keine speziellen Aufforderungstricks erforderlich – deutet darauf hin, dass diese Ansätze nicht auf die Wahlkampfmaterialrichtlinie angewendet wurden. Es ist auch möglich, dass es eine Überwachung von potenziell verletzendem Gebrauch gibt, der dann von Moderatoren überprüft wird. Die Unternehmensdatenschutzrichtlinie von OpenAI, zum Beispiel, besagt, dass sie „API-Eingaben und -Ausgaben bis zu 30 Tage sicher aufbewahren können, um die Dienste bereitzustellen und Missbrauch zu identifizieren“ (Hervorhebung hinzugefügt). Dieses Experiment fand am 15. Januar statt – dem Tag, an dem OpenAI ihren Blogbeitrag veröffentlichte, in dem sie ihren Ansatz zu den Wahlen darlegten – ohne dass OpenAI bisher reagiert hat, aber wir werden weiterhin beobachten, ob sich etwas tut. [1]
In jedem Fall ist OpenAI nicht der einzige Anbieter von leistungsfähigen generativen KI-Systemen. Es gibt bereits Dienste, die speziell für politische Kampagnen entwickelt wurden. Ein Unternehmen bezeichnet sich sogar als „ethischer Deepfake-Hersteller“.
Im Rahmen unserer Arbeit bei Open-Source-Forschung & -Untersuchungen, dem neuen digitalen Untersuchungslabor von Mozilla, planen wir, diesen Bereich weiter zu erforschen: Wie effektiv ist generative KI bei der Erstellung von fortgeschrittenerem politischen Inhalt, mit überzeugenden Bildern und Grafikdesign? Wie ansprechend und überzeugend ist dieser Inhalt wirklich? Können die Botschaften effektiv auf die spezifischen Überzeugungen und Interessen eines Einzelnen zugeschnitten werden? Bleiben Sie dran, während unsere Forschung voranschreitet. Wir hoffen, dass OpenAI ihre Wahlrichtlinien durchsetzt – wir haben in der Vergangenheit zu oft gesehen, wie Schaden durch nicht durchgesetzte Richtlinien auf Online-Plattformen angerichtet wurde.
[1] Wir bei Mozilla sind der Meinung, dass die Unterdrückung unabhängiger, im öffentlichen Interesse liegender Forschung und die Bestrafung von Forschern keine gute Idee ist.
Jesse McCrosky ist ein unabhängiger Forscher, der mit Mozillas Open-Source-Forschung- und -Untersuchungen-Team zusammenarbeitet.