Von den USA und dem Vereinigten Königreich bis hin zu Panama und Brasilien ist das Jahr 2024 weltweit ein entscheidendes Wahljahr. Und hier kommt der gruselige Teil: Generative KI wird wirklich gut. So gut, dass das Erstellen eines überzeugenden falschen Bildes oder Videos einer öffentlichen Figur einfacher denn je ist. Das gilt sogar auch für Nicht-Prominente, wie Mitglieder Ihrer Familie oder Ihre Kollegen. Das Potenzial für Unfug ist gleichermaßen offensichtlich und beunruhigend.
Wie sehen diese Probleme in der realen Welt aus? Einige der offensichtlichsten Beispiele umfassen Deepfakes von Präsident Biden, der die Menschen dazu auffordert, nicht zu wählen, manipulierte Bilder von Trump neben schwarzen Wählern und ein Fake-Video von Putin, der auf Englisch vor Wahlmanipulation warnt. „Früher musste man Informatiker sein, um so etwas Übles zu tun wie einen Virus oder Ransomware zu entwickeln, aber in der Welt der Deepfakes in den allgemeinen Medien gibt es über 100.000 Tools, die mit einer einfachen Google-Suche online verfügbar sind“, sagt Ben Coleman, CEO von Reality Defender. Die Leute bei Reality Defender haben es sich zur Aufgabe gemacht, Deepfakes zu entlarven. (Kleine lustige Tatsache: Das Unternehmen verwendet Open-Source-Daten von Mozillas Common Voice, um seine Tools zu trainieren.)
„Wir haben Reality Defender im Jahr 2021 gegründet und es fühlt sich an, als hätten wir die richtige Idee zur falschen Zeit gehabt“, sagt Ben. „Wir dachten, dass Deepfakes bei der letzten Wahl ein Problem sein würden, aber das waren sie nicht. Doch jetzt ist Cloud-Computing für jeden verfügbar“, erklärt Ben (Cloud-Computing bedeutet, aus der Ferne Zugang zu wirklich leistungsstarker Computerhardware zu haben). „Man kann mit einem von Tausenden kostenlosen oder kostengünstigen Tools in nur wenigen Sekunden die Stimme einer Person fälschen. Die Bedrohung durch Deepfakes nimmt dramatisch zu.“
Welche Arten von Deepfakes sollten Sie während der Wahlsaison 2024 im Auge behalten?
Deepfakes gibt es in allen Formen und Größen. Heutzutage können sie über Videos hinausgehen, in denen eine berühmte Person etwas sagt, was sie niemals sagen würde. Mozilla Senior Fellow Tarcizio Silva erinnert sich an einige Beispiele von Deepfake-Nachrichten, die genauso beunruhigend waren. „Vor den letzten Präsidentschaftswahlen 2022 kursierte ein Video auf WhatsApp in Form einer Simulation der brasilianischen Nachrichtensendung Jornal Nacional“, sagt Tarcizio. „Die Hauptnachrichtensprecher behaupteten, Bolsonaro würde in den Umfragen führen, obwohl tatsächlich das Gegenteil der Fall war.“ Tarcizio merkt an, dass die Deepfakes erstellt wurden, um die bei der Wahl verwendeten Wahlmaschinen zu diskreditieren, obwohl diese Maschinen eigentlich als sehr zuverlässig gelten.
Sie sollten auch Ihrem Ehepartner gegenüber skeptisch sein – zumindest was Deepfakes Ihres Ehepartners betrifft. Laut Ben können viele Deepfake-Betrügereien auf diese Weise beginnen. „Stellen Sie sich Erpressungsanrufe vor, bei denen ein geliebter Mensch sagt: ‘Ich bin in Schwierigkeiten, aber wenn du nur etwas Geld überweist, wird alles gut’“, sagt Ben. „Wenn dies meinem Partner oder einem meiner beiden Kinder passieren würde, ja, ich würde denken, es ist fake. Aber würde ich auch das Risiko eingehen wollen, dass es nicht so ist?
Deepfake-Telefonanrufe zu durchschauen kann schwierig sein, wenn man nicht weiß, auf welche Hinweise man achten muss. Selbst wenn man es tut, muss man aktiv danach suchen – wie oft erwartet man schon, bei einem eingehenden Anruf herausfinden zu müssen, ob die Person am anderen Ende KI oder echt ist? Man ist vielleicht darauf vorbereitet, skeptisch zu sein, wenn der Präsident auf der eigenen Social-Media-Zeitleiste etwas Merkwürdiges sagt, aber würde man denselben Skeptizismus auch auf, sagen wir, einen Anruf vom eigenen Arbeitsplatz anwenden? „Stellen Sie sich vor, Sie sind Wahlhelfer und Ihr Chef ruft an, um zu sagen: ‘Kommen Sie heute nicht, wir schließen das Wahllokal’", sagt Ben. Wahlen können auf vielfältige Weise beeinträchtigt werden.
Was Sie tun können, um Deepfakes in dieser Wahlsaison im Auge zu behalten
Beim Erkennen von Deepfakes in Ihrem sozialen Netzwerk stehen Ihnen einige Tools zur Verfügung. Wenn Sie Glück haben, bietet das Bild oder Video, das Sie betrachten, in der Ecke ein Content Credentials-Tag, das Ihnen schnell verraten kann, wie etwas erstellt wurde. Unternehmen wie der ChatGPT-Hersteller OpenAI haben versprochen, solche Tools in Zukunft bei ihren Kreationen zu verwenden. Wenn Sie das Tag jedoch nicht sehen, führen Sie eine umgekehrte Bildsuche durch, um zu sehen, wo dieses Medienelement sonst noch existiert. Vergessen Sie auch nicht, Ihre Vorurteile im Zaum zu halten, sagt Tarcizio. „Wenn Gemeinschaften von Hass oder Vorurteilen geprägt sind, ist es wahrscheinlicher, dass sie Informationen nicht überprüfen, wenn sie etwas sehen, das ihre Überzeugungen unterstützt“, sagt er. Vergessen Sie nicht zu verifizieren, selbst wenn etwas Ihre Weltanschauung unterstützt.
Aber was ist mit Deepfakes auf einer persönlicheren Ebene? Wie verteidigen Sie sich gegen Betrugsanrufe von Ihrem gefakten Chef oder Ihrer gefakten besseren Hälfte, in denen es heißt: „Bleiben Sie heute von der Arbeit fern“ oder „Überweis mir Geld“ oder beides? Ben sagt, die Antwort sei IRL 2FA – das heißt, eine zweite Methode zu haben, um zu bestätigen, mit wem Sie sprechen. „Verwenden Sie ein Passwort mit Ihrer Familie, das nur sie kennen würde“, sagt Ben. „Verwenden Sie einen geheimen Ausdruck wie ‚Banane’ oder ein Sportteam – nicht etwas Offensichtliches wie die Knicks, wenn Sie aus New York sind. Die Idee, unserer alltäglichen Kommunikation eine Zwei-Faktor- oder Multi-Faktor-Authentifizierung hinzuzufügen, kann uns helfen zu vertrauen, aber auch zu verifizieren.“ Einfach ausgedrückt, wenn Ihre Chefin anruft, um Sie von den Wahlurnen fernzuhalten, und sie die Knicks und nicht Bananen erwähnt, stehen die Chancen gut, dass es sich um eine Deepfake-Täuschung handeln könnte.
Deepfakes werden gerade rechtzeitig zur Wahlsaison persönlich
Geschrieben von: Xavier Harding
Bearbeitet von: Audrey Hingle, Kevin Zawacki, Lindsay Dearlove, Tracy Kariuki, Xavier Harding
Zeichnungen: Shannon Zepeda