Der Deepfake-Trend lässt einfach nicht nach. Gefälschte Bilder, Audio und Video lassen sich immer einfacher generieren und sind immer schwieriger zu entlarven. Hat Präsident Biden tatsächlich Wähler angerufen und ihnen gesagt, sie sollen nicht wählen oder war es ein Fake? Hat Donald Trump tatsächlich mit dieser Menschenmenge posiert oder war das Foto ein Schwindel? Mit den bevorstehenden Wahlen machen sich viele Sorgen über die verschärften Auswirkungen, die Deepfake-Inhalte in diesem Jahr auf die Gesellschaft haben werden. Hier kommt: OpenAIs Deepfake-Erkennungstool.
Der Schöpfer von ChatGPT, Open AI, entwickelt eine Software zur Erkennung von Deepfakes und gibt sie vorerst – wie sein KI-generiertes Video-Tool Sora – nur an eine Handvoll früher Tester heraus. Das Deepfake-Erkennungstool wird nach Metadaten suchen, die in Bildern versteckt sind, die von OpenAI’s Dall-E 3 erstellt wurden. Metadaten sind normalerweise Punkte wie der Titel eines MP3-Songs oder Standortdaten, die an ein Foto angehängt sind. In diesem Fall handelt es sich um Informationen, die offenbaren, ob eine Datei von KI erstellt wurde oder nicht. Wenn das Sora-Video-Tool veröffentlicht wird, werden diese Videos auch die gleiche Art von Metadaten enthalten.
So erkennen Sie, ob ein Bild oder Video ein Deepfake ist
OpenAI’s Deepfake-Erkennungstool ist nur die halbe Geschichte. Die andere Hälfte ist, dass OpenAI der Coalition for Content Provenance and Authenticity (auch bekannt als C2PA) beitritt. Die Gruppe hat standardisierte „Nährwertangaben“ im Stil einer Auslesung, die die Gültigkeit eines Inhalts anzeigt. OpenAI wird von großen Unternehmen wie Adobe, BBC, Intel und Google unterstützt, die dazu beitragen werden, die Nährwertangaben der C2PA zu popularisieren.
Die C2PA-Website bietet ein Beispiel für ihre Nährwertangaben, die sie Content Credentials nennen. Klicken oder tippen Sie auf das „cr“-Logo und das Bild wird zeigen, wo und wie es erstellt wurde.
Ist eine Deepfake-Erkennungssoftware überhaupt möglich?
In der jüngsten Forschung von Mozilla haben wir festgestellt, dass aktuelle Technologien zur Unterstützung von Internetnutzern bei der Unterscheidung von synthetischen Inhalten – wie Wasserzeichen und Kennzeichnungen – nicht zuverlässig nicht offengelegte synthetische Inhalte identifizieren können. Neuere Untersuchungen von KI-Erkennungstools haben zum gleichen Ergebnis geführt. Im Falle von OpenAIs Tool scheint das Unternehmen zuversichtlich zu sein, dass sein Tool KI-Duplikate, die mit OpenAI-Software erstellt wurden, erkennen kann. Die Antwort liegt in den Metadaten. OpenAI sagt, es könne KI-generierte Bilder aus seinem DALL-E-Modell dank der in dem Foto versteckten Metadaten 98,8 Prozent der Zeit identifizieren. Obwohl es normalerweise einfach ist, die Metadaten einer Datei zu bearbeiten, behauptet OpenAI, dass die an die resultierende Datei in diesem Fall angehängten Metadaten „fälschungssicher“ sind. Mindestens erscheint die Methode fälschungssicherer als das Hinzufügen eines Wasserzeichens in die untere rechte Ecke eines Fotos oder Videos.
Die Sorgen um Deepfakes werden Experten weiterhin plagen, da falsche Bilder immer häufiger werden. Es ist klar, dass durch KI generierte Bilder die Wahlen 2024 negativ beeinflussen könnten, aber die kommenden Deepfake-Erkennungstools von OpenAI könnten ein Vertrauensvotum sein.
Deepfake-Erkennungsapp? Der Schöpfer von ChatGPT könnte eine auf dem Weg haben
Geschrieben von: Xavier Harding
Bearbeitet von: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding
Zeichnungen von: Shannon Zepeda