Ende November 2022 hat OpenAI ChatGPT auf den Markt gebracht und es ist fast schon lächerlich, wenn man bedenkt, wie begeistert viele von uns über KI-generierte Texte waren. Jetzt zeigt OpenAI, was es in der Videowelt kann. Sora, das neueste Tool des Unternehmens, ermöglicht es Benutzern, hochauflösende Videos aus einem einfachen Textabsatz zu erstellen. Auf der Website von OpenAI finden Sie einige Beispiele für KI-generierte Videos. Die Bandbreite der Aufnahmen ist beeindruckend: von faszinierend bis gruselig, bis hin zu „Ich kann kaum glauben, dass eine KI meine Worte so mühelos in visuelle Inhalte umwandeln kann“.

(Es sollte erwähnt werden, dass Sora noch nicht für die Öffentlichkeit verfügbar ist, wir haben es also nicht ausprobiert. Noch nicht.)

So erkennen Sie KI-generierte Videos

Möglicherweise machen Sie sich Sorgen, in einer Welt zu leben, in der jeder mit nur wenigen Sätzen ein hyperrealistisches Video erstellen kann. Was wird das für politische Wahlen bedeuten? Was wird das für Deepfake-Betrügereien bedeuten? Was wird das für Trolle bedeuten, die allzu bereit sind, das Erscheinungsbild einer öffentlichen Persönlichkeit zu missbrauchen?

Bis jetzt enthalten von Sora generierte KI-Videos ein Wasserzeichen in der unteren rechten Ecke. (Das Wasserzeichen sieht aus wie eine Wellenform, die sich in das OpenAI-Logo verwandelt.) Aber es ist nicht schwer vorstellbar, wie Menschen dieses Wasserzeichen verstecken könnten, wenn sie wollten (einfach durch Zuschneiden, zum Beispiel) oder es ganz übersehen. Gibt es andere Möglichkeiten zu erkennen, ob ein Video von KI generiert wurde?

Valentine Goddard, Preisträgerin des Mozilla Creative Media Awards, ist eine auf KI spezialisierte Anwältin. Als wir mit Valentine sprachen, riet sie uns, auf das Unmögliche zu achten. „Zu den offensichtlichen Hinweisen gehören physische Unmöglichkeiten wie das Laufen in die falsche Richtung auf dem Laufband, [Menschen mit] zu vielen Fingern oder zu perfekte Äste“, sagt Valentine. Das Laufband-Video auf der OpenAI-Website sieht nicht nur aus wie ein Fitness-Horrorfilm, sondern weist auch auf einen Mangel an Physik hin, den wir oft in KI-komponiertem Material sehen. Valentine weist auch darauf hin, ein Auge auf Lebewesen zu haben – Menschen, Haustiere usw. – und zu prüfen, ob sie echt aussehen und sich echt anfühlen. „Ich finde auch die Leere in den Augen und die langsame Geschwindigkeit der Figuren in Videos sehr aufschlussreich. Die Bewegung hat etwas Mechanisches.“

Wie kann man Fehlinformationen in KI-generierten Videos erkennen?

Es ist alles Spiel und Spaß, wenn eine namenlose Person die Straße entlangläuft oder rückwärts auf einem Laufband rennt. Aber was passiert, wenn jemand ein KI-generiertes Video verwendet, um Präsident Biden zu imitieren?

Tools wie Sora ändern die Regeln, wenn es darum geht, Fehlinformationen in Ihrem Social-Media-Feed und in Ihren Gruppenchats zu erkennen. Die oben genannten Ratschläge gelten nach wie vor: Achten Sie auf das Wasserzeichen von OpenAI, achten Sie auf leere Augen und langsame Bewegungen und achten Sie auf die Unmöglichkeiten – wie viele Finger sind vorhanden? Sind sie an einem Körper befestigt?

Prüfen Sie nicht nur die Finger, sondern auch die Herkunft des Inhalts. Ist es eine seriöse Nachrichtenquelle, die das Video verbreitet, oder ist es Cousin Peter? Wenn es Cousin Peter ist, sollten Sie die Quelle des Videos noch einmal überprüfen.

KI-generierte Videos sind da. Und was jetzt?

Wie üblich wird es unmöglich sein, die KI-Video-Zahnpasta wieder in die Tube zu drücken. Wie geht es also weiter? Valentine empfiehlt uns allen, einen Moment innezuhalten und die Auswirkungen dessen zu bedenken, was kommen könnte. „Ich denke, die Unternehmen, die KI unverantwortlich einsetzen, sollten innehalten und einen Teil ihrer Gewinne nutzen, um mit Interessengruppen in Kontakt zu treten“, sagt Valentine. „Als jemand, der in der KI-Politik arbeitet, als Künstlerin und als Bürgerin finde ich es äußerst unverantwortlich, weiterhin Geld in technische Entwicklungen zu stecken, wenn die Fähigkeit der Gesellschaft zur Anpassung nicht gleichwertig finanziert wird.“

Valentine möchte, dass KI-Forscher Gruppen von Menschen in Betracht ziehen, die nicht so aussehen wie sie selbst oder ihre Umstände teilen. „Forschungsergebnisse zeigen, dass KI Frauen stärker schadet – weibliche Unternehmerinnen im Bereich KI verdienen zum Beispiel weniger Geld – und dass Frauen weniger Möglichkeiten und gleichberechtigten Zugang zur Arbeit in digitalen Wirtschaftszweigen haben“, sagt Valentine. „Sie sagen immer wieder, dass KI gefährlich ist, aber was sind ihre konkreten Pläne, um sie für Frauen, für rassifizierte, marginalisierte, LGBTQ- und indigene Gemeinschaften sicher zu machen?“

In der Zwischenzeit ist diese Technologie fast schon da. Finger sind sowohl für professionelle Künstler als auch für KI schwer zu zeichnen, aber im Laufe der Zeit wird die KI immer besser darin, die Unmöglichkeiten auszubügeln. Achten Sie darauf, sich auf vertrauenswürdige Nachrichtenquellen zu verlassen, wenn Sie herausfinden möchten, ob Aufnahmen Fakt oder Fälschung sind.

Wurde dieses Video mit KI generiert? So erkennen Sie es

Geschrieben von: Xavier Harding

Bearbeitet von: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Zeichnungen von: Shannon Zepeda


Verwandte Inhalte