Trend deepfake'ów nie chce odpuścić. Sfabrykowane obrazy, dźwięki i nagrania wideo stają się coraz łatwiejsze do wygenerowania i trudniejsze do wychwycenia. Czy prezydent Biden faktycznie dzwonił do wyborców, mówiąc im, żeby nie głosowali, czy była to podróbka? Czy Donald Trump faktycznie pozował z tym tłumem ludzi, czy zdjęcie było fałszywe? Mając wybory na horyzoncie, wielu martwi się o zwiększone konsekwencje, jakie głęboko sfałszowane treści będą miały dla społeczeństwa w tym roku. Enter: Narzędzie do wykrywania deepfake'ów OpenAI.
Twórca ChatGPT Open AI tworzy oprogramowanie do wykrywania deepfake'ów i na razie – podobnie jak swoje narzędzie wideo Sora – udostępnia je tylko garstce wczesnych testerów. Narzędzie do wykrywania deepfake'ów będzie szukać metadanych ukrytych w obrazach wykonanych przez Dall-E 3 OpenAI. Metadane to zwykle punkty, takie jak tytuł utworu MP3 lub dane o lokalizacji dołączone do zdjęcia. W tym przypadku jest to informacja ujawniająca, czy plik został utworzony przez sztuczną inteligencję, czy nie. Po wydaniu narzędzia wideo Sora filmy te będą również zawierały ten sam rodzaj metadanych.
Jak sprawdzić, czy obraz lub film jest fałszywy
Narzędzie do wykrywania deepfake'ów OpenAI to tylko połowa sukcesu. Druga połowa to OpenAI dołączające do Koalicji na rzecz Pochodzenia i Autentyczności Treści (znanej również jako C2PA). Grupa ma ustandaryzowany styl odczytu „etykiety żywieniowej”, który wskazuje na ważność treści. Do OpenAI dołączyły duże firmy, w tym Adobe, BBC, Intel i Google, które pomogą spopularyzować etykietę żywieniową C2PA.
Strona C2PA oferuje przykład etykiety żywieniowej, którą nazywa poświadczeniami treści. Kliknij lub dotknij logo „cr”, a obraz pokaże, gdzie i jak został wykonany.
Czy oprogramowanie do wykrywania deepfake'ów jest w ogóle możliwe?
W ostatnich badaniach przeprowadzonych przez Mozillę odkryliśmy, że obecne technologie pomagające użytkownikom Internetu w rozróżnianiu treści syntetycznych – takich jak znaki wodne i etykiety – nie mogą niezawodnie identyfikować nieujawnionych treści syntetycznych. Nowsze badania narzędzi do wykrywania sztucznej inteligencji dały ten sam wynik. W przypadku narzędzia OpenAI firma wydaje się pewna, że jej narzędzie może wykryć oszustwa sztucznej inteligencji utworzone za pomocą oprogramowania OpenAI. Odpowiedź leży w metadanych. OpenAI twierdzi, że może identyfikować obrazy stworzone przez sztuczną inteligencję ze swojego modelu DALL-E przez 98,8 procent czasu, dzięki metadanym ukrytym na zdjęciu. Mimo że edycja metadanych pliku jest zwykle łatwa, OpenAI twierdzi, że metadane dołączone do wynikowego pliku w tym przypadku są „odporne na manipulacje”. Metoda ta wydaje się co najmniej bardziej odporna na manipulacje niż dodanie znaku wodnego w prawym dolnym rogu zdjęcia lub filmu.
Obawy deepfake'ów będą nadal nękać ekspertów, ponieważ fałszywe obrazy stają się coraz bardziej powszechne. Chociaż jasne jest, że obrazy generowane przez sztuczną inteligencję mogą negatywnie wpłynąć na wybory w 2024 roku, nadchodzące narzędzia OpenAI do wykrywania deepfake'ów mogą zaoferować kredyt zaufania.
Aplikacja do wykrywania deepfake'ów? Twórca ChatGPT może już nad nią pracować
Autor: Xavier Harding
Redakcja: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding
Grafika: Shannon Zepeda