Popularne metody stosowane do ujawniania treści syntetycznych w analizie Mozilli uzyskują ocenę „Niska” lub „Średnia”. Niedociągnięcia utrzymują się podczas rekordowej liczby wyborów w 2024 r.

(BERLIN, NIEMCY | 26 LUTEGO 2024 r.) – Zgodnie z nową analizą Mozilli, w miarę jak generowane przez sztuczną inteligencję treści o prezydentach i gwiazdach pop rozprzestrzeniają się w Internecie, najpopularniejsze formy wykrywania i ujawniania osiągają co najwyżej „Niską” lub „Średnią” ocenę.

Badanie In Transparency We Trust? Evaluating the Effectiveness of Watermarking and Labeling AI-Generated Content(Ufamy transparentności? Ocena skuteczności znakowania wodnego i oznaczenia treści generowanych przez sztuczną inteligencję) wykazało, że strategie i technologie pomagające internautom w rozróżnianiu treści syntetycznych, takie jak znakowanie wodne i oznaczenie, wiążą się z dużymi wyzwaniami. Korzystając z kontroli sprawności, badacze ocenili siedem różnych metod odczytu maszynowego i skierowanych do użytkownika, z których żadna nie otrzymała oceny „Dobra”.

Brak skutecznych zabezpieczeń jest obecnie szczególnie problematyczny, ponieważ ponad połowa światowej populacji przygotowuje się to tegorocznych wyborów, w tym USA, Indie, Rosja, RPA i Meksyk. Miliardy ludzi pójdą do urn w otoczeniu coraz większej liczby łatwo dostępnych czatbotów AI, generatorów tekstów i obrazów oraz platform do klonowania głosu. Narzędzia te oraz wytwarzane przez nie treści już wpływają na uczciwość wyborów w Argentynie, na Słowacji, w Indiach i w innych miejscach.

Badanie Mozilli obejmuje zalecenia dotyczące skuteczniejszego wykrywania i ujawniania, np. stawianie na metody odczytywane maszynowo w połączeniu z solidnymi mechanizmami wykrywania w punkcie dystrybucji. Nowe podejścia do zarządzania, np. zorientowane na człowieka piaskownice regulacyjne, pozwoliłyby decydentom na testowanie wpływu nowych przepisów.

Jak mówi Ramak Molavi Vasse'i, kierownik badań Mozilla ds. przejrzystości AI i współautor raportu: „Jeśli chodzi o identyfikację treści syntetycznych, obecnie mamy niejednoznaczną sytuację. Obecne technologie znakowania wodnego i oznaczania są obiecujące i nowatorskie, zwłaszcza gdy są stosowane razem. Mimo to, nie są one wystarczające, aby skutecznie przeciwdziałać zagrożeniom związanym z nieujawnionymi treściami syntetycznymi, zwłaszcza biorąc pod uwagę liczne wybory na całym świecie”.

Molavi Vasse'i dodaje: „Firmy takie jak OpenAI opublikowały standardy wyborcze, aby zapobiec nadużyciom swoich produktów, ale dobrowolne wymagania nie wystarczą. Podczas gdy firmy takie jak Meta zaproponowały ogólnobranżowe wysiłki na rzecz oznaczania treści generowanych przez sztuczną inteligencję, kluczowe jest, aby otwarte standardy były tworzone z udziałem wszystkich zainteresowanych stron, zwłaszcza tych, których mogą one dotyczyć. Ponadto koalicja potężnych graczy, takich jak Meta, Google i Adobe, nie powinna stać się strażnikami uczciwości treści”.

Obecne technologie znakowania wodnego i oznaczania są obiecujące i nowatorskie, zwłaszcza gdy są stosowane razem. Mimo to, nie są one wystarczające, aby skutecznie przeciwdziałać zagrożeniom związanym z nieujawnionymi treściami syntetycznymi, zwłaszcza biorąc pod uwagę liczne wybory na całym świecie

Kierownik badań Mozilla ds. przejrzystości AI

______

NAJWAŻNIEJSZE WNIOSKI

Metody ujawniania ukierunkowane na człowieka nie są wystarczające

Widoczne etykiety i dźwiękowe ostrzeżenia w dużej mierze opierają się na postrzeganiu przez odbiorcę. Ponadto są one podatne na manipulacje i mogą nie zapobiegać lub skutecznie przeciwdziałać szkodom po ich wystąpieniu. Chociaż metody te mają na celu informowanie, mogą prowadzić do przeciążenia informacyjnego, rosnącej nieufności i podziałów społecznych.

Ogólna sprawność: NISKA

Metody odczytywane maszynowo mogą być skuteczne w połączeniu z solidnymi mechanizmami wykrywania.

Niewidoczne znaki wodne osadzone podczas tworzenia i dystrybucji treści zapewniają względne bezpieczeństwo przed manipulacją przez nieuczciwe podmioty. Mimo to ich ogólna skuteczność jest niewystarczająca bez solidnych i bezstronnych narzędzi do wykrywania.

Ogólna sprawność: ŚREDNIA

Potrzeba holistycznego podejścia do zarządzania

Ani metody zorientowane na człowieka, ani nadające się do odczytu maszynowego nie zapewniają kompleksowego rozwiązania. Musi powstać wieloaspektowe podejście, które łączy środki technologiczne, regulacyjne i edukacyjne w celu skutecznego złagodzenia szkód wyrządzonych przez nieujawnione treści generowane przez sztuczną inteligencję.

_______

DEFINICJE

(Metody nadające się do odczytu maszynowego)

Kryptograficzne znaki wodne: Poufne informacje są kodowane w funkcjach kryptograficznych (lub obwodach) treści, które można następnie wykryć, usunąć lub zmienić tylko za pomocą procesu szyfrowania/deszyfrowania.

Znakowanie wodne częstotliwości elementu: Treści jest rozkładana na różne części częstotliwości, a znak wodny jest następnie wstawiany do pasm o niskiej częstotliwości, które są mniej podatne na ataki i modyfikacje.

Znakowanie wodne metadanych: Opis informacji o autorze, znaczniki czasu, historia edycji i używane oprogramowanie są osadzone w treści.

Statystyczne znakowanie wodne: Informacje są wstawiane we wzorce statystyczne struktury danych treści. Zwykle wiąże się to z modyfikacją pikseli, ramek kolorów, komponentów dźwiękowych lub innych wartości w niewidoczny sposób.

(Metody ukierunkowane na człowieka)

Etykiety dźwiękowe: Słyszalne elementy umieszczone bezpośrednio w treści, ujawniające jej pochodzenie.

Ujawnienia i opisy: Pisemne informacje, takie jak nagłówki, podpisy, opisy lub tagi, służące do informowania użytkowników o treści.

Etykiety wizualne: Pisemne lub graficzne elementy, takie jak tzw. etykiety żywieniowe lub ikony, umieszczone bezpośrednio w treści, aby ujawnić jej pochodzenie.


Kontakt dla prasy:

Europa: Tracy Kariuki, [email protected]

USA: Helena Dea Bala, [email protected]