Na całym świecie, od Stanów Zjednoczonych i Wielkiej Brytanii po Panamę i Brazylię, rok 2024 jest kluczowym rokiem wyborów. Oto przerażająca część: generatywna sztuczna inteligencja staje się naprawdę dobra. Tak dobra, że stworzenie przekonującego fałszywego wizerunku lub filmu z osobą publiczną jest łatwiejsze niż kiedykolwiek wcześniej. To samo dotyczy również osób niepublicznych, takich jak członkowie rodziny lub koledzy. Potencjał złośliwości jest w równym stopniu oczywisty, co niepokojący.

Jak więc wyglądają te problemy w realnym świecie? Niektóre z najbardziej oczywistych przykładów to deepfake'i prezydenta Bidena nakłaniające ludzi do tego, by nie głosowali, sfałszowane wizerunki Trumpa obok czarnoskórych wyborców oraz fałszywe nagranie Putina ostrzegające wyborców w języku angielskim o ingerencji w wybory. „Wcześniej trzeba było być informatykiem, aby zrobić coś niecnego, na przykład stworzyć wirusa lub oprogramowanie ransomware, ale w świecie deepfake'ów w mediach istnieje ponad 100 000 narzędzi dostępnych online za pomocą wyszukiwarki Google” – mówi Ben Coleman, dyrektor generalny Reality Defender. Ludzie w Reality Defender zajmują się wyłapywaniem fałszywych kont. (Ciekawostka: firma wykorzystuje dane open source z Mozilla's Common Voice, aby ułatwiać szkolenie swoich narzędzi.)

„Założyliśmy Reality Defender w 2021 roku i zdaje się, że mieliśmy dobry pomysł, ale był to zły czas” – mówi Ben. „Myśleliśmy, że fałszerstwa będą problemem podczas ostatnich wyborów, jednak tak nie było. Ale teraz przetwarzanie w chmurze jest dostępne dla każdego”, twierdzi Ben (przetwarzanie w chmurze oznacza zdalny dostęp do naprawdę zaawansowanego sprzętu komputerowego). „Możesz podrobić czyjś głos za pomocą jednego z tysięcy darmowych lub tanich narzędzi w ciągu kilku sekund. Zagrożenie ze strony deepfake'ów dramatycznie wzrasta”.

Na jakie deepfake'i należy uważać w okresie wyborczym 2024?

Deepfake'i są dostępne we wszystkich kształtach i rozmiarach. W dzisiejszych czasach może wykraczać poza filmy, w których słynna osoba mówi coś, czego nigdy by nie powiedziała. Tarcizio Silva, starszy członek Mozilli, pamięta kilka przykładów fałszywych wiadomości, które były równie niepokojące. „Przed ostatnimi wyborami prezydenckimi w 2022 roku po WhatsAppie krążył film symulujący brazylijski program informacyjny JornalNacional” – mówi Tarcizio. „Główni prezenterzy telewizyjni mówili, że Bolsonaro jest liderem w sondażach, podczas gdy tak naprawdę było odwrotnie. Tarcizio zauważa, że deepfake'i zostały stworzone, aby zdyskredytować maszyny do głosowania używane w wyborach, podczas gdy w rzeczywistości maszyny te są znane jako bardzo niezawodne.

Należy być również sceptycznym wobec współmałżonka – to znaczy wobec deepfake'ów współmałżonka. Według Bena wiele oszustw typu deepfake może zacząć się w ten sposób. „Pomyśl o telefonach z żądaniem okupu, w których ukochana osoba mówi: „Mam kłopoty, ale jeśli po prostu prześlesz pieniądze, nic mi nie będzie” – mówi Ben. Jeśli przytrafiłoby się to partnerowi lub jednemu z moich dzieci – tak, pomyślałbym, że to oszustwo. Ale także, czy zaryzykowałbym, wierząc, że tak nie jest?

Deepfake'owe rozmowy telefoniczne mogą być trudne do zidentyfikowania, jeśli nie znasz wskazówek, których należy szukać. Nawet jeśli je znasz, musisz ich aktywnie szukać – jak często, gdy otrzymasz telefon, spodziewasz się, że będziesz musiał zorientować się, czy ktoś po drugiej stronie to sztuczna inteligencja czy prawdziwa osoba? Możesz być przygotowany na sceptycyzm wobec prezydenta mówiącego coś dziwnego na osi czasu mediów społecznościowych, ale czy wniósłbyś ten sam sceptycyzm do, powiedzmy, telefonu ze swojej pracy? „Wyobraź sobie, że pracujesz w sondażach, a twój szef dzwoni i mówi: „Nie przychodź dzisiaj, zamykamy posterunek” – mówi Ben. Wybory mogą być zagrożone na różne sposoby.

Co możesz zrobić, aby uważać na deepfake'i w tym okresie wyborczym

Gdy zauważysz deepfake'i na swoim kanale społecznościowym, masz do dyspozycji kilka narzędzi. Jeśli masz szczęście, obraz lub film, na który patrzysz, będzie zawierał w rogu znacznik poświadczeń treści, który szybko powie Ci, jak coś zostało wykonane. Firmy takie jak ChatGPT-maker OpenAI obiecały w przyszłości używać takich narzędzi w swoich dziełach. Jeśli jednak nie widzisz znacznika, uruchom odwrotne wyszukiwanie obrazu, aby zobaczyć, gdzie jeszcze znajduje się ten fragment multimediów. Nie zapomnij też trzymać uprzedzeń na wodzy – mówi Tarcizio. „Kiedy społeczność jest stronnicza z powodu nienawiści lub uprzedzeń, jest bardziej prawdopodobne, że nie sprawdzi ponownie informacji, gdy zobaczy coś, co potwierdza jej przekonania” – mówi. Nie zapomnij zweryfikować, nawet jeśli coś wspiera Twój światopogląd.

Ale co z deepfake'ami na bardziej osobistym poziomie? Jak bronić się przed oszustwami ze strony fałszywego szefa lub fałszywego małżonka, który mówi „zostań w domu” lub „przelewaj mi pieniądze” lub jedno i drugie? Ben mówi, że odpowiedź to uwierzytelnianie dwuskładnikowe w prawdziwym życiu – to znaczy, że ma drugi sposób na potwierdzenie, z kim rozmawiasz. „Użyj ze swoją rodziną hasła, które znają tylko oni” – mówi Ben. „Użyj tajnego wyrażenia, takiego jak „banan” lub drużyna sportowa – nie jakaś oczywista, jak Knicks, jeśli jesteś z Nowego Jorku. Pomysł dodania uwierzytelniania dwuskładnikowego lub wieloskładnikowego do naszej regularnej komunikacji może nam pomóc w zaufaniu, ale także w weryfikacji”. Mówiąc najprościej, jeśli twoja szefowa dzwoni, aby trzymać cię z dala od sondaży i wspomina o Knicksach, a nie o bananach, istnieje szansa, że będzie to deepfake.

Deepfake'i przybierają osobisty charakter akurat w okresie wyborczym

Autor: Xavier Harding

Redakcja: Audrey Hingle, Kevin Zawacki, Lindsay Dearlove, Tracy Kariuki, Xavier Harding

Autor ilustracji: Shannon Zepeda


Podobne