Fake newsy nie rozprzestrzeniają się same. Sztuczna inteligencja (AI) często bierze udział w powielaniu dezinformacji i półprawd, od śmierci celebrytów po ataki polityczne i kłamstwa związane z medycyną. Zobacz, jak Spandi Singh z Open Technology Institute odkrywa przed nami, jak sztuczną inteligencję można (nieumyślnie) wyszkolić, by stała się superrozsiewaczem fake newsów.

Wiele platform, w tym Facebook, Twitter, YouTube i TikTok, przynajmniej częściowo opiera się na AI i narzędziach do uczenia maszynowego w celu nadzorowania i moderowania treści, które widzimy w sieci.

Algorytmy rankingowe i rekomendacyjne zarządzają treściami, które widzą użytkownicy – a są one zoptymalizowane pod kątem „zaangażowania”, na przykład kliknięć. Kiedy więc taka wiadomość – powiedzmy, szokująca (fałszywa) wiadomość o śmierci celebryty – przyciąga dużo uwagi, algorytm rozumie, że jest ona wciągająca i „istotna”, a następnie wzmacnia tego typu (błędne) informacje, pokazując je większej liczbie osób.

Paradoksalnie, AI nie tylko nieumyślnie wzmacnia fałszywe informacje. Jest to również kluczowe narzędzie, na którym platformy polegają w zwalczaniu wprowadzających w błąd informacji. Mogą na przykład wykorzystywać sztuczną inteligencję do wykrywania i oznaczania treści związanych z tematami takimi jak szczepionki, a także linkowania wiarygodnych źródeł, w których użytkownicy mogą sprawdzić trafność tego, co widzą.

Ale znamy tylko ogólne zasady działania tych technik. Platformy nie udostępniają wielu informacji o tym, jak działają ich algorytmy, kiedy korzystają z tych narzędzi czy jakie wyniki osiągają ich interwencje. Nie wiemy więc, jak skuteczne są one w zwalczaniu informacji, które celowo lub przypadkowo wprowadzają w błąd.

Jak widzieliśmy w ciągu ostatnich kilku lat, konsekwencje rozpowszechniania się nieprecyzyjnych treści w Internecie są znaczące i często dotykają wrażliwe na ataki grupy. Decydenci na całym świecie coraz bardziej interesują się rozliczeniem platform za wykorzystanie algorytmów, istnieje więc dobra okazja, by zwiększyć nadzór rządowy i zmusić platformy do wzięcia większej odpowiedzialności. Pierwsze kroki to wspieranie idei silniejszej ochrony prywatności użytkowników i większej przejrzystości platform pod kątem działania ich narzędzi opartych na AI.

Przeczytaj najnowszy raport, który Mozilla opracowała z New America's Open Technology Institute i innymi organizacjami partnerskimi na temat sztucznej inteligencji i jej wpływu na szybsze rozprzestrzenianie się dezinformacji.