Trwający konflikt między Stanami Zjednoczonymi a Iranem zostaje uzbrojony w Internecie poprzez falę dezinformacji wykorzystującej prędkość informacji w mediach społecznościowych do szerzenia fałszywych narracji i siania zamieszania. Od zmanipulowanych obrazów po fałszywe fałszywe informacje generowane przez sztuczną inteligencję – krajobraz informacyjny stał się niebezpiecznym polem bitwy, na którym miliony użytkowników są narażone na sfabrykowane treści. Nie chodzi tu tylko o nieszkodliwe żarty; wpływa to bezpośrednio na społeczne zrozumienie niestabilnej sytuacji geopolitycznej.
Wirusowe rozprzestrzenianie się fałszywych informacji
Natychmiast po niedawnych atakach wojskowych Stanów Zjednoczonych i Izraela na Iran, w tym tragicznym incydencie w szkole Shajareh Tayeb, w ciągu kilku dni wirusowe posty zaczęły się rozprzestrzeniać. Obejmowały one cyfrowe nagrania z symulatorów lotu udawanych jako prawdziwe operacje, a także przetworzone stare nagrania uderzeń rakietowych, a wszystko to miało na celu wprowadzenie widzów w błąd co do dynamiki konfliktu. Eksperci szacują, że posty te uzyskały już setki milionów wyświetleń.
Sytuacja szybko się eskaluje, zmuszając platformy takie jak X (dawniej Twitter) do dostosowania swoich zasad dotyczących treści generowanych przez sztuczną inteligencję, przedstawiających konflikty zbrojne. Zgodnie z nowymi przepisami użytkownicy, którzy publikują takie treści bez odpowiedniego oznaczenia, ryzykują zawieszeniem w programie dzielenia się przychodami dla twórców. Wyzwanie pozostaje jednak ogromne, ponieważ dezinformacja rozprzestrzenia się szybciej, niż wysiłki moderacji są w stanie za nią nadążyć.
Ekonomia oszustwa
Rozpowszechnianie dezinformacji jest napędzane przez sieć botów i kont, których celem jest zwiększenie zaangażowania, kierując się dwoma głównymi motywami: wpływami politycznymi i korzyściami finansowymi. Niektóre osoby starają się manipulować opinią publiczną, podczas gdy inne po prostu wykorzystują system do zarabiania pieniędzy na wirusowych kłamstwach. Użytkownicy, często podatni na błąd potwierdzenia i polegający na wiadomościach w mediach społecznościowych, wielokrotnie padali ofiarą tej taktyki.
Do niedawnych przykładów należą publikacje fałszywie twierdzące, że irańskie ataki odwetowe były znacznie skuteczniejsze niż w rzeczywistości, a zmanipulowane materiały filmowe i zdjęcia były szeroko rozpowszechniane w Internecie. Jeden post, który otrzymał ponad 4 miliony wyświetleń, fałszywie przedstawiał rakiety balistyczne nad Dubajem, podczas gdy inny przedstawiał sfałszowany obraz posiadłości zabitego irańskiego przywódcy „przed i po”. Niepokojące jest to, że wiele z tych postów pochodziło ze zweryfikowanych kont premium, w tym z irańskich mediów finansowanych przez państwo.
Sztuczna inteligencja wzmacnia kryzys
Sytuacja się pogarsza ze względu na szybki rozwój generatywnej sztucznej inteligencji i słabą politykę moderacyjną. Chatboty i wyszukiwarki oparte na sztucznej inteligencji, w tym podsumowania X’s Grok i wyszukiwarki Google, weryfikują wprowadzające w błąd twierdzenia, co jeszcze bardziej podważa zaufanie do informacji dostępnych w Internecie. Jeden z przykładów pokazał, że sztuczna inteligencja Google potwierdziła fałszywą historię o zniszczeniu placówki CIA w Dubaju, podczas gdy w rzeczywistości zdjęcie przedstawiało pożar w dzielnicy mieszkalnej w Sharjah w 2015 roku.
Brytyjskie Centrum Badań nad Powstającymi Technologiami i Bezpieczeństwem ostrzega, że to niekontrolowane rozprzestrzenianie się dezinformacji opartej na sztucznej inteligencji stanowi egzystencjalne zagrożenie dla bezpieczeństwa publicznego, bezpieczeństwa narodowego, a nawet demokracji.
Mgła wojny i niecierpliwość użytkowników
Kryzys pogłębia narastająca „mgła wojny” – rozbieżność pomiędzy rozwojem wydarzeń a publikacją zweryfikowanych informacji. Użytkownicy przyzwyczajeni do natychmiastowego dostępu wypełniają tę lukę niezweryfikowanymi treściami, wzmacniając myślenie spiskowe i czyniąc ich bardziej podatnymi na manipulację.
„Ludzie mają teraz krótszy okres między wydarzeniem a faktycznymi relacjami w mediach” – wyjaśnia Sophia Rubinson, starszy redaktor w NewsGuard. „Chcą zrozumieć, co się dzieje, a wizualizacje pozwalają nam pomyśleć o skali konfliktów, których nie jesteśmy w stanie pojąć”.
Wniosek
Rozprzestrzenianie się dezinformacji podczas konfliktu między Stanami Zjednoczonymi a Iranem stwarza wyraźne i aktualne zagrożenie. Połączenie zaawansowanej sztucznej inteligencji, osłabionej moderacji i niecierpliwości użytkowników tworzy idealną burzę manipulacji. Bez pilnej interwencji – obejmującej zwiększony nadzór nad platformami, umiejętność korzystania z krytycznych mediów i wzmożone wysiłki w zakresie sprawdzania faktów – erozja zaufania do informacji tylko przyspieszy, utrudniając odróżnienie rzeczywistości od fikcji w coraz bardziej niepewnym świecie.




















