DW sprawdza: komputerowo generowane obrazy z wojny w Gazie
14 listopada 2023Jak działają fejki tworzone za pomocą sztucznej inteligencji (AI), jakim narracjom służą i jak bardzo są niebezpieczne? W serii „DW sprawdza fakty” odpowiadamy na najważniejsze pytania dotyczące roli AI w wojnie w Strefie Gazy.
Jak działają podróbki generowane przez sztuczną inteligencję?
Aktualnie sztuczna inteligencja jest używana niemal wszędzie. Nie powinno więc nas dziwić, że używana jest także podczas konfliktów zbrojnych. Możliwości AI rosną z miesiąca na miesiąc. Niemal każdy może przy pomocy popularnych generatorów stworzyć obrazy, które przynajmniej na pierwszy rzut oka wyglądają jak prawdziwe zdjęcia.
Aby osiągnąć zadowalajacy efekt, trzeba najpierw podać generatorom (np. Midjourney lub Dall-E) właściwe instrukcje – specyfikacje i informacje. Wszystkie nasze sugestie generatory przekształcają w obraz. Do jego stworzenia używają tzw. uczenia maszynowego. Przykładowo, jeśli poprosimy o stworzenie obrazu 70-letniego mężczyzny poruszającego się na rowerze, to generator przeszuka swoją bazę danych, w których tekst przyporządkowany jest odpowiednim obrazom. Na ich podstawie tworzony jest nowy obraz. Oferta generatorów stale się polepsza z powodu coraz większych baz danych i rozwoju algorytmów.
I właśnie tego rodzaju obrazy są obecnie tworzone, aby wesprzeć wybraną narrację dotyczącą wojny na Bliskim Wschodzie. Z naszych obserwacji wynika, że sztuczną inteligencję zaprzęga się do generowania fejków, które często przedstawiają skrajnie emocjonalne sceny.
Według Hany'ego Farida , eksperta ds. sztucznej inteligencji, dezinformacja, w tym wykorzystywanie obrazów AI, wyjątkowo dobrze sprawdza się w tym konflikcie, „w którym emocje znajdują się na bardzo, bardzo wysokim poziomie”. Dwa fronty, które głęboko okopały się na własnych pozycjach są idealną płaszczyzną do rozpowszechniania fałszywych treści i grania na emocjach – mówi Hany Farid, profesor kryminalistyki cyfrowej na Uniwersytecie Kalifornijskim w Berkeley.
Jak dużo obrazów AI dotyczy wojny Izraela z Hamasem?
Obrazy i filmy stworzone przy pomocy sztucznej inteligencji od dłuzszego czasu przyczyniają się do szerzenia dezinformacji w wojnie w Ukrainie. Ponieważ narzędzia AI ostatnio szybko się rozwinęły, wielu obserwatorów spodziewało się, że tego rodzaju fejki będą jeszcze szerzej stosowane w wojnie Izraela z Hamasem. Jednak zdaniem ekspertów, jak dotąd nie można mówić o dużej liczbie tego rodzaju obrazów.
– Nie widzimy masowego wykorzystania obrazów generowanych przez sztuczną inteligencję – mówi Tommaso Canetta z Europejskiego Obserwatorium Mediów Cyfrowych. – Ilość ta jest raczej niewielka, jeśli porównamy ją z innymi formami dezinformacji, takimi jak używanie starych obrazów i starych filmów, którym przy ponownej publikacji nadaje się inne, kłamliwe znaczenie – tłumaczy. Nie oznacza to jednak, że AI nie odgrywa w tym konflikcie żadnej roli.
Hany Farid wyjaśnia w rozmowie z DW, że sama liczba fejków generowanych dzięki AI nie jest najistotniejszym czynnikiem. – Wystarczą zaledwie dwa obrazy, które staną się wiralami i zostaną obejrzane przez setki milionów ludzi, aby zdobyć ogromny wpływ – przekonuje. Jego zdaniem głównym skutkiem fałszywek tworzonych przy pomocy AI i innych form dezinformacji jest to, że „zanieczyszczają informacyjny ekosystem”.
Jakim narracjom służą podróbki AI w wojnie na Bliskim Wschodzie?
Obrazy AI krążące w sieciach społecznościowych są zwykle w stanie wywołać u oglądających silne emocje. Tommaso Canetta identyfikuje dwie główne kategorie: obrazy, które podkreślają cierpienie ludności cywilnej i wzbudzają współczucie wobec przedstawianych osób. Druga kategoria to obrazy, które wyolbrzymiają poparcie dla Izraela, Hamasu lub Palestyńczyków i odwołują się do uczuć patriotycznych.
Do pierwszej kategorii należy zdjęcie ojca idącego z pięciorgiem dzieci przez sterty gruzu, które było wielokrotnie udostępniane na platformie X (dawniej Twitter) lub Instagramie. Na tych platformach zostało obejrzane setki tysięcy razy. Aktualnie na X obraz ten jest oznaczony jako fejk. Można to stwierdzić po różnych nieprawidłowościach, które są typowe dla obrazów AI.
Kilka przykładów: prawe ramię mężczyzny znajduje się nieproporcjonalnie wysoko. Dwie kończyny wyglądają, jakby wyrastały wprost ze swetra. Dłonie dwóch chłopców, którzy obejmują ojca wokół szyi, łączą się w zupełnie nienaturalny sposób. I, co również jest bardzo typowe dla obrazów AI, na dłoniach i stopach znajduje się za mało lub za dużo palców.
Podobne anomalie można zaobserwować w kolejnym dostrzeżonym przez nas fejku wygenerowanym przez AI. Obraz przedstawia palestyńską rodzinę, która spożywa razem posiłek na gruzach miasta. Wytwór generatora AI szybko stał się wiralem na X.
Zdjęcie, na którym żołnierze machający izraelskimi flagami przechodzą przez osiedle pełne zbombardowanych domów, należy do kategorii obrazów wzmacniających poczucia patriotyczne. Konta, które udostępniają to zdjęcie na Instagramie i X wydają się być w większości nastawione proizraelsko i z zadowoleniem przyjmują wersję przedstawionych wydarzeń. DW ustaliła, że obraz ten został wykorzystany przez jedno z bułgarskich mediów internetowych. Dziennikarze nie zaznaczyli jednak, że mamy w tym przypadku do czynienia z produktem AI, a nie z rzeczywistością.
Na tym obrazie izraelskie flagi powiewają w sposób nienaturalny. Droga przebiegająca przez centrum wydaje się zbyt czysta, a z kolei gruz po bokach wygląda zbyt jednolicie. Zniszczone budynki również wyglądają jak bliźniaki stojące w regularnych odstępach. Generalnie wszystko jest zbyt wygładzone, aby mogło być prawdziwym zdjęciem. Ten specyficzny rodzaj „gładkości”, wrażenie, jakby obraz został namalowany, jest typowy dla tworów generowanych przy pomocy AI.
Skąd pochodzą obrazy AI?
Większość obrazów tworzonych przy pomocy sztucznej inteligencji jest rozpowszechniana przez prywatne konta na mediach społecznościowych. Są one publikowane zarówno przez autentyczne, jak i fejkowe profile. Jednak obrazy generowane przez sztuczną inteligencję mogą być również wykorzystywane w dziennikarstwie. To, czy i w jakich przypadkach może być to przydatne lub sensowne, jest obecnie przedmiotem dyskusji wielu organizacjach medialnych.
Firma Adobe wywołała niemałe poruszenie środowiska, gdy pod koniec 2022 roku zdecydowała się dołączyć do swojej oferty fotografii stockowych obrazy generowane przez sztuczną inteligencję. Są one odpowiednio oznaczane w bazie danych.
Adobe oferuje również na sprzedaż obrazy AI z wojny na Bliskim Wschodzie, przykładowo obrazy przedstawiające eksplozje na terenie Gazy, protestujących ludzi lub chmury dymu unoszące się nad meczetem Al-Aksa w Jerozolinie. Krytycy uważają to za wysoce wątpliwe. Niektóre strony internetowe i media używają te obrazy bez oznaczania ich jako wygenerowanych przez sztuczną inteligencję. Przykładowo powyższy obraz pojawił się na stronie „Newsbreak" bez żadnej adnotacji. Ustaliliśmy to za pomocą możliwości wstecznego wyszukiwania źródłowego obrazu.
Nawet Biuro Analiz Parlamentu Europejskiego jedną z internetowych publikacji na temat konfliktu na Bliskim Wschodzie zilustrowało zdjęciem z bazy danych Adobe. Biuro nie oznaczyło go jako zdjęcia wygenerowanego przez sztuczną inteligencję.
Tommaso Canetta z Europejskiego Obserwatorium Mediów Cyfrowych apeluje do dziennikarzy i pracowników mediów o ostrożność przy korzystaniu z obrazów generowanych przez sztuczną inteligencję. Ich wykorzystywanie odradza zwłaszcza w przypadku ilustrowania prawdziwych wydarzeń, takich jak wojna na Bliskim Wschodzie. Sytuacja wygląda inaczej w przypadku poruszania abstrakcyjnych tematów, takich jak np. technologie przyszłości.
Jak duże szkody powodują obrazy generowane przez AI?
Świadomość, że treści AI są w obiegu, prowadzi do tego, że użytkownicy stają się niepewni dosłownie wszystkiego, co znaleźć można w internecie. Hany Farid wyjaśnia: – Zdolność do manipulowania obrazami, materiałami audio i wideo prowadzi do kwestionowania wszystkiego. Czasami to prawdziwe obrazy są błędnie oznaczane jako nieautentyczne.
Tak właśnie stało się w zbadanym przez nas przypadku. Najpierw zdjęcie rzekomo przedstawiające zwęglone zwłoki izraelskiego dziecka zostało udostępnione na X m.in. przez premiera Izraela Beniamina Netanjahu i amerykańskiego konserwatywnego publicystę Bena Shapiro. Kontrowersyjny antyizraelski influencer Jackson Hinkle stwierdził następnie, że obraz został stworzony przy użyciu sztucznej inteligencji.
Jako rzekomy dowód Hinkle dołączył do swojego postu zrzut ekranu z detektora sztucznej inteligencji „AI or not”, który sklasyfikował obraz jako wygenerowany przez AI. Twierdzenie Hinkle'a zostało wyświetlone na X ponad 20 mln razy i doprowadziło do gorących dyskusji. Ostatecznie wielu stwierdziło, że obraz najprawdopodobniej jednak był autentyczny i to Hinkle się pomylił. Również Hany Farid pytany przez DW, przyznał, że nie mógł znaleźć żadnych rozbieżności na zdjęciu, które wskazywałyby na kreację sztucznej inteligencji.
Jak to możliwe? Detektory sztucznej inteligencji, które można użyć do sprawdzenia, czy obraz lub tekst został wygenerowany przez sztuczną inteligencję, są nadal bardzo podatne na błędy. W zależności od sprawdzanego obrazu dokonują one poprawnych lub błędnych ocen, zakładając dużą dozę prawdopodobieństwa. Dlatego nadają się one co najwyżej jako pomocniczne narzędzie, ale nie jako ostateczna instancja.
Zespół fact-checkingu DW nie był w stanie wykryć żadnych wyraźnych oznak manipulacji opartej na sztucznej inteligencji na obrazie, który prawdopodobnie przedstawia zwłoki dziecka. Co ciekawe, użyty przez nas detektor „AI or not" nie określił obrazu jako wygenerowanego przez sztuczną inteligencję. Dodatkowo wskazał, że jakość obrazu jest niska. Inny detektor AI (Hive Moderation) również stwierdził, że obraz jest autentyczny.
Chcesz skomentować nasze artykuły? Dołącz do nas na facebooku! >>