Rok temu anonimowy użytkownik forum Reddita zamieścił w sieci film wideo przedstawiający aktorkę Gal Gadot znaną przedtem z głównej roli w „Wonder Woman” uprawiającą seks ze swoim przyrodnim bratem. Film nie był prawdziwy. Autor fałszywki wykorzystał film porno i umieścił jej twarz w miejscu twarzy gwiazdy porno. Tak zaczęła się zawrotna kariera generowanych za pomocą algorytmów sztucznej inteligencji filmików deepfake (ang. „głębokie fałszerstwa”).

   Tylko kwestią czasu było, by dowcipni użytkownicy oprogramowania i rozwiązań, które oferuje Google umieścili w kolejnych filmach porno swoich kolegów z klasy, znajomych z Facebooka itd. Deepfakes stały się też doskonałym w ich mniemaniu narzędziem zemsty na byłych narzeczonych, na osobach, które w taki czy inny sposób twórcom podpadły. Dla ofiar tego procederu fejkowa pornografia mogła i wciąż może mieć poważne konsekwencje, wykraczające poza ogólne straty moralne. „Revenge porno” z wykorzystaniem deepfakes zaczęto ścigać. Tropiły je i tępiły nie tylko administracje serwisów internetowych, ale również wymiar sprawiedliwości i wynajęci prawnicy.

Co łączy Jeżowa z Rolling Stonesami?

   Fałszerstwo informacji nie jest nowym problemem. Przecież to groźba fałszerstw a nie co innego sprawiła, iż w średniowiecznej Europie do weryfikacji autentyczności listów i innych przesyłek wykorzystano wosk plombujący i pieczęcie herbowe. Podobnemu celowi w starożytnych Chinach służyły pieczęcie, pilnie strzeżone, gdyż ich kradzież i fałszerstwo mogły wyrządzić szkody nie mniejsze niż współczesne deepfejki.

   Fałszerstwa fotografii, fotomontaże i podróbki filmów są stare, a może i starsze niż mass media. Czymże, jeśli nie fejkiem, nazwiemy Jeżowa znikającego ze słynnego zdjęcia ze Stalinem. Z tej sztuczki, jeśli było trzeba, korzystali inni, niekoniecznie źli politycy i ich propagandyści, lecz chociażby np. Rolling Stonesi, którzy usunęli Billa Wymana z fotografii okładkowej po tym jak opuścił zespół. Jest spora kolekcja nagrodzonych prestiżowymi nagrodami fotografii, które były fotomontażami, manipulacjami czy wręcz fałszywkami. A więc nihil novi…

   Nowy jest fakt, że podróbki na niezłym poziomie technicznym mogą być stosunkowo łatwo i szybko przygotowane właściwie przez każdego. Od kilku miesięcy znanym przykładem sugestywnego deepfake jest film z byłym prezydentem Barackiem Obamą „rzucającym wiąchę” pod adresem prezydenta Trumpa. Gdyby nie było wiadomo, że wideo jest dziełem Jordana Peele’a i serwisu Buzzfeed, stworzonym, aby ostrzec ludzi przed techniką „deepfakes”, to można się dać nabrać.

   Z drugiej strony przecież zafascynowała nas cyfrowa imitacja młodej księżniczki Lei, pojawiająca się pod koniec „Łotra 1”, w ramach sagi „Gwiezdne Wojny”, będąca owocem zasadniczo podobnej techniki. Mniej znany jest u nas przypadek umieszczania oblicza Nicolasa Cage'a we fragmentach filmów, w których nie występował, w tym m. in. w „Poszukiwaczach Zaginionej Arki”. W tym ostatnim przypadku chodzi o stosunkowo niewinne internetowe figle. Pomimo pozytywnych lub neutralnych przykładów technika „głębokich fałszerstw” budzi poważne niepokoje, sięgające służb dbających o bezpieczeństwo całych państw i narodów.

Zagrożenie bezpieczeństwa narodowego

   Nad rozwojem technik, które automatycznie, szybko i niezawodnie wykryją zmanipulowane filmy i fotografie pracuje specjalny zespół w Departamencie Obrony USA. Zdaniem przedstawicieli departamentu, rozwój tego rodzaju technik może zagrozić bezpieczeństwu narodowemu. Program DARPA Media Forensics pochłonął jak do tej pory około 68 milionów dolarów.

   Obecnie to głównie ludzie muszą weryfikować filmy i obrazy. Analitycy przeróżnych służb badają obrazy o charakterze propagandowym. Organy ścigania i FBI analizują filmy będące często materiałem dowodowym w przestępstwach. Program Media Forensics mocno zautomatyzowałby proces i miałby na celu dostarczenie analitykom narzędzia ułatwiającego ich pracę. Niezależnie od sukcesu prac nad technikami wykrywania, które w DARPA potrwają jeszcze prawie dwa lata, trzeba jasno powiedzieć, że oszuści z natury są krok do przodu niż reakcja na ich działania. O tym także pisało trzech członków Kongresu amerykańskiego w alarmistycznym liście wystosowanym we wrześniu ub. roku do Daniela Coatsa, dyrektora amerykańskiego wywiadu.

   „Hiperrealistyczne fałszerstwa cyfrowe - popularnie nazywane ‘deepfakes’ bazują na wyrafinowanych technikach uczenia maszynowego do tworzenia przekonujących obrazów osób, które robią lub mówią rzeczy, których nigdy nie robiły, bez ich zgody lub wiedzy”, czytamy w liście. „Przez zatarcie granicy między faktem a fikcją, technika ‘deepfakes’ może podważyć zaufanie społeczne do nagranych obrazów i filmów jako obiektywnych obrazów rzeczywistości”.

   Adam Schiff, Stephanie Murphy  i Carlos Curbelo zwrócili się do szefów wywiadu z prośbą o przygotowanie raportu, który wskazywałby Kongresowi, jakie kroki zaplanował w celu zwalczania rozpowszechniania podrobionych klipów. Podrobione filmy wideo, obrazy lub dźwięk mogą być wykorzystywane do szantażu lub do innych złych celów”, napisali. „Mogą być one również wykorzystywane przez podmioty zagraniczne lub krajowe do rozpowszechniania błędnych informacji”.

Fałszowanie obrazu i głosu

   Pojęcie „deepfake” to angielskojęzyczne złożenie pochodzące od terminów deep learning („głębokie uczenie”) i fake („fałszerstwo”). Wykorzystuje sztuczną inteligencję do analizy i syntezy fałszywych obrazów. Do tworzenia fałszywych filmów wykorzystywana jest najczęściej technika uczenia maszynowego zwana „generatywną siecią kontradyktoryjną” (GAN), w której jedna sieć neuronowa „recenzuje” wyniki pracy drugiej.

   W 2017 r. w Internecie, jak już pisałem, pojawiły się fałszywe filmy pornograficzne z twarzami celebrytów, znajomych, lub tzw. „revenge porno”. Rozpowszechniane były w szczególności w serwisie Reddit. Niepornograficzne, czyli mniej kontrowersyjne deepfakes, można łatwo znaleźć na popularnych serwisach wideo, takich jak YouTube lub Vimeo. Techniki te zostały m. in. wykorzystane do podrobienia znanych polityków na portalach wideo lub czatach. Na przykład twarz argentyńskiego prezydenta Mauricio Macriego zastąpiono twarzą Adolfa Hitlera, a twarz Angeli Merkel zastąpiono twarzą Donalda Trumpa.

   Prawie rok temu upubliczniono aplikację desktopową FakeApp. Aplikacja umożliwia użytkownikom stosunkowo łatwe tworzenie i udostępnianie filmów z zamienionymi twarzami. Aplikacja wykorzystuje sztuczną sieć neuronową i moc procesora graficznego oraz od trzech do czterech gigabajtów przestrzeni dyskowej do generowania fałszywych filmów. Aby uzyskać szczegółowe informacje program potrzebuje dużo materiału wizualnego dotyczącego osoby, która ma być wstawiona. Oprogramowanie wykorzystuje platformę AI TensorFlow firmy Google.

   Technika umożliwiająca deepfakes wciąż się rozwija. Naukowcy z Uniwersytetu Carnegie Mellon opracowali w ostatnich miesiącach nową technikę, która może automatycznie generować fałszywki bez interwencji człowieka. Dzięki sztucznej inteligencji i maszynowemu uczeniu się system może kopiować mimikę twarzy podmiotu w jednym filmie wideo, a następnie mapować dane na obrazy w innym. Barack Obama może być łatwo przekształcony w Donalda Trumpa, a Jarosław Kaczyński – w Donalda Tuska.

   Na tym samym Uniwersytecie Carnegie Mellon profesor Alan Black specjalizuje się w syntezie mowy. Pokazał niedawno w amerykańskiej telewizji KDKA-TV, jak to działa. Po przeczytaniu przez prowadzącego program kilku linijek z podaniem różnych pór dnia, Black miał już próbkę głosu, którą wprowadził do syntezatora, który mówił już sam głosem prezentera, rzeczy których on nigdy nie powiedział. Black nazywa to „Photoshopem dla głosu”.

   Niedawno system imitujący głos i to w wielu językach zademonstrowała na filmie opublikowanym w YouTube brytyjska firma Synthesia. „Chciałabym zademonstrować, jak dzięki technologii Synthesia mogę  płynnie mówić w 7100 językach”, mówi uśmiechnięta kobieta na filmie. Następnie widzimy tę samą osobę mówiącą to samo zdanie po francusku, chińsku i portugalsku.

Zespół redakcyjnego reagowania na fejki

   „Kończy się świat, w którym polegaliśmy na materiale wideo w celu bezspornego dowiedzenia czegokolwiek” - powiedział niedawno Ian Goodfellow, inżynier pracujący nad systemami AI w Google w wywiadzie dla serwisu „MIT Technology Review”.

   W redakcji „The Wall Street Journal” powstała niedawno „wewnętrzna grupa zadaniowa”, kierowana przez zespoły ds. etyki i standardów oraz badań i rozwoju. Grupa ta, WSJ Media Forensics Committee, składa się z edytorów wideo, zdjęć, informatyków i redaktorów, którzy zostali przeszkoleni w zakresie wykrywania głębokich fałszywek. Oprócz tropienia i zwalczania deepfakes organizują seminaria szkoleniowe z reporterami, opracowują przewodniki dla newsroomów i współpracują z instytucjami akademickimi, takimi jak Cornell Tech, w celu określenia sposobów wykorzystania technologii do zwalczania tego problemu.

   „Istnieją techniczne sposoby sprawdzania, czy materiał filmowy został zmieniony, takie jak analiza klatek i przejść w programie do edycji wideo w celu wyszukania nienaturalnych kształtów i dodanych elementów, czy też wyszukiwanie wcześniejszych źródeł materiału wideo” - mówi na łamach „WSJ” Natalia V. Osipova, członkini zespołu.

   Jeśli np. film jest w Internecie, ale osoba go publikująca jest nieznana, to powinna zapalić się lampka alarmowa. Dokładne zbadanie opisu, historii materiału, poszukiwanie wcześniejszych wersji, może od razu wyjaśnić sprawę. Bardziej zaawansowani sprawdzają meta dane filmu wideo lub obrazu za pomocą narzędzi takich jak InVID. Weryfikacji można dokonać także we współpracy z organizacjami firmami i za pomocą wyspecjalizowanego oprogramowania weryfikującego treść. Znane są już takie programy jak TruePic i Serelay, które wykorzystują technikę blockchain do uwierzytelniania zdjęć.  Jeśli nie te zaawansowane narzędzia, to czasem wystarczą wyszukiwarki obrazów, takie jak Tineye lub Google Image Search, które powinny znaleźć starsze wersje obrazów i filmów.

   Samo wyszukiwanie i narzędzia techniczne mogą nie wystarczyć. Warto wytrenować biegłość w rozpoznawaniu szczegółów twarzy, np. wnętrza jamy ustnej, które w deepfakes często jest rozmyte, lub nienaturalne symptomy mrugania oczami.  W tle materiału filmowego mogą znajdować się szczegóły wskazujące na manipulacje, podobnie jak dziwne migotanie, rozmycie i nienaturalne oświetlenie. Wszystko to mogą być wskaźniki podrobionych materiałów filmowych. W przypadku dźwięku należy uważać na nienaturalną intonację, nieregularne oddychanie, metaliczne odgłosy i oczywiste zmiany. To wszystko są wskazówki, że dźwięk mógł być wygenerowany przez sztuczną inteligencję. Należy jednak pamiętać, że artefakty obrazu, usterki i niedoskonałości mogą być również wprowadzane przez kompresję wideo. Dlatego też czasami trudno jest ostatecznie stwierdzić, czy film został sfałszowany, czy nie. Dlatego członkowie zespołu „WSJ” niczym algorytmy AI z którymi rywalizują nieustannie się uczą i uczą innych.

Szczepionka na fałsz

   „Jesteśmy blisko rzeczywistości, w której sam fakt, że widzieliśmy coś na filmie nie będzie oznaczać jednoznacznie, że to się wydarzyło” - powiedział niedawno ekspert w dziedzinie danych John Gibson podczas konferencji Mindshare Huddle. Jak dodał, techniki te będą rozwijać się szybciej niż komukolwiek się wydaje. Z drugiej strony, jak zauważył, „deepfakes mogą być dobrą rzeczą dla zaufanych marek informacyjnych, bo ludzie będą bardziej skłonni aby im ufać. „Będą ufać kanałowi, a nie samej wiadomości”. Zauważył także, że wykorzystanie narzędzi detekcji do wykrywania fałszywych filmów może stać się codzienną częścią życia zawodowego dziennikarza już w ciągu następnych kilku lat.

   Wielu komentatorów dochodzi więc do paradoksalnego wniosku, że głębokie fałszerstwa obrazu i filmu nie muszą być aż takim złem, jak się na pierwszy rzut oka wydaje. Podważenie bowiem zaufania do tego, co „przecież widzimy na własne oczy” to nie najgorsza lekcja sceptycyzmu i krytycyzmu dla łatwowiernej publiczności. I dla mediów oczywiście też.

   Epidemia fake newsów i korowody ludzi, którzy bezkrytycznie wierzą w najgłupsze manipulacje i zwykłe kłamstwa, zdemaskowała nas. Choć nie jesteśmy skłonni się do tego przyznać, w jakiś przedziwny sposób wierzymy w każde słowo, które wypowiadają np. politycy lub inne osoby publiczne, próbujące nam coś np. sprzedać. Połykamy bezkrytycznie najbardziej zafałszowaną strawę dla mózgu, choćby dlatego, że słuchając czy oglądając nie odczuwamy dysonansu poznawczego lub dajemy się po prostu uwieść całkowicie pozamerytorycznymi aspektami przemówienia, rozmowy, reklamy itp.

   Inaczej mówiąc, jako odbiorcy, jesteśmy od dawna oszukiwani przez manipulatorów na dziesiątki sposobów, nie zauważając tego. Bezczelność fałszywek deepfakes i szum medialny wokół tego zjawiska w każdym myślącym człowieku powinien obudzić zmysł krytyczny, otrząsnąć go z łatwowierności, w której drzemał przez całe lata, konsumując przygotowany dla niego przez specjalistów pokarm komunikacyjny. Deepfakes można porównać do szczepionki, choć ta analogia nieco zawodzi, gdy mamy do czynienia z fałszywkami ze sporym potencjałem szkodliwości. Z drugiej strony liczy się ostateczny efekt, czyli nabyta odporność na fałszywki i ściemy.

   Zaszczepiony tak, bardziej krytyczny i wyczulony na manipulację odbiorca, to dla dziennikarzy i mediów bardzo dobra wiadomość. Bo przecież wszystkim chodzi o prawdę, rzetelność, obiektywizm i uczciwe przekazywanie faktów, nieprawdaż?

Mirosław Usidus

Udostępnij
Komentarze
Disqus

Poprzednia wersja portalu SDP.pl, dostępna pod adresem: http://old.sdp.pl