A to nie fejk, przypadkiem? – analiza MIROSŁAWA USIDUSA o tzw. „głębokich oszustwach”

Obejrzałem właśnie wykonaną techniką deepfake alternatywną wersję „Matrixa”, w której Neo, zamiast czerwonej połyka niebieską pigułkę. Rozbawiła mnie. Nijak nie oburzyło mnie dorabianie twarzy Keanu Reevesa komuś innemu. Nie czułem oburzenia i lęku, że mną ktoś manipuluje. Ot, miałem chwilę zabawy, bo do niej zdecydowana większość deepfakes w Internecie służy.

 

Nie mogę jakoś zmusić się do wiary w kasandryczne przepowiednie, że technika „głębokiego oszukiwania” na poziomie wideo i audio, doprowadzi do katastrofy, oszukiwania społeczeństwa na masową skalę, manipulacji wyborami, przewrotów, rewolucji i wojen nawet na podstawie sfingowanych nagrań z wypowiedziami polityków.

 

Może, gdybyśmy nic o niej nie wiedzieli, gdyby technologia pozwalająca zamienić twarze i udawać głosy, była tajemnicą i możliwości techniczne fałszowania przekazu mieli tylko „bad guys”, to może byłoby się czego obawiać. Ale, w sytuacji, gdy powszechną reakcją na zaskakujące treści w sieci jest powątpiewanie „…a to nie fejk, przypadkiem?”, przepraszam bardzo, dlaczegóż mamy być sparaliżowani trwogą z powodu deepfakes?

 

Lewica nie wierzy w człowieka – prawica liczy się z pomyłkami

 

Interesujące, że różnice w stosunku do „głębokich fejków” pokrywają się korzennymi warstwami politycznych światopoglądów. Tendencję do straszenia i demonizowania tego zjawiska ma lewica i media tzw. mainstreamu, które mają przeważnie poglądy bliskie lewicy. Przedstawiciele poglądów bardziej konserwatywnych i wolnościowych patrzą na to znacznie spokojniej. Lewica, jak wiadomo zasadza się na niewierze w człowieka, w tym w jego zdolność do samodzielnego osądu, co jest dobrem i prawdą a co – wręcz przeciwnie. Dlatego lewica ogranicza wolność na rzecz kontroli i ochrony, chętniej przez nią nazywanej opieką. Prawicowe myślenie pozwala człowiekowi wybierać i narażać się, z wiarą, że sobie poradzi, odróżni sam dobro od zła, prawdę od kłamstwa i choć może popełni błędy, ale wolność wyboru jest wartością ważniejszą.

 

Powyższą różnicę nastawień widać w debacie o deepfakes jak w soczewce. Oczywiście dużo więcej o tym zjawisku pisze lewica i media „głównego nurtu”, bijąc na alarm i snując apokaliptyczne wizje totalnie zmanipulowanych fałszerstwami internetowymi społeczeństw. Prawica wypowiada się w tej sprawie rzadziej. A jeśli już, to zwracając uwagę, że lewicowe pomysły na walkę z tym co lewica upatruje jako „przerażające zagrożenie”, niebezpiecznie zaczynają pachnieć ograniczaniem wolności słowa i cenzurą.

 

Ton mediów w sprawie deepfakes dość dobrze obrazuje publikacja BBC, opisująca prezentację na temat podczas niedawnego Światowego Forum Ekonomicznego w Davos, i cytująca specjalistę w tej dziedzinie, profesora Hao Li z Uniwersytetu Południowej Kalifornii, mówiącego o „przerażającym fakcie”, że nie można odróżnić już fałszywek wideo od rzeczywistości.

 

Autor artykułu, który bawił się systemem generującym deepfakes, podszywając się, a to pod Leonarda DiCaprio, a to pod Teresę May, to znów pod Lionela Messi, sam zauważył, że wszystko to jest nie tyle złowieszcze, ile zabawne. A więc pierwsze wrażenie, nie przefiltrowane przez światopogląd, jest zawsze takie same. Trudno tę zabawę traktować poważnie. Oczywiście ważne dla dobrej zabawy jest, że wiemy, że to podróbki i fałszywki, ale o tym była już mowa.

 

Zagadnienie deepfake’ów trafiło na pierwsze strony gazet po raz pierwszy w 2017 r., po tym jak w sieci zaczęły pojawiać się bezczelnie sfałszowane filmy wideo, zazwyczaj polegające na podstawieniu twarzy aktorów i innych celebrytów do materiałów, w których nie występowali, bardzo często do produkcji pornograficznych. Nie słyszałem, aby ktoś naprawdę dał się nabrać, natomiast naczytałem się mnóstwo o „poważnym problemie” sfałszowanych treści wideo.

 

Przedstawiciele środków masowego przekazu, w tym cytowanego BBC, wyrażają głośne obawy, że nawet jeśli deepfakes nikogo nie będą oszukiwać, podważą wiarygodność wszelkich materiałów wideo i audio przedstawianych publiczności. Czyli media chcą, aby widzowie byli sceptyczni i krytyczni, ale nie aż tak, by kwestionować treści oferowane im przez media. Czy nikomu nie przychodzi do głowy, że powódź internetowych fałszywek jest naturalną szansą dla znanych marek medialnych, w których odbiorcy mogliby szukać wysp wiarygodności. Warunek jest wszelako taki, że mass media same nie będą dopuszczać się manipulacji. A jeśli będą zbyt energicznie zwalczać „internetowe fejki”, nie będąc same wolne od grzechu, jeśli nie fałszowania to przynajmniej manipulowania faktami, to nie skończy się dla nich dobrze.

 

Oczywiście mogą zdarzyć się takie przypadki jak brazylijski (żonaty) polityk Joao Doria, który w 2018 r. oznajmił, iż kolportowany w sieci film, który pokazywał jego udział w orgii, został sfałszowany. Nie można było mu dowieść, że to nieprawda. Jednak powiedzmy sobie jednak szczerze, że aby nagranie wideo było jednoznacznym dowodem na cokolwiek, spełniać musi i na długo przed epoką deepfakes musiało, wiele innych warunków, z identyfikatorami pochodzenia, czasu nagrania oraz z zeznaniami świadków włącznie.

 

Fałszerstwa to bardzo stary problem

 

Fałszerstwo informacji nie jest nowym problemem. Przecież to groźba fałszerstw a nie co innego, sprawiła, iż w średniowiecznej Europie do weryfikacji autentyczności listów i innych przesyłek wykorzystano wosk plombujący i pieczęcie herbowe. Podobnemu celowi w starożytnych Chinach służyły pieczęcie, pilnie strzeżone, gdyż ich kradzież i fałszerstwo mogły wyrządzić szkody nie mniejsze niż współczesne deepfakes.

 

Fałszerstwa fotografii, fotomontaże i podróbki filmów są tak stare, a może i starsze niż mass media. Czymże jeśli nie fejkiem nazwiemy Jeżowa znikającego ze słynnego zdjęcia ze Stalinem. Z tej sztuczki, jeśli było trzeba, korzystali inni, niekoniecznie źli politycy i ich propagandyści, lecz chociażby np. Rolling Stonesi, którzy usunęli Billa Wymana z fotografii okładkowej po tym jak opuścił zespół. Jest spora kolekcja nagrodzonych prestiżowymi nagrodami fotografii, które były fotomontażami, manipulacjami czy wręcz fałszywkami. A więc nihil novi…

 

Tym, co można by określić jako nowość w nowoczesnych, opartych na AI fałszywkach, jest fakt, że podróbki na niezłym poziomie technicznym mogą być stosunkowo łatwo i szybko przygotowane właściwie przez każdego.

 

Jednym z najbardziej znanych przykładów sugestywnego deepfake jest film z byłym prezydentem Barackiem Obamą „rzucającym wiąchę” pod adresem prezydenta Trumpa. Wideo jest dziełem Jordana Peele’a i serwisu Buzzfeed, stworzonym, aby ostrzec ludzi przed techniką deepfakes, jednak, nawet bez tej wiedzy skłonnych, by nabrać się na taki wyskok ze strony dość sztywnego Obamy raczej nie było.

 

Z drugiej strony zafascynowała nas cyfrowa imitacja młodej księżniczki Lei, pojawiająca się pod koniec „Łotra 1”, w ramach sagi „Gwiezdne Wojny”, będąca owocem zasadniczo podobnej techniki. Mniej znany jest u nas przypadek umieszczania oblicza Nicolasa Cage’a we fragmentach filmów, w których nie występował, w tym m. in. w „Poszukiwaczach Zaginionej Arki”.

 

Wśród gigantów – poruszenie

 

Pod presją, aby z fałszywkami „coś zrobić”, znaleźli się potentaci Internetu. Twitter zapowiedział niedawno, że usunie niektóre deepfakes i w marcu rozpocznie oznaczanie tego rodzaju materiałów ostrzeżeniami o „znaczącej i zwodniczej modyfikacji”.  Co istotne, firma usunie zmanipulowane treści medialne, w tym deepfakes, tylko wtedy, gdy zawarta w nich treść może spowodować szkody, takie jak np. zagrożenie fizycznego bezpieczeństwa grupy lub osoby, lub gdy tweet stwarza ryzyko wystąpienia masowej przemocy lub niepokojów społecznych. Do regulaminu Twittera dodano nową klauzulę dotyczącą „mediów syntetyzowanych i manipulowanych”, które „mogą wyrządzić szkodę”. Poza znakowaniem tweetów, Twitter zapowiada pokazywanie ostrzeżenia dla ludzi przed retweetami, zmniejszanie widoczności znaczonego tweeta i zapobieganie rekomendacjom tych treści, a także dostarczanie dodatkowych objaśnień.

 

Facebook w zeszłym miesiącu również przedstawił nowe zasady dotyczące przerabianych materiałów i zapowiada, że będzie konsekwentnie blokować treści „syntetyzowane”. Już teraz stosuje oznaczenia przy niektórych zmanipulowanych treściach.

 

YouTube był w swoich antyfejkowych działaniach szybszy zarówno od Facebooka jak i Twittera. Już w 2016 roku, przed ostatnimi wyborami prezydenckimi, uruchomiony na YouTube algorytm śledził wprowadzające w błąd treści. Prawica zarzuca od dłuższego czasu platformie, że stosuje podwójne standardy i dla fejków lewicowych jest znacznie bardziej pobłażliwa niż dla treści uznawanych za fałszywki o prawicowej wymowie.

 

Właściciel YouTube’a, Google, a właściwie Alphabet, który jest od paru lat brandem-matką dla całej google’owej rodziny, ma swoich zasobach także firmę Jigsaw, która pracuje nad narzędziem do sprawdzania faktów o nazwie Assembler, wykorzystującym sztuczną inteligencję, aby pomagać dziennikarzom wykrywać zmanipulowane obrazy, przyspieszając procedury fact-checkingu. Assembler wykorzystuje modele manipulacji obrazem opracowane przez naukowców z Uniwersytetu w Maryland, Uniwersytetu Federico II w Neapolu i Uniwersytetu Kalifornijskiego w Berkeley. Narzędzie wykorzystuje te modele do wykazania prawdopodobieństwa manipulacji obrazem. Do projektu przyłożyła się również firma Google Research.

 

Jigsaw zbudował na potrzeby systemu wykrywającego manipulacje narzędzie o nazwie StyleGAN, oparte na systemach generatywnych sieci przeciwstawnych, wykorzystywanych także często do tworzenia deepfakes. Z tym, że w tym przypadku służy nie do generowania, lecz do wykrywania głębokich fałszywek. Maszyna w tym systemie uczy się wykrywania różnic pomiędzy obrazami prawdziwych ludzi a obrazami zmanipulowanymi.

 

Aby pomóc w rozwiązaniu problemu braku danych szkoleniowych, Facebook, Google, Amazon Web Services i Microsoft zjednoczyły się niedawno, ogłaszając inicjatywę Deepfake Detection Challenge. W ramach projektu udostępnią specjalnie utworzony zbiór danych dotyczących deepfake’ów naukowcom na całym , aby ci wykorzystywali je swobodnie jako zasoby treningowe dla swoich opartych na uczeni maszynowym modeli. Opracowanie skutecznych systemów wykrywania deepfake’ów leży oczywiście w interesie publicznym, ale nie jest to czysty przejaw altruizmu ze strony technologicznych gigantów, którzy liczą na znalezienie praktycznych i skutecznych mechanizmów wykrywania fałszywek do wykorzystania w swoim biznesie i odpowiedzi na coraz silniejsze naciski w tej sprawie ze strony polityków.

 

Walka pachnąca cenzurą

 

Czarnym scenariuszem dla amerykańskich mediów jest wizja następująca: w listopadzie 2020 roku tuż przed wyborami ukazuje się w sieci sfałszowane nagranie wypowiedzi kandydata Demokratów, na którym mówi coś skandalicznego i, zanim nastąpi weryfikacja, odbywają się wybory prezydenckie a deepfake’owe nagranie ma wpływ na ich wynik. Wizja to tyleż mroczna, ile odległa od realiów. Jeśli wszyscy wiedzą o możliwości powstawania i kolportowania deepfakes w kampanii, to ich potencjalna siła politycznego rażenia dąży do zera. Powiedziałbym więcej, fakt, że wszyscy wiedzą o problemie, w niemałym stopniu chroni osoby, które rzeczywiście mają się czego obawiać, bo nieopatrznie powiedziały coś szokującego, podobnie jak istnienie deepfake’ów chroniło wspomnianego Brazylijczyka. Nie chroni całkowicie, ale tworzy społeczny bufor sceptycyzmu, który powoduje konieczność dodatkowego poświadczenia autentyczności zarzutów.

 

Deepfake porno z twarzami najsławniejszych aktorek w hardcore’owych okolicznościach przyrody może i cieszyło się jakąś popularnością wśród koneserów gatunku, jako ciekawostka, ale oczywiście nie ma szans w porównaniu z prawdziwymi nagraniami z celebrytami w eksplicytnych scenach, które czasami „wyciekają” do sieci. Doskonałość techniczna podróbek nie sprawia, że amatorzy pornografii się nabierają. A jeśli oglądają, to, jak sądzę, głównie dlatego, że jest to zabawne, a nie dlatego, że jest to twarz tej czy tamtej gwiazdy. A skoro deepfakes nie wywołały rewolucji w branży porno, to nie sądzę, aby w polityce były czymś więcej niż zabawną ciekawostką.

 

Niemniej poważni ludzie nie chcą przestać tego problemu traktować poważnie. Przykładem Clint Watts, pracownik amerykańskiego Instytutu Badań nad Polityką Zagraniczną, który latem ubiegłego roku powiedział Kongresowi USA, że Rosja, Chiny i inni „autorytarni przeciwnicy” Ameryki prawdopodobnie użyją technologii fałszującej w ramach kampanii informacyjnych mających na celu „obalenie demokracji i demoralizację amerykańskich wyborców”.

 

W tej atmosferze kilka stanów, w tym Kalifornia, przyjęło ustawodawstwo mające na celu zwalczanie deepfakes w wyborach. Przepisy kalifornijskie („Anti-Deepfake Bill”) zakazują m. in. publikowania lub rozpowszechniania „materialnie zwodniczych przekazów audio wizualnych”, które mają na celu zaszkodzenie reputacji kandydata lub wprowadzenie w błąd osób głosujących, w czasie do sześćdziesięciu dni przed wyborami. Są od tego pewne wyjątki, dotyczące np. treści, które są oznaczane jako manipulacje lub takich, które stanowią satyrę lub parodię.

 

Przepisy te są krytykowane jako godzące w wolność słowa gwarantowaną przez pierwszą poprawkę do amerykańskiej konstytucji. Występuje przeciwko nim znana organizacja broniąca w USA wolności obywatelskich ACLU (American Civil Liberties Union). O projekcie podobnych do kalifornijskich regulacji w stanie Maine lokalny przedstawiciel ACLU, Michael Kebede powiedział mediom: „Ten projekt ustawy dawałby politykom nowe prawo do złożenia pozwu przeciwko praktycznie każdemu, kto rozpowszechnia nagranie wideo lub audio albo obraz, który polityk uważa za wprowadzający w błąd”.

 

Przeciwnicy prawa o zwalczaniu deepfakes zwracają uwagę, że wprowadzanie tego rodzaju przepisów może zniekształcić przebieg kampanii. W wyborach prezydenckich w USA w ostatnim miesiącu przed wyborami zwykle jest czas na wyciąganie kandydatom różnych brudów. Są to informacje ważne dla wyborców, ale przez nierozważne przepisy mogą zostać ocenzurowane. Argument, że sam fakt istnienia głębokich fałszerstw godzi w skuteczność tych haków, jakoś do ludzi forsujących kontrowersyjne przepisy nie trafia.

 

Wprawdzie zdarzyło się niedawno, że pewną firmę okradziono z poważnej kwoty przy wykorzystaniu deepfake’a podszywającego się pod głos prezesa, ale prawdę mówiąc bardzie widać tu problem z procedurami bezpieczeństwa w tej organizacji niż zaawansowanymi fałszywkami. Ludzi nieostrożnych, o niskim ilorazie inteligencji, zawsze można było oszukać, nie potrzeba było do tego algorytmów sztucznej inteligencji.

 

Mirosław Usidus