Stałe monitorowanie Internetu pod kątem niepożądanych treści i usuwanie wszystkiego, co mechanizm sprawdzający uzna za niebezpieczne. Takie rozwiązanie przepychane jest w Brukseli trochę w cieniu zgiełku wokół ACTA2. Projekt dyrektywy nazywa się TERREG (od ang. nazwy „TERrorist content REGulation”).

   Jak to zwykle bywa, za nowym projektem cenzorskim stoją nad wyraz górnolotnie wyrażane intencje. Już 2017 roku Komisja Europejska zapowiedziała czynną walkę z terrorystami w sieci, oraz z „rasizmem” i „ksenofobią”. Brzmi pięknie. Jednakże, gdy czytamy oficjalne komunikaty Pekinu o celach i zasadach, stojących za chińską cenzurą polityczną, również wszystko to jest „dla dobra społeczeństwa” i „na straży prawa i bezpieczeństwa”. Dobrze wiemy, że „rasizm”, „ksenofobia” a nawet „terroryzm” to pojęcia w rękach polityków i cenzorów instrumentalne. Również Google czy Facebook znane są z arbitralnego i politycznie jednostronnego rozumienia tych klasyfikacji. Zaś w praktyce oznacza to nierzadko, że „rasistą” stajesz się nie dlatego, że kogoś nie lubisz, ale dlatego, że ktoś o innych poglądach niż twoje, nie lubi ciebie.

   Europolitykom pomysł inwigilacji i kontroli przypadł do gustu. W ubiegłym roku Jean-Claude Juncker rzucił myśl, by wprowadzić zmiany w przepisach UE, które pozwolą na usuwanie „nielegalnych treści w Internecie” w ciągu godziny. W marcu 2018 roku pod auspicjami KE opracowano specjalny „kodeks” dla firm z branży internetowej, zalecający wprowadzenie automatycznych mechanizmów wykrywania i usuwania treści „ksenofobicznych” czy „rasistowskich”. W odpowiedzi na to takie firmy jak Facebook, Microsoft, Twitter, YouTube, Instagram, Snapchat czy Dailymotion zapowiedziały wdrożenie odpowiednich rozwiązań technicznych cenzurujących Internet.

   To była wciąż jednak jedynie rekomendacja, a nie regulacje prawne. Wkrótce potem rozpoczęto intensywne prace nad TERREG, unijną dyrektywą, która umożliwia nieustanną zautomatyzowaną (czyli dokonywaną przez maszyny, algorytmy sztucznej inteligencji) lustrację platform społecznościowych i innych stron pod kątem „terrorystycznych treści” i szybkie blokowanie niepożądanych treści.

   „Chociaż poczyniliśmy już postępy w usuwaniu treści terrorystycznych w Internecie poprzez dobrowolną współpracę, to jednak to za mało” - mówi w wypowiedzi cytowanej przez portal europa.eu Julian King, komisarz unijny ds. bezpieczeństwa - „Musimy w ogóle uniemożliwić zamieszczanie tych treści, a także musimy zapewnić, że zostaną one usunięte tak szybko, jak to możliwe, zanim spowodują jakiekolwiek poważne szkody.”

„Automaty analizujące treści ze zrozumieniem”

   Dyrektywa TERREG nazywa się oficjalnie „Regulation of the European Parliament and of the Council on preventing the dissemination of terrorist content online”. Najistotniejsze w jej projekcie są projekty usuwania treści lub dostępu do niej w ciągu godziny od otrzymania nakazu usunięcia (art. 4 podpunkt drugi) oraz wymóg stosowania zapobiegawczych, w tym zautomatyzowanych metod analizy treści ze zrozumieniem treści (art. 5 podpunkt 5).

   Zgodnie z proponowanym tekstem, jeśli „treści terrorystyczne” znajdą się w sieci  i zostaną zgłoszone, to operatorzy są zobowiązani do udzielenia odpowiedzi na zgłoszenie w ciągu godziny i ich usunięcia. W projekcie TERREG mowa o bliżej nieokreślonych „organach krajowych”, które miałyby kontaktować się z podmiotami gospodarczymi (dostawcami usług, serwisami, stronami) za pośrednictwem punktu kontaktowego, który ma zostać wyznaczony przez podmioty internetowe. Nakaz usunięcia może być „decyzją administracyjną lub sądową”. Zgodnie z zasadą państwa prawa, platformy mogą składać odwołania.  Użytkownicy, których zawartość została usunięta, muszą zostać powiadomieni. Na żądanie może im zostać przedstawione uzasadnienie usunięcia treści. Inne procedury obowiązywać mają w przypadku wszczęcia dochodzeń przez organy ścigania. Przewiduje się jeszcze więcej biurokracji, czyli sprawozdania roczne podsumowujące wszystkie przypadki usuwania treści.

   Trudno się dziwić, że środowiska internetowe alarmują. Nie chodzi tylko o cenzurę, ale również o dodatkowe obciążenia i mechanizmy kontrolne. Jedni wskazują, że to uderza w mniejsze podmioty, serwisy, strony i blogi. Inni uważają, że to będzie martwe prawo, bo proponowanych przez TERREG mechanizmów nie da się w praktyce wprowadzić. Jednak nawet, jeśli tak będzie, to bat będzie stał w kącie gotowy do użycia.

   Francuska cyfrowa organizacja pozarządowa La Quadrature du Net obawia się w swoim niedawnym oświedczeniu, że wniosek Komisji jedynie wzmocni potentatów internetowych kosztem mniejszych podmiotów. „Gdyby została przyjęta, monopole Internetu (Google, Amazon, Facebook, Apple, Microsoft, Twitter) stałyby się kluczowymi partnerami w polityce bezpieczeństwa państw członkowskich i to wzmocniłyby ich już i tak dominującą pozycję. Każdemu innemu usługodawcy grozi zamknięcie. A dotyczy to również niezależnych usług chroniących naszych wolności” - piszą aktywiści w oświadczeniu.

Monitorowanie „proaktywne” na cenzurowanym

   Proponowane w projekcie TERREG sformułowania krytykowane są nie tylko przez środowiska internetowe. 12 lutego 2019 r. Agencja Praw Podstawowych Unii Europejskiej (FRA) opublikowała opinię na ten temat. Wzywa w niej przede wszystkim do poprawienia precyzji definicji „treści terrorystycznych” i podkreśla potrzebę dodania do niej pojęcia „podżegania” lub udzielania szczegółowych instrukcji dotyczących popełniania przestępstw terrorystycznych. Dotyczyć miałoby to konkretnych działań, takich jak „dostarczanie szczegółowych instrukcji dotyczących przygotowania materiałów wybuchowych lub broni palnej”. Ponadto w tekście wzywa się do ograniczenia zakresu TERREG do treści rozpowszechnianych publicznie oraz do wyłączenia z zakresu stosowania rozporządzenia pewnych form ekspresji, takich jak treści związane z celami edukacyjnymi, dziennikarskimi, artystycznymi lub badawczymi.

   Po drugie FRA wzywa do zapewnienia ochrony praw podstawowych poprzez „skuteczny nadzór sądowy” nad realizacją dyrektywy. Obecnie w projekcie nie ma bowiem o tym wzmianki. Agencja przypomina również o potrzebie unikania nieproporcjonalnego wpływu na swobodę prowadzenia działalności gospodarczej w przypadku konieczności reagowania na zawiadomienia o usunięciu treści terrorystycznych w bardzo krótkim czasie (do jednej godziny w proponowanej treści). FRA sugeruje zamiast tego 24-godzinny czas reakcji od otrzymania nakazu usunięcia i zachęca prawodawców UE w przypadku zgłoszeń trans granicznych do wymagania od wydającego nakaz państwa członkowskiego powiadomienia przyjmującego państwa członkowskiego, oprócz powiadomienia dostawcy usług hostingowych. Choćby dlatego, aby np. francuska cenzura polityczna nie miała możliwości bezpośredniego „zdejmowania” treści w polskim Internecie.

   FRA stwierdza, że projekt nie zabezpiecza praw osób, które chciałby zakwestionować blokady swoich treści, nie przewidując zadowalającego rozróżnienia pomiędzy treściami „budzącymi wątpliwość” a blokowanymi z miejsca.

   I w końcu w swojej opinii Agencja Praw Podstawowych Unii Europejskiej stwierdza się, że proponowane w rozporządzeniu aktywne środki są bardzo zbliżone do ogólnego obowiązku monitorowania. A jest to nie tylko zakazane na mocy art. 14 dyrektywy UE o handlu elektronicznym, ale również ogólnie niezgodne z prawem jednostki do wolności słowa na mocy art. 11 Karty Praw Podstawowych Unii Europejskiej. Agencja Praw Podstawowych proponuje zatem usunięcie z tekstu rozporządzenia zobowiązania dostawców usług hostingowych (HSP) do wprowadzenia środków „proaktywnych”.

Czy w internecie będzie potrzebny koalang?

   Pierwsze głosowanie nad projektem TERREG w Parlamencie Europejskim zaplanowane zostało na ósmego kwietnia. W ocenie komentatorów zwolennikom nowego typu cenzury zależy na uchwaleniu tej dyrektywy jeszcze w tej kadencji Parlamentu Europejskiego.

   Na temat projektu tej dyrektywy wciąż nie ma zbyt wielu informacji i komentarzy w Internecie. Te, które można znaleźć, skupiają się na przerażającej perspektywie permanentnej inwigilacji przez automaty, podobnej co do istoty do tego, co znamy z różnych literackich anty-utopii, choćby z „Paradyzji” Janusza Zajdla. Zważywszy, że Internet zaczyna wykraczać poza świat jedynie tekstu i obrazu, w kierunku interfejsów naturalnych, głosowych, inteligentnych asystentów, monitorujących wszystko kamer, systemów biometrycznych, rozpoznawania twarzy, analogia z fantastyką socjologiczną Zajdla może okazać się z czasem coraz celniejsza.

   Na razie problem z automatami cenzurującymi i kontrolującymi Internet jest bardziej taki, że działają źle, popełniają błędy, nie wykazują żądnej „dystynkcji w rozumowaniu”. Krótko mówiąc, wciąż są prymitywne. A firmy, które je wprowadzają Google, czy Facebook wcale nie są zainteresowane tym, aby były szczególnie czułe i wrażliwe na subtelności. Przeciwnie, w sensie prawnym i finansowym w porównaniu z operowaniu skalpelem bezpieczniej jest, o czym już pisałem na portalu SDP, rąbać toporem.

   Wspominałem w styczniu, iż istniejące już wersje filtrów treści na platformach takich jak YouTube i Facebook, są podatne na błędy i na zagrożenia związane z interpretacją prawa autorskich. Na przykład w 2012 r. filtr treści YouTube Content ID zdjął film wideo użytkownika z instrukcjami robienia sałatek, ponieważ materiał zawierał dźwięk świergotania ptaków. Zautomatyzowany algorytm uznał, że wideo naruszyło prawa autorskie do pewnego utworu muzycznego, który zawierał dźwięki śpiewu ptaków. Inny znany przypadek to historia, gdy YouTube uniemożliwił pianiście Jamesowi Rodosowi zamieszczenie własnego filmu, w którym gra Bacha. Takie błędy są codziennością funkcjonowania YouTube, o czym wie dobrze wielu właścicieli kanałów.

   Narzędzia automatyczne, nawet te oparte na sztucznej inteligencji, są wciąż bardzo dalekie od doskonałości. Ich rozwój i doskonalenie, to ogromne nakłady. Dlaczego potentaci Internetu mają w to inwestować, skoro dążący do cenzorskiego zamordyzmu politycy oczekują przede wszystkim usuwania tego. co niewygodne politycznie a nie doskonałości technicznej. Podobnie jak w przypadku groźby roszczeń autorskich, obawiający się problemów prawnych właściciele platform ustawią swoje maszyny na szeroki margines. Bezpieczniej będzie na wszelki wypadek usunąć czy wręcz nie dopuścić do publikacji materiału budzącego wątpliwości, niż kalibrować filtry, które i tak w końcu mogą zawieść. A potem niech publikujący odwołuje się i martwi dowodzeniem, że to co napisał to nie „treści terrorystyczne”.

   Czy maszyna zrozumie np. drugie dno w ironicznym zdaniu: „Terroryzm to szansa dla Zachodu, aby zaczął coś rozumieć”? Wątpię. Obawiam się, że TERREG raczej w ogóle ograniczy możliwość publikacji na temat ewentualnego zamachu terrorystycznyego. Wątpię, czy będzie można swobodnie napisać, że zamachy terrorystyczne to wynik prowadzonej w krajach zachodnich polityki imigracyjnej. Obawiam się, że cenzura polityczna TERREG ma służyć przede wszystkim blokowaniu swobodnej dyskusji o terroryzmie i w konsekwencji na inne tematy. Do tego toporne mechanizmy filtrujące wystarczą.

   Gdyby jednak powstały algorytmy AI rzeczywiście „rozumiejące” treści we wszystkich skomplikowanych aspektach i smakach języka, mechanizm taki jak TERREG nie wydaje się wcale mniej groźny. Wówczas powstaje pytanie o „poglądy” cenzurującej maszyny. Sztuczna inteligencja zablokuje treści, które sama zrozumie i uzna za nieodpowiednie. Jak wygląda kontrola człowieka nad takimi mechanizmami. Czy sami architekci systemu cenzury w przykry dla siebie (ale co ważniejsze dla nas wszystkich) sposób nie zdziwią się skutkami jego wprowadzenia? To są problemy nieco futurologiczne, ale warto je sygnalizować, skoro prawodawstwo unijne w dość wyraźny sposób chce zdać się na automaty.

   Za znanymi obecnie mechanizmami filtrowania treści stoi człowiek, jego polityczne poglądy i nakazy panującego reżimu, jak to ma miejsce w Chinach. To są mechanizmy na szczęście (w pewnym sensie) prymitywne. Np. młodzi ludzie wiedzą, że, by odłączyć wkurzającego Chińczyka od Internetu, wystarczy napisać mu coś o protestach na placu Tian’anmen w 1989. Toporna chińska cenzura nie zwraca uwagi, że to nie on, ale do niego napisano. Choć nie brzmi to dobrze, to jednak prymitywizm tych rozwiązań sprawia, że wydają się mniej groźne. Im „mądrzejsze” techniki inwigilacji i cenzury, tym bardziej złowrogo rysuje się przyszłość.

   Paradyzyjczycy u Zajdla posługiwali się tzw. „koalangiem”, pełnym metafor i szarad słownych poetyckim w zasadzie językiem, który skutecznie oszukiwał podsłuchującą ich na każdym kroku „centralę”, posługującą się przy tym zaawansowanymi algorytmami wyszukującymi „niepożądane” treści w rozmowach obywateli utopijnego świata. Czy w świecie ACTA2 i TERREG, też będziemy musieli uciekać się do szarad i poezji, aby móc swobodnie rozmawiać?

Mirosław Usidus

Udostępnij
Komentarze
Disqus

Poprzednia wersja portalu SDP.pl, dostępna pod adresem: http://old.sdp.pl