MIROSŁAW USIDUS: Cenzura po europejsku

Miłośnicy cenzury, ograniczania wolności słowa, kontrolowania obiegu informacji, nigdy nie mają wolnego i nigdy nie odpuszczają. Dowodzi tego przyjęcie cichaczem kilka tygodni temu, bez głosowania w Parlamencie Europejskim, rozporządzenia zwanego TERREG, wykwitu cenzorskiej myśli, przy którym sławetna ACTA 2 blednie.

 

Pisałem o tym projekcie już dwukrotnie na portalu SDP. Nigdy nie był tak nagłośniony, jak dyrektywa o prawie autorskim ACTA 2, a ostatnio w ogóle nie było o nim mowy. Europejskie mrówki-cenzorki wykonywały jednak swoją robotę cierpliwie i jak się niedawno okazało – skutecznie.

 

Jasne, w TERREG chodzi oficjalnie o bezpieczeństwo i walkę z terroryzmem. A że każda władza może sobie definiować sama, kto jest „terrorystą”, więc tak naprawdę może w efekcie dotyczyć każdego. Skutek praktyczny tego cenzorskiego obłędu będzie taki, że właściciele stron będą musieli w ciągu godziny usuwać wszelkie treści promujące „terroryzm”, wedle przyjętej politycznej definicji i na żądanie jakiegoś organu administracyjnego, pod groźbą surowych kar. Czyli w praktyce  będzie tak: władza nakaże wycięcie czegoś – wydawca musi natychmiast czyli bez dyskusji to wyciąć, bo taka procedura nie zostawia miejsca na sprzeciw, polemikę i zdanie odrębne.

 

„Terroryzm”? W wielu krajach to nad wyraz wygodne narzędzie do zwalczania ludzi niewygodnych, a niekiedy wyjmowania spod prawa całych grup społecznych. Chiny nazywają terrorystami walczących o swobody Ujgurów, uzasadniając w ten sposób niezwykle agresywne represje, jakim poddały te mniejszość narodową. Powstały tam nawet aplikacje rozróżniające Ujgurów po twarzy, po to ma się rozumieć by Pekin mógł skuteczniej rozpoznawać „terrorystów”. Turcja terrorystami nazywa Kurdów, a Arabia Saudyjska nieposłuszne grupy etniczne w Jemenie. Zbyt często „terrorystą” jest nazywany ten, kto się sprzeciwia władzy i ma inne poglądy, byśmy mogli zaufać jakiemukolwiek rządowi, gdy chce definiować „terroryzm”.

 

To nie są żarty. W świecie TERREG, jeśli władza uzna, że niniejszy tekst, przez sprzeciw wobec TERREG promuje „terroryzm”, to wydawcy portalu SDP muszą go w ciągu godziny zdjąć. I żadnej dyskusji pod groźbą ciężkich kar nie będzie.

 

Ponadto surowa cenzura TERREG ma działać ponad granicami państw. Czy doprowadzi to do sytuacji, że znana z zamordystycznej cenzury Szwecja będzie blokować treści publikowane w Polsce? Np. u nas panuje znacznie większa swoboda w podawaniu tożsamości i pochodzenia autorów ataków terrorystycznych. W Szwecji w mediach są to jedynie „młodzi ludzie”, nawet nie „o południowej urodzie”. Pewne treści są w tym kraju ściśle cenzurowane i nie ma dla nich miejsca w publikacjach. Czy pod rządami TERREG Szwecja będzie mogła zaprowadzić swój zamordyzm także w polskim internecie, który w porównaniu z krajami zachodnimi cieszy się ciągle względna swobodą (choć Facebook, Twitter a także Google, robią dużo by to się zmieniło)?

 

Cenzorskie nakazy dla wydawców wydawać mają jakieś specjalnie w tym celu tworzone organy administracyjne. Dla nas to powtórka z komunistycznej rozrywki, zaś dla przesiąkniętej lewicową myślą zachodniej Europy kolejny krok na drodze odchodzenia od demokracji i praworządności.

 

Nie zgadzam się z twoimi poglądami, więc jesteś terrorystą

 

Gdy pierwszy projekt TERREG (od ang. nazwy „TERrorist content REGulation”) pojawił się w 2018 r., niosła go fala publicznych wezwań do działania w następstwie serii ataków terrorystycznych w krajach zachodniej Europy w latach 2015-2016. Oczywiście od samego początku w debacie na ten temat starannie omija się jedną z głównym przyczyn tej terrorystycznej fali – otwarcie na oścież bram Europy dla imigrantów, a w kontekście ataków terrorystycznych, głównie z krajów Bliskiego Wschodu.

 

Pierwszy projekt rozporządzenia TERREG zawierał taką oto definicję „treści terrorystycznych”: „wszelkie materiały, które podżegają lub wspierają popełnianie przestępstw terrorystycznych, promują działalność grupy terrorystycznej lub dostarczają instrukcji i technik popełniania przestępstw terrorystycznych”. Prawda, że w razie czego można tu wiele treści, pozornie niewinnych dopasować. A to przecież tylko wyjściowa definicja. Nie wątpię w twórczy potencjał urzędników europejskich w coraz pojemniejszym definiowaniu „terroryzmu”.

 

Jak to zwykle bywa, za nowym projektem cenzorskim stoją nad wyraz górnolotnie wyrażane intencje. Już 2017 roku Komisja Europejska zapowiedziała czynną walkę z terrorystami w sieci, oraz z „rasizmem” i „ksenofobią”. Brzmi wzniośle. Jednakże, gdy czytamy oficjalne komunikaty Pekinu o celach i zasadach, stojących za chińską cenzurą polityczną, również wszystko to jest „dla dobra społeczeństwa” i „na straży prawa i bezpieczeństwa”. Nie tylko „terroryzm”, ale również „rasizm” czy „ksenofobia” to pojęcia w rękach polityków i cenzorów instrumentalne. Również Google czy Facebook znane są z arbitralnego i politycznie jednostronnego rozumienia tych pojęć. Zaś w praktyce oznacza to nierzadko, że „faszystą” czy „rasistą” stajesz się nie dlatego, że kogoś nie lubisz, ale dlatego, że ktoś o innych poglądach niż twoje, nie lubi ciebie i twoich poglądów.

 

Powiedzieć, że europolitykom pomysł inwigilacji i kontroli informacji przypadł do gustu, to bardzo mało powiedzieć. Na fali cenzorskiego entuzjazmu Jean-Claude Juncker, wciąż jeszcze szef Komisji Europejskiej, rzucił myśl, by wprowadzić zmiany w przepisach UE, które pozwolą na usuwanie wszelkich „nielegalnych treści w Internecie” w ciągu godziny. W marcu 2018 roku pod auspicjami KE opracowano specjalny „kodeks” dla firm z branży internetowej, zalecający wprowadzenie automatycznych mechanizmów wykrywania i usuwania treści „ksenofobicznych” czy „rasistowskich”. W odpowiedzi na to takie firmy jak Facebook, Microsoft, Twitter, YouTube, Instagram, Snapchat czy Dailymotion zapowiedziały wdrożenie odpowiednich rozwiązań technicznych cenzurujących Internet.

 

To była wciąż jednak jedynie rekomendacja a nie regulacje prawne. Wkrótce potem rozpoczęto intensywne prace nad TERREG, unijną dyrektywą, która umożliwia nieustanną zautomatyzowaną (czyli dokonywaną przez maszyny, algorytmy sztucznej inteligencji) lustrację platform społecznościowych i innych stron pod kątem „terrorystycznych treści” i szybkie ich blokowanie.

 

Chociaż poczyniliśmy już postępy w usuwaniu treści terrorystycznych w Internecie poprzez dobrowolną współpracę, to jednak to za mało,” mówił w wypowiedzi cytowanej przez portal europa.eu Julian King, komisarz unijny ds. bezpieczeństwa. „Musimy w ogóle uniemożliwić zamieszczanie tych treści, a także musimy zapewnić, że zostaną one usunięte tak szybko, jak to możliwe, zanim spowodują jakiekolwiek poważne szkody”. Motywacja i mobilizacja łapiących cenzorski wiatr w żagle eurourzędników, jak widać, stale wzrastała.

 

Już zresztą wcześniej, bo w 2016 roku Komisja Europejska zobowiązała się do stworzenia porozumienia, które pozwoliłoby firmom na usuwanie określonych treści w ciągu 24 godzin od ich publikacji w internecie. Wśród państw członkowskich Niemcy i Francja domagały się wspólnego kodeksu postępowania w zakresie walki z terroryzmem. Ponadto pojedyncze kraje członkowskie opracowały dla siebie szczegółowe wytyczne. Niemcy, na przykład, przyjęły ustawę NetzDG, której celem było ograniczenie obiegu fałszywych wiadomości w sieciach społecznościowych. Wynika z tego, że Niemcy są skłonne traktować jako „treści terrorystyczne” wszelkie fałszywe wiadomości. To znaczne rozszerzenie tego pojęcia, sygnalizujące wyraźnie do czego zmierzają wiodące w UE kraje.

 

Jak broni się przed eurocenzurą

 

Po wielu pracach w komisjach poprzedni Parlament Europejski, na krótko przed wygaśnięciem swojego mandatu, przyjął w kwietniu 2019 r. poprawioną wersję rozporządzenia. Eksperci i badacze zajmujący się terroryzmem nieśmiało wskazywali na brak dowodów na istnienie związku przyczynowego między treściami online a terroryzmem. Także własne agencje Unii, niektóre państwa członkowskie i wielu niezależnych pozarządowych działaczy, wszyscy wyrażali obawy dotyczące pułapek związanych z technicznym wdrożeniem rozporządzenia, a także ryzyka długoterminowych szkód społecznych i politycznych, gdyby stało się ono prawem UE. W trakcie całego cyklu legislacyjnego TERREG krytycy opisywali bardzo prawdopodobne scenariusze nadużyć ze strony rządów, które uwierają np. poglądy konserwatywne i ogólniej nielewicowe w charakterze. Co więcej, parlamentarne dyskusje na ten temat jasno pokazują, że sama natura zagrożenia terrorystycznego w UE jest przedmiotem sporu, a posłowie do Parlamentu Europejskiego wskazują na rozbieżne ideologie, przyczyny i interesy grupowe, w zależności od ich miejsca w spektrum politycznym i kraju, który reprezentują.

 

W 2019 roku Agencja Praw Podstawowych Unii Europejskiej (ADF) wyraziła obawy dotyczące TERREG. Zdaniem ADF, należałoby dokładniej określić, co należy rozumieć przez treści terrorystyczne. Stosowana dotychczas definicja jest zbyt ogólna i narusza swobodę wypowiedzi. Ponadto, według ADF, rozporządzenie TERREG nie przewiduje udziału wymiaru sprawiedliwości w mechanizmie kontroli, co pozwala na usuwanie treści online z dowolnego państwa członkowskiego UE bez nadzoru organu sądowego. ADF chciałoby również, aby zmieniono termin, w jakim usuwane są treści online. Jedna godzina to – w ocenie wielu krytyków TERREG – nie tylko ADF, zbyt krótki przedział czasowy.

 

Po drugie ADF wzywała do zapewnienia ochrony praw podstawowych poprzez „skuteczny nadzór sądowy” nad realizacją dyrektywy. W pierwszych wersjach projektu nie było bowiem o tym wzmianki. Agencja przypominała również o potrzebie unikania nieproporcjonalnego wpływu na swobodę prowadzenia działalności gospodarczej w przypadku konieczności reagowania na zawiadomienia o usunięciu treści terrorystycznych w bardzo krótkim czasie. FRA sugerowała zamiast tego 24-godzinny czas reakcji od otrzymania nakazu usunięcia i zachęcała prawodawców UE w przypadku zgłoszeń transgranicznych do wymagania od wydającego nakaz państwa członkowskiego powiadomienia organów przyjmującego państwa członkowskiego, poza powiadomieniem dostawcy usług hostingowych. Choćby dlatego, aby np. francuska cenzura polityczna nie miała możliwości bezpośredniego „zdejmowania” treści w polskim Internecie, co byłoby sprzeczne z polskim prawem.

 

ADF stwierdziła też, że projekt nie zabezpiecza praw osób, które chciałby zakwestionować blokady swoich treści, nie przewidując zadowalającego rozróżnienia pomiędzy treściami „budzącymi wątpliwość” a blokowanymi z miejsca.

 

I w końcu w swojej opinii Agencja Praw Podstawowych Unii Europejskiej stwierdziła, że proponowane w rozporządzeniu aktywne środki są bardzo zbliżone do ogólnego obowiązku monitorowania. A jest to nie tylko zakazane na mocy art. 14 dyrektywy UE o handlu elektronicznym, ale również ogólnie niezgodne z prawem jednostki do wolności słowa na mocy art. 11 Karty Praw Podstawowych Unii Europejskiej.

 

Francuska cyfrowa organizacja pozarządowa La Quadrature du Net obawiała się w swoim oświadczeniu z 2019 roku, że wniosek Komisji jedynie wzmocni potentatów internetowych kosztem mniejszych podmiotów. „Gdyby została przyjęta, monopole Internetu (Google, Amazon, Facebook, Apple, Microsoft, Twitter) stałyby się kluczowymi partnerami w polityce bezpieczeństwa państw członkowskich i to wzmocniłyby ich już i tak dominującą pozycję. Każdemu innemu usługodawcy grozi zamknięcie. A dotyczy to również niezależnych usług chroniących naszych wolności,” piszą aktywiści w oświadczeniu.

 

Tworzona przez firmy i aktywistów internetowych organizacja Global Network Initiative już w styczniu 2019 przyjęła stanowisko, w którym stwierdza m. in.: „Proponowane rozporządzenie europejskie w sprawie zapobiegania rozpowszechnianiu treści terrorystycznych mogłoby mimowolnie zaszkodzić prawom użytkowników i podważyć uzasadnione wysiłki na rzecz dokumentowania i przeciwdziałania działalności ekstremistów w Internecie”. Dalej czytamy, że „członkowie GNI zwracają uwagę na niejasne definicje treści o charakterze terrorystycznym, szybkie terminy, w których firmy muszą stosować się do nakazów usunięcia treści, naciski na kształtowanie warunków świadczenia usług przez firmy internetowe a zarazem odnoszenie spraw o usunięcie treści do tych warunków, a nie przepisów prawa krajowego lub unijnego”.

 

GNI wskazuje, że przepisy zakazujące nawoływania do terroryzmu „powinny być ukierunkowane jedynie na bezprawne wypowiedzi, mające na celu podżeganie do popełnienia przestępstwa i które powodują niebezpieczeństwo popełnienia aktu terrorystycznego lub aktu przemocy”. Rozporządzenie odwołuje się do definicji „treści terrorystycznych” zawartej w dyrektywie UE 2017/541, która wielokrotnie została skrytykowana przez organizacje broniące praw człowieka i niezależnych ekspertów. Ponadto, ponieważ definicja ta opiera się na dyrektywie unijnej, powstaje możliwość, że będzie interpretowana na wiele różnych sposobów we wszystkich państwach członkowskich.  Zdaniem GNI powstała w ten sposób sfera niepewności prowadzi zagrożenia zbyt gorliwej polityki ze strony firm internetowych, które będą myśleć głównie o swoim bezpieczeństwie prawnym.

 

W opracowaniu pozarządowych ekspertów GNI pt. „Extremist Content and the ICT Sector” pisze się także o obawach „ustanowienia precedensów pozasądowej cenzury administracyjnej bez odpowiedniego dostępu do środków odwoławczych, bez jasno określonej odpowiedzialności i przejrzystości regulacji dla użytkowników i społeczeństwa”.

 

Organizacjom takim jak GNI w krytyce projektu rozporządzenia o treściach terrorystycznych, wtórują liczni eksperci i przedstawiciele środowisk akademickich. „Projekt rozporządzenia stanowi poważne zagrożenie dla wolności słowa. Przepisy te mogą być stosowane w odniesieniu do dziennikarzy, organizacji pozarządowych, partii politycznych, związków zawodowych, ludności autochtonicznej, historyków lub przedstawicieli nauk społecznych, pisarzy, rysowników, fotografów i filmowców. Transgraniczne stosowanie tych przepisów sprawia, że może stać się ono strasznym narzędziem w rękach reżimów autorytarnych lub nieuczciwych urzędników,” napisał na swoim blogu Martin Scheininin, profesor prawa międzynarodowego i praw człowieka na Wydziale Prawa Europejskiego Instytutu Uniwersyteckiego (EUI) we Florencji.

 

Nie jest oczywiście zaskoczeniem, że projektowane regulacje ostro krytykowane są przez przedstawicieli sektora technologii i dostawców usług internetowych. Zwiększają przecież znacząco koszty prowadzenia biznesu i odpowiedzialność.

 

Unia ma aż nadto dobrze widoczną ambicję objęcia „opieką” całości internetowego życia i biznesu w sieci. Od pewnego czasu mówi się o projekcie „zbiorczym” Digital Services Act – unijnego prawa regulującego kompleksowo różne usługi cyfrowe i aspekty internetu. Do przyjętej dyrektywy o prawach autorskich, zwanej u nas ACTA2, rozporządzenia o treściach terrorystycznych, euro-regulatorzy chcą jak najszybciej dołączyć przepisy do walki z „mową nienawiści”. Jeśli „treści terrorystyczne” są wypłynięciem na morze obaw o nadużywanie i polityczne naginanie interpretacji, to co dopiero powiedzieć o „mowie nienawiści”. Już widzę euro-urzędy i armię biurokratów do zwalczania „mowy nienawiści”

 

Komisja bada, a jakże, możliwość ustanowienia scentralizowanego unijnego organu regulacyjnego ds. technologii, posiadającego uprawnienia do egzekwowania przepisów Digital Services Act. Taki „Główny Urząd Kontroli Publikacji Internetowych Unii Europejskiej”. Co sobie urzędnicy będą odmawiać, skoro można wymyślić nowy urząd, w dodatku z potężnymi uprawnieniami kontrolno-egzekucyjnymi?

 

Drogą wdrażania kolejnych dyrektyw i rozporządzeń tworzących jedną, wyżej opisaną, całość, powstać ma kompleksowa infrastruktura do wymuszania na firmach internetowych usuwania treści „na żądanie” władz, czy to dlatego, że władza uzna, że coś jest „treścią terrorystyczną”, czy to dlatego, że pojawi się nie wiadomo dokładnie jeszcze czy uzasadnione, ale pojawi się roszczenie co do praw autorskich czy w końcu ktoś uzna, że krytyka takiej a takiej partii politycznej to „mowa nienawiści”.  A kto wie, na jakie jeszcze pomysły wpadną urzędnicy?

 

Niedawne przyjęcie dyrektywy TERREG zdaje się świadczyć, że mimo wszystkich negatywnych opinii organizacji broniących praw obywatelskich i niezależnych ekspertów, zwolennicy cenzury w organach UE są potężnie zdeterminowani. Nie zważali na to, na przykład, że we Francji ustawa proponująca podobny do TERREG jednogodzinny termin usunięcia została niedawno uznana za niekonstytucyjną. TERREG, jak na zamówienie, pomogły jesienne zamachy we Francji i Austrii. To one posłużyły do usprawiedliwiania pominięcia dalszej debaty i pominięcia zapowiadanego wcześniej głosowania plenarnego w parlamencie.

 

Po latach przechodzenia przez demokratyczną maszynkę do mielenia mięsa w Brukseli, tekst tego rozporządzenia w końcu w znacznej mierze sprzyja ugruntowanym interesom biurokratów i rządów, odrzucając ważne opinie ekspertów, bez wyraźnych korzyści dla (i prawdopodobnie kosztem) społeczeństwa,” oceniła  w komentarzu dla serwisu „Balkan Investigative Reporting Network: BIRN” Stefania Koskova, ekspertka, która przedstawiła posłom do Parlamentu Europejskiego informacje i pisemne uwagi na temat TERREG. „Obecnie mamy rozporządzenie, które nie stanowi skutecznego rozwiązania problemu wykorzystywania Internetu przez terrorystów i radykalizacji postaw w Internecie w UE, a także niesie ze sobą nowe zagrożenia dla demokracji i uczestnictwa obywateli”.

 

Cenzura docelowo zautomatyzowana

 

Gdy pierwszy raz napisałem na portalu SDP o TERREG, wspomniałem o skojarzeniach z anty-utopią „Paradyzja” Janusza Zajdla, w której ludzie są totalnie i permanentnie inwigilowani przez automaty. Zważywszy, że Internet zaczyna wykraczać poza świat jedynie tekstu i obrazu, w kierunku interfejsów naturalnych, głosowych, inteligentnych asystentów, monitorujących wszystko kamer, systemów biometrycznych, rozpoznawania twarzy, analogia z fantastyką socjologiczną Zajdla może okazać się z czasem coraz celniejsza.

 

Narzędzia automatyczne, nawet te oparte na sztucznej inteligencji, są wciąż bardzo dalekie od doskonałości. Ich rozwój i doskonalenie, to ogromne nakłady. Dlaczego potentaci Internetu mają w to inwestować, skoro dążący do cenzorskiego zamordyzmu politycy oczekują przede wszystkim usuwania tego, co niewygodne politycznie, a nie doskonałości technicznej. Podobnie jak w przypadku groźby roszczeń autorskich, obawiający się problemów prawnych właściciele platform ustawią swoje maszyny na szeroki margines. Bezpieczniej będzie na wszelki wypadek usunąć czy wręcz nie dopuścić do publikacji materiału budzącego wątpliwości, niż kalibrować filtry, które i tak w końcu mogą zawieść. A potem niech publikujący odwołuje się i martwi dowodzeniem, że to, co napisał, to nie „treści terrorystyczne”.

 

Czy maszyna zrozumie np. drugie dno w ironicznym zdaniu: „Terroryzm to szansa dla Zachodu, aby zaczął coś rozumieć”? Wątpię. Obawiam się, że TERREG raczej w ogóle ograniczy możliwość publikacji ostrzegających przed dającym się przewidzieć zamachem terrorystycznym. Wątpię, czy w świecie TERREG będzie można swobodnie napisać, że zamachy terrorystyczne to wynik prowadzonej w krajach zachodnich polityki imigracyjnej. Obawiam się, że cenzura polityczna TERREG ma służyć przede wszystkim blokowaniu swobodnej dyskusji o terroryzmie, a potem (a może od razu) na inne tematy, niewygodne dla lewicowej ortodoksji. Do tego toporne mechanizmy filtrujące wystarczą.

 

Gdyby jednak powstały algorytmy AI rzeczywiście „rozumiejące” treści we wszystkich skomplikowanych aspektach i smakach języka, mechanizm taki jak TERREG nie wydaje się wcale mniej groźny. Wówczas powstaje pytanie o „poglądy” cenzurującej maszyny. Sztuczna inteligencja zablokuje treści, które sama zrozumie i uzna za nieodpowiednie. Jak wygląda kontrola człowieka nad takimi mechanizmami. Czy sami architekci systemu cenzury w przykry dla siebie (ale co ważniejsze dla nas wszystkich) sposób nie zdziwią się skutkami jego wprowadzenia? To są problemy nieco futurologiczne, ale warto je sygnalizować, skoro prawodawstwo unijne w dość wyraźny sposób chce zdać się na automaty.

 

Za znanymi obecnie mechanizmami filtrowania treści stoi człowiek, jego polityczne poglądy i nakazy panującego reżimu, jak to ma miejsce w Chinach. To są mechanizmy na szczęście (w pewnym sensie) prymitywne. Np. młodzi ludzie wiedzą, że, by odłączyć wkurzającego Chińczyka od Internetu, wystarczy napisać mu coś o protestach na placu Tian’anmen w 1989. Toporna chińska cenzura nie zwraca uwagi, że to nie on, ale do niego napisano. Choć nie brzmi to dobrze, to jednak prymitywizm tych rozwiązań sprawia, że wydają się mniej groźne. Im „mądrzejsze” techniki inwigilacji i cenzury, tym bardziej złowrogo rysuje się przyszłość.

 

Paradyzyjczycy u Zajdla posługiwali się tzw. „koalangiem”, pełnym metafor i szarad słownych poetyckim w zasadzie językiem, który skutecznie oszukiwał podsłuchującą ich na każdym kroku „centralę”, posługującą się przy tym zaawansowanymi algorytmami wyszukującymi „niepożądane” treści w rozmowach obywateli utopijnego świata. Czy w świecie ACTA2 i TERREG, też będziemy musieli uciekać się do szarad i poezji, aby móc swobodnie rozmawiać?

 

Karta praw? Konstytucja? To ostatnie rzeczy, które obchodzą euro-cenzorów

 

Ze świata futurologii i fantastyki wróćmy może na koniec do naszych praw, jakie mamy jako obywatele Polski  i Europejczycy. Jeśli TERREG nie jest w sprzeczności z zawartym w Konstytucji RP zakazem cenzury, to już nie wiem co go łamie. Jest też „Karta praw podstawowych Unii Europejskiej”, która gwarantuje nam prawo do swobodnego wyrażania opinii. W jej art. 11 czytamy o „prawie do wolności słowa” dla każdego Europejczyka. Prawo to obejmuje wolność posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice państwowe.

 

Odwołując się do tych podstawowych praw, jakie nam przysługują, nie zapominajmy, że euro-cenzorzy nie zwracają na nasze prawa uwagi. W wymiarze praktycznym powinniśmy naciskać, by, jeśli nasz rząd ma zamiar wprowadzać to rozporządzenia jakimiś aktami prawnymi w Polsce, zawarta w nich była długa lista wyłączeń, uniemożliwiająca administracyjnej cenzurze dowolność w blokowaniu treści.

 

Mirosław Usidus