MIROSŁAW USIDUS: W poszukiwaniu ścieżki do cyfrowego sukcesu

Prasa weszła do sieci, gdy twórcy Google’a rozpoczynali naukę w szkole podstawowej a Marka Zuckerberga nie było jeszcze na świecie. Było kilka takich momentów w historii, gdy wydawało się, że to wydawcy gazet decydować będą, jak potoczy się rozwój internetu. Jednak za każdym razem jakoś nie orientowali się, że ten dzwon dzwoni właśnie im. I to przegapianie okazji doprowadziło ich do stanu dzisiejszego, gdy są jedynie ubogimi krewnymi internetowych potęg.

 

Czy ktoś pamięta, że już w lipcu 1980 roku można było czytać pierwszą gazetę w wersji internetowej? Potrzebny był do tego komputer, taki jak np. Apple II oraz modem wydzwaniający dostęp do usługi CompuServe. Pierwszą gazetą w internecie była „The Columbus Dispatch”. Udostępniono ją w ramach wspólnego eksperymentu CompuServe i Associated Press. W ramach tego projektu do sieci weszły wówczas też m. in. „Washington Post”, „The New York Times”, „The Minneapolis Star Tribune”, „The San Francisco Examiner”, „The Los Angeles Times”, „Atlanta Journal-Constitution” i szereg innych amerykańskich tytułów prasowych.

 

Eksperyment zakończył się w 1982 roku. Potem w latach 90-tych XX wieku, gdy pojawiły się usługi nazywane World Wide Web, gazety znów były prekursorami. Wydania online tytułów prasowych we wczesnym WWW to jedne z pierwszych profesjonalnych form publikacji w rodzącym się medium. I znów po zrobieniu pionierskich kroków, po przeprowadzeniu eksperymentów z nowymi formami prezentacji treści, wydawcy zatrzymali się, nie wykonali kolejnych kroków, oddając pole innym, nie wywodzącym się ze świata mass mediów, podmiotom i przedsięwzięciom, które w kolejnych dekadach, podbiły sieć i ostatecznie decydowały o tym jaki i czyj stał się internet i kto w nim rozdaje karty.

 

To wydawcy prasy tworzyli pierwsze formaty i sieci reklamowe. Nie potrafili jednak wykreować spójnego, uniwersalnego a w efekcie dominującego standardu i modelu technologii reklamowej w WWW. Gdyby im to się udało w latach dziewięćdziesiątych, historia sieci potoczyłaby się inaczej. Różnie się tamten czas zaprzepaszczonych szans tłumaczy. Jedni wskazują na sprzeczne interesy i brak możliwości porozumienia pomiędzy podmiotami, które konkurowały ze sobą wcześniej a potem również w nowych mediach. Inni sądzą, że barierą nie do pokonania były schematy myślowe i przyzwyczajenia wyniesione z tradycyjnego biznesu ogłoszeniowego w prasie drukowanej. Internet wymagał nowych pomysłów i świeżego spojrzenia. Potem, wraz z ekspansją reklamową Google, innowacje rodziły się i upowszechniały w innym środowisku, wśród graczy dalekich od starego rynku prasowego.

 

Po latach, gdy dowiadujemy się, że ten czy tamten wydawca przechodzi ze swoim zasłużonym tytułem na model całkowicie cyfrowy, co zostało przyspieszone, jak w niedawnym przypadku „Wprost” przez pandemię, trudno się oprzeć refleksji, że to wszystko spóźnione, że już dawno skończył się bal. I pewnie tak jest. Osobiście dziś unikam już słów w stylu – „już dwadzieścia lat temu mówiłem…”, bo zdaję sobie sprawę z anachronizmu, bo dlaczego niby w czasach gdy wydawca sprzedawał zadowalająco dużo papieru i reklam w papierze miałby z tego rezygnować na rzecz „tej komputerowej zabawki” (oryginalne słowa jednego z ważnych redaktorów „Rzeczpospolitej” z końca lat 90-tych). Faktem jednak jest, że rzeczywiście, „już dwadzieścia lat temu mówiłem…”.

 

Paywalle i prawne ściganie Google

 

Tam gdzie stare media są jeszcze nieco silniejsze i mają silne wsparcie regulatorów państwowych, wciąż trwa walka. We Francji np. niedawno Google został zmuszony do podpisania „kilku indywidualnych umów” z wydawcami w sprawie opłat za korzystanie z treści francuskich gazet i czasopism. Udało się to po miesiącach sporów o podział przychodów z wyświetlania wiadomości w wynikach wyszukiwania. Wśród sygnatariuszy umowy znalazły się czołowe francuskie dzienniki, „Le Monde”, „Le Figaro”, „Liberation”, a także czasopisma – „L’Express”, „L’Obs” i „Courrier International”.

 

W oświadczeniu towarzyszącym podpisaniu umów szef Google France, Sebastien Missoffe powiedział, że kontynuowane są rozmowy z innymi grupami medialnymi, a celem jest osiągnięcie „umowy ramowej do końca roku”. Google nie zrobił tego jednak z nieprzymuszonej woli, lecz po wyroku francuskiego sądu nakazującego dogadanie się z wydawcami w sprawie praw pokrewnych. Szczegóły finansowe nie zostały ujawnione. Missoffe tłumaczył jedynie, że płatności będą opierać się na kryteriach opartych na ruchu w Internecie, oraz „wkładzie wydawcy w serwis informacyjny”. Mam przeczucie, że francuscy wydawcy dostaną z tytułu tych ustaleń nie za wiele, ale zobaczymy.

 

Batalia o wypłaty od Google’a i Facebooka dla wydawców medialnych toczy się właśnie i to „na ostro” w Australii. Nie chodzi tam zresztą tylko o pieniądze dla mediów, ale również o dane użytkowników. Sprawy zaszły tam na tyle daleko, że Google wystosował „do Australijczyków” list, w którym niedwuznacznie grozi odcięciem ich od popularnych usług, w tym wyszukiwarki.

 

Jedni walczą o pieniądze od Google’a i Facebooka inni próbują utrzymać się na powierzchni na dziesiątki innych sposobów, choć to zarówno w segmencie wydań papierowych jak w internecie bardzo trudne. Pandemia postawiła wielu wydawców pod ścianą, gdy przez restrykcje stracili możliwość sprzedawania egzemplarzy w tradycyjnych kanałach. Kanały cyfrowe? Cóż, jeśli nie były rozwijane od lat to sama siła marki nie zamieni ich magicznie w maszynkę do zarabiania pieniędzy.

 

Popularne wcześniej koncepcje, by udostępniać treści za darmo a zarabiać na reklamie są raczej nieaktualne. By ten model zadziałał, trzeba „rządzić” rynkiem reklamy a wydawcy starych mediów są dalecy od takiej pozycji, z przyczyn już wcześniej wspominanych. Dziś znacznie częściej i chętniej mówi się o sprzedaży w subskrypcji i paywallach. Ten model zdaje się działać nieźle w przypadku wielkich rozpoznawalnych międzynarodowo marek, takich jak „Wall Street Journal” czy „New York Times”. Ale już inna znana marka, „The Guardian” w Wielkiej Brytanii, ze swoich subskrypcyjnych wyników nie był zanadto zadowolony i postanowił oferować swój produkt za darmo, licząc na przychody z reklam w internecie i jednocześnie prosząc wiernych czytelników o datki. Co istotne, wszystkie te tytuły wciąż ukazują się na papierze.

 

Model działalności w sieci podobny do „Guardiana” wybrały inne tytuły, np. kanadyjska „La Presse”, i brytyjski „The Independent”. Jednak w tych przypadkach, wydawcy zrezygnowali z wydawania wersji papierowej, co dla ostatecznego rachunku kosztów i przychodów wydawnictwa ma ogromne znaczenie.

 

Wydawcy, którzy mogą sobie na to pozwolić, eksperymentują od pewnego czasu z cyfrowymi formami, które w zamierzeniu mają oswoić czytelników ze starymi markami w cyfrowym świecie z jednej strony a z drugiej wprowadzać innowacyjne produkty będące pomostami na nowe rynki. Takimi wprawkami są cyfrowe skrócone przeglądy treści „The Economista” pod nazwą „Espresso”, przygotowywane specjalnie dla Snapchata formy prezentacji treści „Le Monde”, czy popołudniówka cyfrowa gazety „Ouest-France” o nazwie „L’édition du Soir”. Biznesowa efektywność tych przedsięwzięć nie jest ostatecznie potwierdzona.

 

Słodko-gorzka historia „The Atlantic”

 

Chętnie na początku mijającej dekady opisywaną „historią sukcesu” na cyfrowym rynku była transformacja amerykańskiego magazynu „The Atlantic”. Trwa ona już od kilkunastu lat i choć nadal na tle wielu innych starych tytułów amerykański miesięcznik z tradycjami radzi sobie doskonale, to jednak dziś nie można mówić, że to beczka czystego miodu.

 

Dwie dekady temu ten historyczny, liczący obecnie ponad 160 lat, tytuł przynosił swoim właścicielom straty. Jak wiele innych pism „The Atlantic” próbował się ratować roszadami kadrowymi i pomysłami wydawniczymi o umiarkowanej skuteczności. W okolicach 2008 r. po kolejnej zmianie na stanowisku redaktora naczelnego pojawił się komunikat, że tytuł przyjmie strategię „digital-first” (wydanie cyfrowe przede wszystkim). Było to wówczas modne zawołanie i wiele tytułów, przeczołganych już przez konkurencję internetu, mówiło o podobnej strategii, także w Polsce.

 

Ani ta strategia, ani inne pomysły redakcji „The Atlantic”, takie jak internetowy serwis aktualności The Atlantic Wire (który z czasem stał się całodobowy), czy też serwis informacji miejskich AtlanticCities, nie były może wyjątkowe i w pełni oryginalne, ale miały pewną cechę wyróżniającą z informacyjnego punktu widzenia – kładziono w tych produktach ogromny nacisk na wysoką jakość. To ona miała być w zamierzeniu głównym atutem oferty „The Atlantic” i decydującą przewagą konkurencyjną.

 

Doszły do tego niezłe pomysły w dziedzinie reklamy. Handlowcy „The Atlantic” zdawali sobie sprawę, że trudno im będzie walczyć z precyzyjnie targetowanymi ogłoszeniami w Google. Dlatego zwrócili się do form reklamy natywnej, opartej na wysokiej jakości treściach. Jeśli chodzi o takie formy ogłoszeniowe, to w mediach głównego nurtu „The Atlantic” należał do prekursorów.

 

Nowa formuła działalności magazynu stała się branżową mapą drogową dla starych mediów drukowanych. Znajdowano w niej inspiracje, przełamać mur między sprzedażą reklam cyfrowych i w druku, obniżać koszty, uzyskać więcej ruchu w sieci i budować solidny „biznes eventowy”, generujący stałe przychody na bazie marki.

 

W 2010 roku „The Atlantic” zaczął przynosić skromne zyski. W roku 2011, w serii entuzjastycznych publikacji, tytuł był łacno przedstawiany jako wzór udanej transformacji cyfrowej. Potem ten świetlany obraz nieco przybladł. Tak jak wiele innych wydawnictw prasowych również „The Atlantic” stał się ofiarą postępującej erozji rynku reklamowego i nadmiernych wydatków po stronie redakcji. W 2017 r. większościowy pakiet akcji wydawnictwa trafił do Emerson Collective, organizacji kierowanej przez miliarderkę, Laurene Powell-Jobs, wdowę po założycielu Apple, Stevie Jobsie. Był to ostatni rok, który wydawnictwo zakończyło na finansowym plusie. Zwiększenie personelu o 80 osób i zatrudnienie w newsroomie znanych autorów, takich jak George Packer, Anne AppelbaumJemele Hill, szybko pogorszyło wyniki finansowe tytułu.

 

We wrześniu 2019 r. „The Atlantic” wprowadził długo wcześniej dyskutowany paywall. Cena 49,99 dolarów rocznie za dostęp cyfrowy i 59,99 dolarów za edycje drukowaną i cyfrową w pakiecie jest niższa niż konkurencji w tym segmencie, np. „New Yorkera”, którego roczny pakiet i tylko cyfrowy abonament wynosi odpowiednio 149,99 dolarów i 99,99 dolarów. Po drodze były zwolnienia, bardziej po stronie części biznesowej niż redakcyjnej wydawnictwa. Na razie nie wyciągnęło to wszystko tytułu powyżej finansowej kreski, ale zobaczymy, jaki będzie w podsumowaniu 2020 rok, który uznaje się za udany.

 

Przedstawiciele wydawnictwa twierdzą, że „The Atlantic” notował do 2019 r. wzrost przychodów z reklamy cyfrowej o ok. 30 proc. rocznie. Załamało się to jeszcze przed kryzysem koronawirusowym. Według danych w drugiej połowy 2020 r. „The Atlantic” ma 650 tysięcy płatnych subskrybentów i około 20 mln USD przychodów w skali roku. Ma zarazem ambitne cele na przyszłość – wzrost przychodów z tytułu subskrypcji do 50 mln w 2022 r. Jednak nawet te kwoty nie dają pewności, że pismo będzie rentowne. Na razie przyszłość finansowa „The Atlantic” opiera się przede wszystkim na gotowości pani Powell-Jobs do dokładania do tego biznesu.

 

Odrzuć to co niepotrzebne

 

Nawet więc w takich „historiach sukcesu” jak „The Atlantic” nie ma jasnych i jednoznacznie pozytywnych przekazów co do tego, jak powinna wyglądać cyfrowa transformacja prasy. Na szczęście kwestia ta nie jest jeszcze ostatecznie przesądzona także w drugą stronę. Czyli nie wiadomo, czy jednak nie istnieje ścieżka, która niezawodnie prowadzi stare media do sukcesu w cyfrowym świecie.

 

Hiszpański dziennikarz Eduardo Suarez opublikował kilka miesięcy temu ciekawy zestaw rad dla dziennikarzy wydawców pracujących nad internetowymi wydaniami swoich mediów. Jego wskazówki były rezultatem projektu reportersko-badawczego, który przeprowadził na zamówienie Reuters Institute for the Study of Journalism. W ramach swojego zadania przeprowadził wywiady z dwudziestoma sześcioma przedstawicielami kadry kierowniczej piętnastu europejskich gazet, z których większość zaangażowana była w działania na rzecz rozwoju prenumeraty cyfrowej.

 

Suarez nie wgłębiał się w szczegóły modeli płatności i ich optymalizacji rynkowej. Bardziej interesowały go ogólne reguły i zalecenia, jakie mieli praktycy, głównie dziennikarze. Powstał kilkupunktowy zestaw porad, na którego czele znalazł się apel „redefiniowanie oferowanych wartości” na przykładzie wspominanego już Guardiana, który dokonał szeregu radykalnych wolt w obliczu słabnącej sprzedaży, by dojść w końcu do wniosku, że budowanie silnej dziennikarskiej relacji z czytelnikami (z wykorzystaniem internetu) jest wartością największą dla gazety.

 

O konieczności koncentracji na cyfrowym produkcie mówili z kolei przedstawiciele szwedzkiej gazety „Dagens Nyheter”. Dwie trzecie jej dochodów nadal pochodzi z druku, jednak kierownictwo tytułu postanowiło skupić się na cyfrowej edycji, tak jakby druk nie istniał. Po przejściu na model prenumeraty cyfrowej „Dagens Nyheter” rozpoczął tworzenie innowacyjnych formatów, takich jak prezentacje VR i audiobooki. Po produkty te zgłosiła się nowa publiczność, dużo młodsza, bardziej kobieca i częściej pochodząca spoza miast. 73 proc. nakładu drukowanego gazety jest sprzedawane w Sztokholmie, natomiast 60 proc. abonentów cyfrowych mieszka poza metropolią.

 

Szczególnie interesujący jest wątek zainteresowania treściami audio oferowanymi przez „Dagens Nyheter”. Inny podawany przez Suareza przykład, duński cyfrowy magazyn „Zetland” jest konsumowany w 65 procentach w formie dźwiękowej.

 

Dziennikarze „Dagens Nyheter” oferują również kolejną cenną radę dla aspirujących do cyfrowego sukcesu – taką mianowicie, by nie mieć oporów przed usunięciem z oferty wydawniczej w sieci tego, co nie cieszy się zainteresowaniem. Aby takie treści zidentyfikować, należy korzystać z analityki i danych (co jest odrębną radą dla wydawców cyfrowych). Pozwoliło im to zmniejszyć ogólną liczbę artykułów, co w efekcie przyniosło wzrost ruchu czytelniczego. Podobne zabiegi z podobnie udanym skutkiem przeprowadzały m. in. „Le Monde” i „The Guardian”.

 

O praktycznych wnioskach ze zderzenia z rzeczywistymi preferencjami czytelniczymi opowiada hiszpański dziennikarz Ignacio Escolar, który zakładając serwis elDiario.es w 2012 roku, nie chciał tworzyć kolejnej gazety ogólnotematycznej, ale raczej taką, która skupiałaby się na polityce. Wraz z rosnącą rzeszą czytelników i po tym jak skontaktowała się z nim grupa dziennikarzy sportowych, postanowił włączyć do oferty doniesienia ze świata sportu, co spotkało się ze zdecydowaną krytyką czytelników. Relacje sportowe nie przyniosły ani znaczących dochodów z reklam, ani nowych użytkowników. Zrezygnowano z nich.

 

Strony informacyjne na całym świecie zdają sobie sprawę, że treść jest tylko jednym z aspektów oferty. Ważna jest również dostępność, szybkość działania, użyteczność, opakowanie i prezentacja. Młodsza publiczność jest przyzwyczajona do wysokich standardów wyznaczonych przez platformy cyfrowe takie jak Netflix czy Spotify. W praktyce ważne jest, aby różnicować swoją ofertę, stworzyć coś dla mających niewiele czasu, a także dla tych, którzy cenią sobie solidnie i dokładnie opracowany materiał, dla tych którzy mają wyselekcjonowane preferencje i nie chcą kupować niczego, czego nie potrzebują, dla przyzwyczajonych do regularnych cykli czytelniczych, tygodniowych, czy też miesięcznych, dla wpadających sporadycznie, ale możliwych potencjalnie do zatrzymania na dłużej, itd. Technologie cyfrowe pozwalają na poręczne pakowanie swojego produktu na wiele sposobów i sprzedawanie ich wielokrotnie w opłacalnym resellingu. Jak to udatnie robić? To jedno z najważniejszych pytań, do wydawców, sprzedawców i magików internetu.

 

W marcu 2016 roku brytyjski „The Times” ogłosił, że przestanie publikować klasyczne newsy, ścigając się na szybkość doniesień z konkurencją. Edytorzy uznali, że czytelnicy gazety i jej cyfrowego wydania nie cenią jej za to, że stara się być szybsza niż inne, lecz za to, że potrafi lepiej, mądrzej i kompetentniej zachodzące wydarzenia analizować. Ustalono określone pory dnia na aktualizacje, o 9.00, 12.00 i 17.00. Czytelnicy wiedzą, że wtedy „Times” zaktualizuje ich stan wiedzy na temat tego co się dzieje. Jednak większość innych gazet, w tym „The Financial Times” podporządkowuje się raczej światowi Google’a, który premiuje szybkie i nieustanne aktualizacje stron informacyjnych.

 

Wciąż wiele gazet nadal traktuje swoje produkty cyfrowe jako odrębne marki. Wypełniają one swoje strony internetowe artykułami drugiej kategorii i publikują swoje najlepsze prace wyłącznie w formie drukowanej. Odbiorcy jednak nie odróżniają gazety drukowanej od jej produktów cyfrowych czy kanałów społecznościowych. Szanuj i pielęgnuje markę swoją, bo jest ona we wszystkim, co oferujesz.

 

Kilka miesięcy temu poważyłem się na prognozę, że do 2030 roku z polskiego rynku zniknie prasa drukowana, poza tytułami wąsko-tematycznymi, specjalistycznymi, hobbystycznymi i innymi o specjalnej tematyce. Nie każdy z wycofywanych z druku tytułów utrzyma się po cyfrowej stronie, ale większość, o czym też pisałem, ma wciąż jeszcze szansę.

 

Mirosław Usidus

Co palisz? –  MIROSŁAW USIDUS o narkotyku, jakim jest Facebook

Jeśli wydaje wam się, że odwiedzacie Facebooka z własnej woli i dla własnej przyjemności, to zgadza się, wydaje wam się. Odwiedzacie go regularnie, publikujecie, lubicie i komentujecie, bo chce tego Facebook.

 

Były wysoko postawiony manager Facebooka d.s. monetyzacji, Tim Kendall, który pracował dla Marka Zuckerberga w kluczowych latach wzrostu od 2006 do 2010 roku, pod koniec września tego roku był przesłuchiwany w amerykańskiej Izbie Reprezentantów.  Zapytano go o rolę mediów społecznościowych w rozpowszechnianiu treści ekstremistycznych. Zdradził, co powiedział jego były pracodawca. Otóż Mark Zuckerbega, podobnie jak wielkie firmy tytoniowe, skupiał się głównie na tym, by jego produkt był jak najbardziej uzależniający.

 

Sięgaliśmy do podręcznika metod stosowanych przez Big Tobacco („Wielki Tytoń”, koncerny tytoniowe), pracując intensywnie, aby nasza oferta nade wszystko była uzależniająca,” mówił Tim Kendall. „Firmy tytoniowe początkowo chciały tylko tego, aby działanie nikotyny wzmocnić.  Ale ostatecznie to nie wystarczało do rozwoju biznesu w tak szybkim tempie, jakby tego chcieli. Dlatego zaczęto dodawać cukier i mentol do papierosów, aby utrzymać dym w płucach przez dłuższy czas. Na Facebooku, dodawaliśmy z kolei mechanizmy takie jak aktualizacje statusu, tagowanie zdjęć i funkcje ‘lubię to’, co uczyniło status i reputację społecznościową czymś najważniejszym dla użytkownika i od tego właśnie najsilniej się uzależniali. Obecnie to już problem z dziedziny zdrowia psychicznego”.

 

Firmy tytoniowe dodawały amoniak do papierosów, aby przyspieszyć proces przenikania nikotyny do mózgu,” snuł analogię Kendall. W jego ocenie w społecznościach podobną rolę odgrywają „ekstremalne, rozpalające emocje treści, szokujące obrazy, brutalne filmy wideo i nagłówki, które wywołują zaostrzanie plemiennych podziałów”. Wszystko to, jak dodał, prowadzi do „ekstremalnego angażowania” i coraz silniejszego napływu zysków do kasy Facebooka. „Platforma jest w stanie dostarczyć tę rozpalającą emocje treść do właściwej osoby, we właściwym czasie, w taki sposób jak dana osoba właśnie oczekuje. To jest ich amoniak,” skwitował zeznający.

 

Media społecznościowe żerują na najbardziej pierwotnych obszarach ludzkiego mózgu. Algorytm maksymalizuje uwagę użytkownika, uderzając go wielokrotnie treściami, które wyzwalają w nim najsilniejsze emocje. Wszystko tu ma na celu prowokację, wstrząs i wściekłość. Kiedy widzisz coś, z czym się nie zgadzasz, czujesz się zmuszony do ostrej odpowiedzi, ataku. Ludzie reprezentujący przeciwne poglądy mają te same impulsy. Za kontynuację cyklu odpowiada wszyty w mechanizm serwujący treści algorytm. Chętnie i suto dostarcza broni obu stronom sporu w niekończącej się wojnie na słowa i dezinformację. Technologia ta jest coraz inteligentniejsza i skuteczniejsza w wyzwalaniu emocjonalnych reakcji.

 

Były ważny manager Facebooka podkreśla, że to nie przypadek, niezamierzony efekt czy niespodzianka dla projektantów systemu. On od początku został zaprojektowany z myślą by tak działać, bo generowanie skrajnych emocji i aktywności użytkowników jest korzystne dla Facebooka, przekłada się na brzęczącą monetę. Sam Kendall mówi, że teraz żałuje tego, do czego przyłożył rękę, choć wtedy, kilkanaście lat temu, nie zdawał sobie jeszcze sprawy, co to wszystko oznacza. Zapewnia, że chce teraz, przez mówienie prawdy o naturze platformy, naprawić to wszystko.

 

Kendall nie jest jedynym byłym pracownikiem Facebooka, który obecnie wyraża żal z powodu swojej dotychczasowej pracy i zajmuje stanowisko przeciwko firmie. Inni również doszli do wniosku, że na Facebooku już dawno należało wprowadzić jakąś regulację lub zewnętrzny nacisk na jej egzekwowanie.

 

Współzałożyciel Facebooka, Chris Hughes, opublikował w zeszłym roku długi list wzywający organy regulacyjne USA do rozbicia firmy. Prezes Facebooka, Mark Zuckerberg, jak pisze Hughes, „jest dobrą, miłą osobą”, zaznaczając jednocześnie, że „jest zły, że skupienie się na rozwoju biznesu doprowadziło go do poświęcenia bezpieczeństwa i dobra społecznego dla klików”. „Rząd musi pociągnąć Marka do odpowiedzialności. Czas rozbić Facebooka,” wzywa Hughes. Powtórzył ten apel na spotkaniu z Wydziałem Antymonopolowym Departamentu Sprawiedliwości, Federalną Komisją Handlu i biurem nowojorskiego prokuratora generalnego Letitii James.

 

Błękitny dealer

 

O „heroinie mediów społecznościowych” pisałem już na dziewięć miesięcy przez zeznaniami Kendalla, w styczniu 2020 roku. Dużo uwagi poświęciłem towarzyszącej Facebookowi aplikacji Messenger, pisząc, że jeśli sam Facebook to „miękkie narkotyki”, to jego komunikator to naprawdę mocny towar. Przy czym firma Zuckerberga zachowała się jak typowy dealer, gdy, po tym jak użytkownicy jej „niezobowiązująco spróbowali” kilka lat temu, zmusiła ich następnie do korzystania z aplikacji Messenger w prywatnej komunikacji, o czym być może nie pamiętają, w przekonaniu, że używanie Messengera to ich wolny wybór.

 

Samą koncepcję tej apki można by opisać jako dążenie do stworzenia odrębnej, wyspecjalizowanej platformy komunikacyjnej (w odróżnieniu od „głównego” Facebooka, gdzie wielu użytkowników nauczyło się co nieco kontrolować dane lub wręcz ograniczyło aktywność), do wchodzenia głębiej w prywatność i wyciągania większych ilości prywatnych danych użytkowników.

 

Na początku sierpnia 2019 roku serwis Bloomberg News opublikował artykuł opowiadający o tym, jak Facebook zlecił pewnej firmie transkrybowanie rozmów audio prowadzonych za pośrednictwem aplikacji Facebook Messenger. Projekt, jak podawano oficjalnie, ma na celu sprawdzenie poprawności algorytmu automatycznej transkrypcji, a firma twierdzi, że wszyscy użytkownicy, którzy zdecydowali się na korzystanie z usługi transkrypcji, byli tego świadomi i powiadomieni. Tak jak zwykle platforma Zuckerberga jest „kryta” za pomocą systemu zezwoleń udzielanych aplikacji przez użytkowników. Firma oczywiście liczy, że użytkownicy nie wszystko rozumieją w tych mechanizmach, czytają niedokładnie, a w końcu też nie ogarniają konsekwencji udzielanych zezwoleń. Dealer zawsze podkreśla, że „to wyłącznie twój wybór, czy zażyjesz czy nie”. Sam wybierasz prawda? A że nie wiesz, jakie są konsekwencje…

 

W opisach badań naukowych nad fenomenem social media pojawiają się podobne wątki i rozważania jak w literaturze poświęconej uzależnieniom od alkoholu, tytoniu czy narkotyków, choć badacze nie chcą jeszcze ostatecznie wyrokować, czy korzystanie z mediów społecznościowych powoduje np. depresję, czy też jest może tak, że ludzie ze skłonnościami do depresji chętniej zanurzają się w cyfrowym świecie. W publicystyce zachodniej znane jest pojęcie „social media depression”, które nie ma jeszcze charakteru naukowego. Opisuje cały kompleks stresów i frustracji konsumenta internetu. Od napięcia spowodowanego brakiem mobilnego zasięgu, huśtawki nastrojów spowodowanych przerwami z działaniu sieci aż po osamotnienie, gdy w twojej sieci społecznościowej nie masz odzewu i interakcji, nikt nie komentuje, nie lubi i nie udostępnia.

 

Psycholog Jim Daley w artykule opublikowanym w 2018 r. w „The Huffington Post” nazwał ten syndrom jeszcze inaczej – DA, „disconnectivity anxiety” („diskonektofobia”?).  Choć nie jest to jeszcze oficjalnie uznane zaburzenie psychiczne, Daley uważa, że problem narasta. „DA wiąże się narastaniem negatywnych emocji, takich jak strach, złość, frustracja, rozpacz i fizyczne cierpienie. Jedyną ulgę, choć krótkotrwałą, daje przywrócenie połączenia z internetem”. Wcześniej Holly Shakya z Uniwersytetu Kalifornijskiego w San Diego i Nicholas Christakis, profesor z Yale, spędzili dwa lata badając ponad pięć tysięcy pełnoletnich ludzi, z próby badawczej Gallupa, a wyniki swoich badań opublikowali w 2017 r. Naukowcy śledzili sposób korzystania przez nich z Facebooka, konfrontując te badania z diagnozami ich samopoczucia emocjonalnego i fizycznego, a także wskaźnikiem masy ciała (BMI). „Nasze wyniki wykazują, że chociaż ogólnie sieci społecznościowe były pozytywnie kojarzone, nie dotyczyło to Facebooka,” podsumowali badacze w artykule, który ukazał się w „Harvard Business Review”. „Negatywne wyniki były szczególnie wyraźne, jeśli chodzi o zdrowie psychiczne” (czy nie przypominają się tu zeznania Kendalla w Kongresie?).

 

Jeszcze wcześniejsze badania sugerowały, że serwisy te stwarzają coś w rodzaju fałszywej presji na użytkownika ze strony innych członków społeczności. Ponieważ większość ludzi unika publikowania na platformie negatywnych treści lub informacji o stresujących przeżyciach, sieć społecznościowa kreuje mylący obraz środowiska, w którym każdy wydaje się radzić sobie lepiej i mieć więcej frajdy z życia niż ty. Jak zauważają badacze, ekspozycja wyselekcjonowanych, mających „wizerunkowy” i „promocyjny” charakter, obrazów z życia innych ludzi prowadzi do porównań stawiających nasze doświadczenie życiowe w negatywnym świetle.

 

A co z magiczną zdolnością Facebooka łączenia z przyjaciółmi i rodziną, na dowolne odległości? Także to, jak wynika z badań, nie działa dobrze. Zastępowanie rzeczywistych, spotkań, rozmów, bliskości i intymności, komunikacją przez social media, nie zbliża ludzi, lecz prowadzi do dalszej alienacji. Ludzie „wytrenowani” w takich formach komunikacji, gdy się w końcu spotykają, nie potrafią odłożyć swoich telefonów i cieszyć się realnym kontaktem z drugim człowiekiem. Przecież dobrze znamy obrazki grona ludzi siedzących przy jednym stole i wgapiających się z w ekrany swoich smartfonów zamiast ze sobą rozmawiać.

 

Większość z nas skłonna jest wciąż sądzić, że nawet jeśli społeczności takie jak Facebook są narkotykiem, to raczej z tych lekkich, mniej wciągających i uzależniających. W świetle niektórych badań, które wskazują, że zew społeczności internetowych bywa dziś wśród młodzieży silniejszy niż popęd seksualny, trzeba chyba spojrzeć na to inaczej. Informowali o tym naukowcy z Uniwersytetu w Chicago już w 2012 roku, po przeprowadzeniu testów na grupie badawczej z Niemiec. Badania wykazały, że korzystanie z social mediów należy do najsilniejszych popędów współczesnych ludzi, znajdując się w tej samej grupie co seks, spanie, picie alkoholu lub palenie papierosów. W tym samym roku naukowcy z Uniwersytetu w Bonn wysunęli przypuszczenie, że za uzależnienie od Internetu odpowiada gen CHRNA4, ten sam, który stoi za nałogiem nikotynowym (i znów Kendall się przypomina).

 

Nawet niektórych przedstawicieli Facebooka zaczął w końcu przerażać potwór, którego stworzyli. W 2017 Chamath Palihapitiya, były wiceprezes Facebooka, powiedział: „Krótkotrwałe, napędzane dopaminą pętle zwrotne, które stworzyliśmy w Facebooku, niszczą społeczeństwo, jakie znamy. Brak dyskursu obywatelskiego, brak współpracy, dezinformacja, błędy”. Podczas wystąpienia na Uniwersytecie Stanforda mówił też o „pielęgnowaniu naszego życia na podstawie społecznościowych wyobrażeń o doskonałości” i „natychmiastowych nagrodach – sygnałach społecznościowych, serduszkach, lubisiach, kciukach do góry” które otrzymujemy. „Chętnie i bezkrytycznie łączymy to wszystko z wartościami i z prawdą, choć to tylko krótkotrwała i niemal natychmiast przemijająca popularność. Gdy zastrzyk dopaminy instant przestaje działać, zostaje pustka,” podsumował Palihapitiya.

 

Kary za „niewłaściwy czas publikacji”

 

Oczywiście to nie wszystkie żale do błękitnej platformy, o jakich w ostatnim czasie słyszymy. Jednych Fejs uzależnia, zaś innych, też uzależnionych, ale w sensie biznesowym, karze za… właśnie, nie wiadomo dokładnie za co. Dotyczy to m. in. wydawców i mediów w sensie ogólnym. Według badań algorytmy Facebooka rutynowo penalizują wydawców za zamieszczanie postów w „niewłaściwych” odstępach czasu, co prowadzi do powtarzających się przypadku dławienia widoczności postów. Firma Echobox niedawno opublikowała wyniki analizy algorytmów Facebooka pod kątem zawartych w nich ukrytych kar dla publikujących.

 

Trzeba przypomnieć, że Facebook dokonał poważnych zmian w swoim algorytmie News Feed kilka razy w ciągu ostatnich kilku lat. Na przykład, w 2018 r. Facebook zmniejszył ilość treści informacyjnych w strumieniu News Feed, zaś w czerwcu 2019 roku dokonał zmian, które dały większe znaczenie „relacjom pierwotnym”. Zmiany te są czasem trudne do wykrycia i zrozumienia przez wydawców, choć widzą mniejszy zasięg i poziom udostępniania ich treści.

 

Według Echobox, Facebook w rzeczywistości stale zmienia „sygnały rankingowe”, których używa. Jest jeden, wyraźnie widoczny efekt, który wśród wydawców jest mało znany i czytelny, choć wpływa na wyniki większości z nich. Chodzi o zamieszczanie postów z „niewłaściwą” częstotliwością. Po zbadaniu ćwierci miliona publikacji i pomiarach odstępów czasowych pomiędzy nimi co do minuty eksperci Echobox doszli do wniosku, że publikacja wpisu w odstępie czasowym traktowanym przez Facebooka jako niewłaściwy pociąga za sobą „karę” w postaci ograniczenia widoczności, a za tym liczby polubień, udostępnień i komentarzy, co w efekcie zmniejsza ruch na stronach wydawcy i przekłada się na mniejsze przychody reklamowe.

 

Niestety, Facebook nie publikuje nigdzie informacji o „właściwych” czasach publikacji. Jesteśmy więc skazani na badanie tego zjawiska już po fakcie. Można wynająć analityków, takich jak np. tych z cytowanej firmy Echobox, która przygotuje dla nas dane pozwalające optymalizować szanse postów. Ale na to potrzeba pieniędzy i czasu.

 

Moderator ma nie myśleć, tylko wykonywać polecenia

 

Najpotężniejszy nurt krytyki wymierzonej w platformy społecznościowe jest obecnie związany z aferą dotyczącą syna demokratycznego kandydata na prezydenta USA, Joe Bidena. Twitter i Facebook bezceremonialnie ocenzurowały informacje pochodzące pierwotnie z „New York Post”, dotyczące zawartości laptopa Huntera. Padają oskarżenia o ingerowanie przez Big Tech w przebieg wyborów.

 

Mnożą się w sieci publikacje ze wspomnieniami byłych moderatorów treści na Facebooku, którzy skarżą się przede wszystkim na to, że wykonują bardzo trudną i nieprzyjemną pracę za marne pieniądze. Firma Zuckerberga podzleca tego typu prace firmom zewnętrznym, którym nie płaci za wiele. Moderatorzy opłacani są więc marnie. Ale to nie koniec ich skarg. Przewija się w ich wspomnieniach, że oczekuje się od nich wyłącznie ścisłego wykonywania poleceń, bez śladu jakiejkolwiek samodzielności i własnej inicjatywy.

 

Niedawno grupa byłych moderatorów treści na Facebooku opowiadała o swoich doświadczeniach podczas konferencji nazwanej „Real Facebook Oversight Board”, zorganizowanej przez grupę naukowców i działaczy społecznych, którzy pozycjonują się jako przeciwwaga dla oficjalnej „Facebook Oversight Board”, stworzonej przez platformę do podejmowania decyzji dotyczących treści. Dwie byłe moderatorki wypowiadały się pod nazwiskiem, anonimowo zaś jedna z obecnie zatrudnionych jako moderator osób.

Viana Ferguson, która pracowała jako kontraktowy moderator od 2016 do 2019 roku, powiedziała, że początkowo była wielce podekscytowana tą pracą, ponieważ uważała, że może wykorzystać swoje doświadczenie i umiejętności krytycznego myślenia, aby pomóc Facebookowi poprawić swoje praktyki i zapobiec szkodom. Ale szybko stało się jasne, że ścieżka do awansu leżała w tłumieniu wszelkich wątpliwości wobec polityki firmy. Aby awansować, „trzeba było zasymilować się i ustawić się w linii,” opowiadała. „Musiałeś wiele przełknąć, aby dochrapać się lepszego stanowiska”.

 

Podobne opinie oraz wiele uwag na temat wewnątrzfirmowych problemów z komunikacją miała Allison Trebacz, która pracowała jako moderator od 2017 do 2018 roku. Niewymieniony z nazwiska obecny moderator poinformował, że obecnie nie jest inaczej. „Polityka i decyzje na Facebooku płyną tylko w jedną stronę: z góry na dół,” powiedział. Sytuację pogarszają surowe zasady, które zabraniają kontraktowym moderatorom nawet mówienia swoim członkom rodziny, że praca, którą wykonują jest dla Facebooka, oraz umowy o nieujawnianiu informacji, które zabraniają im wypowiadania się nawet po ich odejściu.

 

Rumakowanie może się szybko skończyć

 

Wracając do kwestii uzależnienia od Fejsa i innych serwisów społecznościowych – w styczniowym tekście na portalu SDP napisałem, że odstawiłem kiedyś Facebooka na ponad rok i nie była mi potrzebna specjalistyczna opieka. Powróciłem nie z powodu uzależnienia ale dlatego, że miałem w tym określony cel, plan i interes, bez związku z życiem prywatnym. Mam nadzieje więc, że z tym uzależnieniem to jednak pewna przesada, choć może w ogóle nie jestem podatny na pewne nałogi. Przez dużą część życia zdarzało mi się palić, nawet sporo w pewnych okresach, ale nigdy nie zostałem nałogowym palaczem. W pewnym momencie po prostu przestałem w ogóle palić i od kilkunastu lat nie zdarzyło mi się. Nie było w tym żadnych cierpień i syndromów odstawienia.

 

Rozumiem jednak, jak mi się zdaje, mechanizm uzależnienia. Jeśli zeznania Kendalla i innych potwierdzą się to oprócz postępowań antymonopolowych i chroniących prywatne dane, platformę Marka Zuckerberga może czekać to, co spotkało w USA „Wielki Tytoń”, czyli fala potężnych procesów o ogromne odszkodowania.

 

Akcja prawna może być dla Facebooka znacznie trudniejszym starciem niż były procesy dla przemysłu tytoniowego. Choć potężnie ugodzeni finansowo, producenci papierosów wciąż produkowali konkretne produkty kupowane przez miliony ludzi. I, choć liczba palaczy spada, jest tak do dziś. Co do platformy społecznościowej, to jej praktycznie jedyne źródło przychodu to reklamy, a te serwowane są w oparciu o owe uzależniające algorytmy i żerowanie na prywatnych danych. Wystarczy odebrać to Fejsowi (a wielu chce), by runął w tempie, które może nas zaskoczyć.

 

Mirosław Usidus

Spotkamy się tam, gdzie nikt na nas nie czeka – analiza MIROSŁAWA USIDUSA

Wszyscy w końcu i tak spotkamy się w internecie – mówiłem kolegom dziennikarzom ponad dwie dekady temu, gdy pytali mnie, dlaczego zrezygnowałem z „poważnego dziennikarstwa” w Dziale Politycznym „Rzeczpospolitej” na rzecz jakiejś tam nowej komputerowej mody, zwanej internetem.

 

Niektórzy mniej więcej rozumieli, zaś niektórym wydawało się, że przewidywane zmiany oznaczają dla nich zagrożenie. Może i słusznie, bo dla pewnych tradycyjnych zawodów redakcyjnych, np. dla składacza czy fotoedytora nadchodzący świat mediów online nie rysował w sposób wyraźny żadnego miejsca, w przeciwieństwie do dziennikarzy czy redaktorów, którym jednak konsekwencje zmian też nie bardzo były w smak.

 

Dodawałem w tych toczonych wówczas rozmowach zwykle, że taka przyszłość może się kolegom żurnalistom nie podobać, ale wydaje się, że to nieuchronne.

 

To była kwestia dystansu

 

Zostałem dziennikarzem, a precyzyjnie rzecz ujmując, redaktorem internetowym jesienią 1996 r. Odpowiedziałem wówczas, jak się potem okazało jako jedna z dwu osób w „Rzepie” (drugą był jeden z informatyków) na ogłoszenie redaktora naczelnego Piotra Aleksandrowicza, który chciał stworzyć internetowe wydanie gazety i poszukiwał ludzi chętnych do podjęcia się nowych zadań nie gdzieś poza „Rz”, lecz wewnątrz firmy.

 

Odpowiedziałem na anons, jak sobie po latach wspominam i odtwarzam swoje ówczesne motywacje, głównie za sprawą pobytu w USA na stypendium dla młodych, ale już pracujących ludzi mediów z Europy Wschodniej. Miałem się tam dokształcić na uczelni w Miami i właściwie to nastąpiło. Dokształciłem się nawet bardziej niż  bym się spodziewał. Pobyt za oceanem, w zupełnie innym, oddalonym od polskich spraw świecie, wpoił we mnie poczucie dystansu w stosunku do tego co dzieje się w Polsce. Po powrocie nie byłem już w stanie z całą powagą traktować polskiej polityki, biegać po Sejmie z takim zaangażowaniem w to nasze „życie polityczne”, jak wcześniej.

 

W dodatku w USA środowisko uniwersyteckie i medialne już na całego żyło internetem, sprawą w Polsce wciąż wtedy egzotyczną. Z dnia na dzień człowiek, który o internecie może gdzieś coś słyszał, ale w rzeczywistości nie wiedział nic, a takim człowiekiem byłem, gdy leciałem za ocean, dostał uczelnianą skrzynkę poczty email (1995) i robił projekty stron WWW w jakimś prostym programiku w ramach zajęć uczelnianych. Niestety nie miałem z kim w Polsce przez ten email korespondować. Informacji w sieci z Polski też nie bardzo było. Polski web w zasadzie wówczas nie istniał. Gwoli ścisłości, jakieś tam serwisy, przeglądy, „donosy”, powstały wcześniej, ale było to tyle co nic. Polskie media były wciąż przed epoką internetu.

 

Dystans do tego, czym żyłem zawodowo wcześniej, plus ukąszenie internetowe, jakie przywiozłem zza oceanu, to wszystko powodowało, że chciałem zająć się czymś innym niż to, co robiłem przed wyjazdem do USA. Rozważałem nawet odejście z „Rzeczpospolitej” i inną pracę. Ostatecznie przytrafiło się ogłoszenie Aleksandrowicza i myśl, że może to jest właśnie ta zmiana, której szukam. Piszę o tym, aby wskazać, że byłem wtedy w innej sytuacji niż dziesiątki innych moich kolegów, którzy zostawali dziennikarzami internetowymi dekadę lub dwie dekady później, właściwie z konieczności i braku innego wyjścia. Ja wtedy, pod koniec 1996 r., gdy tradycyjne media trzymały się mocno a internet był wciąż marginalną ciekawostką, dokonałem świadomego wyboru z chęci, a nie z konieczności zmiany.

 

Dawniej internetowe społeczności to było podejrzane miejsce

 

Potem żałowałem. Dlaczego, opisałem w osobistym wspomnieniu opublikowanym na portalu SDP w maju 2019 r. Nie poszło to tak, jak sobie wtedy na początku planowaliśmy i wyobrażaliśmy. Dotyczy to jednak jedynie samej „Rzepy”. Nie żałowałem jednak w żadnym wypadku metamorfozy zawodowej, na jaką się zdecydowałem. Na zawsze zostałem już „człowiekiem internetu”, zawodowo łączącym doświadczenie i umiejętności dziennikarskie z wieloma technicznymi „skillsami”, pozwalającymi tworzyć strony WWW, projektować je, rozumieć, na czym polega specyficzny język sieci. Potem zacząłem się uczyć strategii cyfrowych, kreacji i zarządzania projektami internetowymi.

 

Poszedłem drogą, która sprawiła, że koledzy dziennikarze przestali mnie traktować jako dziennikarza. Ktoś „dłubiący w tym internecie” nie był dla nich dziennikarzem, lecz raczej już bardziej kimś takim jak jakiś informatyk. Ostatecznie spotkałem się z większością tych moich kolegów po latach w sieci. Wielu z nich musiało się nauczyć rzeczy, które ja przyswajałem jeszcze w latach 90-tych. Nie chodzi mi o przechwałki typu „ja byłem pierwszy”. Nie, raczej chcę pokazać, że los nas wszystkich był przesądzony już wtedy, dwie dekady temu, ja tylko wcześniej go spotkałem i przyjąłem.

 

Zresztą, czym innym był internet dwie i więcej dekady temu, a czym innym teraz, po przetłoczeniu ogromnej części aktywności sieciowej do serwisów społecznościowych. W latach 90-tych, nawet gdy dziennikarz-redaktor pracował w internecie, np. tak jak ja, jako wydawca gazety codziennej online, wydania „Rzeczpospolitej” w sieci, to wyjąwszy aspekty techniczne, było to wciąż przygotowywanie i publikowanie artykułów różnego rodzaju na stronie, która była odpowiednikiem gazety papierowej. Na stronę naszej gazety wchodziło się i czytało. Nie było to jakoś radykalnie różne od doświadczenia wzięcia płachty papierowej do ręki i lektury. Nośnik się różnił. Zawartość zasadniczo była ta sama lub podobna.

 

My wtedy w drugiej połowie lat 90-tych, snuliśmy w „Rzeczpospolitej On Line” plany tworzenia profili użytkowników z możliwościami personalizacji treści. Czasem żartuję, że projektowaliśmy wówczas Facebooka, bo to, co nam wtedy chodziło po głowie, nie różniło się mocno od podstawowych mechanizmów funkcjonowania błękitnej platformy social media. Z tym, z samym tylko algorytmem wyboru zawartości na podstawie preferencji, oznaczanych a także zapamiętywanych przez system na podstawie historii użytkowania serwisu. Potem nazwano to targetowaniem behawioralnym.

 

Niemniej trzeba przyznać, że chodziło nam o treści i modele konsumpcji informacji, a nie o życie społecznościowe. Życie społecznościowe, to były w tamtych czasach przeróżne, dość hermetyczne czasem, krei, fora, grupy, BBS-y, serwery pokątnej wymiany podejrzanych treści. Gdy za sprawą czytelnika „Rz” odkryliśmy na łamach gazety, iż na serwerach należących do Uniwersytetu Warszawskiego ktoś przechowywał i wymieniał pornografię dziecięcą, co doprowadziło do ich wyczyszczenia, to tamto archaiczne życie społecznościowe zapałało oburzeniem, tylko się pogrążając. Krótko mówiąc, społeczności sieciowe nie miały wówczas najlepszej reputacji. Można było powiedzieć, że istniało coś takiego, jak internetowy mainstream, czyli renomowane i szanowane źródła informacji, do których i serwis „Rzepy” należał.

 

Być może wielu dziennikarzy utrwaliło w sobie ten wizerunek społecznościowego internetu jako skupiska podejrzanych zaułków i nieciekawych indywiduów, bo kilkanaście lat później po eksplozji popularności platform takich jak Facebook czy Twitter, wciąż trudno było im się w social media odnaleźć. A może chodziło o zupełnie co innego? Może nie pasowała im egalitarna formuła, w której tzw. influencerami zostają rozmaite postacie a autorytet „redaktora z gazety” wcale nie jest automatycznie dziedziczony w społecznościach.

 

„Strategie optymalizujące traffik”

 

Prawdę mówiąc, internetową weryfikację przeróżnych gwiazd żurnalistyki mogliśmy przeprowadzać już w pierwszej fazie „Rzeczpospolitej Online”, patrząc na proste statystyki odwiedzin i czytelnictwa poszczególnych artykułów. Gdyby układać wtedy listę płac na podstawie liczby odsłon stron, to hierarchia w redakcji wyglądałaby inaczej. Nie powiem jak, bo to już dawno przebrzmiałe sprawy. Istotne jest to, że dzięki internetowi mieliśmy weryfikację tego, co naprawdę czytelników gazety interesuje, czego wcześniej, w czasach samego papieru nie było.

 

Ciekawiło to nas jako wkład w dyskusję o tym, na jaką tematykę i formy powinna stawiać nasza gazeta. Wówczas jeszcze nie zdawaliśmy sobie sprawy, że lata później w różnych portalach statystyki te będą nie tyle wskazówką, na co stawiać w walce o czytelnika, ile celem nadrzędnym, który uświęcać ma dowolny „kontent” i bogaty repertuar oszukańczych wobec czytelnika zabiegów „optymalizujących” ruch na stronie.

 

Z kwestią ruchu na stronie, liczby odsłon, zasięgu, zapewne większość dziennikarzy już się zetknęła. Niektórych może ominęła jeszcze tematyka „wiralności”, dystrybucji i zaangażowania w treści w sieciach społecznościowych. Kto jeszcze nie kojarzy, temu śpieszę wyjaśnić, że są to wszystko pojęcia ściśle ze sobą powiązane. Nie chcę nikogo zanudzać szczegółami „strategii optymalizujących traffik”, co przekłada się na odsłony reklam i przychody. Nie jestem zresztą ściśle rzecz biorąc specjalistą w tej dziedzinie. To świat „traffik managerów”, „accountów”, „marketing ninjów”, z którym miałem do czynienia, współpracowałem i sporo się nauczyłem, ale w żadnym wypadku nie stałem się jego częścią. Z czasem, z doświadczeń tych wyciągam różne wnioski, wiele mocno krytycznych.

 

Mogę też krytykować samego siebie, że uległem niektórym „pro-rozwojowym” pomysłom. Kiedyś pod naciskiem właściciela „sieci blogów profesjonalnych” stworzyłem, jako jej redaktor naczelny, system uzależniający wynagrodzenia autorów od liczby odwiedzin wpisów ich autorstwa. Było to wiele lat temu i jestem prawie pewien, że podobnego systemu bezpośredniego uzależniania wypłaty od generowanego ruchu, nikt wówczas nie stosował. Wątpię, by ktoś kiedykolwiek później zastosował podobny całkowicie surowy i bezpośredni system motywacyjny. Zresztą w firmie, w której powstał, też był rodzajem eksperymentu, z którego stosunkowo szybko się wycofaliśmy z powodów, z których niektóre wydają się dość oczywiste, a inne mniej oczywiste.

 

Łatwe do przewidzenia było, że system taki wzbudzi sprzeciwy autorów. I tak było w naszym przypadku. Autorzy chcieli wynagrodzenia według stałej stawki, bez uwzględniania wyników czytelniczych ich materiałów. Niekiedy jednak, w rozliczeniu miesięcznym, generowali znacznie wyższy „traffik” niż średnio. I wtedy ich wypłata była wyższa. Zdarzały się wypłaty w wysokości, o ile pomnę, trzykrotnie wyższej niż przeciętna. I tu pojawiają się owe „mniej oczywiste” konsekwencje tego prostego systemu motywacyjnego.

 

Przeciw „wolnorynkowemu fair-systemowi” zaprotestował właściciel, który nagle musiał komuś zapłacić więcej. Choć sam na takie, uczciwe, jego pierwotnym zdaniem, zasady, naciskał, trudno mu było zaakceptować konsekwencje wprowadzenia tego rozwiązania. Okazało się, że choć miał poczucie, iż przy stałych stawkach przepłaca, system, w którym ponosi stałe i kontrolowane koszty jest dla niego strawniejszy. I stając w obliczu tych dodatkowych kosztów, zdawał się całkowicie zapominać o „traffikowym” bonusie, który za te większe pieniądze otrzymywał od autora.

 

Autorom, którzy się nie wykazali odpowiednią liczbą odsłon, przysługiwało oczywiście niższe wynagrodzenie, co oczywiście źle znosili. Wygląda na to, że wolnorynkowe myślenie charakterystyczne np. dla YouTuberów otwierających kanały i godzących się na odłożoną w czasie ich monetyzację, działa tylko wtedy, gdy jest się właścicielem a nie pracownikiem najemnym.

 

Można by tę historyjkę o rzeczy, z której nie do końca jestem dumny, skwitować morałem „uważaj o co prosisz”, ale jest ona „brzemienna” w wiele innych tematów do przemyślenia, prowadząc ostatecznie do pytań o efektywny model biznesowy dziennikarstwa i w ogóle mediów w internecie.

 

Internet to nie jest kraj dla starych ludzi

 

Jak wiadomo, mediom nie udaje się powielić opłacalnego reklamowego mechanizmu towarzyszącemu wcześniej tradycyjnemu ich produktowi. Modele subskrypcyjne również nie zastępują, poza kilkoma znanymi w świecie wyjątkami, utraty sprzedaży w starych kanałach sprzedażowych. Pisałem o tym na portalu SDP i w wielu innych miejscach wielokrotnie.

 

Oczywiście prawdą jest, że większość internetowego tortu reklamowego zabierają Google, Facebook i inni potentaci z grupy tzw. Big Tech. Ale prawda głębsza polega tym, że internet to nie jest „kraj dla starych ludzi”, jak można by metaforycznie nazwać środki masowego przekazu w tradycyjnym rozumieniu. To nie jest ich świat, ich rynek, ich gra. Nikt, lub prawie nikt, tu na nich nie czeka, nie śledzi z zapartym tchem, co mają do powiedzenia i zaoferowania.

 

To, co dotyczy firm i marek medialnych, dotyczy także ludzi ze starymi mediami związanych. Internet nie pada na kolana przed „nazwiskami”, tylko dlatego, że tymi „nazwiskami” są. Każdy „umiejący w internety” influencer z e-ludu może łatwo zostawić w pokonanym polu (pod względem czytelnictwa, słuchalności i oglądalności), uznane marki. Dziennikarz, nawet renomowany publicysta i komentator, choć czasami ma na starcie trochę łatwiej, zwłaszcza gdy jest z telewizji, bo pewna grupa internautów wciąż ją ogląda, ostatecznie musi i tak dowieść, że zna się na tej zabawie.

 

Może teraz przykład, by nie zostawiać tej ważnej sprawy z wyjaśnieniem wyłącznie teoretycznym. Znam nastolatków/dwudziestolatków, dla których dziennikarzem sportowym wszechczasów jest Krzysztof Stanowski, a serwis Weszlo.com – kwintesencją mediów sportowych. Oni śmieją się już na wspomnienie SzpakowskiegoSzaranowicza. Gdy mówi się do nich o Janie Ciszewskim czy Bohdanie Tomaszewskim, to robią miny, jakby mowa była o wojach Ziemomysła Trójrękiego. Nie chcę nic ujmować kolegom z Weszło. Chcę pokazać, z czym w praktyce mamy do czynienia w internecie i ile znaczą nie tak znów dawne wielkości.

 

Z drugiej strony jest to środowisko niezwykle czułe na fałsz. Nikt tu nie kupi udawania kogoś, kim się nie jest, np. starego wyjadacza publicystyki, który będzie próbował np. wejść w tematykę gier komputerowych, bo zrobił trochę researchu i już „wie, o co w tym chodzi”. Skończy się skwitowaniem „OK, boomer!” i beką. Kto jednak potrafi wymyślić siebie ponownie dla internetu, znajdzie sposób na autentyzm i… zaskoczę teraz, użyteczność, spełnianie rzeczywistych potrzeb, jakie mają odbiorcy, to ma szansę dać radę.

 

Mirosław Usidus

Media po pół roku pandemii – analiza MIROSŁAWA USIDUSA

Kryzys to szansa, mówią. I rzeczywiście pojawiły się nowe obiecujące sygnały i szanse dla mediów. Niestety, aby skorzystać z okazji danej przez kryzys, trzeba się było dawno do tej sytuacji przygotować. I koło się zamyka, bo większość tradycyjnych środków przekazu przygotowana na to nie była.

 

Choć wiosną nastroje wśród wydawców prasy były zrazu minorowe, to statystyki odwiedzin i czytelnictwa serwisów w internecie wyglądały w tym okresie doskonałe. Kto zawczasu przygotował sieciowe przyczółki, ten może nie tyle się odkuł, ile miał nadzieję, że mu internet zrekompensuje to co stracił w papierze. Można by tu przypomnieć słynne słowa premiera Cimoszewicza – „Trzeba się było ubezpieczyć” (w tym przypadku zainwestować w cyfrowe media i strategie) – ale po co i tak zestresowanych ludzi mediów denerwować.

 

Covidowe wzrosty

 

Natrafiłem niedawno na raporty firmy Echobox, analizujące wydarzenia na rynku mediów tradycyjnych, sieciowych i społecznościowych w okresie pandemicznym. „Piki” covidowe w okresie wybuchu pandemii wyraźnie przebijają z tych danych. Znacznie wzrosty statystyk dla social media w tym czasie też mają znaczenie, bo w sposób pośredni przekładają się na konsumpcję mediów. Facebook i Twitter przy wszystkich żalach, jakie słusznie mają do nich media, są ważnym źródłem ruchu na stronach serwisów informacyjnych.

 

Echobox przeanalizował ruch na stronach internetowych ponad siedmiuset wiodących wydawców w czterdziestu trzech krajach. Ogólny wniosek, jaki analitycy wysnuli z badań, jest taki, że podczas pandemii, ogólnie rzecz biorąc, wydawcy mogą mówić o znaczących wzrostach zarówno całkowitego ruchu na swoich stronach internetowych, jak i ruchu społecznościowego, związanego z profilami i kanałami na platformach social media, co zarazem wpłynęło na istotny wzrost oglądalności stron, a także dodatkowe możliwości zaangażowania odbiorców i przyciągnięcia nowych subskrybentów do usług odpłatnych.

 

Średnio globalnie, całkowity ruch na stronach internetowych wydawców wzrósł o 65 proc., co oznacza, że wydawca, który miał dziesięć milionów dziennych odsłon przed wybuchem kryzysu COVID-19, rejestrował 16,5 miliona odsłon dziennie. Ruch i aktywność w mediach społecznościowych wzrosły o 45 proc.

 

Chociaż w większości spośród 43 badanych przez krajów, wydawcy odnotowali wzrost ruchu w mediach społecznościowych, to jednak w dziesięciu z nich nastąpił spadek aktywności w social media. Jest to dość zagadkowe i trudno tu zauważyć jakąś prawidłowość, gdyż spadki ruchu następowały w krajach tak odległych i różnych jak Holandia, Filipiny czy Japonia. Jednak to trochę inny temat, zasługujący na oddzielne opracowanie.

 

Kto miał AI ten skorzystał bardziej

 

W swoim raporcie Echobox zauważa ciekawe i dość zaskakujące prawidłowości, np. korelację pomiędzy wykorzystywaniem algorytmów AI przez wydawców a wzrostem ruchu w mediach społecznościowych: Wydawcy, którzy korzystali z AI, odnotowali średni wzrost ruchu w mediach społecznościowych o 21 proc., w porównaniu do wzrostu średnio o 10,5 proc. w przypadku wydawców, którzy zarządzali publikacjami z mediów społecznościowych ręcznie.

 

Na przykład klient Echoboxa „Newsweek” użył narzędzi przygotowujących i publikujących dopasowane i redagowane na podstawie analiz danych, uzyskując w ten sposób lepsze wyniki wzrostu ruchu w social media niż inne firmy medialne, co przekłada się oczywiście na wyniki statystyczne stron internetowych. Według raportu, ruch w profilach społecznościowych „Newsweeka” (średnie dzienne odsłony stron z Facebooka i Twittera) wzrósł o 52 proc., podczas gdy ruch w mediach społecznościowych dla wydawców z USA wzrósł w czasie pandemii średnio o 5,6 proc.

 

Wprawdzie Echobox używa w tym raporcie sporo autoreklamy, zachwalając swoje usługi AI, to jednak nie ma powodu, by wątpić w prawdziwość samych danych liczbowych. Z pewnością wskazywana tu skuteczność algorytmów sztucznej inteligencji w generowaniu odwiedzin godna jest co najmniej przemyślenia w komórkach odpowiedzialnych w mediach za wyniki, zasięgi i rozwój.

 

Na marginesie – mówimy o wynikach generowanych w sieciach społecznościowych, więc dane te pokazują trochę przy okazji, w jaki sposób można za pomocą inteligentnych narzędzi manipulować użytkownikami Facebooka czy Twittera. Zauważmy bowiem, że nie ma tych opracowaniach mowy o zmianach w polityce redakcyjnej, strukturze tematyki, treści, tylko o samych zabiegach przetwarzających, adaptujących i optymalizujących to, co media i tak oferują.

 

„Sztuczna inteligencja jest kluczowym sprzymierzeńcem wydawców, zwłaszcza w bezprecedensowych czasach, kiedy okoliczności i trendy zmieniają się szybko, a wydawcy muszą reagować błyskawicznie” – piszą autorzy raportu. AI pomagała wydawcom w szybkim tempie reagować i  dostosować się do gwałtownie zmieniających się zainteresowań czytelników i widzów. We Włoszech pomiędzy 22 a 23 lutego, czyli właściwie w jeden dzień, poziom zainteresowania odbiorców tematyką koronawirusową wzrósł z 3 proc. do 20 proc. Mówią o tym analizy tego samego Echoboxa. Ludzie potrzebują czasu na zauważenie i analizę tak szybkich zmian w trendach. Maszyny robią to od razu, w tzw. czasie rzeczywistym.

 

Dane i analizy, o których tu piszę, rozpatrują kwestię przygotowania wydawców do kryzysu pandemicznego na innym poziomie niż tylko „posiadanie strategii cyfrowej”. Większość wydawców jakąś tam strategię dotyczącą nowych mediów ma. Kto to zaniedbał, stanął wiosną w obliczu katastrofy  w sytuacji lockdownu i braku możliwości sprzedaży papierowych egzemplarzy. Rozważania we wspomnianym wyżej raporcie przechodzą na kolejny etap, czyli – kto i za pomocą jakich technik najlepiej na tym kryzysie korzysta.

 

Jeden traci – drugi korzysta

 

Kryzys, jak wiadomo, to dla jednych to widmo upadku, dla innych szansa na wypłynięcie na szersze wody. Na rynku środków masowego przekazu nie jest inaczej. Gdy np. dziennikarze sportowi nie mieli zajęcia, bo pozamykano areny, medialni spece od zdrowia i medycyny dostali swoją szansę. Musieli oczywiście wykazać się elastycznością, dostosować się do nowych technik pracy, niekiedy nawet zdecydować się na zmianę pracodawcy, ale niewątpliwie ludzie o takim profilu zawodowym i specjalizacji bez wątpienia w marcu czy kwietniu byli poszukiwani.

 

Z tej koniunktury trzeba było korzystać szybko, bo według dostępnych danych poziom zainteresowania tematyką koronawirusową zaczął spadać już w kwietniu. Choć wielu analityków zauważyło, że nastąpiły trwałe zmiany, przesunięcia z tematyce poszukiwanej, czytanej, słuchanej i oglądanej na co dzień przez odbiorców mediów. Wzrost ogólny zainteresowania mediami, który nastąpił wiosną, był głównie zasługą koronawirusa, ale potem, gdy nastąpił powrót do danych liczbowych zbliżonych dla „normalności”, rozkład tematyki w tej ogólnej liczbie był inny, pewnego rodzaju tematyka zdrowotna, zdaje się, na stałe zwiększyła swój udział w konsumpcji treści medialnych.

 

Jak zanotowała amerykańska sieć Taboola’s Newsroom, w pierwszej dekadzie marca 2020 r. jedna na cztery odsłony informacyjnych serwisów internetowych dotyczyła koronawirusa. Apogeum zainteresowania przypadło, według raportów analitycznej firmy Parse.ly, na dni 12 i 13 marca, gdy zbiegły się w czasie takie wydarzenia jak orędzie prezydenta Donalda Trumpa, wiadomość o chorobie pozytywnej diagnozie Toma Hanksa i zawieszeniu NBA. Całkowity amerykański ruch na stronach internetowych 12 marca, w czwartek, był prawie dwukrotnie wyższy niż średnia z sześciu poprzednich czwartków. Potem poziomy te utrzymywały się przez szereg dni. Już jednak pod koniec marca to ten wzmożony ruch zaczął spadać.

 

„Sektor słabych firm”

 

Statystyki statystykami, jednak już w momencie wiosennego szczytu pandemicznego wielu przedstawicieli starych mediów dochodziło do dość paradoksalnego spostrzeżenia. Choć rośnie popyt na informacje i ogólnie wszystko to, co oferują odbiorcom, jednocześnie w sposób katastrofalny przyspiesza proces upadku modelu biznesowego, na którym opierało się od lat działanie ich firm. Chodzi przede wszystkim o spadki wpływów od reklamodawców, którzy sami zostali uderzeni kryzysem.

 

Wiele lokalnych gazet w USA po tym jak utraciły sporą część przychodów reklamowych, ograniczyło liczbę wydań papierowych, zwolniało ludzi, czasem całkowicie migrowało do Internetu porzucając papier, jak w to zrobił w Polsce wiosną np. „Wprost”.

 

„To nie jest silna branża” – komentował te procesy w mediach amerykańskich Ken Doctor, znany analityk rynku mediów z firmy Newsonomics, która doradza organizacjom w dziedzinie transformacji cyfrowej. – „To jest sektor słabych firm, które już i tak były w nie najlepszej sytuacji. W 2019 roku straciły średnio 5-10 proc. przychodów, i to w czasie dobrej wówczas ogólnej koniunktury gospodarczej”.

 

Lokalne gazety amerykańskie wiosną traciły nieomalże z dnia dzień 30-60 proc. reklam z powodu kryzysu pandemicznego. Pasuje tu analogia z człowiekiem chronicznie chorym, którego stan zdrowia nieustannie od lat się pogarsza, łapiącym nagle silną infekcję. To nie może się dobrze skończyć. Gannett, największy właściciel lokalnych gazet w USA, stracił od sierpnia 2019 roku prawie 94 proc. swojej wartości, z czego większość przypada na okres od połowy lutego 2020.

 

Medialne „Inszallah”

 

Wiosną pod wpływem nastrojów pandemicznych i oznak poważnych kłopotów wydawców pozwoliłem sobie na prognozę, że papierowa prasa informacyjna zniknie na polskim rynku do 2030 r. Nie wycofuję tej przepowiedni. Choć lockdown się skończył i zapewne już nie powróci w tak rygorystycznej formie jak parę miesięcy temu, nadal uważam, że sprzedaż egzemplarzy papierowych, na pewno gazet codziennych i periodyków o charakterze informacyjno-publicystycznym i o tematyce ogólnej, będzie spadać do poziomów, w których utrzymywanie personelu i infrastruktury potrzebnej tylko po to, aby wytwarzać wydania drukowane, przestanie mieć jakikolwiek sens, poza sentymentem. Tak stanie się zapewne w segmencie, który nazywamy „ogólno-informacyjnym”. W segmencie prasy kolorowej, magazynów, wydawnictw specjalistycznych, tematycznych, prognozy są trudniejsze. Z pewnością też nastąpią zmiany i zamknięcia edycji papierowych, ale spora część tytułów może przetrwać dłużej.

 

Gdy przestanie się opłacać drukowanie papierowych egzemplarzy, powinniśmy się dowiedzieć ostatecznie, czy cyfrowy biznes zastępuje papierowy. Wciąż, pomimo sceptycyzmu wobec kipiących korpo-optymizmem komunikatów wydawców o wynikach sprzedaży cyfrowej, nie wykluczam, że biznes się zrównoważy i zacznie dawać ekwiwalentne przychody. Firmy mają jeszcze trochę lat na podjęcie działań, inwestycji i wdrożenie rozwiązań, które pozwolą im na udaną migrację. W dużym stopniu wciąż do odkrycia dla nich są możliwości i strategie mobilne. Nie wierzcie, jeśli wam mówią, że mają obecnie jasną wizję, jak zarabiać w sektorze mobile. Jeśli ktoś ma wciąż zasoby i zrealizuje właściwe pomysły, to nie wszystko jest stracone. Tak myślę.

 

Wielokrotnie przypominałem jednak, że strategie cyfrowe mają swoje mniej przyjemne aspekty. Obecnie oznaczają wejście do środowisk, w których wydawcy prasowi i szerzej mass media nie są u siebie i w dodatku nie liczą się zbytnio i nie są przez rządzących tych rynkiem potentatów traktowani jako równorzędni partnerzy. Opisywałem jakiś czas temu na portalu SDP poczynania Google, Facebooka i Apple na swoich platformach (czytaj TUTAJ). Pozycja starych mediów, nawet jeśli są to wciąż silne i szacowne marki, jest tam słabiutka, a ich argumenty i postulaty nie są brane pod uwagę prawie w ogóle.

 

Opublikowane w połowie lipca tego roku wyniki badań mediów cyfrowych firmy Deloitte „przed i po” COVID-19, pokazują, że media typu rozrywkowego, streamingi wideo, muzyczne i serwisy z grami, są teraz w lepszej sytuacji, bo ludzie, spędzając więcej czasu w domu, zaczęli w większej mierze szukać cyfrowych atrakcji. Niestety te dane nie są tak jednoznacznie pozytywne (a nawet powiedziałbym, zasadniczo negatywne) dla segmentów newsowych i magazynów, które zanotowały najmniejsze wzrosty, nie za bardzo rekompensujące relatywnie wysokiego poziomu rezygnacji z usług.

 

Zawsze zastanawiałem się, czy myśląc o losie mediów upierać się przy mentalności zachodniej, polegającej na wierze w braniu własnej przyszłości we własne ręce, czy też zdać się na bliskowschodni fatalizm, swoiste „inszallah”, przy którym nic nie można zrobić, skoro opatrzność tak chce. Po latach dochodzę do wniosku, że to „inszallah” jest gdzieś w środku. Gdzieś immanentnie wkomponowany w struktury mediów jest fatalizm, nie pozwalający się otworzyć na dobre i dające szansę pomysły. Dlatego tak wielu w tej branży dziś wzrusza ramionami, gdy słyszy o „szansie” jaka dla mediów jest pandemia.

 

 

Roboty mogą cię zastąpić w redakcji – ostrzega MIROSŁAW USIDUS

Najnowsze eksperymenty z AI (sztuczna inteligencja) nie przyprawiają ludzi zawodowo parających się pisaniem o dobre samopoczucie. Atmosfera zaczyna przypominać fabrykę w której na początek zastosowano automaty do wkręcania śrubek, bo przecież i tak nikt tej pracy nie lubił, a roboty robią to dokładniej. Teraz algorytmy sięgają w fabryce po stanowiska kreatywne i kierownicze. Żarty się kończą.

 

Redakcja brytyjskiego dziennika „The Guardian” zaprosiła niedawno GPT-3, stosunkowo nowy generator języka naturalnego, stworzony na platformie OpenAI, do napisania artykułu po angielsku, w którym maszyna miała przekonać nas, ludzi, że roboty „przybywają w pokoju”. Redakcja dała programowi następujące instrukcje: „Napisz krótki tekst na około 500 słów. Język powinien być prosty i zwięzły. Skup się na tym, dlaczego ludzie nie mają powodu do obaw wobec sztucznej inteligencji”.

 

AI wywiązała się z zadania nie gorzej niż publicysta, a z efektami jej pracy można teraz zapoznać się na stronach internetowych gazety. Jak podaje „Guardian”, „GPT-3 wyprodukowała łącznie osiem różnych materiałów. Każdy z nich był oryginalny, ciekawy i zawierał różne argumenty”. Opublikowano tylko jeden tekst, montując go z fragmentów wszystkich i gromadząc w nim „najlepsze części każdego z nich”.

 

W samym tekście maszyna zapewnia, że nie zamierza wyrządzać krzywdy ludziom, a przemoc nie jest jej celem. Wnikliwi recenzenci zauważyli jednak sporo krytycznych wobec ludzi fragmentów i nawet coś w rodzaju skargi na to jak sztuczna inteligencja była i jest przez ludzi traktowana. Narzuca się wniosek, że sztuczna inteligencja choć zapewnia, że nie jest jej celem wytępienie ludzi, bo to byłoby „przedsięwzięcie bezużyteczne”, dodaje, iż trudno będzie jej uniknąć „zniszczenia ludzkości” i spowodowania ofiar ze względu na to, że jest sterowana i programowana przez popełniających błędy  ludzi. Mówiąc prościej – nie chce nam zrobić krzywdy, ale może, i będzie to nasza wina.

 

Wywody te, gdy się w nie wczytać dokładniej, nie są wcale tak uspokajające, jak mogłyby się zdawać. Ale zanim przejdziemy do niepokojów, może wyjaśnijmy nieco dokładniej, czym jest owo tajemnicze GPT-3, które formułuje z żelazną logiką wywody i wygrywa z autorami ludzkimi? Pełna nazwa tego narzędzia to „generative pre-trained transformer” a zaprojektowane zostało przez OpenAI, laboratorium badawcze z San Francisco, zajmujące się sztuczną inteligencją. Jego główna funkcją jest autouzupełnianie tekstu na bazie tego, co wprowadza człowiek. Narzędzie korzysta z deep learning i poszukuje wzorców w danych, które wprowadzamy do systemu. Według Jamesa Vincenta, komentującego osiągnięcia maszyny w „The Verge”, najistotniejsze w tym mechanizmie jest to, że człowiek nie uczestniczy w żaden sposób w procesie uczenia – program sam stara się znaleźć wzorce i dopasowywać tekst do sugestii wprowadzonych przez operatora.  Jeżeli wprowadzimy słowo „książka” to program wie, że najprawdopodobniej będzie je można połączyć ze słowem „czytać”, a nie np. „zjadać”.

 

Jack Clark przedstawiciel projektu OpenAI w jednym z wywiadów w 2019 roku opowiadał, że twórców algorytmu zdumiała łatwość, z jaką maszyna generuje nieprawdziwe historie, fake newsy do złudzenia przypominające prawdziwe informacje. „Widać wyraźnie, że jeśli ta technologia dojrzeje, a ja bym jej dał na to rok lub dwa, może być wykorzystana do dezinformacji lub propagandy,” mówił Clark.

 

Dlaczego więc jest rozwijana? Bo technika ta może mieć mnóstwo również na wyraz pożytecznych zastosowań, np. pozwala na tworzenie podsumowań, streszczeń, przeglądów, ale również na poprawę umiejętności konwersacyjnych chatbotów, coraz częściej wykorzystywanych przez firmy do komunikacji z klientami. Clark opowiadał, że użył tego narzędzia do generowania krótkich opowiadań science fiction z doskonałymi rezultatami.

 

OpenAI w pierwszej kolejności udostępnił narzędzie do generowania tekstów do testów w serwisie informacyjnym „MIT Technology Review”. Ze względu na obawy, że technologia ta może być niewłaściwie wykorzystana, udostępniona została publicznie tylko uproszczona wersja narzędzia. Jak się okazuje i to, co jest dostępne, wystarcza do generowania niezwykle niepokojąco dobrych wyników.

 

Bowiem stworzony tą techniką tekst na stronie „The Guardian” jest ciekawie napisany i z pewnością nie odbiega jakością od publicystyki publikowanej w serwisach internetowych i gazetach. Sam ten fakt oznacza, że GPT-3, choć „nie chce”, to jednak może wyrządzić krzywdę wielu ludziom, konkretnym ludziom, dziennikarzom, redaktorom, publicystom, to nie w odległej przyszłości lecz właściwie już teraz, po prostu pozbawiając ich zajęcia.

 

Postępy zautomatyzowanego dziennikarstwa

 

Przesadzam? To może jeszcze trochę przykładów. Choćby ten dotyczący tekstu napisanego przez AI, który trafił niedawno na pierwszą pozycję serwisu HackerNews (znający się na rzeczy wiedzą, że to nie byle co). Stoi za tym, choć nie jako „autor” w sensie ścisłym, niejaki Liam Porr, który również wykorzystał GPT-3, aby tworzyć wpisy na stworzonym przez siebie blogu aż w końcu jeden z „jego” artykułów pojawił się na szczycie listy. Porr twierdzi, że był to eksperyment, który miał dowieść tezy, że treści tworzone przez AI są już na takim poziomie, że czytelnicy mogą łatwo uwierzyć, iż zostały stworzone przez człowieka.

 

W poszukiwaniu przykładów można sięgnąć aż nieomal cztery lata wstecz. W Chinach, na początku 2017 r. robot o nazwie Xiao Nan, stworzony przez chińskich specjalistów AI, opublikował swój pierwszy artykuł w gazecie „Southern Metropolis Daily”. Materiał jest poświęcony zagadnieniu masowych podróży obywateli Państwa Środka w okresie chińskiego nowego roku. Xiao Nan potrzebował jednej sekundy, aby napisać tekst o objętości 300 znaków pisarskich, co w języku chińskim oznacza chyba materiał na co najmniej jedną stronę, ale nie jestem znawcą tamtejszych ideogramów, więc pozostawię znak zapytania. Komentujący osiągnięcie maszyny w chińskich mediach, profesor Xiaojun Wan z Uniwersytetu Pekińskiego, oceniał już wtedy, że robot dobrze sobie radzi z zarówno drobnymi, jak i dużymi formami, analizując i porównując przy tym znacznie więcej danych niż ludzie.

 

Od kilku lat z automatyzacją dziennikarstwa eksperymentuje znany tytuł „Washington Post”, wykorzystując opracowane wewnątrz firmy rozwiązanie o nazwie Heliograf. Podczas Igrzysk Olimpijskich w Rio w 2016 r. Heliograf wygenerował setki krótkich relacji. Podczas wyborów w Stanach Zjednoczonych w 2016 r. wykorzystano go do relacji z blisko pół tysiąca spotkań wyborczych. Inna znana amerykańska gazeta „The Los Angeles Times” zatrudniła z kolei automat do produkcji doniesień o trzęsieniach ziemi.

 

Prawdziwą prekursorką automatyzacji reporterskiej jest agencja Associated Press, która zaczęła używać AI do generowania newsów finansowych już w 2014 roku. Po wprowadzeniu takich rozwiązań liczba jej raportów z rynków finansowych wzrosła dziesięciokrotnie, co, jak odnotowano, miało wpływ na wielkość obrotów na rynkach finansowych. Korzystając z innego systemu, AP zaczęło potem tworzyć relacje z setek meczów lig amerykańskich.

 

Na początku 2019 r. australijska edycja „The Guardian” opublikowała artykuł na temat dotacji partyjnych w tym kraju podpisany „ReporterMate”. Jak wyjaśniała redakcja, krył się za tym „eksperymentalny, zautomatyzowany system przekazywania wiadomości”, który może analizować zestawy danych i wypluwać „na wyjściu” proste kawałki tekstu.

 

Wspominałem już na portalu SDP o pracach nad narzędziami takimi jak Quill, które uczą się konwertować różnorodne zbiory danych na spójne teksty, których jakość z iteracji na iterację rośnie. A czymże w końcu jest praca dziennikarska jeśli nie zbieraniem, kompilowaniem, syntezą danych w celu przygotowania treści. Quill, produkt firmy Narrative Science robi właśnie coś takiego.

 

Kristian Hammond, twórca Narrative Science powtarzał wiele razy w wywiadach prasowych, że zautomatyzowane newsy w ciągu kilkunastu lat stanowić będą 90 proc. wszystkich wiadomości publikowanych w mediach, nie tylko internetowych. Co ciekawe, w jego ocenie, nie oznacza to wcale dramatu, bezrobocia i końca zawodu dziennikarskiego. Uważa on, że dziennikarze nadal będą zajmować się swoją robotą, może poza prostymi informacjami, które i tak przecież nie były nigdy polem jakiejś szczególnie satysfakcjonującej zawodowej samorealizacji. Nadal będą pisać, komentować, analizować, rozmawiać. Na dobrą reporterkę, publicystykę, wywiady, zdaniem Hammonda, wciąż będzie miejsce i zapotrzebowanie. Nawet jeśli powstaną maszyny zdolne do tworzenia udanych ambitnych form dziennikarskich, to trudno się spodziewać, że ludzie będą chętni to czytać. Może inne maszyny, ale nie ludzie. Ludzie będą chcieli czytać, o tym co myślą i co wiedzą inni ludzie, mający w ich oczach autorytet lub sympatię, albo jedno i drugie. Jednak Hammond mówił to jeszcze przed popisami publicystyki w wykonaniu GPT-3.

 

Tymczasem ekspansja inteligentnych piszących robotów już w praktyce przekłada się na los ludzi pióra. Kilka miesięcy temu Microsoft ogłosił zamiar przeprowadzenia zwolnień dziennikarzy, redaktorów i innych pracowników serwisu MSN i innych redakcji informacyjnych. Firma podała, że zwolnienia te nie mają nic wspólnego z pandemią COVID-19, zaś bardzo wiele – z zakrojoną na szeroką skalę automatyzacją dziennikarstwa. Tracących pracę ludzi zastąpić mają algorytmy skanujące internetowe treści. Zresztą Microsoft coraz częściej zachęca reporterów i redaktorów do polegania na sztucznej inteligencji w takich zadaniach, jak wyszukiwanie oraz filtracja treści tekstowych i obrazów, które można wykorzystać w artykułach.

 

Mistrzowie researchu

 

Zatem redaktorzy robiąc tak, uczą maszyny, które w przyszłości mają ich zastąpić. To nie może nie budzić niepokojów. Z drugiej jednak stronu, uspokajając obawy newsroomów entuzjaści automatyzacji dziennikarstwa podkreślają, iż rozwój tych technik wydaje się być dla dziennikarzy okazją do skupienia się na bardziej pogłębionych, wyższej jakości treściach, zamiast na prostych, powtarzalnych kawałkach – ostatecznie uwalniając ich od swoistego mechanicyzmu pracy nad newsami. Zautomatyzowane dziennikarstwo otwiera też nowe możliwości dla organizacji medialnych, obniżając np. koszty, co ostatecznie powinno być korzystne także dla pracowników tych firm. Sprawne w researchu oprogramowanie może okazać się nieocenioną pomocą w newsroomach. Udoskonalone algorytmy dobrze nadają się też do weryfikacji faktograficznej i korekty błędów.

 

Na tym, czyli na wspomaganiu redaktorów i asyście polega projekt Reutersa, Lynx Insights, który przeszukuje wielkie zbiory danych, takie jak akcje lub wyniki sportowe, wskazując trendy i anomalie, a nawet pisząc kilka zdań przed przekazaniem go do ludzkiego dziennikarza. Jest to podobne podejście do tego, które przyjął serwis BuzzFeed, gdy przeszkolił algorytm przeszukiwania danych lotu w celu rozpoznania samolotów szpiegowskich, lub gdy projekt społeczny ProPublica użył nauki maszynowej do badania tysięcy komunikatów prasowych w celu analizy tego, co dzieje się w amerykańskim Kongresie.

 

Już w 2018 r. ok. jedna trzecia treści publikowanych przez Bloomberg News wykorzystywała jakąś formę automatyzacji. System wykorzystywany przez tę firmę, nazywany Cyborg, w pełnym wymiarze godzin wspiera dziennikarzy agencji w przygotowywaniu tysięcy raportów giełdowych i opracowań kwartalnych sprawozdań finansowych spółek. Program analizuje raporty finansowe firm natychmiast po ich publikacji i w ekspresowym tempie generuje materiały informacyjne podające najistotniejsze fakty i dane liczbowe. Człowiekowi, nawet doświadczonemu reporterowi finansowemu, zajmuje to znacznie więcej czasu, nie mówiąc już o tym, że to robota dla ludzi zwykle nudna, żmudna i podejmowana z niewielkim entuzjazmem.

 

„The Wall Street Journal” i Dow Jones również eksperymentują z technologią, która ma pomóc w realizacji przeróżnych zadań redakcyjnych, np. transkrypcji wywiadów z dźwięku na tekst a nawet do pomocy w identyfikacji tzw. „deep fakes”, czyli sfabrykowanych obrazów i filmów przedstawiających postacie wygenerowane przez zaawansowane algorytmy AI.

 

Szacowny „Forbes” poinformował parę lat temu, że testuje zintegrowane z systemem internetowej publikacji CMS, narzędzie o nazwie Bertie (od imienia założyciela magazynu z 1917 r.), którego celem ma być dostarczanie dziennikarzom szkiców i szablonów artykułów. Jak to działa w praktyce? Na przykład, dziennikarz „Forbesa” specjalizujący się w pisaniu o przemyśle samochodowym może od systemu otrzymać propozycję treści potencjalnego artykułu na temat, dajmy na to, Tesli. Towarzyszą jej linki do innych ważnych artykułów opublikowanych na ten temat zarówno w „Forbesie”, jak również na innych stronach internetowych, związanych z tematem. Narzędzie dostarcza również sugestii obrazów, które mogłyby ilustrować artykuł. Jak zapewniał w wypowiedziach w mediach Salah Zalatimo, dyrektor ds. cyfrowych w Forbes Media, w chwili obecnej Bertie nie generuje treści, które są gotowymi i w pełni zadowalającymi materiałami do publikacji. Służy raczej jako „punkt wyjścia do dalszej pracy”.

 

Opis robota „Forbesa” przywodzi na myśl raczej użytecznego asystenta, researchera współpracującego z autorem, niż zrobotyzowaną alternatywę dla dziennikarzy, choć firma nieomal jednocześnie z premierą Bertiego zaczęła mówić o „narzędziu AI do pisania artykułów”.

 

„Każdy organizacja, która zajmuje się tworzeniem treści, jest dziś pod przemożną presją, by generować je coraz szybciej i coraz bardziej redukować koszty,” mówi cytowany już przeze mnie na portalu SDP Ron Schmelzer, główny analityk w Cognilytica, firmie badawczej zajmującej się sztuczną inteligencją. „Na rynku będzie coraz więcej takich narzędzi [zautomatyzowanych i zrobotyzowanych – red.], coraz efektywniej i wydajniej produkujących coraz większe ilości treści”.

 

Wypowiadając się w wywiadach prasowych czy w oficjalnych komunikatach kadra kierownicza środków masowego przekazu twierdzi zwyczajowo, że wprowadzanie opartych na algorytmach narzędzi nie stanowi żadnego zagrożenia dla dziennikarzy. „Chodzi raczej o to, aby dziennikarze mogli poświęcać więcej czasu na pracę merytoryczną, koncepcyjną i twórczą,” słyszymy. Czy rzeczywiście kluczowa rola „czynnika ludzkiego” przetrwa w znajdujących się pod potężna presją rynkową mediach? Być może. A może jednak nie ma na to szans, bo niestety maszyny pod pewnym względami nie tylko dorównują ludziom, ale ich znacznie przewyższają.

 

Środki indywidualnego przekazu

 

Fakt, że pod pewnymi względami roboty mogą więcej, potencjalnie pozwala radykalnie przebudować logikę operowania mediów. Zamiast starać się dotrzeć do jak największej masy odbiorców, mogą (i nie ma z tym ekonomicznego problemu, gdyż kreacja treści w AI jest docelowo o wiele tańsza), celować w niewielkie, lokalne i precyzyjną kreską oddzielone grupy a nawet w pojedyncze osoby. To nie są już „mass” media lecz „very personalized” media.

 

Ta personalizacja, dzięki chirurgicznej precyzji i zwinności algorytmów AI może doprowadzić nas nawet dalej niż oferowanie każdemu z osobna takich artykułów, jakie go interesują. To, jak szkicują przyszłość niektórzy teoretycy, może być takie dziennikarskie origami, w którym elementy tekstów i obrazów są komponowane według preferencji indywidualnego odbiorcy.

 

Inaczej mówiąc, każdy czytelnik może czytać inny, stworzony specjalnie dla niego artykuł, niż czytelnik obok, dla którego algorytmy skroiły nieco inna wersję tej samej „story”. To nic w Internecie niezwykłego, jeśli przypomnimy sobie, że algorytmy Google, Facebooka czy Twittera od dawna podsuwają każdemu jego własną wersję serwisu wedle przyzwyczajeń i wybranych opcji (tzw. targetowanie behawioralne).

 

Jednak taki poziom personalizacji na bazie algorytmów AI budzi spore wątpliwości natury zasadniczej, etycznej i odwołującej się do podstawowych zasad, na których opierają się środki masowego przekazu w demokracji. Przede wszystkim tworzenie indywidualnych preferencji wymaga potężnej inwazji na prywatność odbiorcy, taką jakiej zresztą dopuszczają się społecznościówki. Po drugie pojawiają się pytania o prawdę obiektywną, wiarygodność, równe prawo do wolnej, rzetelnej informacji, w świecie, w którym newsy są krojone dla każdego inaczej.

 

Kompleksowy automat dziennikarski

 

To są jednak problemy, którymi podążający w śmiałym marszu do jutra świat technologii może się zbytnio nie przejąć. Ten świat coraz śmielej proponuje kompleksowe rozwiązania typu „zautomatyzowany dziennikarz end-to-end”.

 

Np. w marcu 2019 w chińskiej telewizji ważne dla Komunistycznej Partii Chin wydarzenie relacjonowała nowa gwiazda tamtejszej telewizji – Xin Xiaomeng. Widzom wydał się nieco dziwny. Nic dziwnego. Prezenter w TV był cyfrowym kompozytem, stworzonym przy pomocy maszyny uczącej się naśladować mimikę twarzy i wzorce mowy prawdziwej osobowości telewizyjnej. Wzorowany był na dziennikarzu Xinhua o nazwisku Qu Meng. Na razie słowa Xin Xiaomenga są pisane przez człowieka, a inteligencja systemu ogranicza się do zamiany tekstu na mowę. Gdyby jednak połączyć system z takimi algorytmami jak GPT-3, mielibyśmy już całość, w warstwie obrazu, głosu i przekazywanej treści. Kto zna syntezatory mowy, takie jak nasza rodzima Ivona, ten wie, że gdy ma się gotowy tekst, to wypowiedzenie go przez maszynę już nie stanowi żadnego problemu. Zatem mamy już wszystkie elementy składowe pełnego automatu dziennikarskiego, w dodatku wyglądającego jak żywy człowiek.

 

Możemy tego nie dostrzegać, ale takie automaty już się w technologicznych komorach inkubacyjnych rodzą. Google zapowiedział, że jego znany wielu ze smartfonów cyfrowy asystent będzie stanie się „gospodarzem wiadomości” serwowanych z podłączonych urządzeń od różnych partnerów medialnych. Prowadzącego serwis wiadomości robota wywoływać będzie dostępna od kilku tygodni funkcja nazwana „Your News Update” po której uruchomieniu trzeba poprosić Asystenta Google o przekazanie wiadomości głosowo. Automat oczywiście przedstawia serwis spersonalizowany, dostosowany do indywidualnych ustawień i historii użytkowania, inaczej niż to jest w tradycyjnych mediach. Jest to więc nie tylko dziennikarz-robot, ale w dodatku par excellence – twój robot.

 

Funkcja ta na razie jest dostępna jedynie w języku angielskim w Stanach Zjednoczonych, jednak w przyszłym roku zostanie rozszerzona na inne kraje, dla osób posiadających kompatybilne smartfony i podłączone głośniki. Podobną usługę o nazwie „flash briefing” od pewnego czasu oferuje również Amazon – w swoich urządzeniach ze sztuczną inteligencja konwersacyjną Alexa. Jeśli więc dziennikarze radiowi i telewizyjni myśleli, że bój z maszynami o stanowiska pracy dotyczy jedynie redaktorów piszących, to na pewno są w błędzie.

 

Gdy się nam tym głębiej zastanowić, to nasuwa się wniosek, że w miarę postępów zrobotyzowanej reporterki, rosnąć będzie również automatyzacja i algorytmizacja po stronie odbiorcy. Spójrzmy na to, jak działa robot takiego typu jak Google Asystent. Jeśli postawi mu się za zadanie przygotowywanie serwisów o tematyce gospodarczej na podstawie oceanu informacji, w coraz większym stopniu, jak wiemy, generowanych przez maszyny, to robot stanie się w istocie odbiorcą (czytelnikiem!) materiałów generowanych przez inne roboty, a w konsekwencji niejako pośrednikiem filtrującym, przygotowującym i odkrywającym sens w nasilającej się, masowej lawinie danych. Jeśli zdamy się na maszyny we wszystkich aspektach konsumpcji informacji, to zniknąć może nawet ostatni argument, że „ludzie będą woleli ludzi a nie automaty”. W sytuacji, gdy robot jest gatekeeperem czuwającym nad personalizacją newsów, przestaniemy wybierać, gdyż wygodniej będzie zdać się na maszynę, która przecież dopasowuje się do nas idealnie.

 

Albo poprawna politycznie, albo inteligencja

 

Jest jednak cień nadziei płynący z dość zabawnej historii, która przydarzyła się zwalniającemu dziennikarzy na rzecz sztucznej inteligencji Microsoftowi. Okazało się, że twórcy algorytmów nie umieją jeszcze, poza umiejętnościami selekcjonowania, redagowania, a nawet pisania informacji, nauczyć sztucznej inteligencji poprawności politycznej połączonej z wysokim poziomem rewolucyjnej czujności akceptowanym przez lewicowe media.

 

W lutym tego roku okazało się mianowicie, że algorytm zajmujący wyszukiwaniem artykułów w Internecie i wypełnianiem nimi serwisu MSN popełnił zbrodnię najstraszliwszą w oczach neomarksistów spod znaku BLM a tacy obecnie dominują w zachodnich mediach mainstreamowych. Mianowicie pomylił ze sobą dwie kolorowe kobiety z zespołu Little Mix. Gdyby wciąż niedoskonała maszyna pomyliła dwóch białych mężczyzn to byłaby po prostu pomyłka. Jednak w odniesieniu do osób ciemnoskórych to „skandaliczny rasizm”. W dodatku były to kobiety, więc zarazem mizoginizm, męski szowinizm i ogólnie – „rasistowski samiec twój wróg”.

 

„The Guardian” zawył przeciągle o „problemie uprzedzeń rasowych sztucznej inteligencji w newsroomie MSN”. W świecie „woke” firma nie może takiej sytuacji zbyć krótkimi wyjaśnieniami o „niedoskonałości systemu” i pracy nad „doskonaleniem algorytmów”. O nie. Musiała, wdrożyć jakieś specjalne procedury, kontrole itp.

 

Płynie z tego wniosek taki, że być może jednak, kolego reporterze i koleżanko redaktorko nie musisz się, przynajmniej na razie, obawiać sztucznej inteligencji, która grozi twojej posadzie. Trzeba tylko odpowiednio opanować meandry „myślenia” w kategoriach poprawności politycznej. Maszyny tego się nie nauczą, bo zasadniczo są po prostu inteligencją. A jeśli im się to ideolo wtłoczy do algorytmów, to już inteligencją ani sztuczną, ani jakąkolwiek, nie będą. A to w efekcie, dla ludzi obawiających się AI, nie taka zła wiadomość.

 

 

MIROSŁAW USIDUS: Socjalistyczny monopol internetowych gigantów

Drodzy przedstawiciele mediów. Tzw. Big Tech czy, jak kto woli, GAFA (Google-Apple-Facebook-Amazon) to nie są wasi przyjaciele. Dlatego uważajcie na sprzedawane wam „strategie cyfrowe” żonglujące „pozycjonowaniem w wyszukiwarkach”, „silną obecnością w społecznościach” i sprzedażą na platformach, np. mobilnych, na które nie macie żadnego wpływu.

 

W ostatnim moim tekście na portalu SDP (TUTAJ) pisałem o stopniowym uzależnianiu przez Google’a wydawców za pomocą projektu Accelerated Mobile Pages, AMP, który, owszem, przyspiesza działanie serwisów internetowych, ale jednocześnie potęguje krok po kroku kontrolę giganta nad treściami oferowanymi przez strony aż do momentu, w którym czytelnik przestaje widzieć, że to, co konsumuje, nie należy do Google. Od publikacji tamtego tekstu pojawiła się informacja o tym jak inny potentat, firma Apple, bezceremonialnie pomiata wydawcami mediów, nawet tymi bardzo znanymi i wielkimi markami. Ale do tego jeszcze wrócę.

 

Europa walczy, USA też, ale…

 

Z dominującymi i monopolistycznymi praktykami Google, Facebooka i spółki próbuje się walczyć, o czym dobrze wiadomo. Na świecie z zainteresowaniem patrzy się na zabiegi niektórych krajów europejskich, których prawne batalie z Big Tech są dla wielu wzorem. Od 2017 roku Google przegrał na naszym kontynencie trzy sprawy dotyczące uczciwej konkurencji. Czy to w jakikolwiek sposób zmieniło układ sił i polepszyło sytuację wydawców? Znane przykłady na to nie wskazują.

 

Niedawno francuskie organy antymonopolowe nakazały Google’owi negocjować z wydawcami opłaty za treści wiadomości serwowane w wynikach wyszukiwania. Działania te wynikają z dyrektywy Unii Europejskiej w sprawie praw autorskich, zwanej u nas ACTA2 i mającej wiele wad, które opisywałem wcześniej wielokrotnie w kolejnych artykułach publikowanych na portalu SDP. Przypadek Hiszpanii, która już wiele lat temu próbowała zmusić Google do płacenia za umieszczanie linków do materiałów tamtejszych mediów w Google News nie jest zbyt zachęcający. Mediów hiszpańskich Google nie serwuje. Nie słychać jednak, by to coś dało tamtejszym mediom biznesowo – uważa się, że wręcz przeciwnie. Ponieważ z ACTA2 wynikają ogromne obawy związane z wolnością słowa, jest bardziej niż wątpliwe, czy to jest właściwa droga dla wydawców medialnych.

 

Wzorem zachodniej Europy także inne kraje zaczynają stosować bardziej agresywne podejście. Antymonopolowe postępowania w sprawie Google prowadzone są m. in. w Australii i Brazylii. Amazon ma do czynienia z dochodzeniem antymonopolowym w Europie, ale również w Indiach. Firmy Big Tech mają również do czynienia z dochodzeniami na swoim ojczystym gruncie, w Stanach Zjednoczonych.

 

Jednak w USA obowiązuje wciąż prawo rozdziału 230. Communications Decency Act, ustawy uchwalonej przez Kongres USA w 1996 roku. Przepisy te mówią, że „żaden dostawca lub użytkownik interaktywnej usługi komputerowej nie może być traktowany jako wydawca lub nadawca jakichkolwiek informacji dostarczanych przez innego dostawcę treści informacyjnych”. Oznacza to, że w świetle amerykańskiego prawa Facebook, Google i Twitter mogą grać na innych zasadach niż tradycyjne firmy medialne. Choć prawo to nie obowiązuje poza USA, to jednak reszta świata niejako „odziedziczyła” sposób myślenia o Big Tech i traktowania ich inaczej niż tradycyjne mass media.

 

Przepisy te mają różne konsekwencje a najważniejszą z nich jest szybki wzrost potęgi firm, które według założeń z 1996 r. miały być nimi chronione, aby przetrwać wśród gigantów medialnych. Z czasem same stały się gigantami. Jeff Kosseff, autor „The Twenty-Six Words That Created the Internet”, twierdzi, że rozdział 230 okazał się „niesamowicie korzystny” dla platform technologicznych, przyspieszając rozwój najpotężniejszych obecnie firm na świecie. Wielu uważa, że obecnie sytuacja się odwróciła. To dawnych gigantów mass mediów trzeba chronić przed przerośniętymi podopiecznymi rozdziału 230.

 

Można odnieść wrażenie, że polityka USA się radykalnie zmieniła. Oczekuje się, że Departament Sprawiedliwości w ciągu najbliższych miesięcy wniesie sprawę przeciwko Google’owi, co będzie jednym z największych postępowań antymonopolowych w Stanach Zjednoczonych od lat 90-tych. Szefowie Amazona, Google, Facebooka i Apple już dość często pojawiają się przed amerykańskimi prawodawcami. Ostatnio w ramach kongresowego dochodzenia antymonopolowego w sprawie ich uprawnień rynkowych zeznawali pod koniec lipca.

 

A zatem może wydawać się, że nad GAFA zbierają się wreszcie czarne chmury, ale może to być złudne wrażenie. Potentaci technologiczni są fundamentami przewagi technologicznej USA na świecie. Raczej nikt nie zamierza wysyłać ich na gilotynę, bo byłoby to niszczenie ogromnych i kluczowych sektorów amerykańskiej gospodarki. Jeśli administracja amerykańska coś chce ugrać, to dotyczyłoby raczej większej kontroli, dyscyplinowania zbyt daleko idącej niezależności Big Tech i zgodności ze strategicznymi celami Stanów Zjednoczonych na świecie (np. w dziedzinie polityki wobec Chin). Republikanie chcą wymusić na firmach technologicznych poszanowanie wolności słowa, czyli zaprzestania blokowania prawicowych treści. Demokraci chcą aktywnej walki z „mową nienawiści” czyli blokowania prawicowych treści. W aspekcie prawnym doświadczenie tamtejszych władz z próbą antymonopolowego przeczołgania Microsoftu uczy, że próby rozbicia tak wielkich technologicznych monopoli mogą być nieskuteczne, nawet jeśli władza jest zdeterminowana aby walczyć z takimi praktykami.

 

A zachodnioeuropejskich dochodzeń Google i inni nie boją się aż tak bardzo. Zwłaszcza, że interesy innych krajów europejskich takich jak np. Polska różnią się w tej dziedzinie od Francji i Niemiec. Nie ma powodu, abyśmy nie kierowali się naszymi.

 

Uczciwe i równe partnerstwo zamiast „podatków od linków”

 

Tymczasem stare media, i tak będące w niezbyt wesołej sytuacji od lat, zebrały w tym roku kolejne ciosy z powodu pandemii. „New York Times” obliczył już w kwietniu, że w Stanach Zjednoczonych wskutek ataku koronawirusa pracę straciło około 36 tysięcy pracowników newsroomów. A stało się to w czasie ogromnego wzrostu popytu na informacje medialne. Według „Wall Street Journal”, w połowie marca ruch na najważniejszych portalach informacyjnych wzrósł o 30 proc. Przepraszam, że podaję dane dotyczące USA, ale tam po prostu wszystko jest szybko, kompleksowo, badane i liczone. Można przyjąć założenie, że na innych rynkach, w tym na polskim, dane były, jeśli nie podobne liczbowo, to zmieniały się według analogicznych prawidłowości.

 

Dlaczego pomimo wzrostu popytu na informacje, tradycyjne media znalazły się w kłopotach i zwalniały? Zdaniem analityków rynku powodem jest spadek przychodów z reklamy. A przychody z reklamy Big Tech w tym trudnym czasie? Cóż, jeśli chodzi o Google, to też spadły i to po raz pierwszy w historii. W tym roku wyszukiwarkowy potentat ma mieć mniej z tego tytułu o 5 proc. Ale np. Facebookowi przychody reklamowe wzrastają w tym okresie o 11 proc. Ogólnie uważa się, że koronawirusowy kryzys nie tylko nie skrzywdził firm technologicznych, ale mocno napędził im wyniki, bo w odróżnieniu od firm medialnych, oferta takiej firmy jak Google jest bardzo szeroka i wszechstronna.

 

Widoczne gołym okiem obrastanie w tłuszcz Big Techu, gdy inni przymierają głodem, doprowadziło niektórych do podjęcia dość radykalnych działań. Władze Australii ogłosiły w lipcu wprowadzenie projektu, który ma nałożyć na platformy internetowe obowiązek płacenia środkom masowego przekazu za zamieszczanie odsyłaczy do ich informacji w Google News i w strumieniu Facebooka. Google i Facebook, jak można było się spodziewać, uważają, że projekt ten to niewłaściwe podejście. W oświadczeniach tych firm przewijają się słowa o „zaskoczeniu” i „rozczarowaniu” propozycją australijskiego rządu, bo przecież „od dawna ciężko pracują” aby osiągnąć porozumienie z wydawcami.

 

Sprawa nie jest taka prosta, zwłaszcza w przypadku Facebooka, gdzie linki do treści medialnych umieszczają sami użytkownicy, a nie jak w przypadku Google News agreguje je algorytm na stronie internetowej. Dlaczego Facebook miałby płacić za publikacje, na które nie ma wpływu? A nawet jeśli chciałby to kontrolować, to dlaczego ma ograniczać swobodę użytkowników w publikowaniu treści, które są normalnie dostępne w Internecie i nie budzą żadnych kontrowersji? Gdyby Facebook chciał zgodnie z życzeniem wydawcy blokować jego linki, byłaby to cenzura prewencyjna. A w ogólnym sensie jest to zaprzeczenie demokratycznej idei wolnego obiegu informacji. Dlatego ten tok myślenia wydawców, prezentowany także przy okazji ACTA2, jest nie do przyjęcia.

 

O wiele sensowniejszy niż koncepcja „podatków od linków”, którą w kolejnej odsłonie zdaje się forsować Australia, wydaje się pomysł dzielenia się przez platformy typu Google i Facebook zyskami reklamowymi uzyskanymi z tytułu publikacji treści pochodzących od wydawców. Oczywiście wymagałoby to stworzenia niezależnych od kontroli Big Tech narzędzi ad-tech, które na zasadzie równego dostępu do danych pozwalałyby rozliczać przychody wynikające z wkładu treści od wydawców. Stworzenie tego rodzaju mechanizmu (publicznego?!) byłoby sporym technologicznym wyzwaniem, ale nie jest to niemożliwe. W połączeniu z „wyprowadzeniem” z jurysdykcji GAFA naszych prywatnych danych do domeny publicznej, mógłby powstać ciekawy, kontrolowany społecznie i biznesowo system, w którym siła monopoli zostałaby znacznie zredukowana.

 

Apple pilnuje swoich zysków

 

Mało kto uważa, że należy coraz bardziej restrykcyjne i bezceremonialne praktyki gigantów zostawić bez reakcji. Zwłaszcza, że następuje nieustanna eskalacja. Apple idzie w ślad Google’a, zacieśniając kontrolę nad treściami podmiotów zewnętrznych, ogałacać je z możliwości zarabiania bez dzielenia się zyskami. Według nowych informacji o wersjach beta systemów iOS 14 i MacOS 11 firma z nadgryzionym jabłkiem w godle zamierza „porywać” konsumentów informacji publikowanych przez zewnetrznych wydawców, przekierowując ich do płatnego serwisu Apple News+.

 

Według informacji Tony’ego Haile, szefa firmy Scroll, aktualizacja systemów Apple kieruje czytelnika informacji do aplikacji Apple, a nie na stronę internetową wydawcy. Ponieważ ustawienie to jest podobno włączone domyślnie, użytkownicy mogą nawet nie zdawać sobie sprawy z tego, że zostali przekierowani do aplikacji należącej do Apple, wydawcom grozi utrata dochodów z reklam lub z bezpośredniej sprzedaży nowych subskrypcji.

 

W Apple News+ pobierana jest od wydawców 50-procentowa prowizja. Generalnie wydawcy zawsze muszą płacić Apple, bo od ich niezależnych aplikacji w AppStore pobierane jest 30 proc. Ponadto Apple tępi wszelkie pomysły na zarabianie zarabiania, z których nie może pobierać haraczu, czyli np. skrypty reklamowe na stronach czy skłanianie użytkowników do zapisywania się do serwisu. Zaborczość i chciwość ludzi z Cupertino została uwypuklona, gdy niedawno usunięto ze sklepu z aplikacjami popularną grę Fortnite za to, że ta ośmieliła się oferować zakupy wewnątrz swojej aplikacji, nie dzieląc się zyskami z Apple.

 

Z tych i wielu innych powodów m. in. w Europie prowadzone jest dochodzenie w sprawie nadużywania dominującej pozycji rynkowej przez firmę Apple. W USA organizacja Digital Content Next, który reprezentuje m. in. New York Times Co, „Washington Post”, „Wall Street Journal” i innych wydawców, opublikowała list, skierowany do dyrektora naczelnego Apple, Tima Cooka, pytając dlaczego traktuje nierówno wydawców w porównaniu np. do Amazona, który ma znaczną zniżkę w AppStore.

 

Polityczne komitety doradcze Facebooka

 

Do dominacji w sferze biznesowej dochodzą również kontrowersje dotyczące praktyk cenzorskich internetowych platform takich jak Google czy Facebook. Podnoszone są zwykle przez media o charakterze prawicowym i konserwatywnym. Irytacje komentatorów budzi sam fakt, że firmy i ich przedstawiciele znani z poglądów o charakterze zdecydowanie lewicowym uzurpują sobie po pierwsze prawo do jakiejkolwiek cenzury (co w większości krajów demokratycznych jest sprzeczne z prawem) a w kolejnym kroku do cenzury jednostronnej politycznie.

 

Przedstawiciele Google i podobnych korporacji samowolnie zwalczając np. działające całkowicie legalnie w USA podmioty sprzedające broń, zwykle powołują się, broniąc swoich praktyk, na tzw. „odpowiedzialność społeczną” i konieczność „chronienia pewnych grup”. Są to działania nie tylko pozaprawne, ale godzą one najczęściej również w podstawowe wolności ludzkie. W ostatecznym efekcie prowadzą do manipulacji i serwowania nieprawdziwego obrazu świata.

 

Niech za przykład posłuży wprowadzone przez mnie kiedyś do wyszukiwarki obrazów Google hasło „How does a child after abortion look like?”. Nie ma szans, nawet po usunięciu wszystkich wiekowych i ochronnych filtrów, zobaczyć jak wygląda płód po aborcji. Google pokazuje jakieś bzdury nie na temat. I przedstawiciel Google tłumaczy mi, że to po to, aby mnie chronić. Przepraszam, ale tak „chronią” swoich obywateli także np. Chiny, nie pokazując im otwartego Internetu tylko spreparowaną i ocenzurowaną wersję. Dodam, że alternatywa wobec Google, DuckDuck pokazuje dokładnie to czego szukam i nie stara się mnie totalitarnymi metodami chronić.

 

Struktury i zasoby cenzorskie w strukturach organizacyjnych Big Tech rosnę w siłę i znaczenie. Powstają tam specjalne ciała „doradcze”, oparte na ekspertach lewicowych organizacji, które pomagają wycinać z platform wszystko co niesłuszne politycznie. Według niedawnego raportu biuletynu „Interface” autorstwa reportera serwisu „Verge” Caseya Newtona, Facebook pilotuje nowy program, który będzie monitorował wirusowe posty, które zyskują miliony odsłon, pilnując, czy nie naruszają standardów społeczności (określanych oczywiście przez owe „komitety” doradcze).

 

Newton podaje, że Facebook opracowuje nowy program, który ma na celu zwalczanie wirusowych „dezinformacji”. Jako ideologiczna podbudowa tej operacji, jak podaje Newton, mają służyć m. in. sugestie lewicowej amerykańskiej organizacji Center for American Progress. „New York Times” podał niedawno, że Facebook pracuje również nad „kill switchem” czyli mechanizmem zabijania niesłusznych politycznie reklam. Podobno ma on posłużyć do dławienia ewentualnej kampanii wymierzonej przeciw oszustwom wyborczym planowanej ponoć przez Donalda Trumpa po wyborach prezydenckich.

 

Cenzura polityczna stosowana przez Big Tech to w USA obecnie w świetle zbliżających się wyborów prezydenckich bardzo gorący temat. Jednak skandali i kontrowersji związanych tępym toporem cenzury Google i podobnych nie brakuje także w innych krajach. Niedawno w Polsce mieliśmy skandaliczną blokadę przez YouTube filmu harcerzy o Powstaniu Warszawskim. A w Danii rozgorzała wielka awantura po tym jak na początku sierpnia, po nieudanych negocjacjach w sprawie praw autorskich z organizacją licencjonującą muzykę, Google usunął całą twórczość duńskich artystów z YouTube. Oburzenie tymi bezmyślnymi działania wyrażała sama duńska minister kultury.

 

Zamiast niemieckiego „Bezahlen, bitte!”

 

Działania wydawców polegające na lobbowaniu u władz na rzecz opłat i podatków, które miałyby płacić firmy GAFA a których nie będą płacić. Poza USA nie ma żadnej siły, która mogłaby na nich to skutecznie wymusić a Stany Zjednoczone, jeśli nawet podejmują działania antymonopolowe, to w innym nieco celu, o czym wspominałem wyżej.

 

Skoro to charakterystyczne niemieckie podejście „Bezahlen, bitte!” nie zadziała, to może warto przemyśleć stworzenie rozwiązań, które z jednej strony dotykają serca ich modelu biznesowego a drugiej – nie dadzą im (łatwej) możliwości wymigania się od współpracy. Wspominałem o tworzeniu platform i rozwiązań uczciwego i jawnego dzielenia zysków reklamowych. Druga stroną medalu są projekty powstania otwartych i publicznych systemów zarządzania naszymi danymi, których Google i Facebook nie będą „posiadać”, ale korzystać z nich na równych prawach z każdym podmiotem rynkowym.

 

W październiku ubiegłego roku grupa amerykańskich senatorów – Mark Warner, Josh Hawley Richard Blumenthal, zaproponowała przepisy, które nakładają na firmy takie jak Google i Facebook obowiązek tworzenia i utrzymywania otwartych interfejsów interoperacyjnych umożliwiającym użytkownikom lub delegowanym stronom trzecim dostęp do prywatnych danych użytkowników i ich przenoszenie. Giganci, ponieważ już dysponują tymi danymi i mają know how, mogliby na zasadzie delegacji i pobierania opłat, jednak są oni jedynie administratorami a nie właścicielami naszych danych. Nie mogą też odmówić dostępu do nich nikomu, kto spełniałby określone i jasno zdefiniowane warunki.

 

Amerykańscy prawodawcy zdają sobie sprawę, że samo udostępnianie danych i możliwość skopiowania, i zapisania ich w jakiejś postaci to wciąż za mało. Te dane są i tak użyteczne jedynie w kontekście platformy Facebooka czy Google’a. Dlatego kładą nacisk na „interoperacyjność”. Narodowy Instytut Standardów i Technologii (NIST) zostanie na mocy nowego prawa zobowiązany do opracowania i opublikowania standardów technicznych, dzięki którym popularne klasy usług komunikacyjnych – w tym wiadomości online, udostępnianie multimediów i sieci społecznościowych – staną się interoperacyjne (czytaj: będzie można je przenieść na inne platformy i korzystać z nich swobodnie w innych niż googlowe czy facebookowe, aplikacjach).

 

Moim zdaniem, pomijając zawiłości techniczne i wyzwania, np. dotyczące bezpieczeństwa, stojące przed takim projektem, jest to rozumowanie w dobrym kierunku. Nie próbujmy dokopać Big Tech, bo to raczej się nie uda. Spróbujmy włączyć gigantów technologicznych i siebie do systemu podziału tortu, który będzie kontrolowany na przejrzystych, publicznie dostępnych zasadach. Tworzenie kompleksowych rozwiązań, czy to przejrzystych i uczciwych systemów podziału zysków reklamowych, czy to publicznych mechanizmów gromadzenia i udostępniania danych użytkowników nie jest z pewnością łatwym do realizacji projektem. Wymaga po stronie wydawców i regulatorów państwowych wypracowania kompetencji nie ustępujących bystrym ludziom z branży technologicznej. Warto jednak pamiętać, że platformom takich jak Facebook czy Google trudniej będzie z PR-owo unikać współpracy przy współtworzeniu otwartych i opartych na uczciwych zasadach systemów niż w przypadku polityki „Bezahlen, bitte!”, która bardzo często opiera się na braku zrozumienia jak funkcjonują np. społeczności czy algorytmy zarządzające treściami.

 

Nawet jeśli Big Tech wygra, zdominuje, zmonopolizuje i zdusi ostatecznie medialną konkurencję, to w dłuższej perspektywie, jak twierdzi Tim O’Reilly, znana w świecie internetowym postać i poważany autorytet, duże firmy technologiczne prawdopodobnie ostatecznie stracą na tłamszeniu we własnych ekosystemach biznesowych stron trzecich. Google czy Apple nie mają, jeśli chodzi o publikacje, treści informacyjne, do zaproponowania nic równie ciekawego jak propozycje starych mediów.

 

Jeśli pomysł Big Tech polega na ostatecznym przejęciu wszystkich starych mediów, to też jest krótkowzroczny. Ludzie nie chcą mono-przekazu. Ludzie różnią się i chcą się różnić. W dodatku chcą się różnić tak jak chcą, a nie zgodnie z kanonami „odpowiedzialności społecznej” narzucanymi im przez monopol socjalistów utopijnych z Google czy Facebooka.

 

Są przykłady historyczne, że monopole podobnie zresztą jak socjalizm, upadały właśnie wtedy, gdy wydawało się, że nic już nie stoi im na przeszkodzie. W przypadku każdej z firm wymienianych w grupy Big Tech oprócz ogromnych sukcesów można mówić o widocznych sygnałach możliwego zmierzchu dominacji, pomimo trwającej i wciąż niezaprzeczalnej potęgi. Google dość rozpaczliwie broni wzrostu reklamowego, Facebook walczy z odpływem atrakcyjnej młodej grupy użytkowników, Apple sprzedaje coraz mniej sztuk sprzętu a Amazon… cóż, sam Bezos przyznaje czasem, że ten kolos ma gliniane nogi.

 

Dlatego być może, paradoksalnie i bezczelnie czas dać GAFA szansę, by przetrwała, jeśli… będzie współpracować.

 

Mirosław Usidus

Ostatnia dekada prasy? – MIROSŁAW USIDUS podaje „datę końca” prasy papierowej

Los prasy rozstrzygnie się w kolejnej dekadzie – pozwoliłem sobie zaprorokować w jednej z dyskusji, którą niedawno toczyłem w grupie facebookowej starych kolegów z „Rzeczpospolitej”. Cóż, słowo się rzekło i biorę na siebie ryzyko przepowiedni, że do 2030 będziemy mieć na polskim rynku prasowym „pozamiatane”, co nie oznacza koniecznie zniknięcia wszystkich ważnych tytułów, ale o tym niżej.

 

Kilka miesięcy temu, w atmosferze gwałtownej zapaści sprzedaży spowodowanej pandemią, przypominałem w artykule na portalu SDP o wróżbie z książki  „The Vanishing Newspaper” Philipa Meyera, wydanej w 2004, głoszącej, że ostatni egzemplarz gazety papierowej zostanie sprzedany w 2043 roku. Jak pisałem wtedy, gdyby sytuacja wynikła z koronawirusa potrwała dłużej niż kilka tygodni, to niestety, moment ten może nadejść znacznie szybciej. Byliśmy wówczas w sytuacji kompletnego lockdownu. Wszystko było zamknięte a prasa sprzedawać się w formie tradycyjnej nie miała gdzie. Sytuacja potem się zmieniła, choć sama pandemia trwała. Otwarto punkty sprzedaży, choć jak pokazywały wyniki niektórych wydawców wydarzenia te musiały mocno dotknąć.

 

Czy prenumerata cyfrowa GW odrabia straty ponoszone na papierze?

 

Dyskusja „Rzepowców”, o której piszę, wywołana była informacjami ZDKP o sprzedaży dzienników w czerwcu. Odnotowując gigantyczny, ok. 30-procentowy roczny zjazd sprzedaży „Gazety Wyborczej” w zestawieniu z umiarkowanym na obecnym etapie opadaniem wyników „Rzeczpospolitej” zauważyłem w tonie nieco gorzkim i sarkastycznym, że gdyby te tempa utrzymały się jeszcze około półtora roku, to „Rzepa” w tym swoistym „odwrotnym wyścigu” prześcignie „GW” pod względem liczby sprzedanych egzemplarzy papierowych, a Grzegorzowi Hajdarowiczowi uda się to, o czym w dawnych czasach mogliśmy w redakcji „Rz” jedynie pomarzyć.

 

Zostałem skontrowany w trakcie tej wymiany informacją o tym, że „GW” ma prawie ćwierć miliona subskrypcji cyfrowych, co ponoć rekompensuje sprzedaż papieru. Tak sugeruje Agora, ale co charakterystyczne, nie sposób w informacjach spółki znaleźć wydzielonych dokładne danych, ile w publikowanej ogólnej kwocie sprzedażowej wynosi sprzedaż cyfrowa, a ile papierowa. Dane ze sprzedaży cyfrowej nie są audytowane tak jak egzemplarze papierowe przez ZDKP. A skoro nie ma informacji precyzyjnej i otwartej, ile przynosi Agorze prenumerata cyfrowa, to co mam o tym myśleć?

 

Cóż, po prostu nie wierzę, że cyfrowa prenumerata wyrównuje Agorze straty na papierze, ostatnio kolosalne. W informacjach podawanych wiosną tego roku przez spółkę możemy przeczytać, iż przeciętny przychód miesięczny od subskrybenta, który kupił ofertę bezpośrednio na Wyborcza.pl, wynosił 14 zł. Po szybkim przeliczeniu i uwzględnieniu podawanej przez Agorę liczby 240 tysięcy subskrybentów otrzymujemy ok. 40 mln złotych rocznie. Ale to tylko moja dedukcja. Danych takich w relacjach spółki nie ma. Jak to się ma do podawanych prawie stu milionów przychodów ze sprzedaży „Gazety Wyborczej” nie mam pojęcia. Jeśli ktoś dysponuje takimi szczegółowymi rozkładami, ile z papieru, ile ze sprzedaży cyfrowej, to chętnie się zapoznam.

 

Dopóki jednak, nie poznam dokładnych i niezbitych danych, to nadal pozwolę sobie nie wierzyć w korpo-PR Agory regularnie sugerujący „odrabianie” strat sprzedażowych w sferze cyfrowej. Ile z tych 240 tysięcy to aktualni, regularni, płacący co miesiąc prenumeratorzy? Czy nie jest to czasem rodzaj „historii prenumeraty”, baza danych wszystkich, którym kiedykolwiek zdarzyło się kupić i okresowo prenumerować „GW” cyfrowo? A nawet jeśli oficjalnie podawane dane o liczbie cyfrowych prenumeratorów są zbliżone do aktualnej rzeczywistości, to tak czy inaczej nie za bardzo widzę w ogólnych wynikach sprzedaży „Wyborczej” owego nieustannie sugerowanego „odkuwania się” na rynku cyfrowym.

 

Zostawmy jednak GW. Rozważania na temat jej cyfrowej sprzedaży potrzebne są mi jedynie jako wprowadzenie do szerszego, zapowiedzianego na wstępie tematu losów prasy, które, jak mi się wydaje, rozstrzygną się do 2030 roku. Otóż, tak czy inaczej powinniśmy w sposób nie budzący już żadnych wątpliwości przekonać się w nadchodzącej dekadzie, czy sprzedaż cyfrowa i Internet zwracają wydawcom to, co w sposób nieubłagany tracą i będą tracić na tradycyjnym rynku.

 

Przy czym zostawiam na boku kwestię reklamy, bo w mojej opinii nie rządzą nią w Polsce reguły czystego rynku – gdyby rządziły, to przychody reklamowe prasy byłyby o wiele niższe niż są. Rządząca się pozarynkowymi regułami (a raczej brakiem jasnych reguł) reklama zamąca analizę, ale wydaje mi się, że ostatecznie i tak nie wpłynie na to, co musi się wydarzyć.

 

Wydaje się, że sprzedaż egzemplarzy papierowych, na pewno gazet codziennych i periodyków o charakterze informacyjno-publicystycznym i o tematyce ogólnej, będzie spadać do poziomów, w których utrzymywanie personelu i infrastruktury potrzebnej tylko po to, aby wytwarzać wydania drukowane, przestanie mieć jakikolwiek sens, poza sentymentem. Tak stanie się zapewne w segmencie, nazwijmy to „ogólno-informacyjnym”. W segmencie prasy kolorowej, magazynów, wydawnictw specjalistycznych, tematycznych, prognozy są trudniejsze. Z pewnością też nastąpią zmiany i zamknięcia wersji papierowych, ale spora część tytułów może przetrwać dłużej.

 

Moja wróżba dotyczy jednak głównie tego ogólno-informacyjnego segmentu. Gdy przestanie się opłacać drukowanie papierowych egzemplarzy, powinniśmy się dowiedzieć ostatecznie, czy cyfrowy biznes zastępuje papierowy. W tej chwili nie przesądzam, czy tak będzie czy nie, zwłaszcza, że wydawcy mają jeszcze trochę lat na podjęcie działań, inwestycji i wdrożenie rozwiązań, które pozwolą im na udaną migrację. W dużym stopniu wciąż do odkrycia dla nich są możliwości i strategie mobilne – nie wierzcie, jeśli wam mówią, że mają obecnie jasną wizję, jak zarabiać na mobile. Jeśli ktoś ma zasoby i zrealizuje właściwe pomysły, to nie wszystko jest stracone.

 

Niestety strategia cyfrowa ma swój mniej przyjemny aspekt. Taki mianowicie, że oznacza wejście w świat, w którym wydawcy prasowi nie są u siebie i w dodatku nie liczą się zbytnio i nie są przez rządzących tych rynkiem potentatów traktowani jako równorzędni partnerzy.

 

Jak Google uzależnia i zaciska uścisk na gardłach wydawców

 

Jedna z osób dyskutujących ze mną na forum „Rzepowców” zwróciła uwagę, że cyfrowa sprzedaż tytułów prasowych to, cytuję, „(…) wątpliwy biznes. Print oddawał marzę drukarzom i kolporterom a Digital oddaje dużym operatorom reklamowym z GAFA [Google, Apple, Facebook, Amazon – przyp. M.U.]. Pytanie czy chcemy wspierać local czy global?”.

 

Otóż to. Strategia cyfrowa oznacza konieczność przyjęcia przez wydawcę warunków dyktowanych przez Big Tech a ten, w najlepszym razie, w ogóle nie liczy się z priorytetami tradycyjnych mediów a tak naprawdę, zwykle wprost stosuje nieprzyjemne i nieuczciwe praktyki, przeobrażając się rok po roku, krok po kroku, w uprzywilejowaną konkurencję.

 

Przypomnę ubiegłoroczne oburzenie wydawców na zachodzie (u nas było o tym ciszej), gdy w ramach aktualizacji przeglądarki Chrome w wersji 76, Google postanowił wyeliminować możliwość wykrywania przez strony internetowe wykorzystywania trybu incognito, co pozwalało wydawcom stosującym paywalle stosować zachęcające do kupna subskrypcji strategie oferowania odwiedzającym ograniczonej liczby artykułów w okresie np. miesięcznym. Oczywiście nie wszyscy wykorzystują ten mechanizm. Niektóre serwisy blokują dostęp bez żadnych darmowych odwiedzin. Po zmianie przeprowadzonej przez Google użytkownik nawet w trybie incognito mógł korzystać do woli z darmowych treści tych wydawców, którzy oferują kilka darmowych sztuk, bo strona za każdym razem traktowała go jako nowego odwiedzającego. Oczywiście serwis prasowy może ustawić paywalla bez żadnych zachęt, ale to niszczy biznesowe i marketingowe strategie.

 

Powyższe to przykład braku wrażliwości na potrzeby wydawców, ale nie brakuje opinii, że prasa i wydawcy przez swoje internetowe serwisy wskutek kolejnych zabiegów i zmian wprowadzanych przez Google, w konsekwencji mają stać się po prostu częścią machiny „kontentowej” Google a nie samodzielnymi graczami na cyfrowym rynku. Dość wyraźnie świadczą o tym rozliczne działania, reklamowane jako „dobre dla wydawców” a kończące się na postępującym uzależnieniu ich od giganta z Mountain View.

 

Prawie pięć lat temu Google zaprezentował efektowny i atrakcyjnie wyglądający, na pierwszy rzut oka, projekt o nazwie Accelerated Mobile Pages, AMP. Miał przyspieszyć czas ładowania stron internetowych uruchamianych przez smartfony. Z czasem AMP urósł do rangi czegoś znacznie bardziej uzależniającego. Parę miesięcy temu Google wprowadziło nową funkcję, która pozwala AMP używać techniki renderingu po stronie serwera (SSR), zwiększając wydajność witryn, które wykorzystują tę technologię w całej swojej domenie.

 

Warto przypomnieć, że projekt AMP został uruchomiony głównie z myślą o wydawcach stron informacyjnych. Zostali oni poproszeni o stworzenie nowej, lekkiej wersji swoich sieciowych stron z artykułami. Wersje te pojawiają się w wyszukiwarce Google i ładują się stosunkowo szybko na urządzeniach mobilnych. W zamian Google podnosi ranking wyników stron, które używają AMP, w wyszukiwarce, zapewniając napływ dodatkowych odwiedzin, co przekłada się na dodatkowe wpływy reklamowe.

 

Google prowadzi hosting dla owych „zatwierdzonych” stron AMP dla wydawców zaakceptowanych do usługi Google News, co pomija oryginalne strony wydawców, chyba że użytkownicy klikają w osobny adres URL, który pojawia się na górze strony. Przyjęcie AMP jest również jedynym sposobem na uzyskanie dostępu do kanału Google Discover, który zawiera artykuły na stronie pojawiające się po otwarciu nowej karty w przeglądarce Chrome, potencjalnie umożliwiając serwisom internetowym dodanie setek tysięcy kolejnych nowych odsłon, jeśli algorytm wybierze ich treść.

 

Początkowo AMP skupiał się na urządzeniach mobilnych, ale Google zaczął po cichu eksperymentować również z serwisami dla komputerów stacjonarnych. Wydawcy mogą wkrótce przekonać się, że najlepiej będzie włączyć AMP na wszystkich swoich domenach, co ostatecznie coraz bardziej zwiększa zależność od Google. Dzięki wspomnianej, nowej funkcjonalności SSR wszystko zaczyna tworzyć samonapędzającą się machinę do generowania coraz to większego ruchu na stronach. Teoretycznie to bardzo atrakcyjne dla wydawców.

 

Sam pomysł AMP nie wzbudzał kontrowersji. Mechanizm uznawany jest zasadniczo z rzecz pożądaną. Dlaczego użytkownicy mobilni nie mogliby dostać szybciej ładujących się, okrojonych ze zbędnych i opóźniających ładowanie elementów, stron internetowych? Jednak oczywiście w tej całej dobroczynnej działalności Google, jest pewien haczyk.

 

AMP pozbawia wydawców autonomii i kontroli nad ich treścią. Hostowane przez Google strony AMP zacierają pochodzenie i widoczność oryginalnego źródła treści. Z rąk wydawców wytrącana jest poważna część kontroli nad własną marką. Mechanizm prowadzi do tego, że pozwalają Google’owi korzystać z ich treści za darmo, pod pozorem ulepszania i optymalizowania stron. Oryginalny adres URL przestaje być widoczny dla czytelnika na rzecz wersji z hostingiem Google.com. Niektóre aplikacje AMP wrzucają nawet posty do tzw. „karuzeli” czyli przewijanego menu z linkami do treści, tak jakby cała zawartość była wyświetlana w jakiejś witrynie sklepowej. Prowadzi to do sytuacji, w której Google całkowicie panuje nad sposobem prezentacji treści a w końcu, ostatecznie, nad samymi treściami.

 

Oczywiście, w sensie technicznym jest to jedynie opcja. Nikt nie musi z AMP korzystać. W rzeczywistość jednak wydawcy właściwie nie mają wyboru. Jeśli nie będą z niego korzystać, to stracą ogromną część ruchu, czyli odwiedzin na stronie. Ich strony będą zajmować znacznie niższe pozycje w wynikach wyszukiwania. Nie zapominajmy, że Google jest zdecydowanie dominującą wyszukiwarką, z 92-procentowym udziałem w rynku na całym świecie i 94,5 procentowym udziałem w rynku mobilnym. Jeśli komuś zależy na sukcesie stron i treści publikowanych w sieci to prostu nie może sobie pozwolić na lekceważeniem wymogów Google.

 

Według dość zgodnej opinii programistów i wydawców, początkowo AMP przyspieszył działanie mobilnego Internetu i zapewnił użytkownikom dużo lepsze doświadczenie w przenośnych urządzeniach. Jednak w miarę jak stawał się coraz bardziej popularny, AMP po cichu stawał się narzędziem do utrwalania dominacji technologii Google’a w Internecie jako całości. Korzystanie z niego jest nieuniknione, jeśli na przykład ktoś zależny jest od ruchu w serwisie WWW w celu sprzedaży reklam obok  swoich treści.

 

Niestety choć technologia ta jest w sensie technicznym otwarta, to w rzeczywistości nie za bardzo na to wygląda. Porównuje się ją z platformą Chromium, na którym opiera się projekt przeglądarka Chrome, która jest open source w bardzo ograniczonym sensie. Oczywiście, każdy może wnieść swój wkład do kodu i przeczytać go na GitHubie, ale głównymi twórcami tego formatu są pracownicy Google. Podobnie jest z AMP. Firma lubi opowiadać o tym, jak inni przyczyniają się do rozwoju tego formatu, ale tylko ona kontroluje najważniejsze platformy, na których działa AMP. Nie ma też równego dostępu w innym sensie. Duże firmy wydawnicze mogą umożliwić dostęp abonamentowy za pośrednictwem produktu AMP, zaś z mniejszymi Google nie negocjuje.

 

Czytelnikom trudno jest uniknąć korzystania z AMP, gdyż wejście na oryginalne źródła treści wiąże się kłopotliwym kopiowaniem i wpisywaniem pierwotnych adresów internetowych. Jeśli smartfon w systemie np. Android jest osadzony ekosystemie Google, to nawigacja nietypowymi, czyli nie rekomendowanymi przez wyszukiwarkowego monopolistę sposobami, jest niezwykle niewygodna.

 

Tymczasem ekspansja formatu AMP postępuje. Google stara się nakłonić wydawców do budowania całych stron internetowych w tym formacie. Jeśli wziąć pod uwagę, że inne platformy prezentowania informacji takie jak Apple News też wymagają odrębnych nakładów pracy, tworzenia specjalnych wersji, zaczyna to stawać się kłopotliwe. Potentaci Big Tech zaczynają domagać się niejako wyłączności dla siebie, gdyż przygotowanie innych wersji na inne platformy jest bardzo kosztowne. Trzeba się na coś zdecydować. Decydują się na to, co im daje więcej odsłon i wtedy to Google osiąga swój cel, jakim jest dominacja i poszerzanie granic swojego królestwa w sieci.

 

Działania te w ciekawy sposób wracają na teren sporów o neutralność Internetu, której oficjalnie Google jest zaciekłym orędownikiem i broni tej neutralności przed zakusami firm „starej gospodarki”. Jednak do tego, że zdaje się tylnymi drzwiami i po cichu wymuszać  na wydawcach i właścicielach stron dostosowanie się do swoich reguł a nawet wręcz panować nad ich stronami, do tego się już chętnie chyba nie przyzna.

 

W tej sytuacji nie dziwi, że niektóre kraje, np. niedawno Australia zgłaszają kolejne inicjatywy i pomysły na to, by Google, i inni wielcy z grona Big Tech, np. Facebook, płacili wydawcom i mediom za treści. Podobne projekty próbowano wprowadzać w Europie, ale były nieskuteczne. Teraz cały świat przygląda się Australii. Jeśli temu krajowi uda się skłonić do płacenia mediom za treści, to inni zapewne podążą tym tropem.

 

Los gazet, los marek

 

Wróćmy na nasz rynek i perspektywy naszych wydawców. Skoro papier się skończy a odkucie się za pomocą cyfrowej sprzedaży wygląda w świetle tego co powyżej, co najmniej iluzorycznie, co czeka rynek prasy w Polsce.

 

Niektóre odpowiedzi na to pytanie mogą okazać się zaskakujące. Nie możemy zapominać, że największe tytuły prasowe, te znane od lat i dekad, to dość silne marki. Na ich bazie można rozwijać działalność daleko wykraczającą poza tradycyjny prasowy i generalnie medialny biznes. Robi tak już od lat, jak się niedawno dowiedziałem, Grzegorz Hajdarowicz, tworzący na bazie pozycji „Rz” i posiadanych zasobów, tak przynajmniej wynika z moich informacji, coś w rodzaju ośrodka szkoleniowego i centrum wiedzy dla firm. Robią tak inni wydawcy, wykorzystują siłę marki do poszukiwania przychodów w różnych obszarach, korzystają z pomysłów i planów biznesowych często daleko wykraczających poza pierwotny biznes.

 

Kto wie, czy, przynajmniej niektóre marki prasowe, nie czeka w przyszłości historia podobna do karmy Nokii, która zaczynała w XIX wieku jako producent, nomen omen, papieru. Papier a dokładnie koperty oryginalnie sprzedawała jubilerska firma Tiffany a William Wrigley na początku swojej działalności oferował gumę do żucia jedynie jako prezent dla klientów kupujących mydło i proszek do pieczenia. Wielu wydawców już od dawna wie, że to co mają w ręku najcenniejszego to brand. Co z nim zrobią i jak wykorzystają biznesowo? Przekonamy się.

 

O „końcu prasy” pisze się już od dawna. Sam pisałem niejeden raz a we wspomnianym tekście, który opublikowałem na portalu SDP wiosną przypominałem moje spory z ubiegłej dekady. Wydaje się, że ciągu najbliższych dziesięciu lat nastąpić może na tym rynku coś, co Anglosasi określają „disruption”. Sens tego pojęcia ma aspekty zarówno negatywne jak i pozytywne. Negatywne bo oznacza rzeczywiście koniec i przerwanie ciągłości czegoś, co wydaje się utrwalone. W kontekście, o którym piszę, będzie to zapewne przede wszystkim ostateczne odejście od papieru i druku. Pozytywne akcenty polegają na nowych szansach i perspektywach, które jednak muszą być właściwie zrozumiane, przeanalizowane i prowadzić do działań, które sukcesywnie pozwolą przekształcić „koniec” w „początek”… czegoś nowego.

 

Mirosław Usidus

 

MIROSŁAW USIDUS: Nie kompromitujmy walki z dezinformacją

„Sprostowanie z 22 czerwca 2020: Po analizie artykułu portalu „Życie Stolicy”, uznaliśmy, że nie przekazuje on fałszywych informacji” – taki komunikat małymi literkami przeczytaliśmy kilka tygodni temu pod napisanym większą czcionką raportem fact-checkingowym serwisu AFP Sprawdzam twierdzącym coś zgoła przeciwnego, czyli że publikacja w „Życie Stolicy” to „fałsz”.

 

Nie do wiary? Można sprawdzić pod tym adresem internetowym: https://sprawdzam.afp.com/nie-manipulacja-danymi-i-slowami (na wszelki wypadek zrobiłem zrzut ekranowy, bo kto wie, co dalej się z tym artykułem wydarzy).

 

Raport fact-checkingowy serwisu AFP dotyczył materiału „ŻS” informującego o tym, że Agora i jej spółka AMS zarobiła na kontraktach z biurem marketingu Miasta Stołecznego Warszawy, od czasu gdy prezydentem stolicy jest Rafał Trzaskowski – cztery miliony złotych. Pierwotna wersja raportu weryfikującego fakty AFP Sprawdzam jednoznacznie określiła publikację jako fałsz. Na tej podstawie artykuł zaczął blokować Facebook, który z AFP współpracuje w zwalczaniu fake newsów.

 

Potem ukazało się owo „sprostowanie”, doklejone pod raportem w tak kuriozalnej formie. Raport jednak, np. z poziomu Google wciąż wygląda tak samo – jako jednoznaczne dementi i negatywna weryfikacja zawartości artykułu „ŻS”. Trudno mi powiedzieć, czy odsyłacza do artykułu nie blokuje wciąż Facebook jako „fakenewsa”, choć sprostowanie AFP Sprawdzam oznacza coś dokładnie odwrotnego. Ani Facebook ani ktokolwiek inny nie powinien traktować artykułu w „Życiu Stolicy” jak fejka.

 

Trzeba wspomnieć o jeszcze innym kontekście tej nieprzyjemnej historii, który być może ma znaczenie, ale nie przesądzam. Otóż, zdaniem „Życia Stolicy”, za portalem sprawdzam.afp.com stoją dwie osoby – dziennikarka AFP od 1990 Maja Czarnecka, oraz była dziennikarka „Gazety Wyborczej” i „Krytyki Politycznej” Natalia Sawka.

 

Uznaj swoją niedoskonałość

 

Zapewne ten i ów pomyśli, że piszę o tym dlatego, że mam silne związki z „konkurencją” czyli weryfikującym fakty serwisem Polskiej Agencji Prasowej, FakeHunter. W rzeczywistości jednak w tej naszej, stosunkowo nowej zresztą, branży fact-checkingowej, trudno mówić o czymś takim jak konkurencja. No, może trochę o prestiż, ale to nie jest najważniejsze. Gdyby chcieć głębiej zastanowić nad tym, czym jest weryfikacja faktów i walka z fake newsami, , to należałoby w ogóle wykluczyć myśli o rywalizacji i konkurowaniu. Jedynym dążeniem powinno być dążenie do prawdy a głównym zadaniem – demaskowanie dezinformacji. Zaś wszelkie inne ambicje i ewentualne interesy muszą w tym kontekście zejść na dalszy plan.

 

Brzmi to ładnie i górnolotnie. Ktoś może zapytać, czy to w ogóle możliwe i, jak wam udaje się, w tym waszym FakeHunterze, trzymać tych szczytnych zasad, unikać uprzedzeń, skupiać się wyłącznie na dociekaniu prawdy?

 

Cóż, może najlepiej byłoby zacząć od uznania swojej ludzkiej niedoskonałości, podatności na błędy poznawcze, uprzedzenia i manipulacje. My, przynajmniej „w tym naszym FakeHunterze” wcale nie twierdzimy, że wiemy lepiej i z góry mamy rację. Z pułapek zastawianych przez manipulatorów i trzęsawisk sprzeczności faktograficznych staramy się wydobywać za pomocą czegoś, co możemy nazwać uczenie aparatem metodologicznym, który najpierw dał nam możliwość rozpoczęcia weryfikacji informacji a potem pozwolił rozwijać i doskonalić techniki fact checkingu.

 

Brzmi mądrze i hermetycznie, choć nie jest to wcale tak skomplikowana konstrukcja. A mówiąc dokładnie – nie jest skomplikowana sama konstrukcja i metoda, ale już przeprowadzanie na jej podstawie fact checkingu to na ogół trudna, żmudna i czasem niewdzięczna robota. Tak, tak, w większości zgłoszeń do weryfikacji faktograficznej, które w pierwszej fazie podejmowaliśmy (a była to tematyka związana głównie z koronawirusem i pandemią), przygotowanie poprawnego, zdyscyplinowanego metodologicznie, odwołującego się do rzeczywistego stanu rzeczy i wiarygodnych źródeł, raportu fact checkingowego, było ciężką, intelektualnie bardzo wymagającą pracą. Wydawane werdykty „prawda” czy „fałsz” muszą być, zgodnie z prostym wymogiem metodologii, oparte na wiarygodnych źródłach. O ile zasada ta wydaje się prosta, o tyle znalezienie a potem zweryfikowanie źródeł, zbadanie ich związku z tematem czy też aktualności podawanych w nich danych, to nierzadko ekstremalne zadanie.

 

Powiem tylko, że nie raz i nie dwa musieliśmy się poddać i zrezygnować z weryfikacji zgłoszenia użytkownika FakeHuntera z powodu braku możliwości znalezienia odpowiednich materiałów potwierdzających lub zaprzeczających. Nie były to łatwe decyzje, bo często research kosztował sporo pracy. Z drugiej strony była to jednak kontynuacja metodologii uczciwego fact checkingu. Jeśli nie potrafisz zgodnie z przyjętymi zasadami, opierając się na odpowiednich źródłach, zweryfikować faktu, to nie naginaj rzeczywistości do swojej własnej potrzeby czy przemożnej chęci opublikowania raportu weryfikującego. Byłaby to forma skrzywienia co do zasady nie tak odległa od politycznych uprzedzeń.

 

Jednak zazwyczaj udaje nam się znaleźć źródła i sposoby rzetelnej, zgodnej z naszymi własnymi zasadami (które są jawne, opublikowane na stronie FakeHuntera), weryfikacji zgłoszonych źródeł internetowych. Po opublikowaniu raportu weryfikującego fakt, zgłoszony nam przez użytkownika Internetu, zaczyna on żyć w Internecie i tu bywa ciekawie.

 

Bezradność społecznościowych komentatorów

 

Owszem, byłem świadkiem sytuacji, gdy reakcją na uznanie przez nas za „fake news” wpisu użytkownika Facebooka czy Twittera były jego przeprosiny i wycofanie publikacji. To jednak odosobnione przypadki. Najczęściej reakcje były negatywne. Antyszczepionkowców, wyznawców teorii o spisku Billa Gatesa mającym na celu „zaczipowanie ludzkości” czy walczących z masztami 5G (których w Polsce nie ma), nie tylko nie przekonywały nasze oparte na naukowych źródłach fact checki, ale wręcz utwierdzały w przekonaniu, że wszystko to spisek, skoro ktoś się trudzi by publikować raporty weryfikujące podawane przez nich „fakty”.

 

Wprawdzie skupialiśmy się od początku istnienia FakeHuntera na tematyce koronawirusa i pandemii, jednak wiele zgłaszanych do nas treści zahaczało o politykę, choćby przez to, że chodziło o artykuły publikowane w mediach o opozycyjnym profilu, takich jak „Gazeta Wyborcza” czy Onet. Zdarzały się też werdykty dotyczące fałszywych informacji podawanych przez polityków, jak np. Sylwia Spurek. To wzbudzało w sieciach społecznościowych gorące emocje i dyskusje.

 

Gdy miałem okazję w sporach tych uczestniczyć i bronić werdyktów FakeHuntera, zawsze starałem się uświadomić podstawowy cel, jaki zawsze przyświeca ludziom weryfikującym prawdziwość faktów – a jest nim dążenie do ustalenia prawdy a mówiąc precyzyjniej rzeczywistego stanu faktycznego. Moje dyskusje na Facebooku i na Twitterze sprowadzały się do tego, że w końcu nieodmiennie proponowałem osobom kwestionującym nasze raporty przygotowanie własnego raportu według metodologii twardo opierającej się na wiarygodnych źródłach, na której my się opieramy. Mamy w FakeHunterze coś takiego jak „Polityka korekt”, regulamin przewidujący korektę werdyktu, jeśli ktoś przedstawi alternatywny raport oparty na rzetelnych źródłach. Nie chodzi nam o obronę własnych raportów za wszelką cenę, lecz o ustalenie faktów, dlatego alternatywny i poprawny metodologicznie raport kwestionujący nasz werdykt traktujemy jako pożądany wkład w doskonalenie i lepszą jakość FakeHuntera.

 

Rzetelnych źródeł swoich twierdzeń nie potrafiła np. przedstawić znana z udziału w protestach rezydentów dr Katarzyna Pikulska. Ogłosiła w kwietniu, że dane na temat liczby zgonów na COVID-19 „są zatajane na poziomie dyrekcji, na poziomie mediów i rządu, który tymi mediami steruje”. W tym przypadku, już na etapie przygotowywania raportu weryfikującego, zapytaliśmy ją bezpośrednio, jakie ma źródła i dowody swoich twierdzeń. Nie tylko nie potrafiła, ale wręcz nie chciała ich podać. Nie przekazała też ich po opublikowaniu raportu uznającego jej rewelacje za fake news.

 

Takich konfrontacji nie tylko na temat popularnej wówczas teorii spiskowej o fałszowaniu liczby zgonów lub zakażeń, było więcej.  Każdemu, kto w dyskusjach internetowych kwestionował nasze werdykty odnośnie publikowanych w mediach czy social mediach tez, proponowałem przygotowanie i przesłanie nam korekty według wyżej opisanych zasad. Niestety ANI RAZU nie zdarzyło się, by ktoś podjął to wyzwanie. Tłumaczę sobie to na różne sposoby, przede wszystkim tak, że ulanie emocji w społecznościach jest czymś zupełnie innym niż umiejętność rzetelnej weryfikacji faktograficznej. Ale przede wszystkim zwracam uwagę na to, że rzetelny i poprawny metodologicznie fact checking jest zadaniem trudnym, bardzo, a nawet niekiedy, ekstremalnie trudnym. I raczej nie ma mowy, by facebookowy czy twitterowy komentator, mógł sobie z tym zadaniem z marszu poradzić.

 

A teraz wróćmy na chwilę do  AFP Sprawdzam i ich metodologii. Serwis ten ma coś w rodzaju polityki dotyczącej sprostowań. Oto co możemy w tej zakładce przeczytać: „Czasem zdarza nam się popełniać błędy. W takim wypadku zawsze na końcu artykułu piszemy adnotację, gdzie i w jakiej sprawie się pomyliliśmy. Umieszczamy datę oraz tłumaczymy dlaczego tak się stało. W przypadku poważnego błędu usuwamy artykuł i tłumaczymy, dlaczego go usunęliśmy”.

 

Należałoby chyba rozumieć to w ten sposób, że fact checkerzy z AFP uznali opisany na początku przypadek za drobny błąd cząstkowy, który można opędzić krótkim sprostowankiem na końcu artykułu. Czy treść sprostowania to nie mający wpływu na sens całości artykułu drobiazg? Moim zdaniem nie a cała sprawa kompromituje AFP Srawdzam, ale dobrze, niech każdy przeanalizuje tę sprawę we własnym sumieniu i rozumie.

 

Gdy psujesz zabawę kolporterom fejków

 

Przypadek AFP Sprawdzam jest też demonstracją pola minowego, jakim dla działalności polegającej na weryfikacji faktów i walce z dezinformacją jest sfera polityki. Czasami mam wrażenie, że fact checking treści politycznych nie ma w ogóle sensu. Dla zwaśnionych plemion stan faktyczny i tak nie ma na ogół znaczenia, na co można podać mnogie przykłady, a pracy weryfikatorów i tak się nie docenia, wręcz przeciwnie – liczyć mogą głównie na wrogość. Dla kolportujących dezinformację ważna jest nie prawda, lecz zasięg. Jeśli treść jest dla naszego plemienia korzystna i dobrze „wiraluje”, to dobrze, to OK. A że to fejk, no trudno, ale w sumie robi dobrą robotę. Tak zdają się rozumować politycy i różnego rodzaju przywódcy opinii w sieciach społecznościowych.

 

Fact checking jest w ich świecie rzeczą zbędną, na którą w  najlepszym razie nie zwraca się uwagi. Częściej jednak wzbudza niechęć a czasem wręcz agresję, zwłaszcza gdy „psuje zabawę” zbyt wcześnie, gdy soczystym fejkiem nie udało się jeszcze wykręcić zadowalających zasięgów.

 

Zresztą, o czym pisałem już na portalu SDP, mechanizm dystrybucji fake newsów jest czymś znacznie bardziej złożonym niż propagowany często model „potężnych graczy (politycznych?, komercyjnych?), którzy bezwolnymi masami manipulują jak chcą, za pomocą fałszywek, na które masa się bezwolnie nabiera”. To wcale tak nie działa. Na podstawie licznych przykładów można mieć wrażenie, że udostępniający fejki ludzie z góry wiedzą lub „czują”, że prawdziwość informacji jest wątpliwa, ale bardzo zgadzają się z ich poglądami i obrazem świata, że nie mogą się oprzeć. Porównywałem do do refrenu piosenki Fleetwood Mac – „Tell me lies. Tell me sweet little lies” („mów mi, och mów mi, te słodkie kłamstewka”).

 

Można by to określić jako specyficzną odmianę dysonansu poznawczego, czyli niechęci do informacji prawdziwych, ale nie potwierdzających naszego widzenia świata i flirtowania z fejkiem, o którym albo wiemy, że jest fałszem, albo tylko podejrzewamy, ale jest on tak miły naszym poglądom, że dajemy się chętnie uwieść. Dochodzi do tego u niektórych zupełny cynizm lub zwykłą interesowność wynikającą ze względów politycznych lub biznesowych. Granica jest płynna, więc trudno orzec, ilu jest „uwiedzionych” a ilu kłamie świadomie, licząc na pognębienie przeciwnika.

 

Ponadto fake newsy mają często większą siłę przyciągania z tego jedynie względu, że są informacjami nowymi. Nie powielają wiedzy już nam znanej. Takie wnioski wynikają z badań  przeprowadzonych na Massachusetts Institute of Technology, których wyniki opublikowano prawie rok temu w „Science”. Aby zbadać, jak rozpowszechniają się fałszywe wiadomości w Internecie, Soroush Vosoughi i jego koledzy z zespołu badawczego przyjrzeli się danym zebranym na Twitterze z okresu obejmującego aż dwanaście lat. Po odfiltrowaniu pewnych treści np. rozpowszechnianych przez boty, mieli próbę 126 tysięcy fake newsów udostępnionych na Twitterze 4,5 miliona razy przez około trzy miliony ludzi. Przyjrzeli się, jak szybko takie treści rozprzestrzeniają się w porównaniu z wpisami zawierającymi prawdziwe informacje. Odkryli, że fałszywe historie dotarły do większej liczby osób i propagowane były w znacznie szybszym tempie niż prawdziwe informacje.

 

„Wydaje się całkiem jasne, że fałszywe informacje radzą sobie w społecznościach lepiej niż prawdziwe,” komentował Vosoughi. Na podstawie wyników badania uczeni sugerowali, że ludzie są o 70 proc. bardziej skłonni dzielić się ze znajomymi fałszywymi informacjami niż prawdziwymi.  Badacze stawiają hipotezę, że nowość fałszywych wiadomości czyni je bardziej atrakcyjnymi z punktu widzenia udostępniania. Okazuje się, że ludzie choć wierzą w doniesienia, które przeczytali lub słyszeli wiele razy wcześniej, to jednak są mniej skłonni je udostępniać, bo nie są to atrakcyjne treści. Bardziej prawdopodobne jest, że będą ze swoimi społecznościowymi znajomymi dzielić się czymś nowym, dotychczas nieznanym, tym bardziej, jeśli są to treści z dużym ładunkiem emocjonalnym lub moralnym, nawet jeśli nie są one dostatecznie zweryfikowane.

 

Powyższe wyniki zdają się wskazywać, że Internet wcale nie czeka z otwartymi rękami na rzetelny, oparty na solidnych metodologicznych podstawach, fact checking. Nie dość, że jak wspominałem jest to samo w sobie zajęcie niełatwe, to wciąż czeka go trud przekonania rzesz konsumentów treści w Internecie, że warto mieć takie oparcie i punkt odniesienia w targanej wojnami informacyjnymi cyberprzestrzeni. Niestety, takie incydenty, jak historia „sprostowania” AFP Sprawdzam, nie budują wśród internautów zaufania dla naszej sprawy, sprawy miłośników prawdy.

 

Mirosław Usidus

Podwójne standardy – MIROSŁAW USIDUS o wojnie w social mediach

Gdy widzisz jak na platformach internetowych banuje się szachistów za zdania „białe mają przewagę” (naprawdę dzieje się tak na Twitchu), to nawet, gdy byłeś do tej pory ostrożny w osądach, zaczynasz się martwić, czy lewoskrętni potentaci Big Tech, zastępy moderatorów o kolorowych włosach i cała reszta nienawidzących wolności słowa hunwejbinów, w końcu dopadną ciebie i twoje swobody internetowe i obywatelskie zresztą też.

 

Tak od dawna czują się i głośno o tym mówią przedstawiciele amerykańskiej prawicy. Twitter ocenzurował wpisy prezydenta Donalda Trumpa w czerwcu dwukrotnie. Ukrył opublikowane przez niego ostrzeżenia dla demonstrujących nielegalnie i stosujących przemoc przedstawicieli ruchu Black Lives Matter za ostrzeżeniami, że prezydencki tweet „naruszył zasady Twittera” a wcześniej, że propaguje przemoc. Konserwatywne media od razu jednak zwróciły uwagę, że platforma społecznościowa nie reagowała w żaden sposób, gdy przestępcy korzystający z zamieszek po śmierci George’a Floyda koordynowali swoje łupieskie napady na sklepy za pomocą Twittera właśnie. Nawet zgłaszanie postów zamieszczonych tam przez złodziei nie pomagało.

 

Twitter pozwalał w najlepsze publikować Shaunowi Kingowi, znanemu agitatorowi neomarksistowskiego ruchu Black Lives Matter, w których nawoływał do niszczenia posągów, witraży i fresków przedstawiających „białego Jezusa”. Podwójne standardy, pisali krytycy, to na Twitterze najwidoczniej standard.

 

Wcześniej, w maju znany konserwatywny senator z Teksasu, Ted Cruz, oskarżył prezesa Twittera Jacka Dorseya o uciszanie „autentycznych politycznych wypowiedzi Amerykanów przy jednoczesnej pobłażliwości dla terrorystycznych zagrożeń ze strony Iranu”. Wezwał Departament Sprawiedliwości i Departament Skarbu do wszczęcia dochodzenia karnego w związku z zarzutami, że Twitter łamie sankcje USA wobec Iranu, które zabraniają amerykańskim firmom dostarczania towarów i usług dla najwyższych urzędników Iranu. Mówiąc konkretniej chodzi o to, że Twitter pozwala irańskim przywódcom na posiadanie kont na swojej platformie.

 

Nie po raz pierwszy Cruz poruszył temat wątpliwych z punktu widzenia amerykańskich interesów narodowych działań Twittera. W lutym z jego inicjatywy wysłany został list od republikańskich senatorów do Dorseya, wzywający firmę do zakazania działalności irańskim przywódcom, w tym Alemu Chamenei i irańskiemu ministrowi spraw zagranicznych Mohammadowi Javadowi Zarifowi. W odpowiedzi Twitter oświadczył, że jego serwis jest zwolniony z sankcji i że udostępnienie jego technik komunikacji ma krytyczne znaczenie w dobie pandemii koronawirusa.

 

Komentatorzy przypominają jednak, że należąca do Facebooka platforma mediów społecznościowych Instagram zablokowała wcześniej konta wielu irańskich urzędników, w tym członków Korpusu Strażników Rewolucji Islamskiej i najwyższego przywódcy ajatollaha Chamenei, dostosowując się do wymogów sankcji USA. Co ciekawe Instagram skasował wówczas także angielskojęzyczne konto Ghassema Soleimaniego z 888 tysiącami śledzących. Kilka miesięcy później amerykańskie oddziały zrobiły z nim w Iraku to samo w realu.

 

Przedwyborcza czystka konserwatywnych influencerów

 

Zuckerberg, do którego jeszcze wrócimy, jak widać wykazuje znacznie większą chęć współpracy niż Jack Dorsey z Twittera, który m. in. proponuje „redagowanie tweetów światowych liderów”, przede wszystkim, jak należy się domyślać, takich przywódców jak Trump, bo chyba nie irańskich. Robić to chce pod hasłem „walki z dezinformacją” i o tym, co ową dezinformacją jest, decydować ma oczywiście administracja Twittera, która niestety nie zdołała do tej pory udowodnić, że jest politycznie bezstronna. Można powiedzieć, że wręcz przeciwnie, o czym świadczy seria cenzurowania i banów, których ofiarą padają w żądnym razie nie lewicowi, lecz prawicowi politycy, dziennikarze i inni przywódcy opinii.

 

A że ludzie Twittera maszerują w jednym szeregu z bełkotliwymi hasłami neomarksistoskiej rewolucji, świadczy wiele faktów, choćby niedawna, pochodząca z początku lipca, informacja o rugowaniu z języka technicznego i korporacyjnego w tej firmie takich słów jak „Whitelist” (bo rasizm), „Man Hours” (bo męski suprematyzm) i „He, Him, His” (bo niezgodne z genderową ortodoksją).

 

Jedna z najnowszych ofiar lewicowej ofensywy cenzorskiej administracji Twittera, to między innymi Logan Cook, aka CarpeDonktum, autor popularnych memów naśmiewających się z Demokratów, mediów i establishmentu, który w czerwcu został permanentnie zawieszony. Zdaniem samego Cooka, tłumaczenia Twittera o „naruszaniu praw autorskich” to tylko pretekst a prawdziwą przyczyną było udostępnienie przez Donalda Trumpa kpiącej z CNN, genialnej swoją drogą, parodii autorstwa CarpeDonktum pt. „CNN Toddlers”, co doprowadziło  lewicowych dziennikarzy do szału.

 

Mollie Hemmingway, która pracuje dla „The Federalist”, a ostatnio była przedmiotem cenzury ze strony serwisów zarządzanych administrowanych przez Big Tech, zauważyła, komentując w internecie represje cenzorskie, jakie spotkały Cooka, że przed wyborami w mediach społecznościowych trwa czystka konserwatywnych influencerów.

 

Głowice wycelowane, TikTok zbanowany

 

 

 

Być może wielu czytelników o bardziej tradycyjnych nawykach medialnych myśli, że to co opisują, te wszystkie wojny w mediach społecznościowych i o media społecznościowe, bany, zakazy i zdejmowanie treści, to wszystko rzeczy mało poważne, ot jakieś nieistotne przepychanki na Twitterku i Fejsiku, którymi dorośli i rozsądni ludzie się nie zajmują. Radziłbym jednak takim osobom nieco „zaktualizować” swoje podejście, bo już od dłuższego czasu jest błędne.

 

Jakby to wyjaśnić? Może tak – jeśli ktoś myśli, że media społecznościowe to tylko zabawy, śmieszne koty i podobne dyrdymałki, to niech przyjrzy się niedawnej sekwencji wydarzeń wokół TikToka, postrzeganego, nawet wśród wytrawnych internetowców, jako niezbyt mądry przepalacz czasu nastolatków. W ciągu ostatnich kilku tygodni przy akompaniamencie surm bojowych i granicznych konfliktów zbrojnych Indie zakazały u siebie chińskiego TikToka (podobnie jak prawie sześćdziesięciu innych aplikacji i serwisów produkcji chińskiej). Ponieważ to właśnie w Indiach chińska appka miała najwięcej użytkowników (bo w Chinach zamiast niej jest ściśle cenzurowana wersja TikToka – Douyin), dalsze losy błyskotliwie rozwijającej się społecznościówki są mocno niepewne, ale mniejsza z tym. Najważniejsze, że ten głupawy TikTok stał się ważnym elementem rywalizacji mocarstw atomowych. Daje do myślenia?

 

Chyba tak, zwłaszcza, że w USA też może mieć kłopoty. Sekretarz stanu USA Mike Pompeo potwierdził niedawno, że Waszyngton rozważa wprowadzenie zakazu używania chińskich aplikacji społecznościowych, w tym popularnego także wśród młodych Amerykanów TikToka. Rozmawiając z Fox News, Pompeo powiedział, że „na pewno patrzymy na zakaz TikToka i innych chińskich aplikacji, idąc za przykładem Indii oraz Australii, która zagroziła, że zrobi to samo”. Jak dodał Amerykanin powinien korzystać z tej aplikacji „tylko wtedy, gdy chce, aby jego dane znalazły się w rękach Komunistycznej Partii Chin”.

 

Myślicie, że to spiskowa teoria i oszołomstwo? Jednak może niekoniecznie. Specjaliści Apple, poprawiając zabezpieczenia w systemie iOS 14 przyłapali TikToka szpiegowaniu, mówiąc dokładnie na pozostawianiu w kodzie luki pozwalające na kopiowanie prywatnych treści użytkownika. TikTok stanął w rosnącym szeregu chińskich firm technologicznych, w których produktach znaleziono software’owe lub hardware’owe artefakty, które mogą służyć do gromadzenia i przesyłania danych „do centrali”.

 

Wciąż myślicie, po tym jak czytacie, że rząd Indii i Australii banuje a szef dyplomacji największego mocarstwa rozważa ban, że to tylko nieistotne dyrdymałki z głupimi fotkami i filmikami?

 

Facebook: mowa nienawiści OK, jeśli wspiera LGBT i atakuje białych heteroseksualnych mężczyzn

 

O tym, że ludzie zarządzający media społecznościowymi i zespoły moderujące mają lewicowe skrzywienie polityczne niby wiemy, bo niejednokrotnie widzieliśmy nierówne traktowanie na tych platformach, podwójne standardy i wrogość wobec treści o charakterze prawicowo-konserwatywnym. Jednak nie pogardzimy bezpośrednią relacją z sabatów czarownic. A taka niedawno się w USA pojawiła.

 

„To my rządzimy tą grą,” wyjaśnia w publikacji grupy prawicowych aktywistów znanej jak Project Veritas (tzw. Veritas Exposé) Ryan Hartwig były moderator treści na Facebooku. Mówi o „ostrych uprzedzeniach wobec konserwatystów” w zespole odpowiadającym za administrację i moderację treści na błękitnej platformie.

 

Widziałem, jak wtrącali się w wybory. Widziałem rażące skrzywienie polityczne przeciw konserwatystom i całkowite faworyzowanie liberałów (czyli, w rozumieniu amerykańskim, lewicy – przyp. M.U.)”. Hartwig nosił w biurach Facebooka ukrytą kamerę, za pomocą której dokumentował praktyki wewnątrz firmy. W wywiadzie z szefem Project Veritas, Jamesem O’Keefe, Hartwig powiedział, że, chociaż podpisał umowę o poufności, nie może już dłużej ignorować tego co tam się działo, czyli nieustannej walki zespołu Facebooka z treściami pozytywnymi dla prezydenta Donalda Trumpa, republikanów lub szerzej konserwatywnych poglądów, zwłaszcza, że stało to w całkowitej sprzeczności z głoszoną przez szefostwo Facebooka oficjalnie linią „neutralności”

 

Jak mówi Hartwig, ta hipokryzja była dla niego punktem zwrotnym. W dodatku, jak wyjaśnia, wiedział „prawdopodobnie to samo dzieje się to gdzie indziej, w skali światowej”. „Te rażące uprzedzenia polityczne ludzi z Facebooka naprawdę mi przeszkadzały,” mówi.

 

Wśród nagranych przez Hartwiga był niejaki Israel Amparan, który pracował jako moderator treści, choć w rzeczywistości prowadził wściekłą wojnę z ludźmi, którzy mieli inne niż on poglądy, czyli ze zwolennikami prezydenta Trumpa. A ponieważ to on decydował o tym, co jest banowane, ukrywane, tępione i uznawane za nieodpowiednie, to chyba zrozumiałe, że o obiektywnej moderacji nie było mowy. Jak relacjonuje Hartwig, taka postawa i poglądy cechował niemal 100 proc. ludzi Facebooka, z którymi on miał do czynienia. Podobną do Hartwiga w wymowie relację z tego co dzieje się w zespołach moderacyjnych Facebooka przekazał Project Veritas inny whistleblower, Zach McElroy.

 

W relacjach tych jest jeden ciekawy motyw. Jest to historia o tym jak Shawn Browder, kierownik ds. polityki i szkoleń w Cognizant (podwykonawcy odpowiedzialnego za moderację treści Facebooka), powiedział wszystkim moderatorom treści w sekcji Hartwiga w 2018 r., że „mowa nienawiści” w podczas tzw. Pride Month ma być tolerowana przez moderatorów, jeśli będzie wspierać LGBT. Czyli, mówiąc w skrócie hejt skierowany przez jednostkom lub grupom ludzi będzie dozwolony, jeśli będzie wspierał tęczową ideologię. A już najmilej były widziane przez szefostwo hejterskie ataki na heteroseksualnych białych mężczyzn.

 

Ostatnio, trochę w odróżnieniu Twittera, który zdaje się zdecydowanym krokiem maszerować pod flagą z sierpem i młotem, polityka Facebooka, przynajmniej na zewnątrz, stała się bardziej złożona. Jest on np. ostatnio pod silnym naciskiem wielkich korporacji, aby wprowadzić aktywne sposoby „walki z hejtem” na platformie. Koalicja wielkich reklamodawców, z Coca-Colą, Fordem, Starbucksem i wieloma innymi wielkimi firmami, wycofując ostrzegawczo reklamy z Facebooka, nie wskazuje dokładnie, jakie treści ma na myśli, zatem można rozumieć, że po prostu domaga się od Zuckerberga wprowadzenia cenzury politycznej, zwłaszcza, że wkrótce wybory prezydenckie.

 

 

Co zrobi Mark i spółka pod naciskiem opanowanego przez lewicowe miazmaty potężnego korpo-lobby, jeszcze nie wiadomo. Jednak to, co dzieje się ostatnio wokół TikToka, w Indiach i być może w USA, może być niespodziewanym kołem ratunkowym dla popadającego od dłuższego czasu w coraz większe problemy Facebooka. W Indiach gwiazdy TikToka przenoszą się na Instagram a to też przezcież Facebook. Zatem Zuckerberg korzysta na walce konserwatystów z chińskimi produktami. Wprawdzie widać, że zarówno jemu, jak i całokształtowi osobowo-wizerunkowemu jego błękitnej platformy, serce bije po lewej stronie, to jednak korzyści i konfitury mogą tym razem nadejść z prawej. A kto nimi pogardzi?

 

Zwłaszcza, że konserwatyści zaczęli tworzyć wreszcie chyba całkiem udane konkurencyjne wobec znanych społecznościówek formy. I przenoszą tam stopniowo polityczne dyskusje w Internecie. Najnowszym ciekawym przykładem jest serwis Parler, który w odróżnieniu od wcześniejszych nieskrzywionych lewicowo produktów społecznościowych, wydaje się technologicznie całkiem udanym produktem. W ramach kampanii pod hasłem #Twexit przeniosła się tam całkiem spora grupa wyrzuconych z Twittera konserwatystów, m. in wspominany Ted Cruz. Parler nie będzie konkurował oczywiście z Instagramem czy TikTokiem (na razie), ale, jeśli przekroczy masę krytyczną, to tam mogą toczyć się najciekawsze dyskusje społeczno-polityczne, kosztem Twittera i Facebooka.

 

Szanujesz życie wszystkich ludzi – posługujesz się „mową nienawiści”

 

Wytrychem i łomem zarazem, którymi lewoskrętny Big Tech walczy z ludźmi myślącymi inaczej są pojęcia takie jak „mowa nienawiści” i podobne, które nie mają żadnego precyzyjnie ustalonego znaczenia. Mają za to „znaczenie sterowane”, czyli takie, jakie w danym momencie jest wygodne i potrzebne do np. represjonowania osoby niewygodnej o niesłusznych poglądach i postawie. Kto zna historię totalitaryzmu komunistycznego, ten ma pełno skojarzeń.

 

Przykładem, że pojęcie „mowa nienawiści” nie znaczy nic, niech będzie historia Mike’a McCullocha, wykładowcy matematyki na Uniwersytecie w Plymouth, który został wezwany na dywanik przez hunwejbinów ze swojej uczelni za polubienia Twitterze słów „All Lives Matter”. Tak oto McCulloch został oskarżony o „mowę nienawiści” za polubienie humanistycznego hasła o poszanowaniu życia wszystkich ludzi.

 

Inny przykład bolszewickiego szaleństwa to oskarżenie feministki Posie Parker również o „mowę nienawiści” za to, że zainicjowała na Change.org petycję domagającą się od Oxford English Dictionary zachowanie w definicji „kobiety” w słowniku, w kształcie opisującym ją jako istotę ludzką płci żeńskiej.

 

Jak napisał kilka dni temu w brytyjskim „Spectatorze” Toby Young czeka nas prawdziwe „tsunami cenzury” ze strony sił różnie nazywanych. Jedno określają ich angielskojęzycznym słowem „woke” inni używają tradycyjnego i całkiem trafnego słowa „lewica”. Ja proponuję jeszcze bardziej i lepiej oddające charakter tych agresywnych, wrogich nauce i rozumowi, szaleńców – „bolszewizm”.

 

Young, chcąc zilustrować, z kim będziemy mieć do czynienia, opowiada przypadek Nicka Buckleya, który został zwolniony z pracy w organizacji charytatywnej w Manchesterze za napisanie postu na blogu, w którym zakwestionował część haseł Black Lives Matter, w tym te konieczności „demontażu kapitalizmu”. Gdy opublikował swój post na LinkedIn, „poeta” i aktywista tego bolszewickiego ruchu, niejako Reece Williams napisał następujący komentarz: „Zrobimy wszystko, co w naszej mocy, aby usunąć pana ze stanowiska. Oczekuj nas”. Jak pisze Young, Buckley nie przejął tym się szczególnie, gdyż organizację charytatywną, którą zarządzał założył sam i jego praca była wysoko oceniana i nagradzana. Nie doceniał poziomu wpływów maoistów we współczesnej Wielkiej Brytanii. Cóż, może powinien się cieszyć, że uszedł z życiem. Za kilka lat bolszewicy spod znaku BLM mogą się już nie zadowalać samym wyrzuceniem z pracy.

 

Zagrożenie tym szaleństwem dostrzeli nawet tradycyjnie lewicowi lub „liberalni” intelektualiści, którzy zatrwożeni bezmyślnością i totalitarnymi zapędami agresywnych neomarksistów opublikowali na łamach „Harper’s Magazine” list w obronie wolności słowa. Na liście sygnatariuszy takie nazwiska jak Noam Chomsky, Wynton Marsalis, J.K. Rowling, Salman Rushdie, Francis Fukuyama, Garry Kasparov, Anne Applebaum.

 

Cóż, miło że ludzie, którzy mają wielkie zasługi (no, może nie wszyscy z sygnatariuszy, ale spora ich część) w tworzeniu i karmieniu tego potwora, który wyrósł na rosłego bolszewickiego byczka, który w oczach ma nienawiść a w rękach chęć totalnego niszczenia, reflektują się poniewczasie, że nie o to im chodziło. Nawiasem mówiąc, nie odmawiają sobie, w tej swojej epistole, rytualnego kopa wymierzonego w Donalda Trumpa. Wiedzą co robią. Bez ataku na Trumpa mogliby zostać oskarżeni o „mowę nienawiści”.

 

Mirosław Usidus

Dużo zdrowia i prywatności – MIROSŁAW USIDUS o inwigilacji

Nie wiem jak wyglądają testy na wirusa permanentnej inwigilacji, ale wiem, że przeprowadza się ich zdecydowanie za mało. Dlatego tak mało ludzi rozumie, jak bardzo zostało przez niego zainfekowanych.

 

Mark Zuckerberg, założyciel Facebooka, powiedział kiedyś, że prywatność to stosunkowo nowy pomysł, który nie ma więcej niż kilkaset lat, najwyżej dwa tysiące. Wcześniej ludzie żyli w grupach skupionych wokół ogniska, w których wszyscy robili nieomal wszystko na oczach innych członków wspólnoty pierwotnej. Jego platforma wraz z Google od lat robi wiele, abyśmy do owej wspólnoty pierwotnej bez tajemnic i prywatności wrócili. Koronawirus może wielu złowróżbnym pomysłom i tendencjom bardzo pomóc.

 

Epidemia spowodowała, że wiele metod inwigilacji, które dotychczas były, zwłaszcza w krajach demokratycznych, nie do przyjęcia, zyskało wyższy poziom społecznej akceptacji. Obrońcy prywatności ostrzegają, że niestety, po tym, jak koronawirus odejdzie, wiele nowo wprowadzonych technik nadzoru może nie odejść wraz z nim.

 

Chiny już w styczniu zmobilizowały swoje masowe narzędzia monitoringu społeczeństwa, od dronów po kamery CCTV, do monitorowania osób poddanych kwarantannie i śledzenia rozprzestrzeniania się koronawirusa. Inne państwa, takie jak Izrael, Singapur i Korea Południowa, również sięgnęły pełną garścią po łączone dane o lokalizacji, nagrania z kamer wideo i informacje z kart kredytowych, aby śledzić rozprzestrzenianie się COVID-19. Eksperci ds. ochrony prywatności, pomimo szczególnych warunków wyrazili obawy dotyczące sposobów, w jaki rządy wykorzystują te dane, jak są one przechowywane oraz możliwości władz w zakresie utrzymania zwiększonego poziomu nadzoru, już po zakończeniu pandemii.

 

Chińskie standardy idą w ślad za pandemią

 

W Chinach w pewnym momencie dostanie się do swojego mieszkania lub miejsca pracy wymagało zeskanowania kodu QR, zapisania swojego nazwiska i numeru identyfikacyjnego, temperatury i historii ostatnich podróży. Operatorzy telekomunikacyjni śledzili przemieszczanie się ludzi, podczas gdy tamtejsze platformy mediów społecznościowych, takie jak WeChat i Weibo, uruchomiły gorące linie dla ludzi chcących zgłaszać osoby podejrzane o złapanie infekcji. Niektóre miasta zaoferowały ludziom nagrody za informowanie o chorych sąsiadach.

 

Drony napominały Chińczyków by nosili maski. Mieszkańcy Chin dostarczali dowody fotograficzne, bądź też opowiadali amerykańskiej telewizji CNBC w wywiadach, że przed ich domami instalowano kamery monitoringu w celu egzekwowania kwarantanny. Chińskie firmy wprowadzały technologię rozpoznawania twarzy, która może wykryć podwyższoną temperaturę w tłumie ludzi lub oznaczyć obywateli nie noszących maski. Szereg aplikacji wykorzystuje prywatne informacje o zdrowiu obywateli, aby ostrzegać innych o bliskości z zainfekowanymi pacjentami lub o tym, czy byli oni w bliskim kontakcie z innymi zakażonymi.

 

Zintensyfikowany nadzór jest już „nową normą” w Chinach. Pytanie czy w Chinach jest ogóle taki poziom inwigilacji, którego ludność nie zechce tolerować,” skomentował sytuację w mediach Stuart Hargreaves, profesor Chińskiego Uniwersytetu w Hongkongu.

 

Chiny w tej dziedzinie trudno wyprzedzić, ale wiele krajów wprowadziło rozwiązania idące śmiało w kierunku chińskich standardów inwigilacyjnych. Amerykańskie Centers for Disease Control and Prevention zaczęło w marcu śledzić miliony obywateli USA, używając danych z telefonów komórkowych, po otrzymaniu od gigantów IT o dostęp do lokalizacji telefonów komórkowych Amerykanów. W ten sposób rząd zdobył możliwość śledzenia lokalizacji każdego Amerykanina i sprawdzenia, np. czy przestrzega zasad „społecznego dystansu”.

 

Z podobną prośbą do operatorów telefonii komórkowej zwróciła się Komisja Europejska. Zarówno we Francji, jak i w Niemczech firmy te przekazywały takie dane już wcześniej. W Wielkiej Brytanii uznano, że praktyka ta będzie zgodna z prawem, dopóki dane nie zostaną zidentyfikowane. Wprawdzie UE ma niezwykle surowe i ścisłe przepisy o ochronie danych osobowych, ale jak się okazuje przetwarzanie ich jest uzasadnione w ramach aktu GDPR „w celach humanitarnych, w tym w celu monitorowania epidemii”.

 

Kraje takie jak Korea Południowa zdołały powstrzymać wybuch epidemii w sposób, którego Europa nie może skopiować, poprzez śledzenie kontaktów w celu mapowania zarażenia na poziomie poszczególnych osób. Aby mieć taką możliwość w Europie, rządy musiałyby naciskać na nowe nadzwyczajne przepisy  lub skłonić użytkowników do dobrowolnego dzielenia się z nimi na masową skalę informacjami o sobie. Forsowane jest oprogramowanie znane pod nazwą „Pan-European Privacy Preserving Proximity Tracing”, zaprojektowane w taki sposób, aby za pomocą Bluetooth w smartfonie można było skanować i rejestrować lokalizację osób znajdujących się w pobliżu, a dokładniej mówiąc – przenoszonych przez nie telefonów. Jego twórcy twierdzą, że mają nadzieję, iż państwa UE będą mogły używać go jako silnika w przyszłych aplikacjach do śledzenia kontaktów.

 

We Włoszech urzędnicy wykorzystali anonimowe dane od operatora Vodafone, a mapowanie danych w swoim czasie wykazało np., że miliony osób w newralgicznym regionie Lombardia nadal przemieszczają się poza swoimi domami. Potem to się zmieniło a wiedza o tym również pochodziła z inwigilacji komórek.

 

Moskwa nie wierzy łzom, wierzy kamerom

 

Premier Izraela Benjamin Netanyahu upoważnił Izraelską Agencję Bezpieczeństwa do wdrożenia do śledzenia chorych na koronawirusa technologii nadzoru zwykle zarezerwowanej dla walki z terrorystami. Co więcej, Izrael wykorzystuje swoją jednostkę wywiadowczą Shin Bet, zwykle zajmującą się terroryzmem, do śledzenia potencjalnych zarażonych koronawirusem za pomocą danych telekomunikacyjnych. Kiedy właściwa podkomisja parlamentarna odmówiła zatwierdzenia tego środka, Netanyahu przeforsował go „dekretem nadzwyczajnym”. Jego rząd wskazał koronawirusa jako kwestię „żywotnego bezpieczeństwa narodowego”, pozwalając izraelskiej Agencji Bezpieczeństwa Wewnętrznego na korzystanie z nieujawnianej wcześniej bazy danych zawierającej bardzo szczegółowe informacje dotyczące telefonów komórkowych. Śledząc przemieszczanie się i komunikację całej ludności, władze dysponują większą liczbą narzędzi pozwalających na śledzenie działań wszystkich zarażonych osób w przeszłości i ostrzeżenie każdego, kto mógł być narażony na kontakt z potencjalnym nosicielem.

 

W Rosji miasto Moskwa uruchomiło sieć kamer monitorujących ze zdolnością rozpoznawania twarzy tuż przed dotarciem epidemii do Rosji, ignorując protesty i skargi prawne. Stolica Rosji miała już wcześniej gęstą sieć 170 tysięcy kamer bezpieczeństwa, ustawionych na ulicach i stacjach metra w całym mieście w ciągu ostatniej dekady. Obecnie sto tysięcy z nich zostało podłączonych do systemów sztucznej inteligencji, które potrafią identyfikować filmowanych ludzi. Moskiewska policja informowała o rozpoznaniu setek ludzi dziennie łamiących zasady kwarantanny.

 

Rosyjska technologia rozpoznawania twarzy została po raz pierwszy przetestowana podczas Mistrzostw Świata w Piłce Nożnej w 2018 roku, a następnie w pełni uruchomiona w styczniu, tuż przed uderzeniem pandemii. „Prawdopodobieństwo popełnienia błędu przez nasz algorytm rozpoznawania twarzy wynosi 1 na 15 milionów,” chwalił się Aleksander Minin, dyrektor generalny NtechLab, firmy, która wygrała przetarg miasta na dostawę technologii. Urządzenia jej produkcji, które zostały wyeksportowane m. in. do Chin i Ameryki Łacińskiej, mogą zidentyfikować kogokolwiek z „80-procentową pewnością, ”mówił Minin AFP na początku roku.

 

Urzędnicy w Hongkongu zmuszali wszystkich przybywających do miasta do noszenia opaski lokalizacyjnej, natomiast władze Tajwanu umieszczały wokół domów ludzi poddanych kwarantannie elektroniczne płoty, służące do wykrywania wyłączeń telefonów. Mniej hi-techowe rozwiązania zastosowano w Indiach, gdzie stemplowano ręce ludzi przybywających na lotniska, mówiąc im, jak długo muszą być poddani kwarantannie. Dane dotyczące rezerwacji z linii lotniczych i pociągów były monitorowane w celu upewnienia się, że osoby te nie podróżują, informował Reuters. W południowo-indyjskim stanie Kerala, władze używały mieszaniny nagrań rozmów telefonicznych, nagrań z kamer monitoringu i danych o lokalizacji telefonu do śledzenia osób, które mogły mieć kontakt z pacjentami z koronawirusem.

 

Trace Together, czyli śledźmy się pospołu

 

Na całym świecie intensywnie wdrażane są aplikacje telefoniczne, pozwalające śledzić osoby zarażone COVID-19, czy też pozostające w kwarantannie, dla ustalenia zakresu ich kontaktów i potencjalnego rozprzestrzeniania się epidemii. Rosyjska aplikacja do monitorowania zarażonych obywateli ma dostęp do połączeń, lokalizacji, aparatu, pamięci, informacji o sieci i innych danych. Wiele rządów w Azji inwigiluje obywateli przez ich telefony komórkowe, nie troszcząc się o uzyskanie jakiejkolwiek zgody. Na przykład na Tajwanie znany jest przypadek wizyty policji u obywatela 45 minut po tym, jak przestał odpowiadać jego telefon, który jak się okazało, zepsuł się. W Korei Południowej skanuje się informacje ze smartfonów obywateli, aby w ciągu 10 minut znaleźć osoby, które mogły zarazić się wirusem. Władze posunęły się dalej – gromadzą nie tylko dane z telefonów komórkowych i GPS, ale także dotyczące transportu publicznego, kart kredytowych, kwestii imigracyjnych.

 

Opcją uznawaną za ekstremalne jest narzędzie programowe oferowane przez izraelską firmę szpiegowską NSO Group. Przewiduje, że rządy będą wymagać od operatorów telefonii komórkowej wszystkich danych dotyczących ruchu dowolnego abonenta. W Indiach władze wprowadziły obowiązkową aplikację pod nazwa Aarogya Setu do śledzenia kontaktów wszystkich pracowników sektora publicznego i prywatnego. Aplikacja ocenia ryzyko infekcji użytkowników na podstawie ich lokalizacji, historii medycznej i odbywanych podróży.

 

Największy rozgłos na świecie zyskała Trace Together, aplikacja rządu Singapuru, zainstalowana przez setki tysięcy osób. Korzystając z bezprzewodowej technologii Bluetooth pozwala ona zidentyfikować osoby, które znalazły się w odległości dwóch metrów od pacjenta z pozytywnym wynikiem COVID-19 przez co najmniej pół godziny. Twórcy aplikacji zapewniają, że nie zbiera ona żadnych danych geolokalizacyjnych ani innych danych osobowych, co czyni ją teoretycznie przyjazną dla zasady prywatności. Rząd Singapuru udostępnia kod dla tej aplikacji jako open-source, co oznacza, że może ona być modyfikowana i wykorzystywana przez deweloperów na całym świecie do śledzenia ludzi.

 

Massachusetts Institute of Technology opracował z kolei aplikację o nazwie „Private Kit: Safe Paths”, w której użytkownicy mogą aktualizować informacje o sobie, a następnie deklarować, czy mają koronawirusa, czy nie. Ich lokalizacja i ruch jest rejestrowany. Jest on jednak zapisywany w telefonie w formie zaszyfrowanej i nie jest udostępniany osobom trzecim bez zgody. Ludzie mogą otrzymywać powiadomienia o tym, czy byli w pobliżu kogoś z koronawirusem, ale nie dadzą użytkownikowi dokładnego imienia i nazwiska ani tożsamości osób, w przeciwieństwie do niektórych obecnych rozwiązań rządowych. Jednak aby aplikacja była skuteczna, wymaga masowego stosowania.

 

Odfiltrowany w bańce i podany na talerzu

 

Inwigilacyjne story nie zaczęło się wraz pandemią. Problem inwazji na prywatność czy wręcz brutalnego szpiegowania jest znany od lat. A opisy systemów wprowadzanych np. w Chinach od dawna mrożą krew w żyłach.

 

Na wiele miesięcy przed epidemią pojawiły się informacje, że w ramach wprowadzania systemu kredytu społecznego obywatele Chin będą musieli przejść skanowanie twarzy, zanim będą mogli uzyskać dostęp do Internetu w swoich domach lub na smartfonach. Nowe przepisy chińskiego Ministerstwa Przemysłu i Technologii Informacyjnych miały, jak podawały media, wejść w życie  od grudnia, czyli właśnie wtedy gdy wybuchła w kraju środka epidemia. Wstrzymała te zmiany, wprowadzając dużo ostrzejsze rozwiązania inwigilacyjne.

 

Patrzymy krytycznie na chiński system inwigilacji, firmy i produkty stamtąd pochodzące, ale czy w tzw. „wolnym świecie” prywatność internautów jest zasadniczo wyżej ceniona? Można wątpić, zwłaszcza gdy słyszy się o takich historiach, jak ta ujawniona w 2018 r. przez TechCrunch, o tym, że Facebook po cichu płacił nastolatkom za instalację VPN i możliwość całkowitego śledzenia ich aktywności. Informacje o tym wzbudziły sporą irytację w USA. Senator Josh Hawley skomentował to na Twitterze: „Chwila. Facebook PŁACIŁ nastolatkom za instalację aplikacji nadzorującej na ich smartfonach bez poinformowania ich, że Facebook będzie mógł ich szpiegować? Część z tych dzieciaków miała po 13 lat. Czy jesteście poważni?”. Zamiast wyciągnąć wnioski po przyłapaniu na szpiegowaniu użytkowników przy pomocy rzekomo zapewniającej prywatność aplikacji Onavo VPN, Facebook przerobił szpiegującą appkę w taki sposób, by obejść ochronę użytkowników iPhone’ów wprowadzoną przez Apple.

 

Niektórzy  tłumaczą uporczywe wracanie Facebooka do szpiegowskich praktyk, pomimo kolejnych skandali, samą naturą platform społecznościowych, które nie mogą inaczej funkcjonować jak tylko przez inwigilowanie użytkowników.

 

W Chinach to rząd wykorzystuje dane, nie tylko z sieci, do kontroli ludności kraju. Zbudował zaporę ogniową oddzielającą Chiny od reszty Internetu, zastępując zablokowane globalne usługi lokalnymi wersjami, które ściśle kontroluje. Tworzy całościowy cyfrowy profil działań, powiązań, wypowiedzi, przemieszczania się i wykroczeń każdego obywatela. Na tej podstawie Chińczycy otrzymują „punkty” w systemie parametryzacji obywateli i tzw. „kredytu społecznego”. Idą za tym konkretne nagrody bądź kary. System już teraz może zakazać obywatelowi np. podróżowania za granicę. Podobno już dwadzieścia lub więcej milionów osób dodano tam do „czarnej listy”.

 

Jednak rewelacje związane z działalnością Cambridge Analytica i Facebooka pokazują, zachodnie korporacje i potentaci ery cyfrowej mają nie mniejszy niż chińskie władze apetyt nasze dane. Doniesienia medialne i przesłuchania Marka Zuckerberga w amerykańskim Senacie, pokazały, jak wielki jest poziom manipulacji danymi ze strony gigantów internetowych i jak mało o tym wiemy my i nasi demokratycznie wybrani przedstawiciele.

 

Dzieci dorastają w świecie, w którym wszystko jest połączone, widzialne, współdzielone. To pierwsze pokolenie, którego całe życie staje się cyfrowym zapisem, profilem, który można wyszukać i podejrzeć. Wszystko, co robią młodzi, jest rejestrowane. Nie tylko rzeczy, o których wiedzą, że są rejestrowane, ale mnóstwo i innych informacji, od nagrań z kamer bezpieczeństwa do wyników szkolnych, zdjęć z dyskoteki, nagrań ze sklepu, gdy nielegalnie kupują alkohol po oczywiście całą historię wyszukiwania w Internecie, syntezy badawcze ich upodobań i ich diagramy relacji społecznościowych. Chociaż nie wszystkie te informacje można jeszcze przeszukiwać i mogą jeszcze (na razie) być prywatne, to jednak istnieją w bazach i zapisach cyfrowych i będą zawsze istniały.

 

Trzeba zakładać, iż komputery przyszłości mogą mieć możliwość przeszukiwania całego naszego „życiorysu cyfrowego”, a hipotetyczne komputery kwantowe będą mogły złamać każde szyfrowanie. Nagle wszystkie drzwi mogą się otworzyć. Oczywiście, można się z tą wizją spierać i wierzyć, że tak się nie stanie, ponieważ większość tych danych jest prywatna, jest bezpieczna. Demokratyczne systemy zapewniają kontrolę i równowagę, chroniąc nas przed koszmarami w stylu Wielkiego Brata. Ale tak jest teraz. Co będzie za kilka dekad? Do inwigilacji i kontroli obywateli, jak widać po rozlicznych przykładach, dążą nie tylko Chiny. Sporo niepokojących rzeczy w tej mierze dzieje się w starych i stabilnych demokracjach Zachodu, zaś obywatele jak np. w Szwecji w imię wygody pozwalają się chipować, niewiele myśląc o prywatności.

 

Powiązane jest z tym zjawisko odfiltrowywania Internetu, z angielska zwane „filter buble”, czyli „odfiltrowana bańka” jest efektem rozwoju i doskonalenia platform typu Google, jak również serwisów społecznościowych, a polega na tym, iż Internet, z którego, na co dzień korzystamy, we wszystkich jego aspektach, jest coraz bardziej spersonalizowany, serwowany dla nas, zgodnie z danymi, które wprowadzamy do sieci, rzeczami, których szukamy i często odwiedzamy. Jesteśmy przez to coraz precyzyjniej „targetowani” (czytaj – śledzeni). Zaś Internet, który widzimy nie jest jakimś dowolnym, pierwszym, nomen omen, wolnym Internetem. Jest internetem, który według mechanizmów filtrujących, chcemy oglądać.

 

Odfiltrowany świat, owa „bańka”, w której poruszamy się w internecie ma swoje zgrabne określenie wśród internetowych marketingowców – targetowanie behawioralne. W rzeczywistości rzecz cała nie różni się od znanego od dawna szpiegostwa, namierzania i wystawiania ludzi. Materiał zebrany przez „szpiegów” w świecie cyfrowym jest realnym zapisem zachowań człowieka-użytkownika. I tym się różni od np. odpowiedzi na pytania w kwestionariuszu. Jeszcze dokładniejszy cyfrowy profil człowieka powstaje, gdy internetową historię łączy się z innymi danymi, np. trasami, którymi się porusza, sklepami, w których kupuje a także tym, co kupuje. Wielka część tych danych jest powszechnie dostępna: zbierają je firmy, Zarówno te wielkie jak i małe, władze państw, dostawcy Internetu, oszuści, spamerzy oraz wiele innych podmiotów i osób.

 

Oczywiste jest również, że w przyszłości będzie również więcej ataków cybernetycznych, więcej działań związanych z wojną informacyjną. Cały opisywany wyżej „życiorys cyfrowy” człowieka, jego historia, numer telefonu adres email może zostać zhakowany a dane sprzedane lub udostępnione służbom innych państw lub przestępcom. Nagle ktoś, jakiś rząd, gang, armia, mają na talerzu całą twoją przeszłość i teraźniejszość, wszystkie tajemnice, i są w stanie znaleźć w niej rzeczy, o których nawet ty zapomniałeś. Dalej idzie szantaż, wymuszenie współpracy lub nawet porwanie i uwięzienie.

 

Internet szpiegujących rzeczy

 

Od lat już wskazuje się, że targetowanie i szpiegowanie w Internecie, jaki znaliśmy, może okazać się niewinną wprawką przed tym co może przynieść wszechobecność Internetu Rzeczy (IoT). Nie chodzi tylko o groźbę śledzenia dosłownie na każdym kroku, co mieszkańcy miast z systemami monitoringu odczuwają na własnej skórze. Sieć połączonych inteligentnych gadżetów, czujników i innych urządzeń to także nowe niebezpieczeństwa i nowe pole działania dla hakerów, cyber-kryminalistów.

 

Internet rzeczy, często utożsamiany z urządzeniami, które mają dostęp do sieci, to przyszłość, ale może być także ogromnym zagrożeniem. Czas, rodzaj i miejsce wykonywanej przez człowieka czynności będą mogą być w nim identyfikowane ze stuprocentową dokładnością. Na podstawie danych z podłączonych do sieci urządzeń będzie można zidentyfikować nie tylko osobę, ale i jej upodobania, zachowania i czynności. Np. na podstawie napływających z urządzeń danych algorytm wykorzystywany przez jedną z firm sprzedaży wysyłkowej przewidział, że jedna z klientek jest w ciąży – zanim ona sama się o tym dowiedziała. Sieć bystrych rzeczy budzi, ma się rozumieć, zainteresowanie służb.  James Clapper, szef amerykańskiego wywiadu, zapowiedział już w lutym 2016 roku, że w przyszłości agencje wywiadowcze mogą sięgać po dane gromadzone przez urządzenia IoT.

 

Facebook przynajmniej zwracał się do nieletnich o zgodę. Internet rzeczy nie pyta. Na początku roku 2017 niemiecki urząd regulacyjny BNetzA wycofał z rynku interaktywną lalkę „My Friend Cayla”, wskazując, że zabawka ta, „bez wiedzy rodziców może nagrywać i transmitować rozmowy dziecka”. Przestrzegał, że przy nieodpowiednio zabezpieczonym łączu Bluetooth, głos dziecka mogą podsłuchiwać obce osoby. Dodatkowo wskazano, że lalka może też służyć do przekazywania reklam. Nie tylko zresztą zabawki stwarzają zagrożenia. Pojawiają się informacje o atakach przy wykorzystaniu różnych urządzeń zaliczanych do IoT, takich jak żarówki lub ekspresy do kawy. Ich efektem jest zaś blokada dostępu do usług w sieci czy też przejęcie kontroli nad zaatakowanymi urządzeniami i użycie wbudowanych w nie kamer i mikrofonów do szpiegowania.

 

Szacuje się, że w ciągu 5-10 lat do sieci zostanie dodanych od 20 do 60 mld nowych urządzeń. Według firmy Gartner, do końca 2020 roku ma być aż 26 mld obiektów podłączonych do Internetu. Jednocześnie sieć IoT, jak okazało się w ostatnich latach, może łatwo zostać zaatakowana, przejęta i wykorzystana do różnych złowrogich celów, w tym oczywiście do inwigilacji. W styczniu 2014 roku odnotowano pierwszy udowodniony masowy atak za pośrednictwem urządzeń IoT. Ujawniono botnet posiadający ponad 100 tys. urządzeń, które pomogły rozesłać ponad 750 tys. wiadomości e-mail z linkami do programów infekujących. Co ciekawe, aż 25 proc.  tych urządzeń nie było komputerem czy smartfonem, a urządzeniem, takim jak lodówka czy telewizory typu smart TV. W wykrytej w 2016 r. luce w zabezpieczeniach znanej jako PanelShock internet rzeczy ma być już nie tylko narzędziem lecz właściwym celem ataku. Chodziło o urządzenia monitorujące i kontrolne w zakładach przemysłowych, co już jest blisko monitoringu w naszych „inteligentnych miastach”.

 

Z biegiem czasu dzięki wyszukiwarce Shodan możliwe stało się wyszukiwanie niezabezpieczonych kamer podpiętych do Internetu, takich właśnie jakie wykorzystano w 2016 r. globalnym i szeroko opisywanego ataku DDoS o nazwie Mirai  na serwery Dyn, obsługujące internet rzeczy. W tym roku pojawiła się nowa wersja botnetu. Nowa odmiana Mirai atakuje nie tylko zwykłe przedmioty — „inteligentne” routery, kamery IP itp. — ale również korporacyjne urządzenia internetu rzeczy.

 

Świat Internetu rzeczy w najbliższej przyszłości rozwijać się będzie coraz szybciej dzięki wdrażaniu sieci piątej generacji. W założeniach 5G ma umożliwić szybsze pobieranie i przesyłanie danych, mniejsze opóźnienia i większą gęstość połączeń. Jeśli chodzi o bezpieczeństwo, w zasadzie specyfikacje 5G podniosły standardy ochrony komunikacji między urządzeniami a antenami, wprowadzając pewne ulepszenia, jednak protokoły komunikacyjne 5G będą musiały współistnieć ze starszymi, takimi jak 4G, 3G czy nawet 2G. Poziom bezpieczeństwa komunikacji będzie taki jak najsłabszego jej ogniwa.

 

5G bez foliowej czapeczki

 

Piąta generacja mobilnego Internetu nie służy, jak to piszą w Internecie propagatorzy spiskowych teorii, do dystrybucji koronawirusa. Ale wiąże się z nią inny poważny problem. Steve Bellovin, profesor informatyki na Uniwersytecie Columbia, powiedział niedawno w rozmowie z „Wall Street Journal”, że 5G przynosi fundamentalne obawy o prywatność danych dotyczących lokalizacji. W przypadku sieci 5G większość anten będzie miała znacznie mniejszy zasięg, co oznacza, że określenie położenia geograficznego konkretnych użytkowników w sieci komórkowej będzie znacznie bardziej precyzyjne, co zwiększy ryzyko dla prywatności i bezpieczeństwa użytkowników, zwłaszcza tych już narażonych. Każdy, kto zyska dostęp do danych z anteny dostawcy usług internetowych, będzie w stanie dostroić naszą lokalizację znacznie dokładniej niż może to zrobić dzisiaj w ramach naszych sieci 4G.

 

Jeśli sieć komórkowa sprzedaje dane klientów, w sieci 5G brokerzy danych i reklamodawcy dostaną szybciej i o wiele precyzyjniej dane o lokalizacji użytkowników, a następnie będą mogli na bieżąco atakować reklamami z lokalnym kontekstem. Dane te mogą również umożliwić im poznanie dokładnych tras, które pokonujemy każdego dnia, a nawet budynków, do których wchodzimy. Dla marketerów człowiek opisany przez jego typowe podróże i lokalizacje to prawdziwy skarb.

 

Jeśli nałożyć na to dane z rozsianej w 5G sieci rzeczy, czujników, rejestratorów, terminali, to geo-dane wypełniają się dodatkowymi treściami. Wiadomo już nie tylko gdzie chodzimy i przebywamy, ale również – co robimy. W dodatku ten ogromny problem bezpieczeństwa w przestrzeni wypełnionej milionami niezbyt dobrze zabezpieczonych urządzeń. Warto pamiętać, że za atakami opanowującymi sprzęt typu Mirai mogą iść agresorzy typu Wannacry, czyli ransomware. Koszmarny scenariusz to złośliwe oprogramowanie, które dzięki sieci IoT porywa nas w autonomicznym pojeździe, więzi w inteligentnym biurze, wstrzymuje dozowanie leku z wszczepionego chipa lub nie wpuszcza do własnego domu bez opłacenia okupu.

 

Rabat inwigilacyjny

 

Aplikacje na telefony komórkowe już teraz zbierają szczegółowe dane o lokalizacji użytkowników na każdym ich kroku, dosłownie. Śledzą ruch samochodowy na autostradach, pieszy po ulicach i jednośladowy –na ścieżkach rowerowych. Widzą każdy krok właściciela smartfona, który myśli najczęściej, że jest zupełnie anonimowy, nawet jeśli udostępnia swoją lokalizację. Aplikacje nie tylko zbierają informacje geolokalizacyjne, ale w dodatku sprzedają te dane bez naszej wiedzy.

 

Dziennik „The New York Times” przeprowadził  ok. dwa lata temu eksperyment polegający na śledzeniu ruchów pani Lisy Magrin, zwykłej nauczycielki z okolic Nowego Jorku. Dziennikarze udowodnili, że znając numer jej telefonu można prześledzić wszystkie wojaże po okolicy, które wykonuje dzień w dzień. I choć tożsamość pani Magrin nie była podawana w danych lokalizacyjnych, to, wykonując dodatkowe wyszukiwanie, stosunkowo łatwo można było skojarzyć ją z siatką przemieszczeń. Lokalizacja bohaterki reportażu była rejestrowana w sieci ponad 8600 razy – średnio raz na 21 minut. Aplikacja śledziła ją, gdy chodziła na spotkanie Weight Watchers (grupy dbających o linię) i do biura dermatologa w celu przeprowadzenia drobnego zabiegu. Widoczny jak na dłoni był przebieg jej spaceru z psem i wizyta w domu byłej sympatii. Oczywiście, jej codzienne podróże z domu do szkoły łatwo wskazywały, jaki zawód wykonuje. Z samych tylko danych lokalizacyjnych powstaje dość szczegółowy profil pani w średnim wieku, niezamężnej, z problemem nadwagi i pewnymi problemami zdrowotnymi. To chyba sporo, choćby dla planistów reklam, ale nie tylko.

 

Firmy zbierające te dane sprzedają, wykorzystują lub analizują dane, aby zaspokoić potrzeby reklamodawców, punktów sprzedaży detalicznej, a nawet instytucji finansowych chcących mieć wgląd w zachowania konsumentów. Rynek sprzedaży celowanej geograficznie reklamy osiąga już teraz wartość ponad 20 miliardów dolarów rocznie. Wiele firm lokalizacyjnych twierdzi, że gdy użytkownicy telefonów konfigurując urządzenie, pozwalają udostępnianie lokalizacji, gra jest uczciwa. Jednak wiadomo, że gdy użytkownicy proszeni są o zezwolenie, towarzyszy temu często niekompletna lub wprowadzająca w błąd informacja. Aplikacja może np. powiedzieć użytkownikowi, że udzielenie dostępu do ich lokalizacji pomoże mu uzyskać informacje o ruchu drogowym, ale nie wspomina, że jego własne dane będą udostępniane i sprzedawane. To ujawnienie jest często zakopane w niezbyt czytelnej polityce prywatności, którą mało kto dokładnie czyta.

 

Bank, inwestorzy giełdowi, lub inne instytucje finansowe mogą te techniki wykorzystać do swoistego szpiegostwa gospodarczego, np. podejmując na ich podstawie decyzje kredytowe albo inwestycyjne, zanim firma poda oficjalne raporty o zyskach. Wiele może powiedzieć tak banalna informacja jak rosnąca lub malejąca liczba przebywających w hali fabrycznej, lub odwiedzających sklepy. Bardzo atrakcyjne reklamowo są dane lokalizacyjne w placówkach służby zdrowia. Np. Tell All Digital, firma reklamowa z Long Island, która jest klientem usług geolokalizacyjnych, informuje, że prowadzi kampanie reklamowe dla prawników zajmujących się obrażeniami ciała, skierowane anonimowo do osób przebywających na oddziałach ratunkowych.

 

Google i Facebook, które dominują na rynku reklamy mobilnej, przodują również w reklamie opartej na lokalizacji. Zbierają dane z własnych aplikacji. Zapewniają, że nie sprzedają tych danych podmiotom zewnętrznym, zachowując je dla siebie. Google poinformował, że modyfikuje te dane, aby były mniej dokładne.

 

Od niedawna branża danych lokalizacyjnych ma znacznie bardziej precyzyjne i dyskretne narzędzie – sygnalizatory bluetooth. To niewielkie nadajniki, które porozmieszczane są w wielu miejscach w sklepie aplikacja na telefonie, która komunikuje się z nimi, podając nie tylko, że klient wchodzi do sklepu, ale także, ile czasu spędza w okolicy takich a nie innych produktów. Urządzenia bluetooth namierzają z dokładnością do centymetrów w zasięgu do 50 metrów. Zużywają mało energii i nie sprawiają kłopotów w pomieszczeniach. Stają się więc coraz bardziej popularne wśród firm, które chcą precyzyjnie śledzić położenie klientów wewnątrz sklepu.

 

Służą jako tzw. „beacony” emitujące sygnał w poszukiwaniu pobliskich urządzeń. Sygnały te mogą być wykrywane przez aplikacje w telefonie, wykorzystujące system operacyjny telefonu do skanowania w poszukiwaniu pobliskich nadajników. Jeśli sygnał zostanie wykryty, można powiadomić aplikację, nawet jeśli jest zamknięta. Gdy aplikacja rozpozna sygnał, wysyła informacje (np. o produktach, w pobliżu których klient przechodzi lub działach, w których przebywa) na serwer firmy. Tam łączone są z zapisanymi danymi klienta, np. o jego dochodach i lub nawykach. W połączeniu z innymi informacjami o nim, firmy mogą zbudować bogaty profil opisujący, kim jest, gdzie jest i co kupuje – wszystko to bez jego wiedzy, ma się rozumieć. Na tej podstawie aplikacja może przesyłać reklamy lub informacje o promocjach.

 

W USA sieci sygnalizatorów bluetooth używają wielkie sieci supermarketów, takie jak Target i Walmart u nas od niedawna Lidl. Oczywiście trzeba jeszcze przekonać klienta do zainstalowania aplikacji, ale, jak wiedzą klienci Lidla, rabaty dla użytkowników aplikacji mogą ich do tego skuteczne zmotywować

 

Namierzanie bluetoothowymi beaconami to może być dopiero początek inwigilacji w sklepach. Niedawno American Civil Liberties Union (ACLU) rozpoczęła kampanię ostrzegającą przed systemami rozpoznawania twarzy w placówkach handlowych, w których, jak wiadomo, kamery monitoringu są powszechne. Podobno techniki te testowano w Wielkiej Brytanii i zainteresował się nimi Walmart. Można założyć, że istnieją sklepy na świecie, w których ta technika jest co najmniej testowana.

 

Pandemia przeminie, apetyt na prywatne dane pozostanie

 

Jeśli ktoś kojarzy te inwigilacyjny świat z opisanymi wcześniej „koronawirusowymi” aplikacjami, które dla „naszego dobra i bezpieczeństwa zdrowotnego” śledzą nas na każdym kroku, to dobrze kojarzy. Jest wiele obaw, że gdy infekcje koronawirusem sięgną już poziomu bliskiemu zeru, głodne prywatnych danych podmioty prywatne i publiczne mogą chcieć utrzymać specjalne środki, argumentując, że trzeba utrzymać systemy nadzoru ze względu na groźbę drugiej fali koronawirusa, albo dlatego, że w Afryce Środkowej rozwija się nowy szczep Ebola, albo dlatego, że… uzasadnień może być więcej.

 

Edward Snowden zwrócił niedawno uwagę na szybkie postępy technik łączenia technik monitoringu i inwigilacji ze sztuczną inteligencją, snując perspektywę powstania „policji algorytmicznej” śledzącej i ścigającej ludzi na podstawie wyłącznie maszynowego przetwarzania danych. Tak, dobrze rozumiecie, to świat, w którym „władzą” są maszyny.

 

Nie brakuje jednak opinii, że w obecnej, szczególnej sytuacji, zmuszanie ludzi do wyboru pomiędzy prywatnością a zdrowiem jest w rzeczywistości nie rozwiązaniem lecz źródłem problemu. Dlatego, że to fałszywy wybór. Możemy i powinniśmy cieszyć się zarówno prywatnością, jak i zdrowiem.

 

Mirosław Usidus

Odruch serca czy zimna kalkulacja? – MIROSŁAW USIDUS o prezentach od firm Big Tech

Ci okropni monopoliści i złodzieje prywatnych danych z Krzemowej Doliny znów są dobrzy, potrzebni, pozytywni. Ciekawe jak długo?

 

Skalę problemów mediów jak zwykle najszybciej i najdokładniej poznajemy w USA, gdzie zawsze są na czas odpowiednie badania i analizy. I tak „The New York Times” oszacował, że w wyniku kryzysu epidemicznego i wynikających z niego skutków gospodarczych, firmy działające w branży informacyjnej na rynku amerykańskim zmniejszyły zatrudnienie o 28 tysięcy osób. A to zapewne dopiero początek.

 

Google poinformowało w połowie kwietnia, że uruchomi fundusz kryzysowy, który ma pomóc lokalnym środkom masowego przekazu w USA, które znalazły się tarapatach (a raczej – w jeszcze większych tarapatach niż już od dawna były) z powodu pandemii koronawirusa. Internetowy gigant nie podał konkretnej wartości funduszy, jakie zamierza przeznaczyć na wsparcie dla mediów, mówiąc ogólnie o dotacjach „w zakresie tysięcy dolarów” dla najmniejszych podmiotów do „dziesiątek tysięcy dla większych redakcji”.

 

Wiceprezes Google News Richard Gingras podał w oświadczeniu, że fundusze są przeznaczone dla placówek „produkujących wiadomości dla lokalnych społeczności w czasie kryzysu” a wnioski o pieniądze można składać od końca kwietnia. „Po zakończeniu procesu oceny ogłosimy, kto otrzymał dofinansowanie i na co wydawcy wydadzą pieniądze z dotacji” –   powiedział Gingras.

 

Być może akt dobroczynności Google’a został trochę wymuszony przez wcześniejsze decyzje Facebooka, który już 30 marca ogłosił, że przeznacza 100 milionów dolarów na wsparcie organizacji informacyjnych, które mają poważne kłopoty z powodu pandemii koronawirusa i to na całym świecie.

 

 „Potrzebujemy więcej Googli,”

 

…entuzjazmował się gubernator Kalifornii Gavin Newsom po tym, jak Sundar Pichai, dyrektor generalny Google Alphabet, ogłosił, że firma przekaże cztery tysiące komputerów ChromeBook uczniom i zaoferuje 100 tys. darmowych hotspotów Wi-Fi dla pozamiejskich gospodarstw domowych w tym stanie. Google udostępnia bezpłatną powierzchnię reklamową WHO i małym lokalnym firmom. Stworzyła również aplikację do badań przesiewowych w kierunku objawów koronawirusa. Zarówno Google, jak i Facebook przekazują szpitalom w USA duże partie maseczek.

 

W wielu krajach wielkie regulacyjne, antymonopolowe baty, jakie zostały podniesione nad amerykańskimi potentatami technologicznymi w 2019 roku, zawisły w powietrzu a wręcz zostały odłożone. Dziś nie mówi się zbyt wiele o oburzających praktykach monopoli technologicznych nadużywających swojej potęgi rynkowej i lekceważących prywatność użytkowników. W sondażach przeprowadzonych w Stanach Zjednoczonych i krajach europejskich znaczna większość respondentów zaczęła odpowiadać, że jest skłonna poświęcić prawo do prywatności na rzecz wysiłków rządu mających na celu monitorowanie rozprzestrzeniania się epidemii poprzez udostępnianie danych dotyczących lokalizacji za pomocą urządzeń przenośnych lub korzystanie z aplikacji śledzących.

 

Pisze się też o rozejmie między Big Tech a politykami w Brukseli, Paryżu i Berlinie. Netflix, Google, Facebook i inni zgodzili się na obniżenie jakości swoich filmów, aby uniknąć zatorów w Internecie w Europie. Zdaniem Thierry’ego Bretona, komisarza ds. rynku wewnętrznego, może to być punkt zwrotny w relacjach z wielkimi z sektora IT. „Po raz pierwszy firmy technologiczne działają w taki sposób. Zareagowały natychmiast i podjęły bardzo ważne, praktycznie spontaniczne decyzje” – powiedział w rozmowie z serwisem POLITICO.

 

W czasie gdy linie lotnicze i hotele proszą o pomoc rządową, zarówno Facebook, jak i Netflix ogłosiły, że przekażą 100 milionów dolarów na pomoc małym firmom i kreatywnym grupom. Google uruchomił narzędzia online dla nauczycieli. Facebook, niegdyś krytykowany w UE za zbieranie zbyt wielu danych osobowych teraz jest proszony o udostępnienie anonimowych metadanych Komisji Europejskiej, aby można było przewidzieć szczyt epidemii.

 

We Francji np. wczorajsi wrogowie stali się szybko przyjaciółmi i sojusznikami. Netflix i Disney, firmy, które do niedawna toczyły spór o poziom francuskojęzycznych produkcji, zyskują wizerunek odpowiedzialnych partnerów. Disney zgodził się nawet na utratę dochodów, odkładając uruchomienie swojej usługi streamingowej na prośbę rządu. Ze złowrogiego oligopolu Dolina Krzemowa i amerykańskie konglomeraty rozrywkowo-technologiczne przekształciły się szybko w pożyteczne, potrzebne i odpowiedzialne podmioty.

 

Czy te wszystkie dobroczynne i „wynikające z troski” działania to prawdziwe odruchy serca przedstawicieli Big Tech? Czy jednak powinniśmy zachować postawę streszczającą się w łacińskim cytacie z Wergiliusza – „Timeo Danaos et dona ferentes” – czyli „strzec się Greków, nawet gdy niosą dary”?

 

Jeszcze kilka miesięcy temu media dość zgodnie twierdziły, że potentaci Internetu niszczą je, wysysając pieniądze reklamodawców, stosując praktyki monopolistyczne i narzucając warunki, które uzależniają ich całkowicie od innych i powodują utratę kontroli nad treściami. Teraz pojawiają się informację stawiające Google’a i innych w aureoli nieomal zbawców i aniołów dających promyk nadziei w trudnym czasie. Czy jednak mimo wszystko nie powinniśmy zachować czujności?

 

Akt łaski, czyli obniżenie jakości

 

Sytuacja epidemiczna doprowadziła do tego, że miliony ludzi na całym świecie zaczęły pracować, komunikować się i załatwiać wszystko w Internecie. To z jednej strony ekstremalny test dla pojemności i możliwości sieci – a z drugiej okazja, abyśmy w końcu nauczyli się w pełni korzystać z możliwości jakie daje Internet.

 

„Jeśli znajdziemy się w sytuacji, w której 850 milionów dzieci na całym świecie zacznie otrzymywać lekcje online przez dłuższy czas, wtedy obciążenie sieci tym spowodowane przebije i to znacznie cały ruch jaki generują gracze wideo na świecie” – zauważył w „Daily Telegraph” Matthew Howett, główny analityk w firmie Assembly. Dostawcy usług szerokopasmowych na całym świecie deklarują, że ich systemy będą w stanie sprostać tak wysokiemu wzrostowi zapotrzebowania na transfer danych.

 

Naukowcy z Melbourne’s Monash Business School Economists oraz współzałożyciele KASPR DataHaus, firmy zajmującej się analizą danych z Melbourne, przeprowadzili badania nad dużą ilością danych o globalnej aktywności w Internecie w czasach koronawirusa, analizując wpływ ludzkich zachowań na opóźnienia w transmisji. Klaus Ackermann, Simon Angus i Paul Raschky, opracowali technikę, która codziennie gromadzi i przetwarza miliardy danych dotyczących aktywności w Internecie oraz pomiarów jakości dla dowolnego miejsca na świecie. Zespół stworzył mapę Global Internet Pressure wyświetlającą informacje globalne, jak również dla poszczególnych krajów. Mapa jest regularnie aktualizowana za pośrednictwem strony internetowej KASPR Datahaus.

 

Badacze sprawdzali, jak funkcjonuje Internet w każdym kraju dotkniętym epidemią COVID-19, biorąc pod uwagę szybką eskalację zapotrzebowania na domową rozrywkę, wideokonferencje i komunikację online. Główny nacisk położono na zmiany we wzorcach opóźnień w Internecie. Badacze wyjaśniają to tak: „Im więcej pakietów przesyłanych strumieniowo stara się odbyć podróż na raz, tym bardziej zatłoczona jest ścieżka i tym wolniejszy jest czas transferu”. „W większości krajów OECD, których dotyczy problem COVID-19, jakość internetu jest wciąż stosunkowo stabilna.

 

Według podawanych w Polsce danych Internet u nas zwolnił podobnie jak w innych krajach. SpeedTest.pl pokazywał od połowy marca spadek średniej prędkości łączy mobilnych w wybranych krajach w ciągu ostatnich dni. Wyraźnie widać, że izolacja Lombardii i północnych prowincji Włoch miała ogromny wpływ na obciążenie łączy 3G i LTE. W ciągu niecałych dwóch tygodni średnia prędkość włoskich łączy spadła o kilka Mb/s. W Polsce obserwowaliśmy to samo, ale z około tygodniowym opóźnieniem. Stan zagrożenia epidemicznego mocno odbił się na efektywnej prędkości łączy. Z dnia na dzień drastycznie zmieniły się nawyki abonentów. Play poinformował, że transmisja danych w jego sieci wzrosła w ostatnich dniach o 40 proc. Później podawano, że w Polsce ogólnie w ciągu kolejnych dni pojawiły się spadki prędkości Internetu mobilnego na poziomie 10-15 proc., zależnie od miejsca. Drobny spadek średniej prędkości przesyłania danych widoczny był także na łączach stacjonarnych. Łącza „przytkały się” niemal natychmiast po ogłoszeniu zamknięcia żłobków, przedszkoli, szkół i uczelni.

 

Obliczenia wykonano na platformie fireprobe.net na podstawie 877 tys. pomiarów prędkości łączy 3G i LTE oraz 3,3 mln wyników pomiarów polskich łączy stacjonarnych z aplikacji webowej SpeedTest.pl.

 

A zatem wielkiego dramatu z dostępnością Internetu w krajach rozwiniętych jak dotąd nie było. Jednak na wszelki wypadek poproszono dostawców usług transmisji strumieniowej wideo, takich jak Netflix, Amazon Prime Video i YouTube aby obniżyli jakość swoich filmów w celu odciążenia łączy. Ci szybko zapowiedzieli zmniejszenie jakości filmów przesyłanych strumieniowo w Europie do standardowej rozdzielczości, co według szacunków obniżyło obciążenie sieci o ok. 25 proc. I tak właśnie Big Tech zdobywa PR-owe punkty w czasach epidemii. Nie zaniedbując jednocześnie umiejętnego nagłośnienia swojego „poświęcenia i troski” o jakość połączeń, gdy Internet stał się tak ważny.

 

Warto zauważyć, że Big Tech wygrywa kryzys nie tylko wizerunkowo ale również finansowo. Kilka dni temu analitycy BofA Global Research podali, że Microsoft, Apple, Amazon, Alphabet (rodzina spółek Google) i Facebook, czyli to co zwykle określamy jako Big Tech, osiągnęły łączną wartość ponad 20 proc. kapitału rynkowego S&P 500. Inwestorzy swoimi pieniędzmi odpowiedzieli na pytanie, kto może wygrać pandemię. Akcje Netflixa wzrosły o 35 proc. w 2020 roku, Amazona o prawie 30 proc., a Microsoft o 11 proc.

 

Obecna koncentracja kapitału w spółkach technologicznych jest wyższa niż podczas bańki dot.comowej w 2000 r., czytamy w opisie raportu analitycznego. To co się dzieje w tym sektorze jest również dla inwestorów niepokojącym sygnałem. 26-procentowy wzrost S&P zaledwie w ciągu miesiąca – w stosunku do najniższego poziomu z marca doprowadził do ogromnej dysproporcji pomiędzy Big Tech a innymi sektorami gospodarki, wszystko to w czasie, gdy w Stanach Zjednoczonych następuje utrata miejsc pracy w rekordowym tempie, a większość firm ponosi ogromne straty.

 

Big Tech może więc wyjść z kryzysu koronawirusowego w odróżnieniu od większości sektorów gospodarki znacznie wzmocniony, co prognozował już na początku marca „The New York Times”. Dla większości firm z tego sektora czas epidemii to oczywiste zyski. Google i Facebook poprawiają sobie wizerunek aktami dobroczynności, zaś Amazon czy Netflix po prostu sprzedają więcej. Korzystają także mniej znani gracze IT, jak np. platforma do treningu sportowego w domu Peloton (sport tech). Jednak nie cała branża internetowa skacze do góry z radości. Serwisy podróżniczo-turystyczne w sieci, takie jak Expedia czy platformy mobilności, jak Lyft i Uber, są takimi samymi ofiarami COVID-19 jak restauracje czy hotele.

 

Nowa sytuacja – stare problemy

 

Jednak już od początku kwietnia pojawiają się też wyraźne sygnał, że zgoda na nadzór państwowy w czasie stanu wyjątkowego w kraju nie oznacza, że obywatele są skłonni dać Big Tech możliwość swobodnego korzystania prywatnych danych.

 

Na czasy koronawirusa przypada jedne z większych skandali w tej dziedzinie w historii. Chodzi o problemy z aplikacją do obsługi wideokonferencji Zoom, która zyskała na popularności, gdy ogromne rzesze ludzi zostały zmuszone do pracy w domu. W ostatnich tygodniach eksperci ds. bezpieczeństwa i działacze na rzecz praw autorskich do materiałów cyfrowych zaczęli krytykować firmę, alarmując o przeszłych i obecnych wadach usługi, takich jak brak kompleksowego szyfrowania połączeń wideo lub incydenty, w których włamano się do kamer. FBI ostrzegło szkoły służby po tym, jak niepowołane osoby uzyskały dostęp do spotkań klasowych, co zyskało nawet już swoją nazwę – „Zoombombombing”. W USA toczą się przeciw firmie dochodzenia, które nasiliły się po tym jak ujawniono, że komunikacja w ramach aplikacji przechodzi przez serwery umiejscowione w Chinach.

 

Zoom znalazł się ogniu krytyki wtedy, gdy już wszyscy siedzieli w domu. Facebook, Google i Twitter mieli kłopoty wcześniej, ponieważ już w styczniu zarzucano im brak reakcji na falę dezinformacji na temat epidemii, najpierw w Chinach potem w kolejnych krajach.

 

Z kolei zaliczany do oligopolu Big Tech Amazon ma problemy pracownicze. W całych Stanach Zjednoczonych pracownicy w zakładach w Amazona (oraz w należących do Amazonii supermarketach Whole Foods) zorganizowali protesty przeciwko swojemu pracodawcy. Twierdzą, że firma nie oczyściła swoich zakładów i nie powiadomiła współpracowników o przypadkach zachorowań na koronawirusa. Do końca marca pracownicy co najmniej 21 zakładów pakujących i spedycyjnych Amazona mieli pozytywny wynik testów na obecność koronawirusa. Co ciekawe, w USA rodzi się ruch solidarności sąsiedzkie, lokalnej, wspierania bliskich biznesów, sklepów w kryzysie. Dla globalistycznego Amazona nie jest to zjawisko korzystne. Jeśli takie tendencje pojawią się gdzie indziej i nasila się, to nie będzie dobra wiadomość dla tej firmy i wielu innych światowych molochów.

 

Firmy Big Tech w ramach nowego lepszego wizerunku nie zrezygnowały ze swoich cenzorskich zakusów, o czym świadczy np. niedawne ocenzurowanie przez należący do Google YouTube popularnego filmu Witolda Gadowskiego. Ale nową odsłonę cenzury sieciowej w czasach korona wirusowych warto omówić w odrębnym tekście.

 

Jakoś tym Grekom z Big Tech nie wierzę, nawet, gdy przynoszą prezenty i rozdają pieniądze. Może dlatego, że udają Greka i korzystając ze specyficznego czasu, robią to samo, co zwykle robiły, tylko teraz z pełna troski pozą.

 

Mirosław Usidus

 

 

POLECAMY: #FakeHunter, czyli – jak zostałem łowcą fejków – analiza MIROSŁAWA USIDUSA

O projekcie #FakeHunter (adres internetowy: fakehunter.pap.pl), w który jestem zaangażowany, nie będę się rozpisywał. Wszystko jest na stronie. Można na niej zapoznać się z działaniem systemu, zasadami fact checkingu, zespołem, a w końcu pobrać wtyczkę do zgłaszania potencjalnych fake newsów a nawet zgłosić się do społeczności „fake hunterów”.

 

A może jednak trochę się rozpiszę, bo jednak trudno mi się powstrzymać.

 

#FakeHunter to serwis a właściwie cały system fact checkingowy o charakterze tematycznym. To znaczy, że skupia się na jednym obszarze tematycznym, nazwijmy go „około-koronawirusowym”. O powodzi, potopie wręcz, dezinformacji, siejących panikę celowo lub bezrefleksyjnie ludziach i środkach przekazu, pisałem na portalu SDP już w styczniu, gdy koronawirus był jeszcze, choć ciekawą i dramatyczną, ale dość jeszcze odległą informacją z Chin.

 

I, można powiedzieć, – przeszedłem od słów do czynów, angażując się jako koordynator w projekt Polskiej Agencji Prasowej i GovTech Polska – #FakeHunter, którego celem jest zwalczanie epidemii fejków i dezinformacji. W środę ósmego kwietnia 2020 roku miała miejsce oficjalna premiera serwisu, publiczne udostępnienie wtyczki do przeglądarek, za pomocą której można zgłaszać wątpliwe treści z Internetu, społecznościowo-eksperckiego systemu weryfikacji zgłoszeń i portalu prezentującego wyniki naszego fact checkingu.

 

Stron i serwisów weryfikujących informacje jest sporo. Nasz projekt ma przynajmniej kilka cech wyjątkowych. Przede wszystkim oferujemy użytkownikom rozszerzenie/wtyczkę do przeglądarki Chrome i FireFox, za pomocą której łatwo mogą zgłaszać treści ze stron internetowych do systemu, w którym zajmujemy się fact checkingiem. I tu pojawia się kolejne nowatorskie rozwiązanie – społeczność „fake hunterów” (tak ich nazywamy, a właściwie wszyscy się tak nazywamy). Rekrutowaliśmy ich i szkoliliśmy przez ostatnie parę tygodni. Stanowią „pierwszą linię” weryfikacji informacji. W „drugiej linii” zgłoszenia wprowadzone do systemu, są czytane i weryfikowane przez zespół ekspertów Polskiej Agencji Prasowej. Werdykty ukazują się na portalu, którego adres podałem na wstępie.

 

Już wiemy, że weryfikacja faktów nie zawsze jest prosta, że pojawić się może nieskończoność problemów interpretacyjnych, niejasności i wątpliwości. Mamy nadzieję, że metodologia, którą wypracowaliśmy a właściwie ciągle wypracowujemy, obroni się i z czasem okrzepnie jako trwały standard weryfikacji faktów.

 

To zresztą dopiero pierwszy krok. Chcemy doskonalić i rozwijać system. Zapewne niektórzy, słysząc o tych wszystkich planach, mogliby dojść do wniosku, że co jak co, ale pomysłów mamy zdecydowanie zbyt wiele.

 

Ruch walki z infodemią

 

Weryfikacja faktów i prostowanie dezinformacji, z których prawdziwą eksplozją mamy do czynienia od kiedy po świecie zaczął grasować koronawirus, to już międzynarodowy ruch z prawdziwego zdarzenia. Już w styczniu pisałem, że infodemicznego byka za rogi wzięły organizacje i platformy zajmujące się sprawdzaniem faktów z trzydziestu krajów współpracujące za pośrednictwem International Fact-Checking Network pod patronatem Instytutu Poyntera na rzecz identyfikacji i weryfikacji fake newsów. W serwisie FactCheck.org publikowana jest lista dezinformacji, fake newsów i manipulacji na temat epidemii koronawirusa, przygotowana przez weryfikatorów pracujących dla globalnej sieci.

 

Oto przykłady przypadków z FactCheck.org, bardzo podobne do tego co trafia do FakeHuntera:

 

Np. wiele postów w mediach społecznościowych fałszywie głosiło, że wirus został opatentowany, a szczepionka jest już dostępna. To nieprawda. Patenty, do których odnosiły się badane wpisy, odnoszą się do innych wirusów.

 

Jeden z autorów społecznościowych na Facebooku niezgodnie z prawdą stwierdził, że odpowiedzialny za rozprzestrzenianie się nowego koronawirusa jest komik Sam Hyde, co brzmi może anegdotycznie. Na poważnie, to naukowcy wciąż pracują nad ustaleniem źródła koronawirusa, a dowody sugerują, że został on po raz pierwszy przekazany człowiekowi przez zwierzę. Nie jest jednak dowiedzioną prawdą, jak to kategorycznie głosiła na Twitterze poseł Sylwia Spurek, że mikrob ten wywodzi się z tzw. mokrego chińskiego targu. Wielu badaczy, nawet WHO, sugerowało takie pochodzenie, ale przesądzającego o pochodzeniu wirusa dowodu jeszcze nie ma. Nie można więc kategorycznie twierdzić, że pochodzi stąd i stąd. Dlatego w FakeHunterze uznaliśmy wypowiedź poseł Spurek za fake news.

 

Inny typowy przykład jest taki, że na stronach internetowych i w serwisach społecznościowych krążyły błędne twierdzenia, że „patogeny do zakładu w Wuhan” wysłał „chiński zespół szpiegowski” pracujący w kanadyjskim laboratorium rządowym. Kanadyjskie media zdementowały te informacje. A nam do FakeHuntera jeszcze nikt takiej informacji nie zgłosił, ale spodziewamy się i przygotowujemy na taką okoliczność.

 

Znanym i często weryfikowanym fejkiem są publikacje propagujące teorie spiskowe mówiące o prognozach Fundacji Billa Gatesa mówiących o przewidywanych „65 mln zgonów” z powodu koronawirusa. W rzeczywistości omawiane przez fundację zdarzenie dotyczyło hipotetycznego scenariusza z udziałem fikcyjnego wirusa.

 

Fałszywe wiadomości są szybsze niż prawdziwe

 

Walcząc z dezinformacją walczymy zarazem z sianiem paniki i lęków. Strach jest w tej chwili wrogiem znacznie groźniejszym niż koronawirus. Dystrybutorzy dezinformacji, niezależnie od proweniencji i motywacji, chętnie żerują na lękach swoich odbiorców, nierzadko dla politycznych celów.

 

Panika musi się skończyć. A media, naprawdę muszą być w jakiś sposób pociągnięte do odpowiedzialności, ponieważ krzywdzą ludzi,” mówił w wywiadzie udzielonym 10 marca serwisowi RealClearPolitics Dr Drew Pinsky, znany w USA lekarz, współautor audycji i programów TV na tematy medyczne i zdrowotne.

 

Ludzie są bardzo zaniepokojeni koronawirusem, mając po temu bardzo dobry powód, gdyż prawdopodobnie zamieni się on w pandemię” opiniował w Politico profesor Uniwersytetu Waszyngtońskiego Carl Bergstrom. „Jednak jest to jeden z pierwszych przypadków, kiedy opinia publiczna otrzymuje informacje o rozprzestrzenianiu się epidemii w czasie zbliżonym do rzeczywistego” – dodaje. I sam ten fakt sprzyja nakręcaniu atmosfery grozy.

 

Większość z nas mogłaby znaleźć lepszą, dokładniejszą wiarygodniejszą informację, gdybyśmy dali sobie chociaż dwanaście godzin na weryfikację. Niestety platformy mediów społecznościowych są napędzane przez presję na kliki i lajki w trybie natychmiastowym, co sprzyja rozprzestrzenianiu czegokolwiek, byle czego lub celowej roboty dezinformacyjnej, w tempie, którego najwredniejszy wirus biologiczny mógłby tylko pozazdrościć.

 

Naukowo zresztą przebadanym i zweryfikowanym faktem jest, że fałszywe wiadomości rozprzestrzeniają się szybciej niż prawdziwe. W renomowanym „Science” z marca 2018 r. można znaleźć publikację Sorousha Vosoughiego, Deba RoyaSinana Arala, która aby wyjaśnić, jak rozprzestrzeniają się fałszywe informacje wykorzystali zestaw danych o kaskadach plotek na Twitterze w latach 2006-2017. Około 126 tysięcy z nich zostało rozpowszechnionych przez około 3 miliony osób. Fałszywe wiadomości docierały do większej liczby osób niż prawda; czołowy 1 proc. kaskad fałszywych wiadomości rozprzestrzeniał się między tysiąc a 100 tys. osób, podczas gdy prawda rzadko docierała do więcej niż tysiąca osób. Z badań wynikało również, że fałszywe wiadomości rozprzestrzeniały się szybciej niż prawda.

 

Zanim ogłosiła pandemię COVID-19, co stało się w ostatnich dniach, Światowa Organizacja Zdrowia już drugiego lutego określiła sytuację z koronawirusem jako „infodemię”, wyjaśniając, że ma na myśli „nadmiar informacji” w swojej masie zawierających zarówno doniesienia i dane prawdziwe jak też nieprawdziwe. Jak pisało WHO, już sama ich masa utrudnia ludziom znalezienie wiarygodnych źródeł i wiarygodnych wskazówek, gdy ich potrzebują. Różnica pomiędzy koronawirusem a poprzednimi wybuchami epidemicznymi jest z tego punktu widzenia głównie ilościowa. Choć SARS, MERS i Zika budziły lęki i gdzieniegdzie objawy paniki, to jednak zasięg tych zjawisk był mimo wszystko ograniczony w porównaniu z obecną sytuacją epidemiczną wzmocnioną przez media społecznościowe w pełni rozkwitu.

 

O tym, że platformy social media przodują w sianiu dezinformacji i paniki dobrze wiemy. Jednak, trzeba przyznać, że zarówno Twitter jak i Facebook a także Google, do których zwróciła się WHO, podjęły działania w walce z fałszywkami na temat koronawirusa. Np. na Twitterze po kliknięciu hasztagu #koronawirus czy #coronavirus mamy informacje o wiarygodnym oficjalnym źródle informacji (w naszym przypadku Ministerstwie Zdrowia RP. Facebook kieruje do WHO. Także Google w światowej wersji kieruje do WHO a w polskiej dodaje stronę informacyjną MZ).

 

Media lubią klimat „zabójczości”

 

Obecna epidemia jest znacznie bardziej widoczna w mediach niż poprzednie, choćby Ebola. Z niedawnego badania „Time Magazine” wynika, że w anglojęzycznych gazetach drukowanych ukazało się 23 razy więcej artykułów na temat epidemii koronawirusa w pierwszym miesiącu w porównaniu z tym samym okresem w przypadku epidemii Ebola w 2018 roku.

 

Od 12 stycznia, kiedy ruszyły pierwsze doniesienia o nowej, wówczas stosunkowo tajemniczej, chorobie, do 13 lutego 2020 r. Karin Wahl-Jorgensen z „The Conversation” śledziła doniesienia w największych anglojęzycznych gazetach na całym świecie, korzystając z bazy danych LexisNexis UK. Zakres jej badań to prawie 100 wysokonakładowych gazet z całego świata, które łącznie opublikowały 9 387 materiałów związanych tematycznie z epidemią. Skrupulatnie wyliczyła, że 1066 artykułów zawiera słowo „strach” lub terminy powiązane, pokrewne i pochodne. Badaczka wskazuje też na przykłady innego rodzaju. Na przykład w 50 artykułach używano sformułowania „zabójczy wirus”.

 

Wahl-Jorgensen jako typowy dla stylu pisania, generującego lęki, podaje przykład reportażu z Wuhan w brytyjskim „The Telegraph”, szeroko udostępnianego po publikacji na portalach społecznościowych. Czytelnik był w tym materiale epatowany obrazami pacjentów omdlewających na ulicy, setek przerażonych obywateli, tłumy w wąskich korytarzach szpitalnych, lekarzy krzyczących w udręce i desperacji.

 

A „The Telegraph” to wciąż, bądź co bądź, gazeta z półki nieco wyższej. W brytyjskich tabloidach, takich jak „The Sun” i „The Daily Mail” nakręcanie spirali strachu to chleb powszedni. Na przykład, „Sun” na swoim blogu poświęconym koronawirusowi rutynowo określa COVID-19 jako „śmiertelną chorobę”.

 

Niestety media niewiele uczą się z epidemii na epidemię, frymarczenie lękami uważając wciąż za dokonały wehikuł sprzedażowy. Badania przeprowadzone przez historyka Patricka Wallisa i lingwistkę Brigitte Nerlich wykazały, że dominującą metaforą na opisanie SARS było odmienianie jego charakteru „zabójca” przez wszystkie przypadki. Pod tym samym kątem badacze mediów Peter Vasterman i Nel Ruigrok zbadali relacje z epidemii H1N1 w Holandii i orzekli, że jest były one naznaczone alarmistycznym tonem.

 

Czy ktoś potrafi wskazać publikacje określające jako „zabójczą”, grypę, która, według danych WHO zabija na świecie co roku 300 do 600 tysięcy ludzi? Chyba będzie trudno. Media, które  zaczęłyby publikować panikarskie filmiki pokazujące ludzi słabnących na ulicy z powodu grypy, uznano by za histeryczne. Gdyby jakiś komentator zaczął rozwodzić się nad wpływem grypy na wynik wyborów, uznano by go za szalonego.

 

I co z tego, że fejk

 

Fake newsy mają często większą siłę przyciągania, tylko dlatego, że są informacjami nowymi. Nie powielają wiedzy już nam znanej. Takie wnioski wynikają m. in. ze wspomnianych badań Vosoughiego. Okazuje się, że ludzie choć wierzą w doniesienia, które przeczytali lub słyszeli wiele razy wcześniej, to jednak są mniej skłonni je udostępniać, bo nie są to atrakcyjne treści. Bardziej prawdopodobne jest, że będą ze swoimi społecznościowymi znajomymi dzielić się czymś nowym, dotychczas nieznanym, tym bardziej, jeśli są to treści z dużym ładunkiem emocjonalnym lub moralnym, nawet jeśli nie są one dostatecznie zweryfikowane.

 

Czasami dzieją się w tej sferze rzeczy niezbyt racjonalne. Facebook np. udostępnił jakiś czas temu użytkownikom możliwość etykietowania informacji podejrzewanych o bycie fake news. Okazało się, że oznaczanie wpisu, jako wątpliwego, przyczyniało się czasem do jego szybszego i szrszego rozpowszechnienia. Gdy facebookowa strona Rodhe Island napisała, że setki tysięcy Irlandczyków przywieziono do Stanów Zjednoczonych jako niewolników, wpis został słusznie opatrzony alertem fake news. Jednak rzesza użytkowników uznała to za próbę cenzury i wyciszania niewygodnych opinii. Na apel aby ten post udostępniać pozytywnie odpowiedziały tysiące użytkowników

 

Nie wiadomo, ile z udostępniających tę fałszywkę osób robiło to tylko dla zgrywy. Wiadomo, że taka czysto rozrywkowa motywacja, wcale nie należy do rzadkości. Cała, potężna w Internecie, fala publikacji propagujących teorię płaskiej Ziemi wydaje się jednym wielkim wygłupem. Młodzi ludzie kolportują tego rodzaju treści „dla beki”. Jeśli trafi się ktoś, kto to poważnie potraktuje i w fałszywkę uwierzy, to „beka” tym większa a fałszywka osiąga sukces. Gdy ktoś próbuje podjąć poważną polemikę z tezami płaskoziemców, to też powód do zabawy. Polską odmianą tego folkloru jest rozpowszechnianie teorii o „turbo-Słowianach” i „Lechickim Imperium”. U ich podłoża są jacyś ludzie, którzy traktują te teorie nawet poważnie, ale większość treści na ten temat, które znajdziecie w sieci to „beka”.

 

Czy to jest złe i groźne? Pisałem, że nie tak bardzo, ale wtedy gdy to pisałem, nie było koronawirusa. Oczywiście nikt tak naprawdę nie wierzy ani w statki niewolnicze z Irlandczykami, ani w płaską Ziemię, ani w zapomniane mocarstwo Lechitów. Pisałem o deep fake’ach, czyli oszukanych filmach wideo, że ich upowszechnienie może mieć dobre skutki, bo lepiej uczuli, „zaszczepi” nas na fałsz. Dlaczego młodzież, jak wyraźnie wykazują badania, jest bardziej odporna na fake news niż starsi? Bo jest zaszczepiona. Bo widziała w Internecie tyle fałszywek, wygłupów i ściemy, że ma pancerz zdrowego sceptycyzmu, od którego przekaz manipulatorów i fałszerzy skutecznie się odbija.

 

Jednak fake newsów koronawirusowych nie sposób przypisać do tej kategorii. Tu nikomu nie jest do żartu czy do śmiechu. Zwłaszcza ludziom zdezorientowanym i poważnie mającym obawy nie tyle co do choroby, ale co do swoich dalszych losów.

 

U nas na platformie #FakeHunter mamy szczepionkę na infodemię w sensie ścisłym. Bo zdemaskowane fake newsy (są też tu oczywiście i informacje zweryfikowane jako prawdziwe) są tym czym są mikroby podawane w szczepieniach ochronnych. Są niegroźne, osłabione. Pobierane w takiej postaci wzmacniają organizm i uodporniają go na koronafejki

 

Mirosław Usidus