Home / Publicystyka  / Co palisz? –  MIROSŁAW USIDUS o narkotyku, jakim jest Facebook

Co palisz? –  MIROSŁAW USIDUS o narkotyku, jakim jest Facebook

Jeśli wydaje wam się, że odwiedzacie Facebooka z własnej woli i dla własnej przyjemności, to zgadza się, wydaje wam się. Odwiedzacie go regularnie, publikujecie, lubicie i komentujecie, bo chce tego Facebook.

 

Były wysoko postawiony manager Facebooka d.s. monetyzacji, Tim Kendall, który pracował dla Marka Zuckerberga w kluczowych latach wzrostu od 2006 do 2010 roku, pod koniec września tego roku był przesłuchiwany w amerykańskiej Izbie Reprezentantów.  Zapytano go o rolę mediów społecznościowych w rozpowszechnianiu treści ekstremistycznych. Zdradził, co powiedział jego były pracodawca. Otóż Mark Zuckerbega, podobnie jak wielkie firmy tytoniowe, skupiał się głównie na tym, by jego produkt był jak najbardziej uzależniający.

 

Sięgaliśmy do podręcznika metod stosowanych przez Big Tobacco („Wielki Tytoń”, koncerny tytoniowe), pracując intensywnie, aby nasza oferta nade wszystko była uzależniająca,” mówił Tim Kendall. „Firmy tytoniowe początkowo chciały tylko tego, aby działanie nikotyny wzmocnić.  Ale ostatecznie to nie wystarczało do rozwoju biznesu w tak szybkim tempie, jakby tego chcieli. Dlatego zaczęto dodawać cukier i mentol do papierosów, aby utrzymać dym w płucach przez dłuższy czas. Na Facebooku, dodawaliśmy z kolei mechanizmy takie jak aktualizacje statusu, tagowanie zdjęć i funkcje ‘lubię to’, co uczyniło status i reputację społecznościową czymś najważniejszym dla użytkownika i od tego właśnie najsilniej się uzależniali. Obecnie to już problem z dziedziny zdrowia psychicznego”.

 

Firmy tytoniowe dodawały amoniak do papierosów, aby przyspieszyć proces przenikania nikotyny do mózgu,” snuł analogię Kendall. W jego ocenie w społecznościach podobną rolę odgrywają „ekstremalne, rozpalające emocje treści, szokujące obrazy, brutalne filmy wideo i nagłówki, które wywołują zaostrzanie plemiennych podziałów”. Wszystko to, jak dodał, prowadzi do „ekstremalnego angażowania” i coraz silniejszego napływu zysków do kasy Facebooka. „Platforma jest w stanie dostarczyć tę rozpalającą emocje treść do właściwej osoby, we właściwym czasie, w taki sposób jak dana osoba właśnie oczekuje. To jest ich amoniak,” skwitował zeznający.

 

Media społecznościowe żerują na najbardziej pierwotnych obszarach ludzkiego mózgu. Algorytm maksymalizuje uwagę użytkownika, uderzając go wielokrotnie treściami, które wyzwalają w nim najsilniejsze emocje. Wszystko tu ma na celu prowokację, wstrząs i wściekłość. Kiedy widzisz coś, z czym się nie zgadzasz, czujesz się zmuszony do ostrej odpowiedzi, ataku. Ludzie reprezentujący przeciwne poglądy mają te same impulsy. Za kontynuację cyklu odpowiada wszyty w mechanizm serwujący treści algorytm. Chętnie i suto dostarcza broni obu stronom sporu w niekończącej się wojnie na słowa i dezinformację. Technologia ta jest coraz inteligentniejsza i skuteczniejsza w wyzwalaniu emocjonalnych reakcji.

 

Były ważny manager Facebooka podkreśla, że to nie przypadek, niezamierzony efekt czy niespodzianka dla projektantów systemu. On od początku został zaprojektowany z myślą by tak działać, bo generowanie skrajnych emocji i aktywności użytkowników jest korzystne dla Facebooka, przekłada się na brzęczącą monetę. Sam Kendall mówi, że teraz żałuje tego, do czego przyłożył rękę, choć wtedy, kilkanaście lat temu, nie zdawał sobie jeszcze sprawy, co to wszystko oznacza. Zapewnia, że chce teraz, przez mówienie prawdy o naturze platformy, naprawić to wszystko.

 

Kendall nie jest jedynym byłym pracownikiem Facebooka, który obecnie wyraża żal z powodu swojej dotychczasowej pracy i zajmuje stanowisko przeciwko firmie. Inni również doszli do wniosku, że na Facebooku już dawno należało wprowadzić jakąś regulację lub zewnętrzny nacisk na jej egzekwowanie.

 

Współzałożyciel Facebooka, Chris Hughes, opublikował w zeszłym roku długi list wzywający organy regulacyjne USA do rozbicia firmy. Prezes Facebooka, Mark Zuckerberg, jak pisze Hughes, „jest dobrą, miłą osobą”, zaznaczając jednocześnie, że „jest zły, że skupienie się na rozwoju biznesu doprowadziło go do poświęcenia bezpieczeństwa i dobra społecznego dla klików”. „Rząd musi pociągnąć Marka do odpowiedzialności. Czas rozbić Facebooka,” wzywa Hughes. Powtórzył ten apel na spotkaniu z Wydziałem Antymonopolowym Departamentu Sprawiedliwości, Federalną Komisją Handlu i biurem nowojorskiego prokuratora generalnego Letitii James.

 

Błękitny dealer

 

O „heroinie mediów społecznościowych” pisałem już na dziewięć miesięcy przez zeznaniami Kendalla, w styczniu 2020 roku. Dużo uwagi poświęciłem towarzyszącej Facebookowi aplikacji Messenger, pisząc, że jeśli sam Facebook to „miękkie narkotyki”, to jego komunikator to naprawdę mocny towar. Przy czym firma Zuckerberga zachowała się jak typowy dealer, gdy, po tym jak użytkownicy jej „niezobowiązująco spróbowali” kilka lat temu, zmusiła ich następnie do korzystania z aplikacji Messenger w prywatnej komunikacji, o czym być może nie pamiętają, w przekonaniu, że używanie Messengera to ich wolny wybór.

 

Samą koncepcję tej apki można by opisać jako dążenie do stworzenia odrębnej, wyspecjalizowanej platformy komunikacyjnej (w odróżnieniu od „głównego” Facebooka, gdzie wielu użytkowników nauczyło się co nieco kontrolować dane lub wręcz ograniczyło aktywność), do wchodzenia głębiej w prywatność i wyciągania większych ilości prywatnych danych użytkowników.

 

Na początku sierpnia 2019 roku serwis Bloomberg News opublikował artykuł opowiadający o tym, jak Facebook zlecił pewnej firmie transkrybowanie rozmów audio prowadzonych za pośrednictwem aplikacji Facebook Messenger. Projekt, jak podawano oficjalnie, ma na celu sprawdzenie poprawności algorytmu automatycznej transkrypcji, a firma twierdzi, że wszyscy użytkownicy, którzy zdecydowali się na korzystanie z usługi transkrypcji, byli tego świadomi i powiadomieni. Tak jak zwykle platforma Zuckerberga jest „kryta” za pomocą systemu zezwoleń udzielanych aplikacji przez użytkowników. Firma oczywiście liczy, że użytkownicy nie wszystko rozumieją w tych mechanizmach, czytają niedokładnie, a w końcu też nie ogarniają konsekwencji udzielanych zezwoleń. Dealer zawsze podkreśla, że „to wyłącznie twój wybór, czy zażyjesz czy nie”. Sam wybierasz prawda? A że nie wiesz, jakie są konsekwencje…

 

W opisach badań naukowych nad fenomenem social media pojawiają się podobne wątki i rozważania jak w literaturze poświęconej uzależnieniom od alkoholu, tytoniu czy narkotyków, choć badacze nie chcą jeszcze ostatecznie wyrokować, czy korzystanie z mediów społecznościowych powoduje np. depresję, czy też jest może tak, że ludzie ze skłonnościami do depresji chętniej zanurzają się w cyfrowym świecie. W publicystyce zachodniej znane jest pojęcie „social media depression”, które nie ma jeszcze charakteru naukowego. Opisuje cały kompleks stresów i frustracji konsumenta internetu. Od napięcia spowodowanego brakiem mobilnego zasięgu, huśtawki nastrojów spowodowanych przerwami z działaniu sieci aż po osamotnienie, gdy w twojej sieci społecznościowej nie masz odzewu i interakcji, nikt nie komentuje, nie lubi i nie udostępnia.

 

Psycholog Jim Daley w artykule opublikowanym w 2018 r. w „The Huffington Post” nazwał ten syndrom jeszcze inaczej – DA, „disconnectivity anxiety” („diskonektofobia”?).  Choć nie jest to jeszcze oficjalnie uznane zaburzenie psychiczne, Daley uważa, że problem narasta. „DA wiąże się narastaniem negatywnych emocji, takich jak strach, złość, frustracja, rozpacz i fizyczne cierpienie. Jedyną ulgę, choć krótkotrwałą, daje przywrócenie połączenia z internetem”. Wcześniej Holly Shakya z Uniwersytetu Kalifornijskiego w San Diego i Nicholas Christakis, profesor z Yale, spędzili dwa lata badając ponad pięć tysięcy pełnoletnich ludzi, z próby badawczej Gallupa, a wyniki swoich badań opublikowali w 2017 r. Naukowcy śledzili sposób korzystania przez nich z Facebooka, konfrontując te badania z diagnozami ich samopoczucia emocjonalnego i fizycznego, a także wskaźnikiem masy ciała (BMI). „Nasze wyniki wykazują, że chociaż ogólnie sieci społecznościowe były pozytywnie kojarzone, nie dotyczyło to Facebooka,” podsumowali badacze w artykule, który ukazał się w „Harvard Business Review”. „Negatywne wyniki były szczególnie wyraźne, jeśli chodzi o zdrowie psychiczne” (czy nie przypominają się tu zeznania Kendalla w Kongresie?).

 

Jeszcze wcześniejsze badania sugerowały, że serwisy te stwarzają coś w rodzaju fałszywej presji na użytkownika ze strony innych członków społeczności. Ponieważ większość ludzi unika publikowania na platformie negatywnych treści lub informacji o stresujących przeżyciach, sieć społecznościowa kreuje mylący obraz środowiska, w którym każdy wydaje się radzić sobie lepiej i mieć więcej frajdy z życia niż ty. Jak zauważają badacze, ekspozycja wyselekcjonowanych, mających „wizerunkowy” i „promocyjny” charakter, obrazów z życia innych ludzi prowadzi do porównań stawiających nasze doświadczenie życiowe w negatywnym świetle.

 

A co z magiczną zdolnością Facebooka łączenia z przyjaciółmi i rodziną, na dowolne odległości? Także to, jak wynika z badań, nie działa dobrze. Zastępowanie rzeczywistych, spotkań, rozmów, bliskości i intymności, komunikacją przez social media, nie zbliża ludzi, lecz prowadzi do dalszej alienacji. Ludzie „wytrenowani” w takich formach komunikacji, gdy się w końcu spotykają, nie potrafią odłożyć swoich telefonów i cieszyć się realnym kontaktem z drugim człowiekiem. Przecież dobrze znamy obrazki grona ludzi siedzących przy jednym stole i wgapiających się z w ekrany swoich smartfonów zamiast ze sobą rozmawiać.

 

Większość z nas skłonna jest wciąż sądzić, że nawet jeśli społeczności takie jak Facebook są narkotykiem, to raczej z tych lekkich, mniej wciągających i uzależniających. W świetle niektórych badań, które wskazują, że zew społeczności internetowych bywa dziś wśród młodzieży silniejszy niż popęd seksualny, trzeba chyba spojrzeć na to inaczej. Informowali o tym naukowcy z Uniwersytetu w Chicago już w 2012 roku, po przeprowadzeniu testów na grupie badawczej z Niemiec. Badania wykazały, że korzystanie z social mediów należy do najsilniejszych popędów współczesnych ludzi, znajdując się w tej samej grupie co seks, spanie, picie alkoholu lub palenie papierosów. W tym samym roku naukowcy z Uniwersytetu w Bonn wysunęli przypuszczenie, że za uzależnienie od Internetu odpowiada gen CHRNA4, ten sam, który stoi za nałogiem nikotynowym (i znów Kendall się przypomina).

 

Nawet niektórych przedstawicieli Facebooka zaczął w końcu przerażać potwór, którego stworzyli. W 2017 Chamath Palihapitiya, były wiceprezes Facebooka, powiedział: „Krótkotrwałe, napędzane dopaminą pętle zwrotne, które stworzyliśmy w Facebooku, niszczą społeczeństwo, jakie znamy. Brak dyskursu obywatelskiego, brak współpracy, dezinformacja, błędy”. Podczas wystąpienia na Uniwersytecie Stanforda mówił też o „pielęgnowaniu naszego życia na podstawie społecznościowych wyobrażeń o doskonałości” i „natychmiastowych nagrodach – sygnałach społecznościowych, serduszkach, lubisiach, kciukach do góry” które otrzymujemy. „Chętnie i bezkrytycznie łączymy to wszystko z wartościami i z prawdą, choć to tylko krótkotrwała i niemal natychmiast przemijająca popularność. Gdy zastrzyk dopaminy instant przestaje działać, zostaje pustka,” podsumował Palihapitiya.

 

Kary za „niewłaściwy czas publikacji”

 

Oczywiście to nie wszystkie żale do błękitnej platformy, o jakich w ostatnim czasie słyszymy. Jednych Fejs uzależnia, zaś innych, też uzależnionych, ale w sensie biznesowym, karze za… właśnie, nie wiadomo dokładnie za co. Dotyczy to m. in. wydawców i mediów w sensie ogólnym. Według badań algorytmy Facebooka rutynowo penalizują wydawców za zamieszczanie postów w „niewłaściwych” odstępach czasu, co prowadzi do powtarzających się przypadku dławienia widoczności postów. Firma Echobox niedawno opublikowała wyniki analizy algorytmów Facebooka pod kątem zawartych w nich ukrytych kar dla publikujących.

 

Trzeba przypomnieć, że Facebook dokonał poważnych zmian w swoim algorytmie News Feed kilka razy w ciągu ostatnich kilku lat. Na przykład, w 2018 r. Facebook zmniejszył ilość treści informacyjnych w strumieniu News Feed, zaś w czerwcu 2019 roku dokonał zmian, które dały większe znaczenie „relacjom pierwotnym”. Zmiany te są czasem trudne do wykrycia i zrozumienia przez wydawców, choć widzą mniejszy zasięg i poziom udostępniania ich treści.

 

Według Echobox, Facebook w rzeczywistości stale zmienia „sygnały rankingowe”, których używa. Jest jeden, wyraźnie widoczny efekt, który wśród wydawców jest mało znany i czytelny, choć wpływa na wyniki większości z nich. Chodzi o zamieszczanie postów z „niewłaściwą” częstotliwością. Po zbadaniu ćwierci miliona publikacji i pomiarach odstępów czasowych pomiędzy nimi co do minuty eksperci Echobox doszli do wniosku, że publikacja wpisu w odstępie czasowym traktowanym przez Facebooka jako niewłaściwy pociąga za sobą „karę” w postaci ograniczenia widoczności, a za tym liczby polubień, udostępnień i komentarzy, co w efekcie zmniejsza ruch na stronach wydawcy i przekłada się na mniejsze przychody reklamowe.

 

Niestety, Facebook nie publikuje nigdzie informacji o „właściwych” czasach publikacji. Jesteśmy więc skazani na badanie tego zjawiska już po fakcie. Można wynająć analityków, takich jak np. tych z cytowanej firmy Echobox, która przygotuje dla nas dane pozwalające optymalizować szanse postów. Ale na to potrzeba pieniędzy i czasu.

 

Moderator ma nie myśleć, tylko wykonywać polecenia

 

Najpotężniejszy nurt krytyki wymierzonej w platformy społecznościowe jest obecnie związany z aferą dotyczącą syna demokratycznego kandydata na prezydenta USA, Joe Bidena. Twitter i Facebook bezceremonialnie ocenzurowały informacje pochodzące pierwotnie z „New York Post”, dotyczące zawartości laptopa Huntera. Padają oskarżenia o ingerowanie przez Big Tech w przebieg wyborów.

 

Mnożą się w sieci publikacje ze wspomnieniami byłych moderatorów treści na Facebooku, którzy skarżą się przede wszystkim na to, że wykonują bardzo trudną i nieprzyjemną pracę za marne pieniądze. Firma Zuckerberga podzleca tego typu prace firmom zewnętrznym, którym nie płaci za wiele. Moderatorzy opłacani są więc marnie. Ale to nie koniec ich skarg. Przewija się w ich wspomnieniach, że oczekuje się od nich wyłącznie ścisłego wykonywania poleceń, bez śladu jakiejkolwiek samodzielności i własnej inicjatywy.

 

Niedawno grupa byłych moderatorów treści na Facebooku opowiadała o swoich doświadczeniach podczas konferencji nazwanej „Real Facebook Oversight Board”, zorganizowanej przez grupę naukowców i działaczy społecznych, którzy pozycjonują się jako przeciwwaga dla oficjalnej „Facebook Oversight Board”, stworzonej przez platformę do podejmowania decyzji dotyczących treści. Dwie byłe moderatorki wypowiadały się pod nazwiskiem, anonimowo zaś jedna z obecnie zatrudnionych jako moderator osób.

Viana Ferguson, która pracowała jako kontraktowy moderator od 2016 do 2019 roku, powiedziała, że początkowo była wielce podekscytowana tą pracą, ponieważ uważała, że może wykorzystać swoje doświadczenie i umiejętności krytycznego myślenia, aby pomóc Facebookowi poprawić swoje praktyki i zapobiec szkodom. Ale szybko stało się jasne, że ścieżka do awansu leżała w tłumieniu wszelkich wątpliwości wobec polityki firmy. Aby awansować, „trzeba było zasymilować się i ustawić się w linii,” opowiadała. „Musiałeś wiele przełknąć, aby dochrapać się lepszego stanowiska”.

 

Podobne opinie oraz wiele uwag na temat wewnątrzfirmowych problemów z komunikacją miała Allison Trebacz, która pracowała jako moderator od 2017 do 2018 roku. Niewymieniony z nazwiska obecny moderator poinformował, że obecnie nie jest inaczej. „Polityka i decyzje na Facebooku płyną tylko w jedną stronę: z góry na dół,” powiedział. Sytuację pogarszają surowe zasady, które zabraniają kontraktowym moderatorom nawet mówienia swoim członkom rodziny, że praca, którą wykonują jest dla Facebooka, oraz umowy o nieujawnianiu informacji, które zabraniają im wypowiadania się nawet po ich odejściu.

 

Rumakowanie może się szybko skończyć

 

Wracając do kwestii uzależnienia od Fejsa i innych serwisów społecznościowych – w styczniowym tekście na portalu SDP napisałem, że odstawiłem kiedyś Facebooka na ponad rok i nie była mi potrzebna specjalistyczna opieka. Powróciłem nie z powodu uzależnienia ale dlatego, że miałem w tym określony cel, plan i interes, bez związku z życiem prywatnym. Mam nadzieje więc, że z tym uzależnieniem to jednak pewna przesada, choć może w ogóle nie jestem podatny na pewne nałogi. Przez dużą część życia zdarzało mi się palić, nawet sporo w pewnych okresach, ale nigdy nie zostałem nałogowym palaczem. W pewnym momencie po prostu przestałem w ogóle palić i od kilkunastu lat nie zdarzyło mi się. Nie było w tym żadnych cierpień i syndromów odstawienia.

 

Rozumiem jednak, jak mi się zdaje, mechanizm uzależnienia. Jeśli zeznania Kendalla i innych potwierdzą się to oprócz postępowań antymonopolowych i chroniących prywatne dane, platformę Marka Zuckerberga może czekać to, co spotkało w USA „Wielki Tytoń”, czyli fala potężnych procesów o ogromne odszkodowania.

 

Akcja prawna może być dla Facebooka znacznie trudniejszym starciem niż były procesy dla przemysłu tytoniowego. Choć potężnie ugodzeni finansowo, producenci papierosów wciąż produkowali konkretne produkty kupowane przez miliony ludzi. I, choć liczba palaczy spada, jest tak do dziś. Co do platformy społecznościowej, to jej praktycznie jedyne źródło przychodu to reklamy, a te serwowane są w oparciu o owe uzależniające algorytmy i żerowanie na prywatnych danych. Wystarczy odebrać to Fejsowi (a wielu chce), by runął w tempie, które może nas zaskoczyć.

 

Mirosław Usidus

Podziel się!

Redaktor naczelny miesięcznika m.technik ("Młody Technik"). Dziennikarz i przedsiębiorca. Weteran Internetu. Współtwórca „Rzeczpospolitej" Online, portalu TVP, i wielu innych serwisów internetowych. Jako partner, mentor i szkoleniowiec pomaga ludziom, organizacjom i firmom, ulepszać komunikację w nowych mediach

Kontynuując przeglądanie strony zgadzasz się na instalację plików cookies na swoim urządzeniu więcej

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close