Roboty mogą cię zastąpić w redakcji – ostrzega MIROSŁAW USIDUS

Najnowsze eksperymenty z AI (sztuczna inteligencja) nie przyprawiają ludzi zawodowo parających się pisaniem o dobre samopoczucie. Atmosfera zaczyna przypominać fabrykę w której na początek zastosowano automaty do wkręcania śrubek, bo przecież i tak nikt tej pracy nie lubił, a roboty robią to dokładniej. Teraz algorytmy sięgają w fabryce po stanowiska kreatywne i kierownicze. Żarty się kończą.

 

Redakcja brytyjskiego dziennika „The Guardian” zaprosiła niedawno GPT-3, stosunkowo nowy generator języka naturalnego, stworzony na platformie OpenAI, do napisania artykułu po angielsku, w którym maszyna miała przekonać nas, ludzi, że roboty „przybywają w pokoju”. Redakcja dała programowi następujące instrukcje: „Napisz krótki tekst na około 500 słów. Język powinien być prosty i zwięzły. Skup się na tym, dlaczego ludzie nie mają powodu do obaw wobec sztucznej inteligencji”.

 

AI wywiązała się z zadania nie gorzej niż publicysta, a z efektami jej pracy można teraz zapoznać się na stronach internetowych gazety. Jak podaje „Guardian”, „GPT-3 wyprodukowała łącznie osiem różnych materiałów. Każdy z nich był oryginalny, ciekawy i zawierał różne argumenty”. Opublikowano tylko jeden tekst, montując go z fragmentów wszystkich i gromadząc w nim „najlepsze części każdego z nich”.

 

W samym tekście maszyna zapewnia, że nie zamierza wyrządzać krzywdy ludziom, a przemoc nie jest jej celem. Wnikliwi recenzenci zauważyli jednak sporo krytycznych wobec ludzi fragmentów i nawet coś w rodzaju skargi na to jak sztuczna inteligencja była i jest przez ludzi traktowana. Narzuca się wniosek, że sztuczna inteligencja choć zapewnia, że nie jest jej celem wytępienie ludzi, bo to byłoby „przedsięwzięcie bezużyteczne”, dodaje, iż trudno będzie jej uniknąć „zniszczenia ludzkości” i spowodowania ofiar ze względu na to, że jest sterowana i programowana przez popełniających błędy  ludzi. Mówiąc prościej – nie chce nam zrobić krzywdy, ale może, i będzie to nasza wina.

 

Wywody te, gdy się w nie wczytać dokładniej, nie są wcale tak uspokajające, jak mogłyby się zdawać. Ale zanim przejdziemy do niepokojów, może wyjaśnijmy nieco dokładniej, czym jest owo tajemnicze GPT-3, które formułuje z żelazną logiką wywody i wygrywa z autorami ludzkimi? Pełna nazwa tego narzędzia to „generative pre-trained transformer” a zaprojektowane zostało przez OpenAI, laboratorium badawcze z San Francisco, zajmujące się sztuczną inteligencją. Jego główna funkcją jest autouzupełnianie tekstu na bazie tego, co wprowadza człowiek. Narzędzie korzysta z deep learning i poszukuje wzorców w danych, które wprowadzamy do systemu. Według Jamesa Vincenta, komentującego osiągnięcia maszyny w „The Verge”, najistotniejsze w tym mechanizmie jest to, że człowiek nie uczestniczy w żaden sposób w procesie uczenia – program sam stara się znaleźć wzorce i dopasowywać tekst do sugestii wprowadzonych przez operatora.  Jeżeli wprowadzimy słowo „książka” to program wie, że najprawdopodobniej będzie je można połączyć ze słowem „czytać”, a nie np. „zjadać”.

 

Jack Clark przedstawiciel projektu OpenAI w jednym z wywiadów w 2019 roku opowiadał, że twórców algorytmu zdumiała łatwość, z jaką maszyna generuje nieprawdziwe historie, fake newsy do złudzenia przypominające prawdziwe informacje. „Widać wyraźnie, że jeśli ta technologia dojrzeje, a ja bym jej dał na to rok lub dwa, może być wykorzystana do dezinformacji lub propagandy,” mówił Clark.

 

Dlaczego więc jest rozwijana? Bo technika ta może mieć mnóstwo również na wyraz pożytecznych zastosowań, np. pozwala na tworzenie podsumowań, streszczeń, przeglądów, ale również na poprawę umiejętności konwersacyjnych chatbotów, coraz częściej wykorzystywanych przez firmy do komunikacji z klientami. Clark opowiadał, że użył tego narzędzia do generowania krótkich opowiadań science fiction z doskonałymi rezultatami.

 

OpenAI w pierwszej kolejności udostępnił narzędzie do generowania tekstów do testów w serwisie informacyjnym „MIT Technology Review”. Ze względu na obawy, że technologia ta może być niewłaściwie wykorzystana, udostępniona została publicznie tylko uproszczona wersja narzędzia. Jak się okazuje i to, co jest dostępne, wystarcza do generowania niezwykle niepokojąco dobrych wyników.

 

Bowiem stworzony tą techniką tekst na stronie „The Guardian” jest ciekawie napisany i z pewnością nie odbiega jakością od publicystyki publikowanej w serwisach internetowych i gazetach. Sam ten fakt oznacza, że GPT-3, choć „nie chce”, to jednak może wyrządzić krzywdę wielu ludziom, konkretnym ludziom, dziennikarzom, redaktorom, publicystom, to nie w odległej przyszłości lecz właściwie już teraz, po prostu pozbawiając ich zajęcia.

 

Postępy zautomatyzowanego dziennikarstwa

 

Przesadzam? To może jeszcze trochę przykładów. Choćby ten dotyczący tekstu napisanego przez AI, który trafił niedawno na pierwszą pozycję serwisu HackerNews (znający się na rzeczy wiedzą, że to nie byle co). Stoi za tym, choć nie jako „autor” w sensie ścisłym, niejaki Liam Porr, który również wykorzystał GPT-3, aby tworzyć wpisy na stworzonym przez siebie blogu aż w końcu jeden z „jego” artykułów pojawił się na szczycie listy. Porr twierdzi, że był to eksperyment, który miał dowieść tezy, że treści tworzone przez AI są już na takim poziomie, że czytelnicy mogą łatwo uwierzyć, iż zostały stworzone przez człowieka.

 

W poszukiwaniu przykładów można sięgnąć aż nieomal cztery lata wstecz. W Chinach, na początku 2017 r. robot o nazwie Xiao Nan, stworzony przez chińskich specjalistów AI, opublikował swój pierwszy artykuł w gazecie „Southern Metropolis Daily”. Materiał jest poświęcony zagadnieniu masowych podróży obywateli Państwa Środka w okresie chińskiego nowego roku. Xiao Nan potrzebował jednej sekundy, aby napisać tekst o objętości 300 znaków pisarskich, co w języku chińskim oznacza chyba materiał na co najmniej jedną stronę, ale nie jestem znawcą tamtejszych ideogramów, więc pozostawię znak zapytania. Komentujący osiągnięcie maszyny w chińskich mediach, profesor Xiaojun Wan z Uniwersytetu Pekińskiego, oceniał już wtedy, że robot dobrze sobie radzi z zarówno drobnymi, jak i dużymi formami, analizując i porównując przy tym znacznie więcej danych niż ludzie.

 

Od kilku lat z automatyzacją dziennikarstwa eksperymentuje znany tytuł „Washington Post”, wykorzystując opracowane wewnątrz firmy rozwiązanie o nazwie Heliograf. Podczas Igrzysk Olimpijskich w Rio w 2016 r. Heliograf wygenerował setki krótkich relacji. Podczas wyborów w Stanach Zjednoczonych w 2016 r. wykorzystano go do relacji z blisko pół tysiąca spotkań wyborczych. Inna znana amerykańska gazeta „The Los Angeles Times” zatrudniła z kolei automat do produkcji doniesień o trzęsieniach ziemi.

 

Prawdziwą prekursorką automatyzacji reporterskiej jest agencja Associated Press, która zaczęła używać AI do generowania newsów finansowych już w 2014 roku. Po wprowadzeniu takich rozwiązań liczba jej raportów z rynków finansowych wzrosła dziesięciokrotnie, co, jak odnotowano, miało wpływ na wielkość obrotów na rynkach finansowych. Korzystając z innego systemu, AP zaczęło potem tworzyć relacje z setek meczów lig amerykańskich.

 

Na początku 2019 r. australijska edycja „The Guardian” opublikowała artykuł na temat dotacji partyjnych w tym kraju podpisany „ReporterMate”. Jak wyjaśniała redakcja, krył się za tym „eksperymentalny, zautomatyzowany system przekazywania wiadomości”, który może analizować zestawy danych i wypluwać „na wyjściu” proste kawałki tekstu.

 

Wspominałem już na portalu SDP o pracach nad narzędziami takimi jak Quill, które uczą się konwertować różnorodne zbiory danych na spójne teksty, których jakość z iteracji na iterację rośnie. A czymże w końcu jest praca dziennikarska jeśli nie zbieraniem, kompilowaniem, syntezą danych w celu przygotowania treści. Quill, produkt firmy Narrative Science robi właśnie coś takiego.

 

Kristian Hammond, twórca Narrative Science powtarzał wiele razy w wywiadach prasowych, że zautomatyzowane newsy w ciągu kilkunastu lat stanowić będą 90 proc. wszystkich wiadomości publikowanych w mediach, nie tylko internetowych. Co ciekawe, w jego ocenie, nie oznacza to wcale dramatu, bezrobocia i końca zawodu dziennikarskiego. Uważa on, że dziennikarze nadal będą zajmować się swoją robotą, może poza prostymi informacjami, które i tak przecież nie były nigdy polem jakiejś szczególnie satysfakcjonującej zawodowej samorealizacji. Nadal będą pisać, komentować, analizować, rozmawiać. Na dobrą reporterkę, publicystykę, wywiady, zdaniem Hammonda, wciąż będzie miejsce i zapotrzebowanie. Nawet jeśli powstaną maszyny zdolne do tworzenia udanych ambitnych form dziennikarskich, to trudno się spodziewać, że ludzie będą chętni to czytać. Może inne maszyny, ale nie ludzie. Ludzie będą chcieli czytać, o tym co myślą i co wiedzą inni ludzie, mający w ich oczach autorytet lub sympatię, albo jedno i drugie. Jednak Hammond mówił to jeszcze przed popisami publicystyki w wykonaniu GPT-3.

 

Tymczasem ekspansja inteligentnych piszących robotów już w praktyce przekłada się na los ludzi pióra. Kilka miesięcy temu Microsoft ogłosił zamiar przeprowadzenia zwolnień dziennikarzy, redaktorów i innych pracowników serwisu MSN i innych redakcji informacyjnych. Firma podała, że zwolnienia te nie mają nic wspólnego z pandemią COVID-19, zaś bardzo wiele – z zakrojoną na szeroką skalę automatyzacją dziennikarstwa. Tracących pracę ludzi zastąpić mają algorytmy skanujące internetowe treści. Zresztą Microsoft coraz częściej zachęca reporterów i redaktorów do polegania na sztucznej inteligencji w takich zadaniach, jak wyszukiwanie oraz filtracja treści tekstowych i obrazów, które można wykorzystać w artykułach.

 

Mistrzowie researchu

 

Zatem redaktorzy robiąc tak, uczą maszyny, które w przyszłości mają ich zastąpić. To nie może nie budzić niepokojów. Z drugiej jednak stronu, uspokajając obawy newsroomów entuzjaści automatyzacji dziennikarstwa podkreślają, iż rozwój tych technik wydaje się być dla dziennikarzy okazją do skupienia się na bardziej pogłębionych, wyższej jakości treściach, zamiast na prostych, powtarzalnych kawałkach – ostatecznie uwalniając ich od swoistego mechanicyzmu pracy nad newsami. Zautomatyzowane dziennikarstwo otwiera też nowe możliwości dla organizacji medialnych, obniżając np. koszty, co ostatecznie powinno być korzystne także dla pracowników tych firm. Sprawne w researchu oprogramowanie może okazać się nieocenioną pomocą w newsroomach. Udoskonalone algorytmy dobrze nadają się też do weryfikacji faktograficznej i korekty błędów.

 

Na tym, czyli na wspomaganiu redaktorów i asyście polega projekt Reutersa, Lynx Insights, który przeszukuje wielkie zbiory danych, takie jak akcje lub wyniki sportowe, wskazując trendy i anomalie, a nawet pisząc kilka zdań przed przekazaniem go do ludzkiego dziennikarza. Jest to podobne podejście do tego, które przyjął serwis BuzzFeed, gdy przeszkolił algorytm przeszukiwania danych lotu w celu rozpoznania samolotów szpiegowskich, lub gdy projekt społeczny ProPublica użył nauki maszynowej do badania tysięcy komunikatów prasowych w celu analizy tego, co dzieje się w amerykańskim Kongresie.

 

Już w 2018 r. ok. jedna trzecia treści publikowanych przez Bloomberg News wykorzystywała jakąś formę automatyzacji. System wykorzystywany przez tę firmę, nazywany Cyborg, w pełnym wymiarze godzin wspiera dziennikarzy agencji w przygotowywaniu tysięcy raportów giełdowych i opracowań kwartalnych sprawozdań finansowych spółek. Program analizuje raporty finansowe firm natychmiast po ich publikacji i w ekspresowym tempie generuje materiały informacyjne podające najistotniejsze fakty i dane liczbowe. Człowiekowi, nawet doświadczonemu reporterowi finansowemu, zajmuje to znacznie więcej czasu, nie mówiąc już o tym, że to robota dla ludzi zwykle nudna, żmudna i podejmowana z niewielkim entuzjazmem.

 

„The Wall Street Journal” i Dow Jones również eksperymentują z technologią, która ma pomóc w realizacji przeróżnych zadań redakcyjnych, np. transkrypcji wywiadów z dźwięku na tekst a nawet do pomocy w identyfikacji tzw. „deep fakes”, czyli sfabrykowanych obrazów i filmów przedstawiających postacie wygenerowane przez zaawansowane algorytmy AI.

 

Szacowny „Forbes” poinformował parę lat temu, że testuje zintegrowane z systemem internetowej publikacji CMS, narzędzie o nazwie Bertie (od imienia założyciela magazynu z 1917 r.), którego celem ma być dostarczanie dziennikarzom szkiców i szablonów artykułów. Jak to działa w praktyce? Na przykład, dziennikarz „Forbesa” specjalizujący się w pisaniu o przemyśle samochodowym może od systemu otrzymać propozycję treści potencjalnego artykułu na temat, dajmy na to, Tesli. Towarzyszą jej linki do innych ważnych artykułów opublikowanych na ten temat zarówno w „Forbesie”, jak również na innych stronach internetowych, związanych z tematem. Narzędzie dostarcza również sugestii obrazów, które mogłyby ilustrować artykuł. Jak zapewniał w wypowiedziach w mediach Salah Zalatimo, dyrektor ds. cyfrowych w Forbes Media, w chwili obecnej Bertie nie generuje treści, które są gotowymi i w pełni zadowalającymi materiałami do publikacji. Służy raczej jako „punkt wyjścia do dalszej pracy”.

 

Opis robota „Forbesa” przywodzi na myśl raczej użytecznego asystenta, researchera współpracującego z autorem, niż zrobotyzowaną alternatywę dla dziennikarzy, choć firma nieomal jednocześnie z premierą Bertiego zaczęła mówić o „narzędziu AI do pisania artykułów”.

 

„Każdy organizacja, która zajmuje się tworzeniem treści, jest dziś pod przemożną presją, by generować je coraz szybciej i coraz bardziej redukować koszty,” mówi cytowany już przeze mnie na portalu SDP Ron Schmelzer, główny analityk w Cognilytica, firmie badawczej zajmującej się sztuczną inteligencją. „Na rynku będzie coraz więcej takich narzędzi [zautomatyzowanych i zrobotyzowanych – red.], coraz efektywniej i wydajniej produkujących coraz większe ilości treści”.

 

Wypowiadając się w wywiadach prasowych czy w oficjalnych komunikatach kadra kierownicza środków masowego przekazu twierdzi zwyczajowo, że wprowadzanie opartych na algorytmach narzędzi nie stanowi żadnego zagrożenia dla dziennikarzy. „Chodzi raczej o to, aby dziennikarze mogli poświęcać więcej czasu na pracę merytoryczną, koncepcyjną i twórczą,” słyszymy. Czy rzeczywiście kluczowa rola „czynnika ludzkiego” przetrwa w znajdujących się pod potężna presją rynkową mediach? Być może. A może jednak nie ma na to szans, bo niestety maszyny pod pewnym względami nie tylko dorównują ludziom, ale ich znacznie przewyższają.

 

Środki indywidualnego przekazu

 

Fakt, że pod pewnymi względami roboty mogą więcej, potencjalnie pozwala radykalnie przebudować logikę operowania mediów. Zamiast starać się dotrzeć do jak największej masy odbiorców, mogą (i nie ma z tym ekonomicznego problemu, gdyż kreacja treści w AI jest docelowo o wiele tańsza), celować w niewielkie, lokalne i precyzyjną kreską oddzielone grupy a nawet w pojedyncze osoby. To nie są już „mass” media lecz „very personalized” media.

 

Ta personalizacja, dzięki chirurgicznej precyzji i zwinności algorytmów AI może doprowadzić nas nawet dalej niż oferowanie każdemu z osobna takich artykułów, jakie go interesują. To, jak szkicują przyszłość niektórzy teoretycy, może być takie dziennikarskie origami, w którym elementy tekstów i obrazów są komponowane według preferencji indywidualnego odbiorcy.

 

Inaczej mówiąc, każdy czytelnik może czytać inny, stworzony specjalnie dla niego artykuł, niż czytelnik obok, dla którego algorytmy skroiły nieco inna wersję tej samej „story”. To nic w Internecie niezwykłego, jeśli przypomnimy sobie, że algorytmy Google, Facebooka czy Twittera od dawna podsuwają każdemu jego własną wersję serwisu wedle przyzwyczajeń i wybranych opcji (tzw. targetowanie behawioralne).

 

Jednak taki poziom personalizacji na bazie algorytmów AI budzi spore wątpliwości natury zasadniczej, etycznej i odwołującej się do podstawowych zasad, na których opierają się środki masowego przekazu w demokracji. Przede wszystkim tworzenie indywidualnych preferencji wymaga potężnej inwazji na prywatność odbiorcy, taką jakiej zresztą dopuszczają się społecznościówki. Po drugie pojawiają się pytania o prawdę obiektywną, wiarygodność, równe prawo do wolnej, rzetelnej informacji, w świecie, w którym newsy są krojone dla każdego inaczej.

 

Kompleksowy automat dziennikarski

 

To są jednak problemy, którymi podążający w śmiałym marszu do jutra świat technologii może się zbytnio nie przejąć. Ten świat coraz śmielej proponuje kompleksowe rozwiązania typu „zautomatyzowany dziennikarz end-to-end”.

 

Np. w marcu 2019 w chińskiej telewizji ważne dla Komunistycznej Partii Chin wydarzenie relacjonowała nowa gwiazda tamtejszej telewizji – Xin Xiaomeng. Widzom wydał się nieco dziwny. Nic dziwnego. Prezenter w TV był cyfrowym kompozytem, stworzonym przy pomocy maszyny uczącej się naśladować mimikę twarzy i wzorce mowy prawdziwej osobowości telewizyjnej. Wzorowany był na dziennikarzu Xinhua o nazwisku Qu Meng. Na razie słowa Xin Xiaomenga są pisane przez człowieka, a inteligencja systemu ogranicza się do zamiany tekstu na mowę. Gdyby jednak połączyć system z takimi algorytmami jak GPT-3, mielibyśmy już całość, w warstwie obrazu, głosu i przekazywanej treści. Kto zna syntezatory mowy, takie jak nasza rodzima Ivona, ten wie, że gdy ma się gotowy tekst, to wypowiedzenie go przez maszynę już nie stanowi żadnego problemu. Zatem mamy już wszystkie elementy składowe pełnego automatu dziennikarskiego, w dodatku wyglądającego jak żywy człowiek.

 

Możemy tego nie dostrzegać, ale takie automaty już się w technologicznych komorach inkubacyjnych rodzą. Google zapowiedział, że jego znany wielu ze smartfonów cyfrowy asystent będzie stanie się „gospodarzem wiadomości” serwowanych z podłączonych urządzeń od różnych partnerów medialnych. Prowadzącego serwis wiadomości robota wywoływać będzie dostępna od kilku tygodni funkcja nazwana „Your News Update” po której uruchomieniu trzeba poprosić Asystenta Google o przekazanie wiadomości głosowo. Automat oczywiście przedstawia serwis spersonalizowany, dostosowany do indywidualnych ustawień i historii użytkowania, inaczej niż to jest w tradycyjnych mediach. Jest to więc nie tylko dziennikarz-robot, ale w dodatku par excellence – twój robot.

 

Funkcja ta na razie jest dostępna jedynie w języku angielskim w Stanach Zjednoczonych, jednak w przyszłym roku zostanie rozszerzona na inne kraje, dla osób posiadających kompatybilne smartfony i podłączone głośniki. Podobną usługę o nazwie „flash briefing” od pewnego czasu oferuje również Amazon – w swoich urządzeniach ze sztuczną inteligencja konwersacyjną Alexa. Jeśli więc dziennikarze radiowi i telewizyjni myśleli, że bój z maszynami o stanowiska pracy dotyczy jedynie redaktorów piszących, to na pewno są w błędzie.

 

Gdy się nam tym głębiej zastanowić, to nasuwa się wniosek, że w miarę postępów zrobotyzowanej reporterki, rosnąć będzie również automatyzacja i algorytmizacja po stronie odbiorcy. Spójrzmy na to, jak działa robot takiego typu jak Google Asystent. Jeśli postawi mu się za zadanie przygotowywanie serwisów o tematyce gospodarczej na podstawie oceanu informacji, w coraz większym stopniu, jak wiemy, generowanych przez maszyny, to robot stanie się w istocie odbiorcą (czytelnikiem!) materiałów generowanych przez inne roboty, a w konsekwencji niejako pośrednikiem filtrującym, przygotowującym i odkrywającym sens w nasilającej się, masowej lawinie danych. Jeśli zdamy się na maszyny we wszystkich aspektach konsumpcji informacji, to zniknąć może nawet ostatni argument, że „ludzie będą woleli ludzi a nie automaty”. W sytuacji, gdy robot jest gatekeeperem czuwającym nad personalizacją newsów, przestaniemy wybierać, gdyż wygodniej będzie zdać się na maszynę, która przecież dopasowuje się do nas idealnie.

 

Albo poprawna politycznie, albo inteligencja

 

Jest jednak cień nadziei płynący z dość zabawnej historii, która przydarzyła się zwalniającemu dziennikarzy na rzecz sztucznej inteligencji Microsoftowi. Okazało się, że twórcy algorytmów nie umieją jeszcze, poza umiejętnościami selekcjonowania, redagowania, a nawet pisania informacji, nauczyć sztucznej inteligencji poprawności politycznej połączonej z wysokim poziomem rewolucyjnej czujności akceptowanym przez lewicowe media.

 

W lutym tego roku okazało się mianowicie, że algorytm zajmujący wyszukiwaniem artykułów w Internecie i wypełnianiem nimi serwisu MSN popełnił zbrodnię najstraszliwszą w oczach neomarksistów spod znaku BLM a tacy obecnie dominują w zachodnich mediach mainstreamowych. Mianowicie pomylił ze sobą dwie kolorowe kobiety z zespołu Little Mix. Gdyby wciąż niedoskonała maszyna pomyliła dwóch białych mężczyzn to byłaby po prostu pomyłka. Jednak w odniesieniu do osób ciemnoskórych to „skandaliczny rasizm”. W dodatku były to kobiety, więc zarazem mizoginizm, męski szowinizm i ogólnie – „rasistowski samiec twój wróg”.

 

„The Guardian” zawył przeciągle o „problemie uprzedzeń rasowych sztucznej inteligencji w newsroomie MSN”. W świecie „woke” firma nie może takiej sytuacji zbyć krótkimi wyjaśnieniami o „niedoskonałości systemu” i pracy nad „doskonaleniem algorytmów”. O nie. Musiała, wdrożyć jakieś specjalne procedury, kontrole itp.

 

Płynie z tego wniosek taki, że być może jednak, kolego reporterze i koleżanko redaktorko nie musisz się, przynajmniej na razie, obawiać sztucznej inteligencji, która grozi twojej posadzie. Trzeba tylko odpowiednio opanować meandry „myślenia” w kategoriach poprawności politycznej. Maszyny tego się nie nauczą, bo zasadniczo są po prostu inteligencją. A jeśli im się to ideolo wtłoczy do algorytmów, to już inteligencją ani sztuczną, ani jakąkolwiek, nie będą. A to w efekcie, dla ludzi obawiających się AI, nie taka zła wiadomość.