Niech ktoś wreszcie powie to głośno: wolność słowa na Facebooku istnieje tylko w reklamach. W praktyce to już nie forum publiczne, lecz cyfrowy folwark, w którym algorytmy rozstrzygają, co wolno widzieć, a czego lepiej nie dotykać. I oto ja, dziennikarz działający w Irlandii, publikujący oficjalne informacje przekazywane mediom przez rząd, zostałem właśnie nauczony pokory przez sztuczną inteligencję z Doliny Krzemowej.
Wystarczyło, że zamieściłem materiał, który nie spodobał się komuś o delikatnej konstrukcji światopoglądowej. Post był czysty jak łza: cytat z rządowego komunikatu, bez komentarza, bez manipulacji, bez emocji. Ale w oczach Facebooka to już nie „informacja publiczna”. To „potencjalne naruszenie zasad społeczności”. Jakich zasad? Nikt nie wie, bo Facebook zasad nie tłumaczy. On orzeka.
Problem nie polega na tym, że ktoś się pomylił. Problem w tym, że ten „błąd” nie jest przypadkiem, to system. Algorytm nie rozróżnia między opinią a faktem, a jeszcze mniej rozumie kontekst. Jego zadaniem jest utrzymywać użytkownika w stanie ciepłej zgody. A wszystko, co może wywołać choćby cień kontrowersji, zostaje ukarane.
Ironia? Publikuję komunikat prasowy rządu Irlandii, który cytowały wszystkie media w kraju od RTÉ, Irish Times, po Independent – i dostaję powiadomienie, że post „może wprowadzać w błąd i naruszać zasady” domniemanej społeczności. Czyli Facebook wie lepiej niż sam irlandzki rząd, co jest oficjalnym stanowiskiem władz. Cenzura przeszła na nowy poziom i teraz nawet rzeczywistość musi uzyskać zgodę na publikację.
Ale może to nie algorytm, tylko człowiek? Może ktoś, komu nie spodobał się ton, temat albo sama obecność mojej osoby w sieci, postanowił kliknąć „zgłoś naruszenie zasad”? Wtedy sprawa robi się jeszcze bardziej absurdalna. Bo jeśli to osoba prywatna, to niech stanie przede mną. Niech spojrzy w oczy i powie: „To nieprawda”, a ja wtedy, z pełną dokumentacją w ręku, udowodnię, że nie tylko się myli, ale że zwyczajnie nie rozumie świata, w którym żyje. A jeśli bardzo chce, niech mnie pozwie, bo w sądzie fakty są jeszcze czymś więcej niż emocjami.
Tyle że dziś do sądu nikt nie chodzi. Wystarczy naciśnięcie jednego przycisku, by człowieka wymazać z przestrzeni publicznej i to bez wyroku, bez uzasadnienia, bez prawa do obrony. Platforma zdejmuje post, ogranicza zasięgi, przycina widoczność. Nie ma listu, nie ma pieczęci, nie ma nazwiska cenzora – jest tylko komunikat: „Ten materiał został ukryty, ponieważ może naruszać nasze standardy”. Brzmi jak paragraf z kodeksu państw komunistycznych, tylko w wersji z logiem Meta.
Tak działa współczesna cenzura, jest miękka, automatyczna, pozbawiona twarzy. Nikt już nie mówi: „Nie wolno”. Zamiast tego mówi się: „To niebezpieczne, potencjalnie szkodliwe, niezgodne z wytycznymi”. Tylko że wytyczne są ruchome jak piasek. Wczoraj można było cytować ministra, dziś już nie. Wczoraj można było komentować decyzję rządu, dziś to już „mowa nienawiści”.
Niech nikt nie myśli, że to zjawisko dotyczy tylko mnie. Irlandzkie media lokalne od dawna narzekają, że algorytmy Facebooka dławią treści, które nie są „viralowe” ani „sponsorowane”. Redakcje z Galway, Limerick czy Cork publikują informacje o sesjach rad miejskich, o lokalnych inwestycjach, o sprawach mieszkańców i widzą, jak zasięgi topnieją do kilkuset wyświetleń. W tym samym czasie reklama nowego napoju energetycznego ma tysiące. Bo emocja sprzedaje się lepiej niż informacja.
Facebook tłumaczy to „optymalizacją treści”, ale to słowo-maskowanie: w rzeczywistości chodzi o kontrolę narracji. Platforma nie jest już neutralnym narzędziem. Jest selektorem. Zgodnie z unijnym Digital Services Act (DSA), ma teraz prawo i obowiązek „ograniczać szkodliwe treści”, tyle że nikt nie zdefiniował, co jest szkodliwe. Czy krytyka rządu? Czy podanie danych niezgodnych z narracją ministerstwa zdrowia? Czy cytat z polityka, który ma złą prasę?
To nie są pytania filozoficzne. To praktyka. W Irlandii wiele redakcji otrzymało „ostrzeżenia” za publikację wypowiedzi polityków opozycji, jeśli te były uznane przez społeczność za „podżegające do nienawiści”. A czym jest „nienawiść”? Dziś może nią być nawet stwierdzenie, że rząd popełnił błąd.
W DSA zapisano piękne słowa o „odpowiedzialności platform”, o „bezpieczeństwie użytkowników” i „walce z dezinformacją”. Ale w praktyce przerzucono ciężar odpowiedzialności na prywatne korporacje, które zyskały status nieformalnych cenzorów Europy. Facebook, X (dawny Twitter), YouTube, to one decydują, co obywatele mogą zobaczyć. Państwa, które przez wieki broniły wolności prasy, teraz z radością outsourcują kontrolę treści do firm z Kalifornii.
Nie chcę żyć w świecie, w którym fakty są „na próbę”. Nie chcę, żeby każdy mój wpis musiał przejść przez cyfrowy detektor emocji, zanim zostanie dopuszczony do obiegu. I nie chcę, żeby prawda zależała od tego, kto ma większy budżet reklamowy. Bo jeśli dziś Facebook może usunąć oficjalny komunikat rządu Irlandii, to jutro może usunąć cokolwiek, również to, że istniejesz. Twoje wspomnienia, zdjęcia, relacje, głosy, wszystko to jest ich teoretyczną własnością. Jedno kliknięcie i przestajesz istnieć w cyfrowym świecie. Nie dlatego, że złamałeś prawo, tylko dlatego, że ktoś uznał, że przeszkadzasz w narracji.
Czasem słyszę, że to przecież „prywatna firma”, więc może robić, co chce. Owszem, może, ale Facebook to nie prywatna kawiarnia, w której właściciel może wyprosić klienta. To przestrzeń publiczna, gdzie toczy się debata obywatelska, gdzie obywatele wymieniają informacje, gdzie media publikują treści. Gdy taka przestrzeń zostaje podporządkowana arbitralnym decyzjom niewidzialnych moderatorów, demokracja traci tlen.
A jednak większość milczy, bo przecież „to tylko zasięgi”. „To tylko post”. „To nie jest cenzura, tylko regulacja”. Tak się zaczyna każdy proces tłumienia wolności – od bagatelizowania. Dopóki nie dotknie bezpośrednio ciebie, wydaje się drobiazgiem. Dopiero gdy zorientujesz się, że nie możesz już niczego opublikować bez zgody algorytmu, jest za późno.
W tej sytuacji nie mam zamiaru udawać pokornego petenta wobec anonimowych zgłoszeń. Jeśli komuś przeszkadza, że publikuję fakty – zapraszam do rozmowy. Jeśli ktoś uważa, że rozpowszechniam nieprawdę – zapraszam do sądu. Tam jeszcze obowiązuje logika, dowody, źródła, prawo do obrony. W przeciwieństwie do Facebooka.
To, co się dzieje dziś w mediach społecznościowych, nie jest przypadkiem. To systemowy eksperyment, w którym testuje się granice społecznego posłuszeństwa. Ile można nam zabrać, zanim zauważymy? Ile razy można wyciszyć głos, zanim uznamy, że cisza to norma? Nie zamierzam milczeć. Nie dlatego, że lubię walczyć z wiatrakami, ale dlatego, że wiem, dokąd prowadzi milczenie. Historia Europy zna już zbyt wiele przykładów, gdy cenzura zaczynała się od troski o „dobro wspólne”. Zawsze kończyło się tak samo – strachem, cenzurą i tłumem ludzi, którzy bali się mówić prawdę, bo algorytm mógłby się obrazić.
Więc, drogi Facebooku, rób swoje – ograniczaj, filtruj, chowaj, ale pamiętaj, że prawda nie potrzebuje zasięgu, by przetrwać. Ona znajdzie drogę, nawet jeśli ukryjesz ją pod tysiącem raportów. A do wszystkich tych, którzy klikają „zgłoś”, zamiast dyskutować – proponuję prosty eksperyment: wyjdźcie zza klawiatury. Stańcie przede mną i powiedzcie, że się mylę.
Wtedy rozmowa zacznie się naprawdę i może wreszcie odkryjemy, że problemem nie jest to, kto ma rację – tylko to, że w ogóle przestaliśmy jej szukać.
Tak na marginesie, co może wkurzyć bardziej ludzi i Facebooka? Zasięg jednego zaledwie tekstu na poziomie przekraczającym 300 000 wyświetleń. Dziękuję za tę ilość i wszystkie inne, równie wysokie. Poza tym wstyd, żeby więcej wejść na polskim i trochę irlandzkim portalu pochodziło z kraju byłego wielusetletniego okupanta Irlandii, a i Germania goni naszą irlandzką społeczność. 😉
Bogdan Feręc
Photo by Kristina Flour on Unsplash


