Młodzież Kontra Dezinformacja

Prawda w sieci. Prawo, etyka i odpowiedzialność platform społecznościowych

W erze cyfrowej, gdzie informacje rozprzestrzeniają się błyskawicznie, walka o prawdę staje się jednym z największych wyzwań współczesnego społeczeństwa. Media społecznościowe, takie jak Facebook, X (dawniej Twitter), TikTok i YouTube, stały się nie tylko przestrzenią wymiany opinii, ale także areną, na której fałszywe treści – od manipulacji politycznych po dezinformację zdrowotną – mogą wpływać na decyzje milionów ludzi. W Polsce, gdzie według badań instytutu Badań Rynkowych i Społecznych aż 37 procent internautów nigdy nie weryfikuje wiarygodności informacji, problem ten nabiera szczególnego znaczenia. Platformy te, choć korzystają z algorytmów promujących angażujące treści, coraz częściej stają pod lupą prawa i etyki, zwłaszcza w kontekście unijnego Aktu o Usługach Cyfrowych (DSA), który od 2024 roku nakłada na nie nowe obowiązki. Analiza odpowiedzialności prawnej tych gigantów w obliczu rozpowszechniania fake newsów pokazuje, jak delikatna jest równowaga między wolnością słowa a ochroną przed manipulacją, i jak Polska wpisuje się w szerszy europejski trend regulacji.

Podstawą prawnej odpowiedzialności platform społecznościowych w Polsce i Unii Europejskiej jest Dyrektywa o handlu elektronicznym z 2000 roku, która chroni pośredników – czyli serwisy hostujące treści użytkowników – przed automatyczną odpowiedzialnością za cudze publikacje. Oznacza to, że Facebook, X, TikTok czy YouTube nie ponoszą winy za fałszywe treści, dopóki nie otrzymają wiarygodnego zgłoszenia o ich nielegalności i nie podejmą działań w celu ich usunięcia. Jednak DSA, obowiązujący od lutego 2024 roku we wszystkich krajach UE, w tym w Polsce, zmienia ten krajobraz, wprowadzając rygorystyczne wymagania wobec „bardzo dużych platform online” (VLOP), do których zaliczają się wszystkie analizowane serwisy. Zgodnie z DSA, platformy muszą nie tylko reagować na zgłoszenia, ale także proaktywnie oceniać ryzyka związane z dezinformacją, takie jak manipulacje wyborcze czy fałszywe informacje o zdrowiu publicznym. W Polsce implementacja DSA napotyka wyzwania – projekt ustawy rządowej z stycznia 2025 roku przewiduje mechanizmy blokowania treści przez Urząd Komunikacji Elektronicznej (UKE), co budzi obawy organizacji takich jak Reporterzy bez Granic o potencjalne zagrożenie dla wolności słowa. Etycznie platformy powinny kierować się zasadami przejrzystości i odpowiedzialności, ale raport Europejskiego Obserwatorium Mediów Cyfrowych z czerwca 2025 roku wskazuje na ich nieskuteczność: Meta (właściciel Facebooka i Instagrama), Microsoft (współpracujący z X) oraz TikTok otrzymały niskie oceny za wsparcie dla fact-checkerów, podczas gdy Google (YouTube) wypadł lepiej.

Facebook, jako jedna z najpopularniejszych platform w Polsce z ponad 18 milionami aktywnych użytkowników miesięcznie, od lat boryka się z oskarżeniami o bierność wobec dezinformacji. W 2018 roku stowarzyszenie Społeczna Inicjatywa Narkopolityki (SIN) pozwało Meta za zablokowanie swoich kont za treści edukacyjne o redukcji szkód związanych z narkotykami, uznane przez platformę za naruszające standardy społeczności. Sąd w marcu 2024 roku nakazał przywrócenie profili, ale rok później treści nie wróciły, a Meta złożyła apelację, argumentując zgodnością z prawem. Ta sprawa ilustruje szerszy problem: w Polsce Facebook jest często kanałem rozprzestrzeniania fałszywych narracji politycznych, np. o migrantach czy wyborach, co w kontekście DSA mogłoby skutkować karami do 6 procent globalnego obrotu firmy – w 2024 roku wyniosło ono setki miliardów dolarów. Etycznie Facebook deklaruje walkę z fake newsami poprzez partnerstwa z polskimi fact-checkerami jak Demagog, ale raport Maldita z 2024 roku pokazuje, że prawie połowa dezinformujących postów na platformie pozostaje bez reakcji, co podważa te wysiłki i rodzi pytania o priorytety algorytmów faworyzujących kontrowersyjne treści dla zysku z reklam.

X, dawny Twitter, po zmianie właściciela w 2022 roku stał się symbolem luźniejszej moderacji, co w Polsce nasiliło problemy z dezinformacją wokół wydarzeń geopolitycznych, jak wojna na Ukrainie. Platforma, z około 3 milionami polskich użytkowników, musi pod DSA współpracować z „zaufanymi flaggerami” – w Polsce m.in. z NASK czy Ministerstwem Cyfryzacji – w usuwaniu nielegalnych treści. Przykładem jest dezinformacja rosyjska oskarżająca Polskę o „zbrodnie na migrantach” na granicy z Białorusią w 2021 roku, którą X usuwał wolniej niż rywale, co doprowadziło do interwencji unijnych regulatorów. W 2025 roku polski rząd, w ramach implementacji DSA, planuje nałożyć na X obowiązek szybkiego blokowania treści „zachęcających do bezprawia”, z karami do 50 milionów złotych. Etycznie Elon Musk promuje „wolność słowa”, ale raport EDMO krytykuje niskie zaangażowanie w weryfikację faktów, zwłaszcza w tematach jak COVID-19, gdzie tylko 13 procent fałszywych postów o pandemii zostało oznaczonych. W polskim kontekście, gdzie X jest kluczowy dla dyskusji politycznych, taka postawa zwiększa ryzyko polaryzacji społeczeństwa.

TikTok, z jego krótkimi wideo skierowanymi głównie do młodych, jest w Polsce platformą o największym wzroście – ponad 10 milionów użytkowników w 2025 roku – ale też największym źródłem dezinformacji wizualnej. DSA klasyfikuje go jako VLOP, nakładając obowiązek oceny ryzyka dla nieletnich, w tym ekspozycji na fałszywe treści o zdrowiu psychicznym czy teoriach spiskowych. W Polsce TikTok stał się celem krytyki po ujawnieniu w 2024 roku wewnętrznych dokumentów, z których wynika, że firma wiedziała o szkodliwości algorytmu dla dzieci, ale nie podjęła wystarczających działań. Przykładem jest viralowy film z 2023 roku twierdzący, że „szczepionki powodują autyzm”, który zebrał miliony wyświetleń zanim został usunięty po interwencji UOKiK. Etycznie platforma współpracuje z polskimi edukatorami w kampanii FakeHunter-Edu, ale raport Maldita wskazuje na najwyższy poziom bierności – ponad 50 procent dezinformujących wideo bez reakcji. W kontekście polskim, gdzie TikTok jest popularny wśród młodzieży, brak proaktywności rodzi etyczne dylematy: czy zysk z angażujących, ale fałszywych treści nie przeważa nad odpowiedzialnością za kształtowanie młodych umysłów?

YouTube, należący do Google, wyróżnia się w Polsce zaufaniem – według badań z czerwca 2025 roku Polacy ufają mu najbardziej spośród platform, z 40 procentami respondentów weryfikujących treści. Jako VLOP podlega DSA obowiązkom usuwania nielegalnych materiałów, w tym deepfake’ów politycznych, i musi publikować raporty przejrzystości. W Polsce przykładem jest sprawa z 2020 roku, gdy YouTube usunął filmy promujące teorie spiskowe o 5G powodującym COVID-19, po zgłoszeniach NASK, co zapobiegło szerszemu rozprzestrzenianiu. Jednak raport EDMO chwali Google za wysokie zaangażowanie w fact-checking, ale krytykuje za opóźnienia w usuwaniu treści – np. w 2024 roku film z fałszywą informacją o „zniesieniu zakazu aut spalinowych w 2035 roku” zebrał ponad milion wyświetleń. Etycznie YouTube inwestuje w algorytmy AI do wykrywania dezinformacji, ale w polskim kontekście, gdzie platforma jest źródłem edukacji, etyczna odpowiedzialność obejmuje nie tylko usuwanie, ale i promowanie wiarygodnych źródeł, co DSA wymusza poprzez audyty ryzyka.

Podsumowując, odpowiedzialność prawna Facebooka, X, TikToka i YouTube’a w Polsce ewoluuje pod wpływem DSA, przechodząc od biernej reakcji na zgłoszenia do proaktywnej prewencji dezinformacji. Etycznie platformy stoją przed wyzwaniem pogodzenia zysków z ochroną użytkowników, podczas gdy w Polsce, z jej historią politycznych podziałów i hybrydowych zagrożeń z Rosji czy Białorusi, potrzeba silniejszych mechanizmów jest pilna. Kampanie jak FakeHunter-Edu czy współpraca z rządowymi instytucjami pokazują drogę naprzód, ale kluczowa pozostaje edukacja społeczeństwa – bo prawda w sieci zaczyna się od nas samych. Tylko poprzez dialog prawa, etyki i technologii możemy zbudować cyfrowy ekosystem, w którym fałsz nie ma przewagi nad faktami.