Szymon Wigienka

Uniwersytet Mikołaja Kopernika w Toruniu

ORCID: 0000-0002-4769-5458


Download PDF via DOI:
https://doi.org/10.51480/compress.2021.4-1.247

Przeciwdziałanie dezinformacji w dobie pandemii COVID-19

Countering Disinformation in the Time of the COVID-19 Pandemic

Abstrakt
Pandemii COVID-19 towarzyszyło rozprzestrzenianie się na szeroką skalę nieprawdziwych lub wprowadzających odbiorców w błąd informacji. W odpowiedzi na ten problem państwa, organizacje międzynarodowe, przedsiębiorstwa (zwłaszcza platformy cyfrowe, takie jak Facebook, czy Twitter), a także inicjatywy obywatelskie (w tym fact-checkingowe) rozwijały różnego rodzaju działania, których celem było ograniczenie zasięgu internetowej dezinformacji. Niniejszy artykuł ma charakter eksploracyjno-opisowy. Jego głównym celem jest przedstawienie wiodących inicjatyw antydezinformacyjnych podejmowanych w czasie pandemii koronawirusa przez podmioty z sektora publicznego, prywatnego i pozarządowego, a także scharakteryzowanie specyfiki wyłaniającego się systemu zwalczania ukrytej propagandy cyfrowej według teoretycznych założeń perspektywy internet governance.

Abstract
The COVID-19 pandemic has been followed by the large-scale dissemination of false or misleading information. In response, governments, international organizations, enterprises (including digital platforms such as Facebook or Twitter) as well as citizens' initiatives (including fact-checking activities) have been developing various methods of countering online disinformation. The paper shows the results of exploratory-descriptive research. Its main objective is to present an overview of leading anti-disinformation initiatives undertaken during the COVID-19 pandemic by the public, private and non-governmental sectors. The paper also describes the emerging system of combating online propaganda, basing on the theoretical framework of the internet governance perspective.

Keywords

Wprowadzenie

Pandemii COVID-19 towarzyszyło rozprzestrzenianie się na szeroką skalę różnego rodzaju komunikatów o charakterze dezinformacji. Reklamy niepotwierdzonych leków, artykuły obwiniające technologię 5G o wywoływanie symptomów schorzenia, czy posty nawołujące do łamania zasad „społecznego dystansowania” stanowią zaledwie kilka wybranych przykładów wprowadzających w błąd przekazów, które zyskały popularność w pierwszej połowie 2020 r. (Demagog, 2020). Od czasu gdy na agendzie międzynarodowej pojawił się problem dezinformacji1 różne podmioty starały się wypracować mechanizmy na rzecz przeciwdziałania temu zjawisku. Kryzys komunikacyjny związany z pandemią przyczynił się do zintensyfikowania tych wysiłków. Państwa, organizacje międzynarodowe, prywatne przedsiębiorstwa (zwłaszcza platformy cyfrowe, takie jak Facebook oraz Twitter), a także przedsięwzięcia obywatelskie (w tym inicjatywy fact-checkingowe) rozwijały w tym okresie swoje strategie walki z „problematycznymi informacjami”2 (Freelon & Wells, 2020, s. 1–2), a także wdrażały wynikające z nich działania.

Czas pandemii COVID-19 okazał się podanym gruntem dla rozprzestrzeniania się informacji o niskiej jakości, zawierających niesprawdzone, manipulujące treści. Chociaż ze względu na wieloaspektowy, interaktywny, często niejawny charakter dezinformacji nie jest możliwe określenie dokładnej skali tego zjawiska, to dostępne analizy wskazują, że w trakcie pandemii stanowiło ono istotny, wyraźnie zauważalny problem (zob. Au i in., 2020; EUvsDisinfo, 2020; Hollowood & Mostrous, 2020). Według raportu pracowni Edelman (2020, s. 5) aż 74% respondentów (z 10 przebadanych krajów) martwiło się tym, że w przestrzeni informacyjnej rozpowszechnianych jest dużo fake newsów i fałszywych informacji dotyczących wirusa. Fakt, że odbiorcy współczesnych mediów są zaniepokojeni ilością dezinformacji potwierdziły również dane „Digital News Report 2020” (Reuters Institute, 2020, s. 17–20), który pokazał, że średnio aż 56% respondentów (z 40 przebadanych państwach) boi się, że może mieć problemy z odróżnianiem faktów od kłamstw w internecie.

Niniejszy artykuł ma charakter eksploracyjno-opisowy. Jego głównym celem jest przedstawienie wiodących inicjatyw antydezinformacyjnych podejmowanych w czasie pandemii koronawirusa3 przez podmioty z sektora publicznego, prywatnego i pozarządowego. W tekście podejmuję także próbę scharakteryzowania specyfiki wyłaniającego się systemu zwalczania ukrytej propagandy cyfrowej według teoretycznych założeń perspektywy internet governance. Przegląd został dokonany metodą desk rearch. Do przeanalizowanych źródeł należały wybrane dokumenty strategiczne, raporty eksperckie, strony internetowe podmiotów zaangażowanych w przeciwdziałanie dezinformacji (oraz wypowiedzi medialne ich przedstawicieli), a także artykuły dziennikarskie.

Perspektywa intrenet governance w badaniach dezinformacji

Zjawisko dezinformacji z wykorzystaniem współczesnych technologii komunikacyjnych jest problemem aktualnym i wciąż ewoluującym. Chociaż fenomen ten od kilku lat (szczególnie od 2016 roku) jest popularnym tematem badań naukowych, to wciąż wiąże się on z większą liczbą pytań niż odpowiedzi, a baza teoretyczna na tym polu dopiero się wykształca. Istnieje wiele luk w obecnym stanie wiedzy z zakresu poruszanej problematyki, a dotyczą one m.in. poszczególnych mechanizmów i narzędzi, za pomocą których dezinformacja się rozprzestrzenia, jej zasięgu, a także potencjalnych efektów. Należy zaznaczyć również, że nie możemy mówić o jednej, uniwersalnej specyfice ukrytej propagandy cyfrowej. Fenomen ten jest silnie uzależniony od zróżnicowanych krajowych uwarunkowań politycznych, medialnych, społecznych i historycznych. Z tego względu niezbędne jest ciągłe aktualizowanie wiedzy na tym polu i prowadzenie badań uwzględniających specyfikę różnych państw i grup społecznych.

Jednym z podstawowych problemów dotyczących teoretycznych podstaw zjawiska dezinformacji jest brak konsensusu definicyjnego (szerzej w: Tucker i in., 2018), a także terminologicznego. Celem mojego artykułu nie jest jednak wikłanie się w rozważania na tym polu. W niniejszym tekście zamiennie posługuję się określeniami: „dezinformacja”, „ukryta propaganda cyfrowa” oraz „problematyczne informacje” dla określenia „szerokiej kategorii opisującej różne formy informacji w sieci, które mogą potencjalnie prowadzić do mylnego pojęcia o aktualnym stanie świata” (Tucker i in., 2018, s. 3). Przyjęcie takiej nieostrej optyki jest powodowane znaczącymi rozbieżnościami w postrzeganiu i nazywaniu poruszanych zagadnień wśród samych aktorów zaangażowanych w proces zwalczania dezinformacji, których działalność stanowi przedmiot badania.

Freelon i Welles (2020) wskazują, że badania nad dezinformacją wpisują się w dwie główne kategorie tematyczne. Pierwsza z nich dotyczy zawartości dezinformacji i wzorów jej dystrybucji (odpowiada zatem na pytania „kto, co, do kogo i za pośrednictwem jakiego kanału mówi?”). Druga natomiast skupia się na recepcji i perspektywie odbiorców (stara się zatem uchwycić potencjalne oddziaływanie tych przekazów, odpowiadając na pytanie „z jakim skutkiem?”). Saurwein i Spencer-Smith (2020, s. 2–3) zwracają jednak uwagę na jeszcze jeden obszar, który cechuje się niższym poziomem zainteresowania ze strony środowiska naukowego i z tego względu szczególnie należy go rozwijać. Dotyczy on społeczno-politycznych odpowiedzi na dezinformację. Niniejszy artykuł wpisuje się właśnie w tę trzecią kategorię.

W kontekście rozważań dotyczących przeciwdziałania dezinformacji istotną bazę teoretyczną dostarczają prace dotykające zagadnienia „zarządzania internetem” (ang. internet governance). Pojęcie to odnosi się do „opracowywania i wdrażania przez rządy, sektor prywatny i społeczeństwo obywatelskie (…) wspólnych zasad, norm, reguł, procesów decyzyjnych i programów, które kształtują rozwój i użytkowanie internetu” (WSIS, 2005). Analizy opierające się na tej perspektywie starają się znaleźć odpowiedź na pytanie jakie podmioty (a także w ramach jakich procesów) decydują o charakterze i kształcie współczesnej sieci WWW. W pracach dotyczących tej problematyki wyróżnia się kilka różnych modeli zarządzania internetem. Pierwszym z nich jest model „wielostronnego zarządzania przez interesariuszy” (ang. multistakeholder governance) (Uhma, 2017). Model ten polega na współpracy oraz rozproszeniu odpowiedzialności i procesów decyzyjnych pomiędzy różnymi podmiotami, w tym zwłaszcza: korporacjami biznesowymi, instytucjami publicznymi, społecznością akademicką, organizacjami społeczeństwa obywatelskiego oraz użytkownikami internetu (Gorwa, 2019). Wśród innych modeli należy wymienić przede wszystkim: 1) model „regulacji państwowych”, który opiera się na centralnej roli państw oraz „twardych” rozwiązaniach prawnych i ustawowych; 2) model „samoregulacji biznesu”, który opiera się na centralnej roli firm technologicznych, które samodzielnie podejmują decyzję dotyczące swoich usług za pośrednictwem różnego rodzaju regulaminów i rozwiązań technologicznych (w tym zautomatyzowanych algorytmów) (szerzej w: Pallero i Pírková, 2020, s. 10–11).

Inicjatywy antydezinformacyjne w dobie pandemii COVID-19

W poniższym fragmencie przedstawiłem przykłady wybranych działań wdrażanych na rzecz przeciwdziałania dezinformacji w czasie pandemii koronawirusa. Opisane poniżej działania składają się na wielopoziomowy system odpowiedzi na dezinformację, który zbliżony jest do wskazanego powyżej modelu „wielostronnego zarządzania przez interesariuszy”. Już na wstępie należy jednak podkreślić, że wykazuje on również znaczącą tendencję do inkorporowania rozwiązań właściwych dla modelu „samoregulacji biznesu”. Saurwein i Spencer-Smith (2020, s. 3–4) wskazują, że w ciągu ostatnich lat, w zakresie przeciwdziałania dezinformacji, wykształca się „współdzielona, rozproszona, nastawiona na współpracę” sieć powiązań pomiędzy różnymi, wskazanymi powyżej aktorami. Wdrażane przez nich działania współtworzą wieloelementowy, podlegający ciągłym modyfikacjom, społeczno-technologiczny system zwalczania dezinformacji, składający się zarówno z formalnych i nieformalnych form interakcji pomiędzy podmiotami z trzech wymienionych sektorów, „twardych” rozwiązań regulacyjnych, jak i „miękkich”, ale odgrywających znaczącą rolę, rozwiązań alternatywnych, o których samodzielnie decydują platformy cyfrowe.

Sektor publiczny

W sektorze publicznym inicjatywy antydezinformacyjne były podejmowane zarówno na poziomie międzynarodowym, jak i narodowym. Wśród kluczowych aktorów o charakterze ponadpaństwowym należy wymieć zwłaszcza Światową Organizację Zdrowia (WHO) oraz Unię Europejską (UE). Dyrektor generalny WHO podczas Monachijskiej Konferencji Bezpieczeństwa w lutym 2020 r. podkreślił, że w trakcie pandemii społeczeństwa borykają się nie tylko z zagrożeniem zdrowotnym, ale także rozprzestrzenianiem się na dużą skalę nieprawdziwych informacji dotyczących wirusa, które również mogą stanowić istotne zagrożenie dla bezpieczeństwa publicznego (@WHO, 2020). WHO przyjęła w swoich działaniach taktykę „otaczania prawdą”, polegającą na regularnym dostarczaniu wiarygodnych informacji i demaskowaniu popularnych kłamstw na temat choroby. Za wykonywanie tych zadań odpowiedzialna była przede wszystkim specjalnie utworzona grupa kryzysowa Information Network for Epidemics (Zarocostas, 2020). Organizacja ściśle współpracowała również z platformami cyfrowymi, które udostępniły jej na swoich stronach darmową przestrzeń do promowania rzetelnych materiałów przygotowanych przez ekspertów (Acharya & Graham, 2020).

Jednym z najbardziej aktywnych podmiotów na polu walki z dezinformacją jest Unia Europejska, która już od 2015 roku podejmuje liczne działania mające na celu ograniczenie oddziaływania tych treści (Komisja Europejska, 2019). Przełomowym wydarzeniem dla kształtowania europejskiego systemu zapobiegania dezinformacji było opublikowanie w okresie poprzedzającym wybory do Parlamentu Europejskiego w 2019 r. dwóch dokumentów strategicznych: „Action Plan against Disinformation” (2018) oraz „Unijnego kodeksu postępowania w zakresie zwalczania dezinformacji” (2018). Ten drugi został podpisany przez część „cyfrowych gigantów” i nakłaniał te firmy do dobrowolnego wprowadzania rozwiązań na rzecz powstrzymania dezinformacji. Poszczególne efekty wdrożenia unijnych koncepcji spotykały się z mieszanymi ocenami środowiska eksperckiego i akademickiego, jednak na poziomie ogólnym inicjatywy te są uznawane za ważny element międzynarodowego systemu walki z dezinformacją (zob. Claesson, 2019, s. 17; Jaskiernia, 2019, s. 390–391; Mortera-Martinez, 2018; Nielsen i in., 2019). W trakcie pandemii COVID-19 UE kontynuowała wysiłki zgodnie z wytyczonymi wcześniej ramami. Rozwijała zarówno inicjatywy własne, m.in.: monitorowanie przestrzeni informacyjnej przez grupę East StratCom Task Force i uzupełnianie przez nią interaktywnej bazy fałszywych informacji (zob. EUvsDisinfo, b.d.), jak i podejmowała próby koordynacji współpracy między państwami członkowskimi i innymi podmiotami, m.in. za sprawą systemu wymiany wiedzy o dezinformacji Rapid Alert System (Tackling COVID-19…, 2020). Istotną rolę w działaniach UE odgrywało również wywieranie różnych form presji na platformy cyfrowe w celu skłonienia tych przedsiębiorstw do zwiększenia wysiłków antydezinformacyjnych pod groźbą wprowadzenia bardziej wiążących regulacji (Chee & Liffey, 2020).

Inicjatywy na rzecz zwalczania dezinformacji podejmowane były również na poziomie poszczególnych państw narodowych. Charakter tych działań był jednak bardzo zróżnicowany i silnie uzależniony od krajowych uwarunkowań społeczno-politycznych. Na terenie Europy pionierskimi państwami w dziedzinie wprowadzania ustawowych regulacji dotyczących przeciwdziałania dezinformacji są Niemcy oraz Francja. W krajach tych funkcjonują rozwiązania prawne pozwalające na wymuszanie na platformach cyfrowych usuwanie tego rodzaju komunikatów (Saurwein & Spencer-Smith, 2020, s. 9–11). Większość państw odgrywa jednak marginalną rolę w procesie ochrony obywateli przed dezinformacją, ograniczając się głównie do działań o charakterze „miękkim” (np. wzmacnianie poziomu edukacji medialnej) lub oczekując na rozwiązania ponadnarodowe4.

Należy w tym miejscu zwrócić uwagę, że rola państw w walce z dezinformacją budzi duże kontrowersje związane przede wszystkim z możliwością wykorzystywania narracji „walki z dezinformacją” przez rządzących do realizowania własnych interesów politycznych. Szeroko komentowany przykład tego procesu stanowiło przyjęcie na Węgrzech w trakcie pandemii ustawy pozwalającej na karanie twórców fałszywych informacji pozbawieniem wolności do pięciu lat. Rozwiązania te były krytykowane za wprowadzanie narzędzi umożliwiających ograniczanie wolności słowa oraz stosowanie represji wobec nieprzychylnych władzy dziennikarzy oraz działaczy opozycyjnych (Walker, 2020). Inne przypadki wykorzystywania przepisów dotyczących walki z dezinformacją do osłabiania pozycji przeciwników politycznych są znane m.in. z Malezji (Lim, 2020) oraz Indii („Faking Danger…”, 2020).

Zaangażowanie sektora publicznego w przeciwdziałanie dezinformacji budzi jednak wątpliwości nie tylko w państwach oskarżanych o łamanie zasad demokratycznego państwa prawnego (takich jak wskazane powyżej). Jako znaczący przykłady należy tutaj wymienić powołanie we Francji przez stronę rządową serwisu zajmującego się demaskowaniem fałszywych informacji w przestrzeni medialnej, który został usunięty już po dwóch tygodniach od rozpoczęcia działalności. Zamknięcie portalu było reakcją na protesty środowiska dziennikarskiego, które podkreślało, że państwo nie powinno decydować o tym co jest, a co nie jest prawdą i że serwis ten stanowił „jawne zakłócenie wolności prasy” (Willsher, 2020).

Sektor prywatny

W sektorze prywatnym głównymi aktorami zaangażowanymi w przeciwdziałanie dezinformacji są platformy cyfrowe, takie jak przede wszystkim Facebook, Twitter oraz Google. Usługi oferowane przez te przedsiębiorstwa są znaczącym kanałem dla rozprzestrzeniania się „problematycznych informacji” i z tego względu wobec „cyfrowych gigantów” formułowane są (zarówno ze strony sektora publicznego, jaki i pozarządowego) oczekiwania związane z ograniczaniem zasięgu dezinformacji. Sytuacja kryzysowa wywołana pandemią COVID-19 zintensyfikowała branżowe wysiłki w tym zakresie. Platformy kontynuowały wcześniej przyjęte rozwiązania (zob. Danek, 2018, s. 217–219), a także podjęły szereg nowych, specjalnych inicjatyw. Do głównych działań stosowanych przez firmy technologiczne należało: 1) blokowanie reklam niesprawdzonych lekarstw na koronawiursa; 2) promowanie rzetelnych informacji pochodzących od wiarygodnych nadawców, m.in. WHO oraz krajowych agencji zdrowia, w tym polskiego Ministerstwa Zdrowia; 3) obniżanie poziomu widoczności fałszywych lub wprowadzających w błąd treści dotyczących wirusa; 4) ograniczanie nadawcom możliwości otrzymywania przychodów z reklam wyświetlanych przy materiałów dotyczących wirusa (tzw. demonetyzacja); 5) oznaczanie lub usuwanie określonych kategorii treści w zależności od poziomu potencjalnej szkodliwości społecznej (Skopeliti & Bethan, 2020).

Warto podkreślić, że moderacja treści na portalach społecznościowych jest połączeniem monitoringu ze strony zautomatyzowanych algorytmów oraz decyzji podejmowanych przez ludzi. Ze względu na wprowadzenie systemu pracy zdalnej w trakcie pandemii znacznie większa część komunikatów niż zazwyczaj była jednak oceniana przez programy komputerowe oparte na technologii uczenia maszynowego (Gadde & Derella, 2020). Zwiększenie udziału automatycznej moderacji stało się przedmiotem krytyki wobec platform w związku z pojawiającymi się pomyłkami, które skutkowały usuwaniem treści niełamiących regulaminów platform (Peters, 2020). Ponadto w proces moderacji komunikatów dotyczących wirusa włączone były zewnętrzne organizacje fact-checkingowe, należące do opisanego poniżej sektora pozarządowego, które były odpowiedzialne za sprawdzanie prawdziwości wybranych komunikatów pojawiających się na portalach (Rosen, 2020).

Wysoki stopień odpowiedzialności za walkę z dezinformacją narzucany na platformy cyfrowe przez sektor publiczny i pozarządowy budzi liczne zastrzeżenia – zarówno natury filozoficzno-etycznej, jak i pragmatycznej. Pierwszy typ zarzutów odnosi się do pytań o prawo „gigantów technologicznych” do decydowania o kształcie debaty publicznej. W obecnie funkcjonującej strukturze podmioty te, de facto prywatne przedsiębiorstwa, kierujące się głównie własnym interesem ekonomicznym, stawiane są w roli „arbitrów prawdy” (Fisher, 2020), którzy powinni rozstrzygać o tym jakie treści mogą funkcjonować we współczesnej przestrzeni informacyjnej. Wątpliwości dotyczą głównie przypadków oznaczania lub usuwania określonych treści z portali społecznościowych, które według krytyków tych rozwiązań są równoznaczne z cenzurą i ograniczaniem wolności słowa. Kwestia ta była szeroko podnoszona zwłaszcza po bezprecedensowej decyzji portalu Twitter o zamieszczeniu ostrzeżenia o niezgodności z faktami przy jednym z komunikatów opublikowanych przez prezydenta Donalda Trumpa („Trump Makes Unsubstantiated Claim…”, 2020). Interwencja ta spotkała się ze stanowczą reakcją ze strony przywódcy Stanów Zjednoczonych, który oskarżył platformę o łamanie zasad wolności słowa (@realDonaldTrump, 2020) i wydał w odpowiedzi rozporządzenie, które zapowiedziało możliwość wprowadzenia nowych regulacji dotyczących mediów społecznościowych na rynku amerykańskim (Allyn, 2020).

Drugi typ zarzutów dotyczył niskiej efektywności platform w zakresie moderacji „problematycznych informacji”. Abstrahując w tym miejscu od wskazanych powyżej wątpliwości w stosunku do wymagania od platform cyfrowych prowadzenia walki z dezinformacją, przedsiębiorstwa te zobowiązały się (m.in. na podstawie wspomnianego wcześniej unijnego kodeksu) do przeciwdziałania temu problemowi. Liczne zewnętrzne oceny, pochodzące od przedstawicieli środowiska naukowego oraz organizacji pozarządowych, wskazywały na istotne niedociągnięcia w systemie moderacji treści, który funkcjonował w trakcie pandemii. Chociaż zmierzenie dokładnego poziomu skuteczności platform na tym polu nie jest możliwe, to według dostępnych ewaluacji wiele materiałów o charakterze dezinformacji „przedostawało się przez sito” platform i w efekcie treści nie były oznaczane, ani usuwane (zob. Avaaz, 2020; Barrett, 2020; Brennen i in., 2020)5.

Sektor pozarządowy

Wielopoziomową strukturę walki z dezinformacją dopełniały oddolne inicjatywy obywatelskie oraz aktywność organizacji pozarządowych. Podmioty te angażowały się w działalność doradczą, informacyjną, a także kontrolną wobec sektora publicznego oraz komercyjnych przedsiębiorstw. Wśród powszechnie wykorzystywanych przez sektor NGO narzędzi należy wymienić przede wszystkim organizowanie kampanii informacyjnych, publikowanie raportów eksperckich oraz organizowanie szkoleń z zakresu walki z dezinformacją, m.in. dla uczniów oraz dziennikarzy (zob. Garcia, 2020). Sektor pozarządowy odgrywał ponadto istotną rolę w działaniach z zakresu fact-checkingu, czyli weryfikowania prawdziwości informacji pojawiających się w przestrzeni medialnej oraz demaskowania pojawiających się kłamstw lub manipulacji. Pandemia COVID-19 stanowiła duże wyzwanie dla „weryfikatorów informacji”. Jak podają Brennen, Simon, Howard oraz Nielsen (2020, s. 1) na przełomie stycznia i marca 2020 r. liczba komunikatów poddawanych weryfikacji przez badane przez autorów organizacje fact-checkingowe zwiększyła się o ponad 9 razy. Ograniczone zasoby (finansowe, osobowe, czasowe, technologiczne), którymi dysponują te podmioty, sprawiają jednak, że są one w stanie zajmować się jedynie niewielką częścią pojawiających się fake newsów.

Wiodącą międzynarodową inicjatywą w zakresie weryfikowania informacji jest grupa International Fact-Checking Network (IFCN), która zrzesza certyfikowane organizacje tego typu z całego świata. Należy podkreślić, że to właśnie podmioty wchodzące w skład IFCN dostarczają portalowi Facebook zewnętrznych, niezależnych od platformy ocen w procesie moderacji („Partnering with Third-Party…”, 2020). W trakcie pandemii COVID-19 w ramach IFCN utworzono specjalny oddział #CoronaVirusFacts Alliance zajmujący się wyłącznie treściami dotyczącymi koronawirusa. Efekty pracy tej grupy można było śledzić w dedykowanej, interaktywnej bazie danych (Poynter, b.d.).

Wnioski

W odpowiedzi na problem rozprzestrzeniania się w internecie dezinformacji dotyczącej koronawirusa różnorodne podmioty wskazane w artykule wdrażały działania, których celem było ograniczanie zasięgu tych treści. Podejmowane próby w wielu przypadkach cechowały się doraźnym, testowym charakterem. Wspólnie złożyły się one na niestabilny, wciąż ewoluujący i niejednorodny system walki z dezinformacją, w ramach którego „szeroki wachlarz różnych form zarządzania funkcjonuje jednocześnie, a co za tym idzie, ustalenie hierarchii między różnymi [stosowanymi] mechanizmami jest trudne, a być może nawet niemożliwe” (za: Gorwa, 2019, s. 4). Na wielopoziomową strukturę zapobiegania dezinformacji w internecie składają się inicjatywy przedstawicieli sektora publicznego, prywatnego oraz pozarządowego. Działania tych podmiotów wzajemnie na siebie oddziałują, tworząc złożoną „sieć odpowiedzialności” (Saurwein & Spencer-Smith, 2020). W ramach tej struktury na wielu płaszczyznach funkcjonują działania oparte na współpracy, ale pojawiają się także konflikty i napięcia pomiędzy poszczególnymi aktorami, dotyczące m.in. zagadnień związanych z wolnością słowa.

Należy ocenić, że okres pandemii koronawirusa stanowił kolejny etap wykształcania się na polu walki z dezinformacją modelu „wielostronnego zarządzania przez interesariuszy”, który zakłada szeroką partycypację różnych aktorów życia społecznego w tym procesie. Pomimo zaangażowania licznego grona podmiotów i wdrażania różnorodnych inicjatyw, wyłaniającej się strukturze daleko jest jednak do spełnienia założeń systemu „wielostronnego, przejrzystego i demokratycznego, z pełnym włączeniem rządów, prywatnego sektora, społeczeństwa obywatelskiego i organizacji międzynarodowych” (za: Amoretti & Santaniello, 2017, s. 3). Istniejące rozwiązania wciąż rodzą pytania m.in. o to jakie podmioty powinny być odpowiedzialne za ochronę obywateli przed ukrytą propagandą cyfrową, jak koordynować ich współpracę, jak uniknąć upolitycznienia walki z dezinformacją, czy jak mierzyć i rozliczać skuteczność implementowanych inicjatyw.

W trakcie pandemii dostrzegalna była kontynuacja tendencji do „przerzucania odpowiedzialności” (Alemanno, 2018, s. 3–4) za walkę z dezinformacją na platformy cyfrowe. Jak wskazałem wcześniej proces ten budzi zasadne wątpliwości – z jednej strony natury filozoficzno-etycznej (m.in. dotyczące potencjalnej cenzury), a z drugiej także praktycznej (m.in. dotyczące niewystarczającego stopnia skuteczności i transparentności podejmowanych działań). Ponadto, jak zaznacza Uhma (2017, s. 36), model „wielostronnego zarządzania przez interesariuszy”, chociaż w założeniu zakłada wysoki stopień pluralizmu i deliberacji, w praktyce może stanowić „fasadę dla dominacji wielkiego biznesu i zbratanej z nim administracji państwowej”. Zbyt silna pozycja „cyfrowych gigantów” w systemie przeciwdziałania dezinformacji, w których decyzje podejmowane są głównie przez „homogeniczną grupę białych elit z Doliny Krzemowej” (Gorwa, 2019, s. 6), może niekorzystnie odbijać się na jakości debaty publicznej.

Dezinformacja stanowi złożone, silnie zanurzone w kontekście kulturowo-politycznym wyzwanie dla współczesnych społeczeństw. Wieloaspektowość, zmienność i komunikacyjny (a przez to uzależniony od subiektywnych interpretacji) charakter problemu sprawiają, że nie poddaje się on łatwym i jednoznacznym rozwiązaniom. Pandemia COVID-19 po raz kolejny uwidoczniła, że pomimo licznych wysiłków podejmowanych na polu walki z dezinformacją, wciąż nie posiadamy skutecznych mechanizmów ochrony przed zagrożeniami, które pociąga za sobą to zjawisko. Zwłaszcza w sytuacjach kryzysowych, cechujących się zwiększonym poczuciem społecznego chaosu, niepewności i strachu, różnego rodzaju treści bazujące na kłamstwach i przeinaczeniach z łatwością rozprzestrzeniają się w nowych mediach, dostarczając odbiorcom prostych odpowiedzi na skomplikowane problemy współczesnego świata. Należy zatem zakładać, że poszukiwanie bardziej zbalansowanych, demokratycznych oraz efektywnych sposobów na walkę z dezinformacją będzie w najbliższej przyszłości istotnym wątkiem debaty publicznej, a także zadaniem stawianym przed przedstawicielami sektora publicznego, prywatnego oraz pozarządowego. Warto dodać, że istotną rolę w tym procesie mają do odegrania również przedstawiciele środowiska naukowego, dlatego badania dotyczące problematyki internet governance, w tym przeciwdziałania dezinformacji, powinny być kontynuowane na szeroką skalę.

Bibliografia

@realDonaldTrump. (2020). Pobrane z: https://twitter.com/realDonaldTrump/status/1265427539008380928 (15.06.2020).

@WHO. (2020). Pobrane z: https://twitter.com/WHO/status/1228683949796470784 (15.06.2020).

Acharya, B., Graham, P. (2020). Facebook gives WHO free ads in battle with coronavirus misinformation. Pobrane z: https://www.reuters.com/article/us-health-coronavirus-facebook-idUSKBN20R14A (15.06.2020).

Action Plan against Disinformation. (2018). Pobrane z: https://eeas.europa.eu/sites/eeas/files/action_plan_against_disinformation.pdf (15.06.2020).

Alemanno, A. (2018). How to Counter Fake News? A Taxonomy of Anti-Fake News Approaches. Social Science Research Network. 9(1). https://doi.org/10.1017/err.2018.12

Allyn, B. (2020). Stung By Twitter, Trump Signs Executive Order To Weaken Social Media Companies. Pobrane z: https://www.npr.org/2020/05/28/863932758/stung-by-twitter-trump-signs-executive-order-to-weaken-social-media-companies (15.06.2020).

Amoretti, F., Santaniello, M. (2017). Internet Governance. W: A. Farazmand (red.), Global Encyclopedia of Public Administration, Public Policy, and Governance. https://doi.org/10.1007/978–3-319–31816–5_3383–1

Au, H., Bright, J., Howard, P. N. (2020). Coronavirus Misinformation: Weekly Briefings. Pobrane z: https://comprop.oii.ox.ac.uk/research/coronavirus-weekly-briefings/ (15.06.2020).

Avaaz. (2020). How Facebook can Flatten the Curve of the Coronavirus Infodemic. Pobrane z: https://avaazimages.avaaz.org/facebook_coronavirus_misinformation.pdf (15.06.2020).

Barrett, P. M. (2020). Who Moderates the Social Media Giants? A Call to End Outsourcing. Pobrane z: https://bhr.stern.nyu.edu/s/NYU-Content-Moderation-Report_June-8–2020.pdf (15.06.2020).

Brennen, J. S., Simon, F., Howard, P. N., Nielsen, R. K. (2020). Types, sources, and claims of COVID-19 misinformation. Pobrane z: https://reutersinstitute.politics.ox.ac.uk/types-sources-and-claims-covid-19-misinformation (15.06.2020).

Chee, F. Y., Liffey, K. (2020). EU’s Breton tells Facebook’s Zuckerberg the fake news buck stops with him. Pobrane z: https://www.reuters.com/article/us-health-coronavirus-eu-tech-idUSKBN22U2RU (15.06.2020).

Claesson, A. (2019). Coming Together to Fight Fake News: Lessons from the European Approach to Disinformation. Pobrane z: https://csis-prod.s3.amazonaws.com/s3fs-public/NewPerspectives_APRIL2019_Claesson.pdf (15.06.2020).

Danek, M. (2018). Komunikowanie polityczne w dobie fake newsów: walka z dezinformacją w sieci. Krakowskie Studia Małopolskie. 23. 210–228. https://doi.org/10.15804/ksm201811

Demagog. (2020). Koronawirus – Zestawienie fake news. Sprawdzamy jaka jest prawda. Pobrane z: https://demagog.org.pl/analizy_i_raporty/koronawirus-zestawienie-falszywych-informacji/ (15.06.2020).

Edelman. (2020). 2020 Edelman Trust Barometer Special Report. Trust and the Coronavirus. Pobrane z: https://www.edelman.com/sites/g/files/aatuss191/files/2020–03/2020%20Edelman%20Trust%20Barometer%20Coronavirus%20Special%20Report_0.pdf (15.06.2020).

EUvsDisinfo. (b.d.). Disinfo Database. Pobrane z: https://euvsdisinfo.eu/disinformation-cases/ (15.06.2020).

EUvsDisinfo. (2020). EEAS Special Report Update: Short Assessment Of Narratives And Disinformation Around The Covid-19 Pandemic (Update 23 April – 18 May). Pobrane z: https://euvsdisinfo.eu/eeas-special-report-update-short-assessment-of-narratives-and-disinformation-around-the-covid19-pandemic-updated-23-april-18-may/ (15.06.2020).

Faking danger: On fighting fake news. (2020). Pobrane z: https://www.thehindu.com/opinion/editorial/faking-danger-on-fighting-fake-news/article31617562.ece (15.06.2020).

Fisher, A. L. (2020). Don’t make social media tech bro billionaires the arbiters of truth. Pobrane z: https://www.businessinsider.com/dont-make-social-media-tech-bro-twitter-facebook-arbiters-truth-2020–5 (15.06.2020).

Freelon, D., Wells, C. (2020). Disinformation as Political Communication. Political Communication, 37(2), 145–156. https://doi.org/10.1080/10584609.2020.1723755

Gadde, V., Derella, M. (2020). An update on our continuity strategy during COVID-19. Pobrane z: https://blog.twitter.com/en_us/topics/company/2020/An-update-on-our-continuity-strategy-during-COVID-19.html (15.06.2020).

Garcia, L. (2020). Covering coronavirus: An online course for journalists. Pobrane z: https://firstdraftnews.org:443/latest/covering-coronavirus-an-online-course-for-journalists/ (15.06.2020).

Gorwa, R. (2019). What is platform governance? Information, Communication & Society, 22(6), 854–871. https://doi.org/10.1080/1369118X.2019.1573914

Hollowood, E., & Mostrous, A. (2020). Fake news in the time of C-19. Pobrane z: https://members.tortoisemedia.com/2020/03/23/the-infodemic-fake-news-coronavirus/content.html (15.06.2020).

Jaskiernia, A. (2019). Europejska walka z dezinformacjami i nielegalnymi treściami w sieci. Obrona jakości mediów w Unii Europejskiej i w Radzie Europy. Studia Medioznawcze, 20(4), 384–394. https://doi.org/10.33077/uw.24511617.ms.2019.4.128

Komisja Europejska. (2019). Sprawozdanie z realizacji planu działania przeciwko dezinformacji, JOIN(2019) 12 final. Pobrane z: https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52019JC0012&from=EN (15.06.2020).

Lim, G. (2020). Securitize/Counter-Securitize. The Life and Death of Malaysia’s Anti-Fake News Act. Pobrane z: https://datasociety.net/wp-content/uploads/2020/04/Securitize-Counter-securitize.pdf (15.06.2020).

Mortera-Martinez, C. (2018). What is Europe doing to fight disinformation?. Pobrane z: https://www.cer.eu/publications/archive/bulletin-article/2018/what-europe-doing-fight-disinformation (15.06.2020).

Nielsen, R. K., Gorwa, R., de Cock Buning, M. (2019). What Can Be Done? Digital Media Policy Options for Strengthening European Democracy. Pobrane z: https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2019–11/What_Can_Be_Done_FINAL.pdf (15.06.2020).

Palerro, R., Pírková, E. (2020). 26 Recommendations on Content Governance. Pobrane z: https://www.accessnow.org/cms/assets/uploads/2020/03/Recommendations-On-Content-Governance-digital.pdf (15.06.2020).

Partnering with Third-Party Fact-Checkers. (2020). Pobrane z: https://www.facebook.com/journalismproject/programs/third-party-fact-checking/selecting-partners (15.06.2020).

Peters, J. (2020). Facebook was marking legitimate news articles about the coronavirus as spam due to a software bug. Pobrane z: https://www.theverge.com/2020/3/17/21184445/facebook-marking-coronavirus-posts-spam-misinformation-covid-19 (15.06.2020).

Poynter. (b.d.). The CoronaVirusFacts/DatosCoronaVirus Alliance Database. Pobrane z: https://www.poynter.org/ifcn-covid-19-misinformation/ (15.06.2020).

Reuters Institute. (2020). Digital News Report 2020. Pobrane z: https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2020–06/DNR_2020_FINAL.pdf (18.06.2020).

Rosen, G. (2020). An Update on Our Work to Keep People Informed and Limit Misinformation About COVID-19. Pobrane z: https://about.fb.com/news/2020/04/covid-19-misinfo-update/ (15.06.2020).

Saurwein, F., Spencer-Smith, C. (2020). Combating Disinformation on Social Media: Multilevel Governance and Distributed Accountability in Europe. Digital Journalism. https://doi.org/10.1080/21670811.2020.1765401

Skopeliti, C., & Bethan, J. (2020). Coronavirus: How are the social media platforms responding to the „infodemic”? Pobrane z: ttps://firstdraftnews.org:443/latest/how-social-media-platforms-are-responding-to-the-coronavirus-infodemic/ (15.06.2020).

Tackling COVID-19 disinformation—Getting the facts right. (2020). Pobrane z: https://ec.europa.eu/info/sites/info/files/communication-tackling-covid-19-disinformation-getting-facts-right_en.pdf (15.06.2020).

Tucker, J. A., Guess, A., Barbera, P., Vaccari, C., Siegel, A., Sanovich, S., Stukal, D., Nyhan, B. (2018). Social Media, Political Polarization, and Political Disinformation: A Review of the Scientific Literature. https://doi.org/10.2139/ssrn.3144139

Trump makes unsubstantiated claim that mail-in ballots will lead to voter fraud. (2020). Pobrane z: https://twitter.com/i/events/1265330601034256384 (15.06.2020).

Uhma, P. (2017). Suwerenne, wielostronne czy międzyrządowe zarządzanie Internetem jako globalnym dobrem wspólnym. Państwo i Społeczeństwo, 3, 35–38.

Unijny kodeks postępowania w zakresie zwalczania dezinformacji. (2018). Pobrane z: https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=59120 (15.06.2020).

Walker, S. (2020). Hungarian journalists fear coronavirus law may be used to jail them. Pobrane z: https://www.theguardian.com/world/2020/apr/03/hungarian-journalists-fear-coronavirus-law-may-be-used-to-jail-them (15.06.2020).

Willsher, K. (2020). French government takes down coronavirus „fake news” web page. Pobrane z: http://www.theguardian.com/world/2020/may/06/french-government-takes-down-coronavirus-fake-news-web-page (15.06.2020).

WSIS. (2005). Tunis Agenda for the Information Society. Pobrane z: https://www.itu.int/net/wsis/docs2/tunis/off/6 rev1.html (15.06.2020).

Zarocostas, J. (2020). How to fight an infodemic. The Lancet, 395(10225), 676. https://doi.org/10.1016/S0140–6736(20)30461-X

Żółciak, T. (2020). Fake newsy usuwane w ciągu godziny? Zagórski: Social media powinny podlegać regulacji [WYWIAD]. Pobrane z: http://serwisy.gazetaprawna.pl/nowe-technologie/artykuly/1457546,marek-zagorski-o-regulacjach-w-social-mediach.html (15.06.2020).


1 Problem ten zaczął być podnoszony w debacie publicznej szczególnie od 2016 roku, w związku z wyborami prezydenckimi w Stanach Zjednoczonych. W trakcie kampanii poprzedzającej te wybory zidentyfikowano w internecie wiele przekazów o charakterze dezinformacji.

2 Wszystkie pojęcia i cytaty z zagranicznych źródeł zostały przetłumaczone przez autora

3 Zakres czasowy analizy obejmuje okres od 17. listopada 2019 r. (data wystąpienia pierwszego wykrytego przypadku choroby w Chinach) do początku czerwca 2020 r. Należy jednak zaznaczyć, że w momencie zamknięcia procesu badawczego sytuacja pandemiczna wciąż się rozwijała, więc problematyka tekstu pozostawała otwarta.

4 Przykład może w tym kontekście stanowić aktywność Polski. Minister cyfryzacji, Marek Zagórski, zapowiedział, że Polska rozważa wprowadzenie regulacji dotyczących dezinformacji, jednak „czas kampanii wyborczej [który zbiegł się z czasem pandemii] nie jest dobrym momentem na taką pogłębioną dyskusję”. Co więcej zaznaczył on, że Polska najprawdopodobniej wstrzyma się z własnymi rozwiązaniami do czasu opublikowania „Digital Services Act” – dokumentu przygotowywanego na poziomie UE, który ma określić ogólnoeuropejskie regulacje wobec usług korporacji internetowych (Żółciak, 2020).

5 Co istotne dotyczyło to również treści oficjalnie zdementowanych przez organizacje fact-checkingowe współpracujące z platformami.

Polskie Towarzystwo Kumunikacji Społecznej
IDMiKS UJ

Institute of Journalism, Media and Social Communication

Content of the articles is licensed under a Creative Commons Attribution 4.0 International license