Usuwanie komentarzy i blokowanie kont na Facebooku. Opinia Rzecznika
- Mimo mechanizmów mających zapewnić bezpieczeństwo w sieci oraz zapobieganiu ograniczania wolności słowa problem blokowania kont i usuwania komentarzy w mediach społecznościowych, m.in. na Facebooku jest nadal aktualny
- Obecnie stosowane algorytmy nie są doskonałe i mogą prowadzić do nadmiernego, a w niektórych przypadkach niewystarczającego, usuwania komentarzy i blokowania profili
- Większość treści Internetu powinna podlegać weryfikacji kontekstowej, a nie automatycznej. Wymagałoby to jednak zatrudniania setek specjalistów, którzy ręcznie weryfikowaliby treści
- Byłoby to bardzo trudne dla niewielkich, zwłaszcza specjalistycznych, forów internetowych - można jednak oczekiwać takich działań od wielkich platform społecznościowych
- Trzeba znaleźć sposób na powstrzymanie lub przynajmniej zmniejszenie negatywnych zjawisk w sieci, jak dezinformacja, czy mowa nienawiści - przy poszanowaniu proporcjonalności ingerencji w swobodę i wolność wypowiedzi
Rzecznik Praw Obywatelskich przedstawił pełnomocnikowi rządu ds. cyberbezpieczeństwa Januszowi Cieszyńskiemu (na jego prośbę) opinię w związku z usunięciem na początku 2022 r. profilu partii Konfederacja z portalu społecznościowego Facebook.
Do RPO wpływają liczne skargi dotyczące blokowania lub usuwania profili w serwisach społecznościowych takich jak Facebook, a także ograniczenia możliwości publikowania treści przez użytkowników portali internetowych. Skarżący wskazują, że konta oraz wpisy są blokowane lub usuwane ze względu na ich przekonania bądź określone wypowiedzi.
Mając na uwadze fakt, że zgłaszane sprawy dotyczą podmiotów prywatnych, niefinansowanych ze środków publicznych ani niewykonujących zadań publicznych, Rzecznik nie ma kompetencji do interwencji. Ustrojowe wyodrębnienie instytucji RPO miało na celu stworzenie instytucji zajmującej się badaniem działalności organów władzy publicznej, prowadzących, czy mogących prowadzić, do naruszeń praw i wolności. Prawodawca nie przewidział możliwości działań RPO wobec podmiotów prywatnych, jakimi są działające w Polsce portale społecznościowe.
Niezależnie od tego, stojąc na straży praw i wolności człowieka i obywatela określonych w Konstytucji oraz innych aktach normatywnych, RPO z uwagą i troską analizuje wszelkie sygnały dotyczące przestrzegania wolności wyrażania poglądów oraz pozyskiwania i rozpowszechniania informacji w Internecie. Rzecznik nie pozostaje również obojętny na problem odnoszący się do blokowania profili, czy usuwania komentarzy w serwisach społecznościowych, w tym na Facebooku.
Debata w BRPO z 2016 r.
Przykładem zaangażowania, zmierzającym do rozwiązania tych problemów, było m. in. zorganizowanie 18 listopada 2016 r. w Biurze RPO debaty „Facebook – mowa nienawiści – wolność słowa. Wyzwanie cywilizacyjne i prawnicze czy kryzys wartości?” . Wzięli w niej udział przedstawiciele administracji publicznej, naukowcy, aktywiści na rzecz wolności w Internecie, działacze organizacji praw człowieka, zabiegających o wolność słowa i reprezentujących prawa mniejszości, a także ruchów nacjonalistycznych, których profile na Facebooku skasowano.
Mimo odmiennych poglądów dyskutanci zgodzili się, że procedury usuwania treści z Facebooka, czy blokowania lub usuwania kont, są niewystarczające. Rozważali m. in. stosowanie ostrzeżeń, trybu odwoławczego i włączenia w procedurę wymiaru sprawiedliwości, w tym stosowanie przepisów karnych. Debata potwierdziła zatem, że problem istnieje i dotyczy on różnych opcji ideowych i światopoglądowych.
Na podstawie wniosków z debaty 7 marca 2018 r. w wystąpieniu, do Ministra Cyfryzacji RPO wskazał na potrzebę zapewnienia większej przejrzystości funkcjonowania portali społecznościowych. Dotychczasowa praktyka wskazywała bowiem, że filtrowanie napastliwych treści na serwisach społecznościowych jest nieskuteczne, kryteria kasowania profili są niejasne, można również zakładać, że jest to proces w większości zautomatyzowany.
W ocenie Rzecznika tego typu działania mogą zostać uznane za ograniczenie, a nawet naruszenie, konstytucyjnie chronionej wolności słowa (art. 54 Konstytucji), co wymaga odpowiednich działań władz. Mimo kilku ponawianych pism RPO nie otrzymał żadnej odpowiedzi.
Problematyka poszanowania praw użytkowników platform internetowych była przedmiotem analizy RPO w trakcie opiniowania projektu ustawy o ochronie wolności słowa w internetowych serwisach społecznościowych z 28 września 2021 r. W tej częściowo krytycznej opinii RPO z jednej strony zwrócił uwagę na znaczenie swobodnego obiegu wiedzy, opinii i poglądów w demokratycznym państwie prawa i stworzenia adekwatnych mechanizmów gwarantujących poszanowanie tych wartości, z drugiej zaś podkreślił konieczność wprowadzenia rozwiązań umożliwiających usuwanie czy blokowania treści niezgodnych z prawem .
Wolność słowa nie jest nieograniczona
Choć możliwość debaty publicznej, także anonimowej, na forach internetowych jest fundamentem współczesnej demokracji, należy wyraźnie stwierdzić, że wolność słowa nie jest nieograniczona. A skutki wypowiedzi stanowiących mowę nienawiści mogą wykroczyć poza krzywdę jednostki.
Międzynarodowe organy, odpowiedzialne za zapobieganie konfliktom na tle narodowym i rasowym, zwracają uwagę na to, że „rasistowskie, ksenofobiczne, antysemickie oraz innego rodzaju nienawistne treści, obecne w Internecie, mogą stanowić pożywkę dla poważnych zbrodni nienawiści”. Specjalna Sprawozdawczyni Rady Praw Człowieka Narodów Zjednoczonych do spraw mniejszości już w styczniu 2015 r. informowała o stale rosnącej liczbie skarg dotyczących wypowiedzi – także zamieszczonych online – podżegających do nienawiści, rozniecających napięcia, skutkujących często poważnymi przestępstwami.
W raporcie podkreślono, że o ile nie każda wypowiedź o charakterze mowy nienawiści prowadzi do poważnych zbrodni, to w zasadzie prawie każda zbrodnia nienawiści poprzedzona jest wcześniejszą stygmatyzacją i dehumanizacją określonych osób i podżeganiem do przestępstw na tle religijnym czy rasowym – czyli jest następstwem mowy nienawiści. W dokumencie wskazano na ogromną rolę Internetu w rozprzestrzenianiu wypowiedzi nienawistnych i dyskryminujących: treść zamieszczona np. w mediach społecznościowych może być rozpowszechniona w skali niespotykanej w przypadku mediów tradycyjnych.
W odróżnieniu od podobnych wypowiedzi spoza Internetu, treści online są bardzo trwałe (zlikwidowanie takiej wypowiedzi oznacza zwykle wyłącznie zmianę jej lokalizacji internetowej), często mają charakter transgraniczny i anonimowy. Dlatego mowa nienawiści w Internecie jest zjawiskiem wyjątkowo trudnym do zwalczenia.
Konstytucyjnie gwarantowana wolność wypowiedzi podlega ograniczeniom na zasadach określonych w art. 31 ust. 3 Konstytucji. Zasadne jest też odwołanie się do art. 10 Konwencji o Ochronie Praw Człowieka i Podstawowych Wolności. Mówi on o prawie do wolności wyrażania opinii, które obejmuje wolność posiadania poglądów oraz otrzymywania i przekazywania informacji i idei bez ingerencji władz publicznych i bez względu na granice państwowe.
Jednakże ustęp 2 art. 10 EKPC określa przesłanki, które mogą być powodem ograniczenia wolności słowa. Są to: bezpieczeństwo państwa, integralność terytorialna lub bezpieczeństwo publiczne, zapobieganie zakłóceniu porządku lub przestępstwu, ochrona zdrowia i moralności, ochrona dobrego imienia i praw innych osób oraz zapobieganie ujawnieniu informacji poufnych lub zagwarantowanie powagi i bezstronności władzy sądowej. Każdorazowo ingerencja państwa musi być proporcjonalna i niezbędna.
Zalety i wady moderacji
Na mocy wyroku Trybunału Sprawiedliwości Unii Europejskiej z 3 października 2019 r. w sprawie C-18/18, Eva Glawischnig-Piesczek przeciwko Facebook Ireland Limited, administratorzy portali internetowych zostali zobowiązani do usuwania treści nielegalnych, w tym przejawów mowy nienawiści, treści zniesławiających czy naruszających dobra osobiste. Trybunał stwierdził, że sądy mogą nakazać dostawcy usług hostingowych usuwanie nielegalnych treści i dopuścił nakazanie kasowania pojawiających się wpisów identycznych i równoznacznych z tymi, które sąd uzna za bezprawne (np. zniesławiające). O ile nakaz usuwania treści identycznych nie budzi wątpliwości, rozszerzająca interpretacja pojęcia „treści równoznacznych” może w efekcie prowadzić do nadmiernej moderacji. Dlatego niezbędne jest, by stosowane regulacje były proporcjonalne i w odpowiedni sposób równoważyły obowiązki nakładane na dostawców usług, interes społeczny oraz prawa i wolności obywatelskie.
Jednakże praktyka wdrażania tych rozwiązań jest problematyczna. Obecnie stosowane algorytmy nie są doskonałe i mogą prowadzić do nadmiernego, a w niektórych przypadkach niewystarczającego, usuwania komentarzy i blokowania profili.
Większość treści z Internetu powinna podlegać weryfikacji kontekstowej, a nie automatycznej. Technicznie jednak oznaczałoby to konieczność zatrudnienia setek specjalistów, którzy ręcznie weryfikowaliby treści. Z powodów technicznych i ekonomicznych byłoby to bardzo trudne pod wieloma względami dla właścicieli szczególnie niewielkich forów internetowych (zwłaszcza specjalistycznych), można jednak oczekiwać takich działań od wielkich platform społecznościowych.
Na użytkowników Internetu czekają także inne związane z rozwojem nowych technologii zagrożenia, takie jak rozprzestrzenianie się fake newsów i dezinformacja, kradzież danych osobowych czy ataki, uszkodzenia bądź nieautoryzowany dostęp do urządzeń, programów i chronionych danych.
Wzrasta liczba incydentów cyberbezpieczeństwa
Zgodnie z ustawą z 5 lipca 2018 r. o krajowym systemie cyberbezpieczeństwa (wprowadzającej do polskiego prawa dyrektywę w sprawie środków na rzecz wysokiego wspólnego poziomu bezpieczeństwa sieci i systemów informatycznych na terytorium Unii, tzw. dyrektywa NIS) w Polsce funkcjonuje Zespół Reagowania na Incydenty Bezpieczeństwa Komputerowego (CSIRT – Computer Security Incident Response Team). Na mocy ustawy role CSIRT poziomu krajowego przyjęły na siebie Agencja Bezpieczeństwa Wewnętrznego (CSIRT GOV), NASK – Państwowy Instytut Badawczy (CSIRT NASK) oraz resort obrony narodowej (CSIRT MON). Organy te współpracują one ze sobą oraz z organami właściwymi do spraw cyberbezpieczeństwa, zapewniając spójny i kompletny system zarządzania ryzykiem na poziomie krajowym, realizując zadania na rzecz przeciwdziałania zagrożeniom cyberbezpieczeństwa o charakterze ponadsektorowym i transgranicznym, a także zapewniając koordynację obsługi zgłoszonych incydentów. Podmioty wchodzące w skład krajowego systemu cyberbezpieczeństwa tworzą system pozwalający na podejmowanie różnorodnych i skutecznych działań przeciwdziałających zagrożeniom, jak i zapewniających skuteczne reagowanie.
W dorocznym raporcie „Krajobraz bezpieczeństwa polskiego internetu. Raport z działalności CERT Polska 2020”, opracowanym przez NASK, wskazano, że w 2020 r. liczba incydentów cyberbezpieczeństwa wzrosła o 60,7 % w porównaniu z rokiem poprzednim. Zaobserwowano także liczne akcje dezinformacyjne związane z włamaniami na portale informacyjne i konta polskich polityków. W celu zapobiegania kolejnym incydentom, w marcu 2020 r. uruchomiono “Listę Ostrzeżeń CERT Polska”, czyli publiczną i dostępną nieodpłatnie bazę domen wykorzystywanych do nadużyć.
Na przełomie 2018 i 2019 roku na podstawie porozumienia Ministerstwa Cyfryzacji z przedstawicielami Facebooka uruchomiony został tzw. punkt kontaktowy. Platforma ta miała służyć polskim użytkownikom Facebooka, których treści, konta lub profile zostały usunięte lub zablokowane. Dzięki usłudze użytkownicy otrzymali możliwość złożenia wniosku o dodatkową kontrolę czy blokada nastąpiła słusznie.
Działania na forum europejskim
Prace w celu zwiększenia ochrony konsumentów oraz ich praw podstawowych w Internecie prowadzone są także na szczeblu unijnym. W grudniu 2020 r. Komisja Europejska przedstawiła projekt aktu o usługach cyfrowych (DSA – Digital Services Act), w którym określono m. in. obowiązki i odpowiedzialność platform internetowych.
Od czasu przyjęcia dyrektywy 2000/31/WE1 („dyrektywa o handlu elektronicznym”) pojawiły się bowiem nowe i innowacyjne cyfrowe usługi społeczeństwa informacyjnego, które zmieniły codzienne życie obywateli Unii, modyfikując dotychczasowe sposoby komunikacji, łączności, konsumpcji i prowadzenia działalności gospodarczej przez obywateli.
Akt o usługach cyfrowych znacznie usprawnia mechanizmy usuwania nielegalnych treści oraz skutecznej ochrony praw podstawowych użytkowników w Internecie, w tym swobody wypowiedzi. Zwiększa też poziom kontroli publicznej nad działalnością platform internetowych. W projekcie zaproponowano m. in.:
1. wprowadzenie środków służących zwalczaniu nielegalnych towarów, usług lub treści w Internecie, takich jak mechanizm sygnalizowania takich treści przez użytkowników, a w przypadku platform – mechanizm współpracy z „zaufanymi podmiotami sygnalizującymi”;
2. nałożenie nowych obowiązków dotyczących identyfikowalności użytkowników biznesowych na internetowych platformach handlowych, aby pomóc w identyfikowaniu sprzedawców nielegalnych towarów;
3. wdrożenie skutecznych zabezpieczeń dla użytkowników, w tym możliwość zakwestionowania decyzji platform w zakresie moderowania treści;
4. uruchomienie szeroko zakrojonych środków na rzecz przejrzystości funkcjonowania platform internetowych, w tym w sprawie algorytmów stosowanych w podpowiedziach;
5. zwiększenie obowiązków bardzo dużych platform w zakresie zapobiegania niewłaściwemu wykorzystywaniu ich systemów poprzez podejmowanie działań opartych na ocenie ryzyka oraz poprzez przeprowadzanie niezależnych kontroli zarządzania ryzykiem związanym z tymi systemami;
6. udostępnianie naukowcom najważniejszych danych przez największe platformy, aby mogli oni badać, jak ewoluują zagrożenia w sieci;
7. utworzenie struktury nadzorczej odpowiadającej złożoności przestrzeni internetowej: kraje Unii Europejskiej będą odgrywać główną rolę, przy wsparciu nowej Europejskiej Rady ds. Usług Cyfrowych, w przypadku bardzo dużych platform – wzmocniony nadzór i egzekwowanie przepisów przez Komisję Europejską.
Pomimo wdrożenia mechanizmów mających na celu zapewnienie bezpieczeństwa w cyberprzestrzeni oraz zapobiegania ograniczania wolności słowa problem blokowania kont i usuwania komentarzy w mediach społecznościowych nadal jest aktualny. Opinii publicznej nie jest znana jest efektywność poszczególnych narzędzi.
Niezależnie od zalet swobodnego obiegu wiedzy, opinii i poglądów, konieczne jest znalezienie sposobu na powstrzymanie bądź przynajmniej znaczne zmniejszenie skali negatywnych zjawisk w Internecie, jak dezinformacja, czy mowa nienawiści - przy poszanowaniu proporcjonalności ingerencji w swobodę i wolność wypowiedzi.
W opinii Rzecznika znaczną zmianę w tym zakresie może przynieść zakończenie procesu legislacyjnego i implementacja do porządku krajowego unijnego aktu o usługach cyfrowych.
VII.564.4.2022