1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

Internet. Platformy odpuszczają usuwanie mowy nienawiści

26 listopada 2022

Platformy społecznościowe, jak Facebook i Twitter, wolniej niż w ubiegłych latach reagują na zgłoszenia o mowie nienawiści, rzadziej też usuwają szkodliwe treści – wynika z najnowszego raportu Komisji Europejskiej.

https://p.dw.com/p/4K7FA
Symbolbild Fake News
Zdjęcie: Antonio Guillen Fernández/PantherMedia/IMAGO

Jak wynika z badań Komisji Europejskiej, w 2022 roku najwięcej mowy nienawiści w internecie dotyczyło osób pochodzenia romskiego (16,8 proc.) lub wyrażało się w ogólnie ksenofobicznych komentarzach, głównie o charakterze antyimigranckim (16,3 proc.). Kolejno na liście najchętniej atakowanych znalazły się osoby o odmiennej orientacji seksualnej (15,5 proc.), pochodzenia żydowskiego (9,9 proc.) i muzułmanie (8,7 proc.).

W sieci obrywa się także kobietom, Afrykanom i osobom o innym pochodzeniu etnicznym. Tymczasem – jak ujawnił najnowszy raport Komisji Europejskiej – platformy społecznościowe coraz słabiej walczą z mową nienawiści, wolniej reagują na nienawistne wpisy, rzadziej też je usuwają. Częściej natomiast informują o tym internautów.

Kryzys zaczął się rok temu

Zgodnie z decyzją ramową Rady ws. zwalczania rasizmu i ksenofobii publiczne nawoływanie do przemocy i nienawiści wobec określonej grupy lub osoby z powodu rasy, koloru skóry, religii, pochodzenia jest przestępstwem. Także wtedy, gdy ma miejsce w Internecie.

Jeszcze w 2016 roku firmy internetowe, w tym te największe jak Meta (dawniej Facebook) czy Google, zawarły porozumienie z Komisją Europejską, tzw. Kod Postępowania, w którym zobowiązywały się m.in. do usuwania zgłoszonych nienawistnych treści w ciągu 24 godzin od otrzymania zgłoszenia. I faktycznie w ostatnich latach skuteczność mediów społecznościowych w tym zakresie rosła. Kryzys zaczął się w ubiegłym roku.

Najnowsze badania ujawniły, że spadła liczba działań podejmowanych przez platformy w odpowiedzi na zgłoszenia odnośnie mowy nienawiści. W 2022 roku platformy w ciągu 24 godzin zareagowały średnio tylko na 64,4 proc. zgłoszeń. To znacznie mniej niż w latach poprzednich, bo jeszcze w 2021 roku w ciągu doby platformy rozpatrywały 81 proc. zgłoszeń, w 2020 roku – ponad 90 proc. Teraz co dziesiąte zgłoszenie czeka na reakcję prawie 48 godzin, co piąte koło tygodnia.

Jedynie TikTok poprawił swoje wyniki reagując na niemal 92 proc. zgłoszeń natychmiast. Wszystkie pozostałe platformy wypadły gorzej niż w jeszcze rok temu: Twitter i Intagram rozpatrywały w ciągu 24 godzin tylko co drugie zgłoszenie o mowie nienawiści, Facebook nieco więcej, bo prawie 64 proc.

Mniej przemocy, więcej zniesławienia

Unijni urzędnicy skarżą się też, że platformy społecznościowe coraz rzadziej usuwają mowę nienawiści ze swoich stron. Dzisiaj średnio z sieci znika 63 proc. tego typu wpisów, jeszcze dwa lata temu było ich o 8 proc. więcej. Twitter w tym roku usunął najmniej, bo zaledwie 45 proc. nienawistnych wpisów. A badanie przeprowadzone zostało jeszcze przed przejęciem firmy przez Elona Muska, który już zapowiedział, że podejście serwisu do szkodliwych treści będzie bardziej elastyczne. Facebook usunął 69,1 proc. mowy nienawiści, jedynie YouTube poprawił wynik usuwając 90,4 proc. takich treści (skok z 58,8 proc. w zeszłym roku).

Raport ujawnia, że częściej z sieci usuwane najpoważniejsze przejawy nienawiści, jak treści wzywające do zabójstwa lub przemocy wobec określonych grup (znika średnio 70 proc. takich wpisów), niż treści zniesławiające daną grupę czy osobę (kasowanych jest mniej niż 60 proc.).

– Ta tendencja spadkowa wśród platform w zakresie usuwania nielegalnego nawoływania do nienawiści i jest bardzo niepokojąca. Mowa nienawiści w sieci jest plagą ery cyfrowej, a platformy muszą wywiązywać się ze swoich zobowiązań i podejmować odpowiednie działania, żeby uczynić świat online bezpieczniejszym dla wszystkich – skomentowała raport wiceprzewodnicząca KE Vera Jourova.

Lepszy kontakt z użytkownikami

Jak jednak zauważają unijni urzędnicy, nie wszystkie wyniki są złe. Platformy poprawiły częstotliwość i jakość informacji zwrotnych udzielanych użytkownikom zgłaszających mowę nienawiści, czego w ostatnich latach domagała się od firm Komisja Europejska. TikTok zareagował na 57 proc. zgłoszeń, co oznacza spory skok w porównaniu w ubiegłorocznymi 29 proc., zaś Instagram na nieco ponad 72 proc. (z 42 proc.). Facebook pozostał platformą, która informuje swoich użytkowników najbardziej systematycznie, bo w 85 proc.

Badanie wykazało, że firmy reagują częściej na doniesienia o mowie nienawiści przekazywane im przez zaufane organizacje monitorujące sieć, takie jak Stowarzyszenie Nigdy Więcej w Polsce czy niemiecki Jugendschutz.net, niż na zgłoszenia od indywidualnych internautów. Komisja zapowiedziała, że będzie nadal monitorować wdrażanie Kodeksu Postępowania przez platformy internetowe.

16 listopada w życie weszły unijne przepisy o usługach cyfrowych (DSA) regulujące funkcjonowanie platform internetowych, w tym zobowiązujące je do usuwania nielegalnych treści, w tym mowy nienawiści. KE zapowiedziała, że omówi z platformami sposób, który pomoże zagwarantować Kod Postępowania będzie zgodny z założeniami DSA i będzie stanowił „wartość dodaną w procesie zwalczania mowy nienawiści”.

– Proces ten może doprowadzić do zmiany Kodeksu Postępowania w 2023 roku – zdradzają unijni urzędnicy.

Chcesz skomentować ten artykuł? Zrób to na Facebooku! >>