1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

TikTok ogranicza wolność słowa

Aneta Pawlak
6 października 2022

Chińska platforma video TikTok w Niemczech regularnie używa filtra słów. Według przeprowadzonych badań co najmniej 20 wyrazów uniemożliwia publiczne wyświetlenie się komentarzy. Użytkownicy nic o tym nie wiedzą.

https://p.dw.com/p/4HqZC
Tik Tok
Zdjęcie: picture-alliance/F. May

Aplikacja zyskała niesłychaną popularność dzięki krótkim filmikom z nagraniami piosenek i tańców przypadkowych użytkowników, z których te najbardziej chwytliwe natychmiast podbijały internet. Dzisiaj klipy dotyczące najnowszych informacji są w równym stopniu obecne na TikToku co filmiki o gotowaniu czy nagrania z wojny w Ukrainie. Dzięki temu firma odnosi sukcesy. Z TikToka regularnie korzysta w Niemczech połowa nastolatków w wieku 12–19 lat oraz prawie jedna trzecia młodych ludzi w wieku 20–29 lat. 

Z dziennikarskiego śledztwa dziennikarzy redakcji publicznych mediów NDR, WDR i tagesschau wynika, że koncern najwyraźniej cenzuruje za pomocą automatycznych filtrów co najmniej 20 wyrazów. Svea Eckert, Catharina Felke z NDR i Oskar Vitlif zauważyli, że komentarze, które zawierają którykolwiek z nich, nie pojawiały się publicznie pod filmikami w co najmniej czterech próbach, podejmowanych z różnych kont. Przetestowano 70 wyrazów i kombinacji słownych.

Ponieważ TikTok  wyznacza określone ustawienia dla komentarzy, nie zostały one podczas testu zmienione. Wśród wyrazów, które były blokowane we wrześniu 2022 roku, znalazły się między innymi: nazista, niewolnicy, gaz, LGBTQ, gej, haszysz, trawka, prostytucja, seks, porno.

Częściowej blokadzie podlegały m.in. takie słowa jak: armia, Ausschwitz, crystal meth, ecstasy, myśliwce wojskowe, kryzys klimatyczny, czołg, Peng Shuai, Rosjanie, Rosja, terroryści, trans, oddziały, Ukraina, Ukraińcy, prawo międzynarodowe, aplikacja ostrzegająca, zawody.

TikTok tłumaczy

Zapytana o wyniki badań rzeczniczka TikToka wyjaśniła, że aplikacja używa technologii do „aktywnego wyszukiwania komentarzy, które naruszają nasze wytyczne bądź wykazują cechy spamu”. I przyznała się do błędu: „W tym przypadku niektóre komentarze, które w żaden sposób nie naruszały naszych zasad, zostały mylnie oznaczone jako potencjalnie szkodliwe.”

Koncern poinformował także, że platforma nadal będzie doskonaliła swoje automatyczne systemy, a jesienią tego roku wybrani badacze otrzymają dostęp do systemu moderacji API.

O Holokauście na Tik Toku

Użytkownicy nie wiedzieli o blokadach

Jak pokazały testy, platforma ani razu nie poinformowała swoich użytkowników, czy i dlaczego komentarz się nie ukazał. Zamiast tego aplikacja tworzyła fałszywe wrażenie, że komentarze są publicznie dostępne. Jest to świadomie stosowana metoda ukrytej blokady, nazywana „shadow banning”. Użytkownicy TikToka nie mogą więc mieć całkowitej pewności, czy ich komentarze są widoczne dla innych ludzi.

TikTok przypuszcza, iż duża liczba komentarzy, zamieszczona jednocześnie w krótkim czasie, mogłaby doprowadzić do automatycznego sklasyfikowania niektórych z nich jako spam.

Platforma wyjaśniła również, że sprawdza przejrzystość komentarzy, rozumiejąc obawy – zwłaszcza środowisk LGBTQ+, które nierzadko narażone są na mowę nienawiści i mobbing. TikTok  zamierza moderować komentarze w sposób bardziej zniuansowany i wspierać przyjazną atmosferę w społeczności użytkowników.

Poszukiwanie dialogu

Według użytkownika TikToka Maximiliana Pichlmeiera filtrowanie słów jako metoda zapobiegania mowie nienawiści i ochrona użytkowników nie zdaje egzaminu. „Na takich platformach nienawiść zawsze znajdzie swoją drogę, by się ujawnić”, powiedział dziennikarzom NRD, WDR i tagesschau.

Pichlmeier zajmuje się na swoim koncie społecznością LGBTIQ i poszukuje otwartego dialogu. Najlepszym sposobem jest oczywiście możliwość komentowania, także po to, by przeciwdziałać osobom umieszczającym homofobiczne wpisy. „Jeśli ja używam słów ‘gejowski' czy ‘homoseksualny', ale nie wyświetla się komentarz innej osoby, to o żadnej dyskusji nie może być mowy. Jak można mówić o jakimkolwiek dialogu czy spotkaniu, jeśli rzeczywistość jest zupełnie inna?” – zastanawia się Pichlmeier.

Brak przejrzystości

Praktyki stosowane przez moderatorów TikToka nie po raz pierwszy budzą kontrowersje. Już w lutym 2022 NDR, WDR i tagesschau podały, że aplikacja ogranicza wolność wyrażania opinii przez użytkowników w Niemczech, korzystając z cenzora wyrazów.

Na przykład komentarze, w których występowały terminy związane ze środowiskami LGBTIQ, takie jak „queer” czy „gej”, zostały ocenzurowane w ten sam sposób co „Ausschwitz” albo „narodowy socjalizm”. Aż dziewiętnaście spośród stu testowanych wyrazów zostało uznanych za niedozwolone. TikTok przyznał się do błędów i obiecał ponowne przeanalizowanie działań i swojej strategii. 

I rzeczywiście w komentarzach można używać teraz słów, takich jak „homoseksualista” czy wymieniać chińską tenisistkę Peng Shuai.

Jednak platforma ponownie uznała za niedopuszczalne słowa, które zostały uwolnione do publicznego użytku po interwencji w lutym tego roku. Należą do nich „LGBTQI”, „gej” czy „heteroseksualny”.

Automatyczne filtry są tańsze

„To sprawa zasadniczo problematyczna”, uważa Christian Stöcker, medioznawca z Uniwersytetu Nauk Stosowanych w Hamburgu, szef kierunku „Komunikacja cyfrowa”. Zajmuje się platformami, takimi jak TikTok. „Trwa dyskusja publiczna, lecz dopóki nie wiemy, w jaki sposób TikTok  moderuje swoją aplikację, za pomocą jakich narzędzi i jakiego zaangażowania siły roboczej, mamy problem”, podsumowuje.

Stöcker dostrzega także kwestię kosztów, które wiążą się z moderowaniem treści. Odpowiednie oprogramowanie czy filtry słów są dużo tańsze niż zatrudnienie dużej ilości pracowników do moderacji komentarzy. To leży w interesie firmy.

Niepożądane „zmiany klimatyczne” i „kryzys klimatyczny”

Oprócz 19 wcześniej zidentyfikowanych pojęć sprawdzono również inne słowa, które zwróciły uwagę dziennikarzy tagessschau czy użytkowników TikToka. Są to np. wyrazy występujące w kontekście rosyjskiej agresji na Ukrainę, jak również narkotyki. Wpisy zawierające określenia „kokaina”, „crack”, „konopie indyjskie” były podczas testów odfiltrowywane. Z kolei „crystal meth” i „ecstasy” były częściowo dozwolone. W żadnym wypadku nie istniał wyraźny wzorzec filtrowania.

Podczas gdy w niektórych badaniach komentarz umieszczony pod filmem z jednego konta mógł zawierać określone słowo, to to samo słowo w komentarzu napisanym z tego samego konta było blokowane pod innym filmem.

Jednak nawet dopuszczalne wyrazy w niektórych przypadkach były blokowane, np. „zmiany klimatyczne” czy „kryzys klimatyczny”. Poza tym TikTok najwyraźniej odfiltrowuje niektóre wyrazy związane z wojną w Ukrainie, np. „Ukraina”, „operacja specjalna”, „prawo międzynarodowe” albo „oddziały”.

Ukrywanie podtytułów

Caja Thimm jest profesorem medioznawstwa na Uniwersytecie w Bonn i postrzega cenzurę na TikToku jako tłumienie tematów, które ma dramatyczne konsekwencje. W dziedzinie badań nad komunikacją określa się to jako Agenda Cutting (cięcie agendy).  – Na początku jest to subtelne, po prostu nie dopuszcza się ważnych, kluczowych pojęć, ale gdy to już działa, zablokowane zostają całe tematy i ludzie, którzy chcieliby o tym podyskutować, muszą opuścić TikToka – mówi. Thimm podkreśla, że prawdziwy problem pojawi się, gdy platforma zacznie subtelnie sortować swoich użytkowników.

TikTok podaje, że ma ponad miliard użytkowników na całym świecie. W samych Niemczech jest ich 20 milionów.

Platforma jest obsługiwana przez chińską firmę internetowo-technologiczną ByteDance, w której udziały posiada także chiński rząd i występuje tam pod nazwą Douyin.

Chcesz skomentować ten artykuł? Zrób to na facebooku! >>