1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

Mowa nienawiści w sieci. UE zabiera się za algorytmy

Stephanie Höppner
20 kwietnia 2023

Unia Europejska chce rozgryźć sekrety algorytmów stosowanych przez duże firmy informatyczne. W tym celu otworzyła nowy urząd w Sewilli. Jak jednak ma on zwalczać nienawiść i propagandę w sieci?

https://p.dw.com/p/4QN9f
Kto decyduje o tym, co widzimy? Unia Europejska próbuje to teraz rozszyfrować. przyglądając się algorytmom stosowanym przez sieci społecznościowe
Kto decyduje o tym, co widzimy? Unia Europejska próbuje to teraz rozszyfrować. przyglądając się algorytmom stosowanym przez sieci społecznościoweZdjęcie: Sebastian Gollnow/dpa/picture alliance

Ten problem jest już dobrze znany, ale jak dotąd wciąż pozostaje bez realnego rozwiązania: rasistowskie i seksistowskie obelgi, język pełen pogardy dla ludzi, niekiedy nawet nawoływanie do przemocy. Tak agresywny klimat można napotkać szczególnie w sieciach społecznościowych, takich jak Facebook czy Twitter.

Tego rodzaju platformy są od lat nie tylko wykorzystywane w celach rozrywkowych, ale i nadużywane do prowadzenia wojen informacyjnych, szerzenia fejków i teorii spiskowych czy działań, których celem jest mobilizowanie grup ekstremistycznych. Na platformach wideo, takich jak TikTok, z których korzystają przede wszystkim ludzie młodzi, rozpowszechniane są treści mogące prowadzić do zaburzeń odżywiania, jak anoreksja czy bulimia, czy do samookaleczeń.

Media społecznościowe to więcej niż przechowalnie

Reakcje operatorów na problemy z platformami społecznościowymi polegały do tej pory raczej na wyczekiwaniu, chociaż zdaniem ekspertów oni również ponoszą odpowiedzialność: – W końcu platformy nie są tylko miejscem przechowywania treści generowanych przez użytkowników, ale mają również systemy algorytmiczne, które zapewniają dystrybucję treści – tłumaczy Josephine Ballon z organizacji non profit HateAid, która wspiera osoby dotknięte nienawistnymi komentarzami.

Media społecznościowe są nadużywane również i po to, by mobilizować. W styczniu 2023 roku po takich działaniach zwolennicy byłego prezydenta Brazylii Jaira Bolsonaro zaatakowali dzielnicę rządową w Brasilii
Media społecznościowe są nadużywane również i po to, by mobilizować. W styczniu 2023 roku po takich działaniach zwolennicy byłego prezydenta Brazylii Jaira Bolsonaro zaatakowali dzielnicę rządową w BrasiliiZdjęcie: Ueslei Marcelino/REUTERS

Oznacza to, że Facebook i inne podobne sieci nie są odpowiedzialne za same treści, ale za ich szerzenie dzięki zaawansowanym algorytmom. Algorytmy te zaś to systemy, które na podstawie zebranych danych decydują, jakie treści użytkownicy zobaczą na platformach, a jakich nie będą widzieć. Na wyświetlanie konkretnych informacji mogą wpływać między innymi polubienia i komentarze. Ale zachodzą tu też procesy, które trudno zrozumieć, gdy patrzy się z zewnątrz.

– Kody tych algorytmów nie są otwarte i w dużej mierze poruszamy się po omacku w kwestii tego, jak działają – mówi Ballon w rozmowie z DW. Jednak dokumenty opublikowane przez sygnalistów, takich jak była pracownica Facebooka Frances Haugen, wskazują, że na przykład algorytmy Facebooka nadają wyższy priorytet treściom polaryzującym, które mogą generować również nienawiść, ze skutkami fatalnymi dla całego społeczeństwa.

W poszukiwaniu pełnego obrazu

Unia Europejska próbuje teraz uporać się z problemem i rozświetlić nieco panujące ciemności. Już w listopadzie 2022 roku weszła w życie ustawa o usługach cyfrowych (Digital Services Act, DSA), która ma stworzyć bardziej przejrzyste zasady dla internetu, a zwłaszcza dla platform mających na terenie unijnych państw ponad 45 milionów użytkowników. Ustawa nakłada na dostawców między innymi obowiązek identyfikacji, analizy i oceny ryzyka systemowego swoich usług, włącznie z systemami algorytmicznymi.

Josephine Ballon z organizacji HateAid: „Błądzimy po omacku“
Josephine Ballon z organizacji HateAid: „Błądzimy po omacku“Zdjęcie: Andrea Heinsohn

Ustawa przyznaje badaczom rozszerzone prawo dostępu do danych dużych platform. Ponadto olbrzymi wśród platform muszą raz w roku przedstawiać Komisji Europejskiej ocenę ryzyka w odniesieniu do szkodliwych treści, wraz z możliwymi środkami zaradczymi. – Tym, co wyróżnia DSA także w porównaniu z regulacjami, które mieliśmy już na poziomie krajowym, jest element przejrzystości. Po raz pierwszy chodzi o uzyskanie wglądu w zasady technicznego funkcjonowania platform – mówi Ballon. – Oczywiście dzięki sygnalistom i analizom wiemy już wiele, ale pełnego obrazu wciąż jeszcze nie ma, ponieważ platformy działają skrycie – dodaje.

Gruntowna kontrola

W ten wtorek w Sewilli otwarto Europejskie Centrum Przejrzystości Algorytmicznej (European Centre for Algorithmic Transparency, ECAT). Około 30 pracowników będzie doradzać Komisji UE w zakresie egzekwowania DSA i wymieniać informacje z innymi ekspertami. Są wśród nich eksperci od AI (sztucznej inteligencji), informatycy i badacze zajmujący się naukami społecznymi. Wzory, według których wielkie korporacje IT podsuwają użytkownikom konkretne treści, mają stać się bardziej przejrzyste.

– Urząd ma po raz pierwszy poddać próbie bardzo duże platformy i bardzo duże wyszukiwarki internetowe, aby sprawdzić, jak działają ich algorytmy i jak przyczyniają się do rozpowszechniania nielegalnych i szkodliwych treści, na które narażonych jest zbyt wielu Europejczyków – powiedziała według komunikatu prasowego wiceprzewodnicząca Komisji Europejskiej Margrethe Vestager.

Już nie bezradnie zdani na łaskę?

Ale czy unijne wysiłki są wystarczające? – Już teraz oceniamy DSA jako ważny krok, ponieważ odwraca nieco narrację i mówi: nie jesteśmy bezradnie zdani na łaskę big tech i rozwoju technologicznego, ale musimy też być w stanie podejmować decyzje, jakie chcemy ustalić ramy jako demokratyczne społeczeństwo i jakich warunków muszą przestrzegać platformy – powiedziała DW Angela Mueller z organizacji pozarządowej AlgorithmWatch. – Nie uważam, że DSA to wielka rewolucja, ale to dobry, ważny krok – oceniła. Jej zdaniem skorzystają na tym zwłaszcza te kraje Unii Europejskiej, które do tej pory nie miały żadnych regulacji.

Szef Twittera Elon Musk zapowiedział, że zamierza jak najmniej ograniczać treści w swoim serwisie krótkich wiadomości
Szef Twittera Elon Musk zapowiedział, że zamierza jak najmniej ograniczać treści w swoim serwisie krótkich wiadomościZdjęcie: Jim Watson/La Nacion/Zumapress/picture alliance

Mając dostęp do danych platform, będzie można nareszcie zbadać zasady działania Facebooka & Co. – Ale pytaniem jest teraz, czy platformy będą próbowały jakoś się z tego wykręcić. Jestem przekonana, że będą szukać wszelkich możliwych sposobów i środków, aby osłabić te obowiązki – mówi Müller.

Innym problemem jest siła robocza i tak zwane capacity building, czyli budowanie kompetencji operatorów platform. – Czy rzeczywiście istnieją tacy ludzie, którym na tym zależy? Mam co do tego wątpliwości – mówi Mueller.