
- TikTok likwiduje berliński zespół moderatorów "Trust and Safety", liczący 150 osób.
- Obowiązki moderatorów mają przejąć algorytmy AI oraz pracownicy firm zewnętrznych, co budzi obawy o skuteczność.
- Związki zawodowe i eksperci ostrzegają przed konsekwencjami rezygnacji z ludzkiej moderacji.
- Czy sztuczna inteligencja jest w stanie skutecznie chronić użytkowników przed szkodliwymi treściami?
TikTok likwiduje zespół moderatorów treści
TikTok, należący do chińskiego koncernu ByteDance, zdecydował się na likwidację całego berlińskiego zespołu „Trust and Safety”, liczącego około 150 osób. Moderatorzy odpowiadali za usuwanie treści zawierających przemoc, pornografię, mowę nienawiści czy dezinformację – w tym również w języku niderlandzkim. Według informacji przekazanych przez flamandzkiego nadawcę VRT i „The Brussels Times”, obowiązki zespołu przejmą algorytmy AI oraz pracownicy z firm zewnętrznych.
Protesty i reakcja związków zawodowych
Decyzja TikToka spotkała się z natychmiastową reakcją. 17 lipca br. około 50 osób protestowało w Berlinie, trzymając banery z hasłami: „Wytrenowaliśmy wasze maszyny – zapłaćcie nam, na co zasługujemy”. Niemiecki związek zawodowy Ver.di, reprezentujący pracowników sektora usług, zapowiedział kolejne działania, jeśli TikTok nie cofnie swojej decyzji.
Związki zawodowe ostrzegają, że AI może błędnie klasyfikować treści. „To niebezpieczne. Nie można moderacji oddać w pełni algorytmom” – zauważyła Sara Tegge, jedna ze zwolnionych moderatorek, w rozmowie z agencją AFP. Obawy te podziela również anonimowy pracownik, który przestrzega: „Zastąpienie nas przez AI tylko pogorszy sytuację. Aplikacja stanie się mniej bezpieczna”.
Eksperci krytykują rezygnację z ręcznej moderacji
Specjalista ds. AI, Olivier Cauberghs, zauważa: „AI nie potrafi rozpoznać subtelnych form mowy nienawiści ukrytej w emoji, kodach czy muzyce. Tylko człowiek ma ten kontekst” – mówił na antenie VRT Radio 1. Jego zdaniem jest to element globalnego trendu wycofywania się platform z inwestycji w ludzką moderację, co może zwiększyć ryzyko publikacji treści nielegalnych lub nieodpowiednich.
Podobne decyzje w innych krajach
Nie jest to pierwszy przypadek takich działań ze strony TikToka. W ubiegłym roku firma zwolniła cały zespół moderatorów w Amsterdamie, który liczył około 300 osób i zajmował się treściami w językach niderlandzkim, angielskim i włoskim. TikTok zapewnia, że większość naruszeń jest już automatycznie wykrywana przez AI, a ręczna moderacja będzie kontynuowana – jednak jedynie przez podwykonawców.
Polecany artykuł: