Vijesti

TikTok moderatori kažu da su im tokom treninga pokazani video snimci seksualnog zlostavljanja djece

A Forbes Izveštaj postavlja pitanja o tome kako TikTokov tim za moderiranje postupa sa materijalom o seksualnom zlostavljanju dece – navodeći da je odobrio širok, nesiguran pristup ilegalnim fotografijama i video zapisima.

Zaposlenici treće strane za moderiranje pod nazivom Teleperformance, koja između ostalih kompanija radi s TikTokom, tvrde da je od njih tražila da pregledaju uznemirujuću tabelu nazvanu DRR ili Daily Required Reading o standardima moderiranja TikToka. Tabela je navodno sadržavala sadržaj koji je kršio smjernice TikToka, uključujući “stotine slika” djece koja su bila gola ili su zlostavljana. Zaposleni kažu da bi stotine ljudi u TikTok-u i Teleperformanceu moglo pristupiti sadržaju iz ureda i izvan nje – otvarajući vrata širem curenju.

Teleperformance odbijen Forbes da je zaposlenima pokazao sadržaj koji seksualno iskorištava, a TikTok je rekao da njegovi materijali za obuku imaju “strogu kontrolu pristupa i ne uključuju vizuelne primjere CSAM-a”, iako nije potvrdio da svi dobavljači trećih strana ispunjavaju taj standard.

Zaposleni pričaju drugačiju priču, a kao Forbes izlaže, to je pravno nezgodan. Moderatori sadržaja su rutinski primorani da se bave CSAM-om koji se objavljuje na mnogim platformama društvenih medija. Ali slike zlostavljanja djece su nezakonite u SAD-u i s njima se mora pažljivo postupati. Kompanije bi trebalo da prijave sadržaj Nacionalnom centru za nestalu i eksploatisanu djecu (NCMEC), a zatim ga čuvaju 90 dana, ali minimiziraju broj ljudi koji ga vide.

Optužbe ovdje idu daleko iznad te granice. Oni ukazuju da je Teleperformance zaposlenima pokazao grafičke fotografije i video zapise kao primjere onoga što treba označiti na TikToku, dok je igrao brzo i slobodno s pristupom tom sadržaju. Jedna zaposlenica kaže da je kontaktirala FBI da pita da li ova praksa predstavlja kriminalno širenje CSAM-a, iako nije jasno da li je otvorena.

Pun Forbes Izvještaj je vrijedan čitanja, koji opisuje situaciju u kojoj moderatori nisu bili u stanju da održe korak sa eksplozivnim rastom TikToka i rekli su da gledaju zločine nad djecom iz razloga za koje su smatrali da se ne uklapaju. Čak i po komplikovanim standardima debata o bezbednosti dece na internetu, to je čudna — i ako je tačna, užasna — situacija.

Leave a Reply

Your email address will not be published.