TikTok renunță la echipa de moderare din Germania, înlocuind-o cu inteligență artificială, în timp ce angajații protestează

TikTok renunță la echipa de moderare din Germania, înlocuind-o cu inteligență artificială, în timp ce angajații protestează
TikTok. FOTO: Hollandse Hoogte / Shutterstock Editorial / Profimedia

În Germania, angajații TikTok au intrat în grevă pentru a-și obiecta față de reducerea semnificativă a personalului din echipa responsabilă de siguranța și moderarea conținutului platformei. Compania a anunțat că va desființa echipa din Berlin, care elimină conținutul inadecvat, transferând această responsabilitate către inteligența artificială și lucrători contractuali. Această schimbare se traduce prin pierderea a aproximativ 150 de locuri de muncă, conform informațiilor publicate de The Guardian.

Ver.di, sindicatul care îi reprezintă pe angajații TikTok, și-a exprimat dorința de a dialoga cu compania pentru a negocia condițiile de compensare și prelungirea perioadei de preaviz la un an. Kalle Kunkel, purtător de cuvânt pentru regiunea Berlin-Brandenburg, a declarat că TikTok a refuzat orice inițiativă de discuție cu sindicatul până în prezent.

„Ne-au transmis că nu doresc să ne întâlnească pentru discuții, ceea ce ne-a determinat să lansăm două greve”, a explicat Kunkel. „Până acum, nu am primit un răspuns.”

În Berlin, echipa de moderare servește piața germanofonă, care numără aproximativ 32 de milioane de utilizatori activi. TikTok are mai multe birouri în Germania, dar cel din capitală este cel mai mare, având 400 de angajați. Reducerea personalului echipei de siguranță ar duce la o diminuare de aproape 40% a întregii forțe de muncă.

Anna Sopel, purtătoarea de cuvânt a TikTok, a subliniat că disponibilizările propuse urmăresc să simplifice procesele interne și să sporească eficiența, adăugând că protecția siguranței și integrității este o prioritate pentru companie.

În Germania, precum și în alte țări, echipa de siguranță are rolul crucial de a detecta și elimina videoclipurile dăunătoare, asigurându-se că regulile platformei nu sunt încălcate. Aceasta presupune analiza conținutului violent, pornografic, dezinformativ sau rasist. Membrii echipei verifică circa 1.000 de videoclipuri zilnic, colaborând adesea cu sisteme bazate pe inteligență artificială.

Tendința globală spre automatizarea moderării prin inteligență artificială

TikTok și-a diminuat constant personalul din echipele de siguranță la nivel global, alegând să înlocuiască frecvent acești angajați cu sisteme automate. În luna septembrie, s-au desființat 300 de posturi în Țările de Jos, iar în luna octombrie, 500 de moderatori din Malaezia au fost înlocuiți. Conform Reuters, procesul de reducere a acestor echipe a început și în Asia, Europa, Orientul Mijlociu și Africa, continuând până în februarie.

Concedierile din Germania survin după ce CEO-ul TikTok, Shou Zi Chew, a exprimat angajamentul de a investi semnificativ în echipele de siguranță, promise fiind fonduri de peste 2 miliarde de dolari pentru o echipă globală extinsă. Anna Sopel a menționat că compania investește încă masiv în acest sector, dar nu a furnizat date specifice despre numărul actual de angajați.

Cu toate că TikTok este deținută de ByteDance din China, se confruntă cu riscul de a fi interzisă în SUA dacă nu se vinde unui cumpărător aprobat de autorități. Pe de altă parte, TikTok a beneficiat de mai multe amânări din partea fostului președinte Donald Trump legate de interdicție.

Și alte companii de social media, precum Snap Inc, X și Meta, au redus echipele axate pe siguranța platformelor. În luna mai, NPR a dezvăluit că Meta intenționează să înlocuiască 90% dintre verificatorii de produse cu sisteme automatizate, inclusiv pe cei din domeniul siguranței. Meta și X au renunțat la verificarea informațiilor de către oameni, înlocuind această activitate cu contribuții mai largi ale utilizatorilor.

„Înlocuirea forței de muncă umane responsabile de siguranța platformelor cu inteligență artificială va conduce la mai multe erori și la experiențe mai nesănătoase pentru utilizatori”, avertizează Aliya Bhatia, analistă principală la Center for Democracy and Technology, organizație non-profit care examinează modul de moderare al conținutului.

Valuri de proteste împotriva înlocuirii muncii umane cu inteligența artificială

Utilizarea inteligenței artificiale în locul angajaților pentru moderarea conținutului duce la dificultăți, a afirmat Kunkel. Angajații TikTok au raportat către sindicat că sistemul automat de monitorizare clasifica, greșit, conținutul neutru drept dăunător, deși acesta respecta politicile platformei, în timp ce website-ul ignora materiale care meritau atenție.

„Inteligența artificială nu poate vedea întotdeauna complexitatea imaginilor și a videoclipurilor problematice”, a declarat Kunkel.

În Uniunea Europeană, regulamentele privind platformele tehnologice și moderarea conținutului sunt mai stricte decât în alte regiuni. Legea Serviciilor Digitale impune platformelor sociale, cum este și TikTok, să protejeze eficient împotriva conținutului nociv, altfel riscă penalizări severe.

Recomandari
Show Cookie Preferences