L’application de vidéos courtes a annoncé la suppression de l’ensemble de son équipe allemande de sécurité et de confiance, soit 150 postes. En grève, ces derniers alertent autour des dangers de l’IA pour modérer les contenus.

Depuis plusieurs mois, la modération de Tiktok est sous le feu des critiques. Pourtant, selon The Guardian, l’application de vidéos courtes va démanteler toute son équipe allemande de sécurité et de confiance. Au total, pas moins de 150 modérateurs de contenus sont supprimés, soit 40% des salariés allemands de la plateforme chinoise.

À la place, l’entreprise envisage d’externaliser la modération de contenus à l’intelligence artificielle ainsi que des contractuels externes. Ils seront chargés de supprimer les contenus nuisibles pour les 32 millions d’utilisateurs en Allemagne. Sans surprise, l’annonce a provoqué la colère des employés allemands. Ces derniers sont en grève depuis plusieurs semaines pour protester contre ces licenciements massifs.

L’IA, loin d’être infaillible

Le syndicat ver.di, qui représente les salariés de Tiktok, a pourtant tenté de faire pression sur l’application. Mais l’entreprise chinoise refuse tout dialogue. « Fondamentalement, ils nous ont dit: ‘Nous ne voulons pas vous parler’, alors après cela, nous avons fait deux grèves », explique Kalle Kunkel, porte-parole du syndicat. « Mais ils ne réagissent toujours pas. »

Les mobilisations se poursuivront si Tiktok refuse de négocier. Les employés de la branche allemande n’excluent pas une grève de longue durée. De son côté, Anne Sopel, porte-parole de Tiktok, justifie ces suppressions d’emplois par la volonté de « rationaliser les flux de travail et améliorer l’efficacité avec un engagement total pour protéger la sécurité et l’intégrité de notre plateforme ». Pourtant, l’IA est loin d’être infaillible.

« C’est dangereux en raison des contenus qui circulent de manière incontrôlée sur la plateforme car l’IA ne peut pas accomplir tout ce que les modérateurs de contenus font », déclare une syndicaliste.

« L’IA n’est pas en mesure d’identifier vraiment des images ou des vidéos problématiques, surtout lorsqu’il s’agit de contenu sophistiqué », confirme la porte-parole. Plusieurs salariés ont indiqué que le système de modération automatisé de l’entreprise avait classé des vidéos avec un drapeau arc-en-ciel Pride comme du contenu nuisible, ce qui ne viole pas la politique de l’entreprise.

Multiplication des suppressions de postes

De son côté, Tiktok affirme qu’investir dans la modération alimentée par l’IA permet de supprimer plus rapidement le contenu en infraction avant qu’il ne soit consulté par les utilisateurs sur le réseau social. La société affirme que la technologie aide également à réduire le volume de vidéos nuisibles que les modérateurs humains sont obligés d’examiner.

Ces derniers mois, Tiktok a réduit la voilure de ses modérateurs dans le monde au profit de l’IA. En octobre dernier, la plateforme a annoncé la suppression d’environ 500 emplois dans le monde, notamment en Malaisie, pour préférer des solutions automatisées telles que l’intelligence artificielle pour modérer ses contenus.

Un mois auparavant, l’entreprise a licencié toute son équipe de 300 modérateurs de contenus aux Pays-Bas. Et, en février dernier, Reuters a rapporté que Tiktok licenciait des parts importantes de ses équipes de confiance et de sécurité en Asie, en Europe, au Moyen-Orient et en Afrique.

L’an dernier, Shou Zi Chew, le PDG de Tiktok, avait pourtant assuré devant le Congrès américain que l’entreprise augmenterait ses dépenses en matière de confiance et de sécurité. Il s’est engagé à dépenser plus de 2 milliards de dollars pour son équipe de modérateur. Ils étaient plus de 40.000 dans le monde en 2023.

Et la plateforme est loin d’être une exception. Plusieurs réseaux sociaux ont également réduit leurs équipes de confiance et de sécurité au cours des deux dernières années. En mai, NPR a révélé que Meta prévoyait de remplacer 90% des employés chargés de la sécurité par l’IA. Meta et X ont également mis fin à leurs programmes de vérification des faits au profit des notes de communauté.