Une suite « de vidéos mélancoliques, glorifiant la solitude, l’automutilation, voire le suicide ». C’est ainsi que Clovis décrit le fil d’actualité TikTok de sa grande soeur Pénélope, qui s’est donné la mort en février 2024, à l’âge de 18 ans. Quelques semaines avant le drame, le jeune homme découvre sur l’application de son aînée « un cycle sans fin de tristesse », composé d’adolescents se filmant face caméra sur fond de musique sombre, avec des textes tels que « Mes lettres d’adieu sont déjà écrites » ; « Mourir, c’est la meilleure solution » ; ou « Quand la tristesse est tellement grande qu’on l’exprime sur notre corps ». « Elle passait sa vie à regarder ça, en boucle », raconte Clovis, marqué par la facilité d’accès à ce type de contenus – malgré les promesses de modération du réseau social.
Pour tenter de protéger ses utilisateurs contre ce type de vidéos, formellement interdites par ses conditions d’utilisation, TikTok se targue pourtant d’un système de modération à la pointe, dont le taux de précision atteint les « 99,2 % », selon son dernier rapport sur la transparence de ses activités en Europe. Cette vigilance aurait notamment permis de supprimer 27,8 millions de contenus problématiques déversés sur les versions européennes de l’application entre janvier et juin 2025. Si l’immense majorité de ces contenus sont bloqués directement par l’intelligence artificielle, l’entreprise compte, pour le reste, sur l’oeil humain. Entraîné, certes, mais loin d’être infaillible.
En 6 mois, près de 30 millions de vidéos TikTok ont été modérées en Europe.
En juin 2025, 588 modérateurs francophones étaient ainsi chargés de classer et supprimer les millions de contenus français signalés par l’IA ou d’autres internautes sur la plateforme – soit une centaine de moins qu’en septembre 2023, alors même que le nombre d’utilisateurs actifs mensuels n’a fait qu’augmenter en France sur la période. Une grande partie d’entre eux sont engagés par des prestataires externes basés à l’étranger, comme l’entreprise TP (anciennement Teleperformance), au Portugal. À première vue, leur tâche quotidienne pourrait presque sembler facile. Au point que début octobre, au cinquième étage de son « Transparency & Accountability Center », à Dublin, TikTok a proposé à L’Express et une poignée de journalistes français de tester eux-mêmes une version simplifiée d’un poste de modération.
Au centre de l’écran, des vidéos défilent, accompagnées d’informations sur le compte de l’auteur, son nombre d’abonnés, les hashtags associés… Ne reste qu’à choisir la politique de l’entreprise éventuellement violée dans chaque vidéo. Certaines images sont aisément classifiables, comme celles d’un très jeune garçon en train de fumer une cigarette électronique. D’autres sont plus ambivalentes. Comment s’assurer de l’âge exact de tel ou tel adolescent ? Que la jeune fille jetée depuis un bateau par des hommes, hilares, était bien consentante ? Qu’il s’agit bien d’eau dans le verre à shot de ce bambin, et non pas d’alcool ? En cinq minutes de « test », les hésitations sont nombreuses. Et la sensation de plonger dans une boucle infinie de contenus potentiellement nocifs est tout aussi désagréable.
Entre septembre 2023 et juin 2025, une centaine de modérateurs francophones en moins chez TikTok
« Dans la réalité, il faut prendre ces décisions en quelques secondes, plusieurs centaines de fois par jour, pour des contenus souvent bien plus complexes, truffés de références ambiguës et de tentatives de contournement », commente Aurélien*, modérateur TikTok depuis plus d’un an pour l’entreprise TP. Son récit, ainsi que celui d’une dizaine de modérateurs ou anciens modérateurs interrogés par L’Express, témoigne d’un système plus proche du mythe de Sisyphe que du pare-feu quasi invulnérable promis par le réseau social chinois.
« Si vous n’êtes pas au taquet, c’est mort »
Comme beaucoup d’autres collègues avant lui, Aurélien s’est retrouvé chez TP « un peu par hasard », attiré par un poste à Lisbonne avec hébergement inclus, ne nécessitant ni diplôme, ni compétences spécifiques. Avant de travailler pour le « projet TikTok », le jeune homme n’avait jamais fait de modération. Qu’importe : l’entreprise impose à chaque nouvelle recrue entre « deux et trois semaines de formation, en fonction des postes », explique le modérateur. Pour lui, l’entraînement durera quinze jours, durant lesquels il passe en revue les fameuses « policies » de l’entreprise, mémorisant « plus d’une cinquantaine de règles, allant de la violence sur les animaux à la nudité, en passant par les contenus à caractère sexuels ou terroristes ». Puis il est jeté dans le grand bain, chargé de modérer huit heures par jour des centaines de vidéos.
Le rythme est soutenu, la pression intense. « On a quatre ou cinq secondes pour choisir. Le temps passé par vidéo ainsi que votre taux d’activité sur la journée sont calculés, et cela entre en compte pour obtenir votre bonus de 180 euros à la fin du mois », explique-t-il. Bastien*, qui a travaillé en tant que modérateur pour TikTok au sein de TP entre 2024 et 2025, confirme une course effrénée pour atteindre les objectifs de l’entreprise, avec une maigre marge d’erreur. « Certaines vidéos tests sont modérées en amont par le client, TikTok. Si vous faites de l’excès de modération ou que vous n’avez pas coché la bonne policy sur ces vidéos-là, vous perdez votre bonus », se souvient-il. En parallèle, le modérateur a accès aux statistiques de ses autres collègues, mis en avant par la hiérarchie. « Un classement était donné toutes les semaines, et certains chefs n’hésitaient pas à rabaisser les moins bons sur la messagerie interne. Ça faisait clairement jouer la concurrence », raconte-t-il.
Certaines vidéos, parfois très choquantes, sont facilement classifiables par les « petites mains » de la modération, comme le décrit Romain, salarié pour TP à Lisbonne pendant un an, en 2024. « Il m’arrivait de voir des corps démembrés, des accidents de voiture très violents, des agressions sexuelles, des décapitations, et beaucoup de contenus pornographiques. Je savais tout de suite comment les ‘taguer' », déroule-t-il. Mais pour d’autres contenus, la marche à suivre est bien moins évidente, et nécessite de s’attarder sur chaque détail. Car pour échapper à la modération, des utilisateurs détournent en permanence des émojis, ces pictogrammes utilisés pour illustrer le texte, ils inventent de nouveaux termes ou remplacent certaines lettres de l’alphabet par des symboles. L’émoji zèbre devient ainsi synonyme de scarification, celui de la Suisse un diminutif de suicide, le mot viol devient « V »… « Il faut être très observateur, à l’affût du moindre reflet sur une vitre, de la moindre référence bizarre. En fonction de l’âge du modérateur, de sa concentration, des références qu’il connaît ou non, on ne taguera pas de la même manière », explique Romain. « Il pouvait y avoir des flashs de vidéos pornographiques d’une seconde cachés dans des vidéos de plusieurs minutes. Si vous n’êtes pas au taquet, c’est mort », décrit-il.
Une faille dont a conscience TikTok, qui admet auprès de L’Express que son travail sur le sujet « n’est jamais terminé ». « C’est justement pour cela que nous ne pouvons pas nous appuyer uniquement sur l’IA, qui a besoin d’être entraînée par l’humain pour comprendre le contexte d’une publication et les tentatives de contournement de certains de nos utilisateurs », explique Valiant Richey, directeur monde de la sensibilisation et des partenariats pour la confiance et la sécurité chez TikTok. Cet ancien procureur assure que les modérateurs sont « formés pour comprendre ces nuances », et précise que l’entreprise est en « relation continue avec des experts et ONG, afin de suivre l’évolution et le sens de certains hashtags, émojis ou tendances ».
« Notre morale contre la base de données »
Un document, régulièrement mis à jour et baptisé « l’opus », censé répertorier toutes les nouvelles tendances, symboles détournés ou expressions problématiques, guide ainsi chaque jour les modérateurs dans leurs choix. « Mais entre l’opus et la réalité, il y a un fossé ! Plein de nouvelles insultes racistes ou de techniques de fraude peuvent se diffuser dans des milliers de vidéos avant d’être repérées officiellement, et si on les overkill [excès de modération, NDLR], c’est considéré comme une erreur. Ce qui risque de nous faire perdre notre bonus à la fin du mois », soupire Bastien.
Pierre-Louis*, salarié de TP depuis 2025, déplore par ailleurs certains oublis ou incohérences dans ces bases de données. « Il existe par exemple une liste de toutes les dangerous entities, ces personnages un peu sulfureux dont l’évocation doit alerter les modérateurs. Il y a Hitler, Ben Laden ou Dieudonné… Mais pas Staline, ni Franco. C’est très difficile à suivre, et pas toujours mis à jour en temps réel. Or, tout ce qui n’est pas inscrit dans la base de données peut passer notre filtre », regrette-t-il. Au point que tous les jours, le trentenaire admet se poser des questions sur certaines vidéos : « C’est souvent notre morale contre la base de données… Et c’est la base de données qui gagne ».
Après avoir travaillé deux ans et demi pour TP en tant que modérateur, Angelo* confirme un système de modération parfois aléatoire – et très frustrant. « Comme les critères changent tout le temps, certains utilisateurs peuvent passer entre les mailles du filet en restant flous. Je me souviens par exemple d’une vidéo de black face [le fait de se grimer en personne noire à des fins racistes, NDLR], que je n’ai pas pu supprimer, parce que mes chefs ont considéré qu’il n’y avait pas assez de détails pour la classer comme discriminatoire », regrette le jeune homme.
Vidéos « grises »
Certaines failles du système révoltent particulièrement les modérateurs, agacés par le « deux poids deux mesures » appliquées à certaines vidéos dites « grises », comme celles où apparaissent les utilisateurs âgés de moins de 13 ans. Les règles de TikTok, qui interdisent très clairement l’utilisation de l’application à ce public, semblent bien moins nettes dans le monde de la modération. « S’il y a un doute raisonnable sur le fait qu’un utilisateur ait plutôt 12, 13 ou 14 ans, nous sommes poussés à ne pas supprimer la vidéo. Surtout si le compte a beaucoup d’abonnés… Dans un but essentiellement financier », assure Aurélien.
Cette règle « officieuse » est confirmée par trois autres modérateurs ou ex-modérateurs de TP interrogés par L’Express, tous incités à « arrondir » l’âge de certains utilisateurs en cas de doute pour éviter d’éventuels « excès de modération ». « C’est la même chose sur les lives : s’il y a un doute mais que le compte a beaucoup d’abonnés, on a tendance à arrondir à 18 ans [seuil à partir duquel les lives sont autorisés sur TikTok, NDLR] », indique Baptiste*, analyste qualité chez TP depuis un an.
Même ambiguïté pour certains comptes considérés comme problématiques par des modérateurs, mais « pas assez haineux » pour être totalement supprimés selon les règles du réseau social. « Il y a un certain ratio : il faut plus de sept commentaires racistes émis par un seul compte pour le faire sauter, par exemple. S’il y en a moins, les commentaires sont supprimés, mais le compte subsiste », explique Mattéo*, qui a démissionné de TP l’été dernier, après neuf mois de contrat. Idem pour la publication de vidéos abusives. « Il faut que l’utilisateur publie trois contenus interdits du même genre pour que son compte saute. S’il diffuse deux vidéos racistes et deux pornographiques, ce seront deux décomptes différents. En dessous de ce quota, seules les vidéos seront supprimées, pas le compte », ajoute Aurélien. À titre d’exemple, le modérateur assure avoir déjà supprimé plusieurs « vidéos mettant en avant le régime nazi » publiées par le même utilisateur, sans que le compte, qui diffusait par ailleurs des vidéos « innocentes » de gaming, ne soit supprimé.
Interrogé sur ce fameux « seuil », TikTok France renvoie à ses règles communautaires. « Notre système compte le nombre d’infractions attribuées à [un] compte », y est-il écrit. « Nous comptabilisons les sanctions jusqu’à ce que [le] compte atteigne le seuil du bannissement permanent […]. En cas d’infractions répétées ou particulièrement graves, nous pouvons bannir [le] compte définitivement », alerte la plateforme, sans préciser le nombre d’avertissements au bout desquels la menace arrive à exécution. Et tout en rappelant qu’au bout de 90 jours, les sanctions appliquées « expireront et ne seront plus prises en compte pour un bannissement permanent du compte ». De quoi donner aux modérateurs l’impression de vider la mer à la petite cuillère.
Conséquences psychologiques
Dans un tel contexte, difficile pour certaines jeunes recrues de garder la tête froide. Malgré trente minutes de pause obligatoires chaque jour – durant laquelle les salariés sont invités à se détendre ou à participer à des activités de groupe, comme le yoga – et la présence gratuite 24 heures sur 24 de psychologues, certains modérateurs gardent un souvenir très mitigé de leur expérience. Après avoir modéré « de tout » pendant deux ans et demi – y compris des vidéos zoophiles dont les détails le hantent encore -, Angelo confie par exemple « avoir perdu [sa] sensibilité à la mort et à la violence », et évoque sa difficulté à « nouer des relations affectives ».
Sollicitée, TP n’a pas répondu à L’Express sur les processus de modération de ses salariés et les failles du système, mais indique que « les équipes dédiées à la modération s’engagent volontairement dans cette mission et bénéficient d’un programme complet qui vise à assurer leur bien-être », et précise « renforcer continuellement [ses] pratiques et garantir une modération éthique et sécurisée ».
Dans une entreprise qui emploie de jeunes modérateurs inexpérimentés, pour un salaire net qui varie autour de 1000 euros mensuels en fonction des primes, la motivation flancherait parfois. « Il y a beaucoup de gens en retard, qui sont là sans être là, qui regardent à peine les vidéos et qui n’en ont clairement rien à cirer », affirme Baptiste – lequel précise par ailleurs que seule une minorité des vidéos modérées sont ensuite revérifiées par les analystes qualité. Celles passées entre les mailles du filet se retrouvent directement sur le TikTok des Français, dans une boucle infinie de contenus poussés par l’algorithme. Comme ce fut le cas sur le téléphone de Pénélope.
*Les prénoms ont été modifiés à la demande des personnes concernées.
Source link : https://www.lexpress.fr/societe/tiktok-plongee-dans-lenfer-des-moderateurs-nous-sommes-pousses-a-ne-pas-supprimer-les-videos-7Q7N2765IJDUFKE267HEFLWYZA/
Author : Céline Delbecque
Publish date : 2025-10-20 15:00:00
Copyright for syndicated content belongs to the linked Source.



