Modérateur flamand de TikTok met en garde : la modération par IA peut rendre la plateforme plus dangereuse
berlijn, zaterdag, 2 augustus 2025.
Un modérateur flamand de TikTok, qui travaille à Berlin depuis 3,5 ans, met en garde que le remplacement des modérateurs humains par l’IA pourrait rendre la plateforme plus dangereuse. Selon lui, l’IA ne peut pas toujours distinguer les vraies et fausses nouvelles, ni détecter les formes subtiles de discrimination. Le modérateur souligne que TikTok intervient déjà souvent trop tard face aux tendances dangereuses, et que ce problème s’aggravera avec une plus grande automatisation. TikTok a récemment licencié l’équipe de modération à Berlin et remplacera les modérateurs humains par l’IA et des sous-traitants externes.
La modération par IA apporte de nouveaux défis
Sander (*), un modérateur flamand de TikTok qui travaille à Berlin depuis 3,5 ans, met en garde que le remplacement des modérateurs humains par l’IA pourrait rendre la plateforme plus dangereuse. Selon lui, l’IA ne peut pas toujours distinguer les vraies et fausses nouvelles, ni détecter les formes subtiles de discrimination. Cela conduit à ce que les tendances dangereuses soient souvent repérées et traitées trop tard. TikTok a récemment licencié l’équipe de modération à Berlin et remplacera les modérateurs humains par l’IA et des sous-traitants externes [1][2].
Les défis actuels de la modération
Sander souligne que l’équipe de modération actuelle intervient déjà souvent trop tard face aux tendances dangereuses, car elle est sous-dimensionnée ou non informée par la direction. L’équipe à Berlin, composée de 150 personnes surveillant la sécurité de la plateforme, subit une forte pression. « Vous n’avez pas toujours suffisamment de temps pour vérifier quelque chose correctement », dit Sander. TikTok a déjà démantelé une équipe de modération à Amsterdam en octobre 2024, laissant la modération néerlandaise sous-dimensionnée [1][2].
L’IA dans la lutte contre les fausses nouvelles
L’IA est de plus en plus utilisée dans la lutte contre les fausses nouvelles. TikTok affirme que près de 90 % des vidéos supprimées pour contenu violent le sont sur la base de l’IA. Néanmoins, Sander note que l’IA ne détecte pas les formes subtiles ou indirectes de discrimination et n’a pas d’empathie. « L’IA ne voit pas toujours la différence entre une orange et un téton, et ne détecte pas les formes subtiles de discrimination », affirme Sander [1][2].
Implications pour la littératie médiatique et la démocratie
Le rôle croissant de l’IA dans la modération a de grandes implications pour la littératie médiatique et la démocratie. Des recherches montrent que la propagation des fausses nouvelles peut conduire à la désinformation et à la polarisation dans la société. Olivier Cauberghs, expert en IA, craint qu’il y ait encore plus de contenu inapproprié et illégal sur la plateforme, comme des discours de haine, des fausses nouvelles et des vidéos à caractère sexuel. « La désinformation médicale est un grand problème et va s’aggraver », souligne Sander [2].
Conseils pratiques pour reconnaître les fausses nouvelles
Pour reconnaître les fausses nouvelles, les utilisateurs peuvent appliquer les conseils pratiques suivants : Vérifiez les sources d’information et recherchez d’autres médias fiables qui confirment le même message. Faites attention aux fautes d’orthographe et de grammaire, qui sont fréquentes dans les fausses nouvelles. Vérifiez la date de l’article et assurez-vous qu’il n’y a pas eu de développements récents. Il est également important de réfléchir de manière critique au contenu et à l’intention derrière le message [GPT].