Comment une guerre silencieuse sur TikTok utilise l'IA pour diffuser du contenu raciste
Amsterdam, donderdag, 4 december 2025.
TikTok est submergé par des milliards de vues attirées par des bots automatisés qui diffusent des vidéos générées par l’IA – incluant des images falsifiées de jeunes filles et des faux entretiens racistes avec des migrants. Selon une étude française, plus de la moitié de ces images ne sont pas marquées comme falsifiées, malgré la disponibilité de balises IA sur la plateforme. Ce qui est le plus inquiétant ? La majorité de ces bots ont été créés au début de 2025, ce qui révèle une expansion rapide et presque incontrôlée de ce phénomène. Cette évolution montre à quel point l’IA peut aujourd’hui être détournée pour propager de la désinformation, sans que les utilisateurs s’en rendent compte. La question est : combien de temps cela restera-t-il indétecté ?
Une vague invisible de contenu généré par l’IA submerge TikTok
Depuis novembre 2025, des bots automatisés submergent TikTok de vidéos et images générées par l’IA, attirant des milliards de vues, selon une enquête menée par l’ONG française AI Forensics [1]. Lors d’une enquête d’un mois, près de 44 000 vidéos générées par l’IA ont été publiées par 350 comptes bots, avec un total de plus de 4,5 milliards de vues [1]. La majorité des comptes — deux tiers — ont été créés au cours des premiers mois de 2025, ce qui indique une croissance récente et rapide de ce phénomène [1]. Ces bots utilisent l’IA pour créer des images de jeunes filles aux apparences extrêmement jeunes, mineures ou excessivement maigres, ce que de nombreuses personnes considèrent comme une sexualisation d’enfants [1]. Les bots ont également diffusé des vidéos falsifiées de migrants dans de faux entretiens, où ils promouvaient des stéréotypes racistes et glorifiaient la violence, y compris contre la police, avec des images de migrants « en train de travailler à la pique » [1]. Le danger réside non seulement dans le contenu, mais aussi dans le fait que TikTok marque très peu ces images comme fausses : plus de la moitié des vidéos étudiées ne portaient pas de balise IA, malgré la disponibilité d’outils permettant de le faire [1].
L’échec du marquage par IA et le rôle de la responsabilité
TikTok compte 1,3 milliard de publications avec une balise IA sur sa plateforme, mais l’entreprise affirme que seulement 1,0 % des vidéos sont accompagnées par TikTok de l’alerte « contient des médias générés par IA » [1]. Le reste des balises est souvent ajouté par les créateurs eux-mêmes, ce qui remet en cause leur fiabilité [1]. AI Forensics a mis en garde contre le risque que les images générées par l’IA soient utilisées pour alimenter des sentiments anti-migrants et racistes, et a proposé la création d’une section dédiée aux contenus IA sur la plateforme, afin de distinguer clairement le contenu créé par des êtres humains de celui généré par l’intelligence artificielle [1]. L’entreprise qualifie l’enquête d’AI Forensics et de The Guardian de « non fondée » [1]. Le passage des modérateurs humains vers l’IA a été introduit après le départ de plusieurs centaines d’employés à Berlin, dont des modérateurs néerlandais et allemands, ce qui a affaibli le contrôle des contenus nuisibles [1]. Les plans visant à remplacer les employés allemands par de l’IA ne sont pas encore finalisés, mais la menace persiste [1].
De la manipulation à la tension politique : le danger pour la démocratie
La diffusion de contenus générés par l’IA va au-delà des simples images racistes. En France, le président Emmanuel Macron tente de lancer une campagne contre la désinformation en ligne, avec un accent sur des émissions d’actualité éthiquement étiquetées en vue des élections présidentielles de 2027 [2]. Cette campagne, active depuis novembre 2025, rassemble des journaux régionaux et des réunions publiques [2]. Toutefois, les médias de droite, dirigés par le milliardaire Vincent Bolloré, réagissent avec une vive résistance, notamment par les déclarations de Pascal Praud, présentateur de CNews, qui accuse Macron de « tendances autoritaires » [2]. Le Journal du Dimanche affirme que Macron voudrait « mettre sous contrôle les médias qui ne pensent pas comme lui » [2]. Ces tensions politiques révèlent à quel point la société est sensible à l’idée d’une surveillance étatique de l’information, même lorsqu’elle vise à combattre les fausses nouvelles [2]. Le Département d’État américain avait prévu de visiter Paris le 2 décembre 2025, où la défense de la « liberté d’expression » et de la « liberté numérique » a été soulignée, mettant en évidence le cadre international de ce débat [2].
La réaction humaine : reconnaissance et éducation
Les utilisateurs commencent à remarquer eux-mêmes l’utilisation de contenu généré par l’IA. Le 3 décembre 2025, l’utilisateur Instagram adesope_shopsydoo a publié un message dans lequel il écrivait : « C’est FAUX… C’EST SÛREMENT DE L’IA… Je n’écrirais jamais, jamais, jamais dans mes rêves les plus fous, écrire, tweeter ou dire une chose pareille sur Wiz. JAMAIS… C’EST DE L’IA 😱🤦🏾♂️ » [3]. Son post, associé à une vidéo du rappeur Wiz, témoigne d’une prise de conscience croissante parmi les personnalités publiques [3]. Sur TikTok lui-même, des utilisateurs comme Stacyalyse (nom d’utilisateur) sont actifs dans la détection du contenu IA, bien que la plateforme ne les identifie pas explicitement comme des personnes réelles [4]. Ces individus jouent un rôle crucial dans le renforcement de la littératie médiatique, même si leurs efforts restent insuffisants sans soutien technologique et plateforme [1][3].