Comment une vidéo générée par IA a pu provoquer une tension nationale
Den Haag, zondag, 30 november 2025.
Une vidéo profondément fausse, montrant le chef militaire indien le général Upendra Dwivedi prononçant une déclaration supposée sur un activiste, a été diffusée par des comptes de propagande pakistanais. Cette vidéo, créée à l’aide de technologies d’IA avancées, semblait si crédible que même les médias internationaux ont dû la vérifier. Le gouvernement indien a confirmé que les preuves numériques étaient fabriquées et avaient pour objectif de miner la confiance dans l’armée. Cet événement illustre la vulnérabilité des institutions démocratiques face aux armes informationnelles dans l’ère numérique — et la rapidité avec laquelle un message crédible, sans preuve, peut se transformer en explosion politique. La question n’est plus de savoir si l’IA peut le faire, mais de savoir si nous sommes capables de le reconnaître.
L’émergence d’une tempête numérique : une vidéo générée par IA sur un commandant militaire
Mercredi 26 novembre 2025, des comptes de propagande pakistanais ont diffusé une vidéo profondément fictive du général Upendra Dwivedi, chef d’état-major de l’armée indienne. Cette vidéo, produite à l’aide de technologies d’IA avancées, montrait le commandant militaire dans une déclaration officielle où il exprimait un « profond regret » concernant la prétendue « mort d’activiste Sonam Wangchuk en détention de sécurité » — une allégation absolument fausse. Wangchuk, un activiste climatique bien connu, était effectivement en détention depuis septembre 2025 sous la Loi nationale de sécurité (NSA), mais il était vivant et n’était pas décédé en détention d’État [8]. La vidéo s’est rapidement répandue sur les plateformes de médias sociaux comme TikTok, X (anciennement Twitter) et Telegram, avec une cible stratégique sur les régions d’Asie du Sud et du Moyen-Orient, où la confiance envers les institutions militaires indiennes était déjà tendue [8]. Le gouvernement indien, par l’intermédiaire du Bureau de l’information de presse (PIB), a confirmé dans les 24 heures que la vidéo était « numériquement fabriquée » et utilisait « des technologies d’IA » pour produire une falsification [8]. Selon le PIB, l’objectif était de « répandre de la désinformation et miner la confiance dans les forces armées indiennes » [8]. Cette campagne a été identifiée par les services de renseignement indiens dès le 25 novembre 2025, avec la première publication de contenu généré par IA sur les réseaux sociaux le 24 novembre 2025 [8].
L’IA comme arme dans la guerre informationnelle : de la manipulation à la guerre hybride
La technologie utilisée dans cette vidéo n’était pas un simple montage, mais un modèle d’IA générative avancé, entraîné sur des archives vidéo et audio publiques de fonctionnaires militaires indiens, y compris des officiers de haut rang [8]. Cela a permis de créer une simulation convaincante et crédible du général Dwivedi, incluant son intonation, ses expressions faciales et son langage corporel. Le ministère indien de la Défense a qualifié cette activité de « coordination dans la guerre informationnelle » visant à « déstabiliser la confiance au niveau régional et international » [8]. Une analyse menée par l’Agence indienne de cybersécurité a identifié 148 contenus générés par IA dans cette campagne, dont 127 ont été détectés sur les réseaux sociaux entre le 24 et le 26 novembre 2025 [8]. Ce développement marque une nouvelle phase dans la guerre hybride, où la manipulation numérique agit à la fois de manière stratégique et psychologique : « Nous assistons à une nouvelle étape dans la guerre hybride où le contenu généré par IA est armé pour créer le chaos et saprer la confiance dans les institutions », a déclaré un officier des renseignements militaires anonyme [8]. La campagne a été combinée à d’autres stratégies de désinformation, telles que des comptes de médias sociaux falsifiés et des messages ciblés, afin de renforcer son impact [8]. Bien que la technologie derrière les deepfakes évolue à une vitesse fulgurante, les mesures de sécurité peinent à suivre [2]. Toutefois, les chercheurs sont désormais capables de détecter les vidéos profondes en se concentrant sur des indices physiques, comme les veines du visage, offrant ainsi une base scientifique pour la détection [2].
Réactions internationales et confiance médiatique : un test pour la démocratie
La vidéo a atteint même les médias internationaux, notamment WION, qui avait déjà identifié et alerté sur le contenu trompeur avant sa diffusion [8]. Pourtant, les preuves ont continué à circuler, ce qui montre à quel point un message crédible sans preuve peut rapidement se transformer en explosion politique [8]. Le gouvernement indien a annoncé la mise en place d’une unité spéciale anti-désinformation, active à partir du 30 novembre 2025, chargée de suivre et d’annuler les vidéos profondes [8]. Cette réaction illustre la rapidité avec laquelle les institutions démocratiques sont contraintes d’évoluer dans un contexte où l’IA ne génère pas seulement de l’information, mais la manipule également [8]. À l’échelle mondiale, la crainte face à ce type de manipulation est réelle : une étude américaine de 2025 montre que 45 % de la population s’inquiète de la « désinformation » causée par l’IA, et 46 % s’inquiètent de la « manipulation humaine » par l’IA [4]. Cette préoccupation n’est pas limitée à l’Inde : au Royaume-Uni, la création de deepfakes sexuels est devenue pénalement répréhensible depuis le 25 novembre 2025 [2]. En Australie, un homme a été condamné à une amende de 190 000 euros dans la première affaire liée à la pornographie générée par deepfake, le 15 novembre 2025 [2], témoignant d’une réponse législative croissante à ces technologies. L’UE a également demandé aux plateformes technologiques, notamment Meta, de décrire leurs mesures face aux risques liés à l’IA, avec une demande de réponse d’ici le 15 décembre 2025 [2].
Comment reconnaître les fausses nouvelles : des conseils pratiques pour les lecteurs
La vitesse à laquelle le contenu généré par IA peut être produit rend essentiel que les citoyens soient non seulement critiques, mais aussi sensibilisés aux signaux des fausses informations. Une première étape consiste à vérifier la source : le contenu falsifié est souvent diffusé via des comptes sans historique ou sur des plateformes dépourvues de mécanismes de vérification [2][8]. Prêtez attention au langage : les textes générés par IA sont souvent trop parfaits, trop généraux ou trop émotionnels, manquant des imperfections typiques de l’écriture humaine [8]. Pour les contenus audio et vidéo, surveillez les mouvements inhabituels — comme des mouvements oculaires inégaux, des mouvements de lèvres incohérents ou des veines qui ne correspondent pas aux sources lumineuses [2]. Des plateformes comme Facebook travaillent à développer des méthodes pour détecter les logiciels de deepfake, mais celles-ci ne sont pas encore entièrement efficaces [2]. Des chercheurs d’Oigetit, un outil de vérification factuelle basé sur l’IA, ont développé un algorithme capable d’analyser en fraction de seconde la véracité, les biais et la validité des sources dans les articles d’actualité, attribuant une note de fiabilité [3]. L’outil est disponible via une application gratuite pour iOS et Android, utilisant une base de données d’articles historiques pour effectuer des comparaisons [3]. Pour les journalistes et producteurs, un avertissement clair : une expérience menée par LAist Studios le 29 novembre 2025 a montré qu’un récit d’actualité fictif, généré par IA sur un îlot artificiel au large de Santa Monica Pier, était si convaincant qu’il était difficile de le distinguer de la véritable journalisme, même avec la connaissance de la source [7]. L’expérimentateur s’est demandé : « Mon travail peut-il être produit par une machine ? » — une question plus pertinente que jamais [7].