Comment le Vietnam souhaite bloquer proactivement les fausses nouvelles générées par l'IA
Hanoi, vrijdag, 21 november 2025.
Le Vietnam entreprend une démarche originale dans la lutte contre la désinformation numérique : il présente un nouveau projet de loi obligeant les plateformes à intégrer des filtres proactifs pour détecter les vidéos, images et articles d’actualité générés par l’IA. Ce texte, déposé le 18 novembre 2025, vise à identifier le contenu falsifié non pas après sa diffusion, mais dès sa création. Ce qui distingue ce projet ? La responsabilité incombe directement aux plateformes — aucune intervention de la police ou de la justice n’est requise, mais la technologie elle-même doit agir avant que les dommages ne se produisent. Il s’agit d’une des approches les plus ambitieuses au monde, offrant un modèle prometteur pour les démocraties confrontées au défi de la génération par l’IA. Le projet est actuellement en discussion, mais son application est prévue pour janvier 2026.
Une nouvelle approche : du réactif au préventif
Le Vietnam franchit une étape décisive dans la lutte contre la désinformation numérique en déposant un nouveau projet de loi obligeant les plateformes à développer des filtres proactifs pour les vidéos, images et articles d’actualité générés par l’IA. Selon le lieutenant-colonel Trieu Manh Tung, de l’unité Cyber-sécurité et Prévention de la Criminalité de Haute Technologie du Ministère de la Sécurité Publique, la plateforme doit « intégrer proactivement des filtres afin de détecter, supprimer, bloquer ou effacer ce type de contenu » [1]. Cette mesure marque un changement fondamental par rapport aux approches réactives, où les dégâts sont déjà causés avant toute intervention, vers un système préventif où la technologie assume elle-même la responsabilité de repérer le contenu nuisible avant sa diffusion. Ce projet de loi, déposé le 18 novembre 2025, fait partie intégrante de la nouvelle Loi sur la Cyber-sécurité 2025, issue de la fusion de la Loi sur la Cyber-sécurité de 2018 et de la Loi sur la Sécurité des Réseaux et de l’Information de 2015 [1]. Il vise à sécuriser l’espace numérique en prévenant la propagation de fausses informations produites par des technologies d’IA avancées [1]. La responsabilité incombe désormais directement aux plateformes, ce qui constitue une rupture avec les modèles traditionnels où c’est l’État ou la justice qui réagit aux plaintes ou aux preuves de dommages [1]. Cette initiative reflète une inquiétude grandissante à l’échelle mondiale quant à l’impact de l’IA sur la vérité médiatique et la nécessité d’un usage responsable des technologies numériques [1].
Le défi technique : utiliser l’IA pour détecter les fausses nouvelles générées par l’IA
La mise en œuvre de ce projet de loi exige que les plateformes numériques développent des technologies capables de détecter et de filtrer le contenu généré par l’IA. C’est ici que s’imposent les systèmes de détection multi-modaux comme DeepTruth AI, un cadre d’analyse qui traite le texte, les images et l’audio pour identifier de manière plus précise le contenu synthétique [2]. DeepTruth AI utilise BERT pour le traitement du texte, les réseaux de neurones convolutionnels (CNN) pour l’extraction des caractéristiques visuelles, et les LSTMs pour la modélisation audio, combinés via un mécanisme de fusion basé sur les transformateurs [2]. Un élément clé est l’analyse de synchronisation, qui détecte les incohérences de synchronisation labiale fréquentes dans les deepfakes [2]. Ces technologies sont essentielles pour prévenir la diffusion de fausses nouvelles générées par l’IA, étant donné que les outils de génération de contenu deviennent de plus en plus réalistes. La loi de 2025 ne fixe pas de normes techniques spécifiques, mais impose néanmoins l’obligation de développer des « solutions proactives de détection et de filtration » [1]. Ceci transforme le développement de ces systèmes en une exigence non seulement technique, mais aussi juridique pour toute plateforme opérant au Vietnam ou desservant des utilisateurs vietnamiens [1]. La mise en œuvre de la loi est prévue pour le 15 janvier 2026, avec une phase de préparation déjà lancée le 18 novembre 2025, incluant un programme pilote à Ho Chi Minh-Ville et Hanoï [3].
Les implications pour la littératie médiatique, la démocratie et le public
L’entrée en vigueur de ce projet de loi a des répercussions profondes sur la littératie médiatique, les processus démocratiques et la confiance du public dans les systèmes d’information. Aujourd’hui, vendredi 21 novembre 2025, le monde entre dans une nouvelle ère où la frontière entre réalité et fiction s’estompe progressivement. Le Vietnam entend ainsi prévenir que la désinformation véhiculée par des contenus générés par l’IA ne trouble le public, en particulier dans des contextes politiques tels que les élections [1]. L’IA générative est déjà utilisée dans des campagnes de propagande d’État, comme le montre le réseau China Global Television Network, qui diffuse via les réseaux sociaux des informations crédibles mais fausses [GPT]. Un rapport récent de Graphika publié en 2025 révèle l’existence d’un réseau piloté par la Russie et chargé de diffuser à grande échelle des contenus générés par l’IA [GPT]. Aux États-Unis, en 2023, un faux entretien avec Michael Schumacher a été publié, démontrant à quel point il est désormais aisé de produire des fausses nouvelles convaincantes [GPT]. La loi vietnamienne vise précisément à prévenir de tels dangers, mais la confiance du public dans les médias est déjà fragilisée : un rapport du Reuters Institute Digital News de juin 2024 indique que 52 % des Américains et 47 % des Européens se sentent mal à l’aise face à des informations « principalement générées par l’IA avec une intervention humaine limitée » [GPT]. Ainsi, la loi ne se contente pas d’agir sur le plan technique, elle vise aussi à instaurer un cadre social où le public peut retrouver confiance en la vérité des informations qu’il reçoit [1].
Conseils pratiques pour les lecteurs afin de reconnaître les fausses nouvelles générées par l’IA
Malgré les efforts des autorités et des plateformes, il reste crucial que chaque individu reste vigilant dans l’évaluation des informations qu’il reçoit. Les lecteurs peuvent commencer par vérifier la source : d’où provient l’article, et le site est-il reconnu et fiable ? Un signe courant d’information fausse est sa diffusion sur un site à l’arrière-plan flou ou douteux, ou sa propagation sur les réseaux sociaux sans vérification. Il est également utile de prêter attention au format du contenu : des vidéos présentant des mouvements anormaux des lèvres, ou de l’audio avec peu de bruit ambiant ou des effets sonores inhabituels, peuvent indiquer un deepfake [2]. Pour les images, il est utile de repérer des irrégularités dans les ombres, les sources lumineuses ou le nombre de doigts — des détails souvent mal reproduits par les modèles génératifs. Une autre stratégie consiste à utiliser des outils de détection du contenu généré par l’IA comme GPTZero ou SynthID de Google, développés en 2025 pour identifier la génération automatisée [GPT]. Toutefois, ces outils présentent un taux élevé de faux positifs [GPT]. Si un article provoque une réaction émotionnelle forte — par exemple, de la colère ou de l’effroi — il est sage de s’arrêter, de vérifier si l’information est déjà apparue ailleurs, ou si elle a été confirmée par une source de confiance. La combinaison d’outils techniques et d’un raisonnement critique constitue la meilleure défense contre les fausses nouvelles générées par l’IA [GPT].