Pourquoi les falsifications générées par l'IA seront passibles de sanctions aux États-Unis
Washington, dinsdag, 9 december 2025.
Un nouveau projet de loi aux États-Unis vise à rendre passibles de sanctions pénales l’utilisation de deepfakes générés par l’IA dans le cadre de fraudes, de vol d’identité et de manipulation politique. Il s’agit d’une réaction directe à la croissance du réalisme des vidéos, audios et messages falsifiés, presque impossibles à distinguer du contenu authentique. Ce qui frappe le plus : le projet ne se limite pas à la fraude, mais inclut également l’imitation de fonctionnaires publics — une approche exceptionnellement stricte qui indique que la menace de la désinformation fondée sur l’IA est désormais perçue comme une menace sérieuse pour la démocratie. Cette mesure pourrait établir une nouvelle norme sur la manière dont les sociétés doivent gérer les médias synthétiques.
Une nouvelle menace dans l’espace numérique : les deepfakes générés par l’IA
La vitesse à laquelle l’intelligence artificielle (IA) produit des vidéos, audios et messages falsifiés a complètement effacé la frontière entre vérité et fiction. Selon un avertissement récent de Google, des escrocs utilisent déjà depuis novembre 2025 des fraudes basées sur l’IA, se faisant passer pour des employeurs réels, des entreprises technologiques ou même des institutions publiques [4]. Ces falsifications sont si réalistes qu’elles n’affichent plus les signes classiques de contenus falsifiés — comme des mains étranges ou des effets lumineux incohérents — qui étaient auparavant des indicateurs fiables de contenu frauduleux [1]. À la place, des imitations générées par l’IA sont désormais utilisées pour induire en erreur les individus lors de candidatures d’emploi, du téléchargement d’applications ou du transfert d’argent. La menace est si importante que le gouvernement fédéral américain propose désormais une loi rendant pénalement passibles la création et la diffusion de ces contenus falsifiés, en particulier lorsqu’ils sont utilisés pour des fraudes financières, du vol d’identité ou de la manipulation politique [1]. Ce qui est remarquable dans ce projet, c’est qu’il inclut explicitement l’imitation de fonctionnaires publics, une mesure juridique qui montre que la menace de la désinformation par IA est désormais considérée comme une menace directe pour la démocratie [1].
De la nécessité juridique à la réponse stratégique : comment l’État réagit
Le nouveau projet de loi, connu sous le nom de AI Fraud Deterrence Act, vise à actualiser la législation existante afin de la rendre conforme à la réalité moderne des falsifications basées sur l’IA. Plutôt que de se concentrer uniquement sur les formes anciennes de fraude, la définition de « fraude » est élargie pour inclure l’utilisation de l’IA à des fins de désinformation [1]. Les sanctions devraient être renforcées : le montant maximum des amendes pour fraude impliquant l’IA serait doublé, et la loi assurerait une criminalisation explicite des imitations deepfake de fonctionnaires publics, qu’elles soient audio ou vidéo [1]. Cette mesure n’est pas une réaction à un incident isolé, mais une stratégie intégrée visant à répondre à la perte de confiance du public envers l’information numérique. Le gouvernement ne cherche pas seulement à limiter les abus, mais aussi à restaurer la confiance dans les médias numériques et le système d’information démocratique [1]. Cette approche juridique est une réponse directe à la complexité croissante de la désinformation en ligne, où les entreprises technologiques, les studios créatifs et les plateformes en ligne sont désormais mis sous le feu des projecteurs en raison de la manière dont l’IA est exploitée [1].
L’IA comme arme entre les mains du criminel — et comme bouclier entre celles de la sécurité
Alors que l’IA est utilisée comme outil de fraude, elle est de plus en plus employée comme solution pour lutter contre cette même fraude. Les institutions financières en Europe et aux États-Unis mettent désormais en œuvre une stratégie en couches fondée sur l’IA, composée de trois niveaux : IA prédictive, IA générative et IA agente [2]. L’IA prédictive utilise des données historiques sur les transactions et le comportement pour détecter les anomalies, permettant de réduire jusqu’à 80 % le nombre d’alertes erronées [2]. L’IA générative synthétise des données complexes provenant de multiples sources afin d’accélérer les enquêtes, tandis que l’IA agente — comme le Sensa Summary Agent — peut exécuter des processus complets, du résumé d’enquêtes à la recherche web et à la génération de rapports d’enquête (fichiers SAR) [2]. Selon Marcus, responsable du service conformité dans une banque européenne disposant d’actifs de 350 milliards d’euros, la méthode ancienne de traitement manuel des données — qui prenait des semaines — peut désormais être réalisée en minutes grâce à l’IA [2]. Cette technologie permet une vérification client trois fois plus rapide et la capacité de traiter des millions d’archives en quelques minutes, aboutissant à des rapports prêts pour les audits [2]. Cela démontre que l’IA n’est pas seulement une menace, mais aussi un outil puissant dans la lutte contre la criminalité financière, particulièrement dans un contexte où les cybermenaces deviennent de plus en plus sophistiquées [2].
Le danger des fausses nouvelles : comment l’IA fragilise l’écosystème médiatique
La diffusion de contenus générés par l’IA a un impact profond sur la confiance dans les médias et la structure démocratique de l’information. Un rapport du Pew Research Center daté de décembre 2025 révèle que la confiance du public envers le gouvernement fédéral américain se situe à un niveau historiquement bas : seulement 22 % de la population fait confiance au gouvernement, un chiffre qui représente le plus bas niveau en près de sept décennies de sondages [5]. Cette baisse de confiance crée un terrain fertile pour la désinformation, en particulier lorsque l’IA est utilisée pour propager des fausses informations sur des événements politiques ou des mesures gouvernementales [5]. Dans ce contexte, les annonces d’emploi fictives, les extorsions par avis ou les escroqueries de récupération de fonds deviennent de plus en plus fréquentes pour induire en erreur les citoyens [4]. Par exemple, des escrocs se font passer pour des institutions officielles promettant de récupérer de l’argent volé, tout en exigeant un paiement préalable [4]. La présence de ces entreprises frauduleuses est documentée dans des bases de données comme celle de Cryptolegal.uk, qui a publié, le 7 décembre 2025, une liste de plus de 336 noms de domaine signalés liés à la fraude liée aux crypto-monnaies et aux investissements [3]. Ces sites utilisent souvent des modèles de noms de domaine trompeurs, comme « recovery scam », « clone » ou « fake email », et ciblent fréquemment des utilisateurs aux États-Unis, à Hong Kong et en Chine [3]. La combinaison de réalisme technologique et de manque de confiance rend aux lecteurs de plus en plus difficile la distinction entre l’information authentique et les fausses nouvelles [5].
Que peut faire le citoyen ? Des conseils pratiques pour détecter les fausses nouvelles
Pour se protéger contre la désinformation générée par l’IA, il est essentiel que les citoyens développent une compétence médiatique solide. Google recommande de ne postuler que via des sites web d’entreprise vérifiés et de ne jamais payer à l’avance pour une « formation » ou un « traitement » dans le cadre d’une annonce d’emploi [4]. Lors du téléchargement d’applications, il est crucial de ne choisir que les stores officiels ou des domaines vérifiés, et d’éviter les offres qui semblent trop belles pour être vraies [4]. En cas de notifications inattendues de livraison ou d’e-mails demandant un virement d’argent, il est impératif de vérifier immédiatement l’authenticité de l’expéditeur — souvent, il s’agit d’adresses e-mail ou de domaines falsifiés ressemblant à des vrais [4]. Le site Cryptolegal.uk propose une fonctionnalité de vérification des escroqueries via https://www.cryptolegal.uk/scam-check-services, où les utilisateurs peuvent contrôler si un site ou un domaine figure dans la base de données de fraude [3]. En outre, les utilisateurs peuvent utiliser la fonction Ctrl+F ou Command+F pour rechercher des noms de domaine spécifiques dans la liste de plus de 300 sites de fraude [3]. Enfin, il est important de savoir qu’aucune institution publique légitime ne demande de frais pour démarrer une enquête sur une fraude, et que les outils d’IA authentiques ne demandent jamais un accès inutile aux fichiers du téléphone ou à la caméra [4]. En suivant ces simples étapes, le citoyen peut constituer une première ligne de défense contre l’expansion des falsifications basées sur l’IA [4].