Quand une image ne correspond plus à la réalité : ce que les Pays-Bas font contre les falsifications profondes
Den Haag, donderdag, 4 december 2025.
Imaginez une vidéo où une personnalité connue dit quelque chose qu’elle n’a jamais dit. Aux Pays-Bas, cela deviendra passible de sanctions en 2025, à condition qu’il s’agisse d’une création volontaire et d’une diffusion intentionnelle. Le projet de loi, actuellement en consultation, vise à protéger les individus contre les falsifications numériques qui pourraient nuire à leur réputation, à leur vie privée ou à leur image de soi. Ce qui est particulier, c’est que la loi ne protège pas seulement les artistes, mais aussi les citoyens ordinaires et leurs proches décédés. La sanction peut aller jusqu’à six mois de prison, mais des exceptions existent pour la satire et la parodie, à condition qu’elles soient clairement indiquées. Le cadre proposé vise à renforcer la confiance dans l’information, tout en laissant ouvertes certaines questions sur la manière dont les frontières seront tracées en pratique. Il s’agit d’une étape importante dans la lutte contre les fausses nouvelles et les contenus trompeurs dans l’espace numérique.
Une nouvelle loi contre les falsifications profondes : ce qui se passe actuellement
Le 30 octobre 2025, un projet de loi a été soumis à consultation afin de rendre passible de sanctions pénales la fabrication, l’utilisation et la diffusion délibérées de deepfakes concernant des personnes physiques. Ce projet constitue une extension de la Loi sur les droits voisins et ne concerne pas uniquement les artistes, mais chaque individu – y compris les proches décédés – pouvant être intimidé ou offensé par une falsification numérique de son image ou de sa voix [650]. La peine pour une infraction pouvant être punie peut aller jusqu’à six mois de prison, selon la gravité et les circonstances de l’utilisation [650]. Le législateur exige une intention criminelle pour la punition, mais ne précise pas si cette intention est requise lors de la diffusion ou de la reconnaissance d’un deepfake [650]. Ce concept est introduit à un moment où les falsifications d’images et de sons par l’intermédiaire de technologies d’IA deviennent de plus en plus réalistes, représentant un risque pour la réputation, la vie privée et la confiance dans l’information [650]. Une importante avancée est que l’utilisation de deepfakes à des fins de satire ou de parodie est autorisée, à condition que l’usage soit conforme aux règles de la vie sociale et qu’il soit transparent : il doit être clairement indiqué qu’il s’agit d’un deepfake, conformément au règlement sur l’IA (JO:L_202401689) [650]. Toutefois, des ambiguïtés persistent quant à l’application pratique de cette exception, notamment sur ce qui peut être considéré comme « raisonnablement permis » dans la vie sociale, ce qui représente un risque pour la sécurité juridique [650]. À ce jour, le Parquet n’a encore porté aucune affaire sous le coup de la Loi sur les droits voisins, ce qui signifie qu’aucune jurisprudence n’est disponible pour servir de référence [650].
Comment l’IA accélère la diffusion des fausses nouvelles – et comment y faire face
Les technologies d’IA sont utilisées à la fois pour diffuser des fausses nouvelles et pour les détecter. Sur des plateformes comme TikTok, des contenus audiovisuels et des tendances sont déjà créés à l’aide d’IA, permettant aux utilisateurs de produire eux-mêmes des vidéos telles que « SAGA STQ EXPOSÉ DOGGAD » grâce à des outils standardisés basés sur l’IA [TikTok]. Ces outils permettent de manipuler en temps réel des voix et des images de personnes, déplaçant ainsi la responsabilité de l’authenticité du contenu de l’producteur vers l’utilisateur et la plateforme. En pratique, l’IA est également utilisée pour détecter les fausses nouvelles : le gouvernement néerlandais a lancé le 1er décembre 2025 une moteur de recherche basé sur l’IA dédié au marché du travail, visant à identifier les informations non autorisées ou trompeuses dans les annonces d’emploi en ligne [oprijk.nl]. Bien que cette initiative cible spécifiquement l’emploi, elle illustre comment des systèmes basés sur l’IA sont utilisés pour filtrer des informations fiables. D’un autre côté, une étude internationale menée par le Centre international contre le terrorisme (ICCT), à la demande du Coordonnateur national contre le terrorisme et la sécurité (NCTV), explore la manière dont les plateformes d’IA peuvent aider à détecter et modérer le contenu terroriste, illégal ou extrémiste implicite, sans porter atteinte à la liberté d’expression [112wwft.nl]. Ce rapport souligne la complexité de l’équilibre entre sécurité et liberté, en particulier dans les cas où le contenu n’est pas explicitement illégal mais reste néanmoins dangereux [112wwft.nl]. Les résultats de cette recherche seront utilisés dans les prochains mois pour élaborer des lignes directrices destinées aux plateformes en ligne et aux autorités publiques.
Ce que vous devez savoir pour repérer les fausses nouvelles : conseils pratiques pour les lecteurs
Pour vous protéger contre les fausses nouvelles, une bonne littératie médiatique est essentielle. La première étape consiste à analyser de manière critique la source : faites attention à savoir si l’information provient d’une institution officielle et reconnue, comme la NOS, la VPRO ou un institut scientifique [nos.nl]. Utilisez des outils tels que la plateforme de vérification des faits de la NOS ou le Bureau national de la presse pour vérifier la véracité d’une vidéo ou d’un message. Lorsque vous voyez des vidéos avec des voix ou des images générées par IA, repérez des mouvements des lèvres artificiels, des mouvements oculaires irréguliers, ou une qualité visuelle trop élevée ou trop faible, incohérente avec le reste de la vidéo. Il est important de savoir que certains deepfakes sont diffusés à titre de satire ou de parodie – mais, dans ce cas, des avertissements clairs doivent être présents [650]. Si vous voyez une vidéo avec une personnalité connue qui dit quelque chose d’invraisemblable, ou évoque un événement qui n’a pas encore eu lieu, il est sage de vérifier d’abord si l’information est traitée par plusieurs sources fiables. L’utilisation d’outils tels que la recherche d’images inversée ou des outils de détection d’IA – comme ceux développés par des instituts de recherche – peut également aider à démasquer les falsifications. Le gouvernement néerlandais recommande d’utiliser vos jours de congé avant leur expiration en décembre 2025, tout en prenant le temps de vérifier et d’évaluer votre empreinte numérique et ce que vous partagez [oprijk.nl].