AIJB

Comment les annonces Google imitent les fausses nouvelles au point de les confondre avec celles des vrais journaux

Comment les annonces Google imitent les fausses nouvelles au point de les confondre avec celles des vrais journaux
2025-12-09 nepnieuws

Nederland, dinsdag, 9 december 2025.
La semaine dernière, il est devenu évident : les fausses nouvelles diffusées par des annonces Google ressemblent tellement à des articles authentiques d’AD et de NU.nl que beaucoup de lecteurs ne parviennent pas à les distinguer. La technique derrière ces falsifications utilise une IA avancée pour imiter non seulement le texte, mais aussi la mise en page et le style. Ce qui est le plus inquiétant, c’est que cette méthode est utilisée à grande échelle, notamment pour tromper des groupes vulnérables. Le risque n’est pas seulement la diffusion d’informations erronées, mais aussi une méfiance croissante à l’égard de tous les médias. La question est : comment peut-on encore savoir ce qu’on lit, si même la forme d’un article d’actualité n’est plus fiable ?

Comment les annonces Google imitent les fausses nouvelles au point de les confondre avec celles des vrais journaux

La semaine dernière, il est devenu évident : les fausses nouvelles diffusées par des annonces Google ressemblent tellement à des articles authentiques d’AD et de NU.nl que beaucoup de lecteurs ne parviennent pas à les distinguer. La technique derrière ces falsifications utilise une IA avancée pour imiter non seulement le texte, mais aussi la mise en page et le style. Ce qui est le plus inquiétant, c’est que cette méthode est utilisée à grande échelle, notamment pour tromper des groupes vulnérables. Le risque n’est pas seulement la diffusion d’informations erronées, mais aussi une méfiance croissante à l’égard de tous les médias. La question est : comment peut-on encore savoir ce qu’on lit, si même la forme d’un article d’actualité n’est plus fiable. Le 6 décembre 2025, il a été révélé que des annonces Google contenaient des fausses nouvelles semblant provenir d’AD et de NU.nl, ce qui renforce davantage la technologie d’IA générative dans la diffusion de désinformation [2]. Ces annonces utilisent l’IA pour imiter la mise en page, le style et le texte des médias fiables, ce qui rend le contenu frappant par sa ressemblance avec des articles authentiques [2]. Cela rend presque impossible pour les utilisateurs de distinguer entre des nouvelles véridiques et des contenus falsifiés, surtout lorsque le contenu est ciblé via des plateformes publicitaires en ligne comme Google [2]. La combinaison de la génération par IA et des plateformes publicitaires ciblées permet de diffuser de la désinformation à grande échelle, en particulier auprès de groupes vulnérables tels que les seniors et les jeunes qui ont moins d’expérience avec les médias numériques [2][3]. Un récent sondage a révélé que 1 jeune sur 5 a déjà été trompé par une fausse boutique en ligne, ce qui indique une menace croissante de désinformation numérique chez les jeunes utilisateurs [2]. La technologie est facilement accessible et rapide à mettre en œuvre, ce qui accélère la propagation de la désinformation dans l’espace numérique [2]. Les cybercriminels exploitent Google Actualités à des fins de fraude, y compris la diffusion de fausses nouvelles et de contenus trompeurs, ce qui montre que les plateformes elles-mêmes sont également manipulées [2]. Le gouvernement néerlandais utilise désormais beaucoup plus d’IA qu’il y a un an, ce qui augmente encore la complexité du problème, car l’IA est aussi utilisée pour combattre ces falsifications [3].

Le rôle de l’IA dans la génération et la détection des fausses nouvelles

L’IA joue un rôle double dans le paysage numérique : d’une part, elle est un outil puissant pour produire des fausses nouvelles, d’autre part, elle aide à détecter et à combattre la désinformation. Des techniques avancées telles que les réseaux antagonistes génératifs (GANs) et les autoencodeurs variationnels (VAEs) sont utilisées pour créer des médias synthétiques, y compris des deepfakes, capables de manipuler à la fois des vidéos et des sons [4]. En 2025, 93 % des vidéos partagées sur les réseaux sociaux sont générées par IA, ce qui témoigne d’une diffusion massive de contenus générés par l’IA [5]. Cette technologie est tellement avancée qu’il devient difficile de déterminer, sur la base de signaux visuels ou auditifs, si une vidéo est authentique [4]. L’accès à ces outils s’est largement étendu au grand public, avec des outils comme Stable Diffusion permettant de générer des portraits de célébrités, comme un portrait de l’actrice Sydney Sweeney [4]. En mai 2025, l’entreprise néerlandaise Xicoia, filiale de Particle6, a développé une actrice générée par IA nommée Tilly Norwood, ce qui montre que l’IA n’est pas seulement utilisée pour les falsifications, mais aussi pour des applications créatives dans le secteur du divertissement [4]. Pourtant, le risque de désinformation reste élevé : une seule campagne de fraude Medicare a utilisé des publicités en deepfake visionnées plus de 195 millions de fois sur YouTube, Facebook et TikTok, ce qui indique l’ampleur à laquelle l’IA est exploitée à des fins frauduleuses [4]. D’un autre côté, des outils d’IA sont également développés pour détecter les fausses nouvelles. Le Deepfake Detection Challenge, organisé par une coalition de grandes entreprises technologiques, a abouti à un modèle gagnant atteignant 65 % de précision sur un jeu de test de 4 000 vidéos [4]. Une équipe de l’Université de Buffalo a mis au point une technique utilisant les reflets de lumière dans les yeux pour détecter les deepfakes sans recourir à des outils de détection par IA [4]. Une étude de l’UCLA montre que déjà en 2003, 47,3 % des informations disponibles sur Internet étaient non fiables, ce qui indique que le problème de la désinformation n’est pas nouveau, mais que l’IA l’a considérablement accéléré [5]. Des mesures juridiques existent également : au Royaume-Uni, il est illégal de produire des deepfakes sous le cadre de la loi sur la sécurité en ligne de 2023, et le pays prévoit d’étendre cette loi en 2024 pour sanctionner des dommages plus graves [4]. En Chine, il est obligatoire de marquer clairement les deepfakes, et toute omission est considérée comme un crime [4]. Aux Pays-Bas, l’ACM adopte une posture plus stricte contre la fraude via les services de transfert, ce qui souligne le rôle des autorités réglementaires dans la lutte contre la fraude basée sur l’IA [2].

Conseils pratiques pour les lecteurs afin de repérer les fausses nouvelles

Pour réduire le risque de croire à des fausses nouvelles, les lecteurs peuvent prendre des mesures concrètes pour évaluer la fiabilité de l’information. La première étape consiste à vérifier la source : non seulement le nom du site web, mais aussi si c’est une organisation d’information reconnue. Les sites qui diffusent des fausses nouvelles copient souvent la mise en page de journaux authentiques comme AD et NU.nl, mais leurs noms de domaine sont souvent inhabituels ou contiennent des mots comme « news », « update » ou « info » [2]. Les utilisateurs peuvent utiliser des outils comme NewsGuard, DBUNK et Oigetit Fake News Filter pour évaluer la crédibilité des sites d’information [6]. NewsGuard fournit des évaluations de fiabilité pour les sites d’information en se basant sur des critères tels que la transparence, la qualité des sources et le travail de vérification des faits [6]. DBUNK est une application qui aide les utilisateurs à vérifier les informations grâce à une interface simple [6]. En outre, il est essentiel de lire le contenu de manière critique : prêter attention à des affirmations invraisemblables, à un langage dramatique, ou à une structure trop parfaite qui ressemble trop à une publicité [2]. En cas de doute, il est recommandé de croiser les informations avec une autre source fiable. Une astuce importante est de faire confiance à son « sixième sens » : si quelque chose semble trop beau ou trop effrayant, c’est souvent une fausse nouvelle [2]. La police avertit : « Raccrochez immédiatement » en cas d’appels téléphoniques prétendant prédire une fraude, comme ceux provenant de PayPal ou de banques [2]. Dans une initiative récente de NU.nl, on invite les lecteurs à : « Parlons ensemble : comment reconnaissez-vous les fausses nouvelles ? » afin de promouvoir l’éducation aux médias [2]. Des études montrent que 67 % des Américains tombent sur des fausses nouvelles sur les réseaux sociaux, et que 49 % des consommateurs d’actualités dans le monde partagent moins d’informations personnelles en ligne à cause de la méfiance [5]. Cela souligne l’importance du raisonnement critique et de la compétence médiatique numérique. Un utilisateur sur Japan Today a noté : « Dans un an ou deux, il sera impossible de repérer des photos ou vidéos falsifiées. Nous retournerons ainsi à l’ère du XIXe siècle, où les gens devaient faire confiance à leurs rédacteurs de journal. » [5]. Dans ce contexte, il est essentiel de développer son propre « détecteur de bêtises » en croisant l’information avec des sources primaires et des données brutes [5]. Les médias s’engagent également : des médias ont envoyé une lettre ouverte aux entreprises technologiques, les mettant en garde sur le fait que ces dernières menacent sérieusement la démocratie [3]. Il ne s’agit donc plus seulement de la responsabilité des entreprises technologiques, mais aussi de chaque individu pour traiter l’information de manière responsable.

Sources