Peux-tu encore distinguer le réel du faux ? Voici la vérité gênante sur les images générées par l'IA en Hollande
Nederland, dinsdag, 18 november 2025.
T’as déjà eu l’impression que certaines images sur les réseaux sociaux te paraissaient étranges ? Ce n’est pas une impression : 71 % des Hollandais ne parviennent plus à faire la différence entre une vraie photo et une image entièrement générée par une intelligence artificielle. Ce qui est le plus inquiétant ? 81 % des images générées par l’IA ont été jugées authentiques. Cela révèle un changement profond dans la manière dont nous accordons notre confiance aux informations — et pourquoi l’éducation médiatique est devenue une compétence essentielle de citoyenneté. À une époque où l’IA nous entoure au quotidien, cela ne demande pas seulement de nouvelles compétences, mais aussi une transparence accrue dans la création et la diffusion des images. Que signifie tout cela pour ta confiance dans ce que tu vois ?
La frontière invisible entre le réel et le falsifié
Aujourd’hui, il est impossible pour la majorité de la population néerlandaise de déterminer avec certitude si une image est réelle ou générée par une intelligence artificielle. Selon une enquête menée par Norstat le 17 novembre 2025, 71 % des Hollandais ne parviennent pas à distinguer une véritable photo d’une image produite par l’IA [1]. Dans cette étude, huit images ont été présentées, dont quatre générées par l’IA. 81 % de ces images générées ont été perçues comme authentiques — un chiffre qui floute la frontière entre réalité et simulation [1]. Ce manque de reconnaissance ne concerne pas une seule tranche d’âge : même parmi les jeunes âgés de 18 à 29 ans, une proportion significative peine à identifier les images d’IA, avec 59 % déclarant trouver cela difficile [1]. La technologie derrière ces images est désormais si avancée qu’elle reproduit non seulement l’esthétique visuelle, mais aussi les attentes du spectateur, tandis que les photos réelles présentent souvent des imperfections comme une exposition inégale ou des ombres étranges [1]. Cette évolution technologique est si rapide que deux tiers des répondants s’attendent à ce que, dans cinq ans, il sera très difficile de distinguer les images réelles de celles générées par l’IA [1].
La course aux armes entre création et détection d’IA
Alors que les technologies d’IA s’améliorent continuellement pour produire des images convaincantes, des outils de détection sont également en développement. La plupart des logiciels de détection fonctionnent en repérant de petites anomalies dans les images numériques que l’œil humain ne perçoit pas : des motifs de pixels irréguliers, des incohérences dans les sources lumineuses, ou l’absence de détails bruts naturels [1]. Ces techniques reposent sur des modèles d’apprentissage automatique entraînés sur de grandes bases de données comprenant à la fois des images réelles et des images générées par l’IA. Toutefois, l’efficacité de ces outils apparaît limitée : des recherches montrent que même des algorithmes de détection avancés peuvent être trompés lorsque les modèles d’IA sont combinés à des techniques de post-traitement qui masquent les « signatures » numériques d’une image [1]. La course aux armes est donc lancée : chaque progrès dans la génération est aussitôt suivi par une nouvelle technologie de détection, mais la capacité créative de l’IA progresse plus vite que la capacité de détection des systèmes existants [1]. Cela entraîne un retard constant, les outils de détection étant souvent mis à jour seulement après la diffusion d’une image générée par l’IA [1].
La transparence comme outil essentiel
Face à ces évolutions, Norstat insiste sur l’importance d’une clarté quant à l’utilisation de l’IA dans la communication, comme étape cruciale pour réduire la confusion [1]. Le directeur commercial de Norstat, Kjell Massen, souligne que la transparence dans le processus de production des images — par exemple, via un filigrane clair ou des métadonnées — peut aider à reconnaître le contenu généré par l’IA [1]. Cette approche est déjà intégrée dans diverses lignes directrices sectorielles. Par exemple, au sein de l’Institut néerlandais du patrimoine culturel (NICE), où les reconstructions d’IA pour la série « Rues du passé » sont réalisées, des lignes spécifiques sont ajoutées dans les images pour indiquer la position des personnes et le contexte de la scène [2]. Bien que la série devait initialement sortir au début de 2026, son lancement a été reporté, et aucune date de sortie officielle n’est actuellement connue [2]. La technique utilisée repose sur des modèles d’IA générative entraînés sur 12 000 documents historiques — photographies, cartes et descriptions — datant de 1500 à 1800, combinés à des collections numériques du Rijksmuseum et de l’Archief national [2]. Cela montre que même dans les reconstructions historiques, la transparence et la mention des sources sont essentielles pour assurer la crédibilité du résultat [2].
L’impact plus large sur la sécurité et la confiance
Les effets perturbateurs des images générées par l’IA vont au-delà de la simple reconnaissance des photos ; ils touchent également la confiance dans les informations numériques. Une étude de Rubrik Zero Labs révèle que les organisations mondiales connaissent une fracture croissante entre le nombre d’opportunités d’attaque liées aux identités et leur capacité de récupération, en particulier en raison de la montée en puissance des agents d’IA au travail [3]. Ces agents créent des identités supplémentaires qui doivent être gérées, ce qui met une pression accrue sur les équipes de sécurité [3]. Les responsables informatiques et de sécurité considèrent les attaques d’identité comme l’un des plus grands risques, et de nombreuses organisations envisagent d’embaucher du personnel supplémentaire ou de changer de fournisseur de gestion des identités et des accès [3]. Lors d’incidents de ransomware, une grande partie des organisations concernées ont déclaré avoir payé une rançon, ce qui reflète un manque croissant de confiance dans leur capacité de récupération [3]. La fracture entre les possibilités d’attaque et la capacité de récupération n’est donc pas seulement technique, mais aussi psychologique : les organisations craignent de ne pas pouvoir retrouver un état de sécurité après un incident [3]. Cela a des répercussions sur l’atmosphère de confiance dans la société, où la frontière entre le réel et le faux devient de plus en plus floue [1].
Une innovation responsable et le rôle de la société
L’essor rapide du contenu généré par l’IA oblige les institutions publiques, comme les bibliothèques et les services d’information ouverte, à jouer un rôle plus fort dans la promotion de la littératie médiatique [1]. Les résultats de l’enquête Norstat soulignent l’urgence de sensibiliser toutes les tranches de population — des élèves aux personnes âgées — à la manière dont l’IA produit des images et comment les reconnaître [1]. Cela exige non seulement des solutions technologiques, mais aussi des initiatives éducatives qui favorisent la pensée critique. En Hollande, des organisations sont déjà actives dans ce domaine : par exemple, la Cronos Groep a impliqué plus de 1 000 étudiants lors de l’événement « Hack The Future » pour discuter des défis technologiques futurs [4]. Par ailleurs, SAP affirme que la valeur de l’IA réside dans son intégration aux processus d’entreprise, et non dans le simple maniement technologique [4]. Cela suggère que la transparence et l’utilisation responsable de l’IA sont cruciales, non seulement au sein des entreprises technologiques, mais aussi dans le secteur public. Les dépenses en modèles d’IA générative en Europe devraient augmenter de 78,2 % en 2026, ce qui indique une intégration massive de ces technologies dans l’économie [4]. Il est donc essentiel que la société ne maîtrise pas seulement l’utilisation de l’IA, mais assume également la responsabilité de la qualité et de l’authenticité des informations qu’elle reçoit [4].