Pourquoi une star de pop et un spécialiste de Shakespeare s’aident mutuellement à mieux comprendre
Amsterdam, woensdag, 3 december 2025.
Dans une improbable croisade entre art et science, la professeure Elly McCausland découvre que les chansons de Taylor Swift partagent plus de points communs avec la littérature classique qu’on ne le croirait. Son ouvrage « Swifterature » démontre que les récits autobiographiques de Swift, riches en émotions et en techniques littéraires, offrent une vision aussi profonde de l’expérience humaine que les œuvres de Shakespeare. La vérité la plus surprenante ? Ce que beaucoup jugent « superficiel » s’avère en réalité une source riche d’introspection et de réflexion sociale. McCausland plaide pour une définition élargie de la littérature – où la culture populaire est prise aussi au sérieux que l’épopée médiévale. Et peut-être est-ce justement cela le sens : redonner aux gens la sensation que les récits, aussi modernes soient-ils, parlent toujours de nous-mêmes.
L’histoire que tu ne vois pas : comment l’IA crée et diffuse de fausses nouvelles
À une époque où l’information est produite et partagée à une vitesse grandissante, l’intelligence artificielle (IA) joue un rôle ambivalent : tantôt créatrice, tantôt combattante de fausses nouvelles. Un exemple frappant de la pratique date du 2 décembre 2025, lorsque Google Search a affiché un résumé généré par IA présentant la cabaretière néerlandaise Niels van der Laan comme mariée à l’actrice Eva Crutzen et mère d’une fille fictive [2]. Cette erreur était le fruit d’une hallucination d’IA, où le modèle a produit des informations erronées à partir d’une combinaison de sources obsolètes, non contrôlées et parfois fausses [2]. La prétention a été intégrée directement dans les résultats de recherche sans mention de source ni vérification factuelle, ce qui a donné à l’utilisateur une confiance dérangeante dans la vérité de l’information [2]. Ce phénomène de « citogénèse » – la génération de faits supposés qui sont ensuite acceptés comme vérité – constitue un danger croissant, car les modèles d’IA ne se contentent pas de commettre des erreurs, mais alimentent aussi leurs propres erreurs dans de nouvelles générations d’IA [2]. La faute dans la fonction de réponse d’IA de Google n’a été détectée que par des utilisateurs, qui ont partagé le résumé sur LinkedIn comme commentaire satirique sur l’irresponsabilité des informations basées sur l’IA [2]. Même après que Google a confirmé le fait correct – que Van der Laan n’est pas marié, mais qu’il entoure délibérément sa famille de l’ombre du public – l’erreur s’est maintenue dans certains systèmes numériques [2]. Le cœur du problème ne réside pas dans les « hallucinations » elles-mêmes, mais dans la qualité des données d’entraînement sur lesquelles l’IA est construite : si les données de base sont incomplètes, obsolètes ou manipulées, le résultat est inévitablement erroné [2]. Cela entraîne une « boucle dégradante » où les sorties d’IA erronées sont réutilisées pour entraîner de nouvelles données d’IA, faisant ainsi baisser progressivement la qualité de l’information [2]. Dans un autre cas, l’IA a été utilisée pour créer une identité criminelle fausse, où le modèle a imaginé un « meurtrier de fiction » sans aucune base dans la réalité [2]. Ces exemples montrent que la menace des fausses nouvelles générées par l’IA ne se limite pas à la manipulation politique ou aux campagnes, mais peut aussi se traduire sur une échelle personnelle, émotionnelle, voire juridique.
Pourquoi la radio et télévision publiques sont en crise : réductions budgétaires et perte de confiance
La radio et télévision publiques néerlandaises sont confrontées à une pression sans précédent, notamment à cause de la combinaison entre réductions budgétaires et l’essor des fausses nouvelles générées par l’IA. Le 2 décembre 2025, l’EO a annoncé qu’elle ne produirait plus de nouveaux documentaires en raison de coupes budgétaires [1]. Cette décision, mise en œuvre depuis, implique une restriction sérieuse d’un genre journalistique considéré comme « l’une des formes les plus authentiques de narration dans les médias de masse » [1]. Les documentaires, particulièrement ceux réalisés en collaboration avec la communauté chrétienne et dans des régions comme la Bible Belt, offrent des récits critiques, vulnérables et profonds racontés de l’intérieur [1]. Cette accessibilité unique à des communautés spécifiques et à des perspectives particulières est désormais menacée, car le financement des documentaires dépend largement de fonds autonomes désormais indisponibles après les réductions [1]. L’essence de la radio et télévision publiques – « une communication de masse de qualité, faite pour et par tout le pays » – semble sur le point de disparaître [1]. Geertjan Lassche, réalisateur et journaliste d’investigation, affirme dans un éditorial que le public n’est pas servi par ces réductions budgétaires, et se demande : « En somme, qui est ici réellement servi ? » [1]. L’absence de récits profonds, approfondis et critiques rend la radio et télévision publiques plus vulnérables à l’explosion des fausses nouvelles générées par l’IA, où de petites erreurs plausibles – des « petites hallucinations » – sont difficiles à détecter [2]. Cette subtilité rend presque impossible pour le public de distinguer ce qui est vrai de ce qui est falsifié, surtout lorsque l’information est intégrée dans les résultats de recherche ou les réseaux sociaux sans contrôle de source [2]. La combinaison de contraintes financières et de disruption technologique rend impossible pour les médias publics de remplir leur rôle traditionnel de garant de fiabilité dans une époque d’explosion informationnelle [1]. Sans documentaires, un outil essentiel de réflexion critique et d’engagement social disparaît.
L’IA en pratique : comment les grandes entreprises influencent la fourniture d’information
L’influence de l’IA sur la fourniture d’information n’est pas seulement déterminée par les progrès technologiques, mais aussi par les décisions stratégiques des grandes entreprises technologiques. OpenAI a déclaré « code rouge » en réponse à la concurrence, notamment celle de Google, et a décidé de retarder d’autres services, notamment son assistant d’achat et ses publicités [2]. Cette décision révèle la pression financière subie par l’entreprise, ChatGPT étant considéré comme une « source sans fond » de coûts non couverts par les abonnements, même pour les utilisateurs Pro payants [2]. À l’inverse, Google bénéficie d’un avantage concurrentiel majeur grâce à l’intégration de l’IA dans ses propres produits, comme Google Search, où les réponses d’IA sont affichées directement avec des publicités intégrées [2]. Cette solution offre aux utilisateurs une information immédiate et facilement accessible, mais réduit la nécessité de se rendre sur d’autres plateformes comme ChatGPT [2]. La conséquence est une baisse du nombre de clics sur Google lui-même, car les résumés d’IA fournissent suffisamment d’information sans que l’utilisateur ait besoin de consulter la source originale [2]. Microsoft et Google intègrent l’IA de force dans leurs produits, comme Teams, Office 365 et Google Workspace, créant ainsi une dynamique de « gagnant s’empare tout » où la majorité des utilisateurs restent dans un seul écosystème [2]. Cette stratégie renforce la position de Google et Microsoft, qui possèdent également leurs propres centres de données et leurs puces conçues en interne (TPUs), tandis qu’OpenAI doit louer du matériel à Amazon, Microsoft ou Google [2]. La dépendance vis-à-vis de NVIDIA pour les puces d’IA reste une vulnérabilité, mais de nouvelles micro-architectures comme le processeur Rubin, qui sera prochainement présenté, pourraient atténuer cette dépendance [2]. La bulle actuelle des IA est considérée comme « trop grande pour échouer », avec des conséquences financières dangereuses pour les fonds de pension, les banques et les gouvernements en cas d’effondrement du marché [2]. La boucle de financement entre OpenAI, NVIDIA et les fournisseurs de cloud est décrite comme un système de « financement circulaire » qui gonfle artificiellement la valeur boursière [2]. Cette dynamique renforce le pouvoir de quelques grands acteurs et réduit la diversité dans le développement de l’IA, ce qui, à long terme, diminue la qualité de l’information et la confiance dans l’IA [2].
La force du journalisme de qualité : pourquoi les documentaires ne peuvent pas être remplacés
Les documentaires ne sont pas une forme de divertissement, mais une forme de journalisme critique, approfondi et profond qui joue un rôle unique dans la société. Aux Pays-Bas, l’EO dispose d’un accès unique à des communautés spécifiques, comme la communauté chrétienne et la région de la Bible Belt, permettant de raconter des histoires de l’intérieur – vulnérables, critiques et authentiques [1]. Ces récits profonds, qui peuvent prendre des années à réaliser, reposent sur des collaborations prolongées, des relations de confiance et une connaissance approfondie des contextes culturels [1]. L’absence de ce type de journalisme après les coupes budgétaires de l’EO signifie la perte d’un outil essentiel de réflexion sociale et de confiance [1]. La radio et télévision publiques ne servent pas seulement de fournisseur d’information, mais aussi de garant de fiabilité dans une société saturée d’IA [1]. Lorsque les modèles d’IA génèrent de l’information sans contrôle de source, sans profondeur ni responsabilité éthique, le rôle de la radio et télévision publiques comme contre-poids critique devient essentiel [1]. La plupart des modèles d’IA sont fondés sur un mélange de bonnes et de mauvaises sources, ce qui fait qu’informations erronées ou désuètes sont acceptées comme des faits [2]. Par exemple, un modèle d’IA peut utiliser une ancienne publication inexacte sur une personnalité médiatique et la présenter comme un fait sans vérifier si elle est encore valide [2]. En revanche, un producteur de documentaires vérifie chaque affirmation, souvent avec plusieurs témoins, documents et experts [1]. Cette rigueur est impossible à reproduire par un modèle d’IA fondé sur un « ensemble » d’informations en ligne [2]. La valeur du journalisme de qualité réside non seulement dans la transmission de faits, mais aussi dans la mise en lumière de la complexité, de la dualité et du récit humain. Sans cet outil, le public est plus vulnérable à la manipulation, que ce soit par des fausses nouvelles générées par l’IA ou par un sentiment d’incertitude quant à la vérité [1]. L’arrêt des documentaires par l’EO depuis le 2 décembre 2025 n’est pas un problème technique, mais une perte sociale [1].
Comment reconnaître les fausses nouvelles : conseils pratiques pour le public numérique
À une époque où les fausses nouvelles générées par l’IA se propagent rapidement et plausiblement, la littératie médiatique est plus que jamais cruciale. La méthode la plus efficace pour détecter les fausses nouvelles est de vérifier les sources de manière critique. Une des principales recommandations est : « Ne faites pas confiance aux réponses d’IA sans vérification » [2]. Si une réponse d’IA ne cite aucune source, ne comporte pas de date ou affiche une confiance excessive en elle-même, elle est probablement falsifiée [2]. Par exemple, Google Search a affirmé le 2 décembre 2025 que Niels van der Laan était marié à Eva Crutzen et avait une fille – une affirmation entièrement inventée [2]. La seule façon de l’exposer était d’investiguer les sources réelles. Dans ce cas : aucune. Une deuxième recommandation consiste à utiliser plusieurs sources. Si plusieurs sources fiables racontent la même histoire, la probabilité qu’elle soit vraie est plus grande. Mais si seule une réponse d’IA ou un site web la présente, il s’agit probablement d’une hallucination ou d’une manipulation délibérée [2]. Une troisième recommandation est de prêter attention aux erreurs subtiles, appelées aussi « petites hallucinations » : de petites erreurs plausibles difficiles à détecter, mais capables de changer la vérité [2]. Par exemple, un modèle d’IA peut mal écrire une commande existante dans un script PowerShell en plaçant un double deux-points après une variable, rendant le script inutilisable [2]. De tels erreurs ne peuvent être repérées que par un expert qui vérifie manuellement le script. Une quatrième recommandation est de faire confiance aux humains et aux journalistes d’investigation, pas aux systèmes automatisés. Si une histoire provient d’un documentaire de l’EO ou d’un enquête d’un journal fiable, la probabilité qu’elle soit vraie est plus grande que si elle vient d’une réponse d’IA [1]. Une cinquième recommandation est d’utiliser des outils capables de détecter le contenu généré par l’IA, comme GPTZero ou Turnitin, bien qu’ils ne soient pas encore à 100 % fiables [2]. Enfin, il est important de reconnaître ses propres émotions : si un message vous rend furieux, effrayé ou enthousiaste sans raison, il est possible qu’il ait été conçu pour manipuler votre émotion [2]. Ne pas croire l’information n’est pas un signe de faiblesse, c’est un signe d’intelligence.