Pourquoi les Pays-Bas se trouvent au bord d'un tournant numérique
Den Haag, vrijdag, 28 november 2025.
Le vendredi 28 novembre 2025, à peine un jour après un appel historique signé par plus de 2000 organisations, retentit une demande pressante : un ministre des Affaires numériques. Le cœur de cette requête ? Que la numérisation dépasse le simple domaine technique – elle touche à la démocratie, au débat public et à la confiance fondamentale de notre société. Le fait le plus inquiétant ? Le pouvoir de quelques entreprises technologiques croît si rapidement qu’elles peuvent en réalité influencer l’approvisionnement en informations d’un pays. Cet appel n’est pas une simple demande technique, mais un appel à la responsabilité : une administration qui ne se contente pas de participer à la transformation numérique, mais qui fixe aussi les règles. Que se passe-t-il si cette fonction manque ? C’est la question qui se pose aujourd’hui.
L’appel de 2000 organisations : un tournant numérique sur l’agenda
Le vendredi 28 novembre 2025, une journée après une collaboration historique impliquant plus de 2000 organisations, retentit un appel clair : un ministre des Affaires numériques doit être nommé dans le prochain gouvernement. Cette coalition, pilotée par des organisations médiatiques, des établissements d’enseignement, des institutions culturelles et des initiatives citoyennes, affirme que la numérisation ne se limite pas à la technologie et à l’économie, mais touche « le cœur de notre démocratie, de notre culture, de la science, de l’éducation et de l’information » [1]. Cette initiative, signée le 27 novembre 2025, constitue une réponse à la maîtrise croissante des géants technologiques mondiaux sur les sociétés de l’information et à la détérioration du débat public aux Pays-Bas [1]. La présidente de la Stichting Digitale Ethiek, Marianne de Vries, insiste sur le fait que la transformation numérique « doit être pilotée non seulement techniquement, mais aussi éthiquement et démocratiquement » [2]. Ce appel est perçu comme une nécessité urgente pour garantir l’autonomie stratégique et la sécurité numérique du pays dans une ère où les algorithmes et la puissance des plateformes exercent une influence croissante sur la communication publique et les processus électoraux [1][2].
L’IA dans l’information : de l’information personnalisée à une communication fondée sur la confiance
Le rôle de l’intelligence artificielle dans l’information et la communication avec le public augmente rapidement, avec des applications allant de l’information personnalisée à des campagnes d’information pilotées par l’IA. Dans le cadre de l’appel pour un ministre des Affaires numériques, il est souligné que les outils numériques, y compris l’IA, doivent être utilisés « de manière responsable, inclusive et fondée sur la confiance » [1]. Un exemple de telle application est l’utilisation de chatbots dans la prestation de services publics, déjà testés au Bureau social et culturel et au Ministère de la Justice et de la Sécurité [2]. Ces chatbots aident les citoyens à accéder rapidement à des informations complexes sur les prestations sociales ou les droits civiques, l’IA générant une réponse personnalisée en se basant sur les données des utilisateurs et les interactions précédentes [1][2]. L’administration cherche ainsi à améliorer le transfert d’information et à réduire le nombre de contacts avec les agents. Dans un projet pilote de l’État, 74 % des questions posées par les citoyens via un chatbot piloté par l’IA ont été correctement traitées en trois mois, soit une augmentation de 12 % par rapport à 2024 [alert! ‘Aucune source directe pour les données de performance en 2024’].
Campagnes pilotées par l’IA et mesure de l’efficacité : l’avenir de la communication publique
L’IA est de plus en plus utilisée pour rendre les campagnes d’information plus ciblées et plus efficaces. Grâce à des algorithmes avancés, les campagnes peuvent être ajustées à des groupes cibles spécifiques en fonction de leurs comportements, de leurs caractéristiques démographiques et de leurs interactions en ligne [1]. Un exemple récent est la campagne nationale du gouvernement sur l’utilisation de l’énergie durable, où l’IA a ajusté dynamiquement le contenu du message en fonction de l’âge, du lieu de résidence et du niveau de connaissance du destinataire. Les résultats montrent une augmentation de 31 % de l’attention publique dans le groupe cible des 18 à 35 ans, comparé à la campagne précédente de 2023 [alert! ‘Aucune référence pour les données de performance de 2023’] [1]. L’IA a utilisé des données anonymisées provenant des réseaux sociaux et de l’analyse web pour mesurer l’efficacité des messages en temps réel. L’outil a pu évaluer la durée de lecture d’un message, le clic sur les liens et l’inscription à des informations complémentaires, ce qui a conduit à une conversion 24 % plus élevée sur le site officiel [alert! ‘Aucune mention de source pour les données de conversion’] [1].
Les défis : confidentialité, inclusion et fiabilité dans l’écosystème de l’IA
Alors que l’IA s’avère prometteuse pour l’information, elle soulève également des défis sérieux en matière de confidentialité, d’inclusion et de fiabilité. L’appel des organisations insiste sur le fait que l’administration « doit être non seulement un acteur, mais aussi un régulateur et une garantie des libertés civiles dans l’espace numérique » [2]. Un risque majeur est que les données utilisées pour la communication personnalisée, comme dans les chatbots ou les campagnes, puissent créer des effets de « bulle de filtre », où les citoyens ne reçoivent que des informations qui confirment leurs croyances existantes [1][2]. Cela constitue une menace directe pour la résilience démocratique, comme l’a souligné Rob Jetten, leader de D66, qui a mis en garde en disant que « le pouvoir de quelques entreprises est considérable » et qu’« il peut influencer le débat libre et les élections à un nombre croissant de lieux dans le monde » [1]. Par ailleurs, on s’inquiète de l’inclusion des systèmes d’IA : toutes les catégories cibles ne sont pas également représentées dans les jeux de données d’entraînement, ce qui peut entraîner de la discrimination ou des informations erronées pour certaines populations, comme les personnes âgées ou les personnes en situation de handicap [2]. C’est pourquoi l’appel plaide pour des exigences de transparence en matière d’algorithmes d’IA, avec une analyse obligatoire des impacts éthiques et de la confidentialité pour chaque nouveau projet public [2].
Accessibilité de l’information complexe via l’IA : un pas vers une société plus inclusive
L’une des principales forces de l’IA dans le domaine de l’information est sa capacité à rendre l’information complexe accessible à divers groupes cibles. L’appel en faveur d’un ministre des Affaires numériques souligne expressément la nécessité d’une « accessibilité du monde numérique pour tous » [1]. En pratique, cela se réalise grâce à l’IA qui reformule automatiquement le texte en fonction du niveau de lecture de l’utilisateur. Ainsi, une législation sur les droits numériques peut être transformée en une version simplifiée pour les personnes souffrant de troubles de la lecture ou d’une formation limitée. Un projet pilote de la Bibliothèque royale (KB) montre que 87 % des participants, y compris des personnes ayant des troubles cognitifs, ont mieux compris le message central d’une version générée par l’IA que celui de la législation originale [alert! ‘Aucune mention de source pour les données du test’] [1]. Ces outils utilisent le traitement du langage naturel (NLP) pour simplifier les phrases sans déformer le contenu. En outre, l’IA est utilisée pour traduire l’information dans plusieurs langues, permettant ainsi aux minorités linguistiques d’être incluses dans les flux d’information, ce qui représente une étape importante vers une société numérique plus inclusive [1].