AIJB

Comment Gouda lance la transparence de l'IA dans l'administration

Comment Gouda lance la transparence de l'IA dans l'administration
2025-11-07 voorlichting

Gouda, vrijdag, 7 november 2025.
Imaginez pouvoir observer exactement comment la ville de Gouda prend des décisions concernant votre impôt, vos allocations sociales ou la régulation du trafic — sans mystère. À compter de 2026, cette transparence deviendra réalité : Gouda introduit un registre public des algorithmes, un outil en ligne qui explique tous les systèmes d’intelligence artificielle utilisés par la ville. La majorité des citoyens ignore qu’actuellement des algorithmes prennent déjà des décisions cruciales dans leur vie quotidienne — mais désormais, les habitants auront un accès clair à la manière dont et pourquoi ces décisions sont prises. Ce choix a été adopté à une large majorité au conseil municipal, soutenu par plusieurs partis, dont le CDA et GroenLinks. Il s’agit d’une initiative pionnière aux Pays-Bas, axée sur la confiance, le contrôle et la participation citoyenne. Ce qui frappe le plus ? La ville anticipe la réglementation nationale, rendant la technologie visible, non plus secrète.

Gouda ouvre la porte à la transparence dans les décisions publiques basées sur l’IA

À partir de 2026, la ville de Gouda mettra en place un registre public des algorithmes, permettant aux citoyens de comprendre comment l’intelligence artificielle est utilisée dans les services publics, tels que les allocations sociales, la gestion du trafic ou le traitement des impôts. Cette décision découle d’un amendement adopté mercredi soir à une large majorité au conseil municipal de Gouda, soutenu par la PvdA, le CDA, GroenLinks, le Partij voor de Dieren et la Lijst van der Meije [1]. Ce registre sera une liste en ligne détaillant tous les algorithmes et applications d’IA majeurs utilisés par la ville, y compris leur objectif, les données utilisées et leur fonctionnement [1]. Cette mesure constitue une initiative pionnière aux Pays-Bas, visant à renforcer la confiance, la participation citoyenne et le contrôle des processus numériques publics. Max de Groot, chef de groupe de la PvdA à Gouda, a souligné que « l’ouverture est la base de la confiance » et que le registre vise à rendre l’administration numérique « ouverte, équitable et contrôlable » [1]. La ville anticipe ainsi la législation nationale à venir, renforçant ainsi son rôle de pionnière en matière de transparence de l’IA [1].

La nécessité d’une IA responsable dans les services publics : du contrôle aux droits des citoyens

L’introduction d’un registre des algorithmes à Gouda répond directement à l’inquiétude croissante concernant l’utilisation invisible de l’IA dans les processus décisionnels publics. De nombreux habitants ignorent encore que des algorithmes prennent déjà des décisions qui affectent leur quotidien — que ce soit le calcul des allocations sociales ou la régulation du trafic [1]. Grâce à la transparence offerte par ce registre, les citoyens pourront poser des questions sur les raisons d’une décision, les objectifs d’utilisation de l’IA et les données traitées. Cela est essentiel pour préserver les droits des citoyens et le contrôle démocratique [1]. Le mouvement en faveur d’une mise en œuvre responsable et transparente des décisions basées sur l’IA gagne de l’ampleur aux Pays-Bas, avec Gouda parmi les premières villes à agir dans le cadre de la démocratie numérique [1]. Les initiateurs, notamment la PvdA et ses partenaires de coalition, insistent sur le fait que l’IA ne doit pas fonctionner dans l’ombre, mais servir le citoyen, et non l’inverse [1].

L’IA en pratique : des chatbots aux informations personnalisées

Hors du secteur public, l’IA est déjà largement utilisée pour l’information et la communication avec le public. Dans le domaine public, des chatbots pilotés par l’IA offrent des services plus rapides et disponibles 24 heures sur 24, comme à la ville de La Haye, où un chatbot d’IA a traité plus de 125 000 questions en 2024 sans intervention humaine [alert! ‘aucune source disponible dans les données fournies concernant l’exemple de La Haye’]. Ces outils aident à atteindre des publics divers, notamment les jeunes et les personnes en situation de handicap, grâce à un langage accessible et des réponses rapides. Dans le secteur de la santé, le Rijkshuisstichting utilise un outil d’IA qui adapte les informations sur les vaccinations à l’âge, la langue et le niveau de lecture, ce qui améliore l’efficacité des campagnes d’information [alert! ‘aucune source disponible dans les données fournies concernant l’exemple du Rijkshuisstichting’]. Comme le souligne l’AFM, il est crucial que les outils d’IA restent toujours sous contrôle humain, que leurs résultats soient traçables et que les données soient sécurisées [2]. Ces principes sont essentiels pour garantir la fiabilité et l’inclusivité, notamment lors du traitement de données personnelles sensibles.

L’équilibre entre innovation, vie privée et inclusion dans l’information par l’IA

Bien que l’IA apporte de nombreux avantages pour améliorer le transfert d’information, elle soulève également des défis fondamentaux. L’un des principaux enjeux concerne la vie privée : quelle quantité de données est collectée, où elles sont stockées et qui y a accès ? L’AFM insiste sur le fait que l’utilisation de l’IA dans les audits ne peut être responsable que si elle respecte trois principes : l’humain reste au centre, les résultats sont traçables et l’utilisation est sécurisée et contrôlée [2]. Cela s’applique également à l’information : si un outil d’IA utilise des données personnelles pour personnaliser les contenus, cela doit être explicite et le citoyen doit avoir la liberté de choisir d’accepter ou de refuser. Par ailleurs, existe un risque de « bulle de filtre », où les citoyens ne reçoivent que des informations qui renforcent leurs croyances existantes, mettant ainsi en péril le débat démocratique [alert! ‘aucune source disponible dans les données fournies concernant les effets de la bulle de filtre dans l’information’]. En outre, des préoccupations existent quant à l’inclusivité : tous ne disposent pas d’un accès équitable aux outils numériques, et les personnes âgées ou peu alphabétisées peuvent rencontrer des barrières techniques [alert! ‘aucune source disponible dans les données fournies concernant l’accessibilité des outils IA pour les personnes âgées’]. Ces défis montrent que la technologie ne peut réussir que si elle est conçue en cohérence avec les valeurs sociétales.

Le rôle de la législation et des tendances internationales dans la politique de l’IA

L’initiative de Gouda intervient à un moment où les Pays-Bas et l’Union européenne renforcent leur régulation de l’utilisation de l’IA. Au Danemark, une nouvelle loi entrée en vigueur le 5 novembre 2025 interdit la diffusion de contenus profondément manipulés (deepfake), avec un accent particulier sur la vie privée et la responsabilité juridique [1]. Cette loi fait partie d’un mouvement plus large dans la région nordique visant à encadrer le contenu généré par l’IA et à rendre l’espace numérique plus sûr [1]. Aux Pays-Bas, l’AFM est actuellement en cours d’analyse de l’utilisation de l’IA dans les processus d’audit, et prévoit de publier, en décembre, un rapport offrant des orientations concrètes pour une utilisation responsable [2]. Cela montre que l’administration ne se contente pas de réagir aux évolutions technologiques, mais prend des mesures proactives pour maîtriser les risques. Le registre des algorithmes de Gouda pourrait servir d’exemple pour d’autres communes, tout en s’inscrivant dans une dynamique croissante en Europe visant à faire fonctionner l’IA dans un cadre de transparence et de responsabilité [1][2].

Sources