Pourquoi l'IA n'est pas neutre — et comment les organisations peuvent agir de manière responsable en pratique
Amsterdam, vrijdag, 14 november 2025.
L’IA n’est pas une machine objective, mais un miroir des choix humains, des valeurs et des intérêts. Marc van Meel, expert en éthique et gouvernance, montre que chaque algorithme est façonné par les données saisies, les objectifs des développeurs et le contexte culturel dans lequel il est mis en œuvre. Le fait le plus surprenant ? En cas d’échec d’un algorithme, il n’y a pas d’erreur technique — seulement un choix moral qui a été fait. De la question de la responsabilité à l’impact des données sur l’égalité et l’accès aux opportunités : il ne s’agit plus seulement d’un problème technique, mais d’un dilemme social et éthique que chaque organisation doit affronter. À travers des insights concrets et des questions de réflexion, il aide les équipes et les dirigeants à prendre des décisions conscientes dans la transition numérique. Il ne s’agit pas de détester ou de craindre la technologie — mais de l’adopter de manière consciente.
L’IA comme miroir des choix humains : Pourquoi la technologie n’est jamais neutre
L’IA n’est pas une technologie objective, mais une expression des intentions humaines, des intérêts et des valeurs. Marc van Meel insiste sur le fait que les algorithmes sont façonnés par les données collectées, les objectifs des développeurs et les normes culturelles dans lesquelles la technologie est appliquée [2]. Il s’agit d’une méprise fondamentale que de penser que l’IA est neutre : chaque système porte la main invisible des personnes qui le conçoivent, le forment et l’utilisent [2]. Ces éclairages ne sont pas de la philosophie abstraite, mais une réalité pratique que les organisations doivent intégrer lors de la mise en œuvre de l’IA. Dès le choix d’un jeu de données jusqu’à la prise de décision, des choix sont faits qui ont une influence directe sur l’équité, l’accessibilité et la confiance. Dès aujourd’hui, il ne s’agit donc plus seulement d’un problème technique, mais d’un dilemme éthique et social que chaque organisation doit affronter [2].
Une innovation responsable en pratique : Comment les organisations prennent des décisions conscientes
Les organisations qui souhaitent utiliser l’IA de manière responsable doivent commencer par réfléchir à des questions fondamentales : qui est responsable en cas d’échec d’un algorithme ? Quelles valeurs souhaitez-vous protéger en tant qu’organisation ? Comment impliquer votre équipe dans le changement ? Et que signifie-t-il si les données déterminent qui a accès aux opportunités et qui n’en a pas ? [2] Marc van Meel aide les équipes et les dirigeants à ne pas contourner ces questions, mais à en faire des points de départ dans la conception d’applications d’IA [2]. Sa méthodologie repose sur l’intégration de l’éthique, de la gouvernance et de la dimension humaine dans la stratégie, la culture et la prise de décision, afin que la technologie soit non seulement efficace, mais aussi équitable, sûre, intelligente et centrée sur l’humain [2]. Ses ateliers, tels que « L’IA en pratique » ou « L’IA éthique et sécurisée », proposent des outils concrets comme des analyses d’équité, des matrices de risque, des modèles de gouvernance et des cartographies des parties prenantes pour soutenir des décisions réfléchies [1]. Ces outils ont été développés pour des équipes de divers secteurs, notamment le secteur public, la santé, l’éducation et la finance, et visent à établir des applications d’IA sûres et réalisables [1].
L’IA dans l’information et la communication publique : De l’information personnalisée à la mesure de l’efficacité
Dans le secteur de l’information et de la communication publique, l’IA est déjà utilisée pour rendre des informations complexes accessibles à divers publics. La fourniture d’informations personnalisées utilise l’IA pour adapter le contenu aux préférences individuelles, à l’âge, au niveau de maîtrise de la langue et aux compétences technologiques, ce qui améliore considérablement la portée des informations [1]. Les chatbots destinés aux services publics, comme ceux utilisés par les municipalités et les administrations publiques, aident les citoyens à trouver des informations, à demander des documents ou à résoudre des questions simples — souvent 24 heures sur 24, sans délai d’attente [1]. Les campagnes d’information pilotées par l’IA analysent le comportement, l’usage du langage et les schémas d’interaction afin d’optimiser les campagnes et de mesurer leur efficacité. En analysant les données, les organisations peuvent déterminer quelles messages sont bien accueillis, quels canaux sont les plus efficaces, et comment améliorer la transmission de l’information [1]. Ces méthodes sont déjà appliquées dans plusieurs secteurs, où les organisations utilisent l’IA pour mieux atteindre leurs publics cibles, améliorer la qualité de la communication et renforcer le retour d’information du public [1].
Les risques et défis : Vie privée, inclusion et fiabilité
Malgré les avantages, l’IA dans l’information publique comporte également des risques, en particulier en matière de vie privée, d’inclusion et de fiabilité. Lors de la collecte de données personnelles pour la personnalisation, il existe un risque de mauvaise utilisation ou d’accès non autorisé, notamment lorsque les données ne sont pas suffisamment protégées ou utilisées sans transparence [1]. L’inclusion est une autre difficulté : si les systèmes d’IA sont entraînés sur des données qui écartent ou marginalisent certaines catégories, les algorithmes peuvent renforcer des schémas discriminatoires au lieu de les corriger [1]. Cela se traduit par un accès inégal aux opportunités, comme l’accès à l’information, aux services ou aux produits financiers. La fiabilité est un troisième facteur critique : des informations erronées ou obsolètes diffusées par l’IA peuvent induire en erreur et sapent la confiance, particulièrement dans des situations critiques telles que la santé publique ou les crises [1]. Marc van Meel insiste sur le fait que les organisations ne peuvent pas attendre qu’un incident se produise, mais doivent agir de manière proactive en matière de gouvernance et de responsabilité [2]. Cela implique la mise en place de règles de politique IA transparentes, l’application d’analyses de biais et la participation de parties prenantes diverses dans le développement des applications d’IA [1].
De la théorie à la pratique : Des exemples concrets d’IA responsable dans les organisations
De nombreuses organisations aux Pays-Bas et ailleurs utilisent les enseignements de Marc van Meel pour mettre en œuvre l’IA de manière responsable. Dans le secteur public, des systèmes d’IA sont utilisés pour prédire les besoins sociaux et optimiser la prestation de services, en plaçant les considérations éthiques au cœur du processus [1]. Dans le domaine de la santé, l’IA est utilisée pour personnaliser l’accompagnement des patients, mais uniquement lorsque cela se fait avec consentement, transparence et une structure claire de responsabilité [2]. Dans l’éducation, des outils d’IA aident les élèves aux différents styles d’apprentissage à mieux comprendre les sujets, tout en soutenant les enseignants par des retours et des évaluations [1]. Dans le secteur financier, des algorithmes d’IA sont utilisés pour l’évaluation de crédit, avec un accent mis sur le prêt équitable et la prévention de schémas discriminatoires [1]. Ces exemples démontrent que l’IA n’est pas seulement techniquement réalisable, mais également éthiquement responsable lorsqu’elle est intégrée dans une stratégie globale de gouvernance qui ne perd jamais de vue la dimension humaine [2].