Comment les bibliothèques utilisent l'intelligence artificielle de manière responsable sans compromettre la valeur publique
Den Haag, donderdag, 27 november 2025.
La Koninklijke Bibliotheek mène actuellement une recherche qualitative sur l’utilisation responsable de l’intelligence artificielle (IA) dans le travail public des bibliothèques. L’une des observations les plus intrigantes est que les systèmes d’IA fonctionnent souvent comme des « boîtes noires », où le processus menant à un résultat donné reste inexplicable pour les humains. Cela pose un défi majeur en matière de transparence et d’accès démocratique à la connaissance – des valeurs fondamentales que défendent les bibliothèques. Cette recherche vise à concevoir des services et des outils concrets pour aider le secteur à combiner progrès technologique et responsabilité éthique. L’objectif est de développer un cadre pratique qui garantisse l’inclusivité, la fiabilité et la valeur publique, sans pour autant affaiblir le potentiel de l’IA.
L’IA comme boîte noire : le défi de la transparence dans les bibliothèques
Dans le cadre du travail public des bibliothèques, l’utilisation de l’intelligence artificielle (IA) connaît une croissance significative, mais cette évolution soulève un défi fondamental : la transparence des systèmes d’IA. Ivar Timmer, chargé de cours en Management juridique et technologie à la Haagse Hogeschool d’Amsterdam, souligne que l’IA générative agit souvent comme une « boîte noire », où le processus menant à un résultat particulier reste pour les humains « pratiquement impossible à expliquer » [1]. Ce phénomène va à l’encontre d’une des valeurs centrales des bibliothèques : l’accès démocratique à la connaissance. Si les utilisateurs ne peuvent pas comprendre comment une recommandation ou un résultat de recherche a été obtenu, l’information perd en crédibilité. C’est pourquoi l’étude menée par la Koninklijke Bibliotheek se concentre sur le développement d’outils assurant une utilisation responsable de l’IA, sans compromettre la valeur publique de la transparence et de la responsabilité [2]. Cette perspective critique est pertinente non seulement pour la technologie, mais aussi pour le système juridique : Timmer rappelle que la qualité de l’État de droit moderne dépend en grande partie de la qualité des technologies qui l’accompagnent [1].
Des moteurs de recherche aux assistants numériques : applications pratiques de l’IA
L’IA est déjà utilisée de diverses manières dans les bibliothèques modernes. Des moteurs de recherche pilotés par l’IA aident les utilisateurs à trouver plus rapidement des ressources pertinentes grâce à des modèles linguistiques capables d’analyser le contexte et le sens [2]. Des recommandations personnalisées, comme celles proposées par la Kulturhus Borne - Bibliotheek, sont élaborées en fonction du comportement et des préférences des utilisateurs, enrichissant ainsi leur expérience [3]. La catalogage automatique permet d’organiser de grandes quantités de matériel de manière plus efficace, réduisant ainsi la charge de travail des équipes [2]. Les assistants numériques, tels que les chatbots dans les services en ligne, offrent une assistance 24 heures sur 24, 7 jours sur 7, pour des questions sur les horaires d’ouverture, les conditions d’utilisation ou la disponibilité des livres [4]. Ces applications améliorent la qualité du service, mais exigent une attention soutenue à l’éthique et à la protection des données personnelles. Depuis le 2 février 2025, la VVBAD a instauré une exigence d’alphabétisation en IA pour l’utilisation d’outils comme ChatGPT ou Copilot au sein du secteur de la gestion de l’information en Flandre, ce qui montre que le secteur prend conscience des risques liés à une utilisation incontrôlée [5].
Le rôle évoluant des bibliothécaires dans un environnement d’IA
Avec l’essor de l’IA dans le travail des bibliothèques, le rôle des collaborateurs évolue de catalogues exécutants vers celui de curateurs du savoir, de contrôleurs des résultats d’IA et de coaches pour les usagers [2]. L’étude de la Koninklijke Bibliotheek vise à développer des lignes directrices pour soutenir le secteur dans l’utilisation responsable de l’IA, tant sur le plan technique que sur le plan éthique [2]. Les collaborateurs sont invités à développer non seulement des compétences techniques, mais aussi des capacités de réflexion critique pour évaluer la fiabilité, les biais et l’inclusivité des résultats générés par l’IA. Ivar Timmer insiste sur le fait que l’IA « ne possède ni sens, ni vision du monde », et qu’elle dépend donc toujours de l’appréciation humaine pour garantir des décisions justes [1]. Cette responsabilité exige une formation approfondie, telle que dispensée dans les formations VVBAD sur l’utilisation efficace de l’IA, ses opportunités, ses risques et les différences entre les outils [5].
Confidentialité, accessibilité et démocratisation des connaissances
L’accessibilité des services d’IA est essentielle à la démocratisation des connaissances, mais elle soulève également des préoccupations. L’utilisation de systèmes d’IA peut entraîner la collecte de données personnelles, exposant les utilisateurs à des risques en matière de confidentialité, particulièrement lors de l’utilisation d’outils externes comme ChatGPT [5]. La Koninklijke Bibliotheek cherche donc des solutions qui équilibrent de manière responsable innovation et protection de la vie privée. L’étude se concentre sur l’application des valeurs publiques telles que l’inclusivité et l’accès démocratique, ce qui signifie que les services d’IA doivent également fonctionner pour les personnes en situation de handicap ou ayant des compétences numériques limitées [2]. Cette orientation est également visible dans les activités de la VVBAD, comme la formation en trois parties « Donnez forme à votre archive ! » et la formation complémentaire Belevenisbibliotheek, qui visent à renforcer les compétences au sein du secteur [5].
L’avenir des bibliothèques : un cadre pour une IA responsable
L’objectif de l’étude menée par la Koninklijke Bibliotheek est de développer un cadre pratique pour une utilisation responsable de l’IA, fondé sur des échanges avec des experts, une revue de littérature et une analyse de projets existants [2]. Ce projet fait partie du programme national Werk aan Uitvoering (WaU) du Ministère de la Santé, du Travail et de la Sécurité sociale (SZW), qui vise à renforcer les organisations d’exécution dans le secteur de la prestation de services publics [2]. Le résultat est un rapport de recherche accompagné de recommandations pour de nouveaux produits et services qui soutiendront le secteur dans son utilisation responsable de l’IA et dans la mise en œuvre des valeurs publiques [2]. Cette approche s’aligne avec la vision d’Ivar Timmer, qui met en garde contre l’utilisation de l’IA sans contrôle humain, et insiste sur le fait que la technologie ne peut apporter une contribution positive que si elle est intégrée dans un cadre éthique [1].