Comment l’intelligence artificielle transforme le système judiciaire – et pourquoi cela est désormais essentiel
tilburg, donderdag, 6 november 2025.
Pour la première fois aux Pays-Bas, une chaire universitaire spécifiquement dédiée au rôle responsable de l’intelligence artificielle au sein de l’État de droit est créée. Francien Dechesne prendra ses fonctions à l’Université de Tilburg à partir du 1er novembre 2025, avec pour question centrale : comment assurer que l’intelligence artificielle soit utilisée de manière équitable, transparente et responsable dans le système judiciaire ? Il ne s’agit pas uniquement d’une question technique, mais de choix éthiques – comme dans les évaluations de risque en droit pénal. Intriguant ? Cette chaire est financée par le WODC, le centre scientifique du ministère de la Justice, ce qui montre que l’État prend désormais sérieusement en compte les conséquences éthiques de l’intelligence artificielle. Ce n’est pas une vision du futur, mais une étape concrète prise aujourd’hui pour préserver demain la confiance dans la justice.
Un pas nouveau vers l’intégration responsable de l’IA dans le droit
À compter du 1er novembre 2025, Francien Dechesne prendra ses fonctions en tant que professeure titulaire spéciale « Data and AI for the Rule of Law » à l’École des sciences humaines et des sciences numériques de l’Université de Tilburg. Son nomination marque un moment historique : il s’agit de la première chaire aux Pays-Bas dédiée spécifiquement à une application responsable de l’intelligence artificielle dans le cadre de l’État de droit. Dechesne, déjà professeure universitaire en chef d’éthique et technologies numériques à l’Université de Leyde, étend son champ de recherche aux enjeux juridiques, éthiques et de gouvernance liés à l’IA dans le domaine de la justice et de la sécurité [1]. Cette chaire est financée par le Wetenschappelijk Onderzoek- en Datacentrum (WODC), le centre scientifique du ministère de la Justice et de la Sécurité, ce qui souligne une volonté claire de l’administration publique de s’appuyer sur une connaissance scientifique solide pour l’implémentation de l’IA dans le secteur public [1]. Son travail vise à garantir la transparence, l’équité et la responsabilité dans l’utilisation de l’IA, notamment dans des applications sensibles telles que les évaluations de risque en droit pénal, la prise de décision dans l’administration publique et la gestion des données personnelles [1]. La combinaison de son parcours académique en informatique, en mathématiques et en philosophie lui confère une aptitude particulière à aborder de manière interdisciplinaire des questions complexes liées à l’IA et au droit [1].
De la technologie aux choix éthiques : le cœur du travail de Dechesne
La chaire de Dechesne va au-delà de l’optimisation technique ; elle se concentre sur les implications morales et sociétales de l’IA dans le système judiciaire. Son recherche examine comment les biais biologiques et les formes de marginalisation sociale peuvent être amplifiés par les algorithmes, notamment dans des contextes où l’IA prend des décisions concernant la liberté, la peine et l’accès aux services [2]. Elle analyse notamment comment la racialisation de l’identité blanche et d’autres inégalités structurelles peuvent être renforcées par des systèmes d’IA entraînés sur des données historiques, conduisant à une aggravation des inégalités existantes au sein du système judiciaire [2]. Grâce à son rôle au eLaw Centrum pour le droit et les technologies numériques à l’Université de Leyde, ainsi qu’à sa nouvelle fonction à Tilburg, elle est en mesure de favoriser le transfert de connaissances entre les universités et les institutions publiques, dans une perspective d’intégration responsable de l’IA dans le domaine public [1]. Sa position conjointe entre le département de Sciences cognitives et IA et l’Institut de Tilburg pour le droit, la technologie et la société (TILT) met en évidence la nature interdisciplinaire de son travail, où technologie, philosophie et science juridique se croisent [1].
L’IA en pratique : des évaluations de risque à la confiance dans l’État de droit
Depuis 2010, des systèmes d’évaluation de risque sont utilisés dans le droit pénal pour prédire la probabilité de récidive criminelle, mais leur fiabilité et leur équité sont de plus en plus remises en question. Le travail de Dechesne s’attaque à l’analyse de ces systèmes afin d’éviter qu’ils ne favorisent involontairement la discrimination, par exemple en fonction de la race ou du statut socio-économique [1][2]. La chaire étudie comment garantir la transparence et la responsabilité, de manière à ce que les juges et les institutions publiques comprennent comment l’IA parvient à une conclusion donnée, et pourquoi cette conclusion ne doit pas être acceptée sans une évaluation critique [1]. C’est crucial, car sans transparence, l’IA peut fonctionner comme une « boîte noire » prenant des décisions sans base claire ni contrôle. Le WODC, qui rend cette chaire possible, insiste sur l’importance fondamentale d’une connaissance scientifique de haut niveau pour une utilisation équitable des données et de l’IA dans la justice et la sécurité [1]. Grâce à une combinaison de recherche académique et de collaboration avec les institutions publiques, Dechesne vise à contribuer à un système qui soit non seulement efficace, mais aussi digne de confiance et équitable pour tous les citoyens.
Le cadre global : pourquoi le système judiciaire doit-il réagir à l’IA maintenant
La rapidité avec laquelle l’IA est intégrée dans les services publics et les pratiques juridiques exige une réaction rapide et responsable du système judiciaire. La nomination de Dechesne constitue une réponse directe à la pression croissante sur le droit pour qu’il s’adapte aux évolutions technologiques, en particulier à la lumière de la popularité croissante de l’IA dans l’administration publique [1]. Aucune autre discipline scientifique n’a aujourd’hui plus besoin de réfléchir à l’interaction entre technologie et droit que l’éthique de l’IA, car des systèmes autrefois considérés comme simplement aidants prennent désormais des décisions critiques sur la vie humaine, la liberté et l’accès aux services [2]. Son travail contribue à développer des cadres de gouvernance garantissant équité, responsabilité et contrôle. Il ne s’agit plus d’une question de vision du futur, mais d’une responsabilité immédiate : l’État de droit doit s’assurer que la technologie ne met pas en péril la confiance des citoyens dans la justice [1].