AIJB

Pourquoi l'IA dans la justice ne pourra jamais remplacer l'humain

Pourquoi l'IA dans la justice ne pourra jamais remplacer l'humain
2025-11-05 journalistiek

Den Haag, woensdag, 5 november 2025.
Bien que l’IA soit de plus en plus utilisée pour résumer des dossiers et rédiger des arrêts, la dimension humaine reste inestimable – car l’IA perçoit les larmes d’un témoin, mais ne comprend pas pourquoi elles coulent. Le conseiller Manuella van der Put insiste sur le fait que la technologie n’est qu’un outil : elle doit compléter, non remplacer, la lucidité, la conscience et le courage des juges. C’est précisément cette dimension humaine indispensable que la justice a besoin d’aujourd’hui, dans une ère de digitalisation rapide. Le vrai défi n’est pas technique, mais éthique : comment maintenir l’équilibre entre efficacité et justice, entre logique et empathie ?

L’IA comme miroir : du rendement à la responsabilité éthique

À l’ère du développement accéléré des technologies d’IA dans la justice, le rôle de la prise de décision humaine est de plus en plus mis à l’épreuve. Le conseiller Manuella van der Put, au tribunal de cassation de ’s-Hertogenbosch, souligne que l’IA n’a pas à être une menace, mais plutôt une opportunité – à condition qu’elle soit utilisée de manière responsable, transparente et attentive à la dimension humaine [lien : https://www.itenrecht.nl/artikelen/op-13-november-start-de-zesde-editie-van-de-mr-s-k-martens-academie]. Son point de vue s’appuie sur des expériences concrètes issues de sa recherche doctorale sur un système d’IA capable d’évaluer indépendamment des contraventions de circulation, terminée en 2024 et depuis élargie à des applications récentes en pratique [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/]. Elle affirme que l’IA « voit » ce qui se passe – comme les larmes d’un témoin – mais « ne comprend pas » pourquoi elles coulent, car elle ne possède ni empathie ni conscience contextuelle [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/]. Ce fossé entre perception et compréhension constitue le cœur du défi éthique : comment équilibrer l’efficacité technologique et la justice humaine ? La justice travaille actuellement sur une version interne de ChatGPT spécialement conçue pour les applications juridiques ; Van der Put s’attend à présenter bientôt le premier prototype de ce système, ce qui indique que la transition de l’expérimentation à l’usage est en cours de préparation [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/].

De l’automatisation à une utilisation responsable : la nécessité d’une alphabétisation en IA

Une utilisation responsable de l’IA dans la justice dépend non seulement de la technologie, mais aussi de la connaissance et des compétences des utilisateurs. La réglementation européenne sur l’IA, entrée en vigueur, impose un certain niveau d’alphabétisation en IA, déjà mise en œuvre dans le secteur de la santé par le développement de compétences spécifiques pour les aides-soignants et les spécialistes médicaux [lien : https://demedischspecialist.nl/nieuwsoverzicht/nieuws/verantwoord-gebruik-van-ai-wat-moet-een-zorgprofessional-weten-en-kunnen]. Dans le domaine juridique, cette compétence est tout aussi cruciale. L’autorité des données personnelles a publié le 28 octobre 2025 une recommandation intitulée « Continuer à développer l’alphabétisation en IA », qui précise l’obligation légale imposée par le règlement sur l’IA et propose un plan d’action avec des exemples concrets pour une approche durable [lien : https://theinnovativelawyer.ai/insights]. Le conseiller Van der Put insiste sur le fait que l’utilisation de l’IA générative dans le processus juridique n’est pas une solution automatique : « Si vous décidez toujours A, puis soudainement B, vous devez être en mesure de l’expliquer. Ce n’est pas une menace, mais une occasion de renforcer notre motivation. » [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/]. Les autorités de contrôle AFM et DNB ont averti le 4 novembre 2025 des risques de concentration et de dépendance systémique dans le secteur financier dus à une dépendance croissante vis-à-vis des prestataires non européens de services informatiques, ce qui souligne une nécessité plus large de autonomie numérique et de pensée critique dans l’utilisation de l’IA [lien : https://theinnovativelawyer.ai/insights]. Dans le cadre de la supervision, une lacune en matière de visibilité et de coordination existe, ce qui incite les experts à proposer la création d’un centre de supervision central, par exemple en renforçant structurellement le SDT [lien : https://theinnovativelawyer.ai/insights].

La frontière entre outil et juge : des excès dangereux

Bien que l’IA soit utilisée pour résumer des dossiers, signaler des échéances ou anonymiser des décisions, son utilisation comme preuve est extrêmement risquée et irresponsable. Van der Put prévient explicitement : « Si un avocat brandit bientôt une vidéo générée par l’IA, nous devons être extrêmement critiques. Qui parle réellement là-dedans ? Et est-ce que ce que nous voyons est fiable ? » [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/]. Cette mise en garde s’appuie sur l’essor de l’IA générative capable non seulement de produire du texte, mais aussi d’images et de sons, ce qui remet en question l’authenticité et la fiabilité des preuves. L’utilisation de contenus générés par l’IA dans les procédures juridiques est discutée non seulement aux Pays-Bas, mais aussi dans des affaires judiciaires internationales majeures. Le 4 novembre 2025, une journée avant la publication de cet article, la High Court de Londres a rendu son arrêt dans l’affaire Getty Images contre Stability AI, où l’entreprise était accusée d’avoir utilisé sans autorisation des millions de photographies pour entraîner des modèles d’IA [lien : https://www.ai-forum.nl/]. Cette affaire constitue un signal clair que le droit d’auteur et la digitalisation se trouvent à un carrefour. Dans une autre affaire, GEMA contre OpenAI, l’organisation allemande des droits d’auteur de musique accuse OpenAI d’avoir entraîné son IA de manière non autorisée, ce qui pointe vers un débat juridique croissant sur la frontière entre utilisation légitime et abus des données [lien : https://www.ai-forum.nl/]. La Commission IA de la Fédération des spécialistes médicaux insiste sur la nécessité que les professionnels de santé puissent travailler de manière sûre et responsable avec l’IA, ce qui exige un niveau fondamental d’alphabétisation en IA [lien : https://demedischspecialist.nl/nieuwsoverzicht/nieuws/verantwoord-gebruik-van-ai-wat-moet-een-zorgprofessional-weten-en-kunnen]. L’extension d’une telle alphabétisation dans le domaine juridique est essentielle pour éviter que l’IA ne soit un jour perçue comme juge plutôt que comme outil.

La dimension humaine dans l’ombre de la machine

Le cœur du processus judiciaire reste l’interaction personnelle entre juge, accusé, témoin et avocat. Le conseiller Van der Put souligne que « même si l’IA est intelligente, la justice exige plus que de la logique. Il s’agit de la personne assise en face de vous. C’est pour elle que nous faisons cela. » [lien : https://www.mr-online.nl/rechtspraak-is-mensenwerk-juist-in-het-tijdperk-van-ai/]. Cette déclaration n’est pas romantique, mais fondamentale : la justice n’est pas seulement une question de raisonnement logique, mais aussi d’empathie, de contexte, d’intelligence émotionnelle et de confiance. En pratique, cela se reflète dans le fonctionnement du tribunal de cassation de ’s-Hertogenbosch, qui traite chaque année environ 10 000 affaires fiscales, familiales, commerciales et pénales en appel [lien : https://www.itenrecht.nl/artikelen/op-13-novembre-start-de-zesde-editie-van-de-mr-s-k-martens-academie]. Les décisions sont prises selon une approche personnalisée tenant compte des problèmes sous-jacents dans la société, chaque affaire ayant son propre contexte unique [lien : https://www.itenrecht.nl/artikelen/op-13-novembre-start-de-zesde-editie-van-de-mr-s-k-martens-academie]. L’émergence de navigateurs agents comme Comet de Perplexity, capables d’effectuer des actions autonomes dans le navigateur et d’accéder à des sessions connectées, introduit de nouveaux risques en matière de sécurité et de vie privée, renforçant ainsi la nécessité d’un contrôle humain [lien : https://theinnovativelawyer.ai/insights]. La justice doit désormais choisir : mettre fin à l’expérimentation ou amplifier cet accès numérique à la justice – mais toujours sous réserve que la dimension humaine reste au cœur du processus [lien : https://theinnovativelawyer.ai/insights].

Sources