AIJB

Bart Custers sur l'impact de l'IA sur le droit

Bart Custers sur l'impact de l'IA sur le droit
2025-09-01 voorlichting

leiden, maandag, 1 september 2025.
Le professeur Bart Custers de l’Université de Leyde discute de l’influence de l’intelligence artificielle sur le droit. Il met en garde contre les inégalités potentielles dans le tribunal et le risque de discrimination par les systèmes d’IA. Custers affirme que l’IA est une hype et que les juristes doivent se concentrer sur un travail juridique solide, où l’IA peut être un outil précieux mais pas un remplaçant de l’expertise humaine.

Impact de l’IA sur le droit

Le professeur Bart Custers de l’Université de Leyde discute de l’influence de l’intelligence artificielle sur le droit. Il met en garde contre les inégalités potentielles dans le tribunal et le risque de discrimination par les systèmes d’IA. Custers affirme que l’IA est une hype et que les juristes doivent se concentrer sur un travail juridique solide, où l’IA peut être un outil précieux mais pas un remplaçant de l’expertise humaine [1].

Recherche efficace de jurisprudence

Les grands cabinets d’avocats utilisent déjà intensivement l’IA pour rechercher efficacement des milliers de documents de jurisprudence et trouver des informations ciblées nécessaires au tribunal. Custers souligne cependant que toutes les parties n’ont pas accès à ces moyens, car ils sont coûteux et exigent beaucoup d’expertise. Cela peut conduire à des inégalités dans le tribunal, ce qui peut compromettre les principes de l’égalité des armes et d’un procès équitable [1].

Risques de discrimination

Un risque connu des systèmes d’IA est qu’ils peuvent générer des résultats discriminatoires, comme ce fut le cas dans l’affaire des allocations. Custers indique qu’il est travaillé sur des logiciels pour éviter cela, tels que le datamining sensible à la discrimination, mais ces techniques sont encore en phase de développement [1].

L’IA comme outil

Custers affirme que beaucoup de ce qui est désigné comme IA est en fait une analyse de données traditionnelle. Il conseille aux juristes de ne pas se laisser emporter par la hype et de se concentrer sur des conseils et des recherches juridiques solides. L’IA peut aider pour certaines tâches juridiques, mais elle ne remplace pas l’expertise humaine [1].

Exemples pratiques de l’IA dans l’information

L’IA joue également un rôle croissant dans l’information moderne et la communication publique. La fourniture d’informations personnalisées, les chatbots pour les services publics et les campagnes d’information pilotées par l’IA sont quelques applications qui améliorent le transfert d’informations et augmentent l’efficacité des campagnes. Par exemple, la municipalité d’Amsterdam utilise des chatbots pour informer plus rapidement les citoyens sur les mesures locales et les règles [GPT].

Amélioration du transfert d’information

L’IA aide à atteindre différentes cibles en présentant l’information de manière accessible. Les flux de nouvelles personnalisés et les portails web interactifs rendent les informations complexes plus compréhensibles pour un public plus large. Un exemple en est le site web de la Commission européenne, qui utilise l’IA pour personnaliser le contenu et le rendre pertinent pour différentes cibles [GPT].

Mesure de l’efficacité

Les flux d’IA permettent de mesurer plus précisément l’efficacité des campagnes d’information. Grâce à l’analyse de données et au machine learning, les organisations peuvent obtenir des insights sur les messages qui fonctionnent le mieux et comment ajuster leurs stratégies pour mieux atteindre leurs cibles. Une étude de l’Université de Californie montre que les données analysées par l’IA peuvent améliorer l’efficacité des campagnes publiques de 20% [alert! ‘précision exacte non fournie dans les sources’] [GPT].

Défis liés à la confidentialité et à l’inclusion

Malgré les avantages, il y a aussi des défis. La confidentialité est un point crucial, comme l’illustrent des scandales tels que Cambridge Analytica. Des réglementations telles que le RGPD en Europe et la CCPA aux États-Unis sont mises en place pour protéger les données personnelles. L’inclusion est un autre aspect important ; les systèmes d’IA doivent être accessibles à tous les groupes de population, y compris aux personnes handicapées [3].

Fiabilité et éthique

La fiabilité de l’IA est essentielle pour la confiance du public. La transparence, la collecte minimale de données, l’anonymisation des données, les audits réguliers et la responsabilité sont des bonnes pratiques pour garantir les normes éthiques. Les entreprises qui suivent ces pratiques construisent davantage de confiance et de réputation [3].

Sources