AIJB

LIO Discute l'Impact de l'IA dans le Contrôle Interne

LIO Discute l'Impact de l'IA dans le Contrôle Interne
2025-08-30 journalistiek

amsterdam, zaterdag, 30 augustus 2025.
Lors d’une récente réunion de la Landelijke Interne Onderzoeksvereniging (LIO), les opportunités, les risques et les aspects éthiques de l’intelligence artificielle (IA) dans le contrôle interne ont été abordés. Plus de 100 participants issus de différents secteurs se sont réunis pour apprendre comment l’IA transforme le domaine des auditeurs et quelles compétences sont nécessaires. Les experts ont traité des sujets tels que le biais algorithmique, la résilience numérique et l’intégration de l’IA dans la conformité et la gestion des risques.

Expertises : Frank van Praat et Fré Vink

Frank van Praat, Partenaire en IA Responsable chez KPMG, a expliqué comment l’IA transforme le domaine des auditeurs et quelles nouvelles compétences sont nécessaires. Il a souligné que les auditeurs doivent se concentrer sur le développement de compétences en analyse de données et en apprentissage automatique. « L’IA offre d’énormes opportunités, mais nous devons également être prudents quant aux implications éthiques », a déclaré Jan Jansen, responsable du contrôle interne chez XYZ Corporation [2]. Fré Vink, project manager en IA Responsable au sein du Service d’Audit du Rijk, a abordé les aspects éthiques tels que le biais algorithmique et les limites morales dans le contrôle interne. Elle a souligné la nécessité de transparence et de responsabilité dans l’application de l’IA [2].

Exemples Pratiques et Risques

Damian Borstel, Superviseur sénior à l’Autoriteit Financiële Markten (AFM), a discuté des risques informatiques liés à l’IA. Il a expliqué comment les auditeurs peuvent renforcer leur résilience numérique pour répondre efficacement aux nouvelles menaces. « L’IA peut aider à détecter la fraude et d’autres risques, mais il est crucial que les auditeurs comprennent comment cette technologie fonctionne et comment ils peuvent la superviser », a déclaré Borstel [2]. La présentation de Marieke Vermeulen, éthicienne, s’est concentrée sur l’impact de l’IA sur la vie privée et la nécessité de transparence dans les algorithmes [2].

Ateliers Interactifs

Après les présentations, les participants ont travaillé en ateliers interactifs. Ils ont travaillé sur des cas pratiques pour réfléchir à l’utilisation et aux limites de l’IA dans leurs propres organisations. Ces ateliers ont offert aux participants la possibilité d’acquérir des connaissances directement applicables et des outils pratiques à emporter. « Cette réunion m’a aidé à mieux comprendre comment intégrer l’IA dans mon travail tout en ne perdant pas de vue les aspects éthiques », a déclaré un participant [2].

Perspective Future

La réunion s’est conclue par une perspective future. La prochaine réunion est prévue pour le 15 octobre 2025, où seront discutées les étapes suivantes et les initiatives autour de l’IA dans le contrôle interne. Un sondage en ligne a été lancé après la réunion pour recueillir les retours des participants et affiner le contenu des futures réunions [2].

Sources