L'Université de Breda forme ses étudiants à l'éthique de l'IA après des incidents de confidentialité
Breda, woensdag, 9 juli 2025.
Après des incidents où des employés ont saisi des informations sensibles de l’entreprise dans ChatGPT, l’Université de Breda lance une nouvelle formation. Celle-ci se concentre sur la littératie et l’éthique de l’IA, afin de prévenir les problèmes de confidentialité et d’accroître la prise de conscience. Il s’agit d’une réponse à l’utilisation croissante de l’IA dans le milieu professionnel et à la nécessité d’y être bien préparé.
Réponse aux Incidents de Confidentialité
L’Université de Breda a décidé de lancer une nouvelle formation pour les étudiants et les employés, axée sur la littératie et l’éthique de l’IA. Cette formation est une réaction directe à des incidents où des employés ont involontairement saisi des informations sensibles de l’entreprise dans ChatGPT, causant de graves problèmes de confidentialité. Un tel incident a même conduit au licenciement d’un employé après qu’il ait saisi des informations sensibles de l’entreprise dans ChatGPT [1].
Objectif de la Formation
L’objectif de la nouvelle formation est de promouvoir une prise de conscience accrue et de meilleures pratiques en matière d’IA. Cela est particulièrement important compte tenu de l’augmentation rapide de l’utilisation de l’IA dans le milieu professionnel. Malgré cette croissance, de nombreux professionnels des ressources humaines et employés ne sont toujours pas familiers avec le Règlement européen sur l’IA, la directive que les organisations doivent respecter [1]. Cette réglementation établit des exigences en matière de sécurité et de transparence des systèmes d’IA, y compris des interdictions de certains systèmes d’IA et des exigences pour les grands modèles d’IA.
Exemples Pratiques d’Applications de l’IA
L’IA est déjà largement utilisée dans divers secteurs, notamment les ressources humaines. Par exemple, 45 % des professionnels des ressources humaines et des départements utilisent l’IA pour des tâches telles que la rédaction de profils de poste (22 %), la génération automatique de documents (19 %) et la réponse à des questions récurrentes (17 %) [1]. Bien que l’IA offre de nombreux avantages, tels que l’efficacité et la cohérence, il existe également des préoccupations concernant la confidentialité et la sécurité des données sensibles des ressources humaines. Ces préoccupations sont reflétées par le fait que 34 % des professionnels des ressources humaines sont réticents à utiliser l’IA [1].
L’IA dans l’Information et la Communication Publique Modernes
Le rôle de l’IA dans l’information et la communication publique modernes devient de plus en plus important. Les applications spécifiques incluent la fourniture d’informations personnalisées, les chatbots pour les services publics et les campagnes d’information dirigées par l’IA. Ces applications aident à atteindre différentes cibles, à améliorer la transmission de l’information et à mesurer l’efficacité des campagnes. Par exemple, les chatbots peuvent être disponibles 24/7 pour répondre aux questions et fournir un service client, tandis que la fourniture d’informations personnalisées garantit que les utilisateurs reçoivent les informations les plus pertinentes [GPT].
Avantages et Défis
L’IA offre des avantages significatifs, tels que la possibilité d’analyser rapidement de grandes quantités de données et de générer des insights. Cela peut conduire à une communication plus ciblée et efficace. De plus, l’IA peut aider à rendre l’information complexe accessible à différents publics en simplifiant et en visualisant l’information. Cependant, il existe également des défis, tels que les préoccupations liées à la confidentialité, l’inclusion et la fiabilité des informations dirigées par l’IA. Il est crucial que les organisations prennent ces défis au sérieux et adoptent des pratiques transparentes et responsables [GPT].
Exemples Pratiques d’Applications Réussies de l’IA
Il existe déjà plusieurs implémentations réussies de l’IA dans l’information et la communication publique. Par exemple, la municipalité d’Amsterdam utilise des chatbots pour informer les citoyens sur les règlements locaux et les services. Ces chatbots ont renforcé l’interaction entre le gouvernement et les citoyens et amélioré l’accès à l’information. Un autre exemple est le secteur de la santé, où l’IA est utilisée pour donner des conseils personnalisés aux patients basés sur leurs données médicales, améliorant ainsi la qualité des soins [GPT].
Conclusion
La nouvelle formation de l’Université de Breda est une étape importante vers une utilisation responsable et sécurisée de l’IA. En formant les étudiants et les employés à l’éthique de l’IA, le risque d’incidents de confidentialité est réduit et une base est posée pour des applications responsables de l’IA à l’avenir. Il est essentiel que d’autres institutions et organisations suivent et s’engagent également dans la littératie et l’éthique de l’IA [1].