Outils AI non autorisés mettent les entreprises britanniques en danger
londen, maandag, 20 oktober 2025.
Plus de sept sur dix employés britanniques utilisent des outils AI non autorisés au travail, ce qui entraîne de grands risques de sécurité et éthiques. Selon une étude de Microsoft, 51% de ces employés utilisent les outils hebdomadairement, principalement pour la communication, la rédaction de rapports et les tâches financières. Seulement 32% s’inquiètent de la confidentialité des données clients ou de l’entreprise entrées dans ces outils. Les experts plaident pour des règles plus strictes et des campagnes de sensibilisation pour lutter contre cette menace sourde.
Utilisation sournoise de l’AI shadow
L’utilisation d’outils AI non autorisés, également connus sous le nom d’AI shadow, est un problème croissant dans les organisations britanniques. Selon une récente étude de Microsoft, plus de sept sur dix employés britanniques utilisent ces outils sur leur lieu de travail [1]. Ce chiffre atteint même 51% pour les employés qui utilisent les outils hebdomadairement. Cette augmentation progressive comporte à la fois des risques de sécurité et éthiques, alors que seulement 32% du personnel s’inquiète de la confidentialité des données clients ou de l’entreprise entrées dans ces outils [1].
Applications et risques
Les applications les plus courantes de ces outils AI non autorisés sont la communication professionnelle, la rédaction de rapports et présentations, et les tâches financières. Près d’un quart (22%) du personnel utilise les outils pour des tâches financières [1]. Ces pratiques peuvent conduire à des fuites de données et d’autres incidents de sécurité, comme cela s’est récemment produit en Australie. Là, des informations personnelles de citoyens ont été divulguées par un sous-traitant qui utilisait illégalement ChatGPT [3].
Raisons de l’utilisation
Il existe plusieurs raisons pour lesquelles les employés utilisent des outils AI non autorisés. Selon l’étude de Microsoft, 41% des employés britanniques utilisent ces outils car ils y sont habitués dans leur vie privée, tandis que 28% du personnel les utilise car leur entreprise ne propose pas d’options approuvées [1]. Cela suggère qu’il manque des alternatives approuvées et sécurisées, renforçant ainsi la nécessité d’implémenter des règles plus strictes et des campagnes de sensibilisation.
Avantages et risques potentiels
Bien que l’utilisation d’outils AI puisse offrir des avantages considérables, tels que l’augmentation de la productivité et de la créativité, ces outils comportent également des risques significatifs. Microsoft indique que les outils AI économisent annuellement environ 12 milliards d’heures aux employés dans le monde, mais ces avantages ne sont valables que pour l’utilisation d’outils approuvés [1]. Les outils AI non autorisés peuvent conduire à des fuites de données, des incidents de sécurité et des problèmes juridiques, causant ainsi des dommages potentiels importants.
Conseils d’experts et recommandations
Les experts, dont Darren Hardman, PDG de Microsoft UK & Ireland, plaident pour des règles plus strictes et des campagnes de sensibilisation pour réduire les risques de l’AI shadow. Hardman souligne que les entreprises doivent s’assurer que les outils AI utilisés sont adaptés au lieu de travail et pas seulement pour un usage domestique [1]. Il est également crucial que les organisations informent leur personnel des dangers potentiels et leur fournissent des alternatives sécurisées. La gestion des accès privilégiés (PAM) peut jouer un rôle important en contrôlant l’accès aux outils AI et en surveillant les activités, ce qui peut entraîner une réduction de 30% des incidents de sécurité [4].