AIJB

Pourquoi l'IA stagne dans les organisations – et comment l'éviter

Pourquoi l'IA stagne dans les organisations – et comment l'éviter
2025-11-29 voorlichting

Amsterdam, zaterdag, 29 november 2025.
La véritable barrière à l’intégration de l’IA n’est pas la technologie, mais la peur et l’incertitude ressenties par les collaborateurs. Selon une étude menée en novembre 2025, la sécurité psychologique est la clé du succès de l’adoption de l’IA : les organisations où les personnes se sentent en sécurité pour poser des questions, commettre des erreurs et apprendre grandissent plus rapidement en 2026. Il ne s’agit pas de la intelligence de l’IA, mais de la sensation de sécurité ressentie par les employés lorsqu’ils interagissent avec elle. Intéressant : les organisations qui agissent activement aujourd’hui pour construire cette sécurité auront, dans un an, un avantage considérable – même dans des secteurs comme la santé, l’administration publique et les finances. La valeur d’une bonne culture, de la transparence et de l’éthique apparaît désormais plus que jamais essentielle.

La sécurité psychologique : la clé invisible de l’utilisation de l’IA

Le progrès rapide des technologies de l’IA n’est pas freiné par des logiciels ou matériels insuffisants, mais par un obstacle plus profond, humain : la peur du changement et le manque de sécurité psychologique au sein des organisations. Selon une étude de Danique Scheepers, consultante en diversité et inclusion avec un focus sur l’éthique de l’IA, le niveau de sécurité psychologique constitue le facteur déterminant pour une adoption réussie de l’IA en 2026 [1]. Les organisations qui agissent actuellement pour créer des espaces sûrs où les collaborateurs peuvent poser des questions sans jugement, commettre des erreurs sans sanction et apprendre sans honte auront, dans un an, un avantage durable sur leurs concurrents [1]. Ce lien n’est pas hypothétique : l’étude démontre une corrélation directe entre le niveau de sécurité psychologique et la vitesse à laquelle les organisations peuvent apprendre et s’adapter dans l’ère de l’IA [1]. La question centrale pour les dirigeants en 2026 n’est donc plus : « À quelle vitesse pouvons-nous implémenter l’IA ? », mais plutôt : « Nos collaborateurs se sentent-ils suffisamment en sécurité pour se développer et rester performants durablement en 2026 ? » [1]

De la peur au confiance : comment les organisations peuvent soutenir leurs équipes

Pour de nombreux collaborateurs, l’IA suscite des questions qui ne sont pas techniques, mais émotionnelles : « Qu’est-ce qui restera de mon poste ? », « Comprends-je comment utiliser ces outils ? », « Et si je fais des erreurs ? », « Devrai-je désormais concurrencer un agent d’IA ? » [1]. Cette incertitude entraîne de la résistance, des erreurs dissimulées, un apprentissage stagné voire un départ de personnel, même si la technologie est disponible [1]. Pour y remédier, quatre actions sont essentielles : rendre les erreurs visibles et discutables, intégrer une véritable assistance continue via des pairs, des coachs et des cycles d’apprentissage accélérés, instaurer une clarté radicale sur les changements en cours, et rendre le développement accessible à tous [1]. Ces mesures ne sont pas optionnelles, mais une nécessité stratégique pour combler le fossé des compétences qui deviendra la plus grande menace en 2026 [1]. L’apprentissage continu devient un pilier fondamental du travail durable, soutenu par des filets de sécurité comme les coachs d’équipe et les experts internes [1].

L’IA dans la communication : personnelle, accessible et mesurable

Dans le secteur de la communication et de l’information publique, l’IA ouvre de nouvelles possibilités pour rendre des informations complexes accessibles à divers publics. Une information personnalisée, comme celle proposée par la banque de connaissances de DDMA, montre que l’expérience client dans un monde piloté par l’IA reste personnalisée grâce à la dimension humaine et à l’engagement [2]. La nouvelle réglementation en matière de télémarketing, qui impose à partir du 1er juillet 2026 un consentement explicite même pour les clients existants, met en lumière l’importance d’expériences pertinentes plutôt que de réductions tarifaires [2]. Il s’agit d’une réponse directe au désir croissant de relations de confiance et d’engagement dans la communication [2]. Les chatbots destinés aux services publics, comme ceux testés dans les communes lors de la formation intensive de trois jours sur l’IA et les communes, aident à répondre aux questions de façon plus efficace, sans nécessiter de compétences techniques [3]. Ces applications augmentent la accessibilité, notamment pour les personnes en situation de handicap ou celles qui ont du mal avec le langage bureaucratique [3]. Les campagnes de communication alimentées par l’IA peuvent être personnalisées pour différents publics cibles, en utilisant l’analyse de données pour mesurer leur efficacité et les optimiser [2][3].

Éthique, confidentialité et responsabilité : les formateurs incontournables

L’application de l’IA dans la communication apporte non seulement des avantages, mais aussi des défis significatifs. La confidentialité, l’inclusivité et la fiabilité constituent des conditions essentielles. En Italie, le 27 novembre 2025, un arrêté interdisant six sites web a été publié, après qu’ils ont utilisé des bots d’IA et des deepfakes pour commettre des fraudes financières, en exploitant des explications convaincantes mais fausses sur des produits financiers via des vidéos et des voix générées par l’IA [4]. Cette action, faisant partie de l’opération « Operation Phantom Ledger », révèle la menace croissante de la déformation algorithmique dans l’espace public [4]. La Consob a indiqué que ces sites avaient déjà récolté 17 millions d’euros en indemnités grâce à du contenu généré par l’IA [4]. Aux Pays-Bas, la Commission européenne a présenté le paquet Digital Omnibus le 19 novembre 2025, qui inclut des modifications à la loi sur l’IA et à la réglementation relative aux cookies, renforçant progressivement le cadre réglementaire pour l’application de l’IA dans la communication [2]. La nouvelle législation sur le télémarketing, applicable à partir du 1er juillet 2026, exige le consentement explicite des clients existants, renforçant ainsi la responsabilité des organisations en matière de communication éthique [2].

Le leadership à l’ère de l’IA : du technologique à l’empathie

Un leadership efficace à l’ère de l’IA exige non seulement des compétences techniques, mais surtout une ambidexité : comprendre à la fois ce que l’IA peut faire et ce qu’elle ne peut pas faire, tout en s’engageant constamment pour l’éthique, l’empathie et les valeurs humaines [5]. Caroline Tervoort-Visser souligne que l’IA déplace le focus du travail de l’aspect transactionnel et répétitif vers l’interaction et l’interprétation, ce qui exige des compétences profondément humaines [5]. « Les dirigeants doivent eux-mêmes se mettre en mouvement ! » – une citation directe de son allocution au congrès Human Capital [5]. Il ne suffit pas que les dirigeants donnent l’exemple ; il faut que cela soit visible dans la prise de décision au quotidien [5]. Vanessa Jeurissen-Kohn insiste sur l’importance du « ton donné en haut » et souligne que, aujourd’hui, le non-respect des règles représente surtout un risque humain, culturel et comportemental, et non financier [6]. Elle met en garde : si le haut de l’organisation ne parle pas ouvertement des erreurs, des dilemmes et des choix, le respect des règles restera un point d’agenda séparé, et non intégré à la prise de décision stratégique [6].

Sources