AIJB

UT renforce les règles pour exclure les bots IA des réunions Teams

UT renforce les règles pour exclure les bots IA des réunions Teams
2025-10-29 journalistiek

enschede, woensdag, 29 oktober 2025.
À partir du 3 novembre, l’Université de Twente applique des règles d’accès plus strictes pour les réunions Microsoft Teams afin d’empêcher la participation d’IA-bots indésirables, tels que Fireflies. Les participants externes doivent désormais attendre d’être admis dans le “lobby” avant d’entrer. Cette mesure a été prise parce que les bots IA peuvent stocker des informations sensibles et rendre des fichiers accessibles, ce qui entraîne d’importants risques de sécurité.

Pourquoi la Universiteit Twente resserre les règles

La Universiteit Twente met en place, à partir du 3 novembre, des règles d’accès plus strictes pour les réunions Microsoft Teams : les participants externes doivent d’abord attendre dans le « lobby » avant d’être admis, dans le but d’écarter les bots IA indésirables tels que Fireflies et ainsi limiter les fuites d’informations sensibles [1][2]. Cette mesure fait suite à des signalements d’employés de l’UT ayant vu apparaître un bot IA pendant une réunion, et à des inquiétudes selon lesquelles des bots peuvent observer, enregistrer des conversations et envoyer automatiquement des transcriptions ou des comptes rendus à des destinataires externes [1][2].

Quels bots et quels risques sont évoqués

L’UT signale que les bots proviennent souvent de l’extérieur de l’Europe et sont reconnaissables à des noms tels que Notetaker, Fireflies, Otter.ai, Bot, VA ou Assistant ; certains imitent même de vrais participants ou s’inscrivent automatiquement à des réunions futures, créant ainsi un risque permanent d’accès aux documents [1][2][5]. Selon l’UT, les bots peuvent non seulement transcrire des conversations mais aussi, via des e-mails, protéger l’accès à des fichiers ou au contraire l’ouvrir, après quoi ces données peuvent être utilisées pour entraîner des modèles IA ou être analysées davantage [1][2].

La technologie derrière les moniteurs de réunion et les agents IA

Les agents IA modernes et les “copilotes” sont construits sur des plateformes end-to-end qui traitent des conversations, automatisent des actions et s’intègrent aux suites bureautiques comme Microsoft 365 ; Microsoft Copilot Studio est un exemple de plateforme permettant aux organisations de créer leurs propres agents capables de répondre à des questions, d’automatiser des workflows et d’opérer de manière autonome au sein des environnements Microsoft 365 [3]. Les intégrations entre bots et Teams nécessitent souvent un accès API (par exemple Microsoft Graph) et des permissions spécifiques pour que les agents puissent lire des éléments de calendrier ou envoyer des notifications proactives — des fonctionnalités qui peuvent être détournées si l’on ne contrôle pas suffisamment qui peut installer ou inviter des bots [4][3].

Comment les journalistes utilisent l’IA : un exemple concret

Dans le journalisme, des agents IA similaires sont utilisés pour transcrire des conversations, extraire des citations clés, vérifier des affirmations factuelles et automatiser des tâches routinières comme les résumés ou l’accès aux sources ; les entreprises qui créent des chatbots fiables spécifiques à un domaine montrent que des données en direct, des pistes d’audit et l’intégration avec des sources (par ex. documents et bases de données) sont nécessaires pour fournir des réponses exploitables et traçables — une architecture applicable aux outils de salle de rédaction pour la transcription d’entretiens et la vérification factuelle en temps réel [6].

Avantages pour la production et la consommation d’information

L’IA peut aider les rédactions à travailler plus vite : la transcription automatique réduit le travail manuel après des interviews, les résumés accélèrent la formation d’opinions pour les réunions éditoriales, et les vérifications automatisées peuvent détecter plus tôt des affirmations erronées ; de plus, l’intégration et la journalisation fournissent des pistes d’audit et une meilleure reproductibilité des décisions éditoriales, ce qui est pertinent pour la fiabilité et la responsabilité envers les lecteurs [6][3].

Inconvénients potentiels et risques opérationnels

Les risques incluent des fuites de données involontaires (par exemple lorsque des transcriptions ou des comptes rendus sont envoyés automatiquement à des services externes), l’entraînement incorrect ou non contrôlé de modèles sur des conversations confidentielles, et la dépendance à des fournisseurs externes relevant de juridictions différentes — des facteurs qui peuvent compromettre l’intégrité du journalisme d’investigation si des garde-fous font défaut [1][2][6][5].

Considérations éthiques pour les rédactions

Les enjeux éthiques vont du consentement des sources pour l’enregistrement et l’utilisation des données, à la transparence quant à l’utilisation de l’IA dans la production des articles, en passant par la responsabilité en cas d’erreurs ou de biais dans les résultats automatisés. Les rédactions doivent établir des garanties pour la vie privée, la protection des sources et la traçabilité des décisions prises par l’IA, tout en respectant les directives organisationnelles et les contrôles d’accès techniques comme ceux que l’UT met en place [1][3][6].

Comment mesures technologiques et politiques se combinent

Les possibilités techniques de création et d’intégration d’agents (par ex. via Copilot Studio ou les intégrations de bots Teams) existent parallèlement à une série de mesures pratiques pour un déploiement sûr : configurations strictes de locataires, droits explicites d’installation pour les bots, et politiques claires concernant les applications externes et les autorisations — des mesures que des organisations comme les universités et les rédactions peuvent combiner pour tirer parti de l’IA sans courir de risques inutiles [3][4][5][1].

Ce que cela signifie pour les journalistes et le public

Pour les journalistes, cela implique une double mission : d’une part apprendre à utiliser des outils IA puissants offrant efficacité et nouvelles possibilités ; d’autre part appliquer des procédures rigoureuses et des protections techniques pour préserver la confidentialité des sources, la sécurité des données et la confiance du public. Le public et les sources doivent être informés lorsque l’IA est utilisée et quelles données sont conservées ou partagées, et les rédactions doivent conserver des traces d’audit afin que les décisions derrière et au sein des processus automatisés restent reproductibles [6][1][3].

Sources