UT scherpt regels aan om AI-bots uit Teams-vergaderingen te weren
enschede, woensdag, 29 oktober 2025.
Vanaf 3 november voert de Universiteit Twente strengere toegangsregels in voor Microsoft Teams-vergaderingen om de deelname van ongewenste AI-bots, zoals Fireflies, te voorkomen. Externe deelnemers moeten nu eerst in de ‘lobby’ wachten voordat ze worden toegelaten. Deze maatregel is genomen omdat AI-bots gevoelige informatie kunnen opslaan en bestanden toegankelijk kunnen maken, wat grote veiligheidsrisico’s met zich meebrengt.
Waarom de Universiteit Twente regels aanscherpt
De Universiteit Twente voert vanaf 3 november strengere toegangsregels in voor Microsoft Teams-vergaderingen: externe deelnemers komen eerst in de ‘lobby’ en worden daarna pas toegelaten, met als doel ongewenste AI-bots zoals Fireflies te weren en zo het lekken van gevoelige informatie te beperken [1][2]. Deze stap volgt op meldingen van UT-medewerkers die een AI-bot tijdens een meeting zagen verschijnen, en op zorgen dat bots kunnen meekijken, gesprekken opnemen en automatisch transcripties of notulen versturen naar externe ontvangers [1][2].
Welke bots en risico’s worden genoemd
De UT signaleert dat bots vaak van buiten Europa komen en herkenbaar zijn aan namen als Notetaker, Fireflies, Otter.ai, Bot, VA of Assistant; sommige bootsen zelfs echte deelnemers na of melden zich automatisch aan voor toekomstige meetings, waarmee ze een blijvend risico op het ontsluiten van documenten vormen [1][2][5]. Volgens de UT kunnen bots niet alleen gesprekken transcriberen maar ook via e-mails toegang tot bestanden beschermen of juist openbreken, waarna die data gebruikt kan worden om AI-modellen te trainen of verder te analyseren [1][2].
De technologie achter vergadermonitors en AI-agents
Moderne AI-agents en ‘copilots’ worden met end-to-end platforms gebouwd die conversaties verwerken, acties automatiseren en integreren met kantoorsoftware zoals Microsoft 365; Microsoft Copilot Studio is een voorbeeld van zo’n platform waarmee organisaties eigen agents kunnen maken die vragen beantwoorden, workflows automatiseren en zelfstandig kunnen opereren binnen Microsoft 365-omgevingen [3]. Integraties tussen bots en Teams vereisen vaak API-toegang (bijvoorbeeld Microsoft Graph) en specifieke permissies zodat agents kalenderitems kunnen lezen of proactieve meldingen kunnen sturen — functionaliteit die ook misbruikt kan worden als onvoldoende wordt gecontroleerd wie bots mag installeren of uitnodigen [4][3].
Hoe journalisten AI gebruiken: een concreet voorbeeld
In de journalistiek worden vergelijkbare AI-agents ingezet om gesprekken te transcriberen, kerncitaten te extraheren, feitelijke claims te controleren en routinetaken zoals samenvattingen of bronnentoegang te automatiseren; bedrijven die betrouwbare domeinspecifieke chatbots bouwen tonen hoe live data, audit trails en integratie met bronnen (bijv. documenten en databases) nodig zijn om bruikbare en navolgbare antwoorden te geven — een architectuur die ook toepasbaar is op newsroom-tools voor interviewtranscriptie en realtime factchecking [6].
Voordelen voor nieuwsproductie en -consumptie
AI kan redacties helpen sneller te werken: automatische transcriptie verkort het handwerk na interviews, samenvattingen versnellen beeldvorming voor redactievergaderingen, en geautomatiseerde checks kunnen foutieve claims eerder opsporen; daarnaast zorgen integratie en logging voor audit trails en betere reproduceerbaarheid van redactionele beslissingen, wat relevant is voor betrouwbaarheid en verantwoording richting lezers [6][3].
Potentiële nadelen en operationele risico’s
Risico’s omvatten onbedoelde datalekken (bijvoorbeeld wanneer transcripties of notulen automatisch naar externe services worden gestuurd), verkeerde of ongecontroleerde training van modellen op vertrouwelijke gesprekken, en afhankelijkheid van externe providers die onder andere jurisdicties vallen — factoren die de integriteit van onderzoeksjournalistiek kunnen ondermijnen als guardrails ontbreken [1][2][6][5].
Ethische overwegingen voor redacties
Ethische kwesties reiken van toestemming van bronnen voor opname en gebruik van data, transparantie over wanneer AI is ingezet in productie van verhalen, tot verantwoording bij fouten of bias in geautomatiseerde outputs. Redacties moeten waarborgen ontwikkelen voor privacy, bronbescherming en traceerbaarheid van AI-beslissingen, en daarbij voldoen aan organisatorische richtlijnen en technische toegangscontroles zoals die de UT nu invoert [1][3][6].
Hoe technologische en beleidsmatige maatregelen samenkomen
Technische mogelijkheden om agents te bouwen en te integreren (bijv. via Copilot Studio of Teams-botintegraties) bestaan naast een reeks praktische stappen voor veilige inzet: strikte tenant-instellingen, expliciete installatierechten voor bots, en bewust beleid rond externe apps en toestemming — maatregelen die organisaties zoals universiteiten en nieuwshuizen kunnen combineren om de voordelen van AI te benutten zonder onnodige risico’s te lopen [3][4][5][1].
Wat dit betekent voor journalisten en publiek
Voor journalisten betekent dit een dubbele opdracht: enerzijds leren werken met krachtige AI-hulpmiddelen die efficiëntie en nieuwe mogelijkheden bieden; anderzijds rigoureuze procedures en technische safeguards toepassen om bronbescherming, dataveiligheid en publieke vertrouwen te waarborgen. Publiek en bronnen moeten geïnformeerd worden over wanneer AI is gebruikt en welke data wordt bewaard of gedeeld, en redacties dienen auditsporen te bewaren zodat beslissingen achter en binnen geautomatiseerde processen reproduceerbaar blijven [6][1][3].