Waarom AI in organisaties vastloopt – en hoe je dat voorkomt
Amsterdam, zaterdag, 29 november 2025.
De echte barrière voor AI-integratie is niet de technologie, maar de angst en onzekerheid onder medewerkers. Volgens onderzoek uit november 2025 is psychologische veiligheid de sleutel tot succesvolle AI-adoptie: organisaties waar mensen zich veilig voelen om vragen te stellen, fouten te maken en te leren, groeien sneller in 2026. Het is niet hoe slim de AI is, maar hoe veilig mensen zich voelen om ermee te werken. Interessant: organisaties die nu actief zijn in het bouwen van deze veiligheid zullen over een jaar de grootste voorsprong hebben – ook in sector als zorg, overheid en financiën. De waarde van een goede cultuur, transparantie en ethiek blijkt nu meer dan ooit essentieel.
Psychologische veiligheid: de onzichtbare sleutel tot AI-gebruik
De snelle vooruitgang in AI-technologie wordt niet belemmerd door gebrekkige software of hardware, maar door een dieper, menselijk obstakel: de angst voor verandering en het gebrek aan psychologische veiligheid binnen organisaties. Volgens een onderzoek van Danique Scheepers, adviseur diversiteit en inclusie met focus op AI-ethiek, is het niveau van psychologische veiligheid de belangrijkste randvoorwaarde voor een succesvolle AI-adoptie in 2026 [1]. De organisaties die nu actief zijn in het bouwen van veilige ruimten waar medewerkers vragen kunnen stellen zonder oordeel, fouten kunnen maken zonder straf en leren kunnen zonder schaamte, zullen binnen een jaar een blijvende voorsprong hebben op hun concurrenten [1]. Dit verband is niet hypothetisch: het onderzoek toont aan dat er een directe relatie is tussen het niveau van psychologische veiligheid en de snelheid waarmee organisaties kunnen leren en adaptief kunnen werken in de AI-tijdperk [1]. De kernvraag voor leidinggevenden richting 2026 luidt dan ook niet: ‘Hoe snel kunnen we AI implementeren?’, maar: ‘Kunnen onze medewerkers zich veilig genoeg ontwikkelen om in 2026 nog duurzaam inzetbaar te zijn?’ [1]
Van angst naar vertrouwen: hoe organisaties hun mensen kunnen ondersteunen
Voor veel medewerkers roept AI vragen op die niet technisch zijn, maar emotioneel: ‘Wat blijft er over van mijn functie?’, ‘Begrijp ik hoe ik met deze tools moet werken?’, ‘Wat als ik fouten maak?’, ‘Moet ik straks concurreren met een AI-agent?’ [1]. Deze onzekerheid leidt tot weerstand, verborgen fouten, gestagneerd leren en zelfs terugtrekking van medewerkers, ook al is de technologie beschikbaar [1]. Om dit te voorkomen, zijn vier acties essentieel: fouten zichtbaar en bespreekbaar maken, echte ondersteuning doorlopend inbouwen via buddy’s, coaches en leersprints, radicale duidelijkheid scheppen over veranderingen, en ontwikkeling voor iedereen toegankelijk maken [1]. Deze maatregelen zijn geen opt-in, maar een strategische noodzaak om de skillskloof die in 2026 de grootste uitdaging zal zijn, op te vullen [1]. Continu leren wordt een kernonderdeel van duurzaam werken, ondersteund door vangnetten zoals teamcoaches en interne deskundigen [1].
AI in de voorlichting: persoonlijk, toegankelijk en meetbaar
In de sector van voorlichting en publiekscommunicatie biedt AI nieuwe mogelijkheden om complexe informatie toegankelijk te maken voor diverse doelgroepen. Gepersonaliseerde informatievoorziening, zoals bij de kennisbank van DDMA, toont aan dat klantervaring in een AI-gebaseerde wereld blijft persoonlijk door de menselijke factor en betrokkenheid [2]. De nieuwe telemarketingwetgeving, waarbij vanaf 1 juli 2026 ook bestaande klanten een opt-in moeten geven, benadrukt het belang van relevante ervaringen boven kortingen [2]. Dit is een directe reactie op het verlangen naar vertrouwensrelaties en betrokkenheid in communicatie [2]. Chatbots voor publieke dienstverlening, zoals die in gemeenten worden getoetst via de driedaagse opleiding AI & Gemeente, helpen bij het efficiënter beantwoorden van vragen zonder technische voorkennis [3]. Deze toepassingen verhogen de bereikbaarheid, vooral voor mensen met beperkingen of die moeite hebben met bureaucratische taal [3]. AI-gestuurde voorlichtingscampagnes kunnen op maat worden gemaakt voor verschillende doelgroepen, met behulp van data-analyse om effectiviteit te meten en campagnes te optimaliseren [2][3].
Ethiek, privacy en verantwoording: de onmisbare vormgevers
De toepassing van AI in voorlichting brengt niet alleen voordelen, maar ook uitdagingen met zich mee. Privacy, inclusiviteit en betrouwbaarheid vormen cruciale randvoorwaarden. In Italië werd op 27 november 2025 een verbod uitgevaardigd tegen zes websites die AI-bots en deepfakes gebruiken voor financiële fraude, met behulp van overtuigende maar valse uitleg van financiële producten via AI-gegenereerde video’s en stemmen [4]. Deze actie, onderdeel van de operatie ‘Operation Phantom Ledger’, wijst op de groeiende dreiging van algoritmische misleiding in de publieke ruimte [4]. De Consob meldt dat deze websites al 17 miljoen euro aan schadeloosstellingen hebben opgehaald via AI-gegenereerde content [4]. In Nederland is de Europese Commissie op 19 november 2025 met het Digital Omnibus-pakket gekomen, dat wijzigingen bevat voor de AI Act en de cookiewet, waarmee de toepassing van AI in communicatie steeds sterkere regelgeving krijgt [2]. De nieuwe wetgeving voor telemarketing, die vanaf 1 juli 2026 geldt, vereist opt-in van bestaande klanten, wat de verantwoordelijkheid van organisaties voor ethische communicatie versterkt [2].
Leiderschap in de AI-tijdperk: van technologie naar empathie
Effectief leiderschap in de AI-éénheid vereist niet alleen technische vaardigheden, maar vooral ambidexteriteit: zowel het begrijpen van wat AI kan en niet kan, als het voortdurend inzetten op ethiek, empathie en menselijke waarden [5]. Caroline Tervoort-Visser benadrukt dat AI de focus van werk verlegt van transactioneel en repeterend naar interactie en interpretatie, wat diep menselijke vaardigheden vereist [5]. ‘Leiders moeten zelf ook aan de bak!’ – een directe quote uit haar toespraak op het Human Capital congres [5]. Het is niet genoeg dat leidinggevenden het goede voorbeeld geven; het moet zichtbaar zijn in de dagelijkse besluitvorming [5]. Vanessa Jeurissen-Kohn wijst op het belang van een ‘tone at the top’ en benadrukt dat non-compliance vandaag vooral een menselijk, cultureel en gedragsmatig risico is, niet een financieel [6]. Zij waarschuwt dat als de top niet open praat over fouten, dilemma’s en keuzes, compliance blijft een apart agendapunt en niet onderdeel van de strategische besluitvorming [6].