AIJB

Waarom AI niet neutraal is — en hoe organisaties dat verantwoord in de praktijk brengen

Waarom AI niet neutraal is — en hoe organisaties dat verantwoord in de praktijk brengen
2025-11-14 voorlichting

Amsterdam, vrijdag, 14 november 2025.
AI is geen objectieve machine, maar een spiegel van menselijke keuzes, waarden en belangen. Marc van Meel, expert in ethiek en governance, laat zien dat elke algoritme wordt gevormd door de data die wordt ingevoerd, de doelen van de ontwikkelaars en de culturele context waarin het wordt ingezet. Het meest verbazingwekkende feit? Als een algoritme faalt, is er geen technische fout — wel een morele keuze die werd gemaakt. Van de vraag wie verantwoordelijk is tot de implicaties van data op gelijkheid en toegang tot kansen: vanaf nu is het niet langer alleen een technisch probleem, maar een sociaal en ethisch dilemma dat elke organisatie moet aangaan. Met concrete inzichten en reflectievragen, helpt hij teams en leiders bewuste keuzes te maken in de digitale transitie. Het gaat niet om technologie te haten of te vrezen — maar om er bewust mee om te gaan.

AI als spiegel van menselijke keuzes: Waarom technologie nooit neutraal is

AI is geen objectieve technologie, maar een uitdrukking van menselijke intenties, belangen en waarden. Marc van Meel benadrukt dat algoritmes worden gevormd door de data die wordt verzameld, de doelen van ontwikkelaars, en de culturele normen waarin de technologie wordt ingezet [2]. Het is een fundamentele misvatting te denken dat AI neutraal is: elk systeem draagt de onzichtbare hand van de mensen die het ontwerpen, trainen en toepassen [2]. Deze inzichten zijn niet abstracte filosofie, maar praktische realiteit die organisaties moeten aanvaarden bij de implementatie van AI. Vanaf het moment dat een dataset wordt geselecteerd tot het moment dat een besluit wordt genomen, worden keuzes gemaakt die direct invloed hebben op eerlijkheid, toegankelijkheid en vertrouwen. Vanaf vandaag is het dus niet langer alleen een technisch probleem, maar een ethisch en sociaal dilemma dat elke organisatie aangaat [2].

Verantwoorde innovatie in de praktijk: Hoe organisaties bewuste keuzes maken

Organisaties die AI verantwoord willen inzetten, moeten beginnen met reflectie op fundamentele vragen: wie is verantwoordelijk als een algoritme faalt? Welke waarden wil je als organisatie borgen? Hoe neem je je team mee in verandering? En wat betekent het als data bepaalt wie er kansen krijgt en wie niet? [2] Marc van Meel helpt teams en leiders om deze vragen niet te omzeilen, maar als uitgangspunt te nemen bij het ontwerpen van AI-toepassingen [2]. Zijn benadering richt zich op het integreren van ethiek, governance en menselijke maat in strategie, cultuur en besluitvorming, zodat technologie niet alleen efficiënt is, maar ook eerlijk, veilig, slim en mensgericht [2]. De workshops die hij aanbiedt, zoals ‘AI in de praktijk’ en ‘Ethische en veilige AI’, bevatten concrete tools zoals fairness-analyses, risicomatrices, governance-modellen en stakeholdermapping om bewuste keuzes te ondersteunen [1]. Deze tools zijn ontwikkeld voor teams in diverse sectoren, inclusief overheid, zorg, onderwijs en financiële sector, en richten zich op het opbouwen van veilige en haalbare AI-toepassingen [1].

AI in voorlichting en publiekscommunicatie: Van gepersonaliseerde informatie tot effectiviteitsmeting

In de sector van voorlichting en publiekscommunicatie wordt AI al ingezet om complexe informatie toegankelijk te maken voor diverse doelgroepen. Gepersonaliseerde informatievoorziening maakt gebruik van AI om inhoud aan te passen aan individuele voorkeuren, leeftijd, taalvaardigheid en technologische vaardigheden, wat de bereikbaarheid van informatie aanzienlijk verhoogt [1]. Chatbots voor publieke dienstverlening, zoals die in gemeenten en overheidsinstanties, helpen burgers bij het vinden van informatie, het aanvragen van documenten en het oplossen van eenvoudige vragen — vaak 24/7 en zonder wachttijden [1]. AI-gestuurde voorlichtingscampagnes analyseren gedrag, taalgebruik en interactiepatronen om campagnes te optimaliseren en de effectiviteit te meten. Door data te analyseren, kunnen organisaties vaststellen welke boodschappen goed aankomen, welke kanalen het meest effectief zijn, en hoe informatie overdracht kan worden verbeterd [1]. Deze technieken zijn al toegepast in verschillende sectoren, waarbij organisaties gebruikmaken van AI om doelgroepen beter te bereiken, de kwaliteit van de communicatie te verhogen en de terugkoppeling van het publiek te vergroten [1].

Risico’s en uitdagingen: Privacy, inclusiviteit en betrouwbaarheid

Ondanks de voordelen brengt AI in voorlichting ook risico’s met zich mee, vooral op het gebied van privacy, inclusiviteit en betrouwbaarheid. Bij het verzamelen van persoonlijke gegevens voor personalisatie is er een risico op misbruik of ongeoorloofde toegang, vooral wanneer data niet adequaat worden beveiligd of onvoldoende transparant worden gebruikt [1]. Inclusiviteit is een andere uitdaging: als AI-systemen worden getraind op data die bepaalde groepen overwegen of uitsluiten, kunnen algoritmes discriminerende patronen versterken in plaats van te verbeteren [1]. Dit resulteert in ongelijke toegang tot kansen, zoals bij toegang tot informatie, diensten of financiële producten. Betrouwbaarheid is een derde kritische factor: onjuiste of verouderde informatie die door AI wordt verspreid, kan misleiding veroorzaken en vertrouwen ondermijnen, vooral in kritieke situaties zoals bij publieke gezondheid of calamiteiten [1]. Marc van Meel benadrukt dat organisaties niet kunnen afwachten tot er een incident plaatsvindt, maar moeten proactief werken aan governance en verantwoording [2]. Dit betekent het opzetten van transparante AI-beleidsregels, het uitvoeren van bias-analyses en het betrekken van diverse stakeholders bij de ontwikkeling van AI-toepassingen [1].

Van theorie naar toepassing: Concrete voorbeelden van verantwoorde AI in organisaties

Diverse organisaties in Nederland en daarbuiten gebruiken de inzichten van Marc van Meel om AI verantwoord in te zetten. In de overheid worden AI-systemen gebruikt voor het voorspellen van sociale behoeften en het optimaliseren van dienstverlening, waarbij ethische overwegingen centraal staan [1]. In de zorg wordt AI ingezet om patiëntenbegeleiding te personaliseren, maar alleen wanneer dit gebeurt met toestemming, transparantie en een duidelijke verantwoordelijkheidsstructuur [2]. In het onderwijs helpen AI-tools leerlingen met diverse leerstijlen om de stof beter te begrijpen, terwijl leerkrachten worden ondersteund met feedback en evaluatie [1]. In de financiële sector worden AI-algoritmes gebruikt voor kredietbeoordeling, maar met een nadruk op fair lending en het voorkomen van discriminerende patronen [1]. Deze voorbeelden tonen aan dat AI niet alleen technologisch haalbaar is, maar ook ethisch verantwoord wanneer het wordt geïntegreerd in een algehele governance-strategie die de menselijke maat niet uit het oog verliest [2].

Bronnen