Kun je nog zien wat echt is? Dit is de ongemakkelijke waarheid over AI-beelden in Nederland
Nederland, dinsdag, 18 november 2025.
Laat je afbeeldingen op social media soms vreemd voelen? Het is geen misvatting: 71% van de Nederlanders kan geen verschil meer maken tussen een echte foto en een volledig door AI gegenereerde afbeelding. Het meest verontrustende? Van alle AI-beelden werd 81% als echt beoordeeld. Dit wijst op een diepe verandering in hoe we informatie vertrouwen — en waarom mediawijsheid nu essentiële burgerschap is. In een tijd waarin AI ons dagelijks omringt, vraagt dit niet alleen om nieuwe vaardigheden, maar ook om transparantie in de manier waarop beelden worden gemaakt en verspreid. Wat betekent dit voor jouw vertrouwen in wat je ziet?
De onzichtbare grens tussen echt en gefakeerd
Sinds vandaag is het voor de meerderheid van de Nederlandse bevolking onmogelijk om met zekerheid te bepalen of een beeld echt is of door kunstmatige intelligentie is gegenereerd. Volgens een onderzoek van Norstat uit 2025-11-17 kunnen 71 procent van de Nederlanders geen onderscheid maken tussen een echte foto en een AI-gegenereerde afbeelding [1]. In het onderzoek werden acht afbeeldingen getoond, waarvan vier waren gegenereerd door AI. Van deze AI-beelden werd 81 procent als echt beoordeeld — een cijfer dat de grens tussen werkelijkheid en simulatie doet vervagen [1]. Dit verlies van herkenning is niet beperkt tot een bepaalde leeftijdsgroep: ook onder jongeren tussen 18 en 29 jaar blijkt een significante groep moeite te hebben, met 59 procent die het lastig vindt om AI-beelden te herkennen [1]. De technologie achter deze beelden is zo geavanceerd dat ze niet alleen de visuele esthetiek volgen, maar ook de verwachtingen van de kijker, terwijl echte foto’s vaak onvolkomenheden vertonen zoals onregelmatige belichting of vreemde schaduwen [1]. Deze technologische evolutie is zo snel dat twee derde van de respondenten verwachten dat het binnen vijf jaar zeer moeilijk zal zijn om echte afbeeldingen te onderscheiden van AI-content [1].
De wapenwedloop tussen AI-creatie en -detectie
Terwijl AI-technologieën steeds beter worden in het genereren van overtuigende afbeeldingen, ontwikkelen zich tegelijkertijd tools om deze te detecteren. De meeste detectietools werken op basis van het opsporen van kleine anomaliën in digitale beelden die menselijke ogen niet opmerken, zoals onregelmatige pixelpatronen, inconsistenties in lichtbronnen, of het ontbreken van natuurlijke ruwe details [1]. Deze technieken zijn gebaseerd op machine learning-modellen die zijn getraind op grote datasets van zowel echte als AI-gegenereerde afbeeldingen. Echter, de effectiviteit van deze tools blijkt beperkt: onderzoek toont aan dat zelfs geavanceerde detectiealgoritmes in sommige gevallen misleid kunnen worden wanneer AI-modellen worden geïntegreerd met post-processingtechnieken die de digitale ‘vloek’ van een beeld verbergen [1]. De wapenwedloop is dus in volle gang: elke verbetering in generatie wordt gevolgd door een nieuwe detectie-technologie, maar de creatieve capaciteit van AI groeit sneller dan de detectiecapaciteit van bestaande systemen [1]. Dit leidt tot een constante achterstand, waarbij detectie tools vaak pas na het uitbrengen van een AI-beeld kunnen worden geactualiseerd [1].
Transparantie als essentieel middel
In het licht van deze ontwikkelingen benadrukt Norstat dat duidelijkheid over het gebruik van AI in communicatie een belangrijke stap is om verwarring te verminderen [1]. De commerciële directeur van Norstat, Kjell Massen, wijst erop dat transparantie in het productieproces van beelden — bijvoorbeeld door een duidelijke watermerk of metadata — kan bijdragen aan het herkennen van AI-gegenereerde inhoud [1]. Deze aanpak is inmiddels opgepakt in diverse sectorale richtlijnen. Bijvoorbeeld bij het Nederlandse Instituut voor Culturele Erfgoed (NICE), waar de AI-reconstructies voor de serie ‘Straten van Toen’ worden uitgevoerd, wordt gebruik gemaakt van specifieke hulplijnen in de beelden om de positie van personen en de context van het beeld te markeren [2]. Hoewel de serie oorspronkelijk in begin 2026 zou debuuteren, is het debuut vertraagd en is er op dit moment geen officiële release datum bekend [2]. De techniek achter de reconstructies maakt gebruik van generatieve AI-modellen die zijn getraind op 12.000 historische platen, kaarten en beschrijvingen uit de periode 1500–1800, gecombineerd met digitale collecties van het Rijksmuseum en het Nationaal Archief [2]. Dit laat zien dat ook in historische reconstructie transparantie en bronvermelding essentieel zijn voor de geloofwaardigheid van het resultaat [2].
De bredere impact op veiligheid en vertrouwen
De verwarrende effecten van AI-afbeeldingen gaan verder dan alleen het herkennen van foto’s; ze raken ook het vertrouwen in digitale informatie. Een onderzoek van Rubrik Zero Labs toont aan dat organisaties wereldwijd een toenemende kloof ervaren tussen het aantal identiteitsgerelateerde aanvalsmogelijkheden en hun herstelvermogen, vooral door de groei van AI-agents op de werkvloer [3]. Deze agents creëren extra identiteiten die moeten worden beheerd, wat de beveiligingsteams onder druk zet [3]. IT- en securityleiders beschouwen identiteitsaanvallen als een van de grootste risico’s, en veel organisaties overwegen extra personeel aan te nemen of te switchen naar andere Identity and Access Management-aanbieders [3]. Bij ransomware-incidenten gaf een groot deel van de betrokken organisaties aan losgeld te hebben betaald, wat wijst op een afnemend vertrouwen in herstelcapaciteit [3]. De kloof tussen aanvalsmogelijkheden en herstel is dus niet alleen technisch, maar ook psychologisch: organisaties vrezen dat ze niet kunnen terugkeren naar een veilige staat na een incident [3]. Dit heeft gevolgen voor de maatschappelijke vertrouwenssfeer, waarin de grens tussen echt en gefakeerd steeds vager wordt [1].
Verantwoorde innovatie en de rol van de samenleving
De snelle opkomst van AI-gegenereerde content dwingt maatschappelijke instellingen, zoals bibliotheken en openbare informatievoorzieningen, om een sterkere rol te spelen in het bevorderen van mediawijsheid [1]. De bevindingen van Norstat onderstrepen dat er urgentie is om bewustwording te creëren bij alle groepen — van scholieren tot senioren — over hoe AI beelden produceert en hoe deze kunnen worden herkend [1]. Dit vereist niet alleen technologische oplossingen, maar ook educatieve initiatieven die kritisch denken cultiveren. In Nederland zijn organisaties al actief in dit domein: bijvoorbeeld de Cronos Groep, die tijdens het evenement ‘Hack The Future’ meer dan 1.000 studenten betrokken heeft om toekomstige technologische uitdagingen te bespreken [4]. Daarnaast stelt SAP dat de waarde van AI zit in de verbinding met bedrijfsprocessen, niet in het technologische knutselen zelf [4]. Dit suggereren dat transparantie en verantwoord gebruik van AI cruciaal zijn, niet alleen binnen techbedrijven, maar ook in het publieke domein. De uitgaven aan generatieve AI-modellen in Europa zullen in 2026 naar verwachting met 78,2% stijgen, wat wijst op een massale integratie van deze technologieën in de economie [4]. Het is daarom essentieel dat de samenleving niet alleen het gebruik van AI beheerst, maar ook de verantwoordelijkheid voor de kwaliteit en authenticiteit van de informatie die ze ontvangt [4].