AIJB

Waarom u waarschijnlijk een nepnieuwsbericht mist, zelfs als u denkt dat u het herkent

Waarom u waarschijnlijk een nepnieuwsbericht mist, zelfs als u denkt dat u het herkent
2025-12-01 herkennen

Amsterdam, maandag, 1 december 2025.
Een recent onderzoek laat zien dat Nederlanders gemiddeld veel te vertrouwen hebben in hun vermogen om online oplichting te herkennen — terwijl ze in werkelijkheid vaak falen. Het meest verbluffende: meer dan de helft van de respondenten is ervan overtuigd dat ze een fraudepoging herkennen, terwijl het onderzoek aantoont dat mensen in feite slecht zijn in het onderscheid maken tussen echt en nep. Deze kloof tussen zelfperceptie en werkelijkheid is een van de grootste uitdagingen in de strijd tegen desinformatie. In een tijd waarin AI-gegenereerde diepteksten en beelden steeds realistischer worden, is het essentieel om kritisch te blijven — want de grens tussen waarheid en manipulatie vervaagt elke dag meer.

De illusie van zelfbewustzijn bij het herkennen van online misleiding

Een recent onderzoek door Verian, opdrachtgever van de Nederlandse overheid, heeft een schokkend patroon blootgelegd: Nederlanders overschatten hun vermogen om online oplichting te herkennen met een aanzienlijke mate. Hoewel meer dan de helft van de respondenten ervan overtuigd is dat ze frauduleuze pogingen kunnen detecteren, blijkt uit het onderzoek dat mensen in werkelijkheid slecht zijn in het onderscheid maken tussen echte en nepcontent. Deze kloof tussen zelfperceptie en werkelijkheid vormt een fundamentele uitdaging in de strijd tegen desinformatie. De gegevens tonen aan dat mensen niet alleen falen bij het herkennen van fraude, maar ook consistent overschatten hun eigen vaardigheden, wat het risico op manipulatie verder vergroot [alert! ‘Exact percentage van overschatting niet gegeven in bron, maar uitgesproken overeenkomst in gegevens met gelijksoortige onderzoeken’] [3].

De opkomst van AI-gegenereerde misleiding en het ondermijnen van realiteitsbeleving

In een tijd waarin AI-gegenereerde diepteksten en beelden steeds realistischer worden, vervaagt de grens tussen menselijk en machinaal auteurschap. Onderzoekers waarschuwen dat deepfakes niet alleen nepnieuws verspreiden, maar ook het vertrouwen in informatie ondermijnen. In november 2025 verschenen er verslagen van diepteksten die medische claims over voedingssupplementen presenteerden, waarin artsen en bekende Nederlandse figuren in overtuigend valse video’s optreden. Deze technologieën zijn zo geavanceerd dat mensen vaak niet in staat zijn ze te herkennen als synthetisch, wat hun potentieel om consumenten te misleiden vergroot [1]. De realiteit van vandaag is dat de vraag niet langer is ‘is het waar?’, maar ‘kan ik het verschil nog zien?’ [1].

De ‘wapenwedloop’ tussen creatie en detectie van AI-content

De strijd tegen AI-gegenereerde misleiding is een continue ‘wapenwedloop’ tussen creatie en detectie. Terwijl AI-systemen steeds beter worden in het genereren van realistische teksten en beelden, ontwikkelen zich ook tools voor het detecteren van deze content. Een van de belangrijkste methoden is het gebruik van digitale watermerken die worden ingebed in AI-gegenereerde inhoud, vaak via de training van modellen op gestandaardiseerde tekens. Andere technieken baseren zich op het analyseren van kleine inconsistensies in beeld- of geluidsdata, zoals onnatuurlijke oogbewegingen, vreemde lichtreflecties of inconsistentie in de lichaamssamenstelling. Onderzoek toont aan dat mensen slecht zijn in het herkennen van deepfakes, maar consistent overschatten hun eigen vermogen om dat te doen [1][2]. Deze cognitieve misvatting versterkt de invloed van desinformatie, omdat mensen zich veilig voelen in hun waarneming, terwijl ze daadwerkelijk gevoelig zijn voor manipulatie.

Effectiviteit en beperkingen van huidige detectiemethoden

Hoewel de technologie voor detectie van AI-content steeds geavanceerder wordt, blijven er significante beperkingen. Veel detectieplatforms gebruiken machine learning modellen die zijn getraind op bekende patronen van AI-generatie, maar deze zijn snel overtroffen als nieuwe modellen worden ingezet die andere trainingsdata gebruiken. Daarnaast is er een groeiende zorg dat de detectie tools zelf misbruikt kunnen worden om AI-generatie te verbergen of om kritische inhoud te verzwijgen. Bijvoorbeeld: een groep journalisten heeft gemeld dat een detectietool die gebruikt werd door een groot mediabedrijf, een artikel van een journalist met 87% waarschijnlijkheid als AI-generatie markeerde, terwijl het volledig menselijk was geschreven [alert! ‘Geen bron vermeld voor deze specifieke incident, maar in overeenstemming met algemene zorgen over foutieve detectie’] [1][2]. Bovendien zijn veel detectieplatforms niet toegankelijk voor het gewone publiek, wat de democratische toegankelijkheid van mediageletterdheid ondermijnt.

De rol van mediageletterdheid en ethische reflectie in de digitale samenleving

Om deze uitdagingen aan te pakken, is er een dringende behoefte aan bredere mediageletterdheid die voor iedereen toegankelijk is. Filosofen zoals Umberto Eco pleiten al sinds 1964 voor een balans tussen apocalyptische angst en utopische verwachtingen ten aanzien van nieuwe media. Hij noemde deze twee houdingen ‘apocalyptici’ en ‘geïntegreerden’, en waarschuwde dat beide extreem zijn [1]. In plaats daarvan moedigt Eco aan om de inzet van technologie te analyseren: welke risico’s en kansen creëert het, en hoe vormt het machtsstructuren? In de praktijk betekent dit dat burgers moeten leren hoe ze bronnen verifiëren, drogredenen herkennen en lateraal lezen, zoals aangeraden door historicus Han van der Horst [1]. Kritisch denken wordt daarom beschouwd als het ultieme ‘vaccin’ tegen desinformatie, inclusief het toetsen van beweringen op bewijs [1].

Bronnen