Waarom een popster én een Shakespeare-geleerde elkaar helpen begrijpen
Amsterdam, woensdag, 3 december 2025.
In een onverwachte kruising van kunst en wetenschap ontdekt professor Elly McCausland dat Taylor Swifts songs meer gemeen hebben met klassieke literatuur dan men denkt. Haar boek ‘Swifterature’ toont aan dat Swifts autobiografische verhalen, vol emoties en literaire technieken, net zoals de werken van Shakespeare, een diepe kijk bieden op menselijke ervaring. De meest verbazingwekkende waarheid? Dat wat veel mensen als ‘oppervlakkig’ beschouwen, in feite een rijke bron is van introspectie en sociale reflectie. McCausland pleit voor een bredere definitie van literatuur – waarin popcultuur net zo serieus wordt genomen als een middeleeuwse epische gedachte. En dat, misschien, is juist het waarom: om mensen weer te laten voelen dat verhalen, hoe modern ook, altijd over onszelf gaan.
Het verhaal dat je niet kunt zien: hoe AI nepnieuws creëert en verspreidt
In een tijd waarin informatie snel wordt gemaakt en gedeeld, speelt kunstmatige intelligentie (AI) een dubbelrol: zowel als maker als bestrijder van nepnieuws. Een schokkend voorbeeld uit de praktijk dateert van 2 december 2025, toen Google Search een AI-gegenereerd overzicht liet verschijnen waarin de Nederlandse cabaretière Niels van der Laan werd voorgesteld als getrouwd met actrice Eva Crutzen en als vader van een fictieve dochter [2]. Deze fout was gebaseerd op een AI-hallucinatie, waarbij het model onjuiste gegevens produceerde op basis van een combinatie van verouderde, ongecontroleerde en soms zelfs foute bronnen [2]. De claim werd direct geïntegreerd in zoekresultaten zonder bronvermelding of fact-checking, wat de gebruiker verontrustend veel vertrouwen in de waarheid van de informatie gaf [2]. Deze vorm van ‘citogenesis’ – het genereren van vermeende feiten die later als waarheid worden geaccepteerd – is een groeiend gevaar, omdat AI-modellen niet alleen fouten maken, maar ook hun eigen fouten als feiten voeden in latere generaties [2]. De fout in de Google AI-antwoordfunctie was pas opgemerkt door gebruikers, die het overzicht via LinkedIn deelden als satirisch commentaar op de onbetrouwbaarheid van AI-gebaseerde informatie [2]. Zelfs nadat Google het correcte feit bevestigde – dat Van der Laan niet getrouwd is, maar wel een gezin heeft dat hij bewust buiten de publiciteit houdt – bleef het misverstand in bepaalde digitale ecologische systemen voortbestaan [2]. De kern van het probleem ligt niet bij de ‘hallucinaties’ zelf, maar bij de kwaliteit van de trainingdata waarop de AI is opgebouwd: als de basisdata onvolledig, verouderd of manipulatief zijn, is het resultaat onvermijdelijk verkeerd [2]. Dit leidt tot een ‘ever-degrading loop’ waarbij foute AI-uitvoer opnieuw wordt gebruikt om nieuwe AI-gegevens te trainen, waardoor de kwaliteit van informatie steeds verder afneemt [2]. In een ander geval werd AI gebruikt om een foute criminele identiteit te creëren, waarbij het model een ‘fantasie-moordenaar’ uit de lucht trok zonder enige basis in werkelijkheid [2]. Deze voorbeelden tonen aan dat de dreiging van AI-generatie nepnieuws niet beperkt is tot politieke manipulatie of campagnes, maar ook op een persoonlijke, emotionele en zelfs juridische schaal kan uitmonden.
Waarom de publieke omroep in een crisis verkeert: bezuinigingen en verlies van vertrouwen
De Nederlandse publieke omroep staat onder een ongekende druk, vooral door de combinatie van bezuinigingen en de opkomst van AI-generatie nepnieuws. Op 2 december 2025 kondigde de EO aan dat het geen nieuwe documentaires meer zal maken als gevolg van budgetreducties [1]. Deze beslissing, die sindsdien in werking is, betekent een ernstige beperking van een vorm van journalistiek die wordt beschouwd als ‘één van de meest waarachtige vertelvormen in de massacommunicatie’ [1]. Documentaires, vooral die gemaakt worden in samenwerking met de christelijke zuil en in regio’s zoals de Bijbelbelt, bieden kritische, kwetsbare en diepe verhalen die van binnenuit verteld worden [1]. Deze unieke toegang tot specifieke gemeenschappen en perspectieven is nu in gevaar, omdat de financiering van documentaires grotendeels afhankelijk is van aparte fondsen die niet meer beschikbaar zijn na de bezuinigingen [1]. De essentie van de publieke omroep – ‘kwalitatieve massacommunicatie van, voor en door heel Nederland’ – lijkt op het punt te staan om te verdwijnen [1]. Geertjan Lassche, filmmaker en onderzoeksjournalist, stelt in een opinieartikel dat het publiek niet wordt gediend door deze bezuinigingen, en vraagt zich af: ‘Kortom, wie is hier nu mee gediend?’ [1]. De afwezigheid van diepe, onderzochte, kritische verhalen maakt de publieke omroep kwetsbaarder voor de uitbarsting van AI-generatie nepnieuws, waarbij kleine, plausibele fouten – ‘small hallucinations’ – moeilijk te detecteren zijn [2]. Deze subtielheid maakt het voor het publiek bijna onmogelijk om te onderscheiden wat waar is en wat gefakeerd is, zeker wanneer de informatie wordt geïntegreerd in zoekresultaten of sociale media zonder broncontrole [2]. De combinatie van financiële beperkingen en technologische disruptie maakt het voor de omroep onmogelijk om haar traditionele rol te vervullen als waarborg van betrouwbaarheid in een tijd van informatieoverload [1]. Zonder documentaires verdwijnt een essentieel instrument van kritische reflectie en maatschappelijke overtuiging.
AI in de praktijk: hoe grote bedrijven de informatievoorziening beïnvloeden
De invloed van AI op de informatievoorziening wordt niet alleen bepaald door technologische vooruitgang, maar ook door de strategische besluiten van grote technologiebedrijven. OpenAI heeft in reactie op concurrentie, vooral van Google, ‘code rood’ uitgeroepen en besloten andere diensten uit te stellen, waaronder zijn shopping-assistent en advertenties [2]. Deze beslissing wijst op de financiële druk die het bedrijf ervaart, met ChatGPT als een ‘bodemloze put’ van kosten die niet worden gedekt door abonnementen, zelfs niet bij betaalde Pro-gebruikers [2]. In tegenstelling daarmee heeft Google een groot concurrentievoordeel door de integratie van AI in zijn eigen producten, zoals Google Search, waarin AI-antwoorden direct worden weergegeven met geïntegreerde advertenties [2]. Deze oplossing biedt gebruikers een directe, snel toegankelijke informatievoorziening, maar vermindert de noodzaak om naar andere platforms zoals ChatGPT te gaan [2]. De consequentie is een afname van zoekhits voor Google zelf, omdat AI-samenvattingen voldoende informatie bieden zonder dat de gebruiker de oorspronkelijke bron hoeft te bezoeken [2]. Microsoft en Google implementeren AI dwingend in hun producten, zoals Teams, Office 365 en Google Workspace, wat een ‘winner takes all’-dynamiek creëert waarbij de meeste gebruikers binnen één ecosysteem blijven [2]. Deze strategie versterkt de positie van Google en Microsoft, die ook eigen datacenters en zelf ontworpen chips (TPUs) hebben, terwijl OpenAI hardware moet huren van Amazon, Microsoft of Google [2]. De afhankelijkheid van NVIDIA voor AI-chips blijft een kwetsbaarheid, maar nieuwe microarchitecturen zoals de Rubin-processor, die binnenkort zal worden gepresenteerd, kunnen deze afhankelijkheid verminderen [2]. De huidige AI-bubbel wordt gezien als ‘too big to fail’, met gevaarlijke financiële gevolgen voor pensioenfondsen, banken en overheden als de markt instort [2]. De kringloop van financiële investeringen tussen OpenAI, NVIDIA en cloudproviders wordt beschreven als een ‘circular funding’ systeem dat de beurswaarde künstelijk opblaast [2]. Deze dynamiek versterkt de macht van een paar grote spelers en vermindert de diversiteit in AI-ontwikkeling, wat op de lange termijn de kwaliteit van informatie en het vertrouwen in AI vermindert [2].
De kracht van kwalitatieve journalistiek: waarom documentaires niet vervangen kunnen worden
Documentaires zijn geen vorm van entertainment, maar een vorm van kritische, onderzochte en diepe journalistiek die een unieke rol speelt in de maatschappij. In Nederland heeft de EO een unieke toegang tot specifieke gemeenschappen, zoals de christelijke zuil en de regio van de Bijbelbelt, waarbij verhalen van binnenuit kunnen worden verteld – kwetsbaar, kritisch en authentiek [1]. Deze diepe verhalen, die soms jaren duren om te maken, zijn gebaseerd op langdurige samenwerking, vertrouwensrelaties en een diepe inzicht in culturele contexten [1]. De afwezigheid van deze vorm van journalistiek na de bezuinigingen van de EO betekent het verlies van een essentieel instrument voor maatschappelijke reflectie en vertrouwen [1]. De publieke omroep fungeert niet alleen als informatievoorziening, maar als waarborg van betrouwbaarheid in een AI-doorsette samenleving [1]. Wanneer AI-modellen informatie genereren zonder broncontrole, zonder diepgang en zonder ethische verantwoordelijkheid, is de rol van de publieke omroep als kritische balans essentieel [1]. De meeste AI-modellen zijn gebaseerd op een mix van goede en slechte bronnen, waardoor foutieve of verouderde informatie wordt geaccepteerd als feit [2]. Bijvoorbeeld: een AI kan een oude, onjuiste publicatie over een persoon uit de media gebruiken en die als feit presenteren zonder te verifiëren of het nog geldig is [2]. In contrast, een documentaire producer onderzoekt en verifieert elke claim, vaak met meerdere getuigen, documenten en experts [1]. Deze zorgvuldigheid is onmogelijk te repliceren door een AI-model dat gebaseerd is op een ‘verzamelwerk’ van online informatie [2]. De waarde van kwalitatieve journalistiek ligt niet alleen in het geven van feiten, maar in het benoemen van complexiteit, dualiteit en menselijk verhaal. Zonder dit instrument is het publiek kwetsbaarder voor manipulatie, ofwel door AI-generatie nepnieuws, ofwel door een gevoel van onzekerheid over wat waar is [1]. De EO’s stopzetting van documentaires sinds 2 december 2025 is geen technisch probleem, maar een maatschappelijk verlies [1].
Hoe je nepnieuws herkent: praktische tips voor het digitale publiek
In een tijd waarin AI-generatie nepnieuws snel en plausibel wordt, is mediageletterdheid meer dan ooit van cruciaal belang. De meest effectieve manier om nepnieuws te herkennen is door kritisch te kijken naar de bronnen. Eén van de belangrijkste tips is: ‘Geef geen vertrouwen aan AI-antwoorden zonder controle’ [2]. Als een AI-antwoord geen bronnen noemt, geen datum heeft of te veel vertrouwen in zichzelf uitstraalt, is het waarschijnlijk gefakeerd [2]. Bijvoorbeeld: Google Search stelde op 2 december 2025 dat Niels van der Laan getrouwd was met Eva Crutzen en had een dochter – een claim die volledig verzonnen was [2]. De enige manier om dit te ontmaskeren was door na te gaan wat de echte bronnen waren. In dit geval: niets. Een tweede tip is het gebruik van meerdere bronnen. Als meerdere betrouwbare bronnen hetzelfde verhaal vertellen, is de kans groter dat het waar is. Maar als alleen een AI-antwoord of één website het zegt, is het waarschijnlijk een hallucinatie of een bewuste manipulatie [2]. Een derde tip is het letten op subtiele fouten, ook wel ‘small hallucinations’ genoemd: kleine, plausibele fouten die moeilijk te detecteren zijn, maar die de waarheid kunnen veranderen [2]. Bijvoorbeeld: een AI kan een bestaand commando in een PowerShell-script verkeerd schrijven door een dubbele dubbele punt te plaatsen achter een variabele, wat het script onbruikbaar maakt [2]. Dit soort fouten kunnen alleen worden opgespoord door een expert die het script handmatig controleert. Een vierde tip is het vertrouwen op mensen en onderzoeksjournalisten, niet op automatische systemen. Als een verhaal uit een documentaire van de EO of een onderzoek van een betrouwbare krant komt, is de kans groter dat het waar is dan als het afkomstig is uit een AI-antwoord [1]. Een vijfde tip is het gebruik van tools die AI-content kunnen detecteren, zoals GPTZero of Turnitin, hoewel deze nog niet 100% betrouwbaar zijn [2]. Ten slotte is het belangrijk om de eigen emoties te herkennen: als een bericht je woedend, bang of enthousiast maakt zonder aanleiding, is het mogelijk dat het is ontworpen om jouw emotie te manipuleren [2]. Het is geen teken van zwakheid om te twijfelen aan informatie. Het is een teken van intelligentie.