Hoe een AI-gegenereerde video een democratie in dubio kon brengen
Amsterdam, dinsdag, 18 november 2025.
Stel je voor: een video van een politiek leider die een oorlogsveld inruilt voor een verklaring die nooit werd gegeven. In 2025 is zo’n scenario geen sciencefiction meer, maar een reëel risico. Deepfakes – door AI gegenereerde valse beelden – worden nu gebruikt om publieke vertrouwensrelaties te ondermijnen, verkiezingen te beïnvloeden en diplomatieke onderhandelingen te verstoren. Het meest verontrustende? De kwaliteit van deze valse inhoud is zo hoog dat zelfs experts moeite hebben de echte van de nep te onderscheiden. Bij het vroegere vertrek van Hans Wijers als formateur, werd een privébericht gelekt – maar wat als dat bericht zelf een deepfake was? Dat is precies het gevaar: een misleidende realiteit die op het eerste gezicht onmiskenbaar echt lijkt. De tijd van duidelijke grenzen tussen feit en fictie is voorbij – en dat verandert alles wat we over waarheid en democratie denken.
Het gebrek aan grens tussen feit en fictie in de digitale tijd
In 2025 is de grens tussen werkelijkheid en simulatie steeds vager geworden, vooral door de versneld ontwikkeling van AI-gegenereerde inhoud zoals deepfakes. Deze technologie, die eerder het domein van sciencefiction leek, wordt nu actief ingezet in geopolitieke contexten om publieke vertrouwensrelaties te ondermijnen, verkiezingen te beïnvloeden en diplomatieke onderhandelingen te verstoren [1]. De kwaliteit van deze valse beelden is zo hoog dat zelfs experts moeite hebben de echte van de nep te onderscheiden, wat een fundamentele uitdaging vormt voor democratische processen [1]. In het geval van de Nederlandse politiek, waar in november 2025 een nieuwe Tweede Kamer werd geïnstalleerd, werd de sociale stack – een benaming voor de grondslagen van samenlevingscohesie – uitdrukkelijk benoemd als kernopgave, waarbij de dreiging van desinformatie en deepfakes centraal stond [2]. De opkomst van hyperrealistische visies, waarbij beelden en verhalen ‘aantrekkelijker’ lijken dan de werkelijkheid, maakt het voor mensen steeds lastiger om objectief te oordelen over wat waar is [3]. Dit fenomeen, dat historisch wordt teruggevoerd tot koloniale utopieën en de ruimtewedloop van de Koude Oorlog, wordt nu versneld door de integratie van AI in beleid en media [3]. In het AI-tijdperk is de snelheid en verzadiging van deze toekomstbeelden toegenomen door deepfake-niveau visualisaties en 24/7 media-echo chambers [3]. De combinatie van emotionele aantrekkelijkheid en technologische nauwkeurigheid zorgt ervoor dat beeld en feit door elkaar gehusseld worden, en de waarheidsgetrouwheid van een bericht steeds minder relevant wordt dan de presentatiekwaliteit [3].
Deepfakes als instrument in geopolitieke informatieoorlogen
In 2025 is het gebruik van deepfakes in geopolitieke spanningsgebieden een realiteit die de wereldwijde AI-wedloop voedt. Landen en actoren gebruiken AI-gegenereerde inhoud als instrument in informatieoorlogen, met name in oorlogsvelden, verkiezingen en onderhandelingssessies [3]. In het geval van Oekraïne, waar de Amerikaanse techbedrijf SpaceX via Starlink een cruciale rol speelt in de digitale infrastructuur, wordt de afhankelijkheid van buitenlandse technologieën nog groter. De recente aankoop van 17 miljard euro aan Europese radiofrequenties door SpaceX versterkt de controle van Amerikaanse techbedrijven over essentiële systemen, wat leidt tot een verzwakking van nationale regulering en democratische controle [2]. Deze afhankelijkheid vormt een kwetsbaarheid die kan worden uitgebuit door desinformatie-opnames. Zo is het mogelijk dat een hyperrealistische video van een leidinggevende politieke figuur, geplaatst in een oorlogsveld, een ongeplande oorlogsaanval of een verklaring van kapitulatie voorstelt – terwijl de inhoud volledig gefabriceerd is [3]. De impact van dergelijke manipulaties is niet beperkt tot een enkele gebeurtenis: ze ondermijnen langdurig het vertrouwen in openbare instituties en schaden het gezamenlijke wereldbeeld [2]. De tekst van ‘Het masker van AI’ onderstreept dat de maatschappelijke, ethische en democratische impact van AI nu urgent is, vooral door de veranderende relatie tussen technologie en macht [1]. De verantwoorde omgang met AI-gegenereerde inhoud is daarom niet langer een keuze, maar een essentieel onderdeel van informatieve burgerlijke verantwoordelijkheid [1].
De rol van Big Tech in het ondermijnen van nationale controle
De groeiende invloed van Amerikaanse techbedrijven zoals Google, Facebook, Microsoft, Amazon en Apple – die een marktwaarde hebben die groter is dan het bbp van menig Europees land – vormt een directe bedreiging voor nationale staatsoverheid [2]. Deze bedrijven, die hun invloed uitbreiden via digitale infrastructuur, satellietinternet en radiofrequenties, functioneren als ‘freedom cities’ of netwerkstaten die buiten de traditionele democratische kaders opereren [2]. De aankoop van 17 miljard euro aan Europese radiofrequenties door SpaceX van Elon Musk is een concrete voorbeeld van hoe buitenlandse machthebbers steeds meer controle uitoefenen over essentiële systemen die voor de veiligheid en communicatie van een staat cruciaal zijn [2]. Maxime Februari waarschuwt dat dit proces ‘Big Tech vreet ook aan deze nationale laag’ heet, waardoor nationale juridische en politieke autoriteit wordt uitgehold [2]. Het resultaat is een stelsel waarin het publieke vertrouwen in de democratische rechtsstaat wordt ondermijnd door algoritmes die gepersonaliseerde mediawerkelijkheid genereren, die het gezamenlijke wereldbeeld steeds verder ondermijnt [2]. De digitale infrastructuur van de natiestaat wordt daarmee in feite ondermijnd door externe actoren, wat de noodzaak van transparantie en regulerende maatregelen versterkt [2].
Hoe AI-geletterdheid een barrière vormt tegen misleiding
Om de dreiging van deepfakes en desinformatie te bestrijden, is er een urgent behoefte aan AI-geletterdheid als basis voor mediacompetentie. De katholieke kerk, via kloosterzuster Maria Catharina Al van de orde der Dominicanessen, heeft in november 2025 een lezing gegeven over de impact van AI op de samenleving, waarin de toekomst van AI en haar ethische implicaties worden besproken [4]. Deze initiatieven tonen aan dat verantwoord gebruik van AI niet langer een technisch vraagstuk is, maar een maatschappelijk en ethisch verantwoordelijkheidsvraagstuk [1]. In het boek ‘Het masker van AI’ onderzoekt docent en AI-expert Wim Casteels hoe algoritmes vooroordelen versterken, hoe AI-gestuurde sollicitaties ongelijkheid bestendigen en hoe de ecologische voetafdruk van datacenters de digitale toekomst aandrijft [1]. De leerlingen en burgers worden aangemoedigd om kritisch te denken over de bronnen van informatie en de motieven achter AI-gegenereerde inhoud [1]. De kwaliteit van de presentatie wordt steeds belangrijker dan de waarheidsgetrouwheid, wat betekent dat lezers moeten leren om niet alleen te kijken, maar ook te vragen: wie heeft dit gemaakt, waarom, en wat is het doel? [3]. De combinatie van technologische kennis en kritische reflectie is de sleutel tot het behouden van de gezamenlijke werkelijkheid in een tijd waarin de grens tussen feit en fictie is uitgewist [2].
Praktische tips voor het herkennen van nepnieuws en deepfakes
Lezers kunnen zich verdedigen tegen desinformatie door een aantal praktische stappen te volgen. Eerst en vooral is het belangrijk om de bron van het bericht te controleren: is het afkomstig uit een betrouwbare, gecertificeerde mediaorganisatie of een privé-appje dat kan zijn geïnfecteerd? Bijvoorbeeld, het gelekte privé-appje van Hans Wijers, dat leidde tot zijn vertrek als formateur, toont hoe gevoelige informatie, zelfs als die echt is, kan worden misbruikt voor politieke doeleinden [2]. Tweede stap: check de tijd en context. Heeft het bericht of de video een valse tijdsstempel, een ongebruikelijke audio-kwaliteit of onnatuurlijke lichaamssignalen zoals onverwachte oogbewegingen of ongelijke lipbewegingen? Deepfakes hebben vaak fysieke inconsistenties die opmerkelijk zijn voor geïnformeerden [3]. Derde stap: gebruik tools voor deepfake-detectie. Er zijn nu al open-source tools beschikbaar die AI-gegenereerde inhoud analyseren op basis van microbewegingen, lichtbronnen en audio-anomalies [1]. Vierde stap: vertrouw niet op een enkele bron. Vergelijk het bericht met andere betrouwbare bronnen en kijk of het in meerdere media wordt gerapporteerd [2]. Vóór het delen van een video of bericht, stel jezelf de vraag: is dit in lijn met wat ik weet over de persoon of gebeurtenis? Als het voelt ‘te goed om waar te zijn’, dan is het misschien ook niet waar [3]. De opkomst van hyperrealiteit zorgt ervoor dat de beste verhalen niet altijd de waarheid vertellen, maar de meest overtuigende [3].