AIJB

Hoe een AI-gegenereerde video een nationale spanning kon veroorzaken

Hoe een AI-gegenereerde video een nationale spanning kon veroorzaken
2025-11-30 nepnieuws

Den Haag, zondag, 30 november 2025.
Een diepe, maar onware video van de Indiase krijgsleider Gen Upendra Dwivedi, die een vermeende verklaring over een activist geeft, werd verspreid door Pakistanse propagandaaccounts. De fake-video, gemaakt met geavanceerde AI-technologie, leek zo overtuigend dat zelfs internationale media het moesten controleren. De Indiase overheid bevestigde dat het digitale bewijsmateriaal gefabricateerd was en dat het doel was om vertrouwen in het leger te ondermijnen. Dit gebeurtenis toont hoe kwetsbaar democratische instituties zijn voor informatiewapens in de digitale tijd — en hoe snel een geloofwaardig bericht zonder bewijs kunnen worden veranderd in een politieke explosie. De vraag is niet langer of AI dat kan, maar of we het herkennen.

Het ontstaan van een digitale storm: een AI-gegenereerde video over een legerleider

Op laat woensdag, 26 november 2025, verspreidden Pakistanse propagandaaccounts een diepe, maar volkomen gefabriceerde video van Gen Upendra Dwivedi, de chief of the army staff van India. De video, gemaakt met geavanceerde AI-technologie, toonde de legerleider in een officiële verklaring waarin hij ‘diepe spijt’ uitsprak over de vermeende ‘overlijden van activist Sonam Wangchuk in staatshandhavingsdetentie’ — een claim die niet waar was. Wangchuk, een bekend klimaatactivist, was inderdaad onder arrest sinds september 2025 onder de Nationale Veiligheidswet (NSA), maar bleef levend en werd niet in staatshandhavingsdetentie vermoord [8]. De video verspreidde zich snel via sociale mediaplatformen zoals TikTok, X (voorheen Twitter) en Telegram, met een doelgerichte focus op regio’s in Zuid-Azië en het Midden-Oosten, waar het vertrouwen in India’s militaire instituties al gespannen was [8]. De Indiase overheid, via het Persinformatiebureau (PIB), bevestigde binnen 24 uur dat de video ‘digitaal gefabriceerd’ was en ‘gebruikte AI-technologie’ om een falsificatie te creëren [8]. Het doel, aldus het PIB, was ‘misinformatie te verspreiden en vertrouwen in de Indiase krijgsmacht te ondermijnen’ [8]. De campagne werd geïdentificeerd door Indiase inlichtingdiensten op 25 november 2025, met de eerste AI-gegenereerde content die op sociale media verscheen op 24 november 2025 [8].

AI als wapen in informatiewar: van manipulatie tot hybride oorlog

De gebruikte technologie achter de video was geen simpel editwerk, maar een geavanceerd generatief AI-model dat was getraind op publieke video- en audioarchieven van Indiase militaire functionarissen, inclusief hooggeplaatste officieren [8]. Dit maakte het mogelijk om een overtuigende, geloofwaardige simulatie van Gen Dwivedi te creëren, inclusief zijn stemtoon, gezichtsuitdrukking en lichaamstaal. De Indiase ministerie van Defensie noemde de activiteit een ‘coördinatiesamenwerking in informatieoorlogvoering’ met als doel ‘regio- en internationale vertrouwen te destabiliseren’ [8]. Een analyse door het Indiase Cyber Security Agentschap identificeerde 148 AI-gegenereerde inhoudsproducten in de campagne, waarvan 127 op sociale media werden gedetecteerd tussen 24 en 26 november 2025 [8]. Deze ontwikkeling markeert een nieuwe fase in hybride oorlogvoering, waarin digitale manipulatie zowel strategisch als psychologisch werkt — ‘We zijn getuige van een nieuwe fase in hybride oorlogvoering waarin AI-gegenereerde content wordt gewapend om chaos te creëren en vertrouwen in instituties te ondermijnen,’ aldus een ongeciteerde militaire inlichtingsofficier [8]. De campagne werd gecombineerd met andere misinformatiestrategieën, zoals valse social media-accounts en gestuurde berichten, om het effect te versterken [8]. Terwijl de technologie achter deepfakes razendsnel evolueert, blijven veiligheidsmaatregelen achter [2]. Onderzoekers zijn echter in staat om diepe video’s te detecteren door op fysieke kenmerken zoals adertjes in het gezicht te letten, wat een wetenschappelijke basis biedt voor detectie [2].

Internationale reacties en het vertrouwen in media: een test voor democratie

De video raakte zelfs internationale media, waaronder WION, dat het valse bewijsmateriaal al vooraf had geïdentificeerd en geïnformeerd had over de misleidende inhoud [8]. Toch bleef het bewijsmateriaal verspreid, wat laat zien hoe snel een geloofwaardig bericht zonder bewijs in een politieke explosie kan veranderen [8]. De Indiase overheid kondigde aan dat een speciale tegenmisinformatie-eenheid zou worden geactiveerd op 30 november 2025 om diepe video’s te volgen en te neutraliseren [8]. Deze reactie toont hoe snel democratische instituties worden gedwongen om zich aan te passen in een tijd waarin AI niet alleen informatie genereert, maar ook manipuleert [8]. Op wereldschaal is de angst voor deze vorm van manipulatie groot: een Amerikaans onderzoek uit 2025 toont aan dat 45 procent van de bevolking zich zorgen maakt over ‘misinformatie’ als gevolg van AI, en 46 procent over ‘menselijke manipulatie’ via AI [4]. Deze zorg is niet beperkt tot India; in het Verenigd Koninkrijk is het maken van seksuele deepfakes sinds 25 november 2025 strafbaar [2]. In Australië werd op 15 november 2025 een man veroordeeld tot een boete van 190.000 euro in de eerste zaak omtrent deepfakeporno [2], wat wijst op een groeiende wetgevende reactie op deze technologieën. De EU heeft techplatformen, waaronder Meta, gevraagd hoe zij omgaan met AI-risico’s, met een oproep tot antwoord op 15 december 2025 [2].

Hoe je nepnieuws herkent: praktische tips voor lezers

De snelheid waarmee AI-inhoud kan worden gecreëerd, maakt het essentieel dat burgers niet alleen kritisch zijn, maar ook bewust van de signalen van nepnieuws. Een eerste stap is het controleren van de bron: valse inhoud wordt vaak verspreid via accounts met weinig of geen historie, of via platformen zonder fact-checking-mechanismen [2][8]. Kijk op de taal: AI-gegenereerde teksten zijn vaak te perfect, te algemeen of te emotioneel, zonder de typische onvolkomenheden van menselijke schrijfwerk [8]. Bij audio- en video-inhoud is het belangrijk om op onnatuurlijke bewegingen te letten — zoals ongelijke oogbewegingen, vreemde lipbewegingen of adertjes die niet kloppen met lichtbronnen [2]. Platforms zoals Facebook werken aan methoden om deepfakesoftware te detecteren, maar deze zijn nog niet volledig effectief [2]. Onderzoekers van Oigetit, een AI-fact-checker, ontwikkelden een algoritme dat nieuwsartikelen binnen een fractie van een seconde analyseert op feitelijkheid, bias en bronvaliditeit, en een betrouwbaarheidsscore toekent [3]. De tool is beschikbaar via een gratis app voor iOS en Android, en gebruikt een database van historische artikelen om vergelijkingen te maken [3]. Voor journalisten en producenten is er een duidelijke waarschuwing: een experiment van LAist Studios op 29 november 2025 toonde aan dat een AI-generatie van een fictieve nieuwsverhaal over een kunstmatige eiland voor de Santa Monica Pier zo overtuigend was dat het moeilijk was te onderscheiden van echte journalistiek, zelfs met de kennis van de bron [7]. De experimentator vroeg zich af: ‘Kan mijn werk gemaakt worden door een machine?’ — een vraag die nu meer dan ooit relevant is [7].

Bronnen