AIJB

Hoe Vietnam AI-gegenereerd nepnieuws proactief wil blokkeren

Hoe Vietnam AI-gegenereerd nepnieuws proactief wil blokkeren
2025-11-21 nepnieuws

Hanoi, vrijdag, 21 november 2025.
Vietnam neemt een unieke stap in de strijd tegen digitale misinformatie: het presenteert een nieuw wetsontwerp dat platforms verplicht om proactieve filters in te bouwen voor AI-gegenereerde video’s, afbeeldingen en nieuwsberichten. De wet, ingediend op 18 november 2025, streeft ernaar om nepinhoud niet pas na verspreiding te verwijderen, maar al tijdens de creatie te detecteren. Het meest opvallende aspect? De verantwoordelijkheid ligt bij de platforms zelf – geen politie of justitie hoeft te reageren, maar de technologie moet zelf vóór de schade ingrijpen. Dit is een van de meest ambitieuze aanpakken ter wereld, en biedt een veelbelovend model voor hoe democratieën kunnen reageren op de uitdaging van AI-generatie. De wet staat nog onder discussie, maar haar uitvoering is gepland voor januari 2026.

Een nieuwe aanpak: van reactief naar proactief voorkomen

Vietnam neemt een krachtige stap vooruit in de strijd tegen digitale misinformatie door een nieuw wetsontwerp in te dienen dat platforms verplicht om proactieve filters te ontwikkelen voor AI-gegenereerde video’s, afbeeldingen en nieuwsberichten. Volgens luitenant-kolonel Trieu Manh Tung van de afdeling Cyberbeveiliging en Preventie van Hightechcriminaliteit van het Ministerie van Openbare Veiligheid moet het platform ‘proactief filters inbouwen om dergelijke content te detecteren en te verwijderen, blokkeren of wissen’ [1]. Dit verschuift het model van een reactieve aanpak – waarin schade al is toegebracht voordat ingegrepen wordt – naar een proactief systeem waarin de technologie zelf de verantwoordelijkheid neemt om schadelijke inhoud te identificeren voordat die verspreid wordt. De wet, ingediend op 18 november 2025, is een uitgebreid onderdeel van de nieuwe Cyberbeveiligingswet van 2025, die het resultaat is van de samenvoeging van de Wet op Cyberbeveiliging van 2018 en de Wet op Netwerk- en Informatiebeveiliging van 2015 [1]. Deze wet streeft ernaar om de digitale ruimte veiliger te maken door het voorkomen van misinformatie die via geavanceerde AI-technologieën wordt verspreid [1]. De verantwoordelijkheid ligt nu bij de platforms zelf, wat een belangrijke afwijking is van traditionele modellen waar de staat of justitie reageert op klachten of bewijzen van schade [1]. Het initiatief reflecteert een groeiende globale bezorgdheid over de impact van AI op de waarheid in de media en de noodzaak van verantwoorde technologiegebruik in de digitale ruimte [1].

De technische uitdaging: hoe AI zelf wordt gebruikt om AI-gegenereerd nepnieuws te detecteren

De uitvoering van het wetsontwerp vereist dat digitale platforms technologieën ontwikkelen die in staat zijn om AI-gegenereerde inhoud te detecteren en te filteren. Hier komt de toepassing van multi-modale detectie-systemen zoals DeepTruth AI, een framework dat tekst, beeld en audio analyseert om synthetische content met verbeterde nauwkeurigheid te identificeren [2]. DeepTruth AI gebruikt BERT voor tekstuele codering, CNNs voor visuele kenmerkextractie en LSTMs voor audio-modellering, gecombineerd via een transformer-gebaseerde fusiemechanisme [2]. Een belangrijk kenmerk is de synchronisie-analyse, die lip-sync inconsistenties detecteert die typisch zijn voor deepfakes [2]. Deze technologieën zijn essentieel om het voorkomen van AI-gegenereerd nepnieuws te realiseren, omdat de generatieve AI die de inhoud produceert ook steeds realistischer wordt. De wet van 2025 legt geen specifieke technische standaarden vast, maar stelt wel de verplichting op om ‘proactieve detectie- en filteringoplossingen’ te ontwikkelen [1]. Hierdoor is de ontwikkeling van zulke systemen niet alleen een technische uitdaging, maar ook een juridische verplichting voor platformen die in Vietnam opereren of Vietnamse gebruikers bedienen [1]. De uitvoering van de wet is gepland voor 15 januari 2026, met een voorbereidende fase die al startte op 18 november 2025, inclusief een pilot in Ho Chi Minhstad en Hanoi [3].

De implicaties voor mediageletterdheid, democratie en het publiek

De invoering van het wetsontwerp heeft diepe implicaties voor mediageletterdheid, democratische proces en het vertrouwen van het publiek in informatiesystemen. Het is vandaag vrijdag, 21 november 2025, en de wereld staat voor een nieuwe fase waarin de grens tussen feit en fictie steeds vager wordt. Vietnam wil hiermee voorkomen dat misinformatie via AI-gegenereerde content het publiek in verwarring brengt, vooral in politieke contexten zoals verkiezingen [1]. Generatieve AI wordt al gebruikt in staatsgeleide propaganda campagnes, zoals door China Global Television Network, die via sociale media platformen geloofwaardige, maar valse berichten verspreidt [GPT]. In een recent rapport van Graphika uit 2025 wordt melding gemaakt van een netwerk dat door Rusland wordt aangestuurd en dat op grote schaal AI-gegenereerde berichten verspreidt [GPT]. In de VS werd in 2023 een fake interview met Michael Schumacher gepubliceerd, wat aantoonde hoe eenvoudig het is om overtuigende nepnieuws te produceren [GPT]. De wet van Vietnam is gericht op het voorkomen van dergelijke gevaren, maar het vertrouwen van het publiek in media is al aangetast: een June 2024 Reuters Institute Digital News Report toont aan dat 52% van Amerikanen en 47% van Europeanen ongemakkelijk zijn met nieuws dat ‘voornamelijk AI is met enige menselijke controle’ [GPT]. De wet wil dus niet alleen technisch ingrijpen, maar ook een sociaal kader bieden waarin het publiek kan vertrouwen op de waarheid van de informatie die het ontvangt [1].

Praktische tips voor lezers om AI-gegenereerd nepnieuws te herkennen

Ondanks de inspanningen van overheden en platforms blijft het belangrijk dat individuen zelf kritisch zijn in het evalueren van de informatie die ze ontvangen. Lezers kunnen beginnen met het controleren van de bron: waar komt het bericht vandaan, en is de website bekend en betrouwbaar? Een veelvoorkomend teken van nepnieuws is dat het verschijnt op een site met een vage of dubieuze achtergrond, of dat het wordt verspreid via sociale media zonder verificatie. Het is ook nuttig om te letten op het formaat van de inhoud: video’s die een onnatuurlijke beweging van de lippen vertonen of audio die weinig geluid of ongebruikelijke geluidseffecten heeft, kunnen een signaal zijn van een deepfake [2]. Bij afbeeldingen is het handig om te zoeken naar onregelmatigheden in schaduwen, lichtbronnen of het aantal vingers – deze details worden vaak verkeerd geproduceerd door generatieve modellen. Een andere strategie is het gebruik van AI-content detectietools zoals GPTZero of Google’s SynthID, die in 2025 zijn ontwikkeld om AI-generatie te identificeren [GPT]. Echter, deze tools hebben een hoge mate van foutpositieven [GPT]. Als een bericht een emotionele reactie oproept – bijvoorbeeld ontzetting of woede – dan is het slim om eerst te pauzeren en te controleren of het bericht al eerder is verschenen of door een vertrouwde bron is bevestigd. De combinatie van technische tools en kritisch denken vormt de beste verdediging tegen AI-gegenereerd nepnieuws [GPT].

Bronnen