AIJB

Wanneer een beeld niet meer klopt: wat Nederland doet aan diepe vervalsingen

Wanneer een beeld niet meer klopt: wat Nederland doet aan diepe vervalsingen
2025-12-04 nepnieuws

Den Haag, donderdag, 4 december 2025.
Stel je voor: een video waarin een bekende persoon iets zegt wat hij nooit heeft gezegd. In Nederland wordt dit in 2025 strafbaar – als het opzettelijk is gemaakt en verspreid. Het wetsvoorstel, nu in consultatie, richt zich op het beschermen van mensen tegen digitale vervalsingen die hun reputatie, privacy en zelfbeeld kunnen beschadigen. Bijzonder is dat de wet niet alleen artiesten beschermt, maar ook gewone mensen en hun nabestaanden. De straf kan tot half jaar gevangenis zijn, maar er zijn uitzonderingen voor satire en parodie – mits duidelijk aangegeven. Het voorgestelde kader streeft naar vertrouwen in informatie, maar houdt nog vragen open over hoe grenzen worden getrokken in de praktijk. Dit is een belangrijke stap in de strijd tegen nepnieuws en misleidende content in de digitale wereld.

Een nieuwe wet tegen diepe vervalsingen: wat er nu gebeurt

Op 30 oktober 2025 werd een wetsvoorstel in consultatie gesteld dat het opzettelijk vervaardigen, gebruiken en verspreiden van deepfakes van natuurlijke personen strafbaar maakt. Het voorstel is een uitbreiding van de Wet op de naburige rechten en richt zich niet alleen op artiesten, maar op iedereen – inclusief nabestaanden – die geïntimideerd of beledigd kunnen worden door digitale vervalsing van beeld en geluid [650]. De straf voor een strafbare handeling kan tot maximaal half jaar gevangenis bedragen, afhankelijk van de ernst en de omstandigheden van het gebruik [650]. De wetgever eist een opzet voor strafbaarheid, maar verduidelijkt niet of dit vereist is bij het verspreiden of het erkennen van een deepfake [650]. Het concept wordt geïntroduceerd op een moment dat de beeld- en geluidsvervalsing via AI-technologie steeds realistischer wordt, met gevaar voor reputaties, privacy en het vertrouwen in informatie [650]. Een belangrijke uitbreiding is dat het gebruik van deepfakes voor satire of parodie toegestaan is, mits het gebruik in overeenstemming is met de regels van het maatschappelijk verkeer en transparant is: het moet duidelijk worden aangegeven dat het om een deepfake gaat, conform de AI-verordening (OJ:L_202401689) [650]. Er zijn echter onduidelijkheden over de praktische toepassing van deze uitzondering, met name wat ‘redelijkerwijs geoorloofd’ in het maatschappelijk verkeer is, wat een risico vormt op rechtszekerheid [650]. Tot nu toe heeft het Openbaar Ministerie nog geen zaak aangeslagen onder de Wet op de naburige rechten, waardoor er geen rechtspraak is die als richtsnoer kan dienen [650].

Hoe AI het verspreiden van nepnieuws versnelt – en hoe het kan worden tegengegaan

AI-technologie wordt zowel gebruikt om nepnieuws te verspreiden als om het te detecteren. Op platforms zoals TikTok worden al audiovisuele content en trends gecreëerd met behulp van AI, waarbij gebruikers zelfs een ‘SAGA STQ EXPOSÉ DOGGAD’-video kunnen maken met behulp van gestandaardiseerde AI-gebaseerde tools [TikTok]. Deze tools maken het mogelijk om stemmen en beelden van mensen te manipuleren in real-time, wat de verantwoordelijkheid voor authenticiteit verplaatst van de inhoudsproducent naar de gebruiker en het platform. In de praktijk wordt AI ook ingezet voor het detecteren van nepnieuws: de Rijksoverheid lanceerde op 1 december 2025 een AI-gebaseerde zoekmachine voor de arbeidsmarkt, die gericht is op het identificeren van ongeoorloofde of misleidende informatie in online vacatures [oprijk.nl]. Hoewel dit specifiek gericht is op werkgelegenheid, illustreert het hoe AI-gebaseerde systemen worden ingezet om vertrouwde informatie te filteren. Aan de andere kant, de internationale studie van het International Centre for Counter-Terrorism (ICCT), op verzoek van de Nationaal Coördinator Terrorismebestrijding en Veiligheid (NCTV), onderzoekt hoe AI platforms kan helpen bij het detecteren en modereren van terroristische, illegale en impliciete extremistische content, zonder de vrijheid van meningsuiting te schenden [112wwft.nl]. Dit rapport benadrukt de complexiteit van het balanceren tussen veiligheid en vrijheid, met name in gevallen waarin de inhoud niet expliciet illegaal is, maar toch gevaarlijk is [112wwft.nl]. De uitkomsten van dit onderzoek zullen in de komende maanden worden ingezet om richtsnoeren te ontwikkelen voor online platforms en overheidsinstanties.

Wat je moet weten om nepnieuws te herkennen: praktische tips voor lezers

Om jezelf te beschermen tegen nepnieuws, is mediageletterdheid essentieel. De eerste stap is het kritisch beoordelen van de bron: let op of het bericht komt van een officiële, erkende instantie zoals de NOS, de VPRO of een wetenschappelijk instituut [nos.nl]. Gebruik tools zoals het fact-checkingplatform van de NOS of het Nationaal Mediabureau om de waarheid van een video of bericht te controleren. Bij video’s met AI-gebaseerde stemmen of beelden, let op onnatuurlijke bewegingen van de lippen, onregelmatige oogbewegingen of een te hoge of te lage kwaliteit die niet past bij de rest van de video. Het is belangrijk om te weten dat sommige deepfakes worden uitgezonden als satire of parodie – maar dan moeten daarbij duidelijke waarschuwingen staan [650]. Als je een video ziet met een bekende persoon die iets zegt dat onwaarschijnlijk is, of over een evenement dat nog niet heeft plaatsgevonden, is het verstandig om eerst te controleren of het bericht in meerdere betrouwbare bronnen wordt besproken. Het gebruik van tools zoals reverse image search of AI-detectietools – zoals die ontwikkeld worden door onderzoeksinstituten – kan ook helpen om vervalsingen te ontmaskeren. De Rijksoverheid raadt aan om in december 2025 je verlofuren in te leveren voordat ze vervallen, maar ook om tijd te nemen om je digitale voetprint te controleren en te beoordelen wat je deelt [oprijk.nl].

Bronnen