AIJB

Politica Marijke Synhaeve: 'Deepfake Porno is Seksueel Geweld en Ondermijnt Democratie'

Politica Marijke Synhaeve: 'Deepfake Porno is Seksueel Geweld en Ondermijnt Democratie'
2025-08-07 nepnieuws

amsterdam, donderdag, 7 augustus 2025.
Oud-Tweede Kamerlid Marijke Synhaeve heeft besloten openlijk te spreken over haar ervaring als slachtoffer van deepfake pornografie. Ze benadrukt dat dit soort content niet alleen een vorm van seksueel geweld is, maar ook de democratie ondermijnt. Synhaeve, die eerst stilzwijgend bleef, heeft nu aangifte gedaan bij de politie en pleit voor strengere wetgeving om slachtoffers te beschermen en de verspreiding van deepfakes te bestrijden.

Ervaringen van Marijke Synhaeve

Oud-Tweede Kamerlid Marijke Synhaeve heeft drie keer last gehad van deepfake-pornovideo’s waarin haar beeld werd gebruikt zonder haar toestemming. Anderhalf jaar geleden [2024-02-06] werd ze voor het eerst gewaarschuwd door de beveiliging van de Tweede Kamer. Een half jaar later [2024-08-06] kreeg ze opnieuw een waarschuwing, en ongeveer een half jaar geleden [2024-02-06] kreeg ze voor de derde keer bericht over de beelden. Elke keer stond Synhaeve aangifte bij de politie met steun van de beveiligers van de Tweede Kamer [1].

Impact op het Persoonlijk en Professioneel Leven

Synhaeve benadrukt dat deze vorm van seksueel geweld haar niet alleen als mens, maar ook als moeder heeft geraakt. Ze stelt dat het een grensoverschrijdende actie is wanneer iemand haar beelden gebruikt zonder haar toestemming, en al helemaal in een context als deze. Hoewel ze de beelden zelf nog niet heeft gezien, omdat ze niet ziet hoe het haar zou kunnen helpen, heeft ze besloten openlijk te spreken over de impact van deepfakes op slachtoffers en de samenleving [1].

Democratische Implicaties

Synhaeve waarschuwt dat deze vormen van intimidatie het politieke debat kunnen verschralen en minder divers maken. Ze benadrukt dat deepfake-pornografie de democratie ondermijnt door vertrouwen in media en digitale content aan te tasten. Ze wil een helder signaal uitzenden dat dit gedrag niet wordt geaccepteerd en wil zich niet laten intimideren [1].

Internationale Context

Actrice Scarlett Johansson heeft ook ervaring met deepfake-pornografie. Ze merkt op dat hoewel deze beelden vernederend zijn, het juridisch een nutteloze strijd is om ze te bestrijden. De technologie gebruikt AI om het gezicht van een persoon op preëxisterend videomateriaal te plaatsen, wat moeilijk te stoppen is. Deze problemen zijn wereldwijd aanwezig en vereisen internationale samenwerking [2].

Juridische Maatregelen in Denemarken

Denemarken heeft een wetsvoorstel ingediend om burgers beter te beschermen tegen deepfakes via het auteursrecht. Het wetsvoorstel geeft mensen auteursrecht op hun eigen gezicht, stem, en lichaam, waardoor deepfakes alleen met expliciete toestemming mogen worden gemaakt of verspreid. Dit is een reactie op een deepfakevideo waarin de Deense premier zogenaamd aankondigde dat Pasen en Kerst werden afgeschaft, wat maatschappelijke onrust en politieke ophef veroorzaakte [3].

Toekomstperspectief in Nederland

In Nederland ontbreekt een vergelijkbaar wetsvoorstel. De bestaande juridische bescherming is versnipperd en vaak niet effectief. Partijen als Stop Online Shaming en politici zoals VVD-Kamerlid Rosemarijn Dral zijn enthousiast over een vergelijkbare aanpak. Het is onzeker wanneer en of zo’n wet in Nederland zal worden ingevoerd, maar inactie is geen optie [3].

Technologische Oplossingen

Ontwikkelaars werken aan tools om deepfakes te detecteren en te verwijderen. Platforms zoals TikTok, Meta, en X (voorheen Twitter) kunnen bij upload vragen of er toestemming is gegeven voor de deepfake. Zonder toestemming verdwijnt de video. Deze technologische maatregelen zijn cruciaal voor het beschermen van slachtoffers en het voorkomen van misbruik [3].

Praktische Tips voor Lezers

Om nepnieuws en deepfakes te herkennen, is het belangrijk om kritisch na te denken over de bronnen. Controleer altijd de originele bron en zoek naar meerdere bevestigende verslagen. Let op foute spelling, slecht gebruik van taal, en onwaarschijnlijke claims. Gebruik fact-checking websites en blijf op de hoogte van de nieuwste technologieën en trends in de media [GPT].

Bronnen