Deepfakes en de Wet: Juridische Implicaties Onderzocht
amsterdam, dinsdag, 19 augustus 2025.
In een recente blogpost bespreekt Arnoud Engelfriets de juridische implicaties van deepfakes, met een focus op de beperkingen van persoonsgegevens en de toepassing van de Algemene Verordening Gegevensbescherming (AVG). Een fascinerend aspect is dat het Hof van Justitie in 2023 en 2024 bepaalde dat er geen automatische recht op schadevergoeding is bij onrechtmatige verwerking van persoonsgegevens; concrete schade moet worden aangetoond. Dit betekent dat slachtoffers van datalekken vaak moeite hebben om hun schade te kwantificeren en daarom vaak geen schadeclaims indienen.
Juridische Implicaties van Deepfakes
In een recente blogpost bespreekt Arnoud Engelfriets de juridische implicaties van deepfakes, met een focus op de beperkingen van persoonsgegevens en de toepassing van de Algemene Verordening Gegevensbescherming (AVG). Een fascinerend aspect is dat het Hof van Justitie in 2023 en 2024 bepaalde dat er geen automatische recht op schadevergoeding is bij onrechtmatige verwerking van persoonsgegevens; concrete schade moet worden aangetoond. Dit betekent dat slachtoffers van datalekken vaak moeite hebben om hun schade te kwantificeren en daarom vaak geen schadeclaims indienen [1].
Wetgeving en Deepfakes
De discussie over deepfakes is niet alleen beperkt tot de AVG. In Denemarken wil men deepfakes strafbaar stellen door beeld en geluid onder auteursrecht te brengen. Professor Dirk Visser stelde in 2024 een voorstel voor een antideepfakerecht voor, dat toestemming vereist voor het maken of publiceren van deepfakes. Dit voorstel staat in de Wet op de naburige rechten en niet in de Auteurswet [2].
Internationale Maatregelen
Internationaal zijn er ook stappen ondernomen om deepfakes te bestrijden. Het Franse wetsvoorstel sinds eind 2024 richt zich op seksueel getinte deepfakes. Daarnaast stelt de EU’s Cyber Resilience Act (CRA) strenge beveiligingseisen voor slimme producten, met uitzonderingen voor open-source stewards. Deze wet vereist dat open-source stewards een cyberbeveiligingsbeleid hebben, op verzoeken van markttoezichthouders handelen en meewerken aan het melden van kwetsbaarheden [2].
Detectie van AI-generate Content
Naast wetgeving zijn er ook technologische oplossingen ontwikkeld om deepfakes te detecteren. Recent zijn nieuwe methoden en tools ontstaan die de effectiviteit van detectie aanzienlijk hebben verhoogd. Een van de meest veelbelovende technieken is het gebruik van machine learning-algoritmen die getraind zijn op grote datasets van echte en gefakeerde video’s. Deze algoritmen kunnen subtielere afwijkingen in gezichtsuitdrukkingen en bewegingen detecteren, die voor het blote oog niet zichtbaar zijn [GPT].
Effectiviteit en Uitdagingen
Hoewel deze nieuwe methoden en tools aanzienlijke voordelen bieden, blijven er uitdagingen bestaan. De snelheid waarmee AI-technologieën evolueren, maakt het moeilijk om altijd één stap voor te blijven. Deepfake-makers passen continu hun methoden aan om de detectietools te omzeilen. Daarnaast is er nog steeds een tekort aan standaardisering in de detectietechnologieën, wat de interoperabiliteit en betrouwbaarheid beïnvloedt [GPT].
Toekomstperspectief
Om de wapenwedloop tussen AI-creatie en -detectie aan te gaan, is er behoefte aan een multidisciplinaire aanpak. Wetenschappers, juristen, technologen en beleidsmakers moeten samenwerken om zowel de technologische als de juridische kant van het probleem aan te pakken. De ontwikkeling van robuuste wetgeving en technologieën is cruciaal om de negatieve impact van deepfakes te minimaliseren en de integriteit van digitale informatie te waarborgen [GPT].