Innovatieve techniek van NFI spoort deepfakes op via subtiele hartslagverschillen
Den Haag, dinsdag, 27 mei 2025.
Het Nederlands Forensisch Instituut (NFI) heeft een veelbelovende methode ontwikkeld om de authenticiteit van deepfake-video’s te verifiëren door gebruik te maken van lichaamskenmerken zoals hartslag. Deze techniek focust op minimale kleurverschillen die veroorzaakt worden door de hartslag in het gezicht—specifieke meetpunten zoals de adertjes rond de ogen, voorhoofd en kaak zijn bijzonder effectief. Hoewel de wetenschappelijke validatie nog loopt, onderstreept dit onderzoek niet alleen de innovatieve kracht van de forensische wetenschap, maar ook de groeiende noodzaak om bewustzijn te creëren over de invloed van deepfakes op media en communicatie. Deze ontdekking zou toekomstige technologieën en juridische processen kunnen veranderen en biedt veel hoop voor de bestrijding van desinformatie in onze digitale wereld. De onderzoeksmethode werd voor het eerst overwogen in 2012, met nu verbeterde beeldtechnieken die nauwkeurige metingen mogelijk maken.
De Rol van AI in Verspreiding en Bestrijding van Nepnieuws
Kunstmatige intelligentie (AI) speelt een cruciale dubbele rol in zowel de verspreiding als bestrijding van nepnieuws. Enerzijds maken AI-technieken zoals generatieve toepassingen, waaronder deepfakes, het mogelijk om uiterst realistische, maar misleidende inhoud te produceren. Deze technologieën kunnen beelden en video’s manipuleren tot op een punt waar het onderscheid met authentiek materiaal nauwelijks te maken is [1][2]. Anderzijds wordt dezelfde AI ook ingezet om deze misleidende praktijken te detecteren en te bestrijden, zoals het recente voorbeeld van het Nederlands Forensisch Instituut (NFI), dat een methode heeft ontwikkeld om deepfakes te identificeren door subtiele verschillen in hartslag te meten [3].
Concrete Voorbeelden van AI-gebruik
Een treffend voorbeeld van AI-gebruikt in de verspreiding van nepnieuws is de ontwikkeling van geavanceerde AI-apps die realistische video’s maken, zoals recentelijk door Google geïntroduceerd. Dit roept zorgen op over het potentieel voor misbruik in het verspreiden van desinformatie [4]. Aan de andere kant heeft het NFI zijn innovatieve methode geïntroduceerd die specifiek deepfakes aanpakt door te focussen op indirecte menselijke kenmerken zoals hartslagen, wat aangeeft hoe AI ook ingezet kan worden ter bescherming tegen dezelfde bedreiging die het creëert [3].
Implicaties voor Mediageletterdheid en Democratie
De opkomst van AI-gegenereerd nepnieuws vormt een serieuze uitdaging voor mediageletterdheid en democratie. Het vermogen van AI om content te maken die nauwelijks te onderscheiden is van echte beelden, maakt het moeilijk voor het publiek om feit van fictie te scheiden, wat het vertrouwen in nieuwsbronnen kan ondermijnen [5]. Effectieve AI-oplossingen, zoals de deepfake-detectiemethoden van het NFI, kunnen echter helpen dit vertrouwen te herstellen door nauwkeurige identificatie van onauthentiek materiaal [3]. Het blijft cruciaal voor burgers om kritisch te zijn en bewuster mediageletterd te worden.
Praktische Tips om Nepnieuws te Herkennen
Om zich te wapenen tegen nepnieuws, kunnen lezers letten op verschillende signalen. Ten eerste moeten ze de bron van de informatie controleren en nagaan of deze betrouwbaar is. Verder is het aan te raden om te onderzoeken of andere gerenommeerde nieuwsorganisaties de informatie ook delen. Kijken naar de kwaliteit van afbeeldingen en video’s kan ook helpen, aangezien deepfakes soms subtiele fouten bevatten, zoals onnatuurlijke oogbewegingen of rare schaduwpartijen [GPT]. Tot slot kan het controleren van reacties en discussies op sociale media platforms aanwijzingen geven over de geloofwaardigheid van een nieuwsitem.