AIJB

Comment un pouls invisible fait la différence dans le démasquage des vidéos falsifiées

Comment un pouls invisible fait la différence dans le démasquage des vidéos falsifiées
2025-11-25 herkennen

rotterdam, dinsdag, 25 november 2025.
Imaginez qu’une vidéo d’une personnalité publique affirme qu’elle a dit quelque chose qu’elle n’a jamais dit. La solution se cache dans quelque chose que vous ne voyez pas : un pouls invisible. Des experts en forensic néerlandais utilisent désormais une technique ingénieuse qui analyse des changements subtils de couleur sur le visage – causés par chaque battement de cœur – afin de déterminer si une vidéo est authentique ou une deepfake générée par l’IA. Ce qui est le plus frappant : ces mouvements sont trop rapides et trop fins pour être perçus à l’œil nu, mais sont détectés parfaitement par des logiciels. Il s’agit d’une étape cruciale dans la lutte contre les médias manipulateurs, où même les vidéos falsifiées les plus crédibles peuvent être soumises à un critère incontestable : la vie elle-même.

La preuve invisible : comment un pouls révèle la vérité

Dans un monde où les images sont plus souvent cruels que les mots, la présence d’un pouls naturel constitue une preuve indispensable d’authenticité. Des experts en forensic de l’Institut Néerlandais de Forensique (NFI) développent une méthode basée sur l’IA qui analyse les changements subtils de couleur sur le visage, provoqués par chaque battement de cœur. Ces mouvements sont si fins et rapides qu’ils sont invisibles à l’œil nu, mais sont détectés parfaitement par les logiciels. Le processus utilise le canal vert des images RGB, car la lumière verte est fortement absorbée par le sang juste sous la peau, provoquant une variation mesurable à chaque battement cardiaque [1]. Cette technique est cruciale dans les enquêtes pénales, où les vidéos falsifiées sont utilisées pour des fraudes d’identité, des abus pornographiques et la manipulation de preuves [1].

De la validation à l’application : comment le modèle fonctionne en pratique

Sanne de Wit, chercheuse au NFI, a testé le modèle sur un jeu de données comprenant environ 200 vidéos authentiques et 200 deepfakes générées par IA. Les résultats ont été convaincants : presque toutes les vidéos authentiques ont été correctement identifiées. Toutefois, certaines deepfakes ont été erronément classées comme authentiques, ce qui révèle la complexité du défi. L’analyse se concentre particulièrement sur les zones autour du front et des yeux, où les changements de couleur sont les plus visibles dans les vidéos réelles [1]. Les chercheurs utilisent également la fréquence du réseau électrique (50 hertz) comme référence temporelle, en extrayant la fréquence du réseau des vidéos et en la comparant aux enregistrements officiels, ce qui leur permet de vérifier l’horodatage d’une vidéo [1]. La base de données actuelle est limitée, ce qui impose au modèle une formation plus variée et plus approfondie pour améliorer sa performance [1].

Les limites de la technique : pourquoi elle n’est pas encore entièrement fiable

Malgré les progrès réalisés, des défis subsistent. Des résultats inattendus montrent que des photos statiques de personnes ou de mannequins sont parfois interprétées comme « authentiques » par l’algorithme, ce qui ne permet pas encore de trancher clairement entre le vivant et l’inanimé [1]. La qualité de l’image est un facteur crucial : la netteté, la stabilité, l’éclairage et la visibilité complète du visage influencent la détection des signaux de pouls [1]. Un mauvais éclairage, des mouvements ou une couverture partielle du visage perturbent l’analyse et peuvent entraîner des interprétations erronées [1]. De Wit insiste sur la nécessité de rendre le modèle plus robuste, afin qu’il fonctionne également dans des conditions réalistes, comme des personnes en mouvement, une faible luminosité ou des visages partiellement couverts [1].

Une combinaison de techniques pour une détection fiable

Selon De Wit, un modèle robuste de détection des deepfakes devra finalement ne pas s’appuyer sur une seule méthode, mais combiner plusieurs approches. En parallèle, le NFI développe une deuxième base de données comprenant des images volontairement « plus difficiles » pour tester l’algorithme dans des scénarios extrêmes [1]. De plus, l’institut utilise également des « empreintes digitales » uniques et invisibles des caméras numériques, issues de déviations mesurables dans le capteur. Ces empreintes de caméra sont comparées à des images de référence pour confirmer l’origine des vidéos [1]. Le NFI combine ainsi la détection du pouls, l’analyse de la tension du réseau électrique et les empreintes de caméra pour une évaluation plus fiable des deepfakes [1].

L’avenir de la lutte : de la réaction à la prévention

De Wit insiste sur le fait que l’objectif n’est pas seulement de réagir aux nouvelles avancées, mais de les anticiper. Si une deepfake doit un jour inclure un signal de pouls réaliste, sa création deviendra bien plus coûteuse et complexe, ce qui pourrait réduire le risque de son utilisation à des fins criminelles [1]. Cette technique montre que même les vidéos falsifiées les plus crédibles peuvent être soumises à un critère incontestable : la vie elle-même. Ce progrès constitue une étape importante dans la course aux armes entre création et détection par IA, où les experts en forensic tentent de suivre le rythme [1].

Sources