Technique innovante du NFI détecte les deepfakes via de subtiles différences de rythme cardiaque
Den Haag, dinsdag, 27 mei 2025.
L’Institut médico-légal des Pays-Bas (NFI) a développé une méthode prometteuse pour vérifier l’authenticité des vidéos deepfake en utilisant des caractéristiques corporelles telles que la fréquence cardiaque. Cette technique se concentre sur de minimes différences de couleur causées par le rythme cardiaque sur le visage—des points de mesure spécifiques tels que les petites veines autour des yeux, le front et la mâchoire sont particulièrement efficaces. Bien que la validation scientifique soit encore en cours, cette recherche souligne non seulement la puissance innovante de la science médico-légale, mais aussi le besoin croissant de sensibiliser aux impacts des deepfakes sur les médias et la communication. Cette découverte pourrait changer les technologies futures et les processus juridiques, offrant beaucoup d’espoir pour la lutte contre la désinformation dans notre monde numérique. La méthode de recherche a été envisagée pour la première fois en 2012, avec maintenant des techniques d’imagerie améliorées permettant des mesures précises.
Le Rôle de l’IA dans la Diffusion et la Lutte contre les Fake News
L’intelligence artificielle (IA) joue un rôle crucial et double dans la diffusion et la lutte contre les fake news. D’une part, des techniques d’IA comme les applications génératives, y compris les deepfakes, permettent de produire du contenu extrêmement réaliste, mais trompeur. Ces technologies peuvent manipuler des images et des vidéos à un point où il est difficile de les distinguer du matériel authentique [1][2]. D’autre part, la même IA est également utilisée pour détecter et combattre ces pratiques trompeuses, comme l’exemple récent de l’Institut Médico-légal des Pays-Bas (NFI), qui a développé une méthode pour identifier les deepfakes en mesurant de subtiles différences dans la fréquence cardiaque [3].
Exemples Concrets d’Utilisation de l’IA
Un exemple frappant de l’utilisation de l’IA dans la diffusion de fake news est le développement d’applications d’IA avancées qui créent des vidéos réalistes, comme récemment introduit par Google. Cela soulève des préoccupations quant au potentiel de mauvaise utilisation dans la diffusion de désinformation [4]. D’un autre côté, le NFI a introduit sa méthode innovante qui aborde spécifiquement les deepfakes en se concentrant sur les caractéristiques humaines indirectes telles que les rythmes cardiaques, montrant comment l’IA peut également être utilisée pour protéger contre la même menace qu’elle crée [3].
Implications pour la Littératie Médiatique et la Démocratie
L’émergence des fake news générées par l’IA constitue un défi sérieux pour la littératie médiatique et la démocratie. La capacité de l’IA à créer du contenu qui est difficile à distinguer des images réelles rend difficile pour le public de séparer le fait de la fiction, ce qui peut saper la confiance dans les sources d’information [5]. Des solutions d’IA efficaces, comme les méthodes de détection de deepfakes du NFI, peuvent cependant aider à rétablir cette confiance en identifiant avec précision le matériel non authentique [3]. Il est crucial que les citoyens restent critiques et deviennent plus conscients des médias.
Conseils Pratiques pour Reconnaître les Fake News
Pour se prémunir contre les fake news, les lecteurs peuvent être attentifs à plusieurs signaux. Tout d’abord, ils doivent vérifier la source de l’information et s’assurer de sa fiabilité. De plus, il est conseillé de rechercher si d’autres organisations d’actualités renommées partagent également l’information. Observer la qualité des images et des vidéos peut aussi être utile, car les deepfakes contiennent parfois des erreurs subtiles, comme des mouvements oculaires non naturels ou des ombres bizarres [GPT]. Enfin, vérifier les réactions et discussions sur les plateformes de médias sociaux peut donner des indices sur la crédibilité d’un article.