Comment une simple vidéo peut sauver la confiance dans les actualités
Amsterdam, dinsdag, 2 december 2025.
Imaginez qu’une vidéo que vous voyez en ligne n’est pas authentique — mais une création générée par une intelligence artificielle. Reality Defender lance RealScan, un outil capable de détecter, en quelques secondes, si une image, une vidéo ou un enregistrement audio a été manipulé. La fonction la plus remarquable ? Il peut identifier des mouvements oculaires anormaux ou des dérives dans le timbre de voix, permettant ainsi d’identifier une photo de trois personnes comme étant falsifiée avec une probabilité de 93 %. Conçu pour les journalistes, les autorités publiques et les médias, RealScan aide à repérer les contenus falsifiés lors d’événements sensibles, comme les élections. L’outil est disponible via une interface web et génère des rapports clairs, pouvant être utilisés à des fins juridiques. À une époque où la génération d’informations fausses par l’IA progresse rapidement, RealScan constitue un outil essentiel pour protéger la vérité — sans nécessiter de compétences techniques avancées.
RealScan : la fonction de détection numérique contre le contenu falsifié généré par l’IA
Reality Defender a lancé, le mardi 2 décembre 2025, l’application web RealScan, un outil capable de détecter les deepfakes dans le texte, les images et les vidéos en quelques secondes. Cette solution a été conçue pour les journalistes, les institutions publiques et les organisations médiatiques sensibles à la manipulation des contenus numériques, notamment pendant des événements critiques comme les élections ou les catastrophes [1]. RealScan fonctionne via une interface simple de glisser-déposer, permettant aux utilisateurs d’uploader des fichiers vidéo ou audio, ou même de scanner des URL de contenus en ligne afin de vérifier leur authenticité [1]. L’outil analyse les contenus téléchargés à l’aide de plusieurs modèles d’intelligence artificielle spécialisés, qui identifient des incohérences physiques et comportementales, telles que des mouvements oculaires anormaux, des mouvements labiaux irréguliers ou des dérives dans le ton de voix et les schémas de parole [1]. Lors d’un test effectué sur une photo de trois personnes, une probabilité de 93 % de manipulation a été confirmée, avec une analyse détaillée des méthodes de détection et des zones spécifiques de l’image modifiées [1]. Un rapport complet est automatiquement généré, incluant une note d’authenticité allant de faible à critique, et peut être téléchargé pour des usages internes ou juridiques [1].
Accessibilité et modèles d’abonnement pour différents types d’utilisateurs
RealScan est disponible via une plateforme SaaS web et nécessite un compte pour être utilisé, ce qui restreint l’accès aux utilisateurs inscrits [1]. Deux formules d’abonnement sont proposées. Le forfait « Analyste » coûte 399 dollars par mois (environ 350 euros), ou 319 dollars par mois (environ 275 euros) pour un abonnement annuel [1]. Ce forfait permet jusqu’à 250 analyses par mois et donne accès à trois utilisateurs, avec un support par chat et l’accès aux rapports de résultats détaillés [1]. Pour les organisations plus grandes, un abonnement Enterprise est disponible, offrant un nombre illimité d’utilisateurs, un support spécialisé via Zoom, Teams ou Webex, ainsi qu’un gestionnaire dédié à la réussite client [1]. Ces modèles ont été conçus pour soutenir à la fois de petites rédactions et de grandes institutions publiques dans la gestion des risques liés aux contenus falsifiés [1].
La technologie derrière RealScan : comment l’IA est utilisée contre l’IA
La détection des deepfakes par RealScan repose sur l’utilisation de plusieurs algorithmes d’intelligence artificielle avancés, entraînés sur de grandes bases de données comprenant à la fois des médias authentiques et manipulés [1]. Le logiciel repère des incohérences subtiles que l’œil humain ne perçoit pas, telles que des irrégularités dans la texture de la peau, des ombres anormales ou des mouvements labiaux incohérents pendant la parole [1]. L’analyse audio consiste à vérifier le timbre de voix, la fréquence, l’amplitude et la synchronisation des sons à la recherche d’anomalies indiquant une génération par IA [1]. Dans sa version de test, l’outil utilisait une combinaison de modèles, notamment ceux spécifiquement développés pour analyser les mouvements oculaires et détecter les signaux d’anticipation audio, ce qui est essentiel pour repérer les manipulations profondes [1]. Bien que la technologie soit très avancée, l’entreprise ne fournit pas de spécifications précises sur l’architecture des modèles ou le nombre de cycles d’entraînement, ce qui peut limiter la transparence totale [1].
Le défi constant : la course aux armes entre création et détection
La vitesse à laquelle les outils de génération par IA évoluent pose un défi permanent aux outils de détection comme RealScan. Bien que RealScan rapporte actuellement une précision de détection de 93 % pour une photo test spécifique, il reste incertain que cette performance se maintienne face à de nouvelles générations de deepfakes créés à partir de modèles améliorés, tels que les GANs ou les modèles de diffusion (comme ceux utilisés dans Stable Diffusion ou Sora d’OpenAI) [1]. OpenAI a récemment durci ses directives concernant les deepfakes après les critiques venues de Hollywood, ce qui montre que même les grands acteurs technologiques sont conscients des risques liés à la génération par IA [1]. Pourtant, ce domaine reste un terrain où les outils créatifs évoluent plus vite que les modèles de détection ne peuvent les suivre. Si une nouvelle technologie d’IA parvient à simuler des mouvements oculaires réalistes ou des variations de ton de voix sans laisser de traces caractéristiques, cela pourrait réduire l’efficacité de RealScan [1]. La question reste de savoir si le processus de détection restera toujours en retard, ou si un système à faible latence avec des mises à jour continues et un retour en temps réel sera nécessaire pour maintenir l’équilibre [1].
Le rôle de la responsabilité technologique dans la communication publique
RealScan vise à préserver la confiance dans l’information, particulièrement dans des contextes où il s’agit d’élections, de sécurité publique ou de preuves juridiques [1]. L’outil produit des rapports utilisables à des fins judiciaires, ce qui est crucial pour les autorités et les médias devant fournir des preuves contre du contenu falsifié [1]. Il est intégré dans les processus de travail d’organisations majeures, comme les institutions publiques chargées de prévenir la fraude d’identité ou les campagnes de désinformation [1]. Le rôle de RealScan va donc au-delà de la simple détection technique : il contribue à instaurer une culture de responsabilité au sein de la société de l’information. En offrant un outil accessible, il réduit les barrières à l’utilisation de la technologie de détection par des non-spécialistes, ce qui est essentiel pour une protection plus large de la vérité [1].