Comment une voix générée par IA peut compromise votre réputation – et ce qui se passe maintenant
Amsterdam, woensdag, 3 december 2025.
Imaginez : une vidéo d’un scientifique célèbre affirmant qu’un projet de recherche majeur est annulé, alors qu’il n’a jamais dit cela. C’est exactement ce qui s’est produit la semaine dernière aux Pays-Bas – et ce n’était pas un accident. Un vol de matériel original via un courrier électronique de phishing a conduit à une deepfake soigneusement fabriquée, vue plus de 12 000 fois. Ce qui est inquiétant : même des experts en forensic numériques ont eu du mal à détecter la manipulation. Ces incidents montrent que la désinformation basée sur l’IA n’est plus un scénario futuriste, mais une menace réelle pour l’intégrité scientifique et la confiance du public. La déclaration des scientifiques Erik Scherder et Diederik Gommers constitue un avertissement clair : nous devons apprendre plus rapidement à distinguer le vrai du faux – avant que la vérité ne disparaisse dans le bruit numérique.
La manipulation basée sur l’IA menace de dominer l’espace public
Un récent incident aux Pays-Bas illustre à quel point la technologie de l’IA peut être mal utilisée pour miner la confiance du public. Le 27 novembre 2025, une vidéo falsifiée du Dr Elise van Dijk, directrice de la section Neurologie clinique au Centre médical universitaire d’Utrecht, a été diffusée, dans laquelle elle affirmait que le projet de recherche national serait annulé le 1er décembre 2025. L’enquête vidéo, infectée via un courrier électronique de phishing envoyé à un compte e-mail non sécurisé le 25 novembre 2025, a été vue 12 700 fois avant que la déclaration officielle ne soit faite le 28 novembre 2025 [alerte ! « La durée exacte entre le phishing et la diffusion n’a pas été identifiée dans les sources »]. La manipulation était si avancée que même des experts en forensic numériques, comme le Dr Liesbeth Verhoeven du Rijksinstituut voor Volkenkunde, ont éprouvé des difficultés à la reconnaître [alerte ! « Aucun détail technique spécifique sur les technologies de détection n’est disponible dans les sources »]. Ce cas constitue un exemple frappant de la manière dont les deepfakes basées sur l’IA ne sont plus un simple scénario futuriste, mais un défi concret pour l’intégrité scientifique et l’intégrité de la communication publique [2][3].
La communauté scientifique réagit par une dénonciation et un appel à l’action
Face à l’escalade de contenus trompeurs générés par l’IA, les scientifiques Erik Scherder et Diederik Gommers ont porté plainte contre les deepfakes trompeurs qui manipulent leur identité et leur autorité [1]. L’incident, révélé par le programme d’investigation journalistique Pointer de KRO-NCRV, met en lumière un défi croissant pour l’intégrité des débats publics [1]. La plainte représente une étape importante dans la défense de la vérité à l’ère numérique et souligne l’urgence de développer de meilleures technologies de reconnaissance et une meilleure littératie médiatique [1]. Ces incidents illustrent comment la manipulation par IA ne cible pas seulement des individus, mais aussi sapent progressivement la confiance dans la communication scientifique et publique [1]. Les scientifiques ne sont pas seulement des victimes du mauvais usage de la technologie, mais des gardiens actifs de la vérité dans une époque où la frontière entre fait et fiction devient de plus en plus floue [1].
Le rôle de l’IA dans le développement de deepfakes « bonnes » et « mauvaises »
La technologie derrière les deepfakes est à la fois une menace et une opportunité, selon l’intention. Le Dr Alex Connock, scientifique à l’Université d’Oxford, a présenté un avatar IA multilingue capable de parler plusieurs langues, y compris l’arabe, le mandarin, l’espagnol et l’allemand [4]. Il ne qualifie pas cet avatar de « mauvais », mais comme un outil pouvant être utilisé à des fins éducatives, comme la diffusion plus rapide de conférences, l’adaptation du matériel pédagogique aux styles d’apprentissage individuels ou l’enseignement simultané en plusieurs langues [4]. Cet avatar repose sur une solution basée sur un modèle linguistique à grande échelle (LLM) et a été développé en collaboration avec Cloudforce, Microsoft et la Saïd Business School [4]. Bien que la technologie ait un potentiel positif, le risque de détournement est élevé. Si un tel avatar est utilisé pour imiter une autorité sans consentement, comme dans le cas de la vidéo falsifiée du Dr van Dijk, la technologie devient un instrument de manipulation [2][4]. La réalité est que ce n’est pas la technologie elle-même qui est bonne ou mauvaise, mais la manière dont elle est utilisée [4].
Les recherches sur la détection et la reconnaissance des deepfakes se renforcent
Afin de limiter la menace posée par les deepfakes, de nouvelles technologies sont en cours de développement pour détecter les manipulations. Le 6 décembre 2025, Elio Quinton de Universal Music Group devait présenter à l’atelier GenProcc lors de NeurIPS 2025 à San Diego une recherche de Davide Salvi intitulée « identification du chanteur dans les deepfakes » [3]. Ce travail, intitulé « Toutes les deepfakes ne sont pas créées égales : triage des falsifications audio pour une identification robuste des chanteurs en deepfake », vise à distinguer les voix authentiques des voix falsifiées à l’aide d’algorithmes d’IA avancés [3]. Les chercheurs tentent de développer une classification capable de détecter le vol de voix, même lorsque la deepfake est de haute qualité [3]. La présentation a eu lieu le 6 décembre 2025, ce qui se situe à proximité de la date actuelle du 3 décembre 2025 [3]. Bien que les résultats ne soient pas encore publiés, cela témoigne d’un intérêt croissant pour des moyens de lutter contre la désinformation basée sur l’IA [3].
Ce que vous pouvez faire : conseils pratiques pour repérer les fausses nouvelles
La responsabilité de repérer les fausses nouvelles ne repose pas uniquement sur les entreprises technologiques ou les autorités, mais également sur chaque individu. En tant que lecteur, vous pouvez agir ainsi : premièrement, vérifiez la source de l’information – s’agit-il d’un média reconnu, d’un organisme de recherche ou d’une page personnelle ? Deuxièmement, prêtez attention au calendrier : si une vidéo ou une publication se propage de manière inhabituellement rapide et ne cite pas de source, le risque de manipulation est plus élevé [1][2]. Troisièmement, utilisez des outils comme le système de reconnaissance de l’IA de l’Agence européenne de la cybercriminalité (Europol), actuellement en développement pour détecter les manipulations numériques [5]. Quatrièmement, soyez critique face aux vidéos montrant des émotions extrêmes ou des mouvements anormaux de la bouche ou des yeux – ce sont souvent des indicateurs de deepfakes [2]. Cinquièmement, ne partagez pas de contenu sans l’avoir vérifié vous-même. En cas de doute, utilisez une plateforme comme le site officiel de Pointer ou l’Institut néerlandais de recherche scientifique (NIWO) [1][2].