Pourquoi un neuropsychologue célèbre dépose plainte contre une vidéo qu'il n'a jamais réalisée
Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsychologue à l’Université libre d’Amsterdam, a déposé une plainte contre une vidéo de deepfake dans laquelle il prétend recommander des médicaments qu’il n’a jamais proposés. L’image de lui-même dans son propre bureau, avec une voix convaincante, semble suffisamment réaliste pour tromper les gens. Ce qui est inquiétant : plus de 40 médecins et personnalités publiques ont été victimes d’un réseau utilisant l’IA pour promouvoir des compléments alimentaires sur TikTok. Ces vidéos sont si crédibles que des personnes lui envoient directement des e-mails pour savoir où acheter les produits. L’essentiel ? Une image et une voix générées par IA peuvent être si convaincantes qu’elles sapent la confiance envers les experts en santé — et ce n’est pas terminé.
L’essor des deepfakes médicaux : une menace pour la confiance dans les soins de santé
Le neuropsychologue Erik Scherder de l’Université libre d’Amsterdam a déposé plainte pour vol d’identité via des vidéos de deepfake montrant une prétendue recommandation de médicaments [1]. Ces vidéos, circulant sur les réseaux sociaux, présentent une version remarquablement réaliste de Scherder répandant des fausses informations sur des traitements médicaux [1]. Ce cas illustre de manière frappante la manière dont les techniques génératives basées sur l’IA sont mal utilisées pour affaiblir la confiance dans le système de santé [1]. L’utilisation de deepfakes dans le secteur de la santé n’est plus un scénario futuriste, mais un problème actuel. Plus de quarante médecins et personnalités néerlandaises ont été victimes d’un réseau utilisant l’IA pour promouvoir des compléments alimentaires sur TikTok [2]. Ces vidéos sont si bien réalisées que des internautes contactent directement Scherder par e-mail pour savoir où acheter les produits [3]. Le réalisme excessif de ces vidéos, incluant des images de Scherder dans son propre bureau, renforce l’illusion d’authenticité et amplifie la menace pour la santé publique [2].
Le modèle économique derrière la campagne de deepfake : un réseau d’entrepreneurs vietnamiens
Le projet de promotion tourne autour de la marque Wellness Nest, gérée par un réseau d’entrepreneurs vietnamiens appartenant au groupe Pati, basé au Colorado (États-Unis) et au Vietnam [2]. Ces entrepreneurs exploitent un programme d’affiliation qui incite des partenaires commerciaux à vendre des produits via TikTok [2]. La marque se concentre particulièrement sur des compléments comme le shilajit, selon lesquels les deepfakes affirment qu’il aide contre la fatigue ou les troubles liés à la ménopause [2]. Bien qu’un employé du groupe Pati ait nié les allégations concernant les deepfakes, aucune réponse écrite n’a été reçue après plusieurs tentatives de contact [2]. Les revenus présumés via les affiliations, visibles sur des captures d’écran des transactions PayPal, varient de 1 700 à 66 000 dollars américains par mois, avec des affirmations de bénéfices dépassant 100 000 dollars américains en un seul mois [2]. Cette attractivité financière alimente la diffusion de contenus trompeurs, en exploitant la crédibilité des médecins et des personnalités comme Scherder et Diederik Gommers [3].
La réaction du monde médical et le rôle des plateformes sociales
L’Artsgilde néerlandaise (KNMG) exprime de graves inquiétudes concernant l’usage croissant des deepfakes pour des revendications sanitaires trompeuses [2]. Selon la KNMG, la diffusion de ces contenus trompeurs peut entraîner des décisions de santé erronées de la part du public et constituer une menace pour la santé publique [2]. Les médecins eux-mêmes sont fermement convaincus que ce genre de pratique ne doit pas passer inaperçu. Scherder insiste sur le fait que c’est ‘profondément troublant’ que des gens créent ce type de vidéos, et qu’il a décidé d’agir en déposant une plainte [1]. L’intensiviste Diederik Gommers de l’Erasmus MC signale régulièrement des alertes de personnes qui le voient dans des vidéos de deepfake ‘promouvant des produits douteux’, ce qui met en péril sa crédibilité en tant que médecin [3]. TikTok n’a supprimé les vidéos qu’après que Pointer Check a contacté les plateformes, malgré le fait que les victimes aient signalé le contenu deux mois auparavant [2]. Les plateformes ont déclaré que ‘malgré nos processus de modération étendus, nous ne pouvons pas garantir que tout le contenu respecte nos directives’ [2].
Comment l’IA est utilisée aussi bien pour diffuser que pour combattre les fausses nouvelles
La technologie derrière les deepfakes repose sur des modèles d’IA avancés capables de reproduire visages, voix et mouvements à partir de faibles exemples du monde réel [2]. Ces techniques, telles que les réseaux antagonistes génératifs (GANs) et les modèles de continuation de texte, permettent de générer synthétiquement une apparence humaine et une voix, rendant les vidéos remarquablement réalistes [2]. Pour la diffusion, ces modèles génératifs sont utilisés pour produire une grande quantité de vidéos en peu de temps, ce qui rend possible l’échelle de cette campagne trompeuse [2]. D’un autre côté, l’IA est également utilisée pour combattre les fausses nouvelles. Des instituts de recherche et des plateformes développent des méthodes d’identification pilotées par l’IA qui analysent les supports audio et vidéo à la recherche de signes de manipulation, comme des mouvements oculaires inhabituels ou des mouvements labiaux incohérents [GPT]. Un exemple en est l’utilisation du ‘marquage numérique’ dans les fichiers, où un code invisible est intégré, identifiable par des logiciels de reconnaissance [GPT]. Bien que ces méthodes soient encore en cours de développement, elles sont essentielles pour établir une ligne de défense contre les fausses nouvelles générées par l’IA [GPT].
Conseils pratiques pour les lecteurs afin de repérer les deepfakes médicaux
Les lecteurs peuvent se protéger contre les deepfakes médicaux en suivant quelques étapes concrètes. Premièrement : vérifiez la source de la vidéo. S’agit-il d’un site officiel d’hôpital ou d’une institution reconnue, ou bien d’une chaîne TikTok ou YouTube personnelle ? Les vidéos provenant de sources inconnues sont plus rapidement suspects [GPT]. Deuxièmement : faites attention au langage utilisé. Les deepfakes utilisent souvent un langage exagéré ou émotionnel, comme ‘100 % naturel’, ‘aucun effet secondaire’, ou ‘fonctionne en 24 heures’, ce qui ne correspond pas aux preuves scientifiques [GPT]. Troisièmement : utilisez un moteur de recherche d’images comme Google Images ou TinEye pour rechercher une capture d’écran de la vidéo suspecte. Si l’image de Scherder apparaît déjà sur d’autres sites, c’est un signe de manipulation [GPT]. Quatrièmement : vérifiez si la personne dans la vidéo est réelle. Si un médecin ou une personnalité publique n’a pas de comptes officiels sur les réseaux sociaux, ou s’il n’a pas publié récemment sur le produit, c’est probablement une fausse vidéo [GPT]. Cinquièmement : signalez immédiatement le contenu suspect sur la plateforme où il apparaît. TikTok, YouTube et X (Twitter) disposent de fonctions intégrées de signalement qui aident à bloquer le contenu trompeur [2].