Pourquoi un médecin connu se fait-il falsifier dans un deepfake médical
amsterdam, vrijdag, 21 november 2025.
Un professeur universitaire en neuropsychologie de l’Université libre d’Amsterdam a porté plainte contre des vidéos générées par IA qui le montrent recommander des médicaments qu’il n’a jamais prescrits. Ce qui est le plus troublant ? Ces vidéos le montrent dans son propre cabinet et son département, ce qui les rend incroyablement crédibles. Des personnes ont déjà perdu de l’argent en achetant des produits après avoir vu ces vidéos falsifiées. Ce cas met en lumière à quelle vitesse les contenus falsifiés générés par IA peuvent ébranler les relations de confiance dans le secteur de la santé — et pourquoi des mesures urgentes s’imposent désormais.
Comment les deepfakes médicaux générés par IA minent la confiance dans les soins de santé
Le neuropsychologue Erik Scherder de l’Université libre d’Amsterdam a porté plainte pour vol d’identité via des vidéos deepfake générées par IA, dans lesquelles il prétend recommander des médicaments [1]. Ces vidéos montrent Scherder dans son propre cabinet et son département, renforçant l’illusion d’authenticité et provoquant des réactions sérieuses de la part des patients et des professionnels de santé [2]. Des individus lui ont écrit pour lui dire qu’ils avaient vu ses conseils et avaient acheté des produits qui ne fonctionnaient pas, ou qui leur ont fait perdre leur argent [3]. Les recommandations prétendues sont entièrement falsifiées et utilisées pour promouvoir des compléments alimentaires sur des plateformes comme TikTok, où le contenu trompeur circule à grande échelle [1][2]. Cette pratique affaiblit la relation de confiance entre patients et soignants, car les gens commencent à douter de l’authenticité des communications des médecins, même lorsqu’elles proviennent d’une personne de confiance [3]. La responsabilité de ce type d’abus est non seulement juridique, mais aussi éthique, car il entraîne des pertes financières et une perte de confiance dans un secteur où celle-ci est essentielle à une prise en charge efficace [1][2].
Un problème en croissance : des diagnostics falsifiés aux médicaments pour maladies hépatiques et rénales
Le vol d’identité par deepfake n’est plus limité à des faits médicaux légers ou anodins, comme dans les premières versions de contenus falsifiés [2]. Le médecin intensiviste Diederik Gommers de l’Erasmus MC signale que le contenu des vidéos deepfake a évolué, passant de simples images anodines à des recommandations fausses de produits destinés aux maladies du foie et des reins [2]. Cette évolution a des « conséquences réelles et importantes » pour la santé publique, car les patients peuvent paniquer ou choisir des traitements inappropriés sur la base d’informations trompeuses [2]. Gommers insiste sur le fait que sa réputation a été « mise à mal » par ces vidéos, où il est présenté comme quelqu’un qui « vend de la merde » — une expression qui indique non seulement que le contenu est faux, mais aussi qu’il va à l’encontre des normes éthiques médicales [2]. La fédération des médecins KNMG a exprimé ses inquiétudes dans une émission de Pointer Checkt concernant l’usage croissant de deepfakes médicaux, où les visages et voix de médecins sont utilisés sans consentement à des fins commerciales [3]. Cela révèle une extension systématique de l’abus, où les technologies d’IA sont exploitées pour miner les valeurs de confiance dans les soins de santé [1][2].
Agir : de la plainte aux réponses juridiques et institutionnelles
Scherder a porté plainte le vendredi 21 novembre 2025 contre des déclarations trompeuses basées sur ces deepfakes, après un échange avec l’Université libre concernant des actions possibles [3]. Il insiste sur le fait qu’il souhaite « agir » parce que ces faits ne peuvent pas rester ignorés — surtout lorsqu’il s’agit de déclarations trompeuses susceptibles de pousser les gens à acheter des produits inutiles ou à perdre leur argent [3]. Gommers a également porté plainte et insiste sur son souhait de protéger les gens contre ce « genre de merde » vendu à travers ces vidéos falsifiées [1]. L’Erasmus MC a engagé un avocat qui rédige « des lettres sans interruption » sur ces pratiques de deepfake, mais Gommers les décrit comme « arroser en ouvrant le robinet » — une métaphore pour une réaction trop tardive, trop faible et inefficace pour résoudre le problème [2]. Cela met en évidence le manque de mesures équilibrées, préventives, contre les contenus falsifiés générés par IA, où l’accent reste encore mis sur la répression plutôt que sur la prévention [1][2]. La plainte de Scherder et de Gommers constitue une étape dans un processus plus large de réponse juridique et institutionnelle à un problème technologique qui devance la législation et les mécanismes de contrôle [3].
Conseils pratiques pour reconnaître les fausses nouvelles et les deepfakes
Pour éviter de devenir victime d’informations médicales fausses, il est essentiel d’être critique lors de la consommation de contenu en ligne [GPT]. Faites attention aux vidéos où une personne connue donne des conseils dans un cadre professionnel (comme un cabinet ou un hôpital), surtout si elles circulent sur des plateformes comme TikTok ou YouTube sans source officielle [1][2]. Vérifiez si la vidéo a été publiée par une institution reconnue, comme l’Université libre ou l’Erasmus MC, ou par une source d’information certifiée [3]. Cherchez des indices de manipulation, comme des mouvements anormaux de la bouche, des ombres inégales ou une absence de clignement oculaire — des caractéristiques souvent présentes dans les vidéos générées par IA [GPT]. Utilisez des outils comme la fonction de détection de l’IA de Google, le Video Authenticator de Microsoft ou la plateforme DeepTrace, qui aident à évaluer l’authenticité des médias [GPT]. Si vous doutez, consultez immédiatement le site officiel de la personne ou de l’institution concernée, ou contactez un prestataire de soins de santé fiable [3]. La combinaison de littératie médiatique et numérique est désormais cruciale pour limiter l’impact du contenu falsifié généré par IA [GPT].