AIJB

Comment une vidéo générée par IA par un médecin peut mettre votre santé en danger

Comment une vidéo générée par IA par un médecin peut mettre votre santé en danger
2025-12-03 nepnieuws

Nederland, woensdag, 3 december 2025.
Imaginez qu’un médecin de confiance, dans une vidéo, vous recommande de prendre un complément alimentaire jamais approuvé — et que cette vidéo soit parfaitement réaliste. Ce n’est pas de la science-fiction : les deepfakes médicaux s’améliorent constamment et sont déjà utilisés pour miner la confiance envers les informations de santé. Une étude menée en novembre 2025 a déjà identifié 40 médecins et personnalités connues ayant été trompées par de telles manipulations. La plupart des gens ne parviennent plus à distinguer ces vidéos de contenus authentiques, même avec une attention aux détails. Cela devient extrêmement dangereux : les individus prennent des décisions sur leurs médicaments, leurs examens ou leur alimentation sur la base d’informations erronées. La vérité choquante ? La plupart des chatbots d’IA ne fournissent même pas d’avertissements corrects. Ce que vous voyez, aussi crédible soit-il, est souvent loin de ce qu’il prétend être.

L’essor des deepfakes médicaux : une menace pour la confiance dans les soins de santé

Les deepfakes médicaux — des vidéos fabriquées par IA montrant des médecins supposés donner des conseils de santé trompeurs — constituent une menace croissante pour la santé publique. Selon une enquête menée par Pointer le 27 novembre 2025, 40 médecins et figures publiques ont été identifiés comme victimes de telles manipulations [1]. Ces vidéos montrent des experts en santé bien connus, comme Diederik Gommers ou le docteur Tamara, qui n’ont jamais prononcé ces propos, et avancent des affirmations fallacieuses telles que « le diabète de type 1 n’existe pas » ou que « l’exposition au soleil est cancérogène » [2]. Malgré leur réalisme apparent, ces vidéos sont entièrement fabriquées et utilisées fréquemment à des fins commerciales, comme le promotion de suppléments ou de médicaments — une pratique inacceptable éthiquement dans le cadre de la déontologie médicale [2]. La technologie est désormais si avancée que les mimiques, les micro-mouvements du visage, voire un éclat trop parfait de la peau rendent la distinction avec la réalité presque impossible [2]. Robin Peeters, interniste à l’Erasmus Medical Center, prévient que les gens peuvent prendre des décisions de santé erronées basées sur ces vidéos, ce qui peut être dangereux : « Les réponses d’un chatbot peuvent inquiéter les gens. Ou, à l’inverse, les rassurer à tort. Cela peut être dangereux » [1].

Les chatbots d’IA : un outil utile ou une menace pour les décisions des patients ?

Bien que des chatbots d’IA comme ChatGPT puissent fournir des informations médicales générales, ils ne sont pas capables d’offrir des traitements personnalisés. Robin Peeters insiste sur le fait que la valeur des conseils médicaux réside dans leur lien avec la situation spécifique du patient : « Le secret est de comprendre ce que cela signifie concrètement pour chaque patient individuel. C’est là que le médecin excelle, mais les chatbots sont beaucoup moins performants » [1]. Seul un petit pourcentage de ces chatbots contient des avertissements explicites indiquant que leurs informations sont générales et qu’il est impératif de consulter un professionnel de santé [1]. Cependant, même en présence de tels avertissements, les patients peuvent prendre des décisions sur leur santé basées sur des informations manipulées ou incomplètes, comme exiger des examens sans valeur médicale ou rejeter des médicaments comme les statines, décrits à tort comme « de simples poisons » [1]. La combinaison d’informations erronées et de l’illusion d’autorité peut entraîner de l’anxiété injustifiée ou une sérénité trompeuse, affaiblissant ainsi la base même de la confiance dans les soins de santé [1].

Le rôle des médias sociaux et du SEO dans la diffusion de fausses informations

L’IA n’est pas seulement utilisée pour créer des deepfakes, mais aussi pour diffuser des fausses informations via les plateformes internet. Le journaliste investigatif français Jean-Marc Manach a révélé qu’en novembre 2025, plus de 4 000 sites web de fausses nouvelles générés par IA étaient déjà opérationnels, principalement en français, avec au moins 100 en anglais [3]. Un exemple est « leparisienmatin.fr », un site de typosquatting qui imite le quotidien français légitime « Le Parisien » et utilise du contenu généré par IA pour manipuler l’algorithme de Google [3]. Ces sites emploient des techniques SEO avancées, comme des schémas de netlinking, où des backlinks artificiels sont générés automatiquement afin de tromper le système de classement de Google [3]. Malgré les interdictions explicites de Google contre l’achat ou la génération automatique de liens, ces pratiques restent largement répandues [3]. L’incitation économique est considérable : des sites performants génèrent des milliers de dollars par jour grâce aux revenus publicitaires via Google AdSense, notamment via Google Discover, qui est devenu une source majeure de revenus pour ces réseaux depuis 2022 [3].

Comment l’IA accélère la propagation de fausses informations et comment y faire face

La combinaison de grands modèles linguistiques (LLM) et d’automatisation permet de produire à grande échelle des fausses informations. Une étude universitaire de 2025 montre que les LLM sont environ 68 % plus efficaces que les humains pour détecter les véritables articles d’actualité, mais leur performance dans la détection des fausses nouvelles est similaire à celle des humains — environ 60 % de précision [4]. L’étude a également analysé les stratégies utilisées par les créateurs de fausses nouvelles pour renforcer la crédibilité de leur contenu, comme l’utilisation d’images générées par IA présentant des artefacts visuels, des profils d’auteurs fabriqués (par exemple, un « professeur à l’IESEG School of Management ») ou des titres sensationnalistes sans sources [3]. En outre, un risque de « dégradation de l’information » existe lorsque des journalistes de médias légitimes republient des récits générés par IA sans vérification [3]. Pour lutter contre cela, des solutions technologiques sont en cours de développement, comme DeepGaze — un outil d’IA qui analyse vidéo, audio et images frame par frame à la recherche de signes de manipulation [5]. Ce système est conçu pour une vérification en temps réel dans les rédactions de presse et peut être intégré via API ou en mode SaaS [5].

Pourquoi l’alphabétisation médiatique est désormais essentielle pour la démocratie et la santé

Le réalisme croissant des médias générés par IA met sous pression les principes fondamentaux de la démocratie et de la santé publique. Selon l’enquête Pew Global Media Trust Survey (2024), 69 % des consommateurs de nouvelles estiment que les médias générés par IA réduisent la confiance dans le journalisme [5]. En outre, l’UNESCO rapporte dans son Index de Sécurité Médiatique (2025) des pertes économiques mondiales de 78 milliards de dollars dues à la désinformation et à des campagnes basées sur des deepfakes [5]. Sander Duivestein, chercheur chez Sogeti, insiste sur la nécessité d’un « bon sens paysan » : « Ne faites pas confiance uniquement à vos yeux. Les deepfakes sont devenus si bons qu’on ne peut presque plus les détecter » [2]. La responsabilité incombe également aux plateformes de réseaux sociaux, qui tardent souvent à supprimer les vidéos trompeuses — une pratique que Robin Peeters juge « inacceptable » [1]. La solution réside dans une combinaison de détection technique, de législation avec des sanctions fortes contre les entreprises technologiques, et de campagnes de sensibilisation à grande échelle qui enseignent aux citoyens à identifier le contenu généré par IA [2].

Conseils pratiques pour reconnaître et éviter les fausses informations

Pour éviter d’être trompé par des informations générées par IA, les lecteurs peuvent suivre ces étapes concrètes. Vérifiez d’abord le nom de domaine : des sites comme « leparisienmatin.fr » sont des versions de typosquatting de « Le Parisien » et sont généralement faux [3]. Cherchez l’auteur : les articles générés par IA n’ont souvent aucune trace numérique sur LinkedIn ou Twitter, ou sont identifiés comme « professeur fantôme » [3]. Prêtez attention aux artefacts visuels : les images générées par IA peuvent présenter des reflets artificiels, des ombres inhabituelles ou des détails irréguliers [3]. Vérifiez les sources : les articles légitimes fournissent des références claires, tandis que les fausses nouvelles n’en mentionnent généralement aucune [3]. Utilisez des sources fiables comme homesite.nl, gezondheidenwetenschap.be, la page TikTok ou Instagram @doktersvandaag, ou la série podcast De Vragendokter [2]. En outre, des outils comme l’extension navigateur de Jean-Marc Manach peuvent aider à détecter les sites générés par IA, bien que de nouveaux domaines soient continuellement créés [3].

Sources