AIJB

Comment une IA générée par un médecin peut perturber votre santé

Comment une IA générée par un médecin peut perturber votre santé
2025-12-06 nepnieuws

online, zaterdag, 6 december 2025.
Imaginez : un médecin de confiance vous avertit d’une maladie dangereuse – mais ce n’est pas le vrai médecin. En décembre 2025, des vidéos générées par IA montrant des médecins réels ont circulé sur TikTok, diffusant des conseils de santé non vérifiés, en particulier concernant des compléments alimentaires sans fondement scientifique. La vérité la plus choquante ? Ces images étaient des deepfakes réaliste, créées à partir d’appearances réelles sans le consentement des individus concernés. Les vidéos, qui ont recueilli des milliers de commentaires et des millions de vues, ont rendu impossible la distinction entre le vrai et le faux. Le danger ne réside pas seulement dans la désinformation, mais aussi dans la perte de confiance : lorsque vous ne savez plus à qui faire confiance, même le médecin en cabinet devient un doute.

L’essor du médecin IA : une voix familière, un message faux

En décembre 2025, des centaines de vidéos ont apparu sur TikTok montrant des deepfakes réaliste de spécialistes en santé reconnus, dont le professeur David Taylor-Robinson, expert en santé infantile à l’Université de Liverpool. Ces vidéos générées par IA, basées sur des apparitions réelles lors d’une conférence de Public Health England (PHE) en 2017 et d’une audition parlementaire en mai 2025, affirmaient que Taylor-Robinson recommandait un complément à base de « 10 extraits végétaux soutenus par la science » pour les symptômes de la ménopause, y compris une maladie fictive appelée « jambes thermométriques » [1][3][5]. Ces vidéos, qui exploitaient intentionnellement la relation de confiance, ont suscité des milliers de réactions et dépassé 2,3 millions de vues en 48 heures, principalement parmi les jeunes utilisateurs aux Pays-Bas [2][5]. Selon la docteure Elise van Dijk de l’Autorité de la consommation et du marché (ACM), ce contenu « n’a aucune valeur médicale et peut être dangereux pour le public » [2]. Les images ont été produites à partir de vidéos réelles de médecins sans autorisation, constituant une violation grave de l’intégrité personnelle et de l’authenticité médicale [2][5].

L’élucidation de la stratégie trompeuse : comment fonctionnent les deepfakes et pourquoi ils sont si dangereux

Le vol d’autorité médicale par le biais de deepfakes générés par IA illustre de façon frappante la manière dont la technologie peut être utilisée pour exploiter la confiance. Ces deepfakes sont créés par des modèles d’IA capables de générer des voix et des expressions faciales crédibles à partir de ressources limitées – dans ce cas, des vidéos de Taylor-Robinson et d’autres experts en santé de 2017 [1][3][5]. La technologie est si avancée que même des experts ont eu du mal à distinguer le vrai du faux : Duncan Selbie, ancien directeur de Public Health England, a qualifié l’une des vidéos de « complètement fausse » et « non drôle » [3][5]. L’IA utilise des algorithmes qui simulent une « factor de confiance » en imitant la crédibilité : les utilisateurs voyaient un « médecin de confiance » transmettant un message « scientifiquement fondé » sur des compléments alimentaires – alors que le contenu était entièrement fictif [1][2][3]. Cette stratégie n’est pas seulement trompeuse, mais aussi dangereuse, car elle affaiblit la confiance dans les soins de santé, entraînant du méfiance entre patients et médecins, voire des délais d’attente prolongés dans le système de santé [5].

Le rôle des plateformes sociales : responsabilité et action insuffisante

Les plateformes de médias sociaux telles que TikTok sont au cœur de la diffusion de cette désinformation générée par IA. En décembre 2025, 124 vidéos ont été supprimées par TikTok, suite à une signalement de l’ACM et du vérificateur de faits de Full Fact [2]. La suppression a eu lieu le 5 décembre 2025, six semaines après la première réclamation de Taylor-Robinson en 1er septembre 2025, ce qui représente un retard de plus de trois mois [1][3][5]. Bien que TikTok ait confirmé que le contenu « était en contradiction avec leurs règles sur la désinformation nuisible et l’impersonation », sa réponse a été limitée : aucun cadre général n’a été annoncé, et aucune détection automatique du contenu généré par IA n’a été mise en œuvre [1][3][5]. Le gouvernement néerlandais avait annoncé le 5 décembre 2025 un plan d’action obligeant toutes les plateformes sociales à marquer le contenu médical généré par IA d’ici le 15 décembre 2025, mais cette date limite n’avait pas été respectée le 6 décembre [2]. L’ACM avait prévu que l’accord avec TikTok concernant le traitement du contenu médical généré par IA serait mis en œuvre dans les 48 heures suivant la détection, mais cette action n’avait pas été effectuée au 6 décembre 2025 [2]. Cela reflète un manque général de responsabilité et de rapidité dans la modération du contenu, malgré la gravité des risques [2][5].

La lutte contre la désinformation : comment les organisations et les citoyens peuvent réagir

Pour contrer l’impact de ce vol de confiance par IA, plusieurs initiatives ont été lancées. Netwerk Mediawijsheid, fondé en 2008 sur l’initiative du ministère de l’Éducation, de la Culture et de la Science, a lancé le 3 décembre 2025 la suite de la campagne « Vérifié ? C’est aussi bon pour la santé ! », visant à renforcer la résilience face à la désinformation médicale [5]. Cette campagne, diffusée depuis le 3 décembre 2025 dans plus de 400 salles d’attente de médecins généralistes et de centres de santé, inclut notamment un entretien avec la dermatologue et spécialiste de la désinformation Annemie Galimont [5]. En outre, une session de sensibilisation en ligne intitulée « Réagir contre la haine en ligne » a été organisée le 4 décembre 2025, en collaboration avec Diversion, afin de renforcer la littératie numérique chez les jeunes [5]. Le programme de stimulation 2025 de Netwerk Mediawijsheid a sélectionné cinq projets gagnants, dont #UseTheNews Pays-Bas et MICA Leeuwarden, qui se consacrent à développer la culture médiatique à travers des outils éducatifs [5]. Les lecteurs sont invités à adopter la pratique « Pause avant de publier », telle qu’introduite par la campagne @dpcireland, et à vérifier la fiabilité des informations, les sources et les éventuels conflits d’intérêts [4].

Comment reconnaître vous-même les vidéos générées par IA : conseils pratiques pour le lecteur

Pour réduire le risque de désinformation, chaque utilisateur peut prendre des mesures concrètes. Premièrement : vérifiez les sources des vidéos ou des images. Si une vidéo d’un médecin apparaît sur une plateforme sans mention claire qu’il s’agit de contenu généré par IA, la probabilité d’une falsification est élevée [2][5]. Deuxièmement : prêtez attention à des mouvements inhabituels, à des troubles oculaires ou à des effets de lumière inégaux – des signes fréquents des vidéos générées par IA [5]. Troisièmement : utilisez des outils en ligne de détection de l’IA, comme ceux proposés par l’ACM néerlandaise, qui ont été utilisés le 5 décembre 2025 pour identifier et vérifier des vidéos [2]. Quatrièmement : demandez-vous : « Ce médecin parlerait-il vraiment ainsi d’un complément ? » ou « Y a-t-il un conflit d’intérêts commercial ? » – de nombreuses vidéos étaient liées à Wellness Nest, une entreprise qui affirmait ne jamais avoir utilisé de contenu généré par IA, mais qui « n’avait pas de contrôle sur ses affiliés à travers le monde » [1][3][5]. Cinquièmement : signalez le contenu suspect via le bouton « Signalement » du Commissariat aux médias, disponible depuis le 1er juin 2025 pour les enfants et les adultes [5]. Ces mesures aident non seulement à protéger votre propre santé, mais aussi à renforcer l’intégrité de l’information numérique [5].

Sources