Comment une voix générée par IA d’un médecin peut vous tromper
Nederland, vrijdag, 21 november 2025.
Imaginez : un médecin ou un influenceur connu vous avertit contre la fatigue – mais ce n’est tout simplement pas vrai. Une étude récente a révélé que plus de 40 médecins et personnalités publiques néerlandaises sont utilisés de manière abusive dans des vidéos deepfake promotionnelles de compléments alimentaires de Wellness Nest. Ces vidéos utilisent des images réelles, mais associent des voix générées par IA qui diffusent des faussetés – comme l’affirmation que le produit soulagerait les troubles liés à la ménopause ou la fatigue, sans preuve scientifique. Ce qui est inquiétant : derrière ce réseau se cachent des entrepreneurs vietnamiens qui gagnent des millions grâce à un programme d’affiliation. Le plus troublant ? Ces vidéos ont été visibles pendant des mois sur TikTok, malgré des signes évidents de tromperie. Ce n’est pas un simple hasard – il s’agit d’une menace croissante pour notre confiance dans l’information numérique.
Comment une voix générée par IA d’un médecin peut vous tromper
Imaginez : un médecin ou un influenceur connu vous avertit contre la fatigue – mais ce n’est tout simplement pas vrai. Une étude récente a révélé que plus de 40 médecins et personnalités publiques néerlandaises sont utilisés de manière abusive dans des vidéos deepfake promotionnelles de compléments alimentaires de Wellness Nest [1][2][3]. Ces vidéos utilisent des images réelles de médecins et de personnalités néerlandaises connues, comme le sportif entrepreneur Arie Boomsma, l’influenceur Monica Geuze ou le neuropsychologue Erik Scherder, mais les combinent avec des voix générées par IA qui diffusent des faussetés – comme l’affirmation que le produit aiderait à soulager les troubles liés à la ménopause ou à la fatigue, sans preuve scientifique de son efficacité [1][2][3]. Cette technique crée une illusion de crédibilité : on a l’impression qu’un expert reconnu, comme un médecin ou une personnalité célèbre, donne un conseil, alors que ce n’est pas le cas. La commercialisation des compléments Wellness Nest s’appuie sur des revendications selon lesquelles ils réduisent la fatigue et les troubles de la ménopause, sans lien scientifique avec l’efficacité du shilajit [2]. La crédibilité de la personne représentée est donc exploitée à des fins de vente, une pratique qualifiée par la Fédération des Médecins KNMG de « nuisible et trompeuse », et posant un risque pour la santé publique [2].
Le réseau derrière les deepfakes : des entrepreneurs vietnamiens et des programmes d’affiliation
Derrière le réseau de Wellness Nest se cachent des entrepreneurs vietnamiens actifs à travers l’entreprise Pati Group, dont les informations d’entreprise proviennent du Colorado (États-Unis) et du Vietnam [2]. Ce réseau utilise un système de « programme d’affiliation » pour étendre la diffusion des vidéos deepfake : en incitant d’autres à devenir partenaires commerciaux (affiliés), ils peuvent vendre des compléments alimentaires via TikTok et toucher une commission [1][2]. Des preuves par capture d’écran montrent des crédits PayPal allant de 1 700 à 66 000 dollars américains par mois pour les affiliés, avec des gagnants de concours qui, selon les images, gagneraient plus de 100 000 dollars par mois ; Pointer Checkt n’a pas pu vérifier ces revenus [2]. Bien qu’un employé de Pati Group ait nié les allégations concernant l’utilisation de deepfakes, l’entreprise n’a pas répondu par écrit malgré plusieurs tentatives [2]. La diffusion de ce contenu trompeur est donc soutenue non seulement par la technologie IA, mais aussi par un système économique qui récompense la manipulation des utilisateurs, renforçant ainsi l’urgence d’un contrôle accru sur le marketing numérique [1][2].
Comment TikTok et Trustpilot facilitent la propagation de fausses nouvelles
Les vidéos deepfake ont été publiées sur TikTok pendant deux mois avant d’être supprimées, malgré des signes flagrants de tromperie [2]. TikTok reconnaît que ses processus de modération ne garantissent pas une conformité totale aux règles : « Malgré nos processus de modération approfondis, nous ne pouvons pas garantir que tout le contenu respecte nos directives » [2][3]. Les plateformes continuent d’encourager la propagation de fausses informations, notamment via Trustpilot, où Wellness Nest affiche un TrustScore de 4,3/5 basé sur 942 avis clients [4]. Les clients expriment des expériences variées : certains rapportent une meilleure énergie et un sommeil amélioré, tandis que d’autres dénoncent des retards de livraison (presque un mois), des frais de douane inattendus de 10 euros, des commandes répétées automatiquement sans consentement explicite et une impossibilité à supprimer leurs données personnelles [4]. Une cliente, Angélique, affirme même que l’entreprise conserve ses coordonnées bancaires « sans que je le veuille », ce qui pourrait constituer une violation possible de la réglementation sur la protection des données [4]. En outre, un client a déclaré, le 4 novembre 2025, que Wellness Nest utilise des vidéos deepfake générées par IA dans ses publicités Instagram, constituant ainsi une accusation publique contre la responsabilité de la marque [4]. Cette combinaison de plateformes et d’avis clients crée une illusion de popularité et de fiabilité, tandis que le produit réel et ses revendications sont largement non vérifiés [4].
Signes d’un deepfake : comment repérer les vidéos falsifiées
Il existe des indicateurs techniques qui peuvent signaler une génération par IA d’images ou de voix. Selon Digiwijzer, les indices visuels incluent des ombres anormales, des doigts mal proportionnés, des jeux de lumière irréalistes, ainsi que des dents ou des yeux peu naturels [3]. Les indices audio sont des voix robotiques, un manque d’émotion ou une fluidité inhabituelle dans l’élocution [3]. Ces signes sont souvent présents dans les vidéos deepfake utilisées par Wellness Nest, où les voix de médecins et d’influenceurs célèbres sont imitées sans que ces personnes aient réellement prononcé ces mots [1][2]. Des outils en ligne sont disponibles pour détecter les métadonnées ou les manipulations d’images, notamment des outils développés par le Bureau européen pour la protection des données personnelles [3]. Pour les utilisateurs, il est essentiel d’apprendre à repérer les incohérences : vérifiez si la source lumineuse dans la vidéo est logique, si les mouvements des yeux ou des lèvres correspondent au discours, et si la voix sonne comme issue d’un ordinateur. Si vous doutez, vérifiez la source : regardez si la vidéo provient d’une page officielle ou d’une source d’information reconnue, et non d’un compte inconnu sur TikTok ou Instagram [3].
La menace démocratique des fausses nouvelles générées par IA
La diffusion de deepfakes à des fins commerciales est bien plus qu’une question de vie privée ou de marketing – elle constitue une menace pour les valeurs démocratiques [1][2]. Lorsque des personnalités publiques, y compris des médecins, sont représentées de manière trompeuse dans des vidéos utilisant leur voix ou leur visage sans leur consentement, la confiance dans l’espace public numérique est gravement compromise [1][2]. La Fédération des Médecins KNMG met en garde contre le risque de décisions sanitaires erronées prises par les citoyens et les dangers potentiels pour la santé publique découlant de cette propagation de contenus trompeurs [2][3]. La situation rappelle l’usage de deepfakes dans la pornographie falsifiée, où des dizaines de femmes néerlandaises ont été victimes d’usurpation de visage sur le corps de actrices pornos [1]. L’avenir de la démocratie dépend de notre capacité à distinguer entre vérité et fausses nouvelles. Si nous ne parvenons pas à reconnaître le contenu généré par IA, nous risquons de perdre notre confiance en l’information, les médias et les figures publiques [3]. Cela transforme la compétence médiatique d’un luxe en une compétence vitale pour chaque citoyen numérique.