Comment une vidéo générée par IA d'une personnalité néerlandaise connue peut vous voler votre argent
Amsterdam, vrijdag, 21 november 2025.
En novembre 2025, des vidéos deepfake convaincantes de personnalités néerlandaises célèbres, notamment des médecins et des figures publiques, ont fait leur apparition sur TikTok, utilisées pour tromper des victimes et causer des dommages financiers. Selon une enquête révélée, les criminels n’ont besoin que de quelques secondes d’audio pour cloner une voix, et cette technologie est désormais si avancée qu’aucun visage familier ne peut plus être automatiquement considéré comme crédible. La vérité la plus choquante ? Ces vidéos, que vous avez peut-être vues sans le réaliser, n’étaient pas de véritables interviews, mais une manœuvre habile diffusée sur Internet afin de vous convaincre d’acheter une solution pour la santé ou des investissements. Ce n’est plus de la science-fiction : soyez critique, car la frontière entre le réel et le fictif est aujourd’hui presque invisible.
L’essor de la fraude par deepfake via les réseaux sociaux
En novembre 2025, plusieurs vidéos deepfake crédibles de personnalités néerlandaises célèbres, notamment des médecins et des figures publiques, ont été publiées sur TikTok dans le cadre d’une fraude financière visant à promouvoir le complément alimentaire shilajit de Wellness Nest [1]. Ces vidéos, visionnées à plus de 200 000 reprises, renvoyaient vers un produit vendu via un programme d’affiliation de Pati Group, une entreprise active dans le secteur des compléments alimentaires [1]. Les comptes concernés étaient actifs de juillet à août 2025 et n’ont été retirés que le 20 novembre 2025, le jour de la publication, après avoir été signalés par Pointer Checkt [1]. Les deepfakes utilisés sont techniquement si convaincants qu’ils effacent la frontière entre réalité et fiction, rendant quasi impossible pour les consommateurs de déterminer si une personne est réellement présente dans une vidéo [2]. Au lieu d’utiliser des identités réelles, certains fraudeurs choisissent des vidéos entièrement générées par IA avec des influenceurs ou des médecins fictifs, ce qui rend la détection de la tromperie encore plus difficile [1]. Ces techniques ne sont pas uniquement utilisées pour la promotion de produits, mais permettent également aux criminels de gagner rapidement la confiance à grande échelle via les réseaux sociaux, où le volume de contenu publié et la vitesse de diffusion sont déterminants pour le succès [2].
Du clonage vocal à la fraude d’entreprise : la menace étendue de l’IA
La menace de la fraude alimentée par l’IA va bien au-delà des vidéos. En novembre 2025, des voix deepfake ont également été utilisées dans des appels téléphoniques de fraude, où les criminels n’avaient besoin que de quelques secondes d’audio pour cloner la voix d’un directeur ou d’un employé bancaire [3]. Ces voix, combinées à la falsification de numéros, produisent des appels qui semblent authentiques et proviennent d’une source officielle, entraînant des fraudes où les employés reçoivent des instructions pour transférer de l’argent [3]. Au début de 2025, le Fraudehelpdesk a enregistré une augmentation de 300 % des signalements de ce type d’appels frauduleux, ce qui montre une corrélation directe avec l’utilisation de voix générées par IA [3]. En Hollande, plusieurs cas de conversations d’entreprise utilisant des voix deepfake sont déjà connus, et selon KPMG et Europol, la fraude par deepfake est l’une des formes de criminalité numérique les plus en croissance en Europe [3]. En outre, les criminels utilisent l’IA pour automatiser les appels robotisés, rédiger des e-mails de phishing en néerlandais parfait, et même améliorer le piratage de SIM en utilisant des scripts intelligents et une personnalisation ciblée pour convaincre plus rapidement les agents d’assistance [3]. Ces évolutions révèlent un changement profond : la fraude n’est plus fondée sur des pièges maladroits, mais sur une précision et une échelle rendues possibles uniquement par l’IA générative [3].
La bataille des armes : comment l’IA est aussi utilisée pour combattre la fraude
Alors que l’IA est utilisée pour commettre des fraudes, elle est de plus en plus employée comme outil de défense. Des organisations comme SAS testent l’IA agente pour repérer proactivement de nouveaux scénarios de fraude sur Internet, permettant ainsi de détecter les stratégies frauduleuses avant qu’elles ne se déclenchent [2]. McAfee propose un outil de détection de fraude [https://www.mcafee.com/en-us/scam-detector/] qui utilise une intelligence artificielle avancée pour identifier automatiquement les fraudes par SMS, e-mail et vidéo, y compris le contenu deepfake [1]. Cet outil permet d’identifier les messages suspects, les sites web falsifiés et les manipulations par IA avant qu’aucun dommage ne soit causé, incarnant ainsi le principe fondamental de « utiliser l’IA pour combattre l’IA » [1]. KeenSystems recommande aux organisations d’adopter des systèmes d’analyse d’anomalies pilotés par IA et des technologies de vérification vocale pour bloquer les appels ou destinations suspects [3]. La combinaison de données, de logique décisionnelle et de capacités d’analyse via une plateforme centralisée est considérée comme essentielle pour une surveillance proactive et une réaction rapide à la fraude [2]. Olaf Passchier de SAS souligne que ce n’est pas une question de confiance aveugle, mais de comprendre pourquoi quelque chose se produit et d’agir en conséquence : « La technologie aide en offrant des éclairages sur ce qui se passe réellement » [2]. Cette approche met en lumière que l’IA n’est efficace que si la technologie sous-jacente et le processus décisionnel sont bien compris [2].
Conseils pratiques pour les lecteurs : comment vous protéger contre la fraude alimentée par l’IA
Pour se protéger contre la menace croissante de la fraude alimentée par l’IA, il existe des mesures concrètes que vous pouvez prendre. Les utilisateurs sont invités à ne jamais utiliser de coupons-cadeaux ou de cryptomonnaies pour effectuer des paiements, car des organisations légitimes ne demandent jamais cela [1]. L’utilisation du Wi-Fi public pendant les achats est fortement déconseillée en raison du risque élevé de piratage ; il est préférable d’utiliser une connexion sécurisée ou mobile [1]. Les utilisateurs peuvent s’inscrire à leur compte McAfee pour vérifier s’ils ont été concernés par des fuites récentes de données où leur adresse e-mail a été compromise, et être redirigés vers des étapes de récupération [1]. Pour les organisations, il est essentiel de favoriser la collaboration au sein de la chaîne d’approvisionnement : les informations concernant des appels suspects ou de nouveaux scams doivent être partagées avec les prestataires et les organismes sectoriels [3]. Lors de l’utilisation de l’authentification à deux facteurs (2FA), il est recommandé d’opter pour des applications ou des dispositifs matériels plutôt que pour les SMS, car ces derniers sont vulnérables au piratage de SIM [3]. En outre, il est crucial de ne pas cliquer sur des liens suspects, même s’ils semblent provenir d’une source de confiance, et de rester toujours vigilant envers le contenu que vous voyez sur TikTok ou d’autres plateformes [1]. McAfee avertit : « Le temps où les tactiques de fraude étaient faciles à repérer est révolu » [1].