nepnieuws
How an AI-Generated Doctor's Voice Can Mislead You
Nederland, vrijdag, 21 november 2025.
Imagine this: a well-known doctor or influencer warns you about fatigue – but it’s completely fake. Recent research has revealed that over 40 Dutch doctors and public figures are being exploited in deepfake videos promoting supplements from Wellness Nest. These videos use real footage but pair it with AI-generated voices spreading false claims – such as the product helping with menopausal symptoms or fatigue, despite a lack of scientific evidence. What’s unusual is that the network behind these videos is operated by Vietnamese entrepreneurs who are earning millions through an affiliate programme. Most alarming? The videos remained visible on TikTok for months, despite clear signs of deception. This is no coincidence – it represents an emerging threat to our trust in digital information.
Comment une voix générée par IA d’un médecin peut vous tromper
Nederland, vrijdag, 21 november 2025.
Imaginez : un médecin ou un influenceur connu vous avertit contre la fatigue – mais ce n’est tout simplement pas vrai. Une étude récente a révélé que plus de 40 médecins et personnalités publiques néerlandaises sont utilisés de manière abusive dans des vidéos deepfake promotionnelles de compléments alimentaires de Wellness Nest. Ces vidéos utilisent des images réelles, mais associent des voix générées par IA qui diffusent des faussetés – comme l’affirmation que le produit soulagerait les troubles liés à la ménopause ou la fatigue, sans preuve scientifique. Ce qui est inquiétant : derrière ce réseau se cachent des entrepreneurs vietnamiens qui gagnent des millions grâce à un programme d’affiliation. Le plus troublant ? Ces vidéos ont été visibles pendant des mois sur TikTok, malgré des signes évidents de tromperie. Ce n’est pas un simple hasard – il s’agit d’une menace croissante pour notre confiance dans l’information numérique.
Hoe een AI-gegenereerde stem van een arts u kunt misleiden
Nederland, vrijdag, 21 november 2025.
Stel je voor: een bekende arts of influencer waarschuwt je voor vermoeidheid – maar het is helemaal niet echt. Recent onderzoek heeft aan het licht gebracht dat ruim 40 Nederlandse artsen en publieke figuren worden misbruikt in deepfake-video’s die supplementen van Wellness Nest promoten. De video’s gebruiken echte beelden, maar AI-nagebootste stemmen die onwaarheden vertellen – zoals dat het product helpt bij overgangsklachten of vermoeidheid, zonder wetenschappelijk bewijs. Wat ongebruikelijk is: achter het netwerk schuilgaan Vietnamese ondernemers die via een affiliateprogramma miljoenen verdienen. Het meest schokkend? De video’s werden maandenlang zichtbaar op TikTok, ondanks duidelijke signalen van misleiding. Dit is geen toeval – het is een opkomende bedreiging voor ons vertrouwen in digitale informatie.
Why a well-known neuropsychologist is reporting a video he never made
Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, a neuropsychologist at Vrije Universiteit Amsterdam, has filed a report regarding a deepfake video in which he appears to recommend medications he has never endorsed. The footage shows him in his own office, speaking with a convincing voice, realistic enough to mislead viewers. What is alarming is that over 40 doctors and public figures have become victims of a network using AI to promote supplements on TikTok. The videos are crafted so convincingly that people have been contacting Scherder directly with questions about where to purchase the products. The core issue? An AI-generated face and voice can be so persuasive that trust in medical experts is undermined — and this threat is far from over.
Pourquoi un neuropsychologue célèbre dépose plainte contre une vidéo qu'il n'a jamais réalisée
Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsychologue à l’Université libre d’Amsterdam, a déposé une plainte contre une vidéo de deepfake dans laquelle il prétend recommander des médicaments qu’il n’a jamais proposés. L’image de lui-même dans son propre bureau, avec une voix convaincante, semble suffisamment réaliste pour tromper les gens. Ce qui est inquiétant : plus de 40 médecins et personnalités publiques ont été victimes d’un réseau utilisant l’IA pour promouvoir des compléments alimentaires sur TikTok. Ces vidéos sont si crédibles que des personnes lui envoient directement des e-mails pour savoir où acheter les produits. L’essentiel ? Une image et une voix générées par IA peuvent être si convaincantes qu’elles sapent la confiance envers les experts en santé — et ce n’est pas terminé.
Waarom een bekende neuropsycholoog aangifte doet van een video die hij nooit maakte
Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsycholoog aan de Vrije Universiteit, heeft aangifte gedaan van een deepfakevideo waarin hij medicijnen aanbeveelt die hij nooit heeft voorgesteld. Het beeld van hem in zijn eigen kantoor, met een overtuigende stem, lijkt realistisch genoeg om mensen te misleiden. Wat verontrustend is: meer dan 40 artsen en bekenden zijn slachtoffer van een netwerk dat AI gebruikt om supplementen te promoten op TikTok. De video’s worden zó overtuigend gemaakt dat mensen hem direct mailen met vragen over waar ze de producten kunnen kopen. De essentie? Een AI-generatie van een gezicht en stem kan zo overtuigend zijn dat het vertrouwen in gezondheidsdeskundigen schade lijdt — en dat is nog niet afgedaan.
How an AI-Generated Video Could Undermine a Democracy
Amsterdam, dinsdag, 18 november 2025.
Imagine a video of a political leader exchanging a warzone for a statement that was never actually made. By 2025, such a scenario is no longer science fiction but a tangible risk. Deepfakes—AI-generated false images—are now being used to erode public trust, influence elections, and disrupt diplomatic negotiations. The most troubling aspect? The quality of this fabricated content is so high that even experts struggle to distinguish the real from the fake. When Hans Wijers stepped down as formateur, a private message was leaked—but what if that message itself was a deepfake? This is precisely the danger: a misleading reality that appears undeniably authentic at first glance. The era of clear boundaries between fact and fiction is over—and this changes everything we think about truth and democracy.
Comment une vidéo générée par IA a pu mettre une démocratie en difficulté
Amsterdam, dinsdag, 18 november 2025.
Imaginez : une vidéo d’un dirigeant politique qui échange un champ de bataille contre une déclaration jamais prononcée. En 2025, un tel scénario n’est plus de la science-fiction, mais un risque réel. Les deepfakes – des images falsifiées générées par l’IA – sont aujourd’hui utilisés pour miner la confiance publique, influencer les élections et perturber les négociations diplomatiques. Ce qui est le plus inquiétant ? La qualité de ces contenus frauduleux est si élevée que même les experts ont du mal à distinguer le vrai du faux. Lors du départ anticipé de Hans Wijers en tant que formateur, un message privé a été divulgué – mais et si ce message lui-même était un deepfake ? C’est précisément ce danger : une réalité trompeuse qui semble irréfutable à première vue. L’époque des frontières claires entre vérité et fiction est révolue – et cela change tout ce que nous pensons sur la vérité et la démocratie.
Hoe een AI-gegenereerde video een democratie in dubio kon brengen
Amsterdam, dinsdag, 18 november 2025.
Stel je voor: een video van een politiek leider die een oorlogsveld inruilt voor een verklaring die nooit werd gegeven. In 2025 is zo’n scenario geen sciencefiction meer, maar een reëel risico. Deepfakes – door AI gegenereerde valse beelden – worden nu gebruikt om publieke vertrouwensrelaties te ondermijnen, verkiezingen te beïnvloeden en diplomatieke onderhandelingen te verstoren. Het meest verontrustende? De kwaliteit van deze valse inhoud is zo hoog dat zelfs experts moeite hebben de echte van de nep te onderscheiden. Bij het vroegere vertrek van Hans Wijers als formateur, werd een privébericht gelekt – maar wat als dat bericht zelf een deepfake was? Dat is precies het gevaar: een misleidende realiteit die op het eerste gezicht onmiskenbaar echt lijkt. De tijd van duidelijke grenzen tussen feit en fictie is voorbij – en dat verandert alles wat we over waarheid en democratie denken.
How an AI-Generated Taylor Swift Put Digital Security Under Pressure
Amsterdam, maandag, 17 november 2025.
In November 2025, cybercriminals spread convincing AI-generated deepfakes of Taylor Swift across social media, with a single video clip falsely advertising an ‘AI Music Festival’ deceiving over 12,000 people. Most alarming: the scam campaign was executed using a free AI tool, Microsoft Designer, which bypassed existing security mechanisms. The fact that even technology from major corporations like Microsoft was misused underscores how blurred the line between creativity and abuse has become. The campaign triggered a panicked response from platforms, with X blocking Taylor Swift’s name in search functions—evidence of technological limitations in swiftly countering deepfakes. This is not merely an attack on a celebrity, but a warning to everyone who trusts online information.
Comment une deepfake d'IA de Taylor Swift a mis la sécurité numérique sous pression
Amsterdam, maandag, 17 november 2025.
En novembre 2025, des cybercriminels ont diffusé des deepfakes convaincants de Taylor Swift sur les réseaux sociaux, un seul clip vidéo, prétendant annoncer un « festival musical d’IA », ayant trompé plus de 12 000 personnes. Ce qui est le plus choquant : cette campagne de fraude a été menée à l’aide d’un outil d’IA gratuit, Microsoft Designer, dont les mécanismes de sécurité ont été contournés. Le fait que même des technologies développées par de grands groupes comme Microsoft aient été détournées montre que la frontière entre création et abus devient de plus en plus floue. Cette opération a provoqué une réaction paniquée des plateformes, X bloquant lui-même le nom de Taylor Swift dans les fonctions de recherche — un signe de l’impuissance des technologies à réagir rapidement face à du contenu profondément falsifié. Il s’agit là non seulement d’une attaque contre une célébrité, mais aussi d’un avertissement pour chacun qui fait confiance à l’information en ligne.
Hoe een AI-gegenereerde Taylor Swift de digitale veiligheid onder druk zette
Amsterdam, maandag, 17 november 2025.
In november 2025 verspreidden cybercriminelen overtuigende AI-gegenereerde deepfakes van Taylor Swift via sociale media, waarbij een enkel video-clip, die deed alsof ze een ‘AI-muziekfestival’ aanbood, meer dan 12.000 mensen oplichtte. Het meest schokkend: de fraudecampagne werd uitgevoerd met behulp van een gratis AI-tool, Microsoft Designer, die veiligheidsmechanismen werd omzeild. Het feit dat zelfs technologie van grote bedrijven als Microsoft werd misbruikt, toont aan dat de grens tussen creatie en misbruik steeds vager wordt. De campagne leidde tot een paniekerige reactie van platforms, waarbij X zelf Taylor Swifts naam blokkeerde in zoekfuncties — een teken van de onmacht van technologieën om snel te reageren op diepe valse inhoud. Dit is niet alleen een aanval op een beroemdheid, maar een waarschuwing voor iedereen die online informatie vertrouwt.