AIJB

deepfakes

Why a well-known doctor allowed himself to be faked in a medical deepfake

Why a well-known doctor allowed himself to be faked in a medical deepfake

2025-11-21 nepnieuws

amsterdam, vrijdag, 21 november 2025.
A professor of neuropsychology at Vrije Universiteit Amsterdam has filed a complaint against AI-generated videos depicting him recommending medications he never endorsed. Most alarming? The videos show him in his own office and department, making them incredibly convincing. People have already lost money on products they bought after watching these fake videos. This case illustrates how quickly AI-generated deceptive content can erode trust in healthcare — and why urgent measures are now essential.

Pourquoi un médecin connu se fait-il falsifier dans un deepfake médical

Pourquoi un médecin connu se fait-il falsifier dans un deepfake médical

2025-11-21 nepnieuws

amsterdam, vrijdag, 21 november 2025.
Un professeur universitaire en neuropsychologie de l’Université libre d’Amsterdam a porté plainte contre des vidéos générées par IA qui le montrent recommander des médicaments qu’il n’a jamais prescrits. Ce qui est le plus troublant ? Ces vidéos le montrent dans son propre cabinet et son département, ce qui les rend incroyablement crédibles. Des personnes ont déjà perdu de l’argent en achetant des produits après avoir vu ces vidéos falsifiées. Ce cas met en lumière à quelle vitesse les contenus falsifiés générés par IA peuvent ébranler les relations de confiance dans le secteur de la santé — et pourquoi des mesures urgentes s’imposent désormais.

Waarom een bekende arts zich laat vervalsen in een medische deepfake

Waarom een bekende arts zich laat vervalsen in een medische deepfake

2025-11-21 nepnieuws

amsterdam, vrijdag, 21 november 2025.
Een hoogleraar neuropsychologie van de Vrije Universiteit heeft aangifte gedaan tegen AI-genererende video’s die hem laten spreken over medicijnen die hij nooit heeft aanbevolen. Het meest verontrustend? De video’s tonen hem in zijn eigen kantoor en afdeling, waardoor ze ongelooflijk overtuigend lijken. Mensen hebben al geld verloren aan producten die ze kochten na het zien van deze nepvideo’s. Dit geval laat zien hoe snel AI-gegenereerde nepcontent vertrouwensrelaties in de zorg kan ondermijnen — en waarom maatregelen nu dringend nodig zijn.

How an AI-Generated Doctor's Voice Can Mislead You

How an AI-Generated Doctor's Voice Can Mislead You

2025-11-21 nepnieuws

Nederland, vrijdag, 21 november 2025.
Imagine this: a well-known doctor or influencer warns you about fatigue – but it’s completely fake. Recent research has revealed that over 40 Dutch doctors and public figures are being exploited in deepfake videos promoting supplements from Wellness Nest. These videos use real footage but pair it with AI-generated voices spreading false claims – such as the product helping with menopausal symptoms or fatigue, despite a lack of scientific evidence. What’s unusual is that the network behind these videos is operated by Vietnamese entrepreneurs who are earning millions through an affiliate programme. Most alarming? The videos remained visible on TikTok for months, despite clear signs of deception. This is no coincidence – it represents an emerging threat to our trust in digital information.

Comment une voix générée par IA d’un médecin peut vous tromper

Comment une voix générée par IA d’un médecin peut vous tromper

2025-11-21 nepnieuws

Nederland, vrijdag, 21 november 2025.
Imaginez : un médecin ou un influenceur connu vous avertit contre la fatigue – mais ce n’est tout simplement pas vrai. Une étude récente a révélé que plus de 40 médecins et personnalités publiques néerlandaises sont utilisés de manière abusive dans des vidéos deepfake promotionnelles de compléments alimentaires de Wellness Nest. Ces vidéos utilisent des images réelles, mais associent des voix générées par IA qui diffusent des faussetés – comme l’affirmation que le produit soulagerait les troubles liés à la ménopause ou la fatigue, sans preuve scientifique. Ce qui est inquiétant : derrière ce réseau se cachent des entrepreneurs vietnamiens qui gagnent des millions grâce à un programme d’affiliation. Le plus troublant ? Ces vidéos ont été visibles pendant des mois sur TikTok, malgré des signes évidents de tromperie. Ce n’est pas un simple hasard – il s’agit d’une menace croissante pour notre confiance dans l’information numérique.

Hoe een AI-gegenereerde stem van een arts u kunt misleiden

Hoe een AI-gegenereerde stem van een arts u kunt misleiden

2025-11-21 nepnieuws

Nederland, vrijdag, 21 november 2025.
Stel je voor: een bekende arts of influencer waarschuwt je voor vermoeidheid – maar het is helemaal niet echt. Recent onderzoek heeft aan het licht gebracht dat ruim 40 Nederlandse artsen en publieke figuren worden misbruikt in deepfake-video’s die supplementen van Wellness Nest promoten. De video’s gebruiken echte beelden, maar AI-nagebootste stemmen die onwaarheden vertellen – zoals dat het product helpt bij overgangsklachten of vermoeidheid, zonder wetenschappelijk bewijs. Wat ongebruikelijk is: achter het netwerk schuilgaan Vietnamese ondernemers die via een affiliateprogramma miljoenen verdienen. Het meest schokkend? De video’s werden maandenlang zichtbaar op TikTok, ondanks duidelijke signalen van misleiding. Dit is geen toeval – het is een opkomende bedreiging voor ons vertrouwen in digitale informatie.

Why a well-known neuropsychologist is reporting a video he never made

Why a well-known neuropsychologist is reporting a video he never made

2025-11-21 nepnieuws

Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, a neuropsychologist at Vrije Universiteit Amsterdam, has filed a report regarding a deepfake video in which he appears to recommend medications he has never endorsed. The footage shows him in his own office, speaking with a convincing voice, realistic enough to mislead viewers. What is alarming is that over 40 doctors and public figures have become victims of a network using AI to promote supplements on TikTok. The videos are crafted so convincingly that people have been contacting Scherder directly with questions about where to purchase the products. The core issue? An AI-generated face and voice can be so persuasive that trust in medical experts is undermined — and this threat is far from over.

Pourquoi un neuropsychologue célèbre dépose plainte contre une vidéo qu'il n'a jamais réalisée

Pourquoi un neuropsychologue célèbre dépose plainte contre une vidéo qu'il n'a jamais réalisée

2025-11-21 nepnieuws

Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsychologue à l’Université libre d’Amsterdam, a déposé une plainte contre une vidéo de deepfake dans laquelle il prétend recommander des médicaments qu’il n’a jamais proposés. L’image de lui-même dans son propre bureau, avec une voix convaincante, semble suffisamment réaliste pour tromper les gens. Ce qui est inquiétant : plus de 40 médecins et personnalités publiques ont été victimes d’un réseau utilisant l’IA pour promouvoir des compléments alimentaires sur TikTok. Ces vidéos sont si crédibles que des personnes lui envoient directement des e-mails pour savoir où acheter les produits. L’essentiel ? Une image et une voix générées par IA peuvent être si convaincantes qu’elles sapent la confiance envers les experts en santé — et ce n’est pas terminé.

Waarom een bekende neuropsycholoog aangifte doet van een video die hij nooit maakte

Waarom een bekende neuropsycholoog aangifte doet van een video die hij nooit maakte

2025-11-21 nepnieuws

Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsycholoog aan de Vrije Universiteit, heeft aangifte gedaan van een deepfakevideo waarin hij medicijnen aanbeveelt die hij nooit heeft voorgesteld. Het beeld van hem in zijn eigen kantoor, met een overtuigende stem, lijkt realistisch genoeg om mensen te misleiden. Wat verontrustend is: meer dan 40 artsen en bekenden zijn slachtoffer van een netwerk dat AI gebruikt om supplementen te promoten op TikTok. De video’s worden zó overtuigend gemaakt dat mensen hem direct mailen met vragen over waar ze de producten kunnen kopen. De essentie? Een AI-generatie van een gezicht en stem kan zo overtuigend zijn dat het vertrouwen in gezondheidsdeskundigen schade lijdt — en dat is nog niet afgedaan.

How an AI-Generated Video Could Undermine a Democracy

How an AI-Generated Video Could Undermine a Democracy

2025-11-18 nepnieuws

Amsterdam, dinsdag, 18 november 2025.
Imagine a video of a political leader exchanging a warzone for a statement that was never actually made. By 2025, such a scenario is no longer science fiction but a tangible risk. Deepfakes—AI-generated false images—are now being used to erode public trust, influence elections, and disrupt diplomatic negotiations. The most troubling aspect? The quality of this fabricated content is so high that even experts struggle to distinguish the real from the fake. When Hans Wijers stepped down as formateur, a private message was leaked—but what if that message itself was a deepfake? This is precisely the danger: a misleading reality that appears undeniably authentic at first glance. The era of clear boundaries between fact and fiction is over—and this changes everything we think about truth and democracy.