AIJB

medische deepfakes

How an AI-Generated Video of a Doctor Could Endanger Your Health

How an AI-Generated Video of a Doctor Could Endanger Your Health

2025-12-03 nepnieuws

Nederland, woensdag, 3 december 2025.
Imagine a trusted doctor in a video recommending a supplement that has never been approved — and the video is completely realistic. This is not science fiction: medical deepfakes are becoming increasingly sophisticated and are already being used to undermine trust in health information. Research from November 2025 had already identified 40 doctors and public figures who were misleadingly faked. Most people can no longer distinguish these videos from genuine content, even when scrutinizing closely. This makes it extremely dangerous: people make decisions about medications, tests, or diets based on false information. The real shock? Most AI chatbots do not even provide proper warnings. What you see, no matter how reliable it may appear, is often not what it seems.

Comment une vidéo générée par IA par un médecin peut mettre votre santé en danger

Comment une vidéo générée par IA par un médecin peut mettre votre santé en danger

2025-12-03 nepnieuws

Nederland, woensdag, 3 december 2025.
Imaginez qu’un médecin de confiance, dans une vidéo, vous recommande de prendre un complément alimentaire jamais approuvé — et que cette vidéo soit parfaitement réaliste. Ce n’est pas de la science-fiction : les deepfakes médicaux s’améliorent constamment et sont déjà utilisés pour miner la confiance envers les informations de santé. Une étude menée en novembre 2025 a déjà identifié 40 médecins et personnalités connues ayant été trompées par de telles manipulations. La plupart des gens ne parviennent plus à distinguer ces vidéos de contenus authentiques, même avec une attention aux détails. Cela devient extrêmement dangereux : les individus prennent des décisions sur leurs médicaments, leurs examens ou leur alimentation sur la base d’informations erronées. La vérité choquante ? La plupart des chatbots d’IA ne fournissent même pas d’avertissements corrects. Ce que vous voyez, aussi crédible soit-il, est souvent loin de ce qu’il prétend être.

Hoe een AI-gegenereerde video van een arts uw gezondheid in gevaar kan brengen

Hoe een AI-gegenereerde video van een arts uw gezondheid in gevaar kan brengen

2025-12-03 nepnieuws

Nederland, woensdag, 3 december 2025.
Stel je voor dat een vertrouwde arts in een video u aanbeveelt om een supplement te nemen dat nooit is goedgekeurd — en dat die video volkomen realistisch is. Dat is geen sciencefiction: medische deepfakes worden steeds beter en worden al gebruikt om vertrouwen in gezondheidsinformatie te ondermijnen. Onderzoek uit november 2025 identificeerde al 40 artsen en bekende figuren die misleidend werden gefakeerd. De meeste mensen kunnen deze video’s niet meer onderscheiden van echt materiaal, zelfs niet met een oog voor details. Dit maakt het extreem gevaarlijk: mensen besluiten op basis van onjuiste informatie over medicijnen, testen of voeding. De echte schok? De meeste AI-chatbots geven zelfs niet de juiste waarschuwingen. Wat u dus ziet, hoe betrouwbaar het ook lijkt, is vaak niet wat het lijkt te zijn.