nepnieuws
How an AI voice can undermine your reputation – and what's happening now
Amsterdam, woensdag, 3 december 2025.
Imagine a video of a well-known scientist claiming that a major research project is being scrapped, despite never having said such a thing. This happened last week in the Netherlands – and it was no accident. A theft of original material via a phishing email led to a highly sophisticated deepfake that was viewed over 12,000 times. What is alarming is that even digital forensics experts found it difficult to detect the manipulation. These incidents demonstrate that AI-driven deception is no longer a distant future scenario but a real threat to scientific integrity and public trust. The complaint filed by scientists Erik Scherder and Diederik Gommers is a clear warning: we must learn to identify what is real faster – before the truth vanishes into the digital noise.
Comment une voix générée par IA peut compromise votre réputation – et ce qui se passe maintenant
Amsterdam, woensdag, 3 december 2025.
Imaginez : une vidéo d’un scientifique célèbre affirmant qu’un projet de recherche majeur est annulé, alors qu’il n’a jamais dit cela. C’est exactement ce qui s’est produit la semaine dernière aux Pays-Bas – et ce n’était pas un accident. Un vol de matériel original via un courrier électronique de phishing a conduit à une deepfake soigneusement fabriquée, vue plus de 12 000 fois. Ce qui est inquiétant : même des experts en forensic numériques ont eu du mal à détecter la manipulation. Ces incidents montrent que la désinformation basée sur l’IA n’est plus un scénario futuriste, mais une menace réelle pour l’intégrité scientifique et la confiance du public. La déclaration des scientifiques Erik Scherder et Diederik Gommers constitue un avertissement clair : nous devons apprendre plus rapidement à distinguer le vrai du faux – avant que la vérité ne disparaisse dans le bruit numérique.
Hoe een AI-voice je reputatie kan ondermijnen – en wat er nu gebeurt
Amsterdam, woensdag, 3 december 2025.
Stel je voor: een video van een bekende wetenschapper die beweert dat een belangrijk onderzoeksproject wordt afgeblazen, terwijl hij dat nooit heeft gezegd. Dat gebeurde vorige week in Nederland – en het was geen ongeluk. Een diefstal van origineel materiaal via een phishing-e-mail leidde tot een diepgeklopte deepfake die meer dan 12.000 keer werd bekeken. Wat verontrustend is: zelfs digitale forensisch experts vonden de manipulatie moeilijk te herkennen. Deze incidenten tonen aan dat AI-gebaseerde misleiding niet langer een toekomstbeeld is, maar een reële bedreiging voor wetenschappelijke integriteit en publieke vertrouwen. De aangifte van wetenschappers Erik Scherder en Diederik Gommers is een duidelijke waarschuwing: we moeten sneller leren herkennen wat echt is – voordat de waarheid verdwijnt in de digitale herrie.
How an AI-Generated Video of a Doctor Could Endanger Your Health
Nederland, woensdag, 3 december 2025.
Imagine a trusted doctor in a video recommending a supplement that has never been approved — and the video is completely realistic. This is not science fiction: medical deepfakes are becoming increasingly sophisticated and are already being used to undermine trust in health information. Research from November 2025 had already identified 40 doctors and public figures who were misleadingly faked. Most people can no longer distinguish these videos from genuine content, even when scrutinizing closely. This makes it extremely dangerous: people make decisions about medications, tests, or diets based on false information. The real shock? Most AI chatbots do not even provide proper warnings. What you see, no matter how reliable it may appear, is often not what it seems.
Comment une vidéo générée par IA par un médecin peut mettre votre santé en danger
Nederland, woensdag, 3 december 2025.
Imaginez qu’un médecin de confiance, dans une vidéo, vous recommande de prendre un complément alimentaire jamais approuvé — et que cette vidéo soit parfaitement réaliste. Ce n’est pas de la science-fiction : les deepfakes médicaux s’améliorent constamment et sont déjà utilisés pour miner la confiance envers les informations de santé. Une étude menée en novembre 2025 a déjà identifié 40 médecins et personnalités connues ayant été trompées par de telles manipulations. La plupart des gens ne parviennent plus à distinguer ces vidéos de contenus authentiques, même avec une attention aux détails. Cela devient extrêmement dangereux : les individus prennent des décisions sur leurs médicaments, leurs examens ou leur alimentation sur la base d’informations erronées. La vérité choquante ? La plupart des chatbots d’IA ne fournissent même pas d’avertissements corrects. Ce que vous voyez, aussi crédible soit-il, est souvent loin de ce qu’il prétend être.
Hoe een AI-gegenereerde video van een arts uw gezondheid in gevaar kan brengen
Nederland, woensdag, 3 december 2025.
Stel je voor dat een vertrouwde arts in een video u aanbeveelt om een supplement te nemen dat nooit is goedgekeurd — en dat die video volkomen realistisch is. Dat is geen sciencefiction: medische deepfakes worden steeds beter en worden al gebruikt om vertrouwen in gezondheidsinformatie te ondermijnen. Onderzoek uit november 2025 identificeerde al 40 artsen en bekende figuren die misleidend werden gefakeerd. De meeste mensen kunnen deze video’s niet meer onderscheiden van echt materiaal, zelfs niet met een oog voor details. Dit maakt het extreem gevaarlijk: mensen besluiten op basis van onjuiste informatie over medicijnen, testen of voeding. De echte schok? De meeste AI-chatbots geven zelfs niet de juiste waarschuwingen. Wat u dus ziet, hoe betrouwbaar het ook lijkt, is vaak niet wat het lijkt te zijn.
How an AI-Generated Voice Stole a Million Euros
amsterdam, zondag, 30 november 2025.
Recently, a German bank was robbed via a voice on a phone call that sounded perfectly authentic, generated by AI. The theft of €1.2 million occurred because even experienced bank staff could not distinguish between the real voice of a senior executive and the meticulously crafted deepfake. This is not an isolated incident: between 2024 and 2025, the threat of financial fraud using AI-generated deepfakes in the Netherlands rose by 340%. The technology has now advanced to a point where even sector experts cannot always detect the deception. The question is no longer whether it can happen, but when the next victim will fall. The solution lies not only in technology, but also in strengthened digital literacy and faster collaboration between institutions—such as the new EU taskforce, which must develop a detection system within 90 days.
Comment une voix générée par IA a pu voler un million d'euros
amsterdam, zondag, 30 november 2025.
Récemment, une banque allemande a été victime d’un vol par téléphonie, grâce à une voix générée de manière artificielle qui sonnait parfaitement naturelle. Le vol de 1,2 million d’euros a pu se produire parce que même des employés bancaires expérimentés n’ont pas pu distinguer la voix réelle d’un cadre supérieur de la deepfake parfaitement ajustée. Ce n’est pas une exception : entre 2024 et 2025, la menace de fraude financière liée à la génération d’images et de sons deepfake par IA a augmenté de 340 % aux Pays-Bas. La technologie est désormais si avancée que même des experts du secteur ne la reconnaissent pas toujours. La question n’est plus de savoir si cela peut arriver, mais quand le prochain victim sera pris. La solution ne réside pas uniquement dans la technologie, mais dans une sensibilisation numérique renforcée et une coopération plus rapide entre institutions, comme la nouvelle task force européenne qui doit développer un système de détection en moins de 90 jours.
Hoe een AI-gegenereerde stem een miljoen euro kon stelen
amsterdam, zondag, 30 november 2025.
Laatst werd een Duitse bank bestolen via een stemdie op een AI-gegenereerde manier volmaakt klonk op een telefoontje. De diefstal van 1,2 miljoen euro kwam tot stand omdat zelfs ervaren bankmedewerkers geen onderscheid konden maken tussen de echte stem van een topmanager en de afgestemde deepfake. Dit is geen uitzondering: tussen 2024 en 2025 is de dreiging van financiële fraude met AI-generatie van deepfakes in Nederland met 340% gestegen. De technologie is nu zo geavanceerd dat zelfs experts in de sector het niet altijd herkennen. De vraag is niet langer of het kan, maar wanneer het volgende slachtoffer valt. De oplossing ligt niet alleen in technologie, maar in een versterkte digitale geletterdheid en een snelere samenwerking tussen instellingen, zoals de nieuwe EU-taskforce die binnen 90 dagen een detectiesysteem moet ontwikkelen.
How an AI-Generated Video Could Spark National Tension
Den Haag, zondag, 30 november 2025.
A deepfake video of Indian military chief Gen Upendra Dwivedi, falsely claiming to make a statement about an activist, was disseminated by Pakistani propaganda accounts. The fake video, created using advanced AI technology, appeared so convincing that international media had to verify its authenticity. The Indian government confirmed the digital evidence was fabricated and intended to undermine trust in the armed forces. This incident highlights how vulnerable democratic institutions are to information warfare in the digital age—and how quickly a credible message without evidence can transform into a political explosion. The question is no longer whether AI can do this, but whether we can recognise it.
Comment une vidéo générée par IA a pu provoquer une tension nationale
Den Haag, zondag, 30 november 2025.
Une vidéo profondément fausse, montrant le chef militaire indien le général Upendra Dwivedi prononçant une déclaration supposée sur un activiste, a été diffusée par des comptes de propagande pakistanais. Cette vidéo, créée à l’aide de technologies d’IA avancées, semblait si crédible que même les médias internationaux ont dû la vérifier. Le gouvernement indien a confirmé que les preuves numériques étaient fabriquées et avaient pour objectif de miner la confiance dans l’armée. Cet événement illustre la vulnérabilité des institutions démocratiques face aux armes informationnelles dans l’ère numérique — et la rapidité avec laquelle un message crédible, sans preuve, peut se transformer en explosion politique. La question n’est plus de savoir si l’IA peut le faire, mais de savoir si nous sommes capables de le reconnaître.
Hoe een AI-gegenereerde video een nationale spanning kon veroorzaken
Den Haag, zondag, 30 november 2025.
Een diepe, maar onware video van de Indiase krijgsleider Gen Upendra Dwivedi, die een vermeende verklaring over een activist geeft, werd verspreid door Pakistanse propagandaaccounts. De fake-video, gemaakt met geavanceerde AI-technologie, leek zo overtuigend dat zelfs internationale media het moesten controleren. De Indiase overheid bevestigde dat het digitale bewijsmateriaal gefabricateerd was en dat het doel was om vertrouwen in het leger te ondermijnen. Dit gebeurtenis toont hoe kwetsbaar democratische instituties zijn voor informatiewapens in de digitale tijd — en hoe snel een geloofwaardig bericht zonder bewijs kunnen worden veranderd in een politieke explosie. De vraag is niet langer of AI dat kan, maar of we het herkennen.