nepnieuws
How AI Is Now Also Confusing Insurers
Amsterdam, zaterdag, 22 november 2025.
In 2024, over 9,000 cases of insurance fraud were identified — more than ever before, largely due to the rise of artificial intelligence. The most striking development? Criminals are using AI to create convincing fake invoices and manipulated damage photos, sometimes even with voice messages that sound like genuine executives. What did the Dutch Association of Insurers reveal? The same technology enabling fraud is also being used to detect it. The battle is not only technological, but also a race in speed and cooperation. And the impact on your own premium? It’s greater than you think.
Comment l'IA trouble maintenant les assureurs
Amsterdam, zaterdag, 22 november 2025.
En 2024, près de 9 000 cas de fraude d’assurance ont été recensés — un chiffre plus élevé que jamais, notamment grâce à l’essor de l’intelligence artificielle. La tendance la plus remarquable ? Les criminels utilisent l’IA pour créer des factures falsifiées convaincantes et des photos de dommages manipulées, parfois même avec des messages audio qui semblent émaner de dirigeants réels. Qu’a révélé le Syndicat des Assureurs ? La technologie qui rend la fraude possible est également mise à profit pour la démasquer. La bataille n’est pas seulement technologique, mais aussi une course à la vitesse et à la collaboration. Et les conséquences sur votre prime ? Elles sont plus importantes que vous ne le pensez.
Hoe AI nu ook de verzekeraars in de war probeert te steken
Amsterdam, zaterdag, 22 november 2025.
In 2024 werden ruim 9.000 gevallen van verzekeringsfraude vastgesteld — meer dan ooit en vooral dankzij de opkomst van kunstmatige intelligentie. De meest opvallende ontwikkeling? Criminelen gebruiken AI om overtuigende nepfacturen en gemanipuleerde schadefoto’s te maken, soms zelfs met spraakberichten die klinken als echte directeuren. Wat onthulde het Verbond van Verzekeraars? De technologie die fraude mogelijk maakt, wordt ook ingezet om diezelfde fraude te ontmaskeren. De strijd is niet alleen technologisch, maar ook een wedstrijd in snelheid en samenwerking. En het gevolg voor je eigen premie? Dat is groter dan je denkt.
How an AI-Generated Video of a Famous Dutch Person Can Steal Your Money
Amsterdam, vrijdag, 21 november 2025.
In November 2025, convincing deepfake videos of prominent Dutch figures, including doctors and public personalities, surfaced on TikTok, used to mislead victims and cause financial harm. Research has revealed that criminals require only a few seconds of audio to clone a voice, and this technology has advanced to such a degree that even familiar faces can no longer be automatically trusted as authentic. The most alarming truth? Those videos you may have seen without realising it were not genuine interviews — but sophisticated deceptions broadcast online to convince you that you were purchasing a solution for health or investments. This is no longer science fiction: be critical, because the line between reality and fabrication is now nearly invisible.
Comment une vidéo générée par IA d'une personnalité néerlandaise connue peut vous voler votre argent
Amsterdam, vrijdag, 21 november 2025.
En novembre 2025, des vidéos deepfake convaincantes de personnalités néerlandaises célèbres, notamment des médecins et des figures publiques, ont fait leur apparition sur TikTok, utilisées pour tromper des victimes et causer des dommages financiers. Selon une enquête révélée, les criminels n’ont besoin que de quelques secondes d’audio pour cloner une voix, et cette technologie est désormais si avancée qu’aucun visage familier ne peut plus être automatiquement considéré comme crédible. La vérité la plus choquante ? Ces vidéos, que vous avez peut-être vues sans le réaliser, n’étaient pas de véritables interviews, mais une manœuvre habile diffusée sur Internet afin de vous convaincre d’acheter une solution pour la santé ou des investissements. Ce n’est plus de la science-fiction : soyez critique, car la frontière entre le réel et le fictif est aujourd’hui presque invisible.
Hoe een AI-gegenereerde video van een bekende Nederlandse persoon uw geld kan stelen
Amsterdam, vrijdag, 21 november 2025.
In november 2025 verschenen op TikTok overtuigende deepfake-video’s van Nederlandse beroemdheden, waaronder artsen en publieke figuren, die werden gebruikt om slachtoffers te misleiden en financiële schade toe te brengen. Wat onthulde onderzoek is dat criminelen slechts enkele seconden audio nodig hebben om een stem te klonen, en dat deze technologie nu zo goed is dat zelfs vertrouwde gezichten niet meer automatisch geloofwaardig zijn. De meest schokkende waarheid? Die video’s, die u misschien hebt gezien zonder het te beseffen, waren geen echte interviews — maar een slimme misleiding die op het internet werd uitgezonden om u te overtuigen dat u een oplossing voor gezondheid of investeringen kocht. Dit is geen sciencefiction meer: kijk kritisch, want de grens tussen echt en nep is vandaag nauwelijks meer te zien.
Why a well-known doctor allowed himself to be faked in a medical deepfake
amsterdam, vrijdag, 21 november 2025.
A professor of neuropsychology at Vrije Universiteit Amsterdam has filed a complaint against AI-generated videos depicting him recommending medications he never endorsed. Most alarming? The videos show him in his own office and department, making them incredibly convincing. People have already lost money on products they bought after watching these fake videos. This case illustrates how quickly AI-generated deceptive content can erode trust in healthcare — and why urgent measures are now essential.
Pourquoi un médecin connu se fait-il falsifier dans un deepfake médical
amsterdam, vrijdag, 21 november 2025.
Un professeur universitaire en neuropsychologie de l’Université libre d’Amsterdam a porté plainte contre des vidéos générées par IA qui le montrent recommander des médicaments qu’il n’a jamais prescrits. Ce qui est le plus troublant ? Ces vidéos le montrent dans son propre cabinet et son département, ce qui les rend incroyablement crédibles. Des personnes ont déjà perdu de l’argent en achetant des produits après avoir vu ces vidéos falsifiées. Ce cas met en lumière à quelle vitesse les contenus falsifiés générés par IA peuvent ébranler les relations de confiance dans le secteur de la santé — et pourquoi des mesures urgentes s’imposent désormais.
Waarom een bekende arts zich laat vervalsen in een medische deepfake
amsterdam, vrijdag, 21 november 2025.
Een hoogleraar neuropsychologie van de Vrije Universiteit heeft aangifte gedaan tegen AI-genererende video’s die hem laten spreken over medicijnen die hij nooit heeft aanbevolen. Het meest verontrustend? De video’s tonen hem in zijn eigen kantoor en afdeling, waardoor ze ongelooflijk overtuigend lijken. Mensen hebben al geld verloren aan producten die ze kochten na het zien van deze nepvideo’s. Dit geval laat zien hoe snel AI-gegenereerde nepcontent vertrouwensrelaties in de zorg kan ondermijnen — en waarom maatregelen nu dringend nodig zijn.
How Vietnam Aims to Proactively Block AI-Generated Fake News
Hanoi, vrijdag, 21 november 2025.
Vietnam is taking a unique step in the fight against digital disinformation by introducing a new draft law that mandates platforms to implement proactive filters for AI-generated videos, images, and news content. The law, submitted on 18 November 2025, aims to detect misleading content at the moment of creation rather than removing it only after it has been disseminated. The most striking aspect? Responsibility lies with the platforms themselves—there is no need for police or judicial intervention, as technology must act before harm occurs. This represents one of the most ambitious approaches worldwide and offers a promising model for how democracies can respond to the challenges posed by AI-generated content. The legislation is still under discussion, but implementation is scheduled for January 2026.
Comment le Vietnam souhaite bloquer proactivement les fausses nouvelles générées par l'IA
Hanoi, vrijdag, 21 november 2025.
Le Vietnam entreprend une démarche originale dans la lutte contre la désinformation numérique : il présente un nouveau projet de loi obligeant les plateformes à intégrer des filtres proactifs pour détecter les vidéos, images et articles d’actualité générés par l’IA. Ce texte, déposé le 18 novembre 2025, vise à identifier le contenu falsifié non pas après sa diffusion, mais dès sa création. Ce qui distingue ce projet ? La responsabilité incombe directement aux plateformes — aucune intervention de la police ou de la justice n’est requise, mais la technologie elle-même doit agir avant que les dommages ne se produisent. Il s’agit d’une des approches les plus ambitieuses au monde, offrant un modèle prometteur pour les démocraties confrontées au défi de la génération par l’IA. Le projet est actuellement en discussion, mais son application est prévue pour janvier 2026.
Hoe Vietnam AI-gegenereerd nepnieuws proactief wil blokkeren
Hanoi, vrijdag, 21 november 2025.
Vietnam neemt een unieke stap in de strijd tegen digitale misinformatie: het presenteert een nieuw wetsontwerp dat platforms verplicht om proactieve filters in te bouwen voor AI-gegenereerde video’s, afbeeldingen en nieuwsberichten. De wet, ingediend op 18 november 2025, streeft ernaar om nepinhoud niet pas na verspreiding te verwijderen, maar al tijdens de creatie te detecteren. Het meest opvallende aspect? De verantwoordelijkheid ligt bij de platforms zelf – geen politie of justitie hoeft te reageren, maar de technologie moet zelf vóór de schade ingrijpen. Dit is een van de meest ambitieuze aanpakken ter wereld, en biedt een veelbelovend model voor hoe democratieën kunnen reageren op de uitdaging van AI-generatie. De wet staat nog onder discussie, maar haar uitvoering is gepland voor januari 2026.