Hoe een AI-gegenereerde video van een bekende Nederlandse persoon uw geld kan stelen
Amsterdam, vrijdag, 21 november 2025.
In november 2025 verschenen op TikTok overtuigende deepfake-video’s van Nederlandse beroemdheden, waaronder artsen en publieke figuren, die werden gebruikt om slachtoffers te misleiden en financiële schade toe te brengen. Wat onthulde onderzoek is dat criminelen slechts enkele seconden audio nodig hebben om een stem te klonen, en dat deze technologie nu zo goed is dat zelfs vertrouwde gezichten niet meer automatisch geloofwaardig zijn. De meest schokkende waarheid? Die video’s, die u misschien hebt gezien zonder het te beseffen, waren geen echte interviews — maar een slimme misleiding die op het internet werd uitgezonden om u te overtuigen dat u een oplossing voor gezondheid of investeringen kocht. Dit is geen sciencefiction meer: kijk kritisch, want de grens tussen echt en nep is vandaag nauwelijks meer te zien.
De opmars van deepfake-oplichting via social media
In november 2025 verschenen op TikTok meerdere overtuigende deepfake-video’s van Nederlandse beroemdheden, waaronder artsen en publieke figuren, die werden gebruikt voor financiële oplichting via het promoten van het supplement shilajit van Wellness Nest [1]. Deze video’s, die meer dan 200.000 keer werden bekeken, verwezen naar een product dat werd verkocht via een affiliateprogramma van Pati Group, een bedrijf actief in de supplementenhandel [1]. De accounts waarop deze video’s verschenen, waren actief van juli tot augustus 2025 en werden pas op 20 november 2025, de dag voor vandaag, offline gehaald na een melding van Pointer Checkt [1]. De gebruikte deepfakes zijn technisch zodanig overtuigend dat ze de grens tussen werkelijkheid en nep opheffen, en maken het voor consumenten bijna onmogelijk om te bepalen of een persoon echt aanwezig is in een video [2]. In plaats van echte identiteiten te gebruiken, kiezen sommige oplichters voor volledig AI-gegenereerde video’s met fictieve influencers of artsen, wat de herkenning van misleiding verder bemoeilijkt [1]. Deze technieken worden niet alleen gebruikt voor productpromotie, maar stellen criminelen in staat om op grote schaal vertrouwen te winnen via sociale media, waar het aantal geplaatste content en de snelheid van verspreiding cruciaal zijn voor succes [2].
Van stemklonen tot zakelijke fraude: de brede dreiging van AI
De bedreiging van AI-gestuurde oplichting gaat verder dan alleen video’s. In november 2025 werden ook deepfake-stemmen gebruikt in telefonische oplichting, waarbij criminelen slechts enkele seconden audio nodig hebben om de stem van een directeur of bankmedewerker te klonen [3]. Deze stemmen, gecombineerd met nummerspoofing, leiden tot telefoontjes die echt klinken en afkomstig lijken van een officiële bron, wat leidt tot fraude waarbij medewerkers opdrachten krijgen tot geldovermakingen [3]. Begin 2025 zag de Fraudehelpdesk een stijging van 300% in meldingen van dergelijke telefonische oplichtingen, wat directe correlatie toont met het gebruik van AI-gegenereerde stemmen [3]. In Nederland zijn al meerdere gevallen bekend van zakelijke gesprekken waarin deepfake-stemmen werden gebruikt, en volgens KPMG en Europol is deepfake-fraude een van de snelst groeiende vormen van digitale criminaliteit in Europa [3]. Daarnaast gebruiken criminelen AI om robocalls te automatiseren, phishingmails in perfect Nederlands te schrijven, en zelfs SIM-swapping te verbeteren door slimme scripts en personalisatie te gebruiken om helpdeskmedewerkers sneller te overtuigen [3]. Deze ontwikkelingen duiden op een diepere verandering: oplichting is niet langer gebaseerd op onhandige valstrikken, maar op een precisie en schaal die alleen mogelijk is met generatieve AI [3].
De wapenstrijd: hoe AI ook wordt ingezet om oplichting te bestrijden
Terwijl AI wordt ingezet voor oplichting, wordt het ook steeds meer gebruikt als verdediging. Organisaties zoals SAS testen Agentic AI om nieuwe fraudescenario’s op het internet proactief op te sporen, wat het mogelijk maakt om oplichtingsstrategieën vóór de uitbraak te detecteren [2]. McAfee biedt een oplichtingsdetectie-tool [https://www.mcafee.com/en-us/scam-detector/] die gebruikmaakt van geavanceerde kunstmatige intelligentie om oplichting via sms, e-mail en video automatisch te detecteren, inclusief deepfake-content [1]. De tool kan verdachte berichten, nepwebsites en AI-gestuurde misleidingen identificeren voordat er schade wordt aangericht, wat de kern van ‘gebruik AI om AI te bestrijden’ is [1]. KeenSystems adviseert organisaties om AI-gedreven anomaly detection-systemen en voice verification-technologieën te gebruiken om verdachte gesprekken en bestemmingen te blokkeren [3]. De combinatie van data, beslislogica en analysemogelijkheden via een centraal platform wordt gezien als essentieel voor proactieve monitoring en snelle reactie op fraude [2]. Olaf Passchier van SAS benadrukt dat het niet om blind vertrouwen gaat, maar om begrijpen waarom iets gebeurt en daar actie op ondernemen: ‘Technologie helpt daarbij door inzicht te geven in wat er echt gebeurt’ [2]. Deze benadering benadrukt dat AI alleen effectief is als de onderliggende technologie en besluitvorming begrepen worden [2].
Praktische tips voor lezers: hoe u zichzelf beschermt tegen AI-oplichting
Om zich te beschermen tegen de groeiende dreiging van AI-gestuurde oplichting zijn er concrete stappen die u kunt nemen. Gebruikers worden geadviseerd om geen cadeaubonnen of cryptovaluta te gebruiken voor betaling, omdat legitieme organisaties dit nooit vragen [1]. Het gebruik van openbare wifi tijdens winkelen wordt afgeraden vanwege het hoge risico op hackers; in plaats daarvan wordt een beveiligde of mobiele verbinding aanbevolen [1]. Gebruikers kunnen zich aanmelden bij hun McAfee-account om te scannen op recente datalekken waarbij hun e-mailadres is buitgemaakt, en worden doorgeleid naar herstelstappen [1]. Voor organisaties is het essentieel om samenwerking in de keten te bevorderen: informatie over verdachte oproepen of nieuwe scams moet worden gedeeld met providers en brancheorganisaties [3]. Bij het gebruik van tweefactorauthenticatie (2FA) wordt geadviseerd om apps of hardware te gebruiken in plaats van sms, omdat sms-berichten kwetsbaar zijn voor SIM-swapping [3]. Daarnaast is het belangrijk om niet op verdachte links te klikken, zelfs als ze lijken afkomstig van een vertrouwde bron, en om altijd actief kritisch te zijn bij content die u op TikTok of andere platforms ziet [1]. McAfee waarschuwt: ‘De tijd dat oplichtingstrucs makkelijk herkenbaar waren is voorbij’ [1].