AIJB

Waarom een bekende neuropsycholoog aangifte doet van een video die hij nooit maakte

Waarom een bekende neuropsycholoog aangifte doet van een video die hij nooit maakte
2025-11-21 nepnieuws

Amsterdam, vrijdag, 21 november 2025.
Erik Scherder, neuropsycholoog aan de Vrije Universiteit, heeft aangifte gedaan van een deepfakevideo waarin hij medicijnen aanbeveelt die hij nooit heeft voorgesteld. Het beeld van hem in zijn eigen kantoor, met een overtuigende stem, lijkt realistisch genoeg om mensen te misleiden. Wat verontrustend is: meer dan 40 artsen en bekenden zijn slachtoffer van een netwerk dat AI gebruikt om supplementen te promoten op TikTok. De video’s worden zó overtuigend gemaakt dat mensen hem direct mailen met vragen over waar ze de producten kunnen kopen. De essentie? Een AI-generatie van een gezicht en stem kan zo overtuigend zijn dat het vertrouwen in gezondheidsdeskundigen schade lijdt — en dat is nog niet afgedaan.

De opkomst van medische deepfakes: een bedreiging voor vertrouwen in de gezondheidszorg

Neuropsycholoog Erik Scherder van de Vrije Universiteit in Amsterdam heeft aangifte gedaan van diefstal van zijn identiteit via deepfakevideo’s waarin hij vermeend medicijnen aanbeveelt [1]. De video’s, die circuleren op sociale media, tonen een opvallend realistische versie van Scherder die onwaarheden verspreidt over medische behandelingen [1]. Dit geval is een scherp voorbeeld van hoe AI-generatieve technieken misbruikt worden om vertrouwen in de gezondheidszorg te ondermijnen [1]. Het gebruik van deepfakes in de gezondheidssector is niet langer een toekomstscenario, maar een actueel probleem. Ruim veertig artsen en bekende Nederlanders zijn slachtoffer van een netwerk dat AI gebruikt om supplementen te promoten op TikTok [2]. De video’s worden zo overtuigend gemaakt dat mensen Scherder direct mailen met vragen over waar ze de producten kunnen kopen [3]. De overtreffende realisme van deze video’s, inclusief beelden van Scherder in zijn eigen kantoor, versterkt de illusie van authenticiteit en vergroot de dreiging voor publieke gezondheid [2].

Het bedrijfsmodel achter de deepfakecampagne: een netwerk van Vietnamese ondernemers

Het promotieproject draait om het merk Wellness Nest, dat wordt gerund door een netwerk van Vietnamese ondernemers van het bedrijf Pati Group, gevestigd in Colorado (VS) en Vietnam [2]. Deze ondernemers exploiteren een affiliateprogramma dat handelspartners via TikTok aanmoedigt om producten te verkopen [2]. Het merk heeft een specifieke focus op supplementen zoals shilajit, waarbij in de deepfakes wordt beweerd dat het helpt bij vermoeidheid of klachten van de menopauze [2]. Hoewel een medewerker van Pati Group de aantijgingen over deepfakes ontkende, zijn er geen schriftelijke reacties ontvangen na herhaalde pogingen om contact op te nemen [2]. De vermeende affiliate-inkomsten, die op sociale media worden getoond, variëren volgens screenshots van PayPal-bijschrijvingen van 1.700 tot 66.000 Amerikaanse dollar per maand, met claims van winsten van meer dan 100.000 Amerikaanse dollar in één maand [2]. Deze financiële aantrekkelijkheid drijft de verspreiding van misleidende content, waarbij de betrouwbaarheid van artsen en bekenden als Scherder en Diederik Gommers wordt misbruikt [3].

De reactie van de medische wereld en de rol van sociale platforms

De Nederlandse Artsgilde (KNMG) heeft grote zorgen over het toenemend misbruik van deepfakes voor misleidende gezondheidsclaims [2]. Volgens de KNMG kan de verspreiding van deze misleidende content leiden tot verkeerde gezondheidsbeslissingen bij burgers en zo een risico vormen voor de volksgezondheid [2]. De artsen zelf zijn sterk van mening dat dit soort praktijken geen ongemerkt voorbij mogen gaan. Scherder benadrukt dat het ‘diep- en dieptriest’ is dat mensen dit soort video’s maken en dat hij actie ondernemt door aangifte te doen [1]. Ook intensivist Diederik Gommers van het Erasmus MC meldt regelmatig meldingen van mensen die hem in deepfakevideo’s zien ‘troep aanprijsen’, wat zijn betrouwbaarheid als arts op het spel zet [3]. TikTok heeft de video’s pas verwijderd nadat Pointer Checkt de platformen benaderde, ondanks dat slachtoffers de inhoud al twee maanden eerder hadden aangegeven [2]. De platformen verklaarden dat ‘ondanks onze uitgebreide moderatieprocessen kunnen we niet garanderen dat alle inhoud voldoet aan onze richtlijnen’ [2].

Hoe AI wordt gebruikt voor zowel verspreiding als bestrijding van nepnieuws

De technologie achter de deepfakes is gebaseerd op geavanceerde AI-modellen die gezichten, stemmen en bewegingen kunnen repliceren op basis van beperkte real-world-voorbeelden [2]. Deze technieken, zoals generatieve adversariaal netwerken (GANs) en tekst-voortzettingmodellen, maken het mogelijk om een menselijke voorkomen en stem synthetisch te genereren, waardoor de video’s opvallend realistisch lijken [2]. Voor de verspreiding worden deze generatieve modellen ingezet om een grote hoeveelheid video’s in korte tijd te produceren, wat de schaal van de misleidende campagne mogelijk maakt [2]. Aan de andere kant wordt AI ook ingezet in het bestrijden van nepnieuws. Onderzoeksinstellingen en platformen ontwikkelen AI-gestuurde herkenningsmethoden die audio- en videomateriaal analyseren op kenmerken die wijzen op manipulatie, zoals onnatuurlijke oogbewegingen of ongebruikelijke lipbewegingen [GPT]. Voorbeeld hiervan is het gebruik van ‘digital watermarking’ in bestanden, waarbij een onzichtbare code wordt ingebed die herkenbaar is voor herkenningssoftware [GPT]. Hoewel deze methoden nog in ontwikkeling zijn, zijn ze essentieel voor het opbouwen van een verdedigingslinie tegen AI-generatief nepnieuws [GPT].

Praktische tips voor lezers om medische deepfakes te herkennen

Lezers kunnen zichzelf beschermen tegen medische deepfakes door een aantal concrete stappen te volgen. Eerstens: check de bron van de video. Is het een officiële website van een ziekenhuis of een erkende instantie, of een persoonlijke TikTok- of YouTube-kanaal? Video’s die uit een onbekende bron komen, zijn sneller verdacht [GPT]. Tweedens: let op de taalgebruik. Deepfakes gebruiken vaak overdreven of emotionele taal, zoals ‘100% natuurlijk’, ‘geen bijwerkingen’, of ‘werkt binnen 24 uur’, wat niet overeenkomt met wetenschappelijk bewijs [GPT]. Derde: gebruik een beeldzoekmachine zoals Google Images of TinEye om een screenshot van de verdachte video te zoeken. Als de versie van Scherder al eerder op andere websites voorkomt, is dat een signaal van manipulatie [GPT]. Vierde: controleer of de persoon in de video echt is. Als een arts of bekende persoon geen officiële social media-accounts heeft, of geen recente publicaties over het product, is het waarschijnlijk een fake [GPT]. Vijfde: rapporteer verdachte content direct op het platform waar hij verschijnt. TikTok, YouTube en X (Twitter) hebben ingebouwde meldfuncties die helpen bij het blokkeren van misleidende content [2].

Bronnen