AIJB

Waarom een bekende arts zich laat vervalsen in een medische deepfake

Waarom een bekende arts zich laat vervalsen in een medische deepfake
2025-11-21 nepnieuws

amsterdam, vrijdag, 21 november 2025.
Een hoogleraar neuropsychologie van de Vrije Universiteit heeft aangifte gedaan tegen AI-genererende video’s die hem laten spreken over medicijnen die hij nooit heeft aanbevolen. Het meest verontrustend? De video’s tonen hem in zijn eigen kantoor en afdeling, waardoor ze ongelooflijk overtuigend lijken. Mensen hebben al geld verloren aan producten die ze kochten na het zien van deze nepvideo’s. Dit geval laat zien hoe snel AI-gegenereerde nepcontent vertrouwensrelaties in de zorg kan ondermijnen — en waarom maatregelen nu dringend nodig zijn.

Hoe AI-gegenereerde deepfakes de vertrouwensrelatie in de zorg ondermijnen

Neuropsycholoog Erik Scherder van de Vrije Universiteit Amsterdam heeft aangifte gedaan tegen diefstal van zijn identiteit via AI-gegenereerde deepfakevideo’s waarin hij vermeend medicijnen aanbeveelt [1]. De video’s tonen Scherder in zijn eigen kantoor en op zijn afdeling, wat de illusie van authenticiteit versterkt en leidt tot ernstige verontruste reacties onder patiënten en medische professionals [2]. Mensen schrijven hem toe dat ze zijn advies hebben gezien en producten hebben gekocht die niet werken of hun geld hebben verloren [3]. De vermeende aanbevelingen zijn volledig vervalst en worden gebruikt om supplementen te promoten via platformen zoals TikTok, waarbij de misleidende content op grote schaal circuleert [1][2]. Deze praktijk ondermijnt de vertrouwensrelatie tussen patiënten en zorgverleners, omdat mensen nu twijfelen aan de authenticiteit van communicatie van artsen, zelfs wanneer die van een vertrouwde persoon komt [3]. De verantwoordelijkheid voor dit soort misbruik is niet alleen juridisch, maar ook ethisch, omdat het leidt tot financiële schade en vertrouwensverlies in een sector waar het vertrouwen essentieel is voor effectieve zorg [1][2].

Een groeiend probleem: van valse ziektebeelden naar medicijnen voor lever- en nierziekten

De diefstal van identiteit via deepfakes is niet langer beperkt tot lichte of onschuldige ziektebeelden, zoals in eerdere versies van nepcontent [2]. Intensivist Diederik Gommers van het Erasmus MC meldt dat de inhoud van de deepfakevideo’s zich heeft ontwikkeld van onschuldige beelden naar valse aanbevelingen van producten voor lever- en nierziekten [2]. Deze evolutie heeft ‘werkelijk grote consequenties’ voor de publieke gezondheid, omdat patiënten in paniek kunnen raken of verkeerde behandelingen kiezen op basis van valse informatie [2]. Gommers benadrukt dat zijn reputatie ‘te grabbel gegooid’ is door de video’s, waarin hij wordt afgebeeld als iemand die ‘troep aanprijs’ — een term die aangeeft dat de inhoud niet alleen onjuist is, maar ook afwijkend van de standaard van medische ethiek [2]. De artsenfederatie KNMG heeft in een uitzending van Pointer Checkt zorgen uitgesproken over het toenemende misbruik van medische deepfakes, waarbij gezichten en stemmen van artsen zonder toestemming worden gebruikt voor commerciële doeleinden [3]. Dit wijst op een systematische uitbreiding van het misbruik, waarbij AI-technologieën worden ingezet om vertrouwenswaarden in de medische zorg te ondermijnen [1][2].

Actie ondernemen: van aangifte tot juridische en institutionele reacties

Scherder heeft aangifte gedaan op vrijdag, 21 november 2025, tegen misleidende claims gebaseerd op de deepfakes, na een overleg met de Vrije Universiteit over mogelijke acties [3]. Hij benadrukt dat hij ‘actie ondernemen’ wil omdat dit geen zaken zijn die ‘ongemerkt voorbij mogen gaan’ — vooral niet omdat het misleidende claims zijn die mensen kunnen verleiden tot het kopen van producten die niet werken of hun geld kwijt zijn [3]. Gommers heeft ook aangifte gedaan en benadrukt dat hij mensen wil beschermen tegen het ‘soort rotzooi’ dat wordt verkocht via deze nepvideo’s [1]. Het Erasmus MC heeft een advocaat ingeschakeld die ‘doorlopend brieven’ schrijft over de deepfakepraktijken, maar Gommers beschrijft dit als ‘dweilen met de kraan open’ — een metafoor voor een reactie die te laat, te klein en niet doeltreffend is om het probleem aan te pakken [2]. Dit benadrukt het gebrek aan evenwichtige, voorkomende maatregelen tegen AI-gegenereerde nepcontent, waarbij de focus nog steeds ligt op repressie in plaats van preventie [1][2]. De aangifte van Scherder en Gommers is een stappensteen in een groter proces van juridische en institutionele respons op een technologisch probleem dat vooruitloopt op wetgeving en controlemechanismen [3].

Praktische tips om nepnieuws en deepfakes te herkennen

Om te voorkomen dat je slachtoffer wordt van valse medische informatie, is het essentieel dat je kritisch bent bij het consumeren van online content [GPT]. Let op video’s waarin een bekende persoon in een professionele omgeving (zoals een kantoor of ziekenhuis) advies geeft over medicijnen of supplementen — vooral als de video op platformen zoals TikTok of YouTube circuleert zonder een officiële bron [1][2]. Controleer of de video is gepubliceerd door een erkende instelling, zoals de Vrije Universiteit of het Erasmus MC, of door een gecertificeerde nieuwsbron [3]. Zoek naar aanwijzingen voor manipulatie, zoals onnatuurlijke bewegingen van de mond, ongelijke lichtval of afwezige oogblinking — kenmerken die vaak aanwezig zijn bij AI-gegenereerde video’s [GPT]. Gebruik tools zoals de AI-detectiefunctie van Google, Microsoft’s Video Authenticator of het platform DeepTrace, die helpen om het authenticiteit van media te beoordelen [GPT]. Als je twijfelt, raadpleeg direct de officiële website van de persoon of instelling, of neem contact op met een betrouwbare zorgverlener [3]. De combinatie van media- en digitale literatie is nu cruciaal om de invloed van AI-gegenereerde nepcontent te beperken [GPT].

Bronnen