AIJB

Hoe een AI-gegenereerde stem van een arts u kunt misleiden

Hoe een AI-gegenereerde stem van een arts u kunt misleiden
2025-11-21 nepnieuws

Nederland, vrijdag, 21 november 2025.
Stel je voor: een bekende arts of influencer waarschuwt je voor vermoeidheid – maar het is helemaal niet echt. Recent onderzoek heeft aan het licht gebracht dat ruim 40 Nederlandse artsen en publieke figuren worden misbruikt in deepfake-video’s die supplementen van Wellness Nest promoten. De video’s gebruiken echte beelden, maar AI-nagebootste stemmen die onwaarheden vertellen – zoals dat het product helpt bij overgangsklachten of vermoeidheid, zonder wetenschappelijk bewijs. Wat ongebruikelijk is: achter het netwerk schuilgaan Vietnamese ondernemers die via een affiliateprogramma miljoenen verdienen. Het meest schokkend? De video’s werden maandenlang zichtbaar op TikTok, ondanks duidelijke signalen van misleiding. Dit is geen toeval – het is een opkomende bedreiging voor ons vertrouwen in digitale informatie.

Hoe een AI-gegenereerde stem van een arts u kunt misleiden

Stel je voor: een bekende arts of influencer waarschuwt je voor vermoeidheid – maar het is helemaal niet echt. Recent onderzoek heeft aan het licht gebracht dat ruim 40 Nederlandse artsen en publieke figuren worden misbruikt in deepfake-video’s die supplementen van Wellness Nest promoten [1][2][3]. De video’s gebruiken echte beelden van artsen en bekende Nederlanders, zoals sportondernemer Arie Boomsma, influencer Monica Geuze en neuropsycholoog Erik Scherder, maar combineren deze met AI-nagebootste stemmen die onwaarheden vertellen – zoals dat het product helpt bij overgangsklachten of vermoeidheid, zonder wetenschappelijk bewijs voor geneeskrachtige werking [1][2][3]. Deze techniek creëert een illusie van vertrouwenswaarde: het lijkt alsof een betrouwbaar gezag, zoals een arts of bekende persoon, een advies geeft, terwijl dat helemaal niet het geval is. De verkoop van Wellness Nest-supplementen wordt aangekondigd met claims over het verminderen van vermoeidheid en overgangsklachten, zonder dat er wetenschappelijk bewijs is voor de effectiviteit van shilajit [2]. De vertrouwenswaarde van de afgebeelde persoon wordt dus misbruikt om verkoop te stimuleren, een praktijk die volgens de Artsenfederatie KNMG ‘schadelijk en misleidend’ is en een risico vormt voor de volksgezondheid [2].

Het netwerk achter de deepfakes: Vietnamese ondernemers en affiliateprogramma’s

Achter het netwerk van Wellness Nest schuilgaan Vietnamese ondernemers die via het bedrijf Pati Group actief zijn, met bedrijfsinformatie uit Colorado (Verenigde Staten) en Vietnam [2]. Dit netwerk gebruikt een zogenoemd affiliateprogramma om de verspreiding van de deepfake-video’s uit te breiden: door anderen aan te moedigen om handelspartner (affiliate) te worden, kunnen zij via TikTok supplementen verkopen en een commissie verdienen [1][2]. Screenshotbewijzen tonen PayPal-bijschrijvingen van 1.700 tot 66.000 Amerikaanse dollar per maand voor affiliates, met wedstrijdwinnaars die volgens de beelden meer dan 100.000 dollar per maand zouden verdienen; Pointer Checkt kan deze verdiensten niet verifiëren [2]. Hoewel een medewerker van Pati Group de aantijgingen over het gebruik van deepfakes ontkent, geeft het bedrijf geen schriftelijke reactie na herhaalde pogingen [2]. De verspreiding van deze misleidende content wordt dus niet alleen technisch gesteund door AI, maar ook economisch gefundeerd op een systeem dat beloning biedt voor het misleiden van gebruikers, wat de urgentie van toezicht op digitale marketing versterkt [1][2].

Hoe TikTok en Trustpilot de verspreiding van nepnieuws mogelijk maken

De deepfake-video’s werden twee maanden online gehouden op TikTok voordat ze werden verwijderd, ondanks duidelijke signalen van misleiding [2]. TikTok erkent dat hun moderatieprocessen niet garant staan voor volledige naleving van richtlijnen: ‘Ondanks onze uitgebreide moderatieprocessen kunnen we niet garanderen dat alle inhoud voldoet aan onze richtlijnen’ [2][3]. De platformen blijven actief in het begeleiden van de verspreiding van nepnieuws, ook via Trustpilot, waar Wellness Nest een TrustScore van 4,3/5 heeft met 942 klantbeoordelingen [4]. Klanten geven zowel positieve als negatieve ervaringen door: sommigen melden verbeterde energie en betere slaap, terwijl anderen klagen over vertragingen in levering (nearly a month), onverwachte douanekosten van 10 euro, automatische herhaalbestellingen zonder expliciete opt-in en onvermogen om persoonlijke gegevens te verwijderen [4]. Een klant, Angélique, stelde zelfs dat het bedrijf haar creditcardgegevens bewaart ‘zonder dat ik het wil’, wat een mogelijke inbreuk op gegevensbeschermingswetgeving zou kunnen zijn [4]. Bovendien stelde een klant op 4 november 2025 dat Wellness Nest AI-gegenereerde deepfake-video’s gebruikt voor Instagram-advertenties, wat een openbare aanklacht is tegen de verantwoordelijkheid van het merk [4]. Deze combinatie van platformen en klantrecensies creëert een illusie van populariteit en betrouwbaarheid, terwijl het feitelijke product en zijn claims nauwelijks onderzocht zijn [4].

Tekens van een deepfake: hoe u nepvideo’s herkent

Er zijn technische kenmerken die kunnen wijzen op een AI-generatie van beelden of stemmen. Volgens Digiwijzer zijn visuele indicatoren onnatuurlijke schaduwen, verkeerde vingerverhoudingen, onrealistische lichtverhoudingen en onnatuurlijke tanden of ogen [3]. Audio-indicatoren zijn robotische stemmen, een gebrek aan emotie of een onnatuurlijke fluïditeit in de uitspraak [3]. Deze tekens zijn vaak aanwezig in de deepfake-video’s die Wellness Nest gebruikt, waarin de stemmen van bekende artsen en influencers worden nagebootst zonder dat de mensen daadwerkelijk iets hebben gezegd [1][2]. Er zijn online tools beschikbaar die metadata of beeldmanipulatie kunnen opsporen, zoals tools ontwikkeld door het Europees Bureau voor de bescherming van persoonlijke gegevens [3]. Voor gebruikers is het cruciaal om te leren kijken naar inconsistenties: kijk of de lichtbron in de video logisch is, of de ogen of lippenbewegingen in overeenstemming zijn met de spraak, en of de stem klinkt alsof hij uit een computer komt. Als u twijfelt, controleer dan de bron: kijk of de video wordt geplaatst door een officiële pagina of een erkende nieuwsbron, niet door een onbekend account op TikTok of Instagram [3].

De democratische dreiging van AI-gegenereerd nepnieuws

De verspreiding van deepfakes voor commerciële doeleinden is meer dan een privacy- of marketingkwestie – het is een bedreiging voor democratische waarden [1][2]. Wanneer publieke figuren, inclusief artsen, worden misleidend afgebeeld in video’s die hun stem of gezicht gebruiken zonder toestemming, wordt het vertrouwen in het digitale publieke domein ondermijnd [1][2]. Artsenfederatie KNMG waarschuwt dat de verspreiding van deze misleidende content leidt tot verkeerde gezondheidsbeslissingen bij burgers en een risico vormt voor de volksgezondheid [2][3]. De situatie is vergelijkbaar met het gebruik van deepfakes in nepporno, waarin tientallen Nederlandse vrouwen werden misbruikt door hun gezicht op het lichaam van pornoactrices te plaatsen [1]. De toekomst van democratie is afhankelijk van onze vermogen om te onderscheiden tussen waarheid en nepnieuws. Als we niet in staat zijn om AI-gegenereerde inhoud te herkennen, kunnen we ons vertrouwen in informatie, media en publieke figuren verliezen [3]. Dit maakt mediageletterdheid niet langer een luxe, maar een essentieel levensvaardigheid voor elke digitale burger.

Bronnen