Hoe een AI-gegenereerde video van een arts uw gezondheid in gevaar kan brengen
Nederland, woensdag, 3 december 2025.
Stel je voor dat een vertrouwde arts in een video u aanbeveelt om een supplement te nemen dat nooit is goedgekeurd — en dat die video volkomen realistisch is. Dat is geen sciencefiction: medische deepfakes worden steeds beter en worden al gebruikt om vertrouwen in gezondheidsinformatie te ondermijnen. Onderzoek uit november 2025 identificeerde al 40 artsen en bekende figuren die misleidend werden gefakeerd. De meeste mensen kunnen deze video’s niet meer onderscheiden van echt materiaal, zelfs niet met een oog voor details. Dit maakt het extreem gevaarlijk: mensen besluiten op basis van onjuiste informatie over medicijnen, testen of voeding. De echte schok? De meeste AI-chatbots geven zelfs niet de juiste waarschuwingen. Wat u dus ziet, hoe betrouwbaar het ook lijkt, is vaak niet wat het lijkt te zijn.
De opkomst van medische deepfakes: een gevaar voor vertrouwen in gezondheidszorg
Medische deepfakes — AI-gemaakte video’s waarin vermeende artsen misleidende gezondheidsadviezen geven — vormen een steeds groeiende bedreiging voor de publieke gezondheid. Volgens een onderzoek van Pointer, uitgevoerd op 2025-11-27, werden 40 artsen en bekende figuren geïdentificeerd als slachtoffers van dergelijke manipulaties [1]. Deze video’s tonen bekende gezondheidsexperts zoals Diederik Gommers en Dokter Tamara, die nooit zo hebben gepraat, en maken misleidende claims zoals dat ‘diabetes type 1 niet bestaat’ of dat ‘zonnebrand kankerverwekkend is’ [2]. Ondanks de realistische uitstraling van de video’s, zijn deze volledig gefakeerd en worden vaak gebruikt voor commerciële doeleinden, zoals het promoten van supplementen of medicijnen — iets dat ethisch onaanvaardbaar is binnen de medische beroepsethiek [2]. De technologie is zo geavanceerd dat de mimiek, kleine gezichtsbewegingen en zelfs een té perfecte glans op de huid de realiteit bijna niet meer onderscheiden [2]. Robin Peeters, internist aan het Erasmus Medisch Centrum, waarschuwt dat mensen op basis van dergelijke video’s verkeerde gezondheidskeuzes kunnen maken, wat gevaarlijk kan zijn: ‘De antwoorden van een chatbot kunnen mensen ongerust maken. Of je wordt juist onterecht gerustgesteld. Dat kan gevaarlijk zijn’ [1].
AI-chatbots: nuttige hulp of bedreiging voor patiëntbeslissingen?
Hoewel AI-chatbots zoals ChatGPT algemene medische informatie kunnen leveren, zijn ze niet in staat om individuele patiëntbehandelingen te bieden. Robin Peeters benadrukt dat de waarde van medische adviezen ligt in het verband met de specifieke situatie van de patiënt: ‘De truc is om te kijken wat dat vervolgens betekent voor elke individuele patiënt. Daar is een arts goed in, maar chatbots zijn dat een stuk minder’ [1]. Slechts een klein deel van de chatbots bevat expliciete waarschuwingen dat hun informatie algemeen is en dat altijd contact moet worden opgenomen met een arts [1]. Echter, zelfs bij het bestaan van dergelijke waarschuwingen, kunnen patiënten op basis van gemanipuleerde of onvolledige informatie besluiten nemen over hun gezondheid, zoals het eisen van onderzoeken die geen medische waarde hebben of het afwijzen van medicijnen zoals cholesterolpillen, die onjuist worden genoemd als ‘puur vergif’ [1]. De combinatie van onjuiste informatie en de illusie van autoriteit kan leiden tot ongegronde ongerustheid of onterechte geruststelling, wat de basis van vertrouwen in de zorg ondermijnt [1].
De rol van sociale media en SEO in de verspreiding van nepnieuws
AI wordt niet alleen gebruikt voor het creëren van deepfakes, maar ook voor het verspreiden van nepnieuws via internetplatforms. French investigative journalist Jean-Marc Manach onthulde dat er in november 2025 al meer dan 4.000 AI-gemaakte fake newswebsites opereren, vooral in het Frans, met minstens 100 in het Engels [3]. Een voorbeeld is ‘leparisienmatin.fr’, een typosquatting-site die de legitieme Franse krant ‘Le Parisien’ imiteert en AI-gegenereerde content gebruikt om Google’s algoritme te manipuleren [3]. Deze websites gebruiken geavanceerde SEO-technieken, zoals netlinkingschema’s, waarbij artificiële backlinks worden gegenereerd om Google’s ranking-systeem te misleiden [3]. Ondanks dat Google expliciet verbiedt om links te kopen of automatisch te genereren, blijven deze praktijken wijdverspreid [3]. De economische motivatie is groot: succesvolle sites genereren duizenden dollars per dag in adverteerdersinkomsten via Google AdSense, vooral via Google Discover, die sinds 2022 een belangrijke bron van inkomsten is geworden voor deze netwerken [3].
Hoe AI het verspreiden van nepnieuws versnelt en hoe we daar tegen kunnen
De combinatie van grote taalmodellen (LLMs) en automatisering maakt het mogelijk om op grote schaal nepnieuws te produceren. Een universitaire studie uit 2025 toont aan dat LLMs ongeveer 68% effectiever zijn bij het detecteren van echte nieuwsberichten dan mensen, maar bij het detecteren van nepnieuws is de prestatie van mensen en AI vergelijkbaar — rond de 60% nauwkeurigheid [4]. De studie onderzocht ook strategieën die nepnieuwscreators gebruiken om de geloofwaardigheid van hun content te verhogen, zoals het gebruik van AI-gemaakte afbeeldingen met visuele artefacten, gefabriceerde auteurprofielen (zoals een ‘professor aan IESEG School of Management’) en sensatievolle koppen zonder bronnen [3]. Bovendien kan het gevaar van ‘misinformatie-afslag’ ontstaan wanneer journalisten van legitieme media AI-gemaakte verhalen herpubliceren zonder verificatie [3]. Om dit te bestrijden zijn er technologische oplossingen in ontwikkeling, zoals DeepGaze — een AI-tool die video’s, audio en afbeeldingen frame-voor-frame analyseert op aanwijzingen van manipulatie [5]. Dit systeem is ontworpen voor real-time verificatie in nieuwsredacties en kan via API’s of SaaS worden geïntegreerd [5].
Waarom mediageletterdheid nu essentieel is voor democratie en gezondheid
De toenemende realisme van AI-gemaakte media zet de fundamentele principes van democratie en publieke gezondheid onder druk. Volgens het Pew Global Media Trust Survey (2024) geloven 69% van de nieuwsconsumenten dat AI-gealiseerde media het vertrouwen in de journalistiek vermindert [5]. Daarnaast rapporteert UNESCO in de Media Security Index (2025) een wereldwijde economische schade van 78 miljard dollar door misinformatie en deepfake-gebaseerde campagnes [5]. Sander Duivestein, onderzoeker bij Sogeti, benadrukt de noodzaak van ‘boerenverstand’: ‘Vertrouw niet alleen op je ogen. Deepfakes zijn zó goed geworden dat je ze bijna niet meer kunt herkennen’ [2]. De verantwoordelijkheid ligt ook bij sociale media-platforms, die vaak te lang wachten met het verwijderen van misleidende video’s — iets dat Robin Peeters als ‘niet oké’ omschrijft [1]. De oplossing ligt in een combinatie van technische detectie, wetgeving met harde sancties voor techbedrijven, en grootschalige bewustwordingscampagnes die mensen leren hoe ze AI-gemaakte content herkennen [2].
Praktische tips om nepnieuws te herkennen en te vermijden
Om te voorkomen dat u misleid wordt door AI-gemaakte informatie, kunnen lezers deze praktische stappen volgen. Controleer eerst de domeinnaam: sites zoals ‘leparisienmatin.fr’ zijn typosquattingversies van ‘Le Parisien’ en zijn meestal nep [3]. Zoek naar de auteur: AI-gemaakte artikelen hebben vaak geen digitale voetafdruk op LinkedIn of Twitter, of zijn geïdentificeerd als ‘fake professor’ [3]. Let op visuele artefacten: AI-afbeeldingen kunnen onnatuurlijke glans, ongebruikelijke schaduwen of onregelmatige details tonen [3]. Controleer de bronnen: legitieme artikelen geven duidelijke referenties, terwijl nepnieuws vaak geen bronnen noemt [3]. Gebruik betrouwbare bronnen zoals thuisarts.nl, gezondheidenwetenschap.be, het TikTok- of Instagram-kanaal @doktersvandaag, en de podcast De Vragendokter [2]. Bovendien kunnen tools zoals de browserextensie van Jean-Marc Manach helpen om AI-gemaakte sites te detecteren, hoewel nieuwe domeinen continu worden opgericht [3].