Hoe een AI-gegenereerde arts je gezondheid kan verstoren
online, zaterdag, 6 december 2025.
Stel je voor: een vertrouwde arts waarschuwt je voor een gevaarlijke ziekte – maar het is helemaal niet de echte dokter. In december 2025 verspreidden AI-generatie video’s van echte artsen op TikTok onbewezen gezondheidsadvies, met name over supplementen die geen wetenschappelijke onderbouwing hebben. De meest schokkende waarheid? De beelden waren gemaakt met realistische deepfakes, gecreëerd uit echte optredens die zonder toestemming werden gebruikt. De video’s, die duizenden reacties en miljoenen views opleverden, maakten het onmogelijk om te weten wat echt was. Het gevaar zit hem niet alleen in de misinformatie, maar ook in het vertrouwen dat verdwenen is: wanneer je niet meer weet wie je kunt vertrouwen, wordt zelfs de arts in de spreekkamer een vraagteken.
De opkomst van de AI-arts: een vertrouwde stem, een valse boodschap
In december 2025 verschenen honderden video’s op TikTok die realistische deepfakes van bekende gezondheidsexperts tonen, waaronder Prof. David Taylor-Robinson, een specialist in kindergezondheid van de Universiteit van Liverpool. Deze AI-generatie video’s, gebaseerd op echte optredens uit een 2017-conferentie van Public Health England (PHE) en een parlementaire hoorzitting in mei 2025, beweerden dat Taylor-Robinson een supplement met ‘10 door de wetenschap ondersteunde plantenextracten’ aanbeval voor menopauzeklachten, inclusief een fictieve aandoening die ‘thermometerbenen’ werd genoemd [1][3][5]. De video’s, die opzettelijk een vertrouwensrelatie misbruikten, wisten duizenden reacties op te wekken en binnen 48 uur meer dan 2,3 miljoen views te krijgen, vooral onder jonge gebruikers in Nederland [2][5]. Volgens dr. Elise van Dijk van de Autoriteit Consument & Markt (ACM) heeft deze inhoud ‘geen medische waarde en kan gevaarlijk zijn voor het publiek’ [2]. De beelden werden gecreëerd met gebruikmaking van bestaande video’s van echte artsen zonder toestemming, wat een ernstige schending van persoonlijke integriteit en medische authenticiteit vormt [2][5].
De ontsluiering van de misleidende strategie: hoe deepfakes werken en waarom ze zo gevaarlijk zijn
De diefstal van medische autoriteit via AI-gegenereerde deepfakes is een opvallend voorbeeld van hoe technologie wordt gebruikt om vertrouwen te misbruiken. De deepfakes worden gemaakt door AI-modellen die realistische stemmen en gezichtsuitdrukkingen genereren op basis van beperkte bronnen – in dit geval 2017-video’s van Taylor-Robinson en andere gezondheidsexperts [1][3][5]. De techniek is zo geavanceerd dat zelfs experts moeite hadden om het verschil te zien: Duncan Selbie, voormalig directeur van Public Health England, noemde een van de video’s ‘volkomen nep’ en ‘niet grappig’ [3][5]. De AI gebruikt algoritmen die een ‘vertrouwensfactor’ simuleren door geloofwaardigheid te imiteren: de gebruikers zagen een ‘vertrouwde’ arts, die een ‘wetenschappelijk onderbouwde’ boodschap over supplementen gaf – terwijl de inhoud volledig fictief was [1][2][3]. Deze tactiek is niet alleen misleidend, maar ook gevaarlijk, omdat het vertrouwen in de medische zorg ondermijnt, wat leidt tot wantrouwen tussen patiënten en artsen en zelfs verlengde wachttijden in de zorg [5].
De rol van sociale platforms: verantwoordelijkheid en onvoldoende actie
Sociale mediaplatforms zoals TikTok zijn centraal in de verspreiding van deze AI-gegenereerde misinformatie. In december 2025 werden 124 video’s verwijderd door TikTok, op basis van een melding van de ACM en de factchecker van Full Fact [2]. De takedown vond plaats op 2025-12-05, zes weken na de eerste klacht van Taylor-Robinson in 2025-09-01, wat een vertraging van meer dan drie maanden vertegenwoordigt [1][3][5]. Hoewel TikTok bevestigde dat de content ‘in strijd was met hun regels over schadelijke misinformatie en impersonatie’, bleef de platformrespons beperkt: geen platformwijd beleid werd aangekondigd en geen automatische detectie van AI-generatie inhoud werd ingevoerd [1][3][5]. De Nederlandse overheid had op 2025-12-05 een actieplan aangekondigd waarin stond dat alle sociale mediaplatforms verplicht zijn om AI-generatie van artsen in gezondheidscontent te markeren tegen 2025-12-15, maar deze deadline werd op 2025-12-06 nog niet nageleefd [2]. De ACM had gepland dat de overeenkomst met TikTok om AI-generatie van gezondheidscontent binnen 48 uur na detectie zou worden uitgevoerd, maar de uitvoering was niet gebeurd tot 2025-12-06 [2]. Dit weerspiegelt een grootschalige gebrek aan verantwoordelijkheid en snelheid in contentmoderatie, ondanks de ernst van de gevaren [2][5].
De strijd tegen misinformatie: hoe organisaties en burgers kunnen reageren
Om de impact van deze AI-gegenereerde diefstal van vertrouwen tegen te gaan, zijn er meerdere initiatieven op gang gekomen. Netwerk Mediawijsheid, opgericht in 2008 onder initiatief van het ministerie van Onderwijs, Cultuur en Wetenschap, lanceerde op 2025-12-03 het vervolg op de campagne ‘Gecheckt? Wel zo gezond!’, gericht op het versterken van weerbaarheid tegen medische desinformatie [5]. Deze campagne, die sinds 3 december 2025 in meer dan 400 wachtkamers bij huisartsen en gezondheidscentra doorloopt, bevat onder andere een interview met dermatoloog en misinformatie-bestrijder Annemie Galimont [5]. Bovendien werd op 2025-12-04 een online kennissessie ‘Sta op tegen online haat’ georganiseerd, samen met Diversion, met als doel het versterken van digitale geletterdheid onder jongeren [5]. De Stimuleringsregeling 2025 van Netwerk Mediawijsheid heeft vijf winnende initiatieven ontvangen, waaronder #UseTheNews Nederland en MICA Leeuwarden, die zich richten op het opbouwen van mediawijsheid via educatieve tools [5]. Voor lezers wordt aangeraden om bij elk video-onderwerp ‘Pause Before You Post’ te gebruiken, zoals geïntroduceerd door de campagne van @dpcireland, en om informatie te controleren op betrouwbaarheid, bronnen en mogelijke conflicten van belangen [4].
Hoe je zelf AI-generatie video’s kunt herkennen: praktische tips voor de lezer
Om het risico op misinformatie te verminderen, zijn er concrete stappen die iedere gebruiker kan nemen. Eerst: controleer de bronnen van het video- of beeldmateriaal. Als een video van een arts op een platform verschijnt zonder duidelijke vermelding dat het AI-generatie inhoud is, is de kans groot dat het vervalsing is [2][5]. Tweede: let op onnatuurlijke bewegingen, oogverwarring, of ongelijkmatige lichteffecten – vaak kenmerken van AI-gegenereerde video’s [5]. Derde: gebruik online AI-detectie tools, zoals die van de Nederlandse ACM, die op 2025-12-05 gebruikte om video’s te identificeren en te verifiëren [2]. Vierde: vraag je af: ‘Zou deze arts echt zo over een supplement praten?’ of ‘Is er een commerciële belangenverstrengeling?’ – veel van de video’s waren gekoppeld aan Wellness Nest, een bedrijf dat beweerde nooit gebruik te hebben gemaakt van AI-inhoud, maar ‘geen controle over affiliates over de hele wereld’ te kunnen uitoefenen [1][3][5]. Vijfde: meld verdachte content via de ‘Klachtenknop’ van het Commissariaat voor de Media, dat sinds 1 juni 2025 beschikbaar is voor kinderen en volwassenen [5]. Deze stappen helpen niet alleen bij het beschermen van je eigen gezondheid, maar ook bij het versterken van de integriteit van de digitale informatievoorziening [5].