Artsen strijden tegen deepfake-desinformatie op sociale media
Amsterdam, donderdag, 21 augustus 2025.
Huisarts Tamara Derks is een van de vele artsen die last hebben van deepfake-beelden op sociale media. Deze nepvideo’s misbruiken de naam en deskundigheid van artsen om onjuiste medische informatie te verspreiden, wat de professionele integriteit en het publieke vertrouwen aantast. Tamara Derks, die wetenschappelijk betrouwbare video’s maakt onder @DokterTamara, heeft aangifte gedaan van deze deepfake-video’s. Ze waarschuwt voor de gevaarlijke gevolgen van deze desinformatie, zoals onjuiste gezondheidsadviezen die schadelijk kunnen zijn voor de gezondheid van mensen.
Impact van deepfakes op de medische gemeenschap
De impact van deepfake-beelden op de medische gemeenschap is aanzienlijk. Artsen zoals Tamara Derks, die al jaren wetenschappelijk betrouwbare informatie deelt via haar sociale media-account @DokterTamara, worden nu geconfronteerd met nepvideo’s waarin hun uiterlijk en stem worden gekopieerd. Deze video’s verspreiden onjuiste medische informatie, wat de professionele integriteit van artsen schaadt en het publieke vertrouwen in medische adviezen ondermijnt [2].
Hoe deepfakes werken en hun gevaar
Deepfakes zijn gemaakt met behulp van AI-technologie die in staat is om het uiterlijk en de stem van iemand zo realistisch mogelijk te imiteren. In de geval van Tamara Derks zijn niet alleen haar uiterlijk en stem gekopieerd, maar ook de setting van haar echte video’s. De boodschap in de deepfake-video’s is echter volledig anders en vaak schadelijk. Derks benadrukt dat veel mensen haar zien als een betrouwbare bron van medische informatie, waardoor ze sneller geneigd zijn om de onjuiste informatie te geloven [2].
Rechtszaak en maatregelen
Tamara Derks heeft aangifte gedaan van de deepfake-video’s die onjuiste informatie verspreiden. Ze stelt dat het moeilijk is om te bepalen dat de video’s niet kloppen, omdat ze zo realistisch zijn. Hoewel ze aangifte heeft gedaan, merkt ze op dat er weinig daadwerkelijk wordt gedaan om deze video’s te stoppen. Ze hoopt dat als meer gevallen worden gemeld, er ook meer actie zal worden ondernomen [2].
Gebruik van AI in de bestrijding van nepnieuws
Om de verspreiding van nepnieuws en deepfakes te bestrijden, worden er steeds meer AI-tools ingezet. Platforms zoals YouTube testen factchecknotities voor video’s die desinformatie bevatten. Deze notities geven gebruikers extra context en helpen hen om onjuiste informatie te herkennen [5]. Daarnaast werken experts aan AI-algoritmen die deepfakes kunnen detecteren door afwijkingen in mondbewegingen en spraaksnelheid te analyseren [GPT].
Implicaties voor mediageletterdheid en democratie
De verspreiding van deepfakes en nepnieuws heeft ernstige implicaties voor mediageletterdheid en democratie. Volgens experts is door AI gegenereerde desinformatie een van de grootste risico’s voor de komende verkiezingen in 2024. Landen zoals Letland, Estland en Litouwen waarschuwen al voor de invloed van Russische media op hun politieke proces [5]. In Nederland maakt bijna de helft van de bevolking zich veel zorgen over misinformatie, wat de noodzaak onderstreept om de bevolking te bewustzamen over de risico’s van nepnieuws [5].
Praktische tips voor lezers om nepnieuws te herkennen
Om de verspreiding van nepnieuws en deepfakes te bestrijden, kunnen lezers en gebruikers van sociale media de volgende praktische tips toepassen:
- Meerdere bronnen raadplegen: Controleer informatie altijd bij meerdere betrouwbare bronnen.
- Factchecking-sites gebruiken: Websites zoals Nu.nl en andere factchecking-platforms kunnen helpen om de juistheid van informatie te bevestigen [5].
- Opmerkzaam zijn voor afwijkingen: Let op subtiele afwijkingen in video’s, zoals onnatuurlijke mondbewegingen of spraaksnelheid [2].
- Kritisch denken: Vraag jezelf af of de informatie logisch is en of het uit een betrouwbare bron komt.
- Melden van nepnieuws: Meld verdachte content aan sociale media-platforms en autoriteiten om actie te kunnen ondernemen [2].