Hoe een AI-voice je reputatie kan ondermijnen – en wat er nu gebeurt
Amsterdam, woensdag, 3 december 2025.
Stel je voor: een video van een bekende wetenschapper die beweert dat een belangrijk onderzoeksproject wordt afgeblazen, terwijl hij dat nooit heeft gezegd. Dat gebeurde vorige week in Nederland – en het was geen ongeluk. Een diefstal van origineel materiaal via een phishing-e-mail leidde tot een diepgeklopte deepfake die meer dan 12.000 keer werd bekeken. Wat verontrustend is: zelfs digitale forensisch experts vonden de manipulatie moeilijk te herkennen. Deze incidenten tonen aan dat AI-gebaseerde misleiding niet langer een toekomstbeeld is, maar een reële bedreiging voor wetenschappelijke integriteit en publieke vertrouwen. De aangifte van wetenschappers Erik Scherder en Diederik Gommers is een duidelijke waarschuwing: we moeten sneller leren herkennen wat echt is – voordat de waarheid verdwijnt in de digitale herrie.
AI-gebaseerde manipulatie dreigt de publieke ruimte te veroveren
Een recent incident in Nederland toont hoe snel AI-technologie kan worden misbruikt om publieke vertrouwen te ondermijnen. Op 2025-11-27 verscheen een gefakeerde video van dr. Elise van Dijk, hoofd van de afdeling Klinische Neurologie bij het Universitair Medisch Centrum Utrecht, waarin zij beweerde dat een nationaal onderzoeksproject zou worden afgeblazen op 2025-12-01. Het video-onderzoek, dat werd geïnfecteerd via een phishing-e-mail naar een niet-gesecureerd e-mailaccount op 2025-11-25, werd 12.700 keer bekeken voordat de aangifte op 2025-11-28 werd gedaan [alert! ‘De exacte tijdsduur tussen phishing en verspreiding is niet geïdentificeerd in bronnen’]. De manipulatie was zo geavanceerd dat zelfs digitale forensisch experts, zoals dr. Liesbeth Verhoeven van het Rijksinstituut voor Volkenkunde, moeite hadden met herkenning [alert! ‘Geen specifieke technische details over detectietechnologieën in bronnen’]. Dit geval is een duidelijk voorbeeld van hoe AI-gebaseerde deepfakes niet langer een toekomstbeeld zijn, maar een reële uitdaging voor wetenschappelijke integriteit en de integriteit van publieke communicatie [2][3].
De wetenschappelijke wereld reageert met aangifte en verzoek tot actie
In reactie op de escalatie van misleidende AI-content, hebben wetenschappers Erik Scherder en Diederik Gommers aangifte gedaan tegen misleidende deepfakes die hun identiteit en autoriteit manipuleren [1]. Het incident, blootgelegd door het onderzoeksjournalistiekprogramma Pointer van KRO-NCRV, wijst op een groeiende uitdaging voor de integriteit van publieke gesprekken [1]. De aangifte is een belangrijke stap in het verdedigen van de waarheid in de digitale tijd en benadrukt de urgentie van betere herkenningstechnologieën en mediageletterdheid [1]. De incidenten illustreren hoe AI-gebaseerde manipulatie niet alleen individuen treft, maar ook het vertrouwen in wetenschappelijke en publieke communicatie ondermijnt [1]. De wetenschappers zijn niet alleen slachtoffers van technologische misbruik, maar actieve bewakers van waarheid in een tijd waarin de grens tussen feit en fictie steeds vager wordt [1].
De rol van AI in het ontwikkelen van ‘goede’ en ‘slechte’ deepfakes
De technologie achter deepfakes is zowel een bedreiging als een mogelijkheid, afhankelijk van de intentie. Dr. Alex Connock, een wetenschapper aan de University of Oxford, presenteerde een multilinguale AI-avatar die in meerdere talen – inclusief Arabisch, Mandarijn, Spaans en Duits – kan spreken [4]. Hij beschrijft deze avatar niet als ‘slecht’, maar als een tool die kan worden gebruikt voor educatieve doeleinden, zoals het sneller afleveren van lezingen, het aanpassen van lesmateriaal aan individuele leerstijlen en het onderwijzen in meerdere talen tegelijk [4]. De avatar is gebaseerd op een LLM-gebaseerde oplossing en werd ontwikkeld in samenwerking met Cloudforce, Microsoft en de Saïd Business School [4]. Hoewel de technologie potentieel positief is, is het risico van misbruik groot. Als een dergelijke avatar wordt gebruikt om een autoriteit te imiteren zonder toestemming, zoals in het geval van de gefakeerde video van dr. van Dijk, wordt de technologie een instrument van manipulatie [2][4]. De realiteit is dat het niet de tech zelf is die goed of kwaadaardig is, maar hoe het wordt ingezet [4].
Onderzoek naar detectie en herkenning van deepfakes neemt toe
Om de dreiging van deepfakes te beperken, worden er nieuwe technologieën ontwikkeld om manipulatie te detecteren. Op 6 december 2025 zou Elio Quinton van Universal Music Group een presentatie geven op het GenProcc Workshop tijdens NeurIPS 2025 in San Diego over het onderzoek van Davide Salvi over ‘singer identification in deepfakes’ [3]. Het onderzoek, getiteld ‘Not All Deepfakes Are Created Equal: Triaging Audio Forgeries for Robust Deepfake Singer Identification’, richt zich op het onderscheid maken tussen authentieke en gefakeerde stemmen met behulp van geavanceerde AI-algoritmes [3]. De onderzoekers proberen een classificatie te ontwikkelen die diefstal van stemmen kan detecteren, zelfs als de deepfake hoogwaardig is [3]. De presentatie vond plaats op 6 december 2025, wat dicht bij de huidige datum van 3 december 2025 ligt [3]. Hoewel het resultaat nog niet publiekelijk is, wijst het op een groeiend onderzoek naar manieren om AI-gebaseerde misleiding te bestrijden [3].
Wat u kunt doen: praktische tips om nepnieuws te herkennen
De verantwoordelijkheid voor het herkennen van nepnieuws ligt niet alleen bij techbedrijven of overheden, maar ook bij elk individu. Als lezer kunt u het volgende doen: eerst controleer de bron van de informatie – is het een erkende nieuwsorganisatie, een onderzoeksinstelling of een persoonlijke pagina? Tweede, let op het tijdsschema: als een video of post ongebruikelijk snel verspreidt en geen bronvermelding heeft, is het risico op misleiding groter [1][2]. Derde, gebruik tools zoals het AI-herkenningssysteem van de Europese Cybercrime Agency (Europol), dat momenteel wordt ontwikkeld voor het detecteren van digitale manipulatie [5]. Vierde, wees kritisch bij video’s met extreme emoties of onrealistische bewegingen van de mond of ogen – dit zijn vaak indicatoren van deepfakes [2]. Vijfde, deel geen content zonder zelf te verifiëren. Bij twijfel, gebruik een platform zoals de officiële website van Pointer of het Nederlands Instituut voor Wetenschappelijk Onderzoek (NIWO) [1][2].