Deepfakes ondermijnen digitaal vertrouwen: hoe criminelen AI gebruiken voor phishing
brussel, dinsdag, 30 september 2025.
Criminelen maken steeds vaker gebruik van AI-technologie om deepfakes te creëren, wat het risico van phishing aanzienlijk vergroot. Deze praktijken ondermijnen het digitale vertrouwen in bedrijven en hebben een grote impact op de veiligheid en integriteit van online communicatie. Volgens ISACA, een internationale organisatie voor IT-professionals, is dit al sinds 2024 een bekend en toenemend probleem. 82% van Europese IT- en businessprofielen vindt dat digitaal vertrouwen in de komende vijf jaar belangrijker wordt, maar slechts 25% van de bedrijven biedt daarvoor specifieke training aan hun medewerkers.
De groeiende bedreiging van deepfakes
Criminelen maken steeds vaker gebruik van AI-technologie om deepfakes te creëren, wat het risico van phishing aanzienlijk vergroot. Deze praktijken ondermijnen het digitale vertrouwen in bedrijven en hebben een grote impact op de veiligheid en integriteit van online communicatie. Volgens ISACA, een internationale organisatie voor IT-professionals, is dit al sinds 2024 een bekend en toenemend probleem. 82% van Europese IT- en businessprofielen vindt dat digitaal vertrouwen in de komende vijf jaar belangrijker wordt, maar slechts 25% van de bedrijven biedt daarvoor specifieke training aan hun medewerkers [1].
Praktijken en impact van deepfakes
Deepfakes zijn hyperrealistische vervalsingen die moeilijk te onderscheiden zijn van echte video’s en audio-opnames. Ze worden vaak gebruikt voor phishing-aanvallen, waarbij criminelen proberen toegang te krijgen tot gevoelige informatie of financiële middelen. In de afgelopen maanden zijn er verschillende voorbeelden gerapporteerd waarbij deepfakes zijn gebruikt om hooggeplaatste managers te imiteren, wat leidt tot flinke financiële verliezen [2]. Volgens een recente studie is er een stijging van 45% in het gebruik van deepfake-technologie door criminelen in de laatste maanden [5].
Bestrijding van deepfakes
Om de verspreiding en impact van deepfakes te bestrijden, investeren bedrijven en overheden in AI-detectors die lip-sync, micro-expressies of lichtval analyseren. Deze tools zijn nuttig, maar moeten ingebed zijn in processen voor optimale effectiviteit [1]. Governance is cruciaal: wie escaleert, hoe snel, welk bewijs bewaren, en wie spreekt publiek wanneer. De EU AI Act en transparantieplichten rond synthetische media verhogen de ondergrens, maar vervangen geen interne discipline [1].
Mediageletterdheid en democratie
De verspreiding van deepfakes heeft ook serieuze implicaties voor mediageletterdheid en democratie. Zowel burgers als mediaprofessionals moeten in staat zijn om nepnieuws en valse informatie te herkennen. Experten waarschuwen dat de impact van deepfakes op digitale veiligheid aanzienlijk is toegenomen sinds het begin van het jaar [5]. Verhoogde bewustwordingscampagnes over de gevaren van deepfakes zijn gestart, en internationale samenwerking wordt gezien als cruciaal in de strijd tegen deepfake-crimes [5].
Praktische tips voor het herkennen van deepfakes
Om het risico van deepfakes te verminderen, bieden experts en autoriteiten praktische tips voor lezers om nepnieuws te herkennen. Hier zijn enkele belangrijke aanwijzingen:
- Let op subtiele afwijkingen: Deepfakes kunnen kleine onregelmatigheden in lipbewegingen, micro-expressies of lichtval vertonen.
- Controleer meerdere bronnen: Vergelijk informatie uit verschillende, betrouwbare bronnen om de authenticiteit te bevestigen.
- Gebruik AI-tools: Er zijn verschillende online tools en apps beschikbaar die helpen bij het detecteren van deepfakes.
- Blijf op de hoogte: Volg de laatste ontwikkelingen en updates in de strijd tegen deepfakes, zoals nieuwe wetgeving en technologieën.
- Vertrouw op officiële kanalen: Officiële overheidscanalen en gevestigde nieuwsmedia zijn meestal betrouwbaarder dan onbekende of anonieme bronnen [1][5].