AIJB

Deepfakes bedreigen bedrijfsreputaties wereldwijd

Deepfakes bedreigen bedrijfsreputaties wereldwijd
2025-08-02 nepnieuws

amsterdam, zaterdag, 2 augustus 2025.
Deepfake-technologie, die steeds realistischer wordt, stelt bedrijven wereldwijd voor ernstige uitdagingen. Deze gefingeerde audiovisuele media kunnen leiden tot reputatieschade, fraude en misleiding. Experts waarschuwen dat deepfakes binnenkort ook gebruikt kunnen worden voor industriële spionage en beursmanipulatie, wat nieuwe lagen complexiteit toevoegt aan digitale communicatie. Bedrijven worden aangeraden preventieve maatregelen te nemen, zoals training en het gebruik van AI-gestuurde detectietools.

Deepfakes: Een nieuwe dreiging voor bedrijven

Deepfake-technologie, die steeds realistischer wordt, stelt bedrijven wereldwijd voor ernstige uitdagingen. Deze gefingeerde audiovisuele media kunnen leiden tot reputatieschade, fraude en misleiding. Experts waarschuwen dat deepfakes binnenkort ook gebruikt kunnen worden voor industriële spionage en beursmanipulatie, wat nieuwe lagen complexiteit toevoegt aan digitale communicatie. Bedrijven worden aangeraden preventieve maatregelen te nemen, zoals training en het gebruik van AI-gestuurde detectietools [1].

Conkrete voorbeelden van deepfake-aanvallen

Er zijn al concreet gevallen waarin deepfakes bedrijven hebben geschaad. Bijvoorbeeld, een nep-video van een CEO die een overname aankondigde, leidde tot paniek onder aandeelhouders en een dalende aandelenkoers. Ook is er een geval geweest waarin een nep-audio-opname van een CFO een medewerker vroeg om een dringende betaling te doen, wat tot financiële verliezen leidde. Deze voorbeelden illustreren hoe realistisch deepfakes kunnen zijn en welke gevolgen ze kunnen hebben [1].

Juridische en reguleringsinitiatieven

Hoewel wetgeving achterloopt, bieden bestaande wetten vaak voldoende basis om op te treden tegen deepfakes. In de VS en Europa worden initiatieven genomen om deepfake-gebruik explicieter te reguleren, vooral in politieke beïnvloeding en misleiding van consumenten. Het ‘Take It Down Act’ in de VS maakt het bijvoorbeeld onwettig om intieme visuele depicties te publiceren die zijn gemaakt met deepfake-technologie en met de bedoeling om schade te berokkenen. Schendingen kunnen leiden tot boetes of zelfs gevangenisstraf [3].

Praktische tips voor het herkennen van deepfakes

Om de risico’s van deepfakes te verminderen, kunnen lezers en bedrijven enkele praktische tips toepassen. Eerst en vooral is het belangrijk om kritisch te blijven en informatie altijd te verifiëren. Let op onnatuurlijk gedrag, zoals onregelmatige oogbewegingen of lipbewegingen die niet synchroon zijn met het geluid. Gebruik ook AI-gestuurde detectietools die beschikbaar zijn om deepfakes te identificeren. Bovendien is het raadzaam om alleen betrouwbare bronnen te raadplegen en updates te volgen over de laatste ontwikkelingen in deepfake-technologie [1][3].

Implicaties voor mediageletterdheid en democratie

De verspreiding van deepfakes heeft grote implicaties voor mediageletterdheid en democratie. Ondanks het feit dat 92% van de gebruikers AI-antwoorden niet controleert op juistheid, is kritisch denken en mediawijsheid cruciale vaardigheden in het AI-tijdperk. Experten pleiten voor een ‘AI-waarschuwing’ of automatische factchecks ingebouwd in AI-systemen. Bovendien is er een cultuurverschuiving nodig waarbij verantwoordelijkheid even belangrijk is als efficiëntie. Controle van bronnen is essentieel om feiten en fictie te onderscheiden [5].

Amazon’s strijd tegen nepreviews

Amazon investeert aanzienlijke middelen om nepreviews te stoppen voordat ze door klanten worden gezien. Recent won Amazon een juridische zaak tegen operatoren van meer dan 75 frauduleuze websites die nepreviews en nep Amazon-verkoperaccounts verkochten. Het hof beval de overdracht van eigendom van alle gerelateerde domeinen aan Amazon. In 2024 blokkeerde Amazon proactief meer dan 275 miljoen verdachte nepreviews en nam maatregelen tegen duizenden kwade actoren. Deze acties helpen niet alleen Amazon, maar ook andere bedrijven om te worden beschermd tegen bedrieglijke praktijken [2].

Uber en de strijd tegen nepbewijzen

Uber ontdekte meer dan 100 instanties waar passagiers die seksueel misbruik of intimidatie door chauffeurs aangaven, nep- of bewerkte bonnetjes indienden om ritparticipatie te bewijzen. Uber heeft een rechtsgeding aangespannen om aanspraken van 21 klachten met verdachte bonnetjes en 90 klachten zonder bonnetjes te laten schrappen. De nepbonnetjes bevatten wiskundige fouten, valse surcharge, incorrecte tijdstempels en niet-overeenkomende opmaak. Deze acties benadrukken het belang van eerlijkheid en integriteit in het gerechtssysteem [4].

AI in de strijd tegen nepnieuws

Naast de verspreiding van deepfakes wordt AI ook ingezet om nepnieuws te bestrijden. Bedrijven en organisaties gebruiken machine learning en AI-gestuurde detectietools om onbetrouwbare informatie te identificeren en te verwijderen. Steven Bartlett, ondernemer en podcaster, heeft bijvoorbeeld een AI-versie van zichzelf gecreëerd die interviews voert en inzichten deelt. Dit project onderzoekt de grenzen van mediaconsumptie, authenticiteit en menselijke verbinding in het digitale tijdperk. Bartlett’s AI-versie is getraind op zijn stem, taalgebruik, denkwijze en persoonlijke waarden, gebaseerd op duizenden uren audiomateriaal [6].

Bronnen