AIJB

Onderzoek: Mensen hebben moeite met herkennen van deepfake-audio

Onderzoek: Mensen hebben moeite met herkennen van deepfake-audio
2025-08-03 nepnieuws

amsterdam, zondag, 3 augustus 2025.
Een recent onderzoek van University College London onthult dat mensen slechts 73% van de deepfake-stemmen kunnen herkennen, ondanks training. Bijna een kwart van de deepfake-stemmen is volledig onherkenbaar, wat ernstige implicaties heeft voor de detectie van nepnieuws en desinformatie. De studie benadrukt de noodzaak van nieuwe technologieën en trainingen om deze vervalsingen te identificeren.

Onderzoek naar Deepfake-Audio

Volgens een recent onderzoek van University College London, konden deelnemers slechts 73% van de deepfake-stemmen herkennen, ondanks training. Dit betekent dat bijna een kwart van de deepfake-stemmen volledig onherkenbaar bleef [1]. De onderzoekers gebruikten niet de meest geavanceerde spraaktechnologie, wat suggereert dat het percentage onherkenbare deepfakes in de praktijk waarschijnlijk hoger is [1]. Kimberly Mai, een van de onderzoekers, merkte op dat de deelnemers voornamelijk op intuïtie en subjectieve signalen zoals natuurlijkheid en robotische klank vertrouwden bij het maken van een keuze [1].

Implicaties voor Mediageletterdheid en Democratie

Deze bevindingen hebben ernstige implicaties voor de detectie van nepnieuws en desinformatie. In een tijd waarin informatie snel en breed wordt verspreid, kan de onherkenbaarheid van deepfake-audio leiden tot verregaande misleiding. Kimberly Mai benadrukte dat samengevoegde reacties en het vragen van andermans mening nog steeds behulpzaam kunnen zijn bij het identificeren van deepfakes [1]. Daarnaast is het belangrijk om referentie-audio te verifiëren als men twijfelt aan de authenticiteit van een audiofragment [1].

Geautomatiseerde Detectie

Hoewel geautomatiseerde deepfake-detectors iets beter presteerden dan mensen, waren ze nog niet goed genoeg om als betrouwbare hulpmiddelen te dienen [1]. Het is daarom cruciaal dat overheden en organisaties goede regels en beleid ontwikkelen op dit gebied. Technologiebedrijven zoals Keysight, die recent werd erkend door Frost & Sullivan voor hun uitstekende werk in 6G test en meting, spelen een belangrijke rol in de ontwikkeling van geavanceerde detectietechnologieën [2].

Praktische Tips voor Lezers

Om de kans op misleiding door deepfake-audio te verminderen, kunnen lezers de volgende praktische tips toepassen: [1][2]

  1. Meerdere Bronnen Raadplegen: Verifieer informatie altijd door meerdere betrouwbare bronnen te raadplegen.
  2. Referentie-Audio Checken: Luister naar referentie-audio om de authenticiteit van een audiofragment te bevestigen.
  3. Samenwerking: Vraag de mening van anderen in om objectieve feedback te krijgen.
  4. Medialetterdheid Verbeteren: Neem deel aan trainingen en workshops om beter te leren herkennen welke signalen op vervalsing kunnen duiden.
  5. Technologie Volgen: Blijf op de hoogte van de laatste ontwikkelingen in deepfake-detectietechnologieën.

Bronnen