AIJB

Recherche : Les humains peinent à reconnaître l'audio deepfake

Recherche : Les humains peinent à reconnaître l'audio deepfake
2025-08-03 nepnieuws

amsterdam, zondag, 3 augustus 2025.
Une récente recherche de l’University College London révèle que les personnes ne reconnaissent que 73 % des voix deepfake, malgré une formation. Près d’un quart des voix deepfake est complètement indétectable, ce qui a des implications graves pour la détection des fausses nouvelles et de la désinformation. L’étude souligne la nécessité de nouvelles technologies et de formations pour identifier ces falsifications.

Recherche sur l’Audio Deepfake

Selon une récente recherche de l’University College London, les participants n’ont reconnu que 73 % des voix deepfake, malgré une formation. Cela signifie que près d’un quart des voix deepfake est resté complètement indétectable [1]. Les chercheurs n’ont pas utilisé les technologies vocales les plus avancées, ce qui suggère que le pourcentage d’indétectabilité des deepfakes dans la pratique est probablement plus élevé [1]. Kimberly Mai, l’une des chercheuses, a noté que les participants se sont principalement appuyés sur l’intuition et des signaux subjectifs tels que la naturel et le son robotique pour prendre leurs décisions [1].

Implications pour la Médialité et la Démocratie

Ces résultats ont des implications graves pour la détection des fausses nouvelles et de la désinformation. À une époque où l’information se propage rapidement et largement, l’indétectabilité de l’audio deepfake peut conduire à une désinformation généralisée. Kimberly Mai a souligné que les réponses collectives et la consultation d’autres personnes peuvent encore être utiles pour identifier les deepfakes [1]. Il est également important de vérifier l’audio de référence si l’on doute de l’authenticité d’un fragment audio [1].

Détection Automatisée

Bien que les détecteurs de deepfakes automatisés aient performé un peu mieux que les humains, ils n’étaient pas encore assez fiables pour servir de moyens de confiance [1]. Il est donc crucial que les gouvernements et les organisations développent de bonnes règles et politiques dans ce domaine. Des entreprises technologiques comme Keysight, récemment reconnue par Frost & Sullivan pour son excellent travail en matière de tests et mesures 6G, jouent un rôle important dans le développement de technologies de détection avancées [2].

Conseils Pratiques pour les Lecteurs

Pour réduire le risque de désinformation par l’audio deepfake, les lecteurs peuvent appliquer les conseils pratiques suivants : [1][2]

  1. Consulter Plusieurs Sources : Vérifiez toujours les informations en consultant plusieurs sources fiables.
  2. Vérifier l’Audio de Référence : Écoutez l’audio de référence pour confirmer l’authenticité d’un fragment audio.
  3. Collaboration : Demandez l’avis d’autres personnes pour obtenir des commentaires objectifs.
  4. Améliorer la Médialité : Participez à des formations et des ateliers pour apprendre à mieux reconnaître les signaux de falsification.
  5. Suivre la Technologie : Restez informé des dernières avancées en matière de technologies de détection des deepfakes.

Sources