AIJB

Pourquoi la voix de Taylor Swift sur les réseaux sociaux ne peut probablement pas être entièrement fait confiance en ce moment

Pourquoi la voix de Taylor Swift sur les réseaux sociaux ne peut probablement pas être entièrement fait confiance en ce moment
2025-11-14 nepnieuws

Amsterdam, vrijdag, 14 november 2025.
En novembre 2025, une nouvelle vague de fraude en ligne s’est répandue rapidement à travers le monde, principalement sous forme de vidéos et d’enregistrements audio générés par l’IA imitant Taylor Swift. Ces deepfakes, qui reproduisaient avec réalisme sa voix et son apparence, ont été utilisés pour promouvoir des faux concours, des produits falsifiés et des investissements en crypto-monnaie. Le plus choquant : 39 % des Américains ont déjà cliqué sur un contenu frauduleux, et 1 sur 10 a perdu de l’argent — en moyenne 525 dollars par victime. Les fraudeurs ont exploité son engagement public avec Travis Kelce comme levier pour lancer des escroqueries « édition limitée ». Mais le danger ne réside pas seulement dans les pertes financières : la technologie est si avancée qu’elle trompe même des utilisateurs expérimentés — parfois sans même qu’ils s’en rendent compte. L’essor de ces fraudes met en évidence à quel point la digitalisation change rapidement la frontière entre le réel et le fictif.

Taylor Swift au sommet du vol d’identité par IA

En novembre 2025, Taylor Swift est de nouveau devenue la cible la plus diffusée au niveau mondial de fraude générée par l’IA, selon la liste McAfee 2025 des Célébrités les plus dangereuses : Escroqueries par Deepfake, publiée le 2025-11-12 [2]. Elle occupait la première place tant sur la liste américaine que sur la liste internationale des célébrités les plus falsifiées par deepfake, suivie de Scarlett Johansson, Jenna Ortega et Sydney Sweeney [2][4]. L’essor de ces deepfakes n’est pas une coïncidence : les cybercriminels exploitent les liens parasociaux que les fans entretiennent avec leurs artistes préférés, utilisant l’image d’une personne familière comme une clé d’or pour gagner la confiance et provoquer la désinformation [4]. Les fraudeurs ont recours à des outils d’IA avancés pour imiter sa voix, ses expressions faciales et son utilisation des réseaux sociaux, en particulier pendant la période suivant son engagement public avec Travis Kelce en mai 2025, qui a servi de fondement à une vague d’escroqueries « édition limitée » [2][4][6]. Les formes les plus courantes de fraude incluent des faux cadeaux, des concours prétendus de vaisselle Le Creuset et des investissements fictifs en crypto-monnaie, dont le contenu généré par IA a été diffusé via des canaux comme Instagram, TikTok et X (anciennement Twitter) [1][5][6].

L’ampleur de la fraude et la réaction humaine

L’impact de ces escroqueries est considérable : une étude mondiale menée par McAfee en 2025, basée sur un échantillonnage de 8 600 adultes dans sept pays, révèle que 72 % des Américains ont déjà vu un contenu frauduleux présentant une célébrité ou un influenceur, 39 % y ont cliqué, et 1 sur 10 a perdu de l’argent ou des données personnelles [2][4][6]. Le préjudice financier moyen par incident s’élève à 525 dollars [2][4][6]. Ces chiffres reflètent un changement fondamental dans la manière dont les gens évaluent la confiance dans le contenu numérique. Une femme en France a perdu près de 900 000 dollars dans une escroquerie amoureuse où une voix et une image générées par IA de Brad Pitt ont été utilisées pour la manipuler [4]. Dans un autre cas, le présentateur télé Al Roker a été falsifié dans une arnaque qui a provoqué un infarctus, illustrant à quel point les dommages émotionnels et psychologiques peuvent être profonds [4]. La base psychologique de ces arnaques est simple : les gens apprennent automatiquement à faire confiance aux visages qu’ils reconnaissent, et les criminels exploitent cet instinct pour réduire leur vigilance [4].

Du vol à la sensibilisation numérique : comment la société réagit

À la suite de l’essor des deepfakes, divers acteurs ont commencé à mettre en place des mesures de contre-attaques. L’Université libre d’Amsterdam a lancé le 2025-11-11 une campagne sur la littératie médiatique et numérique, où les étudiants utilisent l’IA pour créer des scénarios fictifs illustrant les conséquences de la falsification par IA, notamment dans le cadre de l’AZC (Centre général des hôpitaux) [1]. Cette campagne a été lancée alors que les médias accordaient déjà une grande attention aux arnaques par deepfake de Taylor Swift, mais son statut actuel reste incertain et aucune preuve d’exécution n’a été fournie [1]. McAfee propose lui-même un outil appelé Scam Detector, une solution d’IA qui analyse le texte, les e-mails et les vidéos à la recherche de motifs suspects indiquant des deepfakes ou des tentatives de phishing [2][4]. Ce outil est disponible dans tous les abonnements de base de McAfee et est recommandé comme première couche de protection [4]. Par ailleurs, des plateformes sociales comme Meta et TikTok ont mis en place des politiques contre les contenus synthétiques, bien que la détection automatique reste encore en retard par rapport à la vitesse à laquelle les criminels adaptent leur contenu [5]. La Federal Trade Commission (FTC) américaine a publié le 2025-11-13 un avertissement public aux consommateurs concernant l’arnaque par deepfake de Taylor Swift et recommande de vérifier le contenu via des canaux officiels [6].

Comment reconnaître les fausses informations et les deepfakes : des conseils pratiques

Bien que la technologie progresse rapidement, il existe des mesures concrètes que chacun peut prendre pour se protéger contre les deepfakes. McAfee recommande de s’arrêter avant de cliquer sur un lien, surtout lorsqu’il y a urgence ou manipulation émotionnelle [1]. Vérifiez toujours la source : assurez-vous que le contenu provient réellement du compte officiel de la célébrité ou de l’entreprise, et évitez les sites non transparents ou ceux qui exigent des informations personnelles [1][5]. Prêtez attention aux détails peu naturels : les images générées par IA peuvent présenter des mouvements inattendus de la bouche, des yeux ou des cheveux, ou une peau trop lisse et artificielle [4][6]. Certains plateformes, comme Instagram et TikTok, marquent le contenu généré par IA, mais cela n’est pas systématique et n’est pas toujours détecté [4]. OpenAI reconnaît que son système d’IA, comme Sora, présente des difficultés à générer du contenu raciste ou inapproprié, ce qui montre que la technologie reste encore limitée [6]. Si vous pensez avoir été victime d’une escroquerie par deepfake, signalez-le via le portail de rapport de la FTC ou le National Center for Missing & Exploited Children (NCMEC) [6]. Les signaux d’alerte qui restent pertinents incluent l’urgence, la pression émotionnelle et les demandes de paiement par des méthodes inhabituelles telles que la crypto-monnaie, Venmo ou des « petits frais d’expédition » [6].

Sources