AIJB

OpenAI collabore avec Bryan Cranston et SAG-AFTRA pour des règles plus strictes sur les deepfakes

OpenAI collabore avec Bryan Cranston et SAG-AFTRA pour des règles plus strictes sur les deepfakes
2025-10-23 nepnieuws

amsterdam, donderdag, 23 oktober 2025.
Après l’utilisation du visage et de la voix de Bryan Cranston dans des vidéos deepfake non autorisées, OpenAI a engagé une collaboration avec l’acteur et la syndicat des acteurs SAG-AFTRA. L’objectif est de développer des règles et des mesures de sécurité plus strictes pour protéger l’intégrité et la vie privée des artistes. OpenAI a promis d’introduire une politique d’opt-in et de traiter rapidement les plaintes. Cette étape marque un changement important dans l’industrie du divertissement, où les créateurs souhaitent mieux protéger leur identité contre l’abus de l’IA.

Collaboration contre les deepfakes

OpenAI, la célèbre entreprise d’IA, a engagé une collaboration avec l’acteur Bryan Cranston et la syndicat des acteurs SAG-AFTRA. Cette étape a suivi l’utilisation du visage et de la voix de Cranston sur la plateforme Sora 2 pour des vidéos deepfake non autorisées. Le but de cette collaboration est de développer des règles et des mesures de sécurité plus strictes pour l’utilisation de l’IA dans le divertissement et les médias, en particulier pour protéger l’intégrité et la vie privée des artistes [1][2][3].

Nouvelles mesures de politique

OpenAI a promis d’introduire une politique d’opt-in, obligeant les personnes à donner explicitement leur consentement avant que leur ressemblance ou leur voix ne soit utilisée. Cette politique est née en réaction aux critiques de Cranston et de SAG-AFTRA. Selon Sean Astin, président de SAG-AFTRA, une législation comme la « NO FAKES Act » proposée aux États-Unis est nécessaire pour traiter juridiquement l’abus [1][2]. OpenAI a également promis de traiter les plaintes concernant les images non autorisées « expéditivement » [1][2].

Réactions de l’industrie

Bryan Cranston, connu pour son rôle dans ‘Breaking Bad’, a exprimé sa préoccupation après avoir découvert des vidéos générées par IA où il apparaissait sans son consentement. Il a déclaré : « J’étais profondément préoccupé non seulement pour moi-même, mais aussi pour tous les interprètes dont le travail et l’identité peuvent être abusés de cette manière. » Cranston a exprimé sa gratitude pour la nouvelle politique d’OpenAI et les mesures de sécurité améliorées [2][3][4]. Le président de SAG-AFTRA, Sean Astin, a salué l’action de Cranston et souligné la nécessité de réglementer les deepfakes [2][4].

Impact sur l’industrie du divertissement

Cette collaboration marque un moment important dans l’industrie du divertissement, où les créateurs montrent clairement qu’ils ne veulent pas que leur identité soit abusée par des outils d’IA. L’effet de ces règles sur la production massive de deepfakes sera visible dans les prochains mois. Cette initiative marque une étape vers une plus grande responsabilité des entreprises technologiques dans la protection des individus et de leurs droits [1][2][3][4].

Implications pour l’éducation médiatique et la démocratie

La menace croissante des deepfakes dépasse l’industrie du divertissement. Elle a également des implications pour l’éducation médiatique et la démocratie. Les deepfakes peuvent être utilisés pour propager de la désinformation et éroder la confiance dans les médias et les institutions gouvernementales. L’éducation et les campagnes de sensibilisation jouent un rôle crucial dans l’information du public sur les risques et comment les reconnaître [GPT].

Conseils pratiques pour reconnaître les deepfakes

Pour reconnaître les deepfakes, les lecteurs peuvent suivre les conseils suivants : 1) Prêtez attention aux mouvements ou aux mouvements de lèvres non naturels qui ne correspondent pas aux mots prononcés. 2) Cherchez des irrégularités dans l’éclairage ou les ombres. 3) Vérifiez la qualité de l’image ; les deepfakes peuvent souvent être pixelisés ou déformés. 4) Comparez la vidéo avec des sources connues pour détecter les irrégularités. 5) Consultez des vérificateurs de faits et des institutions médiatiques fiables pour confirmation [GPT].

Sources