OpenAI werkt samen met Bryan Cranston en SAG-AFTRA aan strengere regels voor deepfakes
amsterdam, donderdag, 23 oktober 2025.
Na het gebruik van Bryan Cranston’s gezicht en stem in ongeautoriseerde deepfake-video’s, heeft OpenAI een samenwerking aangegaan met de acteur en de acteerbond SAG-AFTRA. Het doel is om strengere regels en veiligheidsmaatregelen te ontwikkelen om de integriteit en privacy van artiesten te beschermen. OpenAI heeft beloofd een opt-in-beleid in te voeren en klachten snel te behandelen. Deze stap markeert een belangrijke verandering in de entertainmentindustrie, waarin creatieve makers hun identiteit beter willen beschermen tegen AI-misbruik.
Samenwerking tegen deepfakes
OpenAI, de bekende AI-onderneming, heeft een samenwerking aangegaan met acteur Bryan Cranston en de acteerbond SAG-AFTRA. Deze stap volgde na het gebruik van Cranston’s gezicht en stem op het platform Sora 2 voor ongeautoriseerde deepfake-video’s. Het doel van deze samenwerking is om strengere regels en veiligheidsmaatregelen te ontwikkelen voor het gebruik van AI in entertainment en media, met name om de integriteit en privacy van artiesten te beschermen [1][2][3].
Nieuwe beleidsmaatregelen
OpenAI heeft beloofd een opt-in-beleid in te voeren, waardoor personen expliciet moeten instemmen voordat hun gelijkenis of stem gebruikt mag worden. Dit beleid is ontstaan als reactie op de kritiek van Cranston en SAG-AFTRA. Volgens Sean Astin, voorzitter van SAG-AFTRA, is wetgeving zoals de voorgestelde “NO FAKES Act” in de VS nodig om misbruik juridisch aan te pakken [1][2]. OpenAI heeft ook beloofd klachten over ongeautoriseerde beelden voortaan “expeditiously” te behandelen [1][2].
Reacties uit de industrie
Bryan Cranston, bekend van ‘Breaking Bad’, drukte zijn bezorgdheid uit na het vinden van AI-generatievideo’s waarin hij voorkwam zonder zijn toestemming. Hij zei: “Ik was diep bezorgd niet alleen voor mezelf, maar voor alle performers wiens werk en identiteit op deze manier kunnen worden misbruikt.” Cranston was dankbaar voor OpenAI’s nieuwe beleid en de verbeterde beveiligingsmaatregelen [2][3][4]. SAG-AFTRA-president Sean Astin roemde Cranston voor zijn actie en benadrukte de noodzaak van regelgeving rond deepfakes [2][4].
Impact op de entertainmentindustrie
Deze samenwerking markeert een belangrijk moment in de entertainmentindustrie, waarin creatieve makers duidelijker laten zien dat ze niet willen dat hun identiteit door AI-tools wordt misbruikt. Het effect van deze regels op massale deepfake-productie zal in de komende maanden duidelijk worden. Dit initiatief markeert een stap naar meer verantwoordelijkheid van techbedrijven in het beschermen van mensen en hun rechten [1][2][3][4].
Implicaties voor mediageletterdheid en democratie
De groeiende bedreiging van deepfakes gaat verder dan alleen de entertainmentindustrie. Het heeft ook implicaties voor mediageletterdheid en democratie. Deepfakes kunnen worden gebruikt om desinformatie te verspreiden en vertrouwen in media en overheidsinstellingen te ondermijnen. Onderwijs en bewustwordingscampagnes spelen hier een cruciale rol in het informeren van het publiek over de risico’s en hoe ze deze kunnen herkennen [GPT].
Praktische tips voor het herkennen van deepfakes
Om deepfakes te herkennen, kunnen lezers de volgende tips volgen: 1) Let op onnatuurlijke bewegingen of lipbewegingen die niet overeenkomen met de gesproken woorden. 2) Zoek naar onregelmatigheden in het licht of schaduwen. 3) Controleer de kwaliteit van het beeld; deepfakes kunnen vaak pixelated of vervormd zijn. 4) Vergelijk de video met bekende bronnen om onregelmatigheden te detecteren. 5) Raadpleeg betrouwbare fact-checkers en media-instellingen voor bevestiging [GPT].