OpenAI waarschuwt voor risico's van seksuele deepfakes met Sora 2
san francisco, zaterdag, 4 oktober 2025.
OpenAI heeft gewaarschuwd dat hun videomaker Sora 2, ondanks ingebouwde veiligheidsmaatregelen, nog steeds een kleine kans bestaat om ongewenste seksuele deepfakes te genereren. Volgens een interne evaluatie is dit risico 1,6 procent wanneer de tool wordt gebruikt met iemands gezicht of stem. Dit bericht komt na recente discussies over de ethische implicaties van AI-generatie en de mogelijke gevolgen voor privacy en misbruik.
Veiligheidsmaatregelen en Risico’s
Volgens een interne evaluatie van OpenAI is het risico dat Sora 2 ongewenste seksuele deepfakes genereert 1,6 procent wanneer de tool wordt gebruikt met iemands gezicht of stem [1]. Ondanks de ingebouwde veiligheidsmaatregelen, zoals prompt-filtering en output-filtering, blijft er een kleine kans bestaan dat de software niet altijd alle regels weet te handhaven. Deze evaluatie is onderdeel van een system card, een veiligheidsrapport dat OpenAI bij nieuwe modellen publiek maakt [1].
Ethische Implicaties
Deze waarschuwing komt na recente discussies over de ethische implicaties van AI-generatie. Deepfakes worden al jaren misbruikt, vooral tegen vrouwen, en de mogelijkheid om seksuele deepfakes te genereren is daarom zeer zorgwekkend [1]. Het idee dat gebruikers zichzelf of anderen in een seksuele deepfake zouden kunnen terugzien, roept ernstige privacy- en veiligheidszorgen op [1].
Cameo-functie en Privacy
Het risico op misbruik speelt vooral bij Sora’s Cameo-functie, waarmee gebruikers hun eigen gezicht en stem kunnen uploaden om in AI-video’s te verschijnen [1]. Volgens OpenAI behoudt de gebruiker de controle: je bepaalt zelf wie jouw cameo kan gebruiken, je kunt toegang intrekken en alle video’s waarin je verschijnt blijven zichtbaar en verwijderbaar [1]. Toch roept de aanpak vragen op over de opslag en beveiliging van gezichts- en stemdata [1].
Beschikbaarheid en Toekomstplannen
Sora 2 is momenteel enkel toegankelijk via een invite-only programma en beschikbaar op iOS [1]. Video’s van publieke figuren kunnen standaard niet worden gegenereerd, behalve wanneer het gaat om overleden personen [1]. OpenAI benadrukt dat het systeem continu verfijnd wordt: “We leren van hoe mensen Sora gebruiken en passen de balans tussen veiligheid en creatieve vrijheid verder aan.” [1]