Waarom je foto van je gezicht misschien niet meer helemaal jouw eigen is
Amsterdam, donderdag, 4 december 2025.
YouTube lanceert een nieuwe tool om deepfakes te herkennen, maar er zit een ingrijpende twist in: om je imago te beschermen, moet je biometrische gegevens verstrekken. Het meest verontrustende feit? Volgens experts kan Google die gegevens gebruiken om zijn AI-modellen te trainen, ondanks de beloften van YouTube dat de data alleen voor identiteitsverificatie wordt gebruikt. Voor makers die hun gezicht al als waardevol bezit beschouwen in de AI-epoch, is het een risico dat ze nooit meer terugkrijgen. De tool wordt eind januari 2026 uitgerold naar miljoenen creators – maar de vraag blijft: is veiligheid echt te betalen met controle over je eigen beeld?
YouTube’s nieuwe deepfake-detectietool: een stap voorwaarts of een stap achteruit voor privacy?
YouTube heeft in oktober 2025 een nieuwe ‘likeness detection tool’ geïntroduceerd om AI-gemaakte video’s die de uitstraling van makers manipuleren te herkennen. De tool vraagt makers om een overheidsidentificatie en een video van hun gezicht te uploaden, zodat hun identiteit kan worden verifieerd en hun imago beschermd kan worden tegen niet-geautoriseerde AI-vervormingen [1][3]. Deze technologie is bedoeld om creators te helpen hun reputatie te beschermen in een tijdperk waarin AI-modellen zoals OpenAI’s Sora en Google’s Veo 3 de verspreiding van deepfakes versnellen [3]. Hoewel YouTube stelt dat de biometrische gegevens uitsluitend worden gebruikt voor identiteitsverificatie en deepfake-detectie [1], roept dit een ernstige discussie op over de grenzen van digitale controle en de toekomst van persoonlijke gegevens [3].
Het risico van een biometrische ‘datagouden’-wedloop: hoe Google de controle over je gezicht zou kunnen overnemen
Hoewel YouTube ontkent dat biometrische gegevens worden gebruikt om AI-modellen te trainen, wijst de privacybeleid van Google toe dat openbare biometrische gegevens kunnen worden ingezet voor het trainen van AI-systemen [1][3][4]. Volgens een report van CNBC, die is gebaseerd op de huidige formuleringen van het privacybeleid, wordt dit niet uitgesloten, zelfs al wordt de data niet expliciet gebruikt in de praktijk [3]. Experts waarschuwen dat dit een fundamenteel probleem is, omdat het gezicht van een persoon in de AI-epoch wordt gezien als een van de meest waardevolle assets [3][4]. Dan Neely, CEO van Vermillio, waarschuwt: ‘Uw uiterlijk zal een van de meest waardevolle activa in de AI-epoch zijn, en zodra u die controle weggeeft, kunt u het misschien nooit meer terugkrijgen’ [3][4]. Deze zorg is niet uit de lucht gegrepen: de tool is geïntegreerd in het YouTube Partner Program en zal eind januari 2026 worden uitgerold naar meer dan drie miljoen creators [1][3].
De realiteit van de takedown: hoe weinig effect de tool tot nu toe heeft
Hoewel de tool technisch geavanceerd is, blijkt het effect op het daadwerkelijke verwijderen van deepfakes laag te zijn. Volgens Jack Malon, YouTube-spokesperson, is de meest voorkomende reactie van makers op een geïdentificeerde deepfake: ‘Ik heb het bekeken, maar ik heb er geen probleem mee’ [1]. Dit duidt op een gebrek aan bewustwording of een acceptatie van AI-generatie, zelfs als het ongeautoriseerd is. Een concrete cijfergebaseerde analyse van verwijderingspercentages of effectiviteit van de tool ontbreekt in de beschikbare bronnen [1][3][4]. Er is geen data beschikbaar over hoe vaak een takedown-aanvraag wordt ingediend of geaccepteerd, noch over hoeveel deepfakes in totaal zijn geïdentificeerd via de tool [1][3][4]. Het risico van fout-positieven blijft een bezorgdheid, omdat een onjuist geïdentificeerde video zonder duidelijke herkenningsmogelijkheden kan leiden tot onnodige censuur of reputatieschade [1].
De economie van het imago: geen vergoeding voor ongeautoriseerd gebruik van je gezicht
Een andere ernstige lacune is het gebrek aan economische terugvordering voor creators. Zelfs als een AI-gegenereerde video hun gezicht gebruikt zonder toestemming, is er geen mechanisme om daarvoor vergoeding te ontvangen [1][3]. YouTube heeft in eind 2025 creators de optie geboden om derden toestemming te geven hun video’s te gebruiken voor AI-training, zonder vergoeding [3]. Dit brengt een ethisch dilemma met zich mee: het platform beschermt het imago van de maker, maar vermindert tegelijkertijd de mogelijkheid tot monetarisatie van hetzelfde imago in de toekomst. Deze dualiteit weerspiegelt de groeiende spanning tussen platformveiligheid en auteursrechten in de AI-epoce [3].
De rol van derden: hoe bedrijven zoals Vermillio en Loti reageren op de nieuwe uitdaging
Bedrijven die zich richten op het beveiligen van digitale identiteiten, zoals Vermillio en Loti, zien een duidelijke toename in vraag naar hun diensten [1][3][4]. Ze waarschuwen ervoor dat het vrijgeven van biometrische data aan platformen zoals YouTube een langdurig risico inhoudt, vooral wanneer het beleid onduidelijk is en de controle verloren gaat [1][3][4]. Luke Arrigoni, CEO van Loti, verwijst naar ‘enorme’ risico’s die voortkomen uit het huidige biometrische databeleid van YouTube [3]. Deze bedrijven adviseren creatieve professionals om voorzichtig te zijn bij het gebruik van de tool, en soms zelfs om de aanmelding te vermijden tot de voorwaarden helder zijn [3][4].
De toekomst van identiteit: kan controle ooit worden teruggegeven?
YouTube heeft verklaard dat het de taal in het aanmeldingsformulier zal herzien om verwarring te verminderen, maar dat het basisprivacybeleid niet zal veranderen [3]. Dit suggereert dat het huidige model van biometrische data-inzameling en -gebruik wordt geconsolideerd als een norm [3]. Voor makers die hun gezicht als een economisch en persoonlijk bezit zien, is dit een verontrustende ontwikkeling [3][4]. Hoewel de tool technisch gezien een belangrijke stap is in de strijd tegen deepfakes, ondermijnt het de basis van persoonlijke controle over de digitale identiteit [1][3]. De vraag blijft: is het veiligheid waard om overal het imago te beschermen, als dat betekent dat je het bezit van je eigen beeld opgeeft aan een platform dat het kan gebruiken voor zijn eigen AI-ambities? [3][4]