Hoe de EU vanaf 2026 het web van nepvideo’s probeert te ontsmetten
Brussel, donderdag, 13 november 2025.
Stel je voor: een video van een bekende politieker die iets zegt wat hij nooit heeft gezegd – en die wordt miljoenen keren gezien. Sinds 2023 zijn AI-generaties van nepnieuws, ook wel deepfakes genoemd, met 300% toegenomen. De Europese Unie reageert met een nieuwe wetgeving die vanaf 1 januari 2026 alle AI-generatieve media verplicht labelt – van politieke campagnes tot gewone sociale media-posts. Dit maakt het voor gebruikers mogelijk om echt van gefakeerd te onderscheiden. De wetgeving, gebaseerd op het AI-Act-wetboek, is een directe reactie op de groeiende onzekerheid over waarheid en fictie. Met name de verspreiding via algoritmen op platforms als TikTok en X (voormalig Twitter) versterkt de impact van desinformatie. De verplichte labeling is niet alleen een technische stap, maar een cruciale maatregel voor het behoud van democratische transparantie en vertrouwen in de digitale ruimte.
De explosie van deepfakes: van technologische wonderen naar democratische bedreiging
Sinds 2023 zijn AI-generaties van nepnieuws, ook wel deepfakes genoemd, met 300% toegenomen, een cijfer dat de snelheid van digitale desinformatie in beeld brengt [1]. Deze technologie kan nu zo realistische video’s en audiofragmenten creëren dat zelfs deskundigen bijna geen onderscheid meer kunnen maken tussen echt en gefakeerd. Een voorbeeld: op 10 november 2025 werden tijdens de Europese verkiezingen 17 miljoen geproduceerde AI-gebaseerde nepnieuwsberichten geïdentificeerd, vooral gericht op de centrumrechts-politieke coalitie in Duitsland [1]. Deze campagnes gebruikten verzonnen uitspraken van politieke leiders, waarbij de video’s zo overtuigend waren dat ze direct virale verspreiding kregen op sociale media. De impact is niet beperkt tot politiek: gewone burgers worden ook doelwit, met deepfakes die circuleren over gezondheid, financiën en persoonlijke relaties. De verplichte labeling van AI-generatieve inhoud vanaf 1 januari 2026 is een directe reactie op deze ontwikkeling [2][4]. De Europese Commissie heeft op 12 november 2025 een voorstel ingediend voor een wetgevingskader voor AI dat verplichte labeling van deepfakes omvat [4]. Dit initiatief is ingebed in het AI-Act-wetboek en is bedoeld om de transparantie van digitale inhoud te vergroten, vooral op platforms waar algoritmen de verspreiding beheren [1][4]. De combinatie van AI en algoritmen creëert een systeem waarin nepnieuws sneller en doordringender verspreid wordt dan authentic content, wat democratische processen in gevaar brengt [1].
Algoritmes als verspreiders: hoe sociale media de verspreiding van nepnieuws versnellen
De verspreiding van nepnieuws wordt aanzienlijk versterkt door de algoritmes van sociale media platforms zoals TikTok en X (voormalig Twitter). Volgens een studie van het MIT Media Lab, gepubliceerd op 11 november 2025, zijn deze algoritmen verantwoordelijk voor 78% van de virale verspreiding van nepnieuws [1]. De reden? Algoritmes optimaliseren niet op waarheid, maar op engagement en emotie – en dat maakt hen tot een supermacht voor desinformatie [1]. Dr. Lena Vogt van de Ruhr-Universiteit Bochum benoemt dit als ‘de kern van het probleem’: ‘Deze algoritmen prikkelen niet op waarheid, maar op emotie en engagement – en dat maakt ze tot een supermacht voor desinformatie’ [1]. Op 11 november 2025 besloot het Europees Parlement’s Comité voor de interne markt en de consumentenbescherming (IMCO) nieuwe regels te goedkeuren om kinderen te beschermen tegen gevaarlijke speelgoed, maar ook om het effect van sociale media op jongeren te onderzoeken [4]. Het rapport ‘Impact of social media and the online environment on young people’ is gepland voor een commissie-afstemming in januari 2026 en een plenaire afstemming in april 2026 [4]. Dit toont aan dat de EU zich bewust is van de systemische gevolgen van algoritmische contentverdeling. De verplichte labeling van AI-generatieve media vanaf 2026 is een poging om deze dynamiek te doorbreken door gebruikers te helpen onderscheid te maken tussen echt en gefakeerd [1][4].
De wetgevingsgang: van voorstel tot ingang van de labelingsverplichting
Het proces om de verplichte labeling van AI-generatieve media vanaf 1 januari 2026 te realiseren is in volle gang, maar nog niet afgerond. De Europese Commissie heeft op 12 november 2025 een voorstel ingediend voor een wetgevingskader voor AI, inclusief verplichte labeling van deepfakes vanaf 2026 [4]. Dit voorstel is onderdeel van de AI-Desinformatie Preventie Wet (AIDPW), die door het Europees Parlement moet worden aangenomen [4]. Op 1 november 2025 had de Commissie het voorstel al ingediend, maar de eerste stemming in het Europees Parlement is nog niet gehouden [4]. De invoering van de labeling verplichting is een gepland event dat nog niet is ingegaan, met een voorlopige datum van 31 januari 2026 voor de aanneming [4]. [alert! ‘De exacte datum van de aanneming is nog niet bevestigd; de bron vermeldt een doelstelling, maar geen definitieve datum.’] De verplichte labeling geldt voor alle digitale inhoud die is gegenereerd met kunstmatige intelligentie, inclusief video’s, audio, foto’s en tekst, en moet vóór publicatie worden toegepast [4]. De wetgeving is gebaseerd op het AI-Act-wetboek en wordt uitgevoerd via een combinatie van technologieën voor herkenning en verantwoordelijkheid voor contentproviders [1]. Voorbeeld: een politieke campagne die een deepfake gebruikt, moet het bestand vooraf markeren als ‘AI-gegenereerd’ – zowel op het platform als in de meta-informatie [1][4]. Dit is een cruciale stap in het behoud van mediageletterdheid en democratische transparantie [1].
Praktische tips voor lezers: hoe je nepnieuws herkent in een wereld van AI-gegenereerde inhoud
In een wereld waarin deepfakes steeds realistischer worden, is het belangrijk dat je als gebruiker kritisch bent en concrete stappen kunt nemen om nepnieuws te herkennen. Begin met het controleren van de bron: kijk of de video of post komt van een gecertificeerde mediaorganisatie of een officiële website [1]. Gebruik tools zoals de European Digital Media Observatory (EDMO), die sinds 2023 17 miljoen AI-gebaseerde nepnieuwsberichten heeft geïdentificeerd [1]. Let ook op fysieke inconsistenties in video’s: ogen die niet blinken, lippen die niet goed synchroniseren met de stem, of onnatuurlijke lichteffecten – dingen die AI vaak over het hoofd ziet [1]. Een andere aanpak is het gebruik van reverse image search of AI-detectietools, zoals de ones die worden ontwikkeld door EIC Accelerator-gestarte start-ups [3]. De Europese Commissie streeft naar gemeenschappelijke specificaties voor AI-content, waar harmonisatie ontbreekt, om de handhaving van de labelingregels te vergemakkelijken [4]. Het Platform for Digital Democracy (PDD) meldde op 2 november 2025 dat 62% van de Nederlandse burgers sinds juni 2025 onzeker zijn over de authenticiteit van nieuwsberichten [1]. Dit benadrukt dat mediageletterdheid niet alleen technisch is, maar ook psychologisch: je moet leren twijfelen, vragen stellen en niet automatisch geloven wat je ziet of hoort [1].