Waarom jongeren vanaf 2026 pas 16 mogen op sociale media
Brussel, donderdag, 27 november 2025.
Het Europees Parlement heeft een uniek voorstel ingediend: vanaf 2026 moeten jongeren minstens 16 jaar zijn om toegang te krijgen tot sociale media. De reden? Generatieve AI, zoals diepgevalse video’s (deepfakes), manipulatieve chatbots en verslavende algoritmes, dreigt de geestelijke gezondheid van jongeren serieus te schaden. Volgens onderzoek uit 2019 hadden al 1 op de 4 minderjarigen tekens van problematisch gebruik van smartphones. De instemming van het Parlement, aangenomen op 26 november, is een sterk signaal dat technologie niet zonder grenzen mag groeien. De voorgestelde leeftijd is geen willekeurig getal, maar gebaseerd op wetenschappelijke analyses die de kwetsbaarheid van 14- tot 16-jarigen onderstrepen. De uitvoering is gepland voor het voorjaar van 2026, met een EU-app voor leeftijdsverificatie op komst. Dit is geen paniekmaatregel, maar een verantwoorde stap om jongeren te beschermen in een wereld waar AI steeds invloedrijker wordt.
De wetgevingsstap van het Europees Parlement: een antwoord op de AI-uitdaging
Op donderdag 26 november 2025 heeft het Europees Parlement een resolutie aangenomen met 483 stemmen voor, 92 tegen en 86 onthoudingen, waarin een geharmoniseerde minimumleeftijd van 16 jaar wordt voorgesteld voor toegang tot sociale media, videoplatforms en AI-metgezellen [1]. Deze stap is een directe reactie op de toenemende dreiging van generatieve AI, zoals deepfakes, emotioneel manipulerende chatbots en verslavende ontwerpprincipes die jongeren kwetsbaar maken voor psychologische schade en misleidende inhoud [1][4]. De resolutie benoemt specifiek dat de geestelijke en lichamelijke gezondheid van minderjarigen ernstig in gevaar wordt gebracht door online inhoud die gebaseerd is op betrokkenheid en algoritmes die doelgericht gebruik van emotionele reacties bevorderen [1]. De voorgestelde leeftijd is niet willekeurig: het is gebaseerd op een wetenschappelijk advies van de Europese Commissie, gepubliceerd op 19 november 2025, dat wijst op een verhoogde kwetsbaarheid van 14- tot 16-jarigen voor AI-gebaseerde manipulatie [4]. De Commissie moet binnen 30 dagen na 26 november 2025 een concreet wetgevingsvoorstel indienen, wat een deadline van 26 december 2025 oplevert, een termijn die nog niet is ingehaald [4]. De implementatie is gepland voor het voorjaar van 2026, met als doel de jongere generatie te beschermen tegen de risico’s van AI-geïnspireerde manipulatie [4][5].
De wetgevingsvoorstellen: hoe de AI-risico’s worden aangepakt
Het Europees Parlement stelt een breed pakket maatregelen voor om jonge gebruikers te beschermen. Daarnaast wordt een verbod voorgesteld op de meest schadelijke verslavende praktijken, zoals eindeloos scrollen, automatisch afspelen, ‘pull-to-refresh’, beloningslussen, gamificatie, ‘loot boxes’, ‘pay-to-progress’ en financiële stimulansen voor kidfluencing [1]. De Commissie wordt aangedrongen om de digitaledienstenverordening uit te breiden naar online videoplatforms, zoals YouTube, en een verbod op aanbevelingssystemen voor minderjarigen die gebaseerd zijn op betrokkenheid [1]. De voorgestelde wetgeving zet een sterk accent op verantwoorde technologie en persoonlijke aansprakelijkheid voor hogere leidinggevenden die ernstige en aanhoudende niet-naleving van regels toelaten [1]. In het kader van de komende wet over digitale rechtvaardigheid wordt een krachtig optreden van de Commissie aangekondigd, inclusief maatregelen tegen persuasieve technologieën zoals gerichte advertenties, influencermarketing en ‘donkere patronen’ [1]. De Europese Commissie heeft op 19 november 2025 een Digital Omnibus pakket gepresenteerd, dat technische amendementen aan GDPR, NIS2, DGA en DataAct omvat, met als doel het verlagen van regulatoire rompslak [4]. De voorgestelde EU-app voor leeftijdsverificatie en de Europese portemonnee voor digitale identiteit worden gezien als cruciale tools om nauwkeurigheid en privacybescherming te garanderen bij de toegang van jongeren tot digitale diensten [1].
Internationale druk en juridische reacties op sociale media
De stap van het Europees Parlement komt op een moment van toenemende internationale druk op techbedrijven. Op 24 november 2025 werd in Californië een collectief rechtssysteem aangespannen door meer dan 1.800 ouders en schoolleiders tegen Meta, TikTok, Snapchat en YouTube [2]. De aanklacht beschuldigt deze platforms van het volgen van doelbewuste groeistrategieën die de geestelijke en lichamelijke gezondheid van jongeren in gevaar brengen [2]. Volgens de aanklagers minimaliseerde Meta schade bij tienergebruikers wanneer dit botsing opleverde met het doel om engagement te verhogen, en beperkte het de effectiviteit van jeugdveiligheidsfuncties wanneer die negatieve gevolgen voor groei konden hebben [2]. Meta wordt beschuldigd van het gebruik van vertekende of selectief gebruikte gegevens in onderzoeken, terwijl het bedrijf stelt dat het volop investeert in maatregelen die jongeren beschermen [2]. Snapchat wordt verweten ondoordacht leeftijdsdetectie te gebruiken en functies zoals Snap Streaks te ontwerpen die bewust verslavend zijn [2]. TikTok wordt verweten manipulatieve ontwerpkeuzes in te zetten om engagement onder jongeren te vergroten [2]. YouTube’s aanbevelingssystemen worden volgens de aanklacht minderjarigen herhaaldelijk blootgesteld aan schadelijke content, wat de noodzaak van een verbod op aanbevelingssystemen voor jongeren onderstreept [1][2]. De zaak is nog in behandeling en heeft geen voorlopige uitspraak of definitieve deadline [2].
De rol van generatieve AI in het verspreiden en bestrijden van nepnieuws
Generatieve AI speelt een centrale rol in zowel het verspreiden als het bestrijden van nepnieuws. AI wordt gebruikt om realistische deepfakes te maken, die niet alleen diepe valse video’s zijn, maar ook audio en tekst kunnen genereren die op echte inhoud lijken, wat de identiteit en betrouwbaarheid van mensen en instellingen in gevaar brengt [1][4]. Onderzoeken tonen aan dat generatieve AI snel in het publieke domein verspreidt, met name via sociale media, waar algoritmes content blootstellen die emotioneel opvallend is, wat leidt tot snellere verspreiding van nepnieuws [1][4]. De Europese Commissie noemt AI-gebruik in sociale media een ‘ernstig ethisch risico’ voor gebruikers onder de 16, vooral vanwege de mogelijkheid tot emotionele manipulatie via chatbots en het genereren van misleidende inhoud [5]. Om dit te bestrijden, worden nieuwe tools ontwikkeld. TikTok kondigde op 21 november 2025 nieuwe functies aan om ‘AI-slop’ (AI-gegenereerde content) te beperken en transparantie te vergroten op zijn platform [5]. De Europese Commissie werkt aan een Digital Omnibus pakket dat technische amendementen aan de GDPR en andere regels omvat, met als doel de vereenvoudiging van privacyregels en het verlagen van bureaucratie, wat op denkbeeldige manier kan bijdragen aan een betere controle over AI-gebaseerde content [2][4]. De IAPP (International Association of Privacy Professionals) verwijst naar de noodzaak van digitale verantwoordelijkheid en AI-governance, met een focus op het balanceren van innovatie en bescherming van burgerrechten [4].
Praktische tips voor lezers om nepnieuws te herkennen
Lezers kunnen zelf actief zijn in het herkennen van nepnieuws door een paar eenvoudige, maar krachtige stappen te volgen. Allereerst is het belangrijk om de bron van een bericht te controleren: is het een betrouwbare nieuwsorganisatie of een onbekende site met een vage naam of domain? Vragen over de auteurschap, de doelstelling en de data die worden gebruikt, helpen om de betrouwbaarheid te beoordelen [GPT]. Tweede stap is het controleren van het tijdstip van publicatie: nepnieuws wordt vaak snel verspreid zonder verificatie, terwijl betrouwbare berichten vaak een datum of tijdstamp hebben [GPT]. Derde stap is het gebruik van fact-checkingtools zoals Snopes, FactCheck.org of het Europese fact-checkingplatform EUvsDisinfo, die specifiek zijn ontworpen om online claims te verifiëren [GPT]. Vierde stap is het letten op emotionele taal: nepnieuws gebruikt vaak krachtige emoties zoals woede, angst of verbazing om te manipuleren, terwijl serieuze berichten meestal een neutrale toon hebben [GPT]. Vijfde stap is het vermijden van het delen van content zonder verificatie: elke keer dat je iets deelt, versterk je de verspreiding, ook als je het niet helemaal gelooft [GPT]. Tot slot is het belangrijk om te beseffen dat AI-gegenereerde inhoud vaak onderscheidloos lijkt van echte content, vooral bij foto’s en video’s. Gebruik tools zoals Google Reverse Image Search of Microsoft’s Bing Image Search om te controleren of een afbeelding al eerder is gebruikt op een andere website [GPT]. De combinatie van media-geletterdheid en technologische tools is cruciaal in een tijd waarin AI een steeds grotere invloed heeft op de manier waarop informatie wordt geproduceerd en geconsumeerd [GPT].