AIJB

Pourquoi les jeunes ne pourront accéder aux réseaux sociaux qu’à partir de 16 ans à partir de 2026

Pourquoi les jeunes ne pourront accéder aux réseaux sociaux qu’à partir de 16 ans à partir de 2026
2025-11-27 nepnieuws

Brussel, donderdag, 27 november 2025.
Le Parlement européen a présenté une proposition unique : à compter de 2026, les jeunes devront avoir au moins 16 ans pour accéder aux réseaux sociaux. La raison ? L’intelligence artificielle générative, comme les vidéos falsifiées (deepfakes), les chatbots manipulatoires et les algorithmes addictifs, menace gravement la santé mentale des jeunes. Selon une étude de 2019, déjà 1 jeune sur 4 de moins de 18 ans présentait des signes d’utilisation problématique de son smartphone. L’adoption de cette résolution par le Parlement, le 26 novembre, constitue un signal fort selon lequel la technologie ne doit pas croître sans limites. L’âge proposé n’est pas arbitraire, mais fondé sur des analyses scientifiques mettant en évidence la vulnérabilité des adolescents âgés de 14 à 16 ans. La mise en œuvre est prévue pour le printemps 2026, avec l’arrivée d’une application européenne de vérification d’âge. Ce n’est pas une mesure panique, mais une démarche responsable visant à protéger les jeunes dans un monde où l’IA exerce une influence croissante.

La mesure législative du Parlement européen : une réponse à la menace de l’IA

Jeudi 26 novembre 2025, le Parlement européen a adopté une résolution par 483 voix pour, 92 contre et 86 abstentions, proposant une age minimum harmonisé de 16 ans pour accéder aux réseaux sociaux, aux plateformes vidéo et aux compagnons d’IA [1]. Cette mesure constitue une réponse directe à la menace croissante de l’intelligence artificielle générative, telle que les deepfakes, les chatbots émotionnellement manipulateurs et les principes de conception addictifs qui rendent les jeunes particulièrement vulnérables aux dommages psychologiques et aux contenus trompeurs [1][4]. La résolution souligne spécifiquement que la santé mentale et physique des mineurs est sérieusement mise en péril par le contenu en ligne fondé sur l’engagement et les algorithmes conçus pour favoriser activement les réactions émotionnelles [1]. L’âge proposé n’est pas arbitraire : il repose sur un avis scientifique de la Commission européenne, publié le 19 novembre 2025, qui met en évidence une vulnérabilité accrue des adolescents âgés de 14 à 16 ans face à la manipulation par l’IA [4]. La Commission doit présenter un projet de loi concret dans les 30 jours suivant le 26 novembre 2025, soit une date limite du 26 décembre 2025, qui n’a pas encore été atteinte [4]. La mise en œuvre est prévue pour le printemps 2026, dans le but de protéger la génération plus jeune contre les risques de manipulation inspirée par l’IA [4][5].

Les propositions législatives : comment les risques liés à l’IA sont abordés

Le Parlement européen prévoit un ensemble large de mesures afin de protéger les jeunes utilisateurs. Il est également proposé de prohiber les pratiques les plus nocives liées à l’addiction, telles que le défilement sans fin, la lecture automatique, le « pull-to-refresh », les boucles de récompenses, la gamification, les « loot boxes », les systèmes « pay-to-progress » et les incitations financières pour le kidfluencing [1]. La Commission est encouragée à étendre la réglementation sur les services numériques aux plateformes vidéo en ligne, telles que YouTube, et à interdire les systèmes de recommandation destinés aux mineurs fondés sur l’engagement [1]. La proposition législative insiste fortement sur une technologie responsable et la responsabilité personnelle des dirigeants supérieurs qui tolèrent des manquements graves et répétés aux règles [1]. Dans le cadre de la future loi sur la justice numérique, une action vigoureuse de la Commission est annoncée, incluant des mesures contre les technologies persuasives telles que les publicités ciblées, le marketing d’influenceurs et les « patterns sombres » [1]. La Commission européenne a présenté, le 19 novembre 2025, un paquet Digital Omnibus comprenant des aménagements techniques au RGPD, au NIS2, à la DGA et à la DataAct, dans le but de réduire les dérives réglementaires [4]. L’application européenne de vérification d’âge et la portefeuille numérique européenne pour l’identité sont considérées comme des outils cruciaux pour garantir précision et protection de la vie privée lors de l’accès des jeunes aux services numériques [1].

Pression internationale et réactions juridiques contre les réseaux sociaux

La mesure du Parlement européen intervient à un moment de pression internationale croissante exercée sur les géants technologiques. Le 24 novembre 2025, plus de 1 800 parents et responsables scolaires ont intenté une action collective en Californie contre Meta, TikTok, Snapchat et YouTube [2]. L’assignation accuse ces plateformes d’avoir mis en œuvre des stratégies de croissance délibérées qui mettent en danger la santé mentale et physique des jeunes [2]. Selon les plaignants, Meta minimisait les dommages causés aux utilisateurs adolescents lorsqu’ils entravaient le but de maximiser l’engagement, et limitait l’efficacité des fonctions de sécurité pour les jeunes lorsqu’elles pouvaient nuire à la croissance [2]. Meta est accusée d’avoir utilisé des données biaisées ou sélectionnées de manière partielle dans ses études, tout en affirmant investir activement dans des mesures de protection des jeunes [2]. Snapchat est critiqué pour une détection d’âge mal réfléchie et pour la conception de fonctionnalités comme les « Snap Streaks », conçues de manière délibérée pour être addictives [2]. TikTok est accusé d’utiliser des choix de conception manipulatoires pour augmenter l’engagement chez les jeunes [2]. Selon l’assignation, les systèmes de recommandation de YouTube exposent régulièrement les mineurs à des contenus nuisibles, ce qui souligne la nécessité d’un interdit sur ces systèmes pour les jeunes [1][2]. L’affaire est encore en cours d’examen et n’a pas de décision provisoire ni de date limite définitive [2].

Le rôle de l’intelligence artificielle générative dans la diffusion et la lutte contre les fausses informations

L’intelligence artificielle générative joue un rôle central tant dans la diffusion que dans la lutte contre les fausses informations. L’IA est utilisée pour créer des deepfakes réalistes, qui ne sont pas seulement des vidéos fausses, mais aussi des audio et du texte générés de manière à ressembler à du contenu authentique, mettant ainsi en danger l’identité et la crédibilité des individus et des institutions [1][4]. Des études montrent que l’IA générative se propage rapidement dans l’espace public, notamment via les réseaux sociaux, où les algorithmes exposent du contenu émotionnellement percutant, ce qui accélère la diffusion des fausses informations [1][4]. La Commission européenne qualifie l’utilisation de l’IA dans les réseaux sociaux d’un « risque éthique sérieux » pour les utilisateurs de moins de 16 ans, en particulier en raison de la possibilité de manipulation émotionnelle via les chatbots et de la génération de contenus trompeurs [5]. Pour y faire face, de nouveaux outils sont en cours de développement. TikTok a annoncé, le 21 novembre 2025, de nouvelles fonctionnalités afin de limiter le contenu généré par l’IA (« AI-slop ») et d’améliorer la transparence sur sa plateforme [5]. La Commission européenne travaille sur un paquet Digital Omnibus incluant des ajustements techniques au RGPD et à d’autres réglementations, dans le but de simplifier les règles de confidentialité et de réduire la bureaucratie, ce qui pourrait, de manière indirecte, contribuer à une meilleure maîtrise du contenu basé sur l’IA [2][4]. L’IAPP (International Association of Privacy Professionals) souligne la nécessité d’une responsabilité numérique et d’une gouvernance de l’IA, en mettant l’accent sur l’équilibre entre innovation et protection des droits fondamentaux [4].

Conseils pratiques pour les lecteurs afin de repérer les fausses informations

Les lecteurs peuvent agir activement pour repérer les fausses informations en suivant quelques étapes simples mais efficaces. Tout d’abord, il est essentiel de vérifier la source d’un message : s’agit-il d’un organisme de presse fiable ou d’un site inconnu avec un nom ou un domaine flou ? Poser des questions sur l’auteur, l’objectif et les données utilisées aide à évaluer la crédibilité [GPT]. Deuxièmement, vérifiez la date de publication : les fausses informations se propagent souvent rapidement sans vérification, tandis que les informations fiables ont généralement une date ou un horodatage [GPT]. Troisièmement, utilisez des outils de vérification factuelle comme Snopes, FactCheck.org ou la plateforme européenne de vérification de faits EUvsDisinfo, spécialement conçus pour vérifier les affirmations en ligne [GPT]. Quatrièmement, faites attention au langage émotionnel : les fausses informations utilisent souvent des émotions fortes comme la colère, la peur ou l’étonnement pour manipuler, tandis que les articles sérieux ont généralement un ton neutre [GPT]. Cinquièmement, évitez de partager du contenu sans vérification : chaque partage renforce la propagation, même si vous n’êtes pas entièrement convaincu [GPT]. Enfin, il est important de comprendre que le contenu généré par l’IA ressemble souvent à du contenu authentique, surtout pour les images et les vidéos. Utilisez des outils comme Google Reverse Image Search ou Bing Image Search de Microsoft pour vérifier si une image a déjà été utilisée sur un autre site [GPT]. La combinaison de la littératie médiatique et d’outils technologiques est cruciale dans une époque où l’IA a une influence croissante sur la manière dont l’information est produite et consommée [GPT].

Sources