Pourquoi Meta a arrêté ses propres recherches sur les réseaux sociaux et la santé mentale
Dubai, zondag, 23 november 2025.
La semaine dernière, un lundi, une action collective a révélé qu’au sein de Meta, des preuves causales avaient été trouvées : l’utilisation d’Instagram et de Facebook aggrave les symptômes dépressifs chez les jeunes. Cette étude, menée depuis plusieurs années, démontrait que l’arrêt de l’utilisation des plateformes entraînait une amélioration de bien-être émotionnel en moins d’une semaine. Ce que la plupart des gens ignorent : Meta n’a pas cessé l’étude en raison d’un manque de preuves, mais parce que les preuves étaient trop préjudiciables. Les résultats n’ont jamais été publiés, mais les documents montrent que les dirigeants les ont considérés comme une menace pour l’entreprise. Alors que la vérité émerge, la société se demande : combien d’autres technologies représentent des dangers que nous ne voyons pas encore ?
Preuves causales que les réseaux sociaux sont nuisibles pour les jeunes
La semaine dernière, un lundi, une action collective entre des districts scolaires américains et le groupe technologique Meta a révélé que l’entreprise avait trouvé des preuves causales internes : l’utilisation de Facebook et d’Instagram aggrave les symptômes dépressifs chez les jeunes de moins de 25 ans [2][5]. Les résultats, rendus publics via des documents non censurés provenant de l’instance judiciaire, montrent que l’arrêt de l’utilisation des plateformes entraînait déjà, en moins d’une semaine, une réduction de la dépression, de l’anxiété et de la solitude [5]. Selon un rapport interne de Meta dat daté de juillet 2024, les algorithmes optimisant le contenu pour l’engagement renforcent les réactions émotionnelles négatives et favorisent le comportement de comparaison chez les jeunes [4]. Les résultats de l’étude, lancée le 15 mars 2023 sous le nom de Projet Mercury, n’ont jamais été publiés et ont été officiellement supprimés du fichier interne de l’entreprise le 22 novembre 2025 [4].
L’arrêt silencieux de l’étude
L’étude n’a pas été abandonnée en raison d’un manque de preuves, mais parce que les preuves étaient trop dangereuses pour l’entreprise [5]. Bien qu’un porte-parole de Meta ait affirmé que la méthode de recherche n’était pas suffisamment solide pour tirer des conclusions [5], les documents révélés suggèrent que les dirigeants ont pris les résultats au sérieux et les ont considérés comme une menace pour l’entreprise [5]. Un membre du personnel s’est inquiété que le maintien du silence sur ces informations ressemble à la stratégie de l’industrie du tabac, qui a pendant des années caché les effets nocifs du tabac [5]. La partie plaignante dans l’affaire affirme que Meta a délibérément dissimulé les résultats des recherches afin de cacher les dangers de ses produits aux utilisateurs, aux parents et aux enseignants [5].
Le rôle de l’IA dans la diffusion de contenus nuisibles
Meta a utilisé des technologies d’intelligence artificielle dans ses recherches internes, bien que le usage précis et l’impact de l’IA sur les résultats ne soient pas explicitement mentionnés [2]. Les algorithmes optimisant le contenu pour maximiser l’engagement renforcent les réactions émotionnelles négatives et favorisent le comportement de comparaison chez les jeunes [4]. En outre, l’utilisation de l’IA pour diffuser des fausses nouvelles s’étend de plus en plus. L’IA générative produit des citations inventées, des décisions juridiques fictives et du contenu trompeur intégré dans des procédures juridiques. Ainsi, le 21 novembre 2025, dans le cadre de l’affaire Oliver c. Christian Dribusch, jugée devant le United States District Court, Northern District of New York, des décisions juridiques fabriquées et des citations fausses ont été découvertes dans une requête déposée par un plaignant représentant lui-même [3]. Cela montre que l’IA n’est pas seulement nuisible dans la diffusion de fausses nouvelles, mais aussi dans la corruption de l’intégrité du système judiciaire [3].
L’IA dans la lutte contre les fausses nouvelles : un dilemme
Alors que l’IA est utilisée pour propager des fausses nouvelles, elle est aussi mise au service de leur détection. Les algorithmes d’IA développés par des plateformes comme Meta, Google et Twitter visent à repérer le contenu frauduleux, mais leur efficacité est limitée. Dans l’affaire contre Meta, des documents révélés indiquent que l’entreprise connaissait non seulement l’impact préjudiciable de ses algorithmes, mais aussi le potentiel de l’IA à diffuser du contenu nuisible [5]. Toutefois, dans de nombreux cas, l’IA est en pratique utilisée pour censurer ou bloquer du contenu sans transparence. Cela crée un dilemme : l’IA peut reconnaître les fausses nouvelles, mais lorsqu’elle est contrôlée par des entreprises aux intérêts commerciaux, le système peut être détourné ou manipulé [2][4].
L’impact sur la littératie médiatique et la démocratie
La propagation de fausses nouvelles via l’IA perturbe les fondements du débat démocratique et la confiance dans les informations publiques. Dans une affaire judiciaire du Eastern District of Michigan, un avocat a été condamné pour avoir déposé des décisions juridiques fabriquées, ce qui a entraîné une ordonnance de frais s’élevant à 4 030 dollars et la suspension de ses droits de publication en ligne [3]. Les autorités judiciaires avertissent que la responsabilité de l’utilisation de l’IA ne doit pas être uniquement imputée à l’utilisateur, mais que le système lui-même doit être régulé [3]. La diminution de la confiance dans les informations a des conséquences sur la littératie médiatique : les individus commencent à douter de tout ce qu’ils voient ou lisent, même des sources normalement fiables [4]. Cela renforce la polarisation et la propagation de la désinformation, particulièrement chez les jeunes, qui passent davantage de temps en ligne [5].
Conseils pratiques pour reconnaître les fausses nouvelles
Pour réduire le risque de tomber sur des fausses nouvelles, les lecteurs peuvent adopter des mesures concrètes. Vérifiez la source : examinez si le site est reconnu, s’il s’agit d’un média d’information fiable [4]. Utilisez des outils de vérification comme Snopes, Politifact ou le NOS Factcheck [GPT]. Prêtez attention au langage émotionnel : les fausses nouvelles utilisent souvent des émotions exagérées telles que la colère ou la panique pour susciter des réactions [3]. Vérifiez si l’information est corroborée par plusieurs sources fiables. En cas de doute, posez-vous les questions suivantes : « Est-ce trop beau pour être vrai ? » Ou « Pourquoi cette histoire est-elle si populaire en ce moment ? » [5]. La combinaison de compétences numériques et de pensée critique est essentielle dans une ère où l’IA rend la frontière entre le réel et le fictif de plus en plus floue [4].