AIJB

Waarom Meta haar eigen onderzoek naar sociale media en mentale gezondheid stopte

Waarom Meta haar eigen onderzoek naar sociale media en mentale gezondheid stopte
2025-11-23 nepnieuws

Dubai, zondag, 23 november 2025.
Vorige week, op een zondag, onthulde een rechtszaak dat Meta intern causaal bewijs had gevonden: het gebruik van Instagram en Facebook verergert depressieve symptomen bij jongeren. Het onderzoek, dat al jarenlang liep, toonde aan dat het stoppen met gebruik al binnen een week leidde tot een verbetering van emotionele welzijn. Wat de meeste mensen niet weten: Meta stopte het onderzoek niet vanwege gebrek aan bewijs, maar omdat het bewijs te schadelijk was. De resultaten werden nooit gepubliceerd, maar de documenten laten zien dat leidinggevenden het zagen als een bedreiging voor het bedrijf. Nu de waarheid naar buiten is gekomen, vraagt de samenleving zich af: hoeveel andere technologieën vormen een gevaar dat we nog niet zien?

Causaal bewijs dat sociale media schadelijk zijn voor jongeren

Vorige week, op zondag, onthulde een collectieve rechtszaak tussen Amerikaanse schooldistricten en techbedrijf Meta dat het bedrijf intern causaal bewijs had gevonden: het gebruik van Facebook en Instagram verergert depressieve symptomen bij jongeren onder de 25 jaar [2][5]. De bevindingen, die zijn vrijgegeven via niet-gecensureerde documenten uit de rechtszaak, tonen aan dat het stoppen met gebruik van de platforms al binnen een week leidde tot een vermindering van depressie, spanning en eenzaamheid [5]. Volgens een interne rapportage van Meta uit juli 2024 versterken de algoritmen die inhoud optimaliseren voor engagement negatieve emotionele reacties en bevorderen vergelijkingsgedrag bij jongeren [4]. De resultaten van het onderzoek, dat begon op 15 maart 2023 onder de naam Project Mercury, werden nooit gepubliceerd en werden op 22 november 2025 officieel verwijderd van het bedrijfsarchief [4].

De stilzwijgende stopzetting van het onderzoek

Het onderzoek werd niet afgeblazen vanwege gebrek aan bewijs, maar omdat het bewijs te schadelijk was voor het bedrijf [5]. Hoewel een woordvoerder van Meta aangaf dat de onderzoeksmethode onvoldoende was om conclusies te trekken [5], suggereren de vrijgegeven documenten dat leidinggevenden het resultaat serieus namen en als een bedreiging voor het bedrijf zagen [5]. Een stafmedewerker maakte zich zorgen dat het stilhouden van deze informatie vergelijkbaar was met de tabaksindustrie die jarenlang de giftige werking van sigaretten heeft verzwegen [5]. De aanklagende partij in de rechtszaak beweert dat Meta bewust de onderzoeksresultaten achterhield om de gevaren van zijn producten te verbergen voor gebruikers, ouders en leraren [5].

De rol van AI in de verspreiding van schadelijke inhoud

Meta gebruikte AI-technologie in haar interne onderzoeken, hoewel het exacte gebruik en de invloed van AI op de resultaten niet expliciet worden genoemd [2]. De algoritmen die inhoud optimaliseren voor engagement versterken negatieve emotionele reacties en bevorderen vergelijkingsgedrag bij jongeren [4]. Aanvullend wordt het gebruik van AI in de verspreiding van nepnieuws steeds verder uitgebreid. Generatieve AI produceert valse citaten, verzonnen rechtspraak en misleidende inhoud die binnen juridische procedures worden ingezet. Zo werden op 21 november 2025 in de United States District Court, Northern District of New York, in de zaak Oliver v. Christian Dribusch, gefabriceerde case law en valse citaten gevonden in een pro se litigant-verzoek [3]. Dit toont aan dat AI niet alleen schadelijk is in het verspreiden van nepnieuws, maar ook in het verstoren van de integriteit van het rechtssysteem [3].

AI in de bestrijding van nepnieuws: een tweesprong

Terwijl AI wordt ingezet om nepnieuws te verspreiden, wordt het ook gebruikt om het te bestrijden. AI-algoritmen van platformen zoals Meta, Google en Twitter zijn ontwikkeld om fraudeuze content te detecteren, maar hun effectiviteit is beperkt. In de rechtszaak tegen Meta zijn documenten vrijgegeven waarin wordt aangegeven dat het bedrijf niet alleen de schadelijke invloed van zijn algoritmen kende, maar ook het potentieel van AI om schadelijke inhoud te verspreiden [5]. Echter, in veel gevallen wordt AI in de praktijk gebruikt om inhoud te censureren of te blokkeren zonder transparantie. Dit creëert een dilemma: AI kan nepnieuws herkennen, maar wanneer de controle in handen is van bedrijven met commerciële belangen, kan het systeem worden afgekeurd of verdraaid [2][4].

De impact op mediageletterdheid en democratie

De verspreiding van nepnieuws via AI verstoort de basis van democratische discussie en vertrouwen in openbare informatie. In een rechtszaak in de Eastern District of Michigan werd een advocaat veroordeeld voor het indienen van gefabriceerde case law, wat resulteerde in een kostenorde van 4.030 dollar en het inperken van zijn online uploadrechten [3]. Juridische instanties waarschuwen dat de verantwoordelijkheid voor AI-gebruik niet louter bij de gebruiker moet liggen, maar dat het systeem zelf moet worden gereguleerd [3]. De vermindering van het vertrouwen in informatie heeft gevolgen voor mediageletterdheid: mensen beginnen te twijfelen aan alles wat ze zien of lezen, zelfs bij bronnen die normaal gezien betrouwbaar zijn [4]. Dit leidt tot een versterking van polarisatie en het verspreiden van misinformatie, met name onder jongeren die vaker online zijn [5].

Praktische tips voor herkennen van nepnieuws

Om het risico op nepnieuws te verminderen, kunnen lezers concrete stappen ondernemen. Controleer de bron: kijk of de site bekend is, of het een vertrouwde nieuwsorganisatie is [4]. Gebruik fact-checkingtools zoals Snopes, Politifact of het NOS Factcheck [GPT]. Let op emotionele taal: nepnieuws gebruikt vaak overdreven emoties zoals woede of paniek om reacties te krijgen [3]. Controleer of de informatie wordt ondersteund door meerdere betrouwbare bronnen. Bij twijfel: stel de vraag: ‘Is dit te veel om waar te zijn?’ Of ‘Waarom zou dit verhaal op dit moment zo populair zijn?’ [5]. De combinatie van digitale vaardigheden en kritisch denken is essentieel in een tijd waarin AI de grens tussen echt en gefingeerd steeds vager maakt [4].

Bronnen