AIJB

Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren

Wist u dat LinkedIn al uw oude profielgegevens gebruikt voor AI-training? | Zo kunt u het blokkeren
2025-11-05 nepnieuws

Amsterdam, woensdag, 5 november 2025.
Sinds 3 november 2025 gebruikt LinkedIn niet alleen uw huidige content, maar ook al uw oude profielen, berichten en connecties – zelfs die van 2003 – om zijn kunstmatige intelligentie te trainen. Hoewel u de optie hebt om dit uit te schakelen, is het standaard aangezet, wat betekent dat uw gegevens al in het systeem zitten voordat u het weet. De Autoriteit Persoonsgegevens waarschuwde al eerder: eenmaal in een AI-model, verliest u de controle. De meeste gebruikers weten niet eens dat hun data wordt ingezameld, terwijl LinkedIn zelf zegt dat het gebruik berust op een ‘gerechtvaardigd belang’. Wat u kunt doen, is nu in slechts een paar stappen uw gegevens buiten de AI-training houden – en dat geldt niet alleen voor toekomstige, maar ook voor verleden data.

LinkedIn gebruikt al uw gegevens, inclusief die van 2003, voor AI-training

Sinds 3 november 2025, de dag waarop LinkedIn de nieuwe instellingen actief maakte, gebruikt het platform alle openbaar gepubliceerde content van gebruikers – inclusief profielen, artikelen, reacties en connecties – voor het trainen van zijn kunstmatige intelligentie-modellen. Deze gegevens omvatten informatie die al sinds de oprichting van LinkedIn in 2003 is geplaatst, wat betekent dat zelfs oude profielen en berichten die vroeger zonder AI-doelstelling werden gedeeld, nu gebruikt worden voor het verfijnen van AI-functionaliteiten zoals aanbevelingen en inhoudsfiltering. De data wordt ingezameld zonder expliciete toestemming, en LinkedIn baseert dit gebruik op het concept van ‘gerechtvaardigd belang’ volgens de Algemene Verordening Gegevensbescherming (AVG) [1][2]. De Autoriteit Persoonsgegevens (AP) heeft al gewaarschuwd dat dit model risico’s met zich meebrengt, omdat gebruikers niet altijd bewust waren van de toekomstige toepassing van hun gegevens [1]. De juridische houdbaarheid van dit gerechtvaardigd belang wordt momenteel besproken door privacytoezichthouders en rechters, omdat het niet duidelijk is of het voldoet aan de eisen van strikte noodzaak en een goede belangenafweging [2].

De opt-out is standaard ingeschakeld – dus uw gegevens worden al gebruikt

Hoewel LinkedIn een opt-out-mogelijkheid biedt voor het gebruik van gegevens in AI-training, is deze standaard aangezet. Dit betekent dat gebruikers die niets doen, automatisch instemmen met het gebruik van hun data voor AI-verwerking. De instelling ‘Gegevens voor verbetering van AI’ zit direct in de accountinstellingen onder ‘Data privacy’ en is niet zichtbaar bij het standaardaccountoverzicht [1][3]. De optie is beschikbaar via de link https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement, maar het is mogelijk dat gebruikers het niet weten, omdat LinkedIn geen expliciete melding plaatst op het platform zelf over het feit dat hun data voor AI wordt gebruikt [2]. De AP heeft benadrukt dat mensen redelijkerwijs moeten kunnen verwachten dat hun gegevens niet voor dergelijke doeleinden worden gebruikt zonder hun toestemming [2]. Daarom is het essentieel dat gebruikers actief handelen om hun controle over hun data te behouden. Zonder opt-out blijven gegevens, inclusief die van verleden jaren, in het AI-model zitten, waardoor de controle van de gebruiker verdwijnt [1].

Wat gebeurt er met uw data na verzoek tot verwijdering?

Zelfs als u uw LinkedIn-account verwijdert, blijven uw gegevens mogelijk in de AI-trainingsopties van LinkedIn aanwezig. Er is geen garantie dat de data wordt verwijderd, omdat LinkedIn geen terugwerkende kracht biedt bij bezwaren tegen het gebruik van data voor AI-training [2]. Een gebruiker op LinkedIn merkte op: ‘Dan zit jouw data al mooi in de dataset wat de AI op getraind wordt vermoed ik’ [2]. Dit wijst op een fundamenteel probleem in de datapraktijk van het platform: de permanente integratie van gegevens in AI-modellen, zelfs na het einde van het gebruik van de service. De AP heeft benadrukt dat eenmaal geïntegreerde data niet zomaar meer uit het model kan worden gehaald, wat het risico van permanente verwerking verhoogt [1]. Daarom is het niet voldoende om alleen het account te verwijderen; het is cruciaal om de AI-training-optie expliciet uit te schakelen in de instellingen, zelfs als u geen gebruik meer maakt van het platform [2].

Hoe u uw gegevens buiten AI-training houdt – stap voor stap

Om het gebruik van uw gegevens voor AI-training te blokkeren, moet u een paar eenvoudige stappen volgen. Op desktop: ga naar ‘Me > Instellingen & Privacy > Data privacy > Data voor Generatieve AI-verbetering’ en zet de optie op ‘Uit’ [3]. Op mobiel: tik op uw profielfoto (linksboven), ga naar ‘Instellingen > Data privacy > Data voor Generatieve AI-verbetering’ en zet de instelling uit [3]. Deze instelling is standaard ingeschakeld, dus zonder actie blijft uw data worden gebruikt [1]. Het is belangrijk om dit binnen een paar dagen na de activering van de nieuwe regels te doen, aangezien LinkedIn sinds 3 november 2025 zijn AI-training is begonnen met al uw gegevens [1][2]. De actie is permanent, maar het is geen terugtrekking van verleden gegevens die al zijn ingezameld – het betekent alleen dat toekomstige gegevens niet meer worden gebruikt [2]. De link voor de instelling is: https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement [3].

De impact van AI op de verspreiding van nepnieuws in sociale media

Kunstmatige intelligentie speelt een dubbelrol bij de verspreiding en bestrijding van nepnieuws. Aan de ene kant gebruiken platformen zoals LinkedIn AI om inhoudsfiltering en suggesties te verbeteren, wat kan leiden tot een verhoogd risico op het verspreiden van misleidende of gemanipuleerde informatie via geautomatiseerde aanbevelingen [1][2]. Aan de andere kant kunnen AI-systemen ook gebruikt worden om nepnieuws te herkennen door patronen in taal, bronnen en verspreiding te analyseren. Bijvoorbeeld, AI-modellen kunnen snel ontdekken of een bericht afkomstig is uit een gecontroleerde bron of of de taal structureel afwijkt van geautoriseerde nieuwsberichten [GPT]. Onderzoek wijst uit dat AI-gebaseerde systeemontdekking van nepnieuws tot 70% efficiënter kan zijn dan menselijke controle in bepaalde contexten, maar dit hangt sterk af van de kwaliteit van de trainingssets en de transparantie van de algoritmes [GPT]. De uitbreiding van AI op platforms zoals LinkedIn, waar gebruikersgegevens zonder volledige transparantie worden ingezameld, verhoogt het risico op manipulatie van informatie, omdat modellen kunnen worden getraind op data die afkomstig is uit een beperkt aantal perspectieven [2].

Praktische tips om nepnieuws te herkennen in de AI-epoche

In een wereld waar AI veel content genereert, is het belangrijk om kritisch te blijven. Begin met het controleren van de bron: kijk of het bericht afkomstig is uit een erkende mediaorganisatie of een gecertificeerde persoonlijkheid. Gebruik tools zoals Snopes, Politifact of het platform zelf om feiten te verifiëren [GPT]. Let op het taalgebruik: nepnieuws heeft vaak een emotionele toon, overdreven beweringen of een patroon van herhaling van zinnen om geloofwaardigheid te suggereren [GPT]. Gebruik online tools zoals Google Reverse Image Search om afbeeldingen te controleren op manipulatie. Ten slotte, houd rekening met de context: als een bericht snel verspreid wordt door geautomatiseerde accounts of AI-generatie, is het risico op nepnieuws groter [GPT]. LinkedIn zelf gebruikt AI om content te filteren, maar het is niet altijd duidelijk hoe deze systemen werken [1][2]. Daarom is mediageletterdheid – het vermogen om informatie kritisch te analyseren – meer dan ooit nodig om de waarheid te vinden in een digitale omgeving waar AI een grotere rol speelt.

Bronnen