Saviez-vous que LinkedIn utilise déjà toutes vos anciennes données de profil pour l’entraînement de l’IA ? | Voici comment l’empêcher
Amsterdam, woensdag, 5 november 2025.
Depuis le 3 novembre 2025, LinkedIn n’utilise pas seulement votre contenu actuel, mais aussi l’intégralité de vos anciens profils, messages et connexions – y compris ceux datant de 2003 – pour entraîner son intelligence artificielle. Bien qu’une option d’opt-out soit disponible, elle est activée par défaut, ce qui signifie que vos données sont déjà intégrées dans le système avant même que vous ne le sachiez. L’Autorité de protection des données (AP) a déjà mis en garde : une fois intégrées dans un modèle d’IA, vous perdez tout contrôle. La majorité des utilisateurs ignorent même que leurs données sont collectées, tandis que LinkedIn affirme que cette utilisation repose sur un « intérêt légitime ». Ce que vous pouvez faire, c’est maintenant, en seulement quelques étapes, empêcher vos données d’être utilisées pour l’entraînement de l’IA – et cela concerne non seulement les données futures, mais aussi celles du passé.
LinkedIn utilise toutes vos données, y compris celles de 2003, pour l’entraînement de l’IA
Depuis le 3 novembre 2025, la date à laquelle LinkedIn a activé les nouvelles règles, la plateforme utilise l’intégralité du contenu publié publiquement par les utilisateurs – y compris les profils, articles, commentaires et connexions – pour entraîner ses modèles d’intelligence artificielle. Ces données incluent des informations publiées depuis la création de LinkedIn en 2003, ce qui signifie que même les anciens profils et messages partagés sans objectif d’IA sont désormais utilisés pour affiner des fonctionnalités d’IA telles que les recommandations et le filtrage du contenu. La collecte de ces données se fait sans consentement explicite, et LinkedIn justifie cette pratique par le concept d’« intérêt légitime » en vertu du Règlement général sur la protection des données (RGPD) [1][2]. L’Autorité de protection des données (AP) a déjà averti que ce modèle comporte des risques, car les utilisateurs ne sont pas toujours conscients de l’usage futur de leurs données [1]. La validité juridique de cet « intérêt légitime » est actuellement discutée par les autorités de protection des données et les juges, car il n’est pas clair s’il respecte les exigences de nécessité stricte et d’un équilibre raisonnable des intérêts [2].
L’option d’opt-out est activée par défaut – vos données sont déjà utilisées
Bien que LinkedIn propose une option d’opt-out pour l’utilisation de données dans l’entraînement de l’IA, celle-ci est activée par défaut. Cela signifie que les utilisateurs qui ne prennent aucune mesure s’engagent automatiquement à l’utilisation de leurs données pour le traitement par IA. L’option « Données pour l’amélioration de l’IA » se trouve directement dans les paramètres du compte sous « Vie privée des données », mais elle n’est pas visible dans l’aperçu standard du compte [1][3]. L’option est accessible via le lien https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement, mais il est possible que les utilisateurs n’en aient pas connaissance, car LinkedIn n’affiche pas d’avertissement explicite sur la plateforme concernant l’utilisation de leurs données par l’IA [2]. L’AP a souligné que les individus doivent raisonnablement pouvoir s’attendre à ce que leurs données ne soient pas utilisées à de tels fins sans leur consentement [2]. Il est donc essentiel que les utilisateurs agissent activement pour conserver le contrôle sur leurs données. Sans opt-out, les données, y compris celles des années passées, restent intégrées au modèle d’IA, ce qui entraîne une perte de contrôle de la part de l’utilisateur [1].
Que devient votre donnée après une demande de suppression ?
Même si vous supprimez votre compte LinkedIn, vos données peuvent continuer à être présentes dans les options d’entraînement de l’IA de la plateforme. Il n’existe aucune garantie de suppression, car LinkedIn ne propose pas de retroactivité aux objections concernant l’utilisation des données pour l’entraînement de l’IA [2]. Un utilisateur sur LinkedIn a souligné : « Alors, vos données sont déjà bien intégrées dans le jeu de données sur lequel l’IA est entraînée, je suppose » [2]. Cela révèle un problème fondamental dans la gestion des données de la plateforme : l’intégration permanente des données dans les modèles d’IA, même après la fin de l’utilisation du service. L’AP a insisté sur le fait qu’une fois intégrées, ces données ne peuvent pas être facilement retirées du modèle, augmentant ainsi le risque de traitement permanent [1]. Il est donc insuffisant de supprimer simplement le compte ; il est crucial d’activer explicitement l’option d’opt-out dans les paramètres, même si vous n’utilisez plus la plateforme [2].
Comment garder vos données à l’écart de l’entraînement de l’IA – étape par étape
Pour bloquer l’utilisation de vos données pour l’entraînement de l’IA, vous devez suivre quelques étapes simples. Sur ordinateur : rendez-vous sur « Moi > Paramètres et confidentialité > Confidentialité des données > Données pour l’amélioration de l’IA générative » et mettez l’option sur « Désactivé » [3]. Sur mobile : touchez votre photo de profil (en haut à gauche), allez dans « Paramètres > Confidentialité des données > Données pour l’amélioration de l’IA générative » et désactivez la fonction [3]. Cette option est activée par défaut, donc sans action, vos données continueront d’être utilisées [1]. Il est important d’effectuer cette action dans les quelques jours suivant l’activation des nouvelles règles, car LinkedIn a commencé son entraînement d’IA avec l’ensemble de vos données depuis le 3 novembre 2025 [1][2]. L’action est permanente, mais elle ne retire pas les données déjà collectées du passé – elle signifie simplement que les données futures ne seront plus utilisées [2]. Le lien vers l’option est le suivant : https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement [3].
L’impact de l’IA sur la propagation des fausses informations sur les réseaux sociaux
L’intelligence artificielle joue un rôle ambivalent dans la propagation et la lutte contre les fausses informations. D’un côté, les plateformes comme LinkedIn utilisent l’IA pour améliorer le filtrage du contenu et les suggestions, ce qui peut augmenter le risque de diffusion d’informations trompeuses ou manipulées via des recommandations automatisées [1][2]. De l’autre côté, les systèmes d’IA peuvent également être utilisés pour détecter les fausses informations en analysant des motifs linguistiques, des sources et des schémas de diffusion. Par exemple, des modèles d’IA peuvent rapidement identifier si un message provient d’une source contrôlée ou si le langage présente une structure inhabituelle par rapport aux articles d’actualité officiels [GPT]. Des recherches indiquent que les systèmes d’IA basés sur l’apprentissage peuvent être jusqu’à 70 % plus efficaces que le contrôle humain dans certains contextes, mais cela dépend fortement de la qualité des jeux de données d’entraînement et de la transparence des algorithmes [GPT]. L’extension de l’IA sur des plateformes comme LinkedIn, où les données des utilisateurs sont collectées sans transparence totale, augmente le risque de manipulation de l’information, car les modèles peuvent être entraînés sur des données provenant d’un nombre limité de points de vue [2].
Conseils pratiques pour reconnaître les fausses informations à l’ère de l’IA
Dans un monde où l’IA génère une grande partie du contenu, il est essentiel de rester critique. Commencez par vérifier la source : déterminez si le message provient d’un média reconnu ou d’une personnalité certifiée. Utilisez des outils tels que Snopes, Politifact ou la plateforme elle-même pour vérifier les faits [GPT]. Faites attention au style linguistique : les fausses informations ont souvent une tonalité émotionnelle, des affirmations exagérées ou des répétitions de phrases pour suggérer une crédibilité [GPT]. Utilisez des outils en ligne comme Google Reverse Image Search pour vérifier si les images ont été manipulées. Enfin, tenez compte du contexte : si un message se propage rapidement par des comptes automatisés ou générés par IA, le risque de fausse information est plus élevé [GPT]. LinkedIn utilise lui-même l’IA pour filtrer le contenu, mais il n’est pas toujours évident de comprendre comment ces systèmes fonctionnent [1][2]. C’est pourquoi la littératie médiatique – la capacité à analyser l’information de façon critique – est plus que jamais nécessaire pour identifier la vérité dans un environnement numérique où l’IA joue un rôle croissant.