Comment l'IA transforme à jamais la manière dont nous trouvons des informations
amsterdam, vrijdag, 14 november 2025.
Imaginez que vous n’ayez plus besoin de défiler des résultats de recherche, mais que vous obtenez directement une réponse précise – et que cette réponse sache même d’où elle provient. C’est déjà une réalité grâce aux synthèses d’IA de Google et d’autres plateformes. Mais il y a une tournure inattendue : alors que les utilisateurs trouvent des informations plus rapidement, les flux de trafic vers les sites web s’effondrent. En moins d’un an, l’industrie américaine de l’actualité a perdu 600 millions de visiteurs – et un blog spécialisé a vu son chiffre d’affaires baisser de 86 %. La raison ? Les économies d’IA réinventent la chaîne de valeur de l’information. Les principaux acteurs profitent des données qu’ils n’ont pas à payer, tandis que les petits fournisseurs perdent leurs revenus. Et si vous saviez que Google traite chaque jour 14 milliards de requêtes de recherche, contre seulement 57 millions pour Perplexity et ChatGPT combinés ? Le pouvoir bascule – et cela a des conséquences sur tout, de vos sites préférés à l’avenir même du web lui-même.
La nouvelle expérience de recherche : du clic au réponse directe
Au lieu de défiler une liste de liens, l’utilisateur reçoit désormais des réponses directes et synthétisées via des synthèses d’IA. Cette transformation est particulièrement visible dans Google Recherche, où l’intégration du modèle d’IA multimodal Gemini provoque un changement fondamental dans l’expérience de recherche. Gemini utilise une architecture de décodeur transformer optimisée pour l’efficacité et fonctionne sur les unités de traitement tensoriel (TPU) de Google, ce qui rend l’inférence plus rapide et moins coûteuse que chez les concurrents utilisant des infrastructures cloud générales [1]. L’IA traite non seulement du texte, mais aussi des images, de l’audio et de la vidéo dans un seul réseau neuronal, permettant ainsi de répondre à des questions complexes et contextuelles [1]. Cette technologie est au cœur du nouveau modèle de recherche, où les utilisateurs peuvent demander : « Pouvez-vous me parler de Robert Graves ? » et l’IA répondra sur la base de documents indexés, incluant des références via la fonction grounding_metadata [2]. Ainsi, l’expérience utilisateur passe d’une activité de recherche active à un traitement passif de l’information – sans qu’un clic ne soit nécessaire. Les conséquences sont dramatiques : alors que le volume de recherche devrait augmenter de 4,7 % en 2025 (contre 4,1 % en 2024), le trafic vers les sites web traditionnels a chuté de 40 % depuis le 1er septembre 2025, selon Veritas Insights [2]. Cela indique un déplacement fondamental de la valeur, des fournisseurs de contenu vers des plateformes comme Google, qui génèrent du contenu sans rémunération directe aux sources [2].
La dégradation économique de l’industrie de l’information
La transformation des moteurs de recherche a des conséquences économiques graves sur le marché de l’information, en particulier pour l’industrie de l’actualité. Entre 2024 et 2025, l’industrie américaine de l’actualité a perdu environ 600 millions de visiteurs mensuels – une baisse d’environ 26 % – ce qui est attribué selon la source à l’intégration de synthèses d’IA qui éliminent l’étape du clic [1]. Cela crée une externalisation économique des coûts : Google internalise les bénéfices issus de l’amélioration de l’expérience utilisateur – comme une durée de recherche réduite et une conversion plus élevée – mais externalise les coûts aux éditeurs qui ne génèrent plus de trafic [1]. Un grand magazine américain a perdu entre 27 et 38 % de son trafic, tandis qu’un blog spécialisé dans la rénovation immobilière a vu son chiffre d’affaires passer de 7 000 à 10 000 $ mensuels à 1 500 $, soit une baisse de 86 % [1]. Les éditeurs déclarent des pertes de 70 à 80 % en trafic, situation causée par la chute des clics et des revenus publicitaires, malgré une augmentation du volume de recherche [1]. Cette évolution n’est pas uniquement due à Google, mais aussi à des concurrents comme Perplexity AI et OpenAI, qui traitent ensemble environ 47,5 à 57,5 millions de requêtes de recherche d’IA par jour [1]. Google, quant à lui, traite environ 14 milliards de requêtes par jour, ce qui signifie que Google traite entre 250 et 370 fois plus de requêtes que les deux combinés [1]. Ce déséquilibre de taille et de positionnement en données – Google dispose de 50 milliards de produits via la Shopping Graph, de 250 millions de lieux et de données financières – renforce la concentration du pouvoir sur une seule plateforme [1].
Le rôle de l’IA dans la construction de connaissances : des fichiers au contexte
En dehors du processus de recherche général, l’IA s’impose également dans la gestion personnelle et professionnelle des connaissances. L’API Google Gemini a lancé le 13 novembre 2025 une fonction avancée de recherche de fichiers, qui permet aux utilisateurs de téléverser des documents dans un dépôt de recherche de fichiers. Ces documents sont divisés en fragments, convertis en embeddings à l’aide du modèle gemini-embedding-001, puis indexés pour des recherches sémantiques [2]. Cette technologie permet de poser des questions contextuelles, comme : « Pouvez-vous me parler de Robert Graves ? », où l’IA répond sur la base des documents importés, en citant les sources pertinentes [2]. Le dépôt de recherche de fichiers est créé avec un display_name et est intégré dans l’appel generateContent via l’objet tools avec file_search(store_names=[…]) [2]. Tous les éléments restent sur l’appareil utilisateur ou dans le cloud, selon les paramètres, et les fichiers d’origine sont supprimés après 48 heures, tandis que les embeddings restent indéfiniment tant qu’ils ne sont pas supprimés manuellement [2]. La technologie prend en charge divers types de fichiers, notamment PDF, documents Word et Markdown, avec une taille maximale de 100 Mo par document [2]. Cette fonctionnalité est intégrée dans les modèles gemini-2.5-pro et gemini-2.5-flash, dont le dernier est utilisé dans l’exemple de code [2]. Le coût de l’indexation des embeddings est de 0,15 $ par million de tokens, tandis que le stockage et les embeddings à l’heure de requête sont gratuits [2]. Cela en fait une solution adaptée aux utilisateurs professionnels, tels que les chercheurs et créateurs de contenu, qui souhaitent accéder rapidement à leurs propres documents sans risque de fuite de données.
Les dilemmes de confidentialité des navigateurs et agents d’IA
Alors que les technologies de recherche d’IA évoluent, la nécessité de politiques strictes en matière de confidentialité et de transparence augmente. ChatGPT Atlas d’OpenAI et Comet de Perplexity sont des exemples de navigateurs d’IA qui intègrent un chatbot dans la fenêtre du navigateur, permettant aux utilisateurs de poser des questions directement sur le contenu des sites web [3]. ChatGPT Atlas collecte et traite des données personnelles des sites visités – y compris l’historique des commandes sur Amazon ou les messages sur WhatsApp – pour l’entraînement des modèles d’IA et l’exécution des tâches [3]. Lena Cohen du Electronic Frontier Foundation avertit que Atlas a accès à bien plus d’informations que d’autres navigateurs, et que ces données peuvent être utilisées pour entraîner les modèles d’OpenAI [3]. Or Eshed, PDG de LayerX, qualifie cela d’« orgeuil vers les données utilisateurs dans le navigateur » [3]. OpenAI propose un « mode déconnecté » pour limiter les risques, mais Comet de Perplexity ne dispose pas d’une fonction similaire, ce qui augmente le risque de fuite de données [3]. En outre, Atlas utilise automatiquement l’URL actuelle du site et son contenu pour chaque requête d’IA, tandis qu’un accès autonome offre plus de contrôle sur les données partagées [3]. OpenAI a reçu 105 demandes du gouvernement américain pour des données d’utilisateurs entre janvier et juin 2025, ce qui met en doute la sécurité de ces informations [3]. Les navigateurs d’IA posent également de nouveaux défis de sécurité, comme les attaques par injection de prompts, où des instructions malveillantes sont cachées dans le contenu des sites web [3]. Ces technologies sont encore à un stade précoce – « un secteur très nouveau et en évolution constante » – et nécessitent donc une régulation stricte pour préserver la confiance [3].
De nouveaux acteurs et modèles : la concurrence dans l’économie de l’information par l’IA
Le marché de la recherche d’IA n’est plus uniquement dominé par Google, mais s’ouvre de plus en plus à des startups et à de nouvelles technologies. Parallel Web Systems, fondée par l’ancien PDG de Twitter Parag Agrawal, a levé 100 millions de dollars dans une série A le 12 novembre 2025, avec une valorisation de 740 millions de dollars [4]. L’entreprise développe des API qui permettent aux agents d’IA d’accéder à internet en temps réel pour obtenir des données, avec un focus sur le développement logiciel, l’analyse commerciale et les assurances [4]. Parallel vise à développer un « mécanisme de marché ouvert » qui incite les éditeurs à rendre leur contenu accessible aux systèmes d’IA, bien que les détails restent encore limités [4]. Par ailleurs, Nexa.ai a lancé une nouvelle version de son agent Hyperlink, qui fonctionne sur les PC AI NVIDIA RTX et accélère l’indexation des fichiers jusqu’à 3 fois et l’inférence LLM jusqu’à 2 fois [5]. Les données restent entièrement sur l’appareil – aucune donnée n’est envoyée vers le cloud – garantissant ainsi la confidentialité [5]. LinkedIn a étendu le 12 novembre 2025 une recherche d’êtres humains basée sur l’IA pour les utilisateurs premium aux États-Unis, permettant aux utilisateurs de poser des questions telles que « trouvez des investisseurs dans le domaine de la santé ayant une expérience FDA » [6]. Cette fonctionnalité utilise le langage naturel et remplace la barre de recherche classique par « Je cherche… ». Bien qu’elle présente encore des performances incohérentes – par exemple, pour des requêtes comme « Y Combinator » versus « YC startup » – elle démontre le potentiel de l’IA dans les réseaux professionnels [6]. La concurrence est intense : Google, OpenAI, Perplexity, Parallel, Nexa et LinkedIn visent tous un monde où les moteurs de recherche ne sont plus des listes, mais des agents actifs et fondés sur des connaissances [1][2][3][4][5][6].
La préoccupation pour l’avenir du web : de la qualité à l’éthique
La croissance de la recherche d’IA comporte des risques à long terme pour la qualité même du web. Des études montrent que des modèles d’IA comme GPT-4, Gemini et Perplexity sont entraînés sur des données web dont 99 % ont été créées par des humains, sans que les créateurs de contenu reçoivent de compensation [1]. Cette pratique est technique conforme à la législation américaine sur le « fair use », mais est perçue comme asymétrique sur le plan éthique et économique [1]. Un problème classique de « tragédie des biens communs » menace : si les moteurs de recherche fondés sur l’IA génèrent de plus en plus d’informations sans valoriser la source, l’incitation à produire un contenu de qualité diminuera [1]. La qualité du web déclinera, ce qui posera plus tard un problème aux modèles d’IA eux-mêmes, entraînés sur des données de moindre qualité [1]. En outre, il existe un risque que les utilisateurs deviennent moins critiques : s’ils reçoivent une réponse d’IA qui paraît convaincante mais sans référence, ils pourraient l’accepter comme un fait [2]. La transparence est donc cruciale. Google propose des citations via la fonction grounding_metadata, mais ce n’est pas encore une norme dans tous les systèmes d’IA [2]. L’Union européenne a montré l’initiative : la « Loi sur la transparence et la responsabilité de l’IA » est prévue pour être mise en œuvre le 15 décembre 2025 [2]. Cette législation pourrait obliger les systèmes d’IA à indiquer clairement les sources de leurs réponses. L’avenir de l’information n’est pas seulement technologique, mais aussi éthique et économique : la manière dont nous stockons, partageons et gagnons de l’argent à partir de l’information sera déterminée par les choix des plateformes, des utilisateurs et des responsables politiques [1][2][3][4][5][6].