Hoe AI de manier waarop we informatie vinden voorgoed verandert
amsterdam, vrijdag, 14 november 2025.
Stel je voor dat je geen zoekresultaten hoeft te scrolen, maar direct een precies antwoord krijgt – en dat het antwoord zelfs weet waar het vandaan komt. Dat is nu al realiteit dankzij AI-overzichten van Google en andere platforms. Maar er zit een ingrijpende twist in: terwijl gebruikers sneller informatie vinden, verdwijnen de verkeersstromen van websites. In minder dan een jaar verloor de Amerikaanse nieuwsindustrie 600 miljoen bezoekers – en een nicheblog verloor zelfs 86% van zijn omzet. De reden? AI-economieën veranderen de waardeketen van informatie. De grootste spelers profiteren van data die ze niet hoeven te betalen, terwijl kleinere aanbieders hun inkomen verliezen. Wat als je weet dat Google elke dag 14 miljard zoekopdrachten verwerkt, terwijl Perplexity en ChatGPT samen maar 57 miljoen doen? De balans van macht verspringt – en dat heeft gevolgen voor alles van jouw vertrouwde websites tot de toekomst van het web zelf.
De nieuwe zoekervaring: van klikken naar directe antwoorden
In plaats van een lijst met links te scrolle, ontvangt de gebruiker nu directe, samengevatte antwoorden via AI-overzichten. Deze transformatie is vooral zichtbaar in Google Zoeken, waar de integratie van het multimodale AI-model Gemini een fundamentele verschuiving in de zoekervaring teweegbrengt. Gemini gebruikt een transformer-decoderarchitectuur die is geoptimaliseerd voor efficiëntie en draait op Google’s Tensor Processing Units (TPU’s), waardoor inferentie sneller en goedkoper is dan bij concurrenten die algemene cloudinfrastructuur gebruiken [1]. De AI verwerkt niet alleen tekst, maar ook afbeeldingen, audio en video binnen één neuraal netwerk, wat het mogelijk maakt om complexe, contextgevoelige vragen te beantwoorden [1]. Deze technologie staat centraal in het nieuwe zoekmodel, waar gebruikers kunnen vragen: ‘Kan je me vertellen over Robert Graves?’ en de AI antwoordt op basis van geïndexeerde documenten, inclusief bronvermeldingen via de grounding_metadata-functie [2]. Hierdoor verandert de gebruikerservaring van een actieve zoekactiviteit naar een passieve informatieverwerking – zonder dat er een klik nodig is. De gevolgen zijn dramatisch: terwijl zoekvolume in 2025 met 4,7% stijgt (tegen 4,1% in 2024), daalt het verkeer naar traditionele websites met 40% sinds 1 september 2025, volgens Veritas Insights [2]. Dit wijst op een fundamentele verplaatsing van waarde van contentaanbieders naar platformen zoals Google, die de inhoud genereren zonder directe vergoeding aan de bronnen [2].
De economische afbraak van de nieuwsindustrie
De transformatie van de zoekmachine heeft ernstige economische gevolgen voor de informatiemarkt, vooral voor de nieuwsindustrie. Tussen 2024 en 2025 verloor de Amerikaanse nieuwsindustrie ongeveer 600 miljoen maandelijkse bezoekers – een daling van ongeveer 26 procent – wat volgens de bron wordt toegeschreven aan de integratie van AI-overzichten die de klikstap elimineren [1]. Dit creëert een economische externalisatie van kosten: Google internaliseert de winsten uit de verbeterde gebruikerservaring – zoals kortere zoekduur en hogere conversie – maar externaliseert de kosten naar uitgevers die geen verkeer meer genereren [1]. Een groot Amerikaans nieuwsmagazine verloor 27–38% van zijn verkeer, terwijl een nicheblog over woningrenovatie zijn omzet van $7.000–$10.000 naar $1.500 per maand verloor, wat een daling van 86% betekent [1]. Uitgevers melden verliezen van 70 tot 80 procent in verkeer, een situatie die wordt veroorzaakt door de afname van klikken en advertentie-inkomsten, ondanks stijgend zoekvolume [1]. Deze ontwikkeling wordt niet alleen veroorzaakt door Google, maar ook door concurrenten zoals Perplexity AI en OpenAI, die samen ongeveer 47,5–57,5 miljoen AI-zoekopdrachten per dag verwerken [1]. Google daarentegen verwerkt ongeveer 14 miljard zoekopdrachten per dag, wat betekent dat Google 250–370 keer meer zoekopdrachten verwerkt dan beide samen [1]. Dit verschil in schaal en gegevensvoorsprong – Google beschikt over 50 miljard producten via de Shopping Graph, 250 miljoen locaties en financiële data – versterkt de concentratie van macht bij één platform [1].
De rol van AI in het opbouwen van kennis: van bestanden tot context
Buiten het algemene zoekproces speelt AI zich ook uit in het persoonlijke en professionele kennismanagement. De Google Gemini API introduceerde op 13 november 2025 een geavanceerde File Search-functie die het mogelijk maakt om documenten te uploaden naar een File Search-store, waar ze worden opgesplitst in chunks, omgezet in embeddings met behulp van de gemini-embedding-001-model, en geïndexeerd voor semantische zoekopdrachten [2]. Deze technologie maakt het mogelijk om contextgevoelige vragen te stellen, zoals: ‘Kan je me vertellen over Robert Graves’, waarbij de AI antwoordt op basis van de geïmporteerde documenten met citaten [2]. De File Search-store wordt gemaakt met een display_name en wordt geïntegreerd in de generateContent-call via het tools-object met file_search(store_names=[…]) [2]. Alles blijft op de gebruikersapparaat of in de cloud, afhankelijk van instellingen, en de oorspronkelijke bestanden worden na 48 uur verwijderd, terwijl de embeddings onbeperkt blijven totdat handmatig verwijderd [2]. De technologie ondersteunt diverse bestandstypen, waaronder PDF, Word-documenten en Markdown, met een maximum van 100 MB per document [2]. Deze functionaliteit is geïntegreerd in de gemini-2.5-pro en gemini-2.5-flash-modellen, waarvan de laatste in de voorbeeldcode wordt gebruikt [2]. De kost voor het indexeren van embeddings is $0.15 per 1 miljoen tokens, terwijl opslag en query-time embeddings gratis zijn [2]. Dit maakt het geschikt voor professionele gebruikers, zoals onderzoekers en contentcreators, die snel toegang willen tot hun eigen documenten zonder dat het gegevensrisico’s met zich meebrengt.
De privacy-dilemma’s van AI-browsers en agenten
Terwijl AI-search technologieën groeien, neemt ook de noodzaak van privacy- en transparantiebeleid toe. OpenAI’s ChatGPT Atlas en Perplexity’s Comet zijn voorbeelden van AI-browsers die een chatbot integreren in de browservenster, waarmee gebruikers directen van websitecontent kunnen vragen [3]. ChatGPT Atlas verzamelt en verwerkt persoonlijke data van websites die worden bezocht – inclusief bestelhistorie op Amazon of berichten op WhatsApp – voor AI-modeltraining en taakuitvoering [3]. Lena Cohen van het Electronic Frontier Foundation waarschuwt dat Atlas toegang krijgt tot veel meer informatie dan andere browsers, en dat deze data gebruikt kan worden om OpenAI’s modellen te trainen [3]. Or Eshed, CEO van LayerX, noemt dit een ‘gold rush naar gebruikersdata in de browser’ [3]. OpenAI biedt een ‘logged-out mode’ aan om risico’s te beperken, maar Perplexity’s Comet heeft geen dergelijke functie, wat het risico op gegevenslekkage verhoogt [3]. Bovendien gebruikt Atlas automatisch de huidige website-URL en content bij elke AI-query, terwijl standalone toegang meer controle biedt over gedeelde gegevens [3]. OpenAI heeft tussen januari en juni 2025 105 aanvragen van Amerikaanse overheid ontvangen voor gebruikersgegevens, wat de veiligheid van deze data in twijfel trekt [3]. De AI-browsers stellen ook nieuwe veiligheidsuitdagingen voor, zoals prompt injection-angriffen, waarbij kwaadwillende instructies verborgen zijn in websitecontent [3]. Deze technologieën zijn nog in een vroeg stadium – ‘een zeer verse, evoluerende sector’ – en vereisen dus strenge beleidsvorming om vertrouwen te behouden [3].
Nieuwe spelers en modellen: de concurrentie in de AI-informatie-economie
De markt voor AI-search is niet langer alleen het domein van Google, maar wordt steeds meer geëntreepen door startups en nieuwe technologieën. Parallel Web Systems, opgericht door voormalig Twitter-CEO Parag Agrawal, heeft op 12 november 2025 $100 miljoen opgehaald in een Series A-rondes, met een valuatie van $740 miljoen [4]. Het bedrijf ontwikkelt APIs die AI-agents toegang geven tot het live web voor real-time data, met focus op softwareontwikkeling, verkoopanalyse en verzekeringen [4]. Parallel streeft ernaar om een ‘open marktmechanisme’ te ontwikkelen dat uitgevers aanmoedigt om content toegankelijk te houden voor AI-systemen, hoewel details nog ontbreken [4]. Daarnaast heeft Nexa.ai een nieuwe versie van zijn Hyperlink-agent gelanceerd die op NVIDIA RTX AI-PC’s werkt en de indexing van bestanden tot 3x versnelt en LLM-inferentie tot 2x [5]. De data blijft volledig op het apparaat – geen gegevens gaan naar de cloud – wat privacy waarborgt [5]. LinkedIn heeft op 12 november 2025 een AI-gebaseerde mensenzoeking uitgebreid voor premiumgebruikers in de VS, waarmee gebruikers vragen als ‘vind investeerders in de gezondheidszorg met FDA-ervaring’ kunnen stellen [6]. Deze tool gebruikt natuurlijke taal en vervangt de klassieke zoekbalk met ‘Ik zoek…’. Hoewel het nog inconsistent presteert – bijvoorbeeld bij zoekopdrachten zoals ‘Y Combinator’ versus ‘YC startup’ – toont het het potentieel van AI in netwerken [6]. De concurrentie is intens: Google, OpenAI, Perplexity, Parallel, Nexa en LinkedIn sturen allemaal op een wereld waarin zoekmachines geen lijsten meer zijn, maar actieve, kennisgebaseerde agenten [1][2][3][4][5][6].
De zorg voor de toekomst van het web: van kwaliteit tot ethiek
De groei van AI-search heeft langere-termijnrisico’s voor de kwaliteit van het web zelf. Onderzoek wijst erop dat AI-modellen zoals GPT-4, Gemini en Perplexity worden getraind op webdata waarvan 99 procent is gecreëerd door mensen, zonder dat contentmakers compensatie ontvangen [1]. Deze praktijk is technisch toegestaan onder Amerikaanse ‘fair use’-wetgeving, maar wordt ethisch en economisch als asymmetrisch beschouwd [1]. Een klassiek probleem van de ‘tragedy of the commons’ dreigt zich voor te doen: als AI-gebaseerde zoekmachines steeds meer informatie genereren zonder dat er waarde wordt gegeven aan de bron, zal de stimulans om kwalitatieve content te creëren afnemen [1]. De kwaliteit van het web zal afnemen, wat later een probleem vormt voor AI-modellen die getraind zijn op deze lagere kwaliteit [1]. Bovendien is er een risico dat mensen minder kritisch worden: als ze een AI-antwoord ontvangen dat overtuigend klinkt, maar geen bronvermelding heeft, kunnen ze het als feit accepteren [2]. Daarom is transparantie cruciaal. Google biedt citaties via grounding_metadata, maar dit is nog niet standaard in alle AI-systemen [2]. De Europese Unie heeft een regelgevingsinitiatief getoond: de ‘AI Transparency and Accountability Act’ is gepland voor implementatie op 15 december 2025 [2]. Deze wetgeving zou kunnen eisen dat AI-systemen de bronnen van hun antwoorden duidelijk aangeven. De toekomst van informatie is niet alleen technologisch, maar ook ethisch en economisch: hoe we informatie opslaan, delen en verdiend, zal worden bepaald door de keuzes van platforms, gebruikers en beleidsmakers [1][2][3][4][5][6].