AIJB

AI-chatbots geven in bijna de helft van de gevallen foute antwoorden over nieuws

AI-chatbots geven in bijna de helft van de gevallen foute antwoorden over nieuws
2025-10-23 nepnieuws

amsterdam, donderdag, 23 oktober 2025.
Een internationaal onderzoek door 22 mediaorganisaties, waaronder de NOS, VRT en BBC, toont aan dat AI-chatbots zoals ChatGPT, Copilot, Gemini en Perplexity in bijna de helft van de gevallen foute informatie geven over nieuws. De grootste problemen zijn incorrecte bronvermelding en onjuiste informatie, wat de reputatie van nieuwsorganisaties kan schaden. Bijvoorbeeld, ChatGPT beweerde dat Elon Musk geen nazigroet had gebracht, terwijl VRT NWS meldde dat hij dit zelf beweerde. Experts waarschuwen gebruikers om altijd de bronnen zelf te controleren.

Internationaal onderzoek wijst op onbetrouwbaarheid van AI-chatbots

Een grootschalig onderzoek door 22 mediaorganisaties wereldwijd, waaronder de NOS, VRT en BBC, heeft aangetoond dat AI-chatbots zoals ChatGPT, Copilot, Gemini en Perplexity in bijna de helft van de gevallen foute informatie geven over nieuws [1][2][3]. De grootste problemen zijn incorrecte bronvermelding en onjuiste informatie, wat de reputatie van nieuwsorganisaties kan schaden. Bijvoorbeeld, ChatGPT beweerde dat Elon Musk geen nazigroet had gebracht, terwijl VRT NWS meldde dat hij dit zelf beweerde [1].

Problemen met bronvermelding en onjuiste informatie

Het onderzoek toont aan dat 45 procent van de antwoorden van AI-chatbots op nieuws- en actualiteitsvragen problematisch is [1][2][3]. De grootste problemen zijn incorrecte bronvermelding, wat in 31 procent van de gevallen voorkomt, en onjuiste informatie, wat in 20 procent van de gevallen voorkomt [1][2][3]. Googles Gemini presteerde hierbij het slechtst: 72 procent van de antwoorden had problemen met bronvermelding [1][2][3]. ChatGPT, Copilot en Perplexity scoorden beter met respectievelijk 24, 15 en 15 procent foutieve bronvermeldingen [1][2][3].

Concreet voorbeeld: foute informatie over politici en gebeurtenissen

VRT NWS geeft concrete voorbeelden van foute AI-output. ChatGPT van OpenAI beweerde dat Elon Musk geen nazigroet had gebracht en gaf VRT aan als bron, maar VRT schreef alleen dat Musk claimde dat het geen nazigroet was [1]. Ook dacht Gemini van Google dat Paul Van Tigchelt nog altijd Belgisch minister van Justitie is, wat allang niet meer klopt [1]. Verder gaf Copilot op basis van NOS/NPO-bronmateriaal aan dat Franciscus de huidige paus is, maar ook dat hij op 21 april 2025 is overleden [1].

Implicaties voor mediageletterdheid en democratie

Deze problemen met AI-chatbots hebben zorgwekkende implicaties voor mediageletterdheid en democratie. Ondanks de voortdurende ontwikkeling van AI-technologie blijven deze systemen onbetrouwbaar voor het volgen van nieuws. Karel Degraeve, expert innovatie bij VRT NWS, stelt dat het problematisch is dat chatbots zo onzorgvuldig met content omspringen [3]. Martin Rosema, politicoloog aan de Universiteit Twente, waarschuwt dat AI-bots foute informatie kunnen geven en niet transparant zijn [4].

Praktische tips voor lezers om nepnieuws te herkennen

Om de betrouwbaarheid van nieuws te waarborgen, bieden experts en mediaorganisaties praktische tips aan voor lezers om nepnieuws te herkennen. Eerst en vooral is het belangrijk om altijd de bronnen zelf te controleren [1][2][3][4]. Let op consistentie en context in de informatie. Zoek naar meerdere betrouwbare bronnen die dezelfde informatie bevestigen. Wees kritisch en vraag je af of de informatie logisch en coherent is. Ten slotte, gebruik AI-chatbots als hulpmiddel, maar vertrouw niet blindelings op hun antwoorden [1][2][3][4].

Bronnen