AIJB

Les chatbots d'IA donnent des réponses erronées dans près de la moitié des cas sur l'actualité

Les chatbots d'IA donnent des réponses erronées dans près de la moitié des cas sur l'actualité
2025-10-23 nepnieuws

amsterdam, donderdag, 23 oktober 2025.
Une étude internationale menée par 22 organisations médiatiques, dont la NOS, la VRT et la BBC, montre que les chatbots d’IA tels que ChatGPT, Copilot, Gemini et Perplexity fournissent des informations erronées sur l’actualité dans près de la moitié des cas. Les principaux problèmes sont des références incorrectes et des informations fausses, ce qui peut nuire à la réputation des organisations médiatiques. Par exemple, ChatGPT a affirmé qu’Elon Musk n’avait pas fait un salut nazi, alors que la VRT NWS a rapporté qu’il l’avait lui-même affirmé. Les experts mettent en garde les utilisateurs pour qu’ils vérifient toujours les sources eux-mêmes.

Étude internationale soulignant l’irrégularité des chatbots d’IA

Une vaste étude menée par 22 organisations médiatiques à travers le monde, dont la NOS, la VRT et la BBC, a montré que les chatbots d’IA tels que ChatGPT, Copilot, Gemini et Perplexity fournissent des informations erronées sur l’actualité dans près de la moitié des cas [1][2][3]. Les principaux problèmes sont des références incorrectes et des informations fausses, ce qui peut nuire à la réputation des organisations médiatiques. Par exemple, ChatGPT a affirmé qu’Elon Musk n’avait pas fait un salut nazi, alors que la VRT NWS a rapporté qu’il l’avait lui-même affirmé [1].

Problèmes de référencement et d’informations fausses

L’étude montre que 45 % des réponses des chatbots d’IA aux questions d’actualité sont problématiques [1][2][3]. Les principaux problèmes sont des références incorrectes, qui se produisent dans 31 % des cas, et des informations fausses, qui se produisent dans 20 % des cas [1][2][3]. Le Gemini de Google a obtenu les pires résultats : 72 % des réponses présentaient des problèmes de référencement [1][2][3]. ChatGPT, Copilot et Perplexity ont obtenu de meilleurs scores avec respectivement 24 %, 15 % et 15 % de références incorrectes [1][2][3].

Exemples concrets : informations fausses sur les politiciens et les événements

La VRT NWS donne des exemples concrets d’informations fausses générées par l’IA. ChatGPT d’OpenAI a affirmé qu’Elon Musk n’avait pas fait un salut nazi et a cité la VRT comme source, bien que la VRT n’ait écrit que Musk avait affirmé que ce n’était pas un salut nazi [1]. De plus, Gemini de Google pensait que Paul Van Tigchelt était toujours ministre belge de la Justice, ce qui n’est plus le cas depuis longtemps [1]. En outre, Copilot, basé sur des matériaux de la NOS/NPO, a indiqué que François est le pape actuel, mais aussi qu’il est décédé le 21 avril 2025 [1].

Implications pour la littératie médiatique et la démocratie

Ces problèmes avec les chatbots d’IA ont des implications préoccupantes pour la littératie médiatique et la démocratie. Malgré le développement continu de la technologie de l’IA, ces systèmes restent peu fiables pour suivre l’actualité. Karel Degraeve, expert en innovation chez VRT NWS, estime que c’est problématique que les chatbots traitent le contenu de manière si négligente [3]. Martin Rosema, politologue à l’Université de Twente, met en garde contre le fait que les bots d’IA peuvent donner des informations fausses et ne sont pas transparents [4].

Conseils pratiques pour reconnaître les fausses nouvelles

Pour garantir la fiabilité des informations, les experts et les organisations médiatiques offrent des conseils pratiques aux lecteurs pour reconnaître les fausses nouvelles. Tout d’abord, il est important de toujours vérifier les sources soi-même [1][2][3][4]. Faites attention à la cohérence et au contexte de l’information. Cherchez plusieurs sources fiables qui confirment la même information. Soyez critique et demandez-vous si l’information est logique et cohérente. Enfin, utilisez les chatbots d’IA comme outil, mais ne vous fiez pas aveuglément à leurs réponses [1][2][3][4].

Sources