AIJB

Comment les journalistes collaborent aujourd'hui avec l'IA sans compromettre leur intégrité

Comment les journalistes collaborent aujourd'hui avec l'IA sans compromettre leur intégrité
2025-11-12 journalistiek

new york, woensdag, 12 november 2025.
L’Associated Press a adopté de nouvelles directives précisant que tout contenu généré par l’IA doit toujours être considéré comme un matériel source non vérifié – même s’il a l’air professionnel. Cette mesure est cruciale : en mai 2025, un journal régional américain a publié un article spécial sur une vague de chaleur, rédigé par une IA, comportant des citations fictives et des erreurs. La véritable avancée ? L’AP affirme que les images générées par l’IA ne peuvent être publiées comme photos de presse que si l’objet lui-même est une IA – et alors, avec une mention claire. Cela assure la transparence sans affaiblir la puissance de l’IA. L’humain reste responsable, tout en disposant d’un partenaire puissant pour rédiger, éditer et visualiser l’actualité.

L’IA comme partenaire créatif en rédaction

En juin 2025, le journal italien Il Foglio a mené une expérience en rédaction qui redéfinissait les frontières entre créativité humaine et machine. Pendant un mois, un supplément de quatre pages a été entièrement rempli d’articles écrits par ChatGPT Pro, sous la direction du rédacteur en chef Claudio Cerasa [1]. Cerasa n’a pas traité le chatbot comme un substitut, mais comme un collègue rédigeant des textes sur la politique, la culture et des enjeux sociaux, dont la sortie était ensuite relecture par deux rédacteurs humains [1]. Le rédacteur a souligné que l’objectif n’était pas de remplacer l’intelligence humaine, mais de renforcer les processus créatifs : « Qui tente d’utiliser l’IA pour remplacer l’intelligence humaine échoue finalement. L’IA est là pour s’intégrer, pas pour être remplacée » [1]. Ce modèle de collaboration illustre comment l’IA générative peut agir comme un partenaire proactif, et non comme un simple outil de rédaction automatique. La fonction expérimentale « Tasks » d’OpenAI, lancée en janvier 2025, permet aux utilisateurs de planifier des tâches pour une exécution automatisée, permettant à ChatGPT de résumer, surveiller l’information et envoyer des alertes avec des synthèses concises à des moments prédéfinis ou selon des conditions [1]. Ce progrès transforme l’outil d’un assistant réactif en un assistant proactif, ce qui pourrait profondément transformer l’avenir des workflows journalistiques.

Transparence et responsabilité à l’ère de l’IA

L’Associated Press (AP) a publié, le 12 novembre 2025, de nouvelles lignes directrices concernant l’utilisation de l’IA générative en journalisme, insistant sur le fait que tout contenu généré par l’IA doit toujours être considéré comme un « matériel source non vérifié » devant être soumis aux normes journalistiques [1]. Ces règles constituent une réaction directe à des incidents comme la publication, en mai 2025, par un journal régional américain d’un article spécial sur une vague de chaleur, entièrement rédigé par une IA, comportant des citations inventées et des erreurs, provoquant une vive critique [1]. L’AP précise que les images générées par l’IA ne peuvent être publiées comme photos de presse que si l’objet lui-même est une IA, et seulement avec une mention explicite dans le légende afin d’éviter toute confusion [1]. Cette exigence est essentielle pour garantir la transparence des informations et préserver la confiance du public envers les médias [1]. La responsabilité finale quant au contenu et aux décisions éditoriales reste entièrement humaine, même lorsque l’IA est utilisée pour la rédaction, la correction ou la visualisation des articles [1]. Il s’agit d’une importante distinction par rapport à l’idée selon laquelle l’IA pourrait remplacer l’humain, et souligne que la technologie n’est qu’un outil au sein d’un cadre éthique de responsabilité.

Le risque de désinformation et l’essor de la fiction numérique

L’essor rapide du contenu généré par l’IA a donné naissance à de nouvelles formes de fiction numérique et de désinformation, où les limites entre réalité et simulation deviennent de plus en plus floues. Un exemple en est l’expérience satirique du gouvernement danois, qui a présenté, le 6 novembre 2025, une « ministre de l’IA » enceinte de 83 enfants numériques [2]. Bien que ce soit une événement fictif, il a été diffusé comme un communiqué officiel du ministère des Affaires numériques de Copenhague, attirant une attention internationale [2]. Le gouvernement a utilisé cette situation comme métaphore visuelle pour sensibiliser le public aux enjeux éthiques de l’IA, notamment la position juridique des entités numériques et la responsabilité des individus dans la création de contenu généré par l’IA [2]. Les 83 enfants numériques représentaient dans l’histoire le nombre total de personnages IA introduits par le ministère en 2025, mettant en lumière la croissance du contenu automatisé et les risques liés à l’usage des « deepfakes » [2]. Bien que cette expérience n’ait pas été une réalité, elle démontre à quel point l’IA générative peut être utilisée rapidement pour créer des illusions qui semblent crédibles à première vue, renforçant ainsi la nécessité d’une littératie médiatique dans la société [2]. La responsabilité des médias à reconnaître et à dénoncer ce type de fiction est donc plus grande que jamais.

Le rôle de l’IA dans le processus de production d’actualités

Dans le processus de production d’actualités, l’IA joue désormais un rôle croissant, tant dans la génération de contenu que dans la personnalisation de la diffusion d’informations. Depuis le 9 novembre 2025, BuzzFeed utilise déjà la technologie d’OpenAI (ChatGPT) pour rédiger des articles complets et développer des quiz personnalisés, comme l’a annoncé le PDG Jonah Peretti [1]. Il avait déjà qualifié l’IA, en 2023, de « nouvel âge de la créativité » et envisageait son intégration dans les opérations de l’entreprise afin de produire plus efficacement et de développer de nouveaux formats interactifs [1]. Cette approche personnalisée fait que l’IA n’est pas seulement un outil pour une production rapide, mais aussi un partenaire capable de renforcer les idées créatives. Apple a lancé, en octobre 2025, une fonctionnalité d’IA qui résume automatiquement les actualités dans des notifications push, après plusieurs publications erronées sur l’arrestation d’un politicien [1]. Cela montre que l’automatisation sans contrôle humain comporte des risques, mais aussi que l’IA, lorsqu’elle est utilisée correctement, apporte des avantages considérables. On s’attend à ce que, dans un avenir proche, l’IA détecte proactivement les événements et alerte les journalistes à temps avec les détails essentiels, adaptés à des besoins spécifiques en information [1]. Des entreprises comme Crown Van Gelder, MPS Systems et Landa utilisent déjà ce système pour activer des notifications IA sur des sujets tels que « toutes les actualités politiques locales dans ma province » ou « les dernières informations sur les rapports climat de l’UE » [1].

Éthique, vie privée et avenir du journalisme

La croissance de l’IA dans le journalisme s’accompagne d’un cadre juridique et éthique étendu qui fixe les limites de son utilisation technologique. La Commission européenne a annoncé, le 19 novembre 2025, un vaste paquet de nouvelles règles sous le nom de « Digital Omnibus », qui regroupe les lois existantes telles que le RGPD, le Data Act et la directive sur les données ouvertes [3]. Un des points controversés est la souplesse apportée au RGPD, selon laquelle les entreprises pourront désormais utiliser plus facilement les données personnelles pour entraîner des systèmes d’IA sur la base de leur « intérêt légitime », ce qui rend souvent inutile la demande de consentement explicite [3]. Par ailleurs, les règles concernant les cookies et le suivi sont assouplies, et la Commission propose que les navigateurs puissent transmettre automatiquement les préférences de confidentialité aux sites web, afin de réduire ce qu’elle appelle la « fatigue liée aux cookies » [3]. Toutefois, les éditeurs de médias bénéficient d’une exception et ne sont pas tenus de respecter ces signaux automatiques, ce qui vise à protéger l’indépendance du journalisme [3]. Les critiques mettent toutefois en garde contre une menace pour la protection des données personnelles et des droits numériques, et préviennent que l’Union européenne risque de perdre son rôle de pionnière en matière de vie privée [3]. Aux Pays-Bas, la commission Digitale Zaken (DiZa) s’attaque aux effets de l’IA sur la démocratie, la sécurité et la vie privée, et a déposé, en novembre 2025, une note d’initiative sur le « Web sécurisé » [4]. Ces évolutions montrent que l’avenir du journalisme est façonné non seulement par des avancées technologiques, mais aussi par des enjeux législatifs et éthiques.

Sources