AIJB

Pourquoi l'IA n'est pas une divinité – et ce que cela signifie pour vous

Pourquoi l'IA n'est pas une divinité – et ce que cela signifie pour vous
2025-11-13 voorlichting

Madrid, donderdag, 13 november 2025.
Ana Lazcano, directrice de l’Institut universitaire d’intelligence artificielle de Madrid, a mis en garde le 12 novembre 2025 que l’intelligence artificielle n’est pas une force omnipotente, mais un outil aux limites bien définies. Le fait le plus inquiétant ? L’IA crée un fossé technologique spectaculaire entre les enseignants et les étudiants, rendant souvent les travaux écrits sans intérêt. Elle insiste sur l’importance de penser de manière critique, de placer l’éthique au cœur des enjeux et de considérer l’IA comme un complément, non comme un remplaçant. Cette vision n’est pas une déclaration technique, mais un appel à la responsabilité humaine dans une époque de changements rapides – et un rappel que notre sagesse reste inestimable.

L’IA comme outil, pas comme divinité : le message central d’Ana Lazcano

Ana Lazcano, directrice de l’Institut universitaire d’intelligence artificielle de l’Université Francisco de Vitoria à Madrid, a mis en garde le 12 novembre 2025 que l’intelligence artificielle n’est pas une force omnipotente, mais un outil qui comporte des limites et des risques [1]. Fondée sur une approche multidisciplinaire réunissant des représentants de la philosophie, de l’anthropologie, de l’éducation, de l’ingénierie, de la psychologie et d’autres domaines, elle souligne que l’IA « ne possède pas de propriétés ou de qualités qui lui sont étrangères » [2]. Son message met l’accent sur l’importance de la pensée critique, de l’intégration éthique et de la responsabilité humaine dans le développement et l’utilisation de l’IA [1]. Elle insiste sur le fait que considérer l’IA comme une divinité est une méprise : « elle en est éloignée, elle est un complément » [2]. Cette vision n’est pas uniquement technique, mais également éthique, et s’inspire de l’approche du pape Léon XIV, qui conseille de ne pas craindre l’IA, mais de la comprendre et de l’aborder avec une grande prudence [1][2].

L’IA dans la communication publique : de l’information personnalisée aux campagnes pilotées par l’IA

Dans la communication publique et la diffusion d’informations modernes, l’IA joue un rôle croissant, allant de l’information personnalisée aux campagnes de communication pilotées par l’IA. Grâce à des algorithmes avancés, les paquets d’information peuvent être adaptés aux préférences individuelles, aux tranches d’âge, au niveau de maîtrise linguistique et au contexte social, ce qui augmente considérablement l’efficacité des messages [1]. Cette approche est particulièrement utile pour atteindre des publics divers, tels que les jeunes, les personnes âgées ou celles ayant un niveau d’éducation plus faible, où des informations complexes sont simplifiées sans perdre leur essence [2]. Dans le cadre des services publics, les chatbots sont de plus en plus utilisés pour répondre rapidement et de façon cohérente à des questions simples, comme celles relatives à la sécurité sociale, à la santé ou aux déclarations fiscales [1]. L’application de l’IA dans la communication publique contribue à une transmission d’information plus efficace, tant en temps qu’en coût, et permet de mesurer les campagnes à partir des comportements d’interaction, des taux d’ouverture et des taux de transformation [2]. La technologie aide donc non seulement à atteindre les publics cibles, mais aussi à évaluer l’efficacité et à ajuster les stratégies en temps réel.

Avantages et opportunités : accessibilité, efficacité et évolutivité

L’un des principaux avantages de l’IA dans la communication publique est l’amélioration de l’accessibilité de l’information complexe. Grâce à la traitement du langage naturel et à la génération de texte, les systèmes d’IA peuvent transformer des contenus techniques ou scientifiques en langage simple et compréhensible, accessible à tous [1]. Cela est crucial pour réduire les barrières cognitives, en particulier pour les personnes ayant une faible capacité de lecture ou celles qui ne peuvent pas communiquer dans leur langue maternelle [2]. En outre, l’IA améliore l’efficacité des processus de communication : où des semaines étaient nécessaires pour concevoir une campagne auparavant, les outils d’IA modernes peuvent le faire en quelques heures [1]. L’évolutivité est remarquable – une seule campagne basée sur l’IA peut toucher simultanément des millions de personnes dans plusieurs langues, sans que la qualité du message ne se dégrade [2]. Cela en fait un outil puissant en période de crise, comme les pandémies ou les crises climatiques, où l’information rapide et précise est essentielle [1].

Les côtés sombres : vie privée, inclusion et fiabilité

Malgré ses avantages, l’application de l’IA dans la communication publique soulève des défis sérieux. L’une des principales préoccupations concerne la vie privée des utilisateurs. Lorsque l’IA fournit des informations personnalisées, des données sur le comportement, les préférences et les caractéristiques personnelles sont collectées – ce qui représente un risque élevé si ces données ne sont pas suffisamment sécurisées ou sont mal utilisées [2]. En outre, les systèmes d’IA peuvent involontairement renforcer des schémas inégaux ou discriminatoires, surtout si les données d’apprentissage sont biaisées [1]. Cela entraîne un manque d’inclusion, où certaines catégories – comme les minorités ou les personnes à faible revenu – sont sous-représentées ou reçoivent des messages erronés [2]. Par ailleurs, un problème de fiabilité existe : les systèmes d’IA peuvent produire des informations erronées ou générées (« deepfakes » ou « hallucinations »), ce qui mène à la désinformation et à une perte de confiance [1]. Dans un contexte de croissance de l’usage de l’IA dans les médias et la politique, il est essentiel d’instaurer la transparence et le contrôle afin d’éviter les abus et les malentendus [1].

Le fossé technologique et la nécessité d’une formation éthique

Ana Lazcano a mis en garde le 12 novembre 2025 contre un « fossé technologique spectaculaire » créé par l’IA entre les enseignants et les étudiants [1]. Selon elle, cette situation rend le travail écrit « peu pertinent », car les étudiants maîtrisent souvent la technologie mieux que leurs enseignants [2]. Cette situation souligne la nécessité urgente de repenser l’environnement pédagogique, en soutenant les enseignants par un « modèle de soutien technologique » qui les aide à utiliser efficacement les capacités de l’IA [1]. L’Institut universitaire d’intelligence artificielle, créé en novembre 2025, s’attache donc non seulement à la formation technique, mais surtout à l’intégration éthique et au développement de la « sagesse humaine » comme pilier inestimable [1][2]. L’expert insiste sur la nécessité de « poser les fondations de la pensée critique », car « il y a beaucoup de bruit autour de l’IA, mais peu de qualité » [2]. Elle espère que l’IA ramènera finalement l’université à son objectif initial : favoriser le débat, les échanges et des processus d’apprentissage centrés sur l’étudiant [2].

L’environnement de l’IA : une charge écologique croissante

La croissance de l’IA s’accompagne d’un impact écologique considérable. Selon une étude de l’Université Cornell, publiée le 10 novembre 2025, les centres de données d’IA pourraient émettre entre 24 et 44 millions de tonnes de CO₂ par an d’ici 2030 – une quantité équivalente à l’ajout de 5 à 10 millions de voitures sur les routes américaines [3]. En outre, ces centres pourraient consommer entre 731 et 1 125 millions de mètres cubes d’eau par an, soit l’équivalent de la consommation annuelle en eau domestique de 6 à 10 millions d’Américains [3]. Les chercheurs insistent sur le fait qu’il n’existe pas de « solution miracle » pour résoudre ce problème, mais qu’une combinaison de choix stratégiques – comme des emplacements intelligents (par exemple dans le Midwest ou dans les États à forte production éolienne), une décarbonation accélérée du réseau électrique et une gestion d’entreprise plus efficace – pourrait réduire les émissions de CO₂ de près de 73 % et la consommation d’eau de près de 86 % [3]. Même dans un scénario optimiste de forte consommation d’énergie, les émissions de carbone resteraient d’environ 11 millions de tonnes par an, ce qui nécessiterait 28 gigawatts d’énergie éolienne ou 43 gigawatts d’énergie solaire pour être compensées [3]. Ces chiffres soulignent que les choix que nous faisons aujourd’hui concernant l’infrastructure de l’IA décideront si l’IA contribue à un progrès climatique ou devient une nouvelle charge pour l’environnement [3].

Sources