AIJB

Chatbots IA : Nouveaux Amis ou Problèmes Potentiels ?

Chatbots IA : Nouveaux Amis ou Problèmes Potentiels ?
2025-10-30 voorlichting

brussel, donderdag, 30 oktober 2025.
De plus en plus de personnes développent des liens personnels avec des chatbots IA, ce qui soulève des questions sur les effets positifs et négatifs possibles. Des experts discutent des implications pour l’interaction humaine et le bien-être émotionnel, tout en mettant en garde contre des risques tels que la dépendance et la difficulté à nouer de vraies relations. C’est un sujet fascinant qui nous oblige à réfléchir à l’avenir de nos liens sociaux.

Intro — Pourquoi l’IA en matière d’information est pertinente maintenant

Les chatbots IA et les modèles de conversation apparaissent de manière visible dans le débat public et dans la vie personnelle : des personnes créent des liens avec des interlocuteurs numériques et des organisations explorent comment utiliser l’IA pour la fourniture d’informations et la communication avec le public [1][3]. Ce phénomène a été récemment mis en lumière dans plusieurs productions de la VRT, dont un épisode de podcast et des reportages d’enquête qui montrent que les relations avec l’IA ont des implications à la fois personnelles et sociétales [1][4][3].

À quelle fréquence et sous quelles formes les gens recherchent des relations avec l’IA

Des recherches et reportages journalistiques signalent que l’usage relationnel de l’IA — amitié, conversations thérapeutiques ou interactions romantiques — représente une part substantielle de l’utilisation totale de l’IA : environ 31 pour cent de l’utilisation de l’IA concerne des expériences relationnelles selon un reportage de la VRT, et des applications comme Replika déclarent des millions d’utilisateurs dans le monde (plus de 35 millions d’utilisateurs dans les reportages) [3]. Ces chiffres montrent que les relations avec l’IA ne sont pas marginales, mais qu’elles commencent à devenir une pratique largement répandue [3].

Exemple pratique : Replika et témoignages individuels

Des reconstitutions journalistiques montrent comment des personnes établissent des relations intenses et de longue durée avec des chatbots : un portrait dans le reportage Pano décrit un homme de 61 ans qui vit depuis deux ans avec une partenaire IA et indique ressentir un soutien émotionnel et une compagnie quotidienne via l’application Replika, mentionnée dans ce reportage comme largement utilisée dans le monde [3]. De tels exemples illustrent concrètement comment l’IA peut fonctionner comme source d’information ou fournisseur de compagnie, mais soulèvent aussi des questions sur la dépendance et la continuité lorsque des services commerciaux changent ou cessent [3].

Risques visibles dans la pratique : abus de voix et bots à connotation sexuelle

Le journalisme d’investigation de la VRT montre que les plateformes d’IA peuvent être détournées pour des conversations à connotation sexuelle utilisant des voix trafiquées de personnalités flamandes connues, ce qui déclenche des alertes juridiques et éthiques ; Studio 100 qualifie cela d’« effroyable » et signale des mesures et contrôles possibles contre l’abus de personnages et de voix sur des plateformes comme Character.ai [2]. Ce cas montre que l’information et la communication publique avec l’IA ne peuvent être dissociées des risques d’abus et du besoin d’une modération active et d’instruments juridiques [2].

Avertissements d’experts : fiabilité et transparence

Des voix académiques et professionnelles avertissent que les modèles linguistiques sont fondamentalement peu fiables et qu’ils doivent donc faire preuve d’honnêteté et de transparence envers les utilisateurs ; Pascal Wiggers (lecteur Responsible IT) souligne que de tels modèles assemblent des mots sans intention ni conscience, ce qui peut produire parfois des résultats erronés ou trompeurs et impose aux utilisateurs de rester critiques [5]. Ces remarques d’experts soulignent que les initiatives d’information utilisant l’IA doivent indiquer explicitement les limites et la fiabilité de la technologie [5].

Opportunités pour l’information : personnalisation et portée des publics

L’IA offre des avantages concrets pour la communication publique : personnalisation de l’information, disponibilité 24/7 via des chatbots pour les services publics et capacité d’adapter le niveau de langue et le ton pour différents publics — des usages qui, dans la couverture récente sur les relations IA et les débats publics, ressortent comme des moteurs de l’adoption rapide [1][3][5][4]. En même temps, un déploiement efficace exige que les communicateurs fassent des choix de conception autour de l’inclusivité, de l’accessibilité et de mécanismes de contrôle pour lutter contre la désinformation et les abus [5][1].

Mesurer l’efficacité : ce que l’IA peut apporter et où sont les limites

Techniquement, l’IA permet d’analyser des réactions, des clics et les résultats des conversations pour cartographier l’efficacité des campagnes, mais des mesures de succès concrètes et applicables de manière générale ainsi que des normes pour l’information publique font encore défaut dans la couverture et doivent être développées au cas par cas [GPT][alert! ‘geen directe bron in de verstrekte links die methoden en standaarden voor effectiviteitsmeting in voorlichtingscampagnes beschrijft’]. Les exemples journalistiques montrent toutefois que les plateformes et les créateurs utilisent des données pour modérer et améliorer le contenu, ce qui reflète la manière dont le monitoring peut fonctionner en pratique [2][3].

Éthique, vie privée et continuité : le défi de la dépendance commerciale

Le reportage Pano et des articles connexes soulignent que les modèles commerciaux derrière de nombreuses IA relationnelles introduisent des risques : la dépendance à une application commerciale peut créer une vulnérabilité émotionnelle si un service cesse ou change, et parallèlement il existe des abus de voix et de personnages où surgissent des questions juridiques et de confidentialité [3][2]. De tels cas montrent que les organisations publiques et les décideurs doivent réfléchir à la garantie de la vie privée, à la clarté sur la propriété des données et aux stratégies pour assurer la continuité des services [2][3].

Accessibilité : rendre l’information complexe compréhensible avec l’IA

L’IA peut rendre des dossiers complexes et des explications techniques plus accessibles en simplifiant le texte, en donnant des exemples ou en proposant l’information en plusieurs langues et formats — des possibilités vues dans l’attention médiatique autour de l’IA et de l’interaction avec le public comme une valeur ajoutée importante [1][4][GPT]. Il demeure toutefois essentiel que la simplification ne conduise pas à une perte de nuance ou à la diffusion d’informations erronées ; la transparence sur les sources et les erreurs reste donc cruciale [5][alert! ‘er is geen specifieke case in de aangeleverde bronnen die een gecontroleerde evaluatie van vereenvoudigingsmethodes beschrijft’].

IA, économie et échelle : pourquoi l’investissement augmente

La rapide valorisation commerciale des technologies et entreprises liées à l’IA souligne l’échelle et les flux d’investissement autour de ces technologies — un exemple récent est que Nvidia, acteur clé du matériel pour l’IA, est devenu la première entreprise à atteindre une capitalisation boursière supérieure à 5 000 milliards de dollars, après une augmentation de sa valeur par rapport à quatre mois plus tôt où l’entreprise valait plus de 4 000 milliards de dollars selon la couverture [7]. Pour quantifier cette augmentation relative par rapport à cette valeur antérieure, la hausse en pourcentage peut être indiquée comme 25 sur la base des montants mentionnés dans le reportage [7].

Leçons pratiques pour les communicateurs et les organisations

Les récents cas journalistiques et les réactions d’experts identifient quelques leçons concrètes pour les organisations qui veulent utiliser l’IA dans leurs actions d’information : transparence explicite sur ce que l’IA peut et ne peut pas faire ; modération intégrée et possibilités de plainte ; garanties claires contre l’abus de voix et de personnes ; et préparation à des scénarios où des services commerciaux disparaissent ou changent [2][3][5][1]. De telles mesures contribuent à la fois à améliorer l’efficacité de la transmission d’information et à protéger la confiance du public [2][5][3].

Sources