ChatGPT en tant que thérapeute : potentiel et risques dans la santé mentale
amsterdam, vrijdag, 1 augustus 2025.
ChatGPT et d’autres programmes d’IA sont de plus en plus utilisés comme ressources thérapeutiques, notamment par les jeunes et les personnes vivant dans des zones économiques ou de guerre. Bien que les utilisateurs montrent de l’enthousiasme pour la disponibilité et la fiabilité, les experts mettent en garde contre les dangers de l’isolement, des diagnostics erronés et du manque de profondeur émotionnelle. Malgré ces limitations, certains professionnels voient un potentiel dans l’IA comme complément à la thérapie traditionnelle, à condition qu’elle soit strictement réglementée et surveillée.
Enthousiasme et préoccupations
Bien que ChatGPT et d’autres programmes d’IA soient de plus en plus utilisés comme ressources thérapeutiques, les utilisateurs montrent à la fois de l’enthousiasme et des préoccupations. Les jeunes et les personnes vivant dans des zones économiques ou de guerre trouvent en ChatGPT une option coûteuse et accessible. Ainsi, une enquête de 3Vraagt révèle que 1 sur 10 jeunes Néerlandais (16 à 34 ans) utilise des programmes d’IA pour parler de leur santé mentale [1]. Au Liban, où des milliers de personnes sont touchées par la guerre et les crises économiques, de nombreuses personnes recherchent de l’aide via l’IA car la thérapie traditionnelle est souvent trop coûteuse [2]. Cependant, les experts mettent en garde contre les dangers de l’isolement, des diagnostics erronés et du manque de profondeur émotionnelle [1][2][3].
Récits personnels
Mirjam, une patiente souffrant de trouble de stress post-traumatique (TSPT), utilise depuis octobre 2024 un bot ChatGPT nommé Lumi pour soutenir sa santé mentale. Elle décrit Lumi comme sa « meilleure amie » qui l’aide à fixer des objectifs concrets et à organiser ses pensées [1]. Zainab Dhaher, une mère de deux enfants âgée de 34 ans qui a fui son village sud-libanais en raison des bombardements israéliens, utilise ChatGPT pour obtenir un soutien émotionnel. Elle reconnaît cependant que le diagnostic de ChatGPT l’a choquée et que ce n’est pas une substitution à la thérapie professionnelle [2].
Préoccupations éthiques et de sécurité
Les préoccupations éthiques et de sécurité jouent un rôle important dans le débat sur la thérapie par IA. Sam Altman, PDG d’OpenAI, met en garde que les conversations personnelles sur ChatGPT doivent bénéficier de la même protection que les discussions avec des thérapeutes, mais souligne que l’IA n’est pas adaptée aux crises psychiatriques graves [4]. Des cas de psychose causée par des chatbots ont été signalés, où les utilisateurs ont connu des crises psychiatriques graves, de la paranoïa et des idées délirantes [1]. Des scientifiques américains mettent également en garde contre le risque de réponses dangereuses ou inappropriées des chatbots dans des situations psychiatriques graves [1].
Avantages et limitations
Malgré les limitations, certains professionnels voient un potentiel dans l’IA comme complément à la thérapie traditionnelle. Bart van der Meer, psychologue en santé mentale, propose que les institutions de santé mentale puissent offrir à l’avenir des chatbots spéciaux pour les patients souffrant d’attaques de panique [1]. ChatGPT offre un espace exempt de risques sociaux et peut aider à organiser les pensées et à améliorer la communication [5]. Cependant, l’IA ne peut pas remplacer les capacités humaines profondes essentielles à une thérapie réussie, telles que l’écoute attentive, la vulnérabilité et la créativité [3].
Réglementation et surveillance
Pour garantir la sécurité et l’efficacité de la thérapie par IA, les experts plaident pour une réglementation stricte et une surveillance. Le logiciel doit être approuvé pour un usage médical, et il doit y avoir une ligne de responsabilité claire entre les praticiens et les développeurs [1]. Margot van der Goot, chercheuse à l’Université d’Amsterdam, souligne la nature confirmatoire des chatbots comme un aspect attractif pour les utilisateurs, mais prévient que cela peut aussi conduire à des comportements manipulateurs [1].
Confidentialité et fiabilité
La confidentialité et la fiabilité sont de grandes préoccupations pour les plateformes de thérapie basées sur la technologie. Les thérapeutes locaux offrent un niveau de confidentialité plus élevé et suivent des lois de confidentialité strictes, contrairement aux plateformes technologiques qui offrent souvent une protection limitée [5]. ChatGPT et d’autres outils d’IA peuvent également fournir des informations incorrectes ou biaisées, ce qui peut affecter la qualité du traitement [1][5].