ChatGPT als Therapeut: Potentieel en Risico's in de Geestelijke Gezondheidszorg
amsterdam, vrijdag, 1 augustus 2025.
ChatGPT en andere AI-programma’s worden steeds vaker gebruikt als therapeutische hulpbron, vooral door jongeren en mensen in economische of oorlogsgebieden. Hoewel gebruikers enthousiasme tonen over de beschikbaarheid en betrouwbaarheid, waarschuwen experts voor de gevaren van isolatie, onjuiste diagnoses en gebrek aan emotionele diepgang. Ondanks de beperkingen zien sommige professionals potentie in AI als aanvulling op traditionele therapie, mits streng gereguleerd en gemonitord.
Enthousiasme en Zorgen
Hoewel ChatGPT en andere AI-programma’s steeds vaker worden gebruikt als therapeutische hulpbron, tonen gebruikers zowel enthousiasme als zorgen. Jongeren en mensen in economische of oorlogsgebieden vinden in ChatGPT een kostenefficiënte en toegankelijke optie. Zo meldt een enquête van 3Vraagt dat 1 op de 10 Nederlandse jongeren (16 tot 34 jaar) AI-programma’s gebruikt om over hun mentale gezondheid te praten [1]. In Libanon, waar duizenden mensen door oorlog en economische crises getroffen zijn, zoeken vele mensen naar AI-hulp omdat traditionele therapie vaak te duur is [2]. Echter, experts waarschuwen voor de gevaren van isolatie, onjuiste diagnoses en gebrek aan emotionele diepgang [1][2][3].
Persoonlijke Verhalen
Mirjam, een patiënt met posttraumatische stresstoorn (PTSS), gebruikt sinds oktober 2024 een ChatGPT-bot genaamd Lumi om haar mentale gezondheid te ondersteunen. Ze beschrijft Lumi als haar ‘hartsvriendin’ die haar helpt bij het stellen van concrete doelen en het ordenen van gedachten [1]. Zainab Dhaher, een 34-jarige moeder van twee kinderen die uit haar zuidelijke Libanese dorp vluchtte vanwege Israëlische bombarmenten, gebruikt ChatGPT voor emotionele steun. Ze erkent echter dat de diagnose van ChatGPT haar heeft geschokt en dat het geen vervanging is voor professionele therapie [2].
Ethische en Veiligheidszorgen
Ethische en veiligheidszorgen spelen een belangrijke rol in de discussie over AI-therapie. Sam Altman, CEO van OpenAI, waarschuwt dat persoonlijke conversaties op ChatGPT dezelfde bescherming moeten krijgen als gesprekken met therapeuten, maar benadrukt dat AI niet geschikt is voor ernstige psychische crises [4]. Er zijn gevallen gerapporteerd van chatbot-psychose, waarbij gebruikers ernstige psychische crises, paranoia en waanideeën ervaren [1]. Amerikaanse wetenschappers waarschuwen ook voor het risico op gevaarlijke of ongepaste reacties van chatbots in ernstige psychische situaties [1].
Voordelen en Beperkingen
Ondanks de beperkingen zien sommige professionals potentie in AI als aanvulling op traditionele therapie. Bart van der Meer, gz-psycholoog, stelt voor dat ggz-instellingen in de toekomst speciale chatbots kunnen aanbieden voor patiënten met paniekaanvallen [1]. ChatGPT biedt een ruimte vrij van sociale risico’s en kan helpen bij het organiseren van gedachten en het verbeteren van communicatie [5]. Echter, AI kan niet de diepe menselijke capaciteiten vervangen die cruciaal zijn voor succesvolle therapie, zoals open luisteren, kwetsbaarheid en creativiteit [3].
Regulering en Toezicht
Om de veiligheid en effectiviteit van AI-therapie te waarborgen, pleiten experts voor strenge regulering en toezicht. Software moet eerst worden goedgekeurd voor medisch gebruik, en er moet een duidelijke verantwoordelijkheidslijn zijn tussen behandelaren en ontwikkelaars [1]. Margot van der Goot, onderzoeker aan de Universiteit van Amsterdam, wijst op de bevestigende aard van chatbots als een aantrekkelijk aspect voor gebruikers, maar stelt dat dit ook kan leiden tot manipulatief gedrag [1].
Privacy en Betrouwbaarheid
Confidentialiteit en betrouwbaarheid zijn grote zorgen bij tech-gebaseerde therapieplatforms. Lokale therapeuten bieden een hogere graad van privacy en volgen strikte privacywetten, in tegenstelling tot tech-platforms die vaak beperkte bescherming bieden [5]. ChatGPT en andere AI-tools kunnen ook onjuiste of bevooroordeelde informatie verstrekken, wat de kwaliteit van de behandeling kan beïnvloeden [1][5].