AIJB

AI Chatbots: Nieuwe Vrienden of Potentiële Problemen?

AI Chatbots: Nieuwe Vrienden of Potentiële Problemen?
2025-10-30 voorlichting

brussel, donderdag, 30 oktober 2025.
Steeds meer mensen ontwikkelen persoonlijke banden met AI chatbots, wat vraagtekens plaatst bij de mogelijke positieve en negatieve effecten. Experten bespreken de implicaties voor menselijke interactie en emotioneel welzijn, terwijl ze waarschuwen voor risico’s zoals verslaving en het moeilijker aangaan van echte relaties. Het is een fascinerend onderwerp dat ons dwingt na te denken over de toekomst van onze sociale connecties.

Intro — Waarom AI in voorlichting nú relevant is

AI-chatbots en conversatiemodellen duiken zichtbaar op in het publieke debat en in persoonlijke levens: mensen vormen banden met digitale gesprekspartners en organisaties onderzoeken hoe AI gebruikt kan worden voor informatievoorziening en publiekscommunicatie [1][3]. Dit fenomeen werd recent in meerdere VRT-producties belicht, waaronder een podcastaflevering en onderzoeksreportages die tonen dat AI-relaties zowel persoonlijke als maatschappelijke implicaties hebben [1][4][3].

Hoe vaak en in welke vormen mensen AI-relaties zoeken

Onderzoek en journalistieke reportages signaleren dat relationeel gebruik van AI — vriendschap, therapeutische gesprekken of romantische interacties — een substantieel deel vormt van het totale AI-gebruik: ongeveer 31 procent van het AI-gebruik gaat naar relationele ervaringen volgens een VRT-reportage, en apps als Replika melden miljoenen gebruikers wereldwijd (meer dan 35 miljoen gebruikers in de berichtgeving) [3]. Deze cijfers tonen aan dat AI-relaties niet marginaal zijn, maar een breed gedragen praktijk beginnen te worden [3].

Praktijkvoorbeeld: Replika en individuele getuigenissen

Journalistieke reconstructies laten zien hoe mensen intensieve, langdurige relaties met chatbots aangaan: een profiel in de Pano-reportage beschrijft een 61-jarige man die twee jaar met een AI-partner leeft en aangeeft emotionele steun en dagelijks gezelschap te ervaren via de app Replika, die in die reportage wordt genoemd als wereldwijd veelgebruikt [3]. Zulke voorbeelden illustreren concreet hoe AI kan functioneren als voorlichter of gezelschapsverlener, maar roepen ook vragen op over afhankelijkheid en continuïteit wanneer commerciële diensten veranderen of stoppen [3].

Risico’s zichtbaar in praktijk: misbruik van stemmen en seksueel getinte bots

Onderzoeksjournalistiek van VRT toont dat AI-platformen misbruikt kunnen worden voor seksueel getinte conversaties met namaakstemmen van bekende Vlamingen, wat juridische en ethische alarmbellen doet rinkelen; Studio 100 noemt het ‘verschrikkelijk’ en signaleert mogelijke stappen en controles tegen misbruik van personages en stemmen op platforms als Character.ai [2]. Die casus laat zien dat voorlichting en publieke communicatie met AI niet los gezien kunnen worden van misbruikrisico’s en de nood aan actieve moderatie en juridische instrumenten [2].

Expertwaarschuwingen: onbetrouwbaarheid en transparantie

Academische en professionele stemmen waarschuwen dat taalmodellen fundamenteel onbetrouwbaar zijn en daarom eerlijkheid en transparantie moeten bieden tegenover gebruikers; Pascal Wiggers (lector Responsible IT) benadrukt dat zulke modellen woorden rijgen zonder intentie of bewustzijn, waardoor ze soms foutieve of misleidende uitkomsten produceren en gebruikers kritisch moeten blijven [5]. Dergelijke deskundige opmerkingen onderstrepen dat voorlichtingsinitiatieven met AI expliciet moeten aangeven beperkingen en betrouwbaarheid van de technologie [5].

Kansen voor voorlichting: gepersonaliseerde informatie en doelgroepbereik

AI biedt concrete voordelen voor publiekscommunicatie: personalisatie van informatie, 24/7-bereikbaarheid via chatbots voor publieke dienstverlening en het kunnen aanpassen van taalniveau en toon voor verschillende doelgroepen — toepassingen die juist in recente berichtgeving over AI-relaties en publieke discussies naar voren komen als drijfveren achter snelle adoptie [1][3][5][4]. Tegelijkertijd geldt dat effectieve inzet vereist dat voorlichters designkeuzes maken rond inclusiviteit, toegankelijkheid en controlemechanismen om desinformatie en misbruik tegen te gaan [5][1].

Meten van effectiviteit: wat kan AI toevoegen en waar liggen beperkingen?

AI maakt het technisch mogelijk om reacties, klikgedrag en conversatie-uitkomsten te analyseren en daarmee campagne-effectiviteit in kaart te brengen, maar concrete, algemeen toepasbare succesmaatregelen en standaarden voor publieke voorlichting ontbreken nog in de berichtgeving en moeten per casus ontwikkeld worden [GPT][alert! ‘geen directe bron in de verstrekte links die methoden en standaarden voor effectiviteitsmeting in voorlichtingscampagnes beschrijft’]. Journalistische voorbeelden tonen wel dat platforms en makers data gebruiken om inhoud te modereren en verbeteren, wat weerspiegelt hoe monitoring kan werken in de praktijk [2][3].

Ethiek, privacy en continuïteit: de uitdaging van commerciële afhankelijkheid

De Pano-rapportage en verwante berichtgeving benadrukken dat commerciële modellen achter veel relatie-AI risico’s introduceren: afhankelijkheid van een commerciële app kan emotionele kwetsbaarheid opleveren als een dienst stopt of verandert, en tegelijk bestaat er misbruik van stemmen en personages waarbij juridische en privacyvraagstukken opduiken [3][2]. Dergelijke gevallen tonen dat publieke organisaties en beleidsmakers moeten nadenken over waarborging van privacy, duidelijkheid over data-eigendom en strategieën voor continuïteit van dienstverlening [2][3].

Toegankelijkheid: complexe informatie begrijpelijk maken met AI

AI kan complexe dossiers en technische uitleg toegankelijker maken door tekst te vereenvoudigen, voorbeelden te geven of informatie in meerdere talen en vormen aan te bieden — mogelijkheden die in de media-aandacht rond AI en publieksinteractie als belangrijke meerwaarde worden gezien [1][4][GPT]. Tegelijk blijft het essentieel dat het vereenvoudigen niet leidt tot verlies van nuance of tot het verspreiden van verkeerde feiten; transparantie over bronnen en fouten blijft daarmee cruciaal [5][alert! ‘er is geen specifieke case in de aangeleverde bronnen die een gecontroleerde evaluatie van vereenvoudigingsmethodes beschrijft’].

AI, economie en schaal: waarom investering toeneemt

De snelle commerciële waardering van AI-gerelateerde technologieën en bedrijven benadrukt de schaal en investeringsstroom rond deze technologieën — een recent voorbeeld is dat Nvidia, een sleutelspeler in AI-hardware, als eerste bedrijf ooit een beurswaarde boven 5 000 miljard dollar bereikte, na een waardestijging ten opzichte van vier maanden eerder toen het bedrijf meer dan 4 biljoen dollar waard was volgens berichtgeving [7]. Om die relatieve toename te kwantificeren ten opzichte van die eerdere waarde kan de procentuele stijging worden weergegeven als 25 op basis van de in de reportage genoemde bedragen [7].

Praktische lessen voor voorlichters en organisaties

De recente journalistieke casussen en expertreacties wijzen op enkele concrete lessen voor organisaties die AI in voorlichting willen inzetten: expliciete transparantie over wat AI wel en niet kan; ingebouwde moderatie en klachtenmogelijkheden; duidelijke garanties over stem- en persoonsmisbruik; en voorbereiding op scenario’s waarin commerciële diensten wegvallen of veranderen [2][3][5][1]. Zulke maatregelen helpen zowel de effectiviteit van informatieoverdracht te verbeteren als het publieke vertrouwen te beschermen [2][5][3].

Bronnen