Hoe AI én hersentechnologie samen mensen beter begrijpen
twente, dinsdag, 4 november 2025.
Stel je voor dat een AI niet alleen gegevens analyseert, maar ook begrijpt hoe cultuur, emotionele steun en sociale context iemand beïnvloeden — zoals bij een jonge zwarte man met depressie, waarbij AI een realistisch behandeltraject simuleert zonder echte patiëntgegevens. En stel je voor dat een hersenimplantaat, ontworpen met energiezuinige algoritmes, continu aanpast aan de hersenactiviteit van een patiënt met epilepsie. De nieuwe generatie technologieën, zoals in het EBRAINS-Neurotech-project en het onderzoek van professor VanHook, gaat verder dan efficiëntie: ze richt zich op menselijkheid, inclusiviteit en ethiek. Het meest opvallende? Deze systemen zijn niet bedoeld om mensen te vervangen, maar om zorg, verband en begrip te creëren — waarbij de kern niet in de technologie ligt, maar in de menselijke waarde die ermee wordt versterkt.
AI als brug in de publieke voorlichting: van standaardberichten naar menselijke interactie
AI-systemen in de publieke sector gaan steeds vaker verder dan het automatiseren van routineopdrachten. In plaats van alleen informatie te verspreiden, worden ze gebruikt om mensen te verbinden — een kernprincipe van het nieuwe ethische kader ontwikkeld door dr. Kristy Claassen van de Universiteit Twente [1]. Deze aanpak, geïnspireerd op de Ubuntu-ethiek die stelt dat ‘ik ben omdat wij zijn’, streeft ernaar dat technologie niet mensen vervangt, maar versterkt in hun sociale en emotionele connecties [1]. Bijvoorbeeld, in een praktijkproject van de nieuwe organisatie EthicEdge, wordt AI ingezet om slachtoffers van seksueel geweld te ondersteunen via een chatbot die zorgvuldig is ontworpen op basis van culturele en emotionele context [1]. Deze toepassing illustreert hoe AI, wanneer op een waardegerichte manier wordt ontwikkeld, niet alleen toegankelijkheid biedt, maar ook een veilige ruimte creëert voor kwetsbare groepen om hun verhaal te delen zonder angst voor oordeel [1]. De focus ligt op integriteit, creativiteit en gemeenschapsgerichtheid — waarden die in het huidige debat over verantwoorde AI vaak worden overgeslagen [1].
Gepersonaliseerde voorlichting: van algemene campagnes naar individuele behoeften
In de zorgsector ontwikkelen onderzoekers een innovatief raamwerk dat gebruikmaakt van generatieve AI om gepersonaliseerde geestelijke gezondheidszorg te simuleren [2]. In een studie van professor Cortney VanHook van de Universiteit van Illinois Urbana-Champaign wordt een fictieve cliënt, Marcus Johnson, een jonge zwarte man met depressieve symptomen, gebruikt om realistische behandeltrajecten te genereren [2]. De AI integreert evidence-based modellen zoals het gedragsmodel van Andersen en de vijf componenten van toegang, waarbij persoonlijke factoren zoals werkstress, culturele barrières en het ondersteuningsnetwerk worden geanalyseerd [2]. Dit resulteert in een veilige, privacyconforme omgeving waarin clinici, studenten en stagiaires kunnen oefenen zonder echte patiëntgegevens te gebruiken [2]. Volgens VanHook is deze aanpak een praktische, evidence-based manier om AI te integreren in het onderwijs en de klinische praktijk, met als doel cultureel competent zorg te verbeteren [2]. Meer dan 40% van de respondenten in een peiling van MIND uit september 2025 hebben aangegeven dat ze al hebben gesproken met een AI-chatbot over mentale gezondheid, waarvan 44% het als helpend ervaren [2]. De voordelen liggen in laagdrempeligheid, anonieme beschikbaarheid en het niet-oordelende karakter, wat helpt bij het verwoorden van gevoelens en het voorbereiden op therapie [2].
AI in journalistiek en informatievoorziening: van automatisering naar betekenisvolle verhalen
In de journalistiek en informatiedienstverlening wordt AI steeds vaker ingezet om complexe informatie toegankelijk te maken voor diverse doelgroepen [1]. Het onderzoek van de Universiteit Twente, onder leiding van dr. Claassen, benadrukt dat AI niet alleen efficiëntie moet bevorderen, maar ook menselijkheid en inclusiviteit moet integreren [1]. In het kader van de reeks ‘Algorithms for All’, die begon op 4 november 2025, wordt onderzocht hoe algoritmes kunnen bijdragen aan een samenleving waarin technologie mensen verbindt in plaats van verdrijft [1]. Deze aanpak is niet beperkt tot het Nederlandse publieke domein, maar wordt ook toegepast in Zuid-Afrika via de organisatie EthicEdge, waar AI-ethiek vanuit een Afrikaans perspectief wordt verankerd in het onderwijs en bedrijfsleven [1]. In het project ‘Algorithms for All’ wordt de publieke discussie over AI-ontwerp gevoed door interactie tussen academisch denken en praktijk, met een focus op transparantie en gemeenschapsgerichtheid [1]. Zo helpen AI-systemen bij het vertalen van technische informatie in taal die begrijpbaar is voor mensen zonder academische achtergrond, wat essentieel is voor inclusieve voorlichting [1].
Hersentechnologie en AI: de volgende generatie van mens-machine-integratie
In het EBRAINS-Neurotech-consortium, geleid door de Universiteit van Amsterdam en gefinancierd met 18,3 miljoen euro uit het NWO-LSRI-programma, worden geavanceerde hersentechnologieën ontwikkeld die zorgvuldig zijn ingebed in ethische en transparante principes [3]. De Centrum Wiskunde & Informatica (CWI) draagt een sleutelrol bij door software te ontwikkelen die grootschalige hersenmodellen comprimeert tot energiezuinige algoritmen voor neuromorfe chips [3]. Deze technologie wordt gebruikt in brain-machine interfaces (BCIs) die continu leren en aanpassen aan hersenactiviteit, met toepassingen bij neurologische aandoeningen zoals epilepsie, depressie, beroerte en Alzheimer [3]. Nanotechnologie wordt ingezet om elektroden te miniaturiseren en het aantal stimulatiepunten te vergroten voor preciezere aansturing van hersencircuits, vergelijkbaar met pacemakers [3]. Optogenetica, waarbij licht wordt gebruikt om neurale activiteit te beïnvloeden, wordt gecombineerd met grootschalige metingen van hersenactiviteit om de behandeling te verfijnen [3]. De ontwikkeling van deze implantaten richt zich niet alleen op klinische effectiviteit, maar ook op veiligheid, rechtvaardigheid en het vermijden van vooroordelen in algoritmes — kernwaarden die in het algemeen worden benadrukt in ethische AI-ontwikkeling [3]. Professor Sander Bohté van CWI benadrukt dat het doel is om neurotechnologische apparaten niet alleen effectiever, maar ook praktischer te maken voor patiënten en onderzoekers [3].
De uitdagingen van AI: privacy, inclusiviteit en de grens van objectiviteit
Ondanks de veelbelovende toepassingen blijven ernstige uitdagingen bestaan, vooral op het gebied van privacy, inclusiviteit en betrouwbaarheid. Het gebruik van AI in de geestelijke gezondheidszorg wordt beperkt door wetgeving: de Wellness and Oversight for Psychological Resources Act van Illinois stelt dat AI-tools alleen mogen worden gebruikt voor educatieve en administratieve doeleinden, niet voor directe klinische besluitvorming [2]. Dit benadrukt de noodzaak van duidelijke richtlijnen en professionele standaarden, die op dit moment nog ontbreken in veel toepassingen, waarbij veel AI-systemen zich nog in de pilotfase bevinden [2]. Bovendien wordt benadrukt dat generatieve AI nog niet alle factoren die van invloed zijn op geestelijke gezondheid in kaart kan brengen, hoewel het wel helpt bij het begrijpen van rechtvaardigere systemen [2]. In het EBRAINS-Neurotech-project wordt expliciet aandacht besteed aan het vermijden van vooroordelen in algoritmes, veiligheid van gegevens en ethiek van de ontwikkeling, wat essentieel is bij het gebruik van implantaten die direct op de hersenen inwerken [3]. De uitdaging ligt erin om de balans te vinden tussen technologische vooruitgang en menselijke waarde: technologie mag niet automatisch worden geaccepteerd als neutraal, maar moet expliciet worden getoetst op inclusiviteit, transparantie en morele verantwoordelijkheid [1].