AIJB

Comment l'IA et la neurotechnologie ensemble permettent de mieux comprendre les êtres humains

Comment l'IA et la neurotechnologie ensemble permettent de mieux comprendre les êtres humains
2025-11-04 voorlichting

twente, dinsdag, 4 november 2025.
Imaginez une IA qui ne se contente pas d’analyser des données, mais qui comprend aussi l’impact de la culture, du soutien émotionnel et du contexte social sur une personne — comme un jeune homme noir souffrant de dépression, pour lequel l’IA simule un parcours de traitement réaliste sans recourir à des données réelles de patients. Imaginez ensuite un implant cérébral, conçu avec des algorithmes économes en énergie, qui s’adapte en continu à l’activité cérébrale d’un patient épileptique. Ces nouvelles technologies, telles que celles développées dans le projet EBRAINS-Neurotech et les recherches du professeur VanHook, vont bien au-delà de l’efficacité : elles se concentrent sur l’humanité, l’inclusivité et l’éthique. Ce qui frappe le plus ? Ces systèmes ne visent pas à remplacer les humains, mais à renforcer les soins, les liens sociaux et la compréhension mutuelle — la véritable valeur n’étant pas dans la technologie elle-même, mais dans la valeur humaine qu’elle permet de renforcer.

L’IA comme pont dans l’information publique : des messages standardisés à l’interaction humaine

Les systèmes d’IA dans le secteur public vont de plus en plus au-delà de l’automatisation des tâches répétitives. À la place de se limiter à la diffusion d’informations, ils sont utilisés pour connecter les individus — un principe fondamental du nouveau cadre éthique élaboré par le Dr Kristy Claassen de l’Université de Twente [1]. Cette approche, inspirée de l’éthique Ubuntu selon laquelle « je suis parce que nous sommes », vise à ce que la technologie ne remplace pas les personnes, mais les renforce dans leurs liens sociaux et émotionnels [1]. Par exemple, dans un projet concret de la nouvelle organisation EthicEdge, l’IA est mise en œuvre pour accompagner les victimes de violences sexuelles via un chatbot soigneusement conçu selon leur contexte culturel et émotionnel [1]. Cette application illustre comment, lorsqu’elle est développée selon une logique de valeur, l’IA peut offrir non seulement une meilleure accessibilité, mais aussi un espace sûr pour les groupes vulnérables, leur permettant de raconter leur histoire sans crainte de jugement [1]. L’accent est mis sur l’intégrité, la créativité et l’orientation communautaire — des valeurs souvent négligées dans le débat actuel sur l’IA responsable [1].

Information personnalisée : des campagnes générales aux besoins individuels

Dans le domaine de la santé, des chercheurs développent un cadre innovant utilisant l’IA générative pour simuler des soins en santé mentale personnalisés [2]. Dans une étude menée par le professeur Cortney VanHook de l’Université d’Illinois à Urbana-Champaign, un patient fictif, Marcus Johnson, un jeune homme noir présentant des symptômes dépressifs, est utilisé pour générer des parcours de traitement réalistes [2]. L’IA intègre des modèles fondés sur des preuves, comme le modèle de comportement d’Andersen, ainsi que les cinq composantes d’accès, en analysant des facteurs personnels tels que le stress au travail, les barrières culturelles et le réseau de soutien [2]. Cela donne lieu à un environnement sûr et conforme au respect de la vie privée, où les cliniciens, étudiants et stagiaires peuvent s’entraîner sans avoir recours à des données réelles de patients [2]. Selon VanHook, cette méthode constitue une approche pratique et fondée sur des preuves pour intégrer l’IA dans l’enseignement et la pratique clinique, dans le but d’améliorer la qualité des soins culturellement compétents [2]. Plus de 40 % des répondants à un sondage de MIND réalisé en septembre 2025 ont indiqué avoir déjà discuté avec un chatbot d’IA sur la santé mentale, dont 44 % l’ont jugé utile [2]. Les avantages résident dans une faible barrière d’accès, une disponibilité anonyme et un caractère non jugeant, ce qui aide à exprimer ses émotions et à se préparer à une thérapie [2].

L’IA en journalisme et information : de l’automatisation à des récits significatifs

Dans le journalisme et la fourniture d’informations, l’IA est de plus en plus utilisée pour rendre des informations complexes accessibles à divers publics [1]. L’étude menée par l’Université de Twente sous la direction du Dr Claassen met en avant que l’IA doit non seulement améliorer l’efficacité, mais aussi intégrer l’humanité et l’inclusivité [1]. Dans le cadre de la série « Algorithms for All », lancée le 4 novembre 2025, on étudie comment les algorithmes peuvent contribuer à une société où la technologie relie les individus plutôt que de les éloigner [1]. Cette approche ne se limite pas au domaine public néerlandais, mais est également appliquée en Afrique du Sud par l’organisation EthicEdge, où l’éthique de l’IA est ancrée à partir d’une perspective africaine dans l’enseignement et le monde des affaires [1]. Dans le projet « Algorithms for All », le débat public sur la conception de l’IA est enrichi par une interaction entre la pensée académique et la pratique, en mettant l’accent sur la transparence et l’orientation communautaire [1]. Ainsi, les systèmes d’IA aident à traduire des informations techniques en langage compréhensible pour les personnes sans formation universitaire, ce qui est essentiel pour une information inclusive [1].

La neurotechnologie et l’IA : la prochaine génération d’intégration homme-machine

Au sein du consortium EBRAINS-Neurotech, dirigé par l’Université d’Amsterdam et financé à hauteur de 18,3 millions d’euros par le programme NWO-LSRI, des neurotechnologies avancées sont développées selon des principes éthiques et transparents [3]. Le Centre de mathématiques et d’informatique (CWI) joue un rôle clé en développant des logiciels qui comprennent des modèles cérébraux à grande échelle et les réduisent en algorithmes économes en énergie pour puces neuromorphiques [3]. Ces technologies sont utilisées dans les interfaces cerveau-machine (ICM) qui apprennent continuellement et s’adaptent en temps réel à l’activité cérébrale, avec des applications dans des affections neurologiques telles que l’épilepsie, la dépression, les AVC et Alzheimer [3]. La nanotechnologie permet de miniaturiser les électrodes et d’augmenter le nombre de points de stimulation pour une commande plus précise des circuits cérébraux, comparables aux pacemakers [3]. L’optogénétique, qui utilise la lumière pour influencer l’activité neuronale, est combinée à des mesures à grande échelle de l’activité cérébrale afin d’affiner les traitements [3]. Le développement de ces implants ne se concentre pas uniquement sur l’efficacité clinique, mais aussi sur la sécurité, l’équité et l’évitement des biais algorithmiques — des valeurs fondamentales souvent soulignées dans le développement éthique de l’IA [3]. Le professeur Sander Bohté du CWI insiste sur le fait que l’objectif est de rendre les dispositifs neurotechnologiques non seulement plus efficaces, mais aussi plus pratiques pour les patients et les chercheurs [3].

Les défis de l’IA : confidentialité, inclusivité et la limite de l’objectivité

Malgré les applications prometteuses, des défis importants persistent, notamment en matière de confidentialité, d’inclusivité et de fiabilité. L’utilisation de l’IA dans la santé mentale est limitée par la réglementation : la loi Wellness and Oversight for Psychological Resources d’Illinois stipule que les outils d’IA ne peuvent être utilisés que pour des fins éducatives et administratives, et non pour la prise de décision clinique directe [2]. Cela souligne la nécessité de directives claires et de normes professionnelles, qui font encore défaut dans de nombreuses applications, où de nombreux systèmes d’IA se trouvent encore en phase pilote [2]. En outre, il est souligné que l’IA générative ne parvient pas encore à prendre en compte tous les facteurs influençant la santé mentale, bien qu’elle aide à mieux comprendre des systèmes plus équitables [2]. Dans le projet EBRAINS-Neurotech, une attention explicite est portée à l’évitement des biais algorithmiques, à la sécurité des données et à l’éthique du développement, ce qui est essentiel lorsqu’on utilise des implants agissant directement sur le cerveau [3]. Le défi consiste à trouver un équilibre entre progrès technologique et valeur humaine : la technologie ne doit pas être automatiquement considérée comme neutre, mais doit être explicitement évaluée en termes d’inclusivité, de transparence et de responsabilité morale [1].

Sources