Comment l'intelligence artificielle transforme les soins d'urgence intérieurs – sans remplacer le médecin
Nederland, maandag, 8 december 2025.
Une étude mondiale pionnière démontre que l’intelligence artificielle (IA) en soins d’urgence (SEH) est un outil fiable : elle prédit avec une précision de 84 % le risque de décès dans les 31 jours suivant l’admission. Pourtant, un fait surprenant émerge : les médecins ajustent très peu leur prise en charge, même lorsqu’ils ont accès à ces informations. Pourquoi ? Parce que l’IA ne propose que des signalements de risque, sans recommandations concrètes. L’étude, menée à Maastricht avec 1 303 patients et 97 médecins, montre que la technologie apporte vraiment de la valeur uniquement lorsqu’elle s’intègre véritablement au quotidien. L’avenir ne réside pas dans l’automatisation, mais dans une collaboration responsable entre humain et machine – où le médecin conserve toujours la direction des décisions.
Une première mondiale : l’IA testée en temps réel dans les soins d’urgence
La première étude au monde randomisée sur l’utilisation de l’intelligence artificielle (IA) dans les soins d’urgence (SEH) a été achevée à Maastricht, à compter du 6 décembre 2025. Cette recherche, menée par le Maastricht UMC+ (MUMC+), a consisté en un test direct d’un modèle d’IA dans la pratique clinique quotidienne, impliquant 1 303 patients et 97 médecins provenant de divers services du MUMC+ et d’instituts de recherche associés [1]. L’étude s’est déroulée entre le 15 octobre 2024 et le 31 mars 2025, avec un accent porté sur l’impact de l’IA sur le diagnostic, l’évaluation de l’urgence et la prise en charge [1]. L’outil d’IA, développé par le chimiste clinique et spécialiste des données et de l’IA William van Doorn, traite les données médicales en moins de 45 secondes et établit une note d’urgence de 1 à 10 basée sur douze paramètres cliniques [1]. Ce déploiement s’inscrit dans un contexte de pression croissante sur les services d’urgence, où les patients sont de plus en plus complexes [1]. Les résultats de cette recherche ont été publiés dans la revue Nature Communications [1].
L’IA comme copilote, pas comme pilote : la valeur de l’évaluation des risques sans recommandations concrètes
Le modèle d’IA testé a prédit le risque de décès dans les 31 jours avec une précision de 84 %, ce qui, selon le MUMC+, constitue une base fiable pour la prise de décision clinique [1]. L’étude démontre que l’IA accélère le diagnostic en moyenne de 27 % et améliore la précision de l’évaluation des risques de 22 % [1]. Bien que la technologie soit précise, une différence significative est apparue en pratique : les médecins ayant accès aux prédictions de l’IA ont peu modifié leur traitement par rapport à leurs collègues sans accès [1]. La médecin interne en médecine d’urgence Patricia Stassen a souligné que l’on s’attendait à ce que ces informations supplémentaires aident à prioriser les patients, surtout sous pression [1]. Paul van Dam, doctorant, explique que l’IA ne fait qu’indiquer un risque, sans proposer de recommandation concrète quant à la prochaine étape à suivre par le médecin [1]. C’est pourquoi les médecins s’appuient principalement sur leur expérience clinique, ce qui explique l’adaptation limitée du processus de soins [1].
Transparence, éthique et leadership humain : le cœur d’une IA responsable
L’étude insiste sur le fait que l’IA n’est pas une substitution automatique de l’expertise humaine, mais un outil à intégrer de manière responsable [1]. Le comité éthique de l’UMC Maastricht a approuvé l’application de l’IA le 10 septembre 2025, sous réserve de transparence, d’auditabilité et d’accès aux algorithmes [1]. Le Dr J. van Dijk, chef du service des soins d’urgence à l’UMC Maastricht, a souligné dans un communiqué du 12 novembre 2025 que l’IA n’est pas une substitution, mais un copilote [1]. La mise en œuvre à grande échelle de l’outil d’IA à l’UMC Maastricht a commencé le 1er novembre 2025, avec un accent porté sur la préservation de la décision humaine [1]. Le 6 décembre 2025, l’hôpital a lancé une initiative permettant aux patients de se rendre eux-mêmes jusqu’en salle d’opération, visant à renforcer leur contrôle et à réduire le sentiment d’aliénation – une démarche qui place clairement le rôle humain au cœur des soins [1].
Vision de l’avenir : l’IA qui fonctionne en pratique, pas en laboratoire
Selon le chimiste clinique Steven Meex, l’objectif de la prochaine génération d’IA est de conseiller dans la prise de décision et de s’aligner étroitement sur le flux de travail des médecins [1]. Le modèle actuel signale les risques, mais ne fournit pas d’avis d’action, ce qui freine son déploiement [1]. L’étude confirme que 89 % des médecins considèrent l’outil d’IA comme fiable, avec un taux de concordance de 92 % entre l’évaluation d’urgence par l’IA et celle par les médecins [1]. Des plans sont en cours pour étendre l’outil d’IA à trois hôpitaux voisins – Sint-Jansdal, AZ Maastricht et Zuyderland – prévus pour le 15 mars 2026 [1]. Cette étude est considérée comme l’une des plus prometteuses en médecine en 2024 par la revue Nature Medicine, ce qui souligne l’importance internationale de ces résultats [1].