Découvrez les dernières avancées en santé, les recherches en cours et les innovations technologiques qui transforment les pratiques médicales. À travers cette page, nous partageons des actualités, des études et des publications qui façonnent le futur du secteur.
Nos dernières actualités :
Projet mené par l’équipe de Harvard Medical School et MIT – 2023
Le cancer du pancréas est l’un des cancers les plus meurtriers, avec un taux de survie à 5 ans inférieur à 10%. Son diagnostic précoce est extrêmement difficile, car les symptômes sont discrets et les lésions souvent invisibles aux examens standards aux premiers stades. Cependant, l’imagerie par IRM multiparamétrique (diffusion, T1/T2, perfusion) commence à révéler des biomarqueurs discrets, invisibles à l’œil humain, mais exploitables par les algorithmes.
En 2023, une équipe conjointe du Massachusetts General Hospital, de la Harvard Medical School et du MIT Computer Science & AI Lab (CSAIL) a développé un modèle de deep learning multimodal capable de détecter précocement le cancer du pancréas sur IRM multiparamétrique, avant même que des signes cliniques n’apparaissent.
Le modèle : PanCan-Net
Projet porté par l’INSERM & Inria avec le Health Data Hub – 2024
La modélisation des trajectoires patient est un enjeu central en médecine prédictive : anticiper l’évolution d’un patient en fonction de son historique permet d’ajuster plus tôt les traitements, voire de prévenir des dégradations cliniques. Mais dans la pratique, ces trajectoires sont incomplètes, bruitées, ou biaisées (perte de suivi, interventions variables, etc.). D’où l’intérêt de générer des jumeaux numériques : des patients artificiels, mais réalistes, évoluant dans un espace temporel cohérent avec les cas réels.
En 2024, un consortium franco-européen mené par l’INSERM U1138, Inria Saclay et le Health Data Hub, a conçu un pipeline basé sur les modèles de diffusion temporels, adaptés à la génération de trajectoires cliniques longitudinales.
Le modèle : TwinDiff
Lancé en 2023 dans des hôpitaux américains pilotes (Cedars-Sinai, UCSF)
Le suivi post-opératoire est un point critique du parcours patient. Une mauvaise gestion des complications précoces ou des effets secondaires peut conduire à des réhospitalisations évitables. Pourtant, les soignants manquent souvent de temps pour assurer un suivi intensif à domicile. C’est dans ce contexte que les agents conversationnels médicaux prennent leur essor, en particulier avec l’arrivée de LLMs spécialisés santé, capables de dialoguer avec les patients, de repérer des signaux faibles, et d’alerter les équipes.
Hippocratic AI, une startup fondée par des anciens de Google Health, Amazon Alexa et Epic Systems, a développé en 2023 un agent IA vocal certifié HIPAA pour assurer le suivi post-opératoire par téléphone.
L’agent : Hippocratic Care Agent v1.3
Un LLM pensé pour les cliniciens, pas pour les démos
Alors que les grands modèles de langage généralistes comme GPT-4 ou Claude démontrent leur puissance sur des tâches variées, leur utilisation dans les environnements médicaux reste délicate : hallucinations, manque de traçabilité, et absence de validation clinique rendent leur usage risqué. Pour combler ce vide, le MIT, en collaboration avec Mass General Brigham et la Harvard Medical School, a développé PubMedGPT-X, un modèle de langage spécifiquement entraîné pour les usages hospitaliers, avec une priorité : la fiabilité. Ce LLM open-source est fondé sur une architecture de type Transformer optimisée pour un vocabulaire biomédical riche. Il a été entraîné sur plusieurs dizaines de millions de documents : articles scientifiques issus de PubMed, recommandations
cliniques, comptes rendus hospitaliers anonymisés, notes de consultation, protocoles thérapeutiques. Contrairement à ses équivalents grand public, PubMedGPT-X est conçu pour produire des textes alignés avec les standards médicaux, structurés, contextualisés et vérifiables.
En 2024, le modèle a été déployé en conditions réelles dans trois hôpitaux universitaires à Boston, au sein de services de médecine interne, d’oncologie et de gériatrie. Les soignants l’utilisent directement via une interface intégrée au Dossier Patient Informatisé (DPI). Trois cas d’usage ont été testés :
Les premiers retours sont significatifs : les cliniciens gagnent en moyenne 30 à 40 % de temps sur la rédaction de documents, tout en produisant des contenus plus homogènes, plus lisibles et conformes aux standards exigés par les tutelles.
L’équipe projet a mis en place un système de contrôle factuel intégré : chaque sortie du modèle est croisée avec une base d’évidence médicale (guidelines, publications référencées), et signalée si des incohérences apparaissent. Un score de
confiance est fourni à chaque réponse, facilitant la relecture humaine. Le projet est dirigé par Dr. Regina Barzilay, spécialiste en IA et médecine du cancer, en collaboration avec Pr. Mark Sendak (Duke Health) pour l’intégration clinique. Le modèle est en cours de validation pour un déploiement à plus large échelle dans plusieurs hôpitaux publics américains.
PubMedGPT-X pourrait devenir une colonne vertébrale documentaire dans les établissements de santé : structurer automatiquement l’information, soutenir la continuité des soins, et faciliter la traçabilité dans des environnements surchargés. En ouvrant le code et les données d’entraînement, l’équipe veut aussi créer un standard éthique et souverain face aux LLMs fermés dominés par les GAFAM.
Comprendre un patient comme un tout
L’un des défis majeurs en médecine n’est pas seulement d’analyser une image, un résultat biologique ou une note clinique séparément, mais de les interpréter ensemble. La pratique médicale est, par essence, multimodale : un diagnostic s’appuie sur des images, des antécédents, des symptômes, des analyses, parfois aussi une information génétique ou un contexte social. Jusqu’ici, l’IA traitait ces éléments en silos. Aujourd’hui, une nouvelle génération de modèles vise à les fusionner dans une représentation unifiée. C’est l’ambition du projet Med-Flamingo, piloté par Google DeepMind, en collaboration avec l’Université de Cambridge et le King’s College Hospital. L’objectif : concevoir un modèle multimodal médical, capable de lire une image radiologique, d’en comprendre le contexte clinique, et de formuler une hypothèse ou une réponse à une question médicale en langage naturel.
Med-Flamingo repose sur une architecture dérivée de Flamingo, le modèle multimodal généraliste de DeepMind. Adapté à la médecine, il a été entraîné sur un corpus de plus de 500 000 couplages texte-image, comprenant des IRM, radiographies, scanners annotés avec leurs comptes rendus, ainsi que des dialogues médecin-patient.
Le modèle reçoit en entrée une image, accompagnée d’un texte libre (ex. : “Patient de 62 ans, antécédents de tabagisme, douleur thoracique aiguë”) et doit produire une réponse : une hypothèse diagnostique, une orientation thérapeutique, ou une explication à usage pédagogique. Lors des premiers tests, le modèle a montré une capacité impressionnante à généraliser : détecter un pneumothorax sur une radio, justifier un dosage particulier d’anticoagulant, ou formuler une réponse patient compréhensible en langage simple.
L’équipe a entamé une expérimentation dans deux hôpitaux londoniens. Le modèle est utilisé comme co-pilote dans les services d’urgence pour aider à la prise de décision rapide. Par exemple, après avoir analysé une image et le dossier d’un patient, l’IA propose une synthèse priorisée des diagnostics possibles, avec un degré de confiance et des liens vers les guidelines correspondantes. Le modèle n’est pas autonome : il intervient uniquement à la demande du clinicien et n’émet pas d’ordres ou de prescriptions, afin de respecter le cadre réglementaire. Chaque réponse est journalisée, et peut être auditée a posteriori.
Le potentiel est immense, mais plusieurs verrous subsistent. Le modèle doit apprendre à gérer l’incertitude, les silences du dossier, les variations de qualité d’image, ou encore les contradictions entre sources. Il doit aussi s’adapter à des contextes locaux : un même symptôme n’a pas toujours la même signification selon les pays, les pratiques ou les populations. Des discussions sont en cours avec le NHS britannique pour étendre l’usage du modèle en médecine générale, et avec l’EMA pour initier un cadre de validation réglementaire des IA multimodales.
Avec ce type de modèle, on entre dans une logique de compréhension globale du patient, où l’IA devient un assistant clinique transversal, capable de contextualiser, prioriser et expliquer. Ce n’est plus seulement un outil technique, mais un partenaire de raisonnement, qui pourrait transformer la manière dont les médecins naviguent dans la complexité des cas cliniques modernes.