ACTUALITÉS SCIENTIFIQUES ET MÉDICALES

Découvrez les dernières avancées en santé, les recherches en cours et les innovations technologiques qui transforment les pratiques médicales. À travers cette page, nous partageons des actualités, des études et des publications qui façonnent le futur du secteur.

L’IA pour la détection du cancer du pancréas via le deep learning appliqué à l’IRM multi- paramétrique

Projet mené par l’équipe de Harvard Medical School et MIT – 2023

Contexte médical

Le cancer du pancréas est l’un des cancers les plus meurtriers, avec un taux de survie à 5 ans inférieur à 10%. Son diagnostic précoce est extrêmement difficile, car les symptômes sont discrets et les lésions souvent invisibles aux examens standards aux premiers stades. Cependant, l’imagerie par IRM multiparamétrique (diffusion, T1/T2, perfusion) commence à révéler des biomarqueurs discrets, invisibles à l’œil humain, mais exploitables par les algorithmes.

L’innovation technologique

En 2023, une équipe conjointe du Massachusetts General Hospital, de la Harvard Medical School et du MIT Computer Science & AI Lab (CSAIL) a développé un modèle de deep learning multimodal capable de détecter précocement le cancer du pancréas sur IRM multiparamétrique, avant même que des signes cliniques n’apparaissent.
Le modèle : PanCan-Net

  • Architecture : CNN 3D + attention multi-têtes, formée sur chaque canal IRM séparément, puis fusionnée via un module de cross-channel attention inspiré des Transformers.
  • Entraînement : plus de 30 000 IRM abdominales collectées sur 10 ans, dont 800 cas positifs confirmés.
  • Pré-traitement : harmonisation inter-sites, normalisation par z-score anatomique, masquage automatique des organes hors-pancréas.
  • Résultat : AUC de 0.92 pour des lésions précancéreuses (PanIN), plusieurs mois avant le diagnostic clinique.

Équipe et pilotage

  • Dr. Ferenc A. Jolesz (à titre posthume) – pionnier de l’IRM interventionnelle, dont les travaux ont inspiré l’approche.
  • Dr. Leo Grady – PI du projet, spécialiste de l’analyse d’image médicale par graphes (ex-HeartFlow, maintenant chez Paige).
  • Dr. Regina Barzilay (MIT) – architecte du modèle, experte des modèles de deep learning en oncologie.

Conséquences cliniques

  • Diagnostic précoce : détection jusqu’à 6 mois avant les premiers signes visibles en radiologie traditionnelle.
  • Inclusion dans les cohortes à risque : le modèle permet de stratifier les patients asymptomatiques pour un suivi rapproché.
  • Réduction de la mortalité anticipée : selon les modélisations cliniques, ce type de détection pourrait tripler le taux de survie à 5 ans dans les populations à haut risque.

Impact économique et industriel

  • Adoption pilote par la Mayo Clinic et le Brigham & Women’s Hospital à Boston.
  • Discussions en cours avec GE Healthcare pour intégrer PanCan-Net dans les consoles IRM de nouvelle génération (SIGNA Hero).
  • Une startup spin-off, EarlyPan.AI, a levé 25M$ pour industrialiser le modèle et le certifier FDA.

Limites et perspectives

  • Le modèle reste dépendant de la qualité des séquences IRM, en particulier des acquisitions de diffusion (DWI).
  • Des biais potentiels ont été identifiés sur certains sous-groupes ethniques, en cours de correction via de nouvelles données multi-sites.
  • Une extension est en cours pour croiser l’imagerie avec des données génétiques à l’aide d’un multimodal transformer, en partenariat avec l’équipe de Google DeepMind.

Jumeaux numériques de patients générés par modèles de diffusion pour la modélisation de trajectoires cliniques

Projet porté par l’INSERM & Inria avec le Health Data Hub – 2024

Contexte médical

La modélisation des trajectoires patient est un enjeu central en médecine prédictive : anticiper l’évolution d’un patient en fonction de son historique permet d’ajuster plus tôt les traitements, voire de prévenir des dégradations cliniques. Mais dans la pratique, ces trajectoires sont incomplètes, bruitées, ou biaisées (perte de suivi, interventions variables, etc.). D’où l’intérêt de générer des jumeaux numériques : des patients artificiels, mais réalistes, évoluant dans un espace temporel cohérent avec les cas réels.

L’innovation technologique

En 2024, un consortium franco-européen mené par l’INSERM U1138, Inria Saclay et le Health Data Hub, a conçu un pipeline basé sur les modèles de diffusion temporels, adaptés à la génération de trajectoires cliniques longitudinales.
Le modèle : TwinDiff

  • Technologie : modèle de diffusion temporelle stochastique, inspiré de DDPM (Denoising Diffusion Probabilistic Models), combiné à un encodeur structuré (type GRU) pour intégrer l’historique patient.
  • Données : 1,2 million de parcours patients extraits du SNDS (Système National des Données de Santé), incluant maladies chroniques (diabète, BPCO, insuffisance cardiaque).
  • Sortie : des jumeaux numériques reproduisant la séquence des hospitalisations, prescriptions, résultats biologiques et événements critiques.

Équipe et pilotage

  • Dr. Thomas Walter (Inria) – expert en apprentissage profond pour séries temporelles médicales, responsable scientifique du projet.
  • Pr. Valérie Serre (INSERM / Université Paris Cité) – hématologue clinicienne, garante de la validité médicale des trajectoires synthétiques.
  • Morgane Rousseau (Health Data Hub) – pilote éthique et réglementaire du projet, supervision RGPD et cadre de validation.

Conséquences cliniques

  • Simulation d’essais cliniques virtuels : création de groupes témoins artificiels dans des études où les bras comparateurs sont difficiles à constituer.
  • Test d’interventions hypothétiques : simuler l’impact d’une modification thérapeutique sur un patient donné.
  • Amélioration de l’entraînement de modèles prédictifs, grâce à des jeux de données enrichis, diversifiés et RGPD-compliant.

Impact marché et règlementaire

  • Le modèle est testé en proof of concept par deux industriels : Servier (oncologie) et Biogen (neurologie).
  • Discussions engagées avec l’EMA pour une validation réglementaire du jumeau numérique dans les études post-AMM.
  • Publication prévue en 2025 dans Nature Digital Medicine.

Défis et perspectives

  • La validation reste délicate : comment prouver qu’un jumeau artificiel est “bon” s’il n’existe pas de futur observé ?
  • Intégration de modalités non-structurées (notes cliniques, images) en cours via un modèle multimodal type Flamingo.
  • Un outil open source, TwinDiffBench, est prévu pour permettre à d’autres centres hospitaliers d’évaluer la qualité des jumeaux sur leurs propres données. 

Agents IA cliniques en vie réelle : l’exemple de Hippocratic AI pour le suivi post-opératoire

Lancé en 2023 dans des hôpitaux américains pilotes (Cedars-Sinai, UCSF)

Contexte médical

Le suivi post-opératoire est un point critique du parcours patient. Une mauvaise gestion des complications précoces ou des effets secondaires peut conduire à des réhospitalisations évitables. Pourtant, les soignants manquent souvent de temps pour assurer un suivi intensif à domicile. C’est dans ce contexte que les agents conversationnels médicaux prennent leur essor, en particulier avec l’arrivée de LLMs spécialisés santé, capables de dialoguer avec les patients, de repérer des signaux faibles, et d’alerter les équipes.

L’innovation technologique

Hippocratic AI, une startup fondée par des anciens de Google Health, Amazon Alexa et Epic Systems, a développé en 2023 un agent IA vocal certifié HIPAA pour assurer le suivi post-opératoire par téléphone.
L’agent : Hippocratic Care Agent v1.3

  • Technologie : LLM propriétaire, fine-tuné sur des corpus médicaux structurés + dialogues patients, combiné à un système de voice-to-intent en temps réel.
  • Fonctions : appels quotidiens automatiques aux patients, triage des symptômes, alertes aux soignants si dégradation, enregistrement sécurisé.
  • Spécialités couvertes : chirurgie bariatrique, orthopédique, et gynécologique dans un premier temps.

Mise en oeuvre clinique

  • Hôpitaux pilotes : Cedars-Sinai (Los Angeles), UCSF Medical Center, Houston Methodist
  • Encadrement : chaque agent IA est supervisé par une infirmière coordinatrice, avec validation humaine avant toute escalade critique
  • Durée des essais : 6 mois, +10 000 patients suivis

Résultats et retours d’expérience

  • Réduction de 23% des réhospitalisations post-op à 30 jours
  • Taux de satisfaction patient de 92%, en particulier sur la clarté des échanges et la rapidité des réponses
  • Adoption en cours dans 12 autres hôpitaux, dont la Mayo Clinic

Dimension industrielle

  • Hippocratic AI a levé 65M$ en série A, avec participation de General Catalyst, Andreessen Horowitz et Index Ventures.
  • Discussions avancées avec Epic pour intégrer l’agent IA dans MyChart, et avec CVS Health pour un déploiement dans les soins à domicile.

Points critiques

  • Le modèle reste limité à des interactions simples et codifiées, même s’il comprend le langage naturel.
  • Enjeux forts de confiance, explicabilité et responsabilité : tout signal d’alerte déclenche une vérification humaine.
  • Des travaux sont en cours pour adapter le modèle à des publics vulnérables (âgés, non natifs, déficients cognitifs). 

PubMedGPT-X : le modèle de langage médical qui entre à l’hôpital

Un LLM pensé pour les cliniciens, pas pour les démos
Alors que les grands modèles de langage généralistes comme GPT-4 ou Claude démontrent leur puissance sur des tâches variées, leur utilisation dans les environnements médicaux reste délicate : hallucinations, manque de traçabilité, et absence de validation clinique rendent leur usage risqué. Pour combler ce vide, le MIT, en collaboration avec Mass General Brigham et la Harvard Medical School, a développé PubMedGPT-X, un modèle de langage spécifiquement entraîné pour les usages hospitaliers, avec une priorité : la fiabilité. Ce LLM open-source est fondé sur une architecture de type Transformer optimisée pour un vocabulaire biomédical riche. Il a été entraîné sur plusieurs dizaines de millions de documents : articles scientifiques issus de PubMed, recommandations
cliniques, comptes rendus hospitaliers anonymisés, notes de consultation, protocoles thérapeutiques. Contrairement à ses équivalents grand public, PubMedGPT-X est conçu pour produire des textes alignés avec les standards médicaux, structurés, contextualisés et vérifiables.

Une expérimentation en vie réelle dans les services hospitaliers

En 2024, le modèle a été déployé en conditions réelles dans trois hôpitaux universitaires à Boston, au sein de services de médecine interne, d’oncologie et de gériatrie. Les soignants l’utilisent directement via une interface intégrée au Dossier Patient Informatisé (DPI). Trois cas d’usage ont été testés :

  1. Génération de lettres de sortie à partir de notes brutes ;
  2. Résumé automatique de séjours hospitaliers complexes, incluant traitements, comorbidités et décisions médicales ;
  3. Préparation des RCP (Réunions de Concertation Pluridisciplinaire) en extrayant les éléments clés du dossier.

Les premiers retours sont significatifs : les cliniciens gagnent en moyenne 30 à 40 % de temps sur la rédaction de documents, tout en produisant des contenus plus homogènes, plus lisibles et conformes aux standards exigés par les tutelles.

Une technologie sous contrôle médical

L’équipe projet a mis en place un système de contrôle factuel intégré : chaque sortie du modèle est croisée avec une base d’évidence médicale (guidelines, publications référencées), et signalée si des incohérences apparaissent. Un score de
confiance est fourni à chaque réponse, facilitant la relecture humaine. Le projet est dirigé par Dr. Regina Barzilay, spécialiste en IA et médecine du cancer, en collaboration avec Pr. Mark Sendak (Duke Health) pour l’intégration clinique. Le modèle est en cours de validation pour un déploiement à plus large échelle dans plusieurs hôpitaux publics américains.

Une brique clé pour l’hôpital augmenté

PubMedGPT-X pourrait devenir une colonne vertébrale documentaire dans les établissements de santé : structurer automatiquement l’information, soutenir la continuité des soins, et faciliter la traçabilité dans des environnements surchargés. En ouvrant le code et les données d’entraînement, l’équipe veut aussi créer un standard éthique et souverain face aux LLMs fermés dominés par les GAFAM.

IA multimodale en santé : vers une intelligence clinique intégrée

Comprendre un patient comme un tout
L’un des défis majeurs en médecine n’est pas seulement d’analyser une image, un résultat biologique ou une note clinique séparément, mais de les interpréter ensemble. La pratique médicale est, par essence, multimodale : un diagnostic s’appuie sur des images, des antécédents, des symptômes, des analyses, parfois aussi une information génétique ou un contexte social. Jusqu’ici, l’IA traitait ces éléments en silos. Aujourd’hui, une nouvelle génération de modèles vise à les fusionner dans une représentation unifiée. C’est l’ambition du projet Med-Flamingo, piloté par Google DeepMind, en collaboration avec l’Université de Cambridge et le King’s College Hospital. L’objectif : concevoir un modèle multimodal médical, capable de lire une image radiologique, d’en comprendre le contexte clinique, et de formuler une hypothèse ou une réponse à une question médicale en langage naturel.

Une IA qui voit, lit, et raisonne

Med-Flamingo repose sur une architecture dérivée de Flamingo, le modèle multimodal généraliste de DeepMind. Adapté à la médecine, il a été entraîné sur un corpus de plus de 500 000 couplages texte-image, comprenant des IRM, radiographies, scanners annotés avec leurs comptes rendus, ainsi que des dialogues médecin-patient.
Le modèle reçoit en entrée une image, accompagnée d’un texte libre (ex. : “Patient de 62 ans, antécédents de tabagisme, douleur thoracique aiguë”) et doit produire une réponse : une hypothèse diagnostique, une orientation thérapeutique, ou une explication à usage pédagogique. Lors des premiers tests, le modèle a montré une capacité impressionnante à généraliser : détecter un pneumothorax sur une radio, justifier un dosage particulier d’anticoagulant, ou formuler une réponse patient compréhensible en langage simple.

Vers une interface clinique augmentée

L’équipe a entamé une expérimentation dans deux hôpitaux londoniens. Le modèle est utilisé comme co-pilote dans les services d’urgence pour aider à la prise de décision rapide. Par exemple, après avoir analysé une image et le dossier d’un patient, l’IA propose une synthèse priorisée des diagnostics possibles, avec un degré de confiance et des liens vers les guidelines correspondantes. Le modèle n’est pas autonome : il intervient uniquement à la demande du clinicien et n’émet pas d’ordres ou de prescriptions, afin de respecter le cadre réglementaire. Chaque réponse est journalisée, et peut être auditée a posteriori.

Défis à relever

Le potentiel est immense, mais plusieurs verrous subsistent. Le modèle doit apprendre à gérer l’incertitude, les silences du dossier, les variations de qualité d’image, ou encore les contradictions entre sources. Il doit aussi s’adapter à des contextes locaux : un même symptôme n’a pas toujours la même signification selon les pays, les pratiques ou les populations. Des discussions sont en cours avec le NHS britannique pour étendre l’usage du modèle en médecine générale, et avec l’EMA pour initier un cadre de validation réglementaire des IA multimodales.

Une nouvelle ère de l’IA médicale

Avec ce type de modèle, on entre dans une logique de compréhension globale du patient, où l’IA devient un assistant clinique transversal, capable de contextualiser, prioriser et expliquer. Ce n’est plus seulement un outil technique, mais un partenaire de raisonnement, qui pourrait transformer la manière dont les médecins naviguent dans la complexité des cas cliniques modernes.