Article

Éliminer les hallucinations des LLM en radiologie grâce au RAG

Publié le 9 avril 2025

Contexte & défi 

Les modèles de langage (LLM) peuvent aider à la prise de décision clinique, notamment en radiologie, mais leur version locale manque souvent de fiabilité comparée aux solutions cloud — tout en étant plus sécurisée pour les données sensibles

Solution innovante

Des chercheurs japonais (Université Juntendo) ont utilisé la génération augmentée par récupération d’informations (retrieval-augmented generation, RAG) pour enrichir un LLM local avec des données de référence (guidelines, protocoles).

Résultats clés

(sur 100 cas simulés de consultation sur produit de contraste) 

  • 0 % d’hallucinations (contre 8 % avec le modèle de base)

  • Réponses plus rapides (2,6 s vs 4,9–7,3 s pour les modèles cloud)

  • Jugées plus fiables par des IA évaluatrices, avec des performances proches des modèles cloud de pointe — tout en restant protégées et accessibles.

Avantages pratiques 

  • Sécurité des données renforcée (on‑premise, hors cloud)

  • Déploiement sur serveurs hospitaliers classiques

  • Bénéfique pour les hôpitaux ruraux ou aux ressources limitées

Impacts & perspectives 

Cette avancée représente une révolution potentielle dans l’IA médicale, conciliant excellence clinique, vitesse, et respect de la vie privée.

Outre la radiologie, les équipes évoquent une extension vers la médecine d’urgence, la cardiologie, la médecine interne… voire la formation médicale.

Chez Keydiag, nous suivons de près ces innovations pour mieux accompagner les radiologues dans l’optimisation de leur temps médical et la qualité du compte rendu.