Éliminer les hallucinations des LLM en radiologie grâce au RAG
Publié le 9 avril 2025
Contexte & défi
Les modèles de langage (LLM) peuvent aider à la prise de décision clinique, notamment en radiologie, mais leur version locale manque souvent de fiabilité comparée aux solutions cloud — tout en étant plus sécurisée pour les données sensibles
Solution innovante
Des chercheurs japonais (Université Juntendo) ont utilisé la génération augmentée par récupération d’informations (retrieval-augmented generation, RAG) pour enrichir un LLM local avec des données de référence (guidelines, protocoles).
Résultats clés
(sur 100 cas simulés de consultation sur produit de contraste)
-
0 % d’hallucinations (contre 8 % avec le modèle de base)
-
Réponses plus rapides (2,6 s vs 4,9–7,3 s pour les modèles cloud)
-
Jugées plus fiables par des IA évaluatrices, avec des performances proches des modèles cloud de pointe — tout en restant protégées et accessibles.
Avantages pratiques
-
Sécurité des données renforcée (on‑premise, hors cloud)
-
Déploiement sur serveurs hospitaliers classiques
-
Bénéfique pour les hôpitaux ruraux ou aux ressources limitées
Impacts & perspectives
Cette avancée représente une révolution potentielle dans l’IA médicale, conciliant excellence clinique, vitesse, et respect de la vie privée.
Outre la radiologie, les équipes évoquent une extension vers la médecine d’urgence, la cardiologie, la médecine interne… voire la formation médicale.
Chez Keydiag, nous suivons de près ces innovations pour mieux accompagner les radiologues dans l’optimisation de leur temps médical et la qualité du compte rendu.
