ChatGPT, l’intelligence artificielle développée pour interagir en langage naturel, a des performances impressionnantes. Cependant, une nouvelle étude publiée dans la revue Plos One révèle ses limites dans le domaine médical.
Confronté à 150 cas médicaux, ChatGPT n’a réussi à poser le bon diagnostic que dans moins de la moitié des cas. Les résultats de cette étude mettent en lumière une réalité inquiétante : ChatGPT n’est pas encore un outil de diagnostic fiable.
L’étude en question a testé ChatGPT avec des cas tirés de Medscape, une plateforme en ligne destinée aux professionnels de la santé. Les cas choisis avaient déjà été diagnostiqués avec précision par des médecins humains. Malgré cela, ChatGPT a échoué dans 51 % des cas. Ce qui soulève des questions importantes sur l’utilisation de l’IA dans le secteur de la santé. L’IA, bien que prometteuse, montre des failles qui la rendent imprévisible dans un contexte aussi critique que la médecine.
Les chercheurs mettent en garde contre la tentation de trop se reposer sur des outils comme ChatGPT pour des conseils médicaux. « Ils ne devraient pas encore remplacer votre médecin. », affirme Amrit Kirpalani, co-auteur de l’étude. Par conséquent, un tel outil pourrait induire les patients en erreur, surtout ceux qui sont désespérés ou confus face à un problème de santé. L’illusion de recevoir un diagnostic personnalisé pourrait s’avérer dangereuse.
Dans l’expérience menée, ChatGPT a été confronté à des cas médicaux complexes avec accès aux antécédents des patients, résultats d’examens physiques, de laboratoire et d’imagerie. Malgré ces informations, le chatbot n’a réussi à donner une réponse correcte que dans 49 % des cas. Pire encore, il n’a produit des réponses « complètes et pertinentes » que dans 52 % des situations. Si l’on devait le noter comme un étudiant en médecine, ChatGPT obtiendrait un F catégorique.
Des progrès nécessaires avant une utilisation clinique
ChatGPT a montré une certaine compétence pour éliminer les mauvaises options dans les questions à choix multiples avec un score global de 74 %. Malgré ces résultats, ce n’est pas suffisant pour l’utiliser comme un outil médical fiable. L’IA montre des lacunes majeures, notamment son incapacité à interpréter correctement les valeurs numériques et les images médicales. De plus, elle peut « halluciner » en produisant des réponses incohérentes ou en ignorant des informations clés.
Malgré ces failles, les chercheurs reconnaissent que l’IA pourrait avoir un rôle à jouer dans le futur de la médecine. ChatGPT pourrait servir d’outil pédagogique pour former les médecins stagiaires ou même d’assistant pour les praticiens expérimentés.
Toutefois, la décision finale dans un contexte clinique doit toujours revenir aux médecins humains. L’IA bien prometteuse. Par contre, elle ne peut pas encore se substituer à l’expertise et au jugement des professionnels de santé.
En somme, ChatGPT, malgré ses prouesses dans d’autres domaines, montre des limites claires en tant qu’outil médical. Il est essentiel de ne pas surestimer ses capacités et de comprendre qu’il est encore loin de pouvoir remplacer un médecin. La prudence est de mise et le recours à l’IA dans le domaine de la santé doit être encadré et supervisé par des professionnels qualifiés. Pour l’instant, ChatGPT reste un outil complémentaire et non une solution autonome.
- Partager l'article :