Les Printemps de la Médecine Interne : l’intelligence artificielle face aux experts internistes - 11/07/24
The spring of artificial intelligence: AI vs. expert for internal medicine cases
Résumé |
Introduction |
Les Printemps de la Médecine Interne sont des journées de formations pour les internistes francophones. Les cas cliniques présentés à ces journées sont complexes. Cette étude vise à évaluer les capacités diagnostiques des intelligences artificielles non spécialisées (modèles de langage) ChatGPT-4 et Bard en les confrontant aux énigmes des Printemps de la Médecine Interne.
Méthode |
Les cas cliniques des Printemps de la Médecine Interne 2021 et 2022 ont été soumis à deux modèles de langage : ChatGPT-4 et Bard. En cas de mauvaise réponse, une seconde tentative était offerte. Nous avons ensuite comparé les réponses des experts internistes humains à celles des intelligences artificielles.
Résultats |
Sur les 12 cas cliniques soumis, les experts internistes ont trouvé neuf diagnostics, ChatGPT-4 trois et Bard un. Un des cas résolus par ChatGPT-4 n’a pas été résolu par l’expert interniste. Les intelligences artificielles avaient un temps de réponse de quelques secondes.
Conclusions |
À l’heure actuelle, les compétences diagnostiques de ChatGPT-4 et Bard sont inférieures à celles d’experts humains pour la résolution de cas cliniques complexes mais sont très prometteuses. Accessibles au grand public depuis peu, elles ont déjà des capacités impressionnantes, interrogeant le rôle du médecin diagnosticien. Il faudrait envisager d’adapter les règles ou les sujets des futurs Printemps de la Médecine Interne afin qu’ils ne soient pas résolus par un modèle de langage grand public.
Le texte complet de cet article est disponible en PDF.Abstract |
Introduction |
The “Printemps de la Médecine Interne” are training days for Francophone internists. The clinical cases presented during these days are complex. This study aims to evaluate the diagnostic capabilities of non-specialized artificial intelligence (language models) ChatGPT-4 and Bard by confronting them with the puzzles of the “Printemps de la Médecine Interne”.
Method |
Clinical cases from the “Printemps de la Médecine Interne” 2021 and 2022 were submitted to two language models: ChatGPT-4 and Bard. In case of a wrong answer, a second attempt was offered. We then compared the responses of human internist experts to those of artificial intelligence.
Results |
Of the 12 clinical cases submitted, human internist experts diagnosed nine, ChatGPT-4 diagnosed three, and Bard diagnosed one. One of the cases solved by ChatGPT-4 was not solved by the internist expert. The artificial intelligence had a response time of a few seconds.
Conclusions |
Currently, the diagnostic skills of ChatGPT-4 and Bard are inferior to those of human experts in solving complex clinical cases but are very promising. Recently made available to the general public, they already have impressive capabilities, questioning the role of the diagnostic physician. It would be advisable to adapt the rules or subjects of future “Printemps de la Médecine Interne” so that they are not solved by a public language model.
Le texte complet de cet article est disponible en PDF.Mots clés : Intelligence artificielle, Diagnostic, ChatGPT, Bard
Keywords : Artificial intelligence, ChatGPT, Bard, Case report, Diagnostic
Plan
Vol 45 - N° 7
P. 409-414 - juillet 2024 Retour au numéroBienvenue sur EM-consulte, la référence des professionnels de santé.
L’accès au texte intégral de cet article nécessite un abonnement.
Déjà abonné à cette revue ?