Abbonarsi

Comparaison des performances des internes français de chirurgie orthopédique et de l’intelligence artificielle ChatGPT-4/4o aux examens du diplôme d’études spécialisées de chirurgie orthopédique et traumatologique - 08/01/25

Comparing performances of French orthopaedic surgery residents with the artificial intelligence ChatGPT-4/4o in the French diploma exams of orthopaedic and trauma surgery

Doi : 10.1016/j.rcot.2024.12.005 
Nabih Maraqa 1, Ramy Samargandi 2, Antoine Poichotte 3, Julien Berhouet 1, Rayane Benhenneda 1,
1 Université de Tours Centre-Val-de-Loire, hôpital Trousseau, CHRU de Tours, faculté de médecine, service de chirurgie orthopédique et traumatologique, Tours, France 
2 Faculty of medicine, University of Jeddah, Department of Orthopedic Surgery, Jeddah, Arabie saoudite 
3 Centre hospitalier Loire-Vendée-Océan, service de chirurgie orthopédique et traumatologique, Challans, France 

Rayane Benhenneda, CHRU de Tours, hôpital Trousseau, service de chirurgie orthopédique, avenue de la République, Chambray-lès-Tours, 37044 Tours cedex, France.CHRU de Tours, hôpital Trousseau, service de chirurgie orthopédiqueavenue de la République, Chambray-lès-ToursTours cedex37044France
In corso di stampa. Prove corrette dall'autore. Disponibile online dal Wednesday 08 January 2025

Résumé

Introduction

Cette étude évalue la performance de ChatGPT, notamment dans ses versions 4 et 4o, à répondre aux questions de l’examen français de chirurgie orthopédique et traumatologique (DES), en comparaison aux résultats des internes français en chirurgie orthopédique. Des recherches antérieures ont étudié les capacités de ChatGPT dans différentes spécialités médicales et examens, avec des résultats variés, en particulier pour l’interprétation d’images radiologiques complexes.

Hypothèse

ChatGPT dans sa version 4o était capable de fournir un score supérieur ou égal (on inférieur) à celui des internes pour l’examen du DES.

Matériel et méthodes

Les capacités de réponse par le modèle Chat-GPT versions -4 et -4o ont été évaluées et comparées aux résultats des internes pour 250 questions issues des épreuves du DES de 2020 à 2024. L’analyse secondaire a porté sur les différences de résultats de l’IA en fonction du type de données à analyser, texte ou images, et du thème des questions posées.

Résultats

Le score obtenu par Chat GPT-4o était équivalent à celui des internes sur les cinq dernières années : 74,8 % pour ChatGPT-4o vs 70,8 % pour les internes (p=0,32). Le taux de bonnes réponses de Chat-GPT était significativement supérieur dans sa dernière version 4o que dans sa version 4 (58,8 %, p=0,0001). L’analyse secondaire en sous-groupe mettait en évidence un défaut de performance de l’IA dans l’analyse graphique des images (taux de réussite respectivement à 48 % et 65 % pour Chat-GPT-4 et -4o). Chat-GPT 4o avait une performance supérieure à la version 4 lorsque les thèmes abordés concernaient le rachis, pédiatrie et membre inférieur.

Conclusion

La performance de ChatGPT-4o est équivalente à celle des étudiants français pour répondre aux questions du DES de chirurgie orthopédique et traumatologique. Des progrès importants ont été notés entre les versions -4 et -4o. L’analyse des questions avec iconographies est une difficulté notable pour les versions de ChatGPT actuelles, avec une tendance pour l’IA à moins bien performer que pour les questions avec analyse de texte seul.

Niveau de preuve

IV ; étude rétrospective observationnelle.

Il testo completo di questo articolo è disponibile in PDF.

Summary

Introduction

This study evaluates the performance of ChatGPT, particularly its versions 4 and 4o, in answering questions from the French orthopedic and trauma surgery exam (Diplôme d’Études Spécialisées [DES]), compared to the results of French orthopedic surgery residents. Previous research has examined ChatGPT's capabilities across various medical specialties and exams, with mixed results, especially in the interpretation of complex radiological images.

Hypothesis

ChatGPT version 4o was capable of achieving a score equal to or higher (not lower) than that of residents for the DES exam.

Methods

The response capabilities of the ChatGPT model, versions 4 and 4o, were evaluated and compared to the results of residents for 250 questions taken from the DES exams from 2020 to 2024. A secondary analysis focused on the differences in the AI's performance based on the type of data being analyzed (text or images) and the topic of the questions.

Results

The score achieved by ChatGPT-4o was equivalent to that of residents over the past five years: 74.8% for ChatGPT-4o vs. 70.8% for residents (P=0.32). The accuracy rate of ChatGPT was significantly higher in its latest version 4o compared to version 4 (58.8%, P=0.0001). Secondary subgroup analysis revealed a performance deficiency of the AI in analyzing graphical images (success rates of 48% and 65% for ChatGPT-4 and 4o, respectively). ChatGPT-4o showed superior performance to version 4 when the topics involved the spine, pediatrics, and lower limb.

Conclusion

The performance of ChatGPT-4o is equivalent to that of French students in answering questions from the DES in orthopedic and trauma surgery. Significant progress has been observed between versions 4 and 4o. The analysis of questions involving iconography remains a notable challenge for the current versions of ChatGPT, with a tendency for the AI to perform less effectively compared to questions requiring only text analysis.

Level of evidence

IV; Retrospective Observational Study.

Il testo completo di questo articolo è disponibile in PDF.

Mots clés : Intelligence artificielle, ChatGPT-4, ChatGPT-4o, Diplôme d’études spécialisées, Chirurgie orthopédique et traumatologique

Keywords : Artificial intelligence, ChatGPT-4, ChatGPT-4o, Diploma of specialized studies, Orthopedic and trauma surgery


Mappa


 Ne pas utiliser, pour citation, la référence française de cet article, mais celle de l’article original paru dans Orthopaedics & Traumatology: Surgery & Research, en utilisant le DOI ci-dessus.


© 2024  The Authors. Pubblicato da Elsevier Masson SAS. Tutti i diritti riservati.
Aggiungere alla mia biblioteca Togliere dalla mia biblioteca Stampare
Esportazione

    Citazioni Export

  • File

  • Contenuto

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.
L'accesso al testo integrale di questo articolo richiede un abbonamento.

Già abbonato a @@106933@@ rivista ?

Il mio account


Dichiarazione CNIL

EM-CONSULTE.COM è registrato presso la CNIL, dichiarazione n. 1286925.

Ai sensi della legge n. 78-17 del 6 gennaio 1978 sull'informatica, sui file e sulle libertà, Lei puo' esercitare i diritti di opposizione (art.26 della legge), di accesso (art.34 a 38 Legge), e di rettifica (art.36 della legge) per i dati che La riguardano. Lei puo' cosi chiedere che siano rettificati, compeltati, chiariti, aggiornati o cancellati i suoi dati personali inesati, incompleti, equivoci, obsoleti o la cui raccolta o di uso o di conservazione sono vietati.
Le informazioni relative ai visitatori del nostro sito, compresa la loro identità, sono confidenziali.
Il responsabile del sito si impegna sull'onore a rispettare le condizioni legali di confidenzialità applicabili in Francia e a non divulgare tali informazioni a terzi.


Tutto il contenuto di questo sito: Copyright © 2025 Elsevier, i suoi licenziatari e contributori. Tutti i diritti sono riservati. Inclusi diritti per estrazione di testo e di dati, addestramento dell’intelligenza artificiale, e tecnologie simili. Per tutto il contenuto ‘open access’ sono applicati i termini della licenza Creative Commons.