Aspectos destacados:
- ChatGPT 3.5 respondió correctamente el 54,3% de las preguntas del Examen de Entrenamiento Ortopédico, lo cual corresponde a un nivel de PGY-1.
- ChatGPT 4 respondió correctamente el 76,6% de las preguntas, lo cual corresponde a un nivel de PGY-5.
ChatGPT respondió correctamente el 54,3% de las preguntas del Examen de Entrenamiento Ortopédico, un nivel que se corresponde con el de los residentes de ortopedia del primer año de postgrado, según los resultados publicados.
Investigadores de la Facultad de Medicina de la Universidad de Carolina del Sur de Prisma Health-Midlands analizaron el rendimiento de las versiones 3.5 y 4 de ChatGPT en los Exámenes de Entrenamiento Ortopédico de 2020, 2021 y 2022 sin ninguna indicación previa. Compararon el porcentaje de respuestas correctas de ChatGPT con el promedio nacional de los residentes de cirugía ortopédica en cada año de postgrado (PGY). Además, se requirió a ChatGPT que proporcionara un artículo de revista, un libro o un sitio web como fuente verificada de su respuesta.

Los datos se obtuvieron de Kung JE, et al. JBJS Open Access. 2023;doi:10.2106/JBJS.OA.23.00056. ChatGPT 3.5 respondió correctamente 196 de las 360 preguntas (54,3%), un nivel que se corresponde con el promedio de los residentes de PGY-1, y citó una fuente verificable en el 47,2% de las preguntas, con un factor de impacto medio de la revista de 5,4.
ChatGPT 4 respondió correctamente 265 de las 360 preguntas (73,6%), un nivel que coincide con el promedio de los residentes de PGY-5 y supera la puntuación de aprobación del 67% para el examen parte I del American Board of Orthopaedic Surgery. ChatGPT 4 citó una fuente verificable en el 87,9% de las preguntas, con un factor de impacto medio de la revista de 5,2.
"Debido al estándar en constante cambio establecido por la inteligencia artificial, es importante que los cirujanos ortopédicos participen en la integración de la inteligencia artificial en este campo y la guíen hacia una posición en la que pueda utilizarse para brindar una atención excelente al paciente", escribieron los investigadores en el estudio.
"ChatGPT demostró conocimientos comparables a los de los residentes de ortopedia y, con un mayor avance, podría usarse posiblemente en la educación médica ortopédica, la educación del paciente y la toma de decisiones clínicas", concluyeron.
"No pudimos procesar su solicitud. Por favor, inténtelo de nuevo más tarde. Si continúa teniendo este problema, por favor contacte a [email protected]".