Un estudio publicado en JAMA sitúa las respuestas de ChatGPT por encima de la de los médicos

Los profesionales  evaluaron cada pregunta y las respuestas correspondientes, sin saber si la respuesta procedía de un médico o de ChatGPT

Redacción
Las oportunidades de mejorar la asistencia sanitaria con IA son enormes. La atención aumentada por IA es el futuro de la medicina“. Asi se expresa el Dr. John W. Ayers, del Instituto Qualcomm de la Universidad de California en San Diego. Ayers es autor de un estudio publicado en la revista JAMA que compara las respuestas escritas de los médicos con las de ChatGPT. Es un estudio con preguntas sobre salud del mundo real. El estudio quería identificar quien respondía con mayor precisión y empatía a las preguntas que los pacientes. La hipótesis era la posibilidad de integrar los modelos de IA en los sistemas sanitarios para mejorar las respuestas y aliviar la carga soportada por los médicos.

ChatGPT podría ser capaz de aprobar un examen para obtener la licencia médica“, aseguró el Dr. Davey Smith, coautor del estudio médico-científico. Sin embargo, afirmó que “responder directamente a las preguntas de los pacientes con precisión y empatía es harina de otro costal“.

“Responder directamente a las preguntas de los pacientes con precisión y empatía es harina de otro costal”

Un grupo de médicos prefirió las respuestas de ChatGPT en el 79% de los casos. Los profesionales  evaluaron cada pregunta y las respuestas correspondientes, sin saber si la respuesta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían. “Los mensajes de ChatGPT respondían con información matizada y precisa. A menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos“, indica Jessica Kelley, enfermera y coautora del estudio.

Además, la calidad de las respuestas de ChatGPT fue significativamente superior a la de las respuestas de los médicos: las respuestas de calidad buena o muy buena fueron 3,6 veces superiores para ChatGPT que para los médicos (médicos 22,1% frente a ChatGPT 78,5%). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces superiores para ChatGPT que para los médicos (médicos 4,6% frente a ChatGPT 45,1%).

La calidad de las respuestas de ChatGPT fue significativamente superior a la de las respuestas de los médicos

Aunque nuestro estudio enfrentó a ChatGPT con los médicos, la solución definitiva no es echar a su médico por completo. En su lugar, un médico que aproveche ChatGPT es la respuesta para una atención mejor y más empática“. Así de expresa  el Dr. Adam Poliak, coautor del estudio.

Opinión

Multimedia

Especiales

Atención primaria

Sanidad privada

iSanidadental

Anuario

Accede a iSanidad

Síguenos en