Una revisión científica arroja luz sobre el papel de la IA generativa en la práctica clínica

Investigadores de la Universidad de Stanford detallan en su trabajo posibles usos y dificultades de los modelos de lenguaje de gran tamaño, como podría ser la herramienta ChatGPT

Redacción
¿Cómo se podría usar ChatGPT en la práctica clínica diaria? Una revisión narrativa realizada por investigadores de la Universidad de Stanford (Estados Unidos) ha tratado de arrojar más luz sobre este hipotético horizonte. El trabajo, publicado en Annals of Internal Medicine y recogido por Europa Press, aporta información importante para los profesionales médicos que se plantean usar modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés).

El más conocido con estas características es ChatGPT. Para que sirva como orientación, el texto recoge posibles sugerencias de uso y, también, dificultades con las estrategias de mitigación.

En este sentido, los modelos de lenguaje de gran tamaño (dentro de los que se puede incluir a la IA generativa), tendrían multiplicidad de usos. Entre ellos, las tareas administrativas, como resumir notas médicas y documentación de ayuda; las formativas, como ayuda para el aumento de conocimientos, resolución de dudas diagnósticas o preguntas sobre manejo médico.

El texto recoge posibles sugerencias de uso y, también, dificultades con las estrategias de mitigación

Pero también se abordan otras dimensiones como la educativa, donde la IA generativa podría contribuir a la redacción de cartas de recomendación y resúmenes de texto a nivel de estudiante. Asimismo, en el ámbito de la investigación, estos modelos de lenguaje de gran tamaño tienen cabida en la investigación, como para la generación de ideas y la redacción de borradores para subvenciones.

Obstáculos

También se identifican posibles obstáculos, para lo que los autores advierten de la importancia de tomar precauciones. Al ser una investigación realizada en los EEUU, se habla de la falta de cumplimiento de Hipaa (relativa a la conservación del seguro médico por parte del trabajador y su familia en situaciones de desempleo o cambio de trabajo).

Para “mitigar” dichos riesgos, los autores sugieren controles y equilibrios que dependerán de supervisión humana

Asimismo, se podrían dar sesgos inherentes, falta de personalización y posibles preocupaciones éticas relacionadas con la generación de texto. En cualquier caso, para “mitigar” dichos riesgos, los autores sugieren controles y equilibrios que dependerán de supervisión humana. Además, dichas herramientas basadas en IA se deberían utilizar para aumentar las tareas laborales en lugar de reemplazarlas.

Según los autores, los médicos y otros profesionales de la salud deben sopesar las oportunidades potenciales con estas limitaciones existentes mientras buscan incorporar los LLM en su práctica de la medicina.

Opinión

Multimedia

Economía

Accede a iSanidad

Síguenos en