La capacidad de pensamiento crítico en los futuros médicos, en peligro por la dependencia de la IA generativa

Un grupo de expertos publica un editorial en BMJ alertando de los peligros que integra la inteligencia artificial, como sesgos, inequidad de los datos existentes o aparición de alucinaciones

Inteligencia artificial riesgos médicos

Redacción
Una editorial publicado por un grupo de expertos de la Universidad de Missouri (EEUU) revela que el creciente potencial de dependencia excesiva al uso de la IA generativa puede provocar un riesgo de erosionar las capacidades de pensamiento crítico de los estudiantes de medicina y los médicos en formación. Asimismo, el documento señala que el uso de esta tecnología refuerza el sesgo y la inequidad de los datos existentes.

Entre los problemas que pueden surgir a las recientes y nuevas generaciones de médicos, están el sesgo de automatización, que genera una confianza acrítica en la información automatizada después de un uso prolongado; una descarga cognitiva y externalización del razonamiento al trasladar la recuperación, o evaluación y síntesis de información a la IA. Todo ello debilita el pensamiento crítico y la retención de la memoria. Otra de las preocupaciones es la descualificación o el debilitamiento de las habilidades, especialmente importante para los estudiantes de medicina o los recién graduados, quienes están aprendiendo la habilidad y carecen de la experiencia para investigar los consejos de la inteligencia artificial.

La dependencia excesiva a la IA generativa podría minar las capacidades de pensamiento crítico de los estudiantes de medicina y médicos recién graduados

Publicado en la revista BMJ Evidence Based Medicine, el editorial también aborda otros inconvenientes como el refuerzo de los sesgos o la inequidad de los datos existentes; la aparición de alucinaciones en forma de información fluida y plausible, pero inexacta; o violaciones de la privacidad, la seguridad y la gobernanza de datos. Con la finalidad de mitigar los peligros de la tecnología, los autores instan a los educadores médicos a ejercer vigilancia, así como ajustar los planes de estudio y la capacitación. Además, sugieren varios cambios para ayudar a minimizar estos riesgos, incluida la calificación del proceso, en lugar de solo el producto final en las evaluaciones educativas, asumiendo que los estudiantes habrán utilizado IA.

Por todo ello, consideran necesario diseñar evaluaciones de habilidades críticas que excluyan la IA, utilizando estaciones supervisadas o exámenes en persona (especialmente importantes para la comunicación junto a la cama del paciente, el examen físico, el trabajo en equipo y el juicio profesional), proponen los autores. Los médicos en formación deben comprender los principios y conceptos que sustentan las fortalezas y debilidades de la IA, así como dónde y cómo se pueden incorporar de forma útil las herramientas de IA en los flujos de trabajo clínicos y las vías de atención. Además, enfatizan que deben saber cómo evaluar el rendimiento previsto y los posibles sesgos a lo largo del tiempo.

Los reguladores, las sociedades profesionales y las asociaciones educativas de todo el mundo también deben desempeñar su papel, produciendo y actualizando periódicamente orientaciones sobre el impacto de la IA en la educación médica, instan los autores.

Podcast

Podcast

Especiales

Atención primaria

Sanidad privada

iSanidadental

Anuario

Accede a iSanidad

Buscar
Síguenos en