La OMS pide “cautela” en el uso de herramientas de inteligencia artificial como ChatGPT en sanidad

El organismo sanitario internacional insiste en la necesidad de que estas herramientas se utilicen de forma «segura, eficaz y ética»

OMS-cautela-ChatGPT
Foto: Eduardo Parra -Europa Press

Redacción
La Organización Mundial de la Salud (OMS) ha pedido que se actúe con “cautela” en el uso de herramientas de inteligencia artificial (IA) como ChatGPT en el ámbito sanitario y que se “examinen cuidadosamente” cuáles pueden ser sus riesgos en esta materia. “Aunque la OMS está entusiasmada con el uso adecuado de las tecnologías para apoyar a los profesionales sanitarios, los pacientes, los investigadores y los científicos, preocupa que la cautela que normalmente se ejercería con cualquier tecnología nueva no se esté ejerciendo de forma coherente con estas herramientas de IA”.

En este contexto, alertan de que la adopción precipitada” de estos sistemas de IA “podría dar lugar a errores por parte del personal sanitario, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de estas tecnologías en todo el mundo”.

Por ejemplo, el organismo sanitario internacional de Naciones Unidas señala que los datos utilizados para entrenar la IApueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión”. Asimismo, indican que las respuestas de ChatGPT “pueden ser completamente incorrectas o contener errores graves, especialmente en el caso de las respuestas relacionadas con la salud”.

La OMS alerta de que la “adopción precipitada” de estos sistemas de IA “podría dar lugar a errores por parte del personal sanitario”

Asimismo, indican que estas herramientas de IA “pueden no proteger los datos sensibles (incluidos los datos sanitarios) que un usuario proporciona para generar una respuesta”. Por último, la OMS señala que “pueden utilizarse indebidamente para generar y difundir desinformación muy convincente en forma de contenidos de texto, audio o vídeo que el público difícilmente puede diferenciar de contenidos sanitarios fiables”.

En definitiva, insisten en la necesidad de que estas herramientas se utilicen de forma “segura, eficaz y ética». Por ello, piden a los responsables políticos que “garanticen la seguridad y la protección de los pacientes”.

Opinión

Multimedia

Economía

Accede a iSanidad

Síguenos en