La inteligencia artificial avanza en medicina, pero arrastra sesgos que deben identificarse y corregirse

La IA aplicada al diagnóstico del cáncer aprende patrones invisibles para los patólogos humanos, pero no siempre de forma equitativa

inteligencia-artificial-medicina-sesgos

Redacción
El uso de inteligencia artificial (IA) está adquiriendo cada vez un mayor protagonismo en el diagnóstico médico, mostrando su potencial para ayudar a aumentar la precisión, reducir tiempos y aliviar la carga de trabajo de los profesionales sanitarios. Sin embargo, a medida que estos sistemas se integran en la práctica clínica, crece también la preocupación por los sesgos que pueden incorporar de forma inadvertida y que, lejos de ser neutros, pueden amplificar desigualdades ya existentes entre distintos grupos de pacientes.

Investigaciones recientes muestran que algunos modelos de IA no solo analizan imágenes médicas para detectar enfermedades, sino que también pueden inferir información demográfica, como el sexo, la edad o la raza, a partir de datos que, en teoría, deberían ser anónimos. Esta capacidad puede plantear riesgos, especialmente cuando esos patrones influyen en la precisión de los diagnósticos y en la toma de decisiones clínicas.

Un ejemplo claro de este problema lo ofrece un estudio liderado por la Facultad de Medicina de Harvard (Estados Unidos), publicado en Cell Reports Medicine, centrado en modelos de IA aplicados a la anatomía patológica. Tradicionalmente, los patólogos humanos analizan cortes de tejido sin conocer datos personales del paciente, basándose únicamente en las características visibles de la muestra. Sin embargo, los investigadores descubrieron que varios modelos de IA eran capaces de extraer señales demográficas ocultas de las diapositivas y utilizarlas, de forma indirecta, para emitir diagnósticos.

El análisis de cuatro modelos estándar, entrenados con miles de muestras de 20 tipos de cáncer, reveló un rendimiento desigual según la raza, el sexo y la edad declarados por los pacientes. Por ejemplo, los sistemas mostraban más dificultades para diferenciar subtipos de cáncer de pulmón en hombres afroamericanos o para identificar ciertos cánceres de mama en pacientes más jóvenes. Estas disparidades afectaban a cerca del 29% de las tareas diagnósticas evaluadas.

Según los autores, el problema no se limita a una falta de datos representativos en el entrenamiento. En algunos casos, incluso con tamaños de muestra similares, los modelos seguían mostrando peores resultados en determinados grupos. Esto se debe, en parte, a que algunos cánceres son más frecuentes en ciertas poblaciones, lo que lleva a la IA a apoyarse en patrones demográficos en lugar de centrarse exclusivamente en la biología de la enfermedad. Además, los sistemas pueden detectar diferencias moleculares sutiles invisibles al ojo humano, reforzando aún más estos sesgos.

Para mitigar este problema, el equipo desarrolló un marco denominado FAIR-Path, que permite entrenar los modelos para priorizar las señales relevantes para el diagnóstico y minimizar la influencia de factores demográficos. Al aplicarlo, las disparidades se redujeron en torno a un 88%, lo que demuestra que el sesgo no es inevitable, pero sí requiere un diseño consciente y específico.

Un segundo avance tecnológico, aparentemente ajeno al problema del sesgo, ilustra por qué estas cuestiones son cruciales. Investigadores de la Universidad Johns Hopkins han desarrollado una nueva técnica de ultrasonido que mejora de forma notable la diferenciación entre masas mamarias líquidas benignas y masas sólidas potencialmente cancerosas. En un estudio con 132 pacientes, los radiólogos lograron identificar correctamente las masas el 96% de las veces, frente al 67% con la ecografía convencional.

Este avance resulta especialmente relevante para mujeres con tejido mamario denso, un grupo en el que las pruebas tradicionales suelen ser menos concluyentes y generan más falsos positivos, biopsias innecesarias y ansiedad. La nueva tecnología no cambia la captura de los ultrasonidos, sino el procesamiento de la señal, ofreciendo imágenes más claras y una puntuación numérica que facilita la toma de decisiones clínicas.

No obstante, los propios investigadores señalan que la combinación de este sistema con inteligencia artificial será el siguiente paso. Y es aquí donde surge la pregunta clave: ¿se entrenarán estos futuros modelos con datos suficientemente diversos para garantizar que la mejora diagnóstica beneficie por igual a todas las pacientes? La experiencia con otros sistemas de IA médica sugiere que, sin una atención específica a la equidad, incluso las tecnologías más prometedoras pueden reproducir desigualdades.

En conjunto, estos estudios reflejan una realidad cada vez más evidente: la inteligencia artificial no es inherentemente objetiva. Sus decisiones dependen de los datos con los que se entrena y de las prioridades que se fijan en su diseño. En medicina, donde un diagnóstico puede cambiar el curso de una vida, identificar y corregir los sesgos de la IA es una cuestión crucial.

Podcast

Podcast

Especiales

Atención primaria

Sanidad privada

iSanidadental

Anuario

Accede a iSanidad

Buscar
Síguenos en