Redacción
Es necesario evaluar las herramientas de inteligencia artificial antes de adoptarlas, ya que esto puede evitar errores de diagnóstico y tratamiento. Así lo han advertido expertos en salud digital y gestión sanitaria reunidos en el simposio Health Data Talent, organizado por el Campus Health Tech de ENIIT en el Recinto Modernista de Sant Pau.
Los expertos en salud digital han advertido de los sesgos de la inteligencia artificial en la toma de decisiones si no consideran aspectos como la raza, género o edad
“Lo más importante de la IA es la evaluación. Antes de implementarse deben evaluarse sus datos, ya que no es lo mismo una cohorte de una población que de otra”, afirma Joan Guanyabens, director de la Fundación TIC Salut Social, la organización encargada de salud digital en la Generalitat de Catalunya. el Consejo y el Parlamento Europeo alcanzaron en diciembre un acuerdo provisional sobre el que es el primer reglamento de IA del mundo. Así, se indicaba que se deben evitar “los sesgos que afecten negativamente a las personas” y se establecía que antes de introducirse un sistema es necesario evaluar su impacto.
Un estudio publicado el pasado mes de enero en Lancet Digital Health concluyó que “GPT-4 no modelaba adecuadamente la diversidad demográfica de las afecciones médicas” y creaba “diagnósticos que estereotipan ciertas razas, etnias y géneros”. Otro trabajo publicado en Journal of Electrocardiology demostró que si bien la IA “tiene el potencial de mejorar significativamente la precisión, la accesibilidad y la eficacia en el tratamiento cardiovascular”, al aplicarla en los eletrocardiogramas (ECG) presenta riesgos si los datos de los que parte están sesgados. Para los autores, “el rendimiento de un modelo se ve afectado cuando los diversos grupos demográficos no están representados adecuadamente”, en cuanto a edad, género y raza.
Ana Ripoll: “¿Quién asume la responsabilidad si algo falla? Si los datos son de baja calidad los resultados también lo serán”
Pol Solà, fundador de la empresa de evaluación de IA Vincer, subraya que los sistemas de IA, con el nuevo reglamento europeo, deben probarse con “poblaciones representativas de quienes los vayan a utilizar, algo que no han demostrado la gran mayoría”. A su juicio “hasta ahora eran una caja negra de la que no se sabía cómo llegaba a sus conclusiones, lo que supone un riesgo para los pacientes”. Por su parte, Ana Ripoll, presidenta de Bioinformatics Barcelona, destaca que “existe un peligro de los algoritmos sesgados ya que inducen a decisiones clínicas. ¿Quién asume la responsabilidad si algo falla? Si los datos son de baja calidad los resultados también lo serán”.
Para fomentar el uso de buenas prácticas en IA en salud, desde la Asociación de Innovadores en eSalud (AIES), se ha desarrollado un código ético, al que se han unido las tres sociedades científicas de atención primaria (Semergen, semFYC y SEMG), la sociedad española de radiología (Seram) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (Faecap). Uno de los puntos clave es la desinformación en salud. Para Carlos Mateos, vicepresidente de AIES y coordinador del Instituto #SaludsinBulos, “tanto los desarrolladores como los usuarios de IA debemos contemplar mecanismos de defensa frente a la desinformación en salud, que ya puede adoptar formas indistinguibles de la información veraz, falsificando imágenes y datos”.
Investigación y formación de profesionales
En el ámbito de la investigación con IA, el director de la Fundación TIC Salut Social destaca que un avance es el uso de datos federados y sintéticos, un sistema que permite compartir con diferentes centros sanitarios información generada a partir de los datos, pero no los datos en sí mismos, que no salen del centro. “Es una solución muy interesante porque los datos están muy protegidos, cada centro tiene los suyos, pero puede compartir información anonimizada, y eso permite realizar investigaciones multicéntricas con muchos participantes”, precisa.
La federación de datos permite que los hospitales puedan participar en grandes investigaciones multicéntricas sin tener que compartirlos
Otro reto sobre los datos de salud es el de su autorización por los ciudadanos. Joan Guanyabens considera que “hay que aprovechar las técnicas de autorización por blockchain para garantizar que se usen para lo que han sido autorizados”. En este sentido, Anna Ripoll apunta que “cada persona genera datos biomédicos que podrían rellenar 300 millones de libros”. Esos datos ayudarán a que “todos tengamos un gemelo digital, una réplica digital de nosotros mismos en la que se podrá probar cómo va a funcionar un tratamiento. Ya existen copias digitales del corazón, célula a célula”.
Ante estos avances y desafíos de la IA, tanto Joan Guanyabens como Ana Ripoll coinciden en subrayar que “faltan profesionales sanitarios formados”. Además, Ripoll asegura que se necesita que esos profesionales sanitarios colaboren con otros expertos en el manejo de datos para aprovechar el potencial que ofrece la IA.