La Inteligencia Artificial aplicada a la salud multiplica los riesgos de desinformación

Los rostros generados por IA son indistinguibles de los reales y más confiables

Redacción
La Inteligencia Artificial (IA) multiplica los riesgos de la desinformación en salud con vídeos, fotos, audios y textos que parecen verdaderos sin serlo. Así lo detectado un análisis del Instituto #SaludsinBulos y la Red de Alfabetización para la Salud. Ambas organizaciones impulsarán la colaboración entre expertos en IA, comunicación en salud y profesionales sanitarios para identificar la desinformación en salud. Aprovecharán las nuevas tecnologías para concienciar sobre el pensamiento crítico en salud, a través del primer hub de Inteligencia Artificial en Salud.

La Inteligencia Artificial (IA) multiplica los riesgos de la desinformación en salud con vídeos, fotos, audios y textos que parecen verdaderos sin serlo

Hay un reciente estudio dirigido por la Universidad de Lancaster (Reino Unido) sobre la validez de la IA. Demostró que con IA, “el texto, el audio, la imagen y el video sintetizados se están utilizando como armas para lograr imágenes íntimas no consensuadas, fraude financiero y campañas de desinformación”. En su análisis descubrieron que los rostros sintetizados por IA “son indistinguibles, y más confiables, que los rostros reales”. Cada vez hay más propuestas de sistemas de análisis de estos vídeos, audios e imágenes que parecen reales (deepfakes). Sin embargo, un trabajo anterior publicado en Frontiers in Big Data advierte que “los investigadores demuestran que los métodos de generación de deepfakes son más potentes y de desarrollo más rápido que los métodos de prevención, mitigación y detección”.

Otros estudios señalan que tecnologías basadas en Inteligencia Artificial, como ChatGPT, tienen riesgos porque pueden incluir falsedades. Sin embargo, también ayuda a los científicos a hacer diagnósticos más precisos, elegir mejores tratamientos y preparar investigaciones en salud. Así, una reciente investigación del Instituto de Investigación Biosanitaria de la Universidad de Granada advierte del impacto que esta tecnología puede tener en la publicación de estudios con falsedades. “Al usar ChatGPT en la escritura científica, queremos resaltar que, si los artículos no se revisan adecuadamente, existe un alto riesgo de presentar información incorrecta y referencias inexistentes”, indican los autores, ya que crea textos que parecen consistentes, aunque no lo sean. Además, destacan, “una vez que un artículo ha sido enviado a una revista, los editores y revisores no tendrán tiempo para verificar su exactitud frase por frase, referencia por referencia. Esperamos sinceramente que ChatGPT (y otros LLM similares) no se conviertan en una herramienta de desinformación“.

Entre los riesgos de la Inteligencia Artificial están las referencias a artículos científicos asistidos con referencias inexistentes

Estrategia nacional de información fiable en salud
La Red de Alfabetización en Salud está formada por hospitales y universidades de toda España, y el Instituto #SaludsinBulos. En total colaboran cerca de 70 organizaciones científicas. Esta red ha elaborado una serie de recomendaciones para ayudar a identificar la desinformación en salud. Entre ellas figura crear una estrategia nacional de información fiable en salud. En ella pueden participar representantes de asociaciones de pacientes, sociedades científicas, colegios profesionales, divulgadores sanitarios y organizaciones dedicadas a la alfabetización en salud y a la lucha contra la desinformación en salud. En esa estrategia “ocupan un lugar clave las campañas de concienciación y educación a la población, especialmente a pacientes y personas vulnerables”. Así lo explica Eulalia Hernández, coordinadora de la Red de Alfabetización en Salud.

Cerca de 70 organizaciones científicas colaboran con la Red de Alfabetización en Salud

Los estafadores de la salud, quienes buscan engañar con afirmaciones falsas sobre salud, lo tienen ahora muy fácil para crear y viralizar imágenes y vídeos de supuestas pruebas de las bondades de productos y servicios falsos, incluso con doctores creados por ordenador o verdaderos que nunca han dicho lo que se les atribuye. También los conspiranoicos. Ya no tendrán que basarse solo en el texto para decir que las vacunas tienen microchips o metales, podrán crear vídeos realistas que lo muestren, aunque sea inventado”. Así lo advierte Carlos Mateos, coordinador del Instituto #SaludsinBulos.

Opinión

Multimedia

Especiales

Atención primaria

Sanidad privada

iSanidadental

Anuario

Accede a iSanidad

Síguenos en