La inteligencia artificial, ¿aliada en la desinformación de salud?

Debemos ser conscientes del uso de la IA que ya están realizando los propagadores de bulos de salud y estafadores profesionale

Ricardo A. Mariscal López. Responsable RRII #SaludsinBulos
Estamos ya en la recta final del 2023 y, si hubiera que nombrar a una protagonista absoluta del año creo que todos coincidiríamos en nombrar a la Inteligencia Artificial a nivel de usuario. La IA, con el ChatGPT a la cabeza, se ha convertido en un recurso accesible para todos los ciudadanos y ha revolucionado la forma de trabajar y de relacionarse de muchas empresas y profesionales.

En el sector sanitario la IA ya había llegado hace años con múltiples usos para la formación de los profesionales y en beneficio de los pacientes. No obstante, ha sido recientemente cuando la evolución de los algoritmos la ha convertido en una herramienta fácil de usar y para el día a día.

Si hubiera que nombrar a una protagonista absoluta del año creo que todos coincidiríamos en nombrar a la Inteligencia Artificial a nivel de usuario

Sin embargo, el gran avance que supone la ascensión de esta IA para todos también lleva consigo diversas amenazas. Desde que empecé a divulgar sobre cómo combatir la desinformación siempre he comentado que las nuevas tecnologías no son, intrínsecamente, ni buenas ni malas. Las redes sociales no son peligrosas per se, puede serlo el uso que hacemos de ellas. Y con la IA pasa exactamente lo mismo.

Por ello, debemos ser conscientes del uso de la IA que ya están realizando los propagadores de bulos de salud y estafadores profesionales para engañarnos de formas más sofisticadas y tomar medidas preventivas.

Peligros de la IA
La generación automática de noticias, la manipulación de imágenes y videos y la creación de perfiles falsos son algunas de las técnicas más popularizadas en los últimos meses por los propagadores de bulos que usan IA. Los “deep fakes” cada vez son más sofisticados y capaces de engañar a cualquiera: se trata de vídeos o audios donde se imitan la apariencia o sonidos de personas reales, y que se han producido utilizando IA. Con estos fakes los practicantes de pseudoterapias, negacionistas y antivacunas pueden poner en boca de personalidades reales las mayores barbaridades y tratar de desacreditar a profesionales sanitarios o instituciones o como medio para hacer ciberacoso. Estos “deep fakes” son, con frecuencia,viralizados mediante bots de desinformación.

La generación automática de noticias, la manipulación de imágenes y videos y la creación de perfiles falsos son algunas de las técnicas más popularizadas

Bots veraces, grafos y chats
Frente a estas amenazas es prioritario programar bots que generen noticias veraces de salud y lanzar chatbots para que los usuarios estén informados correctamente. Otra medida útil y que ya se ha hecho en algunos navegadoreses implementar extensiones basadas en IA que analicen y reporten contenidos falsos en tiempo real.

#SaludsinBulos ha colaborado en diversas iniciativas en este sentido, como destacar la necesidad de usar grafos y minería de datos para identificar bulos en redes sociales. Estos grafos analizan las interacciones y patrones de propagación de noticias, permitiendo detectar rápidamente contenidos falsos o manipulados.

Frente a estas amenazas es prioritario programar bots que generen noticias veraces de salud

Además, al detectar publicaciones que están en proceso de viralización, la IA puede frenar su propagación y reportarlos. Así, logra una intervención rápida para frenar la desinformación.

En suma, debemos conocer los riesgos de la IA mal utilizada y prevenirlos y ser también conscientes de su gran potencial para combatir la desinformación de salud.

Opinión

Multimedia

Economía

Accede a iSanidad

Síguenos en