Juan León García
El caso de rofecoxib (Vioxx) encaja perfectamente en cómo una mala evidencia clínica, intencionada o no, puede condicionar tanto la práctica de los profesionales como la salud de los pacientes. Este medicamento, aprobado en 1999 por la FDA, llegó a ser utilizado por 84 millones de personas en 80 países. Un año después, el ensayo Vigor concluía que la administración de este fármaco reducía a la mitad los eventos gastrointestinales respecto a la terapia con naproxeno, pero a su vez aumentaba en tres décimas porcentuales los infartos de miocardio (0,4% con rofecoxib frente a 0,1% naproxeno).
Faltaban casos que advirtiesen de este efecto adverso grave. Se habían ocultado. Las conclusiones estaban distorsionadas y llevó años a la FDA exigir las advertencias cardiovasculares tras comprobarse que, en estudios posteriores, el riesgo de sufrir un infarto en pacientes con tratamiento de rofecoxib era 2,3 veces mayor. Finalmente, en 2004, se retiró este medicamento del mercado. Las consecuencias: entre 89.000 y 139.000 afectados por eventos cardíacos (de los cuales, 88.000 infartos) y, para el laboratorio, un total de 5.800 millones de dólares en indemnizaciones y multas.
“Aunque fuese puntual, el fraude ya sería importante. Pero además tiene una cierta relevancia científica”
Este caso paradigmático es la muestra de que “el fraude genera evidencia falsa que puede influir en la práctica médica”, advierte el Dr. Jesús Martín Fernández, especialista en medicina familiar y comunitaria en la UDM Atención Familiar y comunitaria Oeste (Madrid), durante su ponencia como parte de una sesión dedicada a formar a los especialistas de medicina familiar y comunitaria en aquellos sesgos, fraudes y heurísticos que se impartió durante el XLV Congreso de la Sociedad Española de Medicina Familiar y Comunitaria (Semfyc) que se celebró del 13 al 15 de noviembre en Madrid.
“Aunque fuese puntual”, reitera el Dr. Martín, “el fraude ya sería importante. Pero además tiene una cierta relevancia científica”. De hecho, detalla que hasta un 20% de los científicos encuestados en diversos sondeos reporta conocer o sospechar mala conducta. Mientras que en nuestro país la causa de fraude más frecuente tiene que ver con la duplicación de los textos. En esta relación de hechos, una revisión sistemática de los ensayos clínicos aprobados por la FDA entre 1998 y 2013 determinó que, del total, 57 de ellos presentaban evidencias de mala conducta. “Esto es muy grave”, sentencia el especialista.
“Diferencias estadísticamente significativas”
La evidencia clínica que se registra no solo adolece de posibles malas conductas en su praxis, sino también de lugares comunes en una metodología que quizá debiera ser revisada, como demuestra la Dra. Elena Polentinos Castro, especialista en medicina familiar y comunitaria y en medicina preventiva y salud pública. Ahí están los sesgos demográficos, los informativos (cuando se dan errores sistemáticos a la hora de recopilar la información) o los tamaños muestrales. “Suelen ser suposiciones que se basan en estudios previos”, dice respecto a esta última variable.
Aunque este tamaño muestral se calcula para la hipótesis principal, “puede sobredimensionar o infradimensionar los resultados secundarios”. Como explica la Dra. Polentinos, estudios con muestras grandes hacen que aquellas “pequeñas o correlaciones triviales” resulten estadísticamente significativas. Pero es que además las conclusiones de un ensayo con una muestra grande “pueden convertirse en convicciones irreversibles”. “Debemos tener la mente abierta a nuevos datos de estudios menos grandes, pero a lo mejor metodológicamente mejor hechos”, recomienda la especialista.
De la misma manera, hay otra variable a la que prestar atención: ‘p’, que determina la relevancia o irrelevancia clínica, “uno de los sesgos más importantes”, asegura.
Sobre la IA en investigación: “Si los datos que se aportan a la IA tienen problemas, la herramienta aprende de ellos y amplifica errores”
Al igual que apunta hacia el uso de inteligencia artificial (IA) en el desarrollo de investigaciones clínicas. Estas herramientas se nutren de datos de ensayos realizados previamente, con sus sesgos y sus errores muestrales.
“Se dan sesgos en cuanto a inexactitud de citaciones, y hace que no acudamos tanto a las fuentes primarias. Si los datos que se aportan a la IA tienen problemas, la herramienta aprende de ellos y amplifica errores. A gran escala, las creencias erróneas dan lugar a sistemas incorrectos en los que se pueden basar las herramientas de IA”, resume la Dra. Polentinos.
Dedica también un apartado a destacar la “distorsión” que se produce por el descarte de aquellos estudios “negativos o nulos”. No se publican y difuminan la eficacia de las intervenciones, “lo que puede derivar en conclusiones erróneas y prácticas clínicas basadas en evidencia incompleta”.
Formación para una mejor evidencia
Por todo lo anterior, ambos expertos apuestan por potenciar, como en esta sesión, la formación de los profesionales con el fin de detectar esas malas praxis y potenciar la búsqueda de una evidencia de calidad para conseguir los mejores resultados después en su práctica clínica.
En este sentido, el Dr. Martín Fernández pone como ejemplo trabajos como el del Dr. John B. Carlisle, que entre sus investigaciones ha calificado este tipo de estudios como “zombis” por la incoherencia que fue encontrando por la atribución de “patrones estadísticamente imposibles” en las muestras poblacionales.
No solo se trata de visibilizar la labor de desmontar evidencia falsa o mal construida, sino sobre todo de que los especialistas de medicina familiar y comunitaria, en este caso, sigan formándose “tanto en aspectos metodológicos como profesionales y de valores”, potenciar la cooperación entre clínicos e investigadores, el pensamiento crítico y, en definitiva, “reducir la incertidumbre”.










