Como continuación de su tarea de formación y puesta al día, Revista Española de Cardiología comienza una nueva miniserie sobre avances en métodos estadísticos1. La estadística está cada vez más presente en nuestra actividad tanto científica como clínico-práctica. En la mayoría de los artículos y las conferencias científicas, la interpretación de los hallazgos y sus aportaciones depende de una adecuada comprensión de la estadística. Por otra parte, el clínico, ante una serie de datos relacionados con un paciente, quiere saber cómo estos datos se relacionan con la situación actual del enfermo (diagnóstico) o con su futuro (pronóstico). Asimismo, la recomendación de una nueva exploración diagnóstica o tratamiento requiere que se haya demostrado estadísticamente su superioridad al comparar con las alternativas existentes.
Las técnicas estadísticas están en continuo desarrollo y se han ido incorporando nuevos métodos cada vez más utilizados en la investigación clínica. El objetivo de esta miniserie es que los cardiólogos se familiaricen con los nuevos métodos estadísticos que sustituyen o complementan la metodología estadística tradicional. A modo de resumen, los aspectos que se van a desarrollar en la miniserie se describen a continuación.
Nuevos modelos de predicción y su evaluaciónEn muchos escenarios de la investigación médica, el objetivo de interés es binario y la información se expresa como un modelo de predicción probabilística de dicho objetivo. Los parámetros más comunes para medir la precisión de un modelo son su capacidad de discriminación y su calibración2. La discriminación analiza si los pacientes que alcanzan el objetivo tienen mayor riesgo, según el modelo predictivo elaborado, que los pacientes que no lo alcanzan. Se mide mediante el estadístico C, que corresponde al área bajo la curva ROC (receiver operating characteristic) del modelo. La calibración hace referencia al grado de correspondencia entre la frecuencia de eventos predichos por el modelo y la frecuencia de eventos observada en la población. Se utiliza el test de Hosmer-Lemeshow para su valoración.
Recientemente se han introducido nuevos métodos de evaluación de los modelos3. Entre ellos se incluyen las técnicas de reclasificación del riesgo que estiman en cuántos pacientes se reclasifica su riesgo al añadir al modelo un determinado marcador. Ofrece una visión de la utilidad clínica del marcador estudiado. Los dos indicadores de la reclasificación del riesgo son el NRI (Net Reclassification Improvement) y el IDI (Integrated Discrimination Improvement)4. Otro método propuesto son las curvas de decisión (decision curves), que muestran el beneficio neto alcanzado al tomar decisiones basándonos en un determinado modelo predictivo, en un intento de cuantificar su utilidad clínica5.
PROPENSITY SCOREUna de las limitaciones de los estudios observacionales es la existencia de diferencias basales entre grupos de pacientes tratados de distinta forma que pueden influir en las diferencias encontradas al comparar los tratamientos. Para minimizar este sesgo potencial, se utiliza el propensity score, que mide la probabilidad de que un paciente se encuentre en un determinado grupo de tratamiento por sus características antes del tratamiento6. Aunque este ajuste puede hacerse introduciendo las covariables consideradas relevantes en un modelo multivariable, los modelos sólo admiten un número limitado de covariables. La principal aportación del propensity score es que se comporta como una variable única, que incluye todas las posibles covariables fuente de sesgo7.
Análisis de eventos competitivosLos estudios biomédicos suelen evaluar el efecto de una variable (p. ej., una intervención o un factor de riesgo) sobre la aparición de un evento en el tiempo. Cuando el evento considerado es la mortalidad total, las técnicas estadísticas tradicionales, como modelos de Cox o curvas de Kaplan-Meier, son adecuadas. Sin embargo, para otro tipo de eventos (p. ej., muerte cardiaca o infarto de miocardio), la presencia de eventos competitivos (p. ej., muerte no cardiaca) puede impedir que aparezca el evento de interés y, por consiguiente, alterar la estimación del riesgo. En estas situaciones se debería utilizar, en vez de los modelos estadísticos tradicionales, modelos para análisis de eventos competitivos8, 9.
MetaanálisisEl interés por los metaanálisis ha sido creciente. La posibilidad de unir los datos de varios estudios permite realizar un análisis global con mayor potencia estadística. De hecho, las conclusiones de un metaanálisis constituyen un alto nivel de evidencia en las guía de práctica clínica. Sin embargo, la interpretación de los metaanálisis puede ser problemática debido a diferentes fuentes de sesgo10, 11. La calidad de los metaanálisis es muy variable y se han descrito diferentes deficiencias cuando se analiza la metodología utilizada para hacer el metaanálisis y la calidad individual de los artículos que lo componen. Así pues, resulta fundamental el conocimiento de las técnicas de metaanálisis para realizar un juicio crítico de ellos.
Consideraciones finalesEsperamos que esta miniserie tenga una buena acogida entre los lectores de Revista Española de Cardiología . Somos conscientes de que los artículos se van a dirigir a un público no experto en metodología estadística. En este sentido, el planteamiento de los temas será comprensible y práctico. El objetivo final es que todos nos acerquemos a los nuevos métodos estadísticos para mejorar tanto nuestra capacidad de análisis crítico de los artículos científicos como nuestro trabajo como investigadores clínicos.
Full English text available from: www.revespcardiol.org
Autor para correspondencia: Revista Española de Cardiología , Sociedad Española de Cardiología, Nuestra Señora de Guadalupe 5-7, 28028 Madrid, España. rec@revespcardiol.org