Factores de confusión simples

RESUMEN: No se deben ajustar todas las covariables de las variables de tratamiento y resultado en un estudio observacional. Por defecto, uno debería dudar de los estudios que se ajustan ciegamente para muchos factores de confusión sin justificar su elección por motivos causales.

DESCARGO DE RESPONSABILIDAD: Mi conocimiento de la inferencia causal es lo suficientemente limitado como para estar diciendo cosas que están muy mal. ¡Ponte en contacto conmigo en twitter @jsevillamol si encuentras un error!

Supongamos que desea determinar el efecto causal de un tratamiento en un resultado. El primer orden del día es determinar si existe una correlación estadística entre ellos.

Aunque sigue siendo un reto, tenemos buenas herramientas estadísticas para determinar redes de asociación estadística entre conjuntos complejos de variables.

Sin embargo, la correlación no es causalidad, una correlación puede ser causada por un factor de confusión, un antecedente causal tanto del tratamiento como del resultado.

Por ejemplo, el tratamiento podría ser fumar, el resultado podría ser una enfermedad respiratoria y un factor de confusión plausible es la edad; las personas mayores fuman con más frecuencia Y son más propensas a las enfermedades respiratorias.

Podemos ilustrar esta situación con un diagrama causal:

Un diagrama causal para un estudio de tabaquismo

Decimos que hay un camino de puerta trasera desbloqueado desde el tratamiento hasta el resultado a través de la edad, es decir, tabaquismo <= edad => enfermedad respiratoria.

Lo ideal sería realizar un ensayo controlado aleatorio (ECA) que asigne aleatoriamente el tratamiento para que podamos desviar la ruta de la puerta trasera.

Un ensayo controlado aleatorizado (ECA) de un estudio de tabaquismo

, pero esto no siempre es posible; por ejemplo, el tratamiento puede ser poco ético o es posible que deseemos sacar conclusiones a partir de datos históricos. ¿Qué debemos hacer en esas situaciones?

Cómo no ajustar los factores de confusión

Una forma alternativa de bloquear la influencia espuria del factor de confusión es ajustar a través de, por ejemplo, la estratificación. En el ejemplo del tabaquismo, podríamos dividir nuestros datos en jóvenes y ancianos, estudiar la correlación entre el tabaquismo y la enfermedad en cada grupo y luego informar la correlación ponderada como una estimación del efecto causal.

Esto funcionaría bien si estamos seguros de que la covariable es de hecho un factor de confusión, o ancestro causal tanto del tratamiento como del resultado, ya que dentro de cada grupo estudiado la variable de confusión es fija, ya no puede mediar una influencia falsa en el tratamiento y el resultado, y podremos hacer afirmaciones sobre el verdadero efecto causal del tratamiento.

Por lo tanto, cada vez que los investigadores identifican una variable que se correlaciona con el tratamiento y el resultado, tienden a ajustarse a ella.

¡Pero esa no es la única relación causal posible entre las tres variables!

Posibles relaciones de causalidad entre el tratamiento X, resultado y y covariable Z

factor de confusión

Mediador

Collider

podría ocurrir que la covariable media la interacción entre el tratamiento y el resultado. Es decir, X => Z y Z => Y.

Por ejemplo, podríamos estar estudiando el efecto de los cultivos transgénicos en la salud del consumidor, y descubrimos que los transgénicos tienen menos probabilidades de infectarse con un patógeno. En ese caso, la presencia de un patógeno sería un mediador entre los OMG y la salud de los consumidores.

Tenga en cuenta que el mediador no tiene que ser el único mecanismo que explique el efecto: el OMG también puede cambiar el perfil dietético del cultivo independientemente del efecto que tenga sobre los patógenos.

En este caso, ajustar la covariable Z reducirá el efecto aparente del tratamiento X en el resultado Y, y nuestro informe será engañoso (a menos que estemos tratando específicamente de medir de forma aislada la parte del efecto del tratamiento no mediada por la covariable).

La tercera posibilidad es que la covariable sea un colisionador de tratamiento y desenlace. Es decir, tanto X como Y causan Z. Por ejemplo, podríamos tener que tanto a los investigadores de inteligencia artificial como a los aficionados al ajedrez les guste leer los desarrollos sobre el juego de ajedrez automatizado.

El ajuste para un colisionador aumentará la fuerza aparente del efecto del tratamiento en el resultado.

En el ejemplo anterior, si encuestamos a las personas que han leído un artículo de juego automático de ajedrez, podemos encontrar que los aficionados de ajedrez son menos propensos a ser investigadores de IA y viceversa, pero eso no sería sorprendente, ya que estamos filtrando de nuestra demografía de encuesta a las personas que no son investigadores de IA ni aficionados de ajedrez.

¡Así que ten cuidado al ajustar los mediadores y colisionadores!

Ahora, ¿cómo distinguimos entre los casos en los que una covariable es un confundidor de los casos en los que es un mediador o colisionador?

Respuesta corta: no podemos, al menos no solo por observar los datos. Necesitamos confiar en el conocimiento específico del dominio de las relaciones causales subyacentes.

Cuando hay varias covariables involucradas, la historia se complica. Necesitaríamos trazar el gráfico causal completo entre todas las covariables, el tratamiento y el resultado, y justificar nuestro mapeo causal con bases científicas.

Luego podemos usar las reglas del cálculo de do y principios como el criterio de puerta trasera para encontrar un conjunto de covariables para ajustar para bloquear la correlación espuria entre el tratamiento y el resultado para poder estimar el verdadero efecto causal.

En general, esperaría que cuantas más variables ajuste un estudio, más probable es que estén introduciendo una correlación espuria a través de un colisionador o bloqueando una ruta de mediación.

El problema de los grados de libertad

Una razón fuerte por la que deberíamos dudar de los estudios que se ajustan para muchas variables de una manera sin principios es la adición de grados de libertad sobre cómo realizar el estudio.

Si mide una relación entre dos variables de 1000 maneras diferentes y elige la que muestra la mayor correlación, es probable que sobreestime la eficacia del tratamiento.

Tener un conjunto mayor de covariables le permite ajustar cualquier subconjunto que desee. Por ejemplo, si tiene acceso a 10 covariables, puede ajustar para cualquiera de los 2^10 ≈ 1000 subconjuntos posibles.

No tiene que ser que un solo grupo de investigación esté intentando sistemáticamente todos los subconjuntos de ajuste posibles y eligiendo el mejor (aunque notablemente algunos métodos estadísticos están haciendo algo bastante similar a esto, por ejemplo, métodos de selección de variables por pasos o mejores subconjuntos). Podría ser que diferentes investigadores están probando diferentes subconjuntos, y el mecanismo que combina sus resultados está sesgado.

Por ejemplo, 100 grupos de investigación pueden probar 100 subconjuntos diferentes. 95 de ellos identifican correctamente que no hay efecto, pero debido al sesgo de publicación no hacen que sus resultados estén ampliamente disponibles, mientras que los 5 grupos que identificaron erróneamente un efecto fuerte son los únicos que se publican, creando la impresión de que todos los estudios realizados encontraron un efecto fuerte donde de hecho no hay ninguno.

En resumen, cuando no se compromete a seguir una forma de ajuste basada en principios en su estudio, es más probable que introduzca un sesgo en sus resultados.

Una advertencia: todavía necesita buenos controles

En este artículo nos centramos en el problema de elegir demasiados controles inadecuados porque es una intuición que veo que falta a más personas, incluso entre aquellos que de otra manera conocen las estadísticas aplicadas.

Sin embargo, tenga en cuenta que puede cometer el error opuesto — puede no ajustarse a los factores de confusión relevantes — y terminar concluyendo que el consumo de chocolate causa premios nobel.

Especialmente con observaciones sobre fenómenos complejos, solo ajustar para unas pocas cosas garantiza virtualmente que está omitiendo cosas por las que debería ajustarse, y puede que esté sobrepasando o subestimando el efecto.

Un desafío relacionado pasa a denominarse “confusión residual”. Incluso si identifica un factor de confusión y se ajusta a él, todavía influirá en los resultados proporcionales a la precisión con la que puede medirlo, naturalmente, medimos la mayoría de las cosas de manera incorrecta o por proxy.

Para resumir en una oración: el control de factores de confusión es clave si desea inferir efectos causales a partir de datos observacionales.

Entonces, ¿qué debemos hacer?

Como prueba de fuego, ser más dudoso de los estudios observacionales que ajustan las variables sin justificar su elección de ajuste por motivos causales.

Sin embargo, algunos estudios no hacen el trabajo necesario para justificar su elección de factores de confusión, lo que nos deja en una posición mucho peor para extraer datos confiables de su trabajo. ¿Qué podemos hacer en esos casos?

En primer lugar, podemos examinar cada uno de los factores de confusión elegidos de forma aislada, y pensar cómo se comportan causalmente en relación con el tratamiento y el resultado.

Por ejemplo, supongamos que estamos revisando un estudio del efecto del Tratado de No Proliferación (X) sobre el nivel de inversión en armas nucleares (Y), y nos preguntamos si deberían haberse ajustado para tener en cuenta el PIB (Z).

Bueno, podría darse el caso de que los países con un PIB más alto también sean más influyentes y moldeen el tratado para que sea beneficioso para ellos, por lo que Z => X. Y los países con un PIB más alto pueden invertir más en armas nucleares, por lo que Z = > Y. En este caso, el PIB sería un factor de confusión, y deberíamos ajustarnos para ello.

Pero podríamos contar una historia igualmente convincente argumentando que es probable que los países que firman el tratado sean percibidos como más cooperativos y obtengan mejores acuerdos comerciales, por lo que X => Z. Y los países que invierten más en armas nucleares tienen mejor seguridad para atraer más inversores, por lo que Y => Z. Según esta interpretación, el PIB es un colisionador, y no debemos ajustarnos para ello.

O podríamos combinar los dos escenarios anteriores para argumentar que X=>Z y Z = >Y, por lo que GDP sería un colisionador y tampoco deberíamos ajustarnos para ello.

A falta de una razón de peso para rechazar las explicaciones alternativas, no deberíamos ajustar el PIB.

Sin embargo, imagine que el estudio se está ajustando para participar en otros acuerdos nucleares. Parece artificial argumentar que la participación en otros tratados causó la participación en el TNP; ambos parecen ser causados más directamente por la predisposición general del país a firmar tratados nucleares.

En este caso, la” predisposición a los tratados ” confunde el efecto del TNP en la inversión nuclear, pero no podemos observarlo directamente. Sin embargo, podemos bloquear su influencia espuria ajustándonos a “Otros tratados nucleares” según el criterio de la puerta trasera.

¿Qué sucede si el estudio se ajusta tanto a los datos mundiales como a la participación en otros tratados nucleares?

Por defecto debemos dudar de la validez causal de su conclusión.

Podríamos usar esta información para hacer algunas predicciones (por ejemplo, podríamos usar los resultados del estudio anterior para adivinar si un Estado que iba a firmar el tratado de todos modos va a reducir su inversión en arsenal nuclear), pero no podemos hacer recomendaciones de tratamiento (por ejemplo, no podemos afirmar que presionar a un actor estatal para que acepte el TNP es una forma efectiva de lograr que reduzca su arsenal).

Si queremos intentar rescatar sus resultados podemos intentar construir un diagrama causal de variables relevantes y considerar si su elección de factores de confusión satisface los criterios relevantes.

Si las variables de ajuste que eligieron no bloquean correctamente los efectos espurios o introducen nuevos efectos a través de colisionadores, y tenemos acceso a los datos, es posible que queramos intentar volver a ejecutar el estudio con una mejor elección de variables de ajuste.

Pero, por supuesto, aún podemos identificar factores de confusión clave que los autores no incluyeron en el conjunto de datos. En ese caso, sugiero prestar atención a las palabras de John Tukey:

” La combinación de algunos datos y un deseo doloroso de una respuesta no garantiza que se pueda extraer una respuesta razonable de un cuerpo de datos dado.”

Conclusiones

En este post hemos explicado los tres tipos de relaciones causales entre una covariable y un par tratamiento-resultado: confundidores, mediadores y colisionadores. Hemos visto que para deducir los efectos causales debemos ajustarnos a los factores de confusión, pero no a los mediadores o colisionadores.

Hemos argumentado que cuantas más variables ajuste un estudio observacional, más probable es que hayan cometido un error causal o que los grados adicionales de libertad y sesgo de publicación exageren el efecto reportado.

También hemos advertido al lector que no cometa el error opuesto: ajustar los factores de confusión de una manera basada en principios es esencial para transformar los datos observacionales en información causal.

Como forma de extraer datos de estudios anteriores, hemos sugerido examinar críticamente su elección de covariables de ajuste en función de criterios causales. Si se ajustan a variables innecesarias, hemos sugerido volver a ejecutar el análisis si los datos están disponibles, mientras que si falta un factor de confusión clave en los datos, debemos aceptar que a veces no tenemos suficiente información para responder adecuadamente a las preguntas que nos importan.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.