La inferencia causal es el proceso de determinar el efecto real e independiente de un fenómeno particular que es un componente de un sistema más grande. La principal diferencia entre la inferencia causal y la inferencia de asociación es que la inferencia causal analiza la respuesta de una variable de efecto cuando se cambia la causa de la variable de efecto. [1] [2] El estudio de por qué ocurren las cosas se llama etiología y puede describirse utilizando el lenguaje de la notación causal científica . Se dice que la inferencia causal proporciona evidencia de la causalidad teorizada por el razonamiento causal .
La inferencia causal se estudia ampliamente en todas las ciencias. En las últimas décadas han proliferado varias innovaciones en el desarrollo y la implementación de metodologías diseñadas para determinar la causalidad. La inferencia causal sigue siendo especialmente difícil cuando la experimentación es difícil o imposible, lo que es común en la mayoría de las ciencias.
Los enfoques de la inferencia causal son ampliamente aplicables en todo tipo de disciplinas científicas, y muchos métodos de inferencia causal que fueron diseñados para determinadas disciplinas han encontrado uso en otras disciplinas. Este artículo describe el proceso básico detrás de la inferencia causal y detalla algunas de las pruebas más convencionales utilizadas en diferentes disciplinas; sin embargo, esto no debe confundirse con una sugerencia de que estos métodos se aplican sólo a esas disciplinas, sino simplemente que son los más comúnmente utilizados en esa disciplina.
La inferencia causal es difícil de realizar y existe un importante debate entre los científicos sobre la forma adecuada de determinar la causalidad. A pesar de otras innovaciones, sigue habiendo preocupación por la atribución errónea por parte de los científicos de resultados correlativos como causales, por el uso de metodologías incorrectas por parte de los científicos y por la manipulación deliberada por parte de los científicos de los resultados analíticos para obtener estimaciones estadísticamente significativas. Suscita especial preocupación el uso de modelos de regresión, especialmente modelos de regresión lineal.
Inferir la causa de algo se ha descrito como:
La inferencia causal se lleva a cabo mediante el estudio de sistemas en los que se sospecha que la medida de una variable afecta la medida de otra. La inferencia causal se realiza con respecto al método científico . El primer paso de la inferencia causal es formular una hipótesis nula refutable , que posteriormente se prueba con métodos estadísticos . La inferencia estadística frecuentista es el uso de métodos estadísticos para determinar la probabilidad de que los datos ocurran bajo la hipótesis nula por casualidad; La inferencia bayesiana se utiliza para determinar el efecto de una variable independiente. [5] La inferencia estadística se utiliza generalmente para determinar la diferencia entre variaciones en los datos originales que son variaciones aleatorias o el efecto de un mecanismo causal bien especificado. En particular, la correlación no implica causalidad , por lo que el estudio de la causalidad se ocupa tanto del estudio de los mecanismos causales potenciales como de la variación entre los datos. [ cita necesaria ] Un estándar de inferencia causal frecuentemente buscado es un experimento en el que el tratamiento se asigna al azar pero todos los demás factores de confusión se mantienen constantes. La mayoría de los esfuerzos en inferencia causal tienen como objetivo replicar condiciones experimentales.
Los estudios epidemiológicos emplean diferentes métodos epidemiológicos para recopilar y medir evidencia de factores de riesgo y efectos y diferentes formas de medir la asociación entre los dos. Los resultados de una revisión de 2020 de los métodos de inferencia causal encontraron que utilizar la literatura existente para programas de capacitación clínica puede ser un desafío. Esto se debe a que los artículos publicados a menudo asumen una formación técnica avanzada, pueden estar escritos desde múltiples perspectivas estadísticas, epidemiológicas, informáticas o filosóficas, los enfoques metodológicos continúan expandiéndose rápidamente y muchos aspectos de la inferencia causal reciben una cobertura limitada. [6]
Los marcos comunes para la inferencia causal incluyen el modelo circular causal (componente-causa), el modelo causal estructural de Pearl ( diagrama causal + cálculo ), el modelado de ecuaciones estructurales y el modelo causal de Rubin (resultado potencial), que se utilizan a menudo en áreas como como ciencias sociales y epidemiología. [7]
La verificación experimental de los mecanismos causales es posible utilizando métodos experimentales. La principal motivación detrás de un experimento es mantener constantes otras variables experimentales mientras se manipula intencionalmente la variable de interés. Si el experimento produce efectos estadísticamente significativos como resultado de manipular únicamente la variable de tratamiento, hay motivos para creer que se puede asignar un efecto causal a la variable de tratamiento, suponiendo que se hayan cumplido otros estándares para el diseño experimental.
La verificación cuasiexperimental de los mecanismos causales se lleva a cabo cuando los métodos experimentales tradicionales no están disponibles. Esto puede ser el resultado de los costos prohibitivos de realizar un experimento, o de la inviabilidad inherente de realizar un experimento, especialmente experimentos que tienen que ver con sistemas grandes como las economías de los sistemas electorales, o para tratamientos que se consideran que presentan un peligro para el bienestar. -ser de sujetos de prueba. También pueden ocurrir cuasi-experimentos cuando se retiene información por razones legales.
La epidemiología estudia patrones de salud y enfermedad en poblaciones definidas de seres vivos para inferir causas y efectos. Una asociación entre una exposición a un supuesto factor de riesgo y una enfermedad puede sugerir causalidad, pero no es equivalente a ella porque la correlación no implica causalidad . Históricamente, los postulados de Koch se han utilizado desde el siglo XIX para decidir si un microorganismo era la causa de una enfermedad. En el siglo XX, los criterios de Bradford Hill , descritos en 1965 [8] , se han utilizado para evaluar la causalidad de variables ajenas a la microbiología, aunque incluso estos criterios no son formas exclusivas de determinar la causalidad.
En epidemiología molecular los fenómenos estudiados se encuentran a nivel de biología molecular , incluida la genética, donde los biomarcadores son evidencia de causa o efecto.
Una tendencia reciente [ ¿ cuándo? ] es identificar evidencia de la influencia de la exposición en la patología molecular dentro de tejidos o células enfermos , en el campo interdisciplinario emergente de epidemiología patológica molecular (MPE). [ Se necesita fuente de terceros ] Vincular la exposición a las firmas patológicas moleculares de la enfermedad puede ayudar a evaluar la causalidad. [ se necesita fuente de terceros ] Teniendo en cuenta la naturaleza inherente de la heterogeneidad de una enfermedad determinada, el principio único de la enfermedad, el fenotipado y subtipado de la enfermedad son tendencias en las ciencias biomédicas y de la salud pública , ejemplificadas como la medicina personalizada y la medicina de precisión . [ Se necesita fuente de terceros ]
La inferencia causal también se ha utilizado para estimar el efecto del tratamiento. Suponiendo un conjunto de síntomas observables del paciente ( X ) causados por un conjunto de causas ocultas ( Z ), podemos optar por dar o no un tratamiento t . El resultado de dar o no dar el tratamiento es la estimación del efecto y . Si no se garantiza que el tratamiento tenga un efecto positivo, la decisión de aplicarlo o no depende, en primer lugar, del conocimiento experto que abarque las conexiones causales. Para enfermedades nuevas, es posible que este conocimiento experto no esté disponible. Como resultado, dependemos únicamente de los resultados de tratamientos anteriores para tomar decisiones. Se puede utilizar un codificador automático variacional modificado para modelar el gráfico causal descrito anteriormente. [9] Si bien el escenario anterior podría modelarse sin el uso del factor de confusión oculto (Z), perderíamos la idea de que los síntomas de un paciente, junto con otros factores, afectan tanto la asignación del tratamiento como el resultado.
La determinación de causa y efecto a partir de datos de observación conjuntos para dos variables independientes del tiempo, digamos X e Y, se ha abordado utilizando la asimetría entre la evidencia para algún modelo en las direcciones X → Y e Y → X. Los enfoques principales se basan en algoritmos Modelos de teoría de la información y modelos de ruido. [ cita necesaria ]
Incorporar un término de ruido independiente en el modelo para comparar las evidencias de las dos direcciones.
Éstos son algunos de los modelos de ruido para la hipótesis Y → X con el ruido E:
Los supuestos comunes en estos modelos son:
En un nivel intuitivo, la idea es que la factorización de la distribución conjunta P(Causa, Efecto) en P(Causa)*P(Efecto | Causa) normalmente produce modelos de menor complejidad total que la factorización en P(Efecto)*P (Causa | Efecto). Aunque la noción de "complejidad" es intuitivamente atractiva, no es obvio cómo debería definirse con precisión. [13] Una familia diferente de métodos intenta descubrir "huellas" causales a partir de grandes cantidades de datos etiquetados y permite la predicción de relaciones causales más flexibles. [14]
Las ciencias sociales en general han avanzado cada vez más hacia la inclusión de marcos cuantitativos para evaluar la causalidad. Gran parte de esto se ha descrito como una forma de proporcionar mayor rigor a la metodología de las ciencias sociales. La ciencia política fue influenciada significativamente por la publicación de Designing Social Inquiry , de Gary King, Robert Keohane y Sidney Verba, en 1994. King, Keohane y Verba recomiendan que los investigadores apliquen métodos tanto cuantitativos como cualitativos y adopten el lenguaje de la inferencia estadística para tener más claridad sobre sus temas de interés y unidades de análisis. [15] [16] Los defensores de los métodos cuantitativos también han adoptado cada vez más el marco de resultados potenciales , desarrollado por Donald Rubin , como estándar para inferir la causalidad. [ cita necesaria ]
Si bien gran parte del énfasis permanece en la inferencia estadística en el marco de resultados potenciales, los metodólogos de las ciencias sociales han desarrollado nuevas herramientas para realizar inferencias causales con métodos tanto cualitativos como cuantitativos, a veces llamados enfoques de "métodos mixtos". [17] [18] Los defensores de diversos enfoques metodológicos sostienen que diferentes metodologías se adaptan mejor a diferentes temas de estudio. El sociólogo Herbert Smith y los científicos políticos James Mahoney y Gary Goertz han citado la observación de Paul Holland, estadístico y autor del artículo de 1986 "Statistics and Causal Inference", de que la inferencia estadística es más apropiada para evaluar los "efectos de las causas" en lugar de las "causas de los efectos". [19] [20] Los metodólogos cualitativos han argumentado que los modelos formalizados de causalidad, incluido el rastreo de procesos y la teoría de conjuntos difusos , brindan oportunidades para inferir la causalidad mediante la identificación de factores críticos dentro de los estudios de casos o mediante un proceso de comparación entre varios estudios de casos. [16] Estas metodologías también son valiosas para sujetos en los que un número limitado de observaciones potenciales o la presencia de variables de confusión limitarían la aplicabilidad de la inferencia estadística. [ cita necesaria ]
En las ciencias económicas y las ciencias políticas la inferencia causal suele ser difícil, debido a la complejidad del mundo real de las realidades económicas y políticas y a la incapacidad de recrear muchos fenómenos a gran escala mediante experimentos controlados. La inferencia causal en las ciencias económicas y políticas continúa experimentando mejoras en la metodología y el rigor, debido al mayor nivel de tecnología disponible para los científicos sociales, el aumento en el número de científicos sociales e investigaciones, y las mejoras en las metodologías de inferencia causal en todas las ciencias sociales. [21]
A pesar de las dificultades inherentes a la determinación de la causalidad en los sistemas económicos, existen varios métodos ampliamente utilizados en esos campos.
Los economistas y politólogos pueden utilizar la teoría (a menudo estudiada en econometría basada en teoría) para estimar la magnitud de relaciones supuestamente causales en los casos en que creen que existe una relación causal. [22] Los teóricos pueden presuponer un mecanismo que se cree que es causal y describir los efectos utilizando el análisis de datos para justificar la teoría propuesta. Por ejemplo, los teóricos pueden usar la lógica para construir un modelo, como teorizar que la lluvia causa fluctuaciones en la productividad económica pero que lo contrario no es cierto. [23] Sin embargo, el uso de afirmaciones puramente teóricas que no ofrecen ninguna información predictiva se ha denominado "precientífico" porque no existe la capacidad de predecir el impacto de las supuestas propiedades causales. [5] Vale la pena reiterar que el análisis de regresión en las ciencias sociales no implica inherentemente causalidad, ya que muchos fenómenos pueden correlacionarse en el corto plazo o en conjuntos de datos particulares, pero no demuestran correlación en otros períodos de tiempo u otros conjuntos de datos. Por tanto, la atribución de causalidad a propiedades correlativas es prematura sin un mecanismo causal bien definido y razonado.
La técnica de variables instrumentales (IV) es un método para determinar la causalidad que implica la eliminación de una correlación entre una de las variables explicativas de un modelo y el término de error del modelo. Este método supone que si el término de error de un modelo se mueve de manera similar con la variación de otra variable, entonces el término de error del modelo es probablemente un efecto de la variación en esa variable explicativa. La eliminación de esta correlación mediante la introducción de una nueva variable instrumental reduce así el error presente en el modelo en su conjunto. [24]
La especificación del modelo es el acto de seleccionar un modelo que se utilizará en el análisis de datos. Los científicos sociales (y, de hecho, todos los científicos) deben determinar el modelo correcto a utilizar porque diferentes modelos son buenos para estimar diferentes relaciones. [25]
La especificación del modelo puede ser útil para determinar la causalidad que tarda en surgir, cuando los efectos de una acción en un período sólo se sienten en un período posterior. Vale la pena recordar que las correlaciones sólo miden si dos variables tienen una varianza similar, no si se afectan entre sí en una dirección particular; por lo tanto, no se puede determinar la dirección de una relación causal basándose únicamente en correlaciones. Como se cree que los actos causales preceden a los efectos causales, los científicos sociales pueden utilizar un modelo que busque específicamente el efecto de una variable sobre otra durante un período de tiempo. Esto lleva a utilizar las variables que representan fenómenos ocurridos anteriormente como efectos del tratamiento, donde se utilizan pruebas econométricas para buscar cambios posteriores en los datos que se atribuyen al efecto de dichos efectos del tratamiento, donde una diferencia significativa en los resultados sigue a una diferencia significativa en los efectos del tratamiento. puede indicar causalidad entre los efectos del tratamiento y los efectos medidos (por ejemplo, pruebas de causalidad de Granger). Estos estudios son ejemplos de análisis de series de tiempo . [26]
Otras variables, o regresores en el análisis de regresión, se incluyen o no en varias implementaciones del mismo modelo para garantizar que las diferentes fuentes de variación puedan estudiarse de manera más separada unas de otras. Esta es una forma de análisis de sensibilidad: es el estudio de qué tan sensible es una implementación de un modelo a la adición de una o más variables nuevas. [27]
Una de las principales preocupaciones que motivan el uso del análisis de sensibilidad es la búsqueda de descubrir variables de confusión . Las variables de confusión son variables que tienen un gran impacto en los resultados de una prueba estadística, pero no son la variable que la inferencia causal intenta estudiar. Las variables de confusión pueden hacer que un regresor parezca significativo en una implementación, pero no en otra.
Otra razón para el uso del análisis de sensibilidad es detectar multicolinealidad . La multicolinealidad es el fenómeno en el que la correlación entre dos variables es muy alta. Un alto nivel de correlación entre dos variables puede afectar dramáticamente el resultado de un análisis estadístico, donde pequeñas variaciones en datos altamente correlacionados pueden cambiar el efecto de una variable de una dirección positiva a una dirección negativa, o viceversa. Ésta es una propiedad inherente de las pruebas de varianza. La determinación de la multicolinealidad es útil en el análisis de sensibilidad porque la eliminación de variables altamente correlacionadas en diferentes implementaciones de modelos puede evitar los cambios dramáticos en los resultados que resultan de la inclusión de dichas variables. [28]
Sin embargo, existen límites a la capacidad del análisis de sensibilidad para prevenir los efectos nocivos de la multicolinealidad, especialmente en las ciencias sociales, donde los sistemas son complejos. Debido a que es teóricamente imposible incluir o incluso medir todos los factores de confusión en un sistema suficientemente complejo, los modelos econométricos son susceptibles a la falacia de causa común, donde los efectos causales se atribuyen incorrectamente a la variable equivocada porque la variable correcta no fue capturada en el análisis. los datos originales. Este es un ejemplo de cómo no se tiene en cuenta una variable oculta . [29]
Recientemente, una metodología mejorada en econometría basada en el diseño ha popularizado el uso de experimentos naturales y diseños de investigación cuasiexperimentales para estudiar los mecanismos causales que se cree que dichos experimentos identifican. [30]
A pesar de los avances en el desarrollo de metodologías utilizadas para determinar la causalidad, persisten importantes debilidades en la determinación de la causalidad. Estas debilidades pueden atribuirse tanto a la dificultad inherente de determinar relaciones causales en sistemas complejos como a casos de negligencia científica.
Aparte de las dificultades de la inferencia causal, entre algunos grandes grupos de científicos sociales existe la percepción de que un gran número de académicos de las ciencias sociales se involucran en una metodología no científica. En esos campos abundan las críticas a los economistas y científicos sociales por hacer pasar los estudios descriptivos por estudios causales. [5]
En las ciencias, especialmente en las ciencias sociales, existe la preocupación entre los académicos de que la negligencia científica esté generalizada. Como el estudio científico es un tema amplio, existen formas teóricamente ilimitadas de socavar una inferencia causal sin que sea culpa del investigador. Sin embargo, entre los científicos persiste la preocupación de que un gran número de investigadores no realicen tareas básicas o no practiquen métodos suficientemente diversos de inferencia causal. [31] [21] [32] [ verificación fallida ] [33]
Un ejemplo destacado de metodología no causal común es la suposición errónea de propiedades correlativas como propiedades causales. No existe una causalidad inherente en los fenómenos que se correlacionan. Los modelos de regresión están diseñados para medir la varianza dentro de los datos en relación con un modelo teórico: no hay nada que sugiera que los datos que presentan altos niveles de covarianza tengan alguna relación significativa (en ausencia de un mecanismo causal propuesto con propiedades predictivas o una asignación aleatoria de tratamiento). Se ha afirmado que el uso de una metodología defectuosa está generalizado, y ejemplos comunes de dicha mala práctica son el uso excesivo de modelos correlativos, especialmente el uso excesivo de modelos de regresión y, en particular, de modelos de regresión lineal. [5] La presuposición de que dos fenómenos correlacionados están inherentemente relacionados es una falacia lógica conocida como correlación espuria . Algunos científicos sociales afirman que el uso generalizado de metodologías que atribuyen causalidad a correlaciones espurias ha sido perjudicial para la integridad de las ciencias sociales, aunque se han observado mejoras derivadas de mejores metodologías. [30]
Un efecto potencial de los estudios científicos que combinan erróneamente correlación con causalidad es un aumento en el número de hallazgos científicos cuyos resultados no son reproducibles por terceros. Tal no reproducibilidad es una consecuencia lógica de los hallazgos de que la correlación solo se sobregeneraliza temporalmente en mecanismos que no tienen una relación inherente, donde los nuevos datos no contienen las correlaciones idiosincrásicas previas de los datos originales. Continúan los debates sobre el efecto de la mala práctica versus el efecto de las dificultades inherentes a la búsqueda de causalidad. [34] Los críticos de las metodologías ampliamente practicadas argumentan que los investigadores han utilizado la manipulación estadística para publicar artículos que supuestamente demuestran evidencia de causalidad pero que en realidad son ejemplos de correlación espuria que se promociona como evidencia de causalidad: tales esfuerzos pueden denominarse P hacking . [35] Para evitar esto, algunos han abogado por que los investigadores registren previamente sus diseños de investigación antes de realizar sus estudios para no enfatizar excesivamente inadvertidamente un hallazgo no reproducible que no fue el tema inicial de la investigación pero que se encontró que era estadísticamente significativo durante el análisis de datos. . [36]