stringtranslate.com

Estimación de variables instrumentales.

En estadística , econometría , epidemiología y disciplinas afines, el método de variables instrumentales ( IV ) se utiliza para estimar relaciones causales cuando los experimentos controlados no son factibles o cuando un tratamiento no se administra con éxito a todas las unidades en un experimento aleatorio. [1] Intuitivamente, los IV se utilizan cuando una variable explicativa de interés está correlacionada con el término de error (endógeno), en cuyo caso los mínimos cuadrados ordinarios y el ANOVA dan resultados sesgados . Un instrumento válido induce cambios en la variable explicativa (está correlacionado con la variable endógena) pero no tiene ningún efecto independiente sobre la variable dependiente y no está correlacionado con el término de error, lo que permite al investigador descubrir el efecto causal de la variable explicativa sobre la variable dependiente. variable.

Los métodos de variables instrumentales permiten una estimación consistente cuando las variables explicativas (covariables) se correlacionan con los términos de error en un modelo de regresión . Tal correlación puede ocurrir cuando:

  1. los cambios en la variable dependiente cambian el valor de al menos una de las covariables (causalidad "inversa"),
  2. hay variables omitidas que afectan tanto a las variables dependientes como a las explicativas, o
  3. las covariables están sujetas a errores de medición no aleatorios .

Las variables explicativas que sufren uno o más de estos problemas en el contexto de una regresión a veces se denominan endógenas . En esta situación, los mínimos cuadrados ordinarios producen estimaciones sesgadas e inconsistentes. [2] Sin embargo, si se dispone de un instrumento , aún se pueden obtener estimaciones consistentes. Un instrumento es una variable que en sí misma no pertenece a la ecuación explicativa pero que está correlacionada con las variables explicativas endógenas , condicionada al valor de otras covariables.

En los modelos lineales, existen dos requisitos principales para utilizar IV:

Ejemplo

Informalmente, al intentar estimar el efecto causal de alguna variable X ("covariable " o "variable explicativa") sobre otra Y ("variable dependiente"), un instrumento es una tercera variable Z que afecta a Y sólo a través de su efecto sobre  X.

Por ejemplo, supongamos que un investigador desea estimar el efecto causal del tabaquismo ( X ) sobre la salud general ( Y ). [5] La correlación entre el tabaquismo y la salud no implica que fumar cause mala salud porque otras variables, como la depresión, puedan afectar tanto la salud como el tabaquismo, o porque la salud pueda afectar el tabaquismo. No es posible realizar experimentos controlados sobre el tabaquismo en la población general. El investigador puede intentar estimar el efecto causal del tabaquismo en la salud a partir de datos observacionales utilizando la tasa impositiva para los productos de tabaco ( Z ) como instrumento para fumar. La tasa impositiva para los productos de tabaco es una elección razonable como instrumento porque el investigador supone que sólo puede correlacionarse con la salud a través de su efecto sobre el tabaquismo. Si el investigador encuentra que los impuestos al tabaco y el estado de salud están correlacionados, esto puede verse como evidencia de que fumar causa cambios en la salud.

Historia

El primer uso de una variable instrumental se produjo en un libro de 1928 de Philip G. Wright , mejor conocido por su excelente descripción de la producción, transporte y venta de aceites vegetales y animales a principios del siglo XX en los Estados Unidos, [6] [7] mientras que en 1945, Olav Reiersøl aplicó el mismo enfoque en el contexto de los modelos de errores en variables en su disertación, dando nombre al método. [8]

Wright intentó determinar la oferta y la demanda de mantequilla utilizando datos de panel sobre precios y cantidades vendidas en los Estados Unidos. La idea era que un análisis de regresión podría producir una curva de oferta o de demanda porque están formadas por la trayectoria entre los precios y las cantidades demandadas u ofrecidas. El problema era que los datos observacionales no formaban una curva de oferta o demanda como tal, sino más bien una nube de observaciones puntuales que tomaban diferentes formas en diferentes condiciones de mercado. Parecía que seguir siendo difícil hacer deducciones a partir de los datos.

El problema era que el precio afectaba tanto a la oferta como a la demanda, de modo que no se podía construir directamente a partir de los datos observacionales una función que describiera sólo una de las dos. Wright concluyó correctamente que necesitaba una variable que se correlacionara con la demanda o con la oferta, pero no con ambas; es decir, una variable instrumental.

Después de mucha deliberación, Wright decidió utilizar la lluvia regional como variable instrumental: concluyó que la lluvia afectaba la producción de pasto y, por tanto, la producción de leche y, en última instancia, el suministro de mantequilla, pero no la demanda de mantequilla. De esta manera pudo construir una ecuación de regresión únicamente con la variable instrumental de precio y oferta. [9]

Judea Pearl dio definiciones formales de variables instrumentales, utilizando contrafácticos y criterios gráficos en 2000. [10] Angrist y Krueger (2001) presentan un estudio de la historia y los usos de las técnicas de variables instrumentales. [11] Heckman (2008) analiza las nociones de causalidad en econometría y su relación con variables instrumentales y otros métodos . [12]

Teoría

Si bien las ideas detrás del IV se extienden a una amplia clase de modelos, un contexto muy común para el IV es la regresión lineal. Tradicionalmente, [13] una variable instrumental se define como una variable Z que está correlacionada con la variable independiente X y no correlacionada con el "término de error" U en la ecuación lineal.

es un vector. es una matriz, generalmente con una columna de unos y quizás con columnas adicionales para otras covariables. Considere cómo un instrumento permite ser recuperado. Recuerde que MCO resuelve tal que (cuando minimizamos la suma de errores cuadrados, , la condición de primer orden es exactamente ). Si se cree que el modelo verdadero se debe a cualquiera de las razones enumeradas anteriormente, por ejemplo, si hay una variable omitida que afecta a ambos y por separado, entonces este procedimiento MCO no producirá el impacto causal de on . OLS simplemente elegirá el parámetro que hace que los errores resultantes parezcan no correlacionados .

Por simplicidad, consideremos el caso de una sola variable. Supongamos que estamos considerando una regresión con una variable y una constante (tal vez no sean necesarias otras covariables, o tal vez hayamos eliminado parcialmente otras covariables relevantes):

En este caso, el coeficiente del regresor de interés viene dado por . Sustituyendo por da

¿Dónde está cuál sería el vector de coeficientes estimado si x no estuviera correlacionado con u ? En este caso, se puede demostrar que es un estimador insesgado de Si en el modelo subyacente que creemos, entonces MCO da un coeficiente que no refleja el efecto causal subyacente del interés. IV ayuda a solucionar este problema identificando los parámetros no en función de si no están correlacionados con , sino en función de si otra variable no está correlacionada con . Si la teoría sugiere que está relacionado con (la primera etapa) pero no correlacionado con (la restricción de exclusión), entonces IV puede identificar el parámetro causal de interés donde falla MCO. Debido a que existen múltiples formas específicas de usar y derivar estimadores IV incluso solo en el caso lineal (IV, 2SLS, GMM), reservamos más discusión para la sección Estimación a continuación.

Definición gráfica

Las técnicas IV se han desarrollado entre una clase mucho más amplia de modelos no lineales. Pearl (2000; p. 248) dio definiciones generales de variables instrumentales, utilizando formalismo gráfico y contrafactual. [10] La definición gráfica requiere que Z cumpla las siguientes condiciones:

donde representa d -separación y representa el gráfico en el que todas las flechas que entran en X están cortadas.

La definición contrafactual requiere que Z satisfaga

donde Y x representa el valor que Y alcanzaría si X fuera x y representa independencia.

Si hay covariables adicionales W, entonces las definiciones anteriores se modifican para que Z califique como un instrumento si los criterios dados son condicionales a W.

La esencia de la definición de Pearl es:

  1. Las ecuaciones de interés son "estructurales", no "de regresión".
  2. El término de error U representa todos los factores exógenos que afectan a Y cuando X se mantiene constante.
  3. El instrumento Z debe ser independiente de U.
  4. El instrumento Z no debería afectar a Y cuando X se mantiene constante (restricción de exclusión).
  5. El instrumento Z no debe ser independiente de X.

Estas condiciones no dependen de la forma funcional específica de las ecuaciones y, por lo tanto, son aplicables a ecuaciones no lineales, donde U puede ser no aditivo (ver Análisis no paramétrico). También son aplicables a un sistema de ecuaciones múltiples, en el que X (y otros factores) afectan a Y a través de varias variables intermedias. Una variable instrumental no tiene por qué ser una causa de X ; También se puede utilizar una representación de dicha causa, si satisface las condiciones 1 a 5. [10] La restricción de exclusión (condición 4) es redundante; se deduce de las condiciones 2 y 3.

Seleccionar instrumentos adecuados

Dado que U no se observa, el requisito de que Z sea independiente de U no puede inferirse de los datos y, en cambio, debe determinarse a partir de la estructura del modelo, es decir, del proceso de generación de datos. Los gráficos causales son una representación de esta estructura, y la definición gráfica proporcionada anteriormente se puede utilizar para determinar rápidamente si una variable Z califica como variable instrumental dado un conjunto de covariables W. Para ver cómo, considere el siguiente ejemplo.

Supongamos que deseamos estimar el efecto de un programa de tutoría universitaria sobre el promedio de calificaciones ( GPA ). La relación entre asistir al programa de tutoría y el GPA puede verse confundida por varios factores. Los estudiantes que asisten al programa de tutoría pueden preocuparse más por sus calificaciones o pueden tener dificultades con su trabajo. Esta confusión se muestra en las Figuras 1 a 3 a la derecha a través del arco bidireccional entre el Programa de Tutoría y el GPA. Si los estudiantes son asignados a dormitorios al azar, la proximidad del dormitorio del estudiante al programa de tutoría es un candidato natural para ser una variable instrumental.

Sin embargo, ¿qué pasa si el programa de tutoría está ubicado en la biblioteca de la universidad? En ese caso, Proximity también puede hacer que los estudiantes pasen más tiempo en la biblioteca, lo que a su vez mejora su GPA (ver Figura 1). Usando el gráfico causal representado en la Figura 2, vemos que Proximity no califica como una variable instrumental porque está conectada al GPA a través de la ruta Proximity Library Hours GPA en . Sin embargo, si controlamos el horario de la biblioteca agregándolo como covariable, entonces la proximidad se convierte en una variable instrumental, ya que la proximidad se separa del GPA dado el horario de la biblioteca en [ cita necesaria ] .

Ahora, supongamos que notamos que la "habilidad natural" de un estudiante afecta su número de horas en la biblioteca, así como su GPA, como en la Figura 3. Usando el gráfico causal, vemos que las horas de la biblioteca son un colisionador y El acondicionamiento en él abre el camino Proximidad Biblioteca Horas GPA. Como resultado, la proximidad no se puede utilizar como variable instrumental.

Finalmente, supongamos que el horario de la biblioteca en realidad no afecta el GPA porque los estudiantes que no estudian en la biblioteca simplemente estudian en otro lugar, como en la Figura 4. En este caso, controlar el horario de la biblioteca aún abre un camino espurio desde la proximidad al GPA. Sin embargo, si no controlamos el horario de la biblioteca y lo eliminamos como covariable, entonces la proximidad se puede volver a utilizar como variable instrumental.

Estimacion

Ahora revisamos y ampliamos la mecánica de IV con mayor detalle. Supongamos que los datos son generados por un proceso de la forma

dónde

El vector de parámetros es el efecto causal de un cambio de una unidad en cada elemento de , manteniendo constantes todas las demás causas . El objetivo econométrico es estimar . En aras de la simplicidad, supongamos que las extracciones de e no están correlacionadas y que se extraen de distribuciones con la misma varianza (es decir, que los errores no están correlacionados en serie y son homocedásticos ).

Supongamos también que se propone un modelo de regresión nominalmente de la misma forma. Dada una muestra aleatoria de T observaciones de este proceso, el estimador de mínimos cuadrados ordinarios es

donde X , y y e denotan vectores columna de longitud T . Esta ecuación es similar a la ecuación que aparece en la introducción (esta es la versión matricial de esa ecuación). Cuando X y e no están correlacionados , bajo ciertas condiciones de regularidad el segundo término tiene un valor esperado condicionado a que X sea cero y converge a cero en el límite, por lo que el estimador es insesgado y consistente. Cuando X y las otras variables causales no medidas colapsadas en el término e están correlacionadas; sin embargo, el estimador MCO generalmente está sesgado e inconsistente para  β . En este caso, es válido utilizar las estimaciones para predecir valores de y dados valores de X , pero la estimación no recupera el efecto causal de X sobre  y .

Para recuperar el parámetro subyacente , introducimos un conjunto de variables Z que está altamente correlacionado con cada componente endógeno de X pero (en nuestro modelo subyacente) no está correlacionado con  e . Por simplicidad, se podría considerar que X es una matriz T × 2 compuesta por una columna de constantes y una variable endógena, y Z como una matriz T × 2 que consta de una columna de constantes y una variable instrumental. Sin embargo, esta técnica se generaliza a que X es una matriz de una constante y, digamos, 5 variables endógenas, siendo Z una matriz compuesta por una constante y 5 instrumentos. En el análisis que sigue, supondremos que X es una matriz T × K y dejaremos este valor K sin especificar. Un estimador en el que X y Z son matrices T × K se denomina recién identificado .

Supongamos que la relación entre cada componente endógeno x i y los instrumentos está dada por

La especificación IV más común utiliza el siguiente estimador:

Esta especificación se acerca al parámetro verdadero a medida que la muestra aumenta, siempre que en el modelo verdadero:

Siempre que en el proceso subyacente que genera los datos, el uso apropiado del estimador IV identificará este parámetro. Esto funciona porque IV resuelve el parámetro único que satisface y, por lo tanto, se concentra en el verdadero parámetro subyacente a medida que crece el tamaño de la muestra.

Ahora una extensión: supongamos que hay más instrumentos que covariables en la ecuación de interés, de modo que Z es una matriz T × M con M > K. A esto se le suele llamar el caso sobreidentificado . En este caso, se puede utilizar el método generalizado de momentos (GMM). El estimador GMM IV es

donde se refiere a la matriz de proyección .

Esta expresión se reduce a la primera cuando el número de instrumentos es igual al número de covariables en la ecuación de interés. El IV sobreidentificado es, por tanto, una generalización del IV recién identificado.

Prueba de que β GMM colapsa a β IV en el caso recién identificado

Desarrollando la expresión:

En el caso que acabamos de identificar, tenemos tantos instrumentos como covariables, de modo que la dimensión de X es la misma que la de  Z. Por tanto, y son todas matrices cuadradas de la misma dimensión. Podemos expandir la inversa, utilizando el hecho de que, para cualquier matriz A y B invertible de n x n , ( AB ) −1 = B −1 A −1 (ver Matriz invertible#Propiedades ):

Referencia: ver Davidson y Mackinnnon (1993) [14] : 218 

Existe un estimador equivalente no identificado para el caso en que m < k . Dado que los parámetros son las soluciones de un conjunto de ecuaciones lineales, un modelo poco identificado que utiliza el conjunto de ecuaciones no tiene una solución única.

Interpretación como mínimos cuadrados de dos etapas.

Un método computacional que se puede utilizar para calcular estimaciones de IV son los mínimos cuadrados de dos etapas (2SLS o TSLS). En la primera etapa, cada variable explicativa que es una covariable endógena en la ecuación de interés sufre una regresión en todas las variables exógenas del modelo, incluidas tanto las covariables exógenas en la ecuación de interés como los instrumentos excluidos. Los valores predichos de estas regresiones se obtienen:

Etapa 1: Regresión de cada columna de X en Z , ( ):

y guarde los valores previstos:

En la segunda etapa, la regresión de interés se estima como de costumbre, excepto que en esta etapa cada covariable endógena se reemplaza con los valores predichos de la primera etapa:

Etapa 2: Regresión Y sobre los valores predichos de la primera etapa:

lo que da

Este método sólo es válido en modelos lineales. Para las covariables endógenas categóricas, uno podría verse tentado a utilizar una primera etapa diferente a la de los mínimos cuadrados ordinarios, como un modelo probit para la primera etapa seguido de MCO para la segunda. Esto se conoce comúnmente en la literatura econométrica como la regresión prohibida , [15] porque las estimaciones de los parámetros de la segunda etapa IV son consistentes sólo en casos especiales. [dieciséis]

Prueba: cálculo del estimador 2SLS

El estimador MCO habitual es: . Reemplazando y observando que es una matriz simétrica e idempotente , de modo que

El estimador resultante de es numéricamente idéntico a la expresión mostrada arriba. Se debe hacer una pequeña corrección a la suma de los residuos al cuadrado en el modelo ajustado de segunda etapa para que la matriz de covarianza se calcule correctamente.

Análisis no paramétrico

Cuando se desconoce la forma de las ecuaciones estructurales, aún se puede definir una variable instrumental a través de las ecuaciones:

donde y son dos funciones arbitrarias y es independiente de . Sin embargo, a diferencia de los modelos lineales, las mediciones de y no permiten la identificación del efecto causal promedio de , denotado ACE

Balke y Pearl [1997] derivaron límites estrictos para la ACE y demostraron que éstos pueden proporcionar información valiosa sobre el signo y el tamaño de la ACE. [17]

En el análisis lineal, no existe ninguna prueba para refutar el supuesto de que es instrumental en relación con el par . Este no es el caso cuando es discreto. Pearl (2000) ha demostrado que, para todos y , la siguiente restricción, llamada "desigualdad instrumental", debe cumplirse siempre que satisfaga las dos ecuaciones anteriores: [10]

Interpretación bajo la heterogeneidad del efecto del tratamiento.

La exposición anterior supone que el efecto causal del interés no varía entre observaciones, es decir, es una constante. Generalmente, diferentes sujetos responderán de diferentes maneras a los cambios en el "tratamiento" x . Cuando se reconoce esta posibilidad, el efecto promedio en la población de un cambio en x sobre y puede diferir del efecto en una subpoblación determinada. Por ejemplo, el efecto promedio de un programa de capacitación laboral puede diferir sustancialmente entre el grupo de personas que realmente recibe la capacitación y el grupo que decide no recibirla. Por estas razones, los métodos IV invocan supuestos implícitos sobre la respuesta conductual o, más generalmente, supuestos sobre la correlación entre la respuesta al tratamiento y la propensión a recibir tratamiento. [18]

El estimador IV estándar puede recuperar los efectos del tratamiento promedio local (LATE) en lugar de los efectos del tratamiento promedio (ATE). [1] Imbens y Angrist (1994) demuestran que la estimación IV lineal puede interpretarse en condiciones débiles como un promedio ponderado de los efectos del tratamiento promedio local, donde las ponderaciones dependen de la elasticidad del regresor endógeno a los cambios en las variables instrumentales. En términos generales, eso significa que el efecto de una variable sólo se revela para las subpoblaciones afectadas por los cambios observados en los instrumentos, y que las subpoblaciones que responden más a los cambios en los instrumentos tendrán los mayores efectos sobre la magnitud de la estimación IV.

Por ejemplo, si un investigador utiliza la presencia de una universidad con concesión de tierras como instrumento para la educación universitaria en una regresión de ingresos, identifica el efecto de la universidad sobre los ingresos en la subpoblación que obtendría un título universitario si hubiera una universidad presente pero que no obtener un título si no hay una universidad presente. Este enfoque empírico, sin más suposiciones, no le dice nada al investigador sobre el efecto de la universidad entre personas que siempre o nunca obtendrían un título universitario, independientemente de si existe o no una universidad local.

Problema de instrumentos débiles

Como señalan Bound, Jaeger y Baker (1995), un problema es causado por la selección de instrumentos "débiles", instrumentos que son malos predictores del predictor endógeno de la pregunta en la ecuación de la primera etapa. [19] En este caso, la predicción del predictor de la pregunta por parte del instrumento será pobre y los valores predichos tendrán muy poca variación. En consecuencia, es poco probable que tengan mucho éxito en predecir el resultado final cuando se utilizan para reemplazar el predictor de preguntas en la ecuación de la segunda etapa.

En el contexto del ejemplo del tabaquismo y la salud discutido anteriormente, los impuestos al tabaco son instrumentos débiles para fumar si el tabaquismo no responde en gran medida a los cambios en los impuestos. Si los impuestos más altos no inducen a las personas a dejar de fumar (o a no empezar a fumar), entonces la variación en las tasas impositivas no nos dice nada sobre el efecto del tabaquismo en la salud. Si los impuestos afectan la salud a través de canales distintos de su efecto sobre el tabaquismo, entonces los instrumentos no son válidos y el enfoque de variables instrumentales puede arrojar resultados engañosos. Por ejemplo, los lugares y épocas con poblaciones relativamente preocupadas por la salud pueden implementar altos impuestos al tabaco y exhibir una mejor salud incluso manteniendo constantes las tasas de tabaquismo, por lo que observaríamos una correlación entre los impuestos a la salud y al tabaco incluso si fuera el caso de que fumar no tenga ningún efecto. en salud. En este caso, estaríamos equivocados al inferir un efecto causal del tabaquismo sobre la salud a partir de la correlación observada entre los impuestos al tabaco y la salud.

Pruebas de instrumentos débiles

La solidez de los instrumentos se puede evaluar directamente porque tanto las covariables endógenas como los instrumentos son observables. [20] Una regla general común para los modelos con un regresor endógeno es: el estadístico F contra el nulo de que los instrumentos excluidos son irrelevantes en la regresión de primera etapa debe ser mayor que 10.

Inferencia estadística y prueba de hipótesis.

Cuando las covariables son exógenas, las propiedades de muestras pequeñas del estimador MCO se pueden derivar de manera sencilla calculando momentos del estimador condicionales a X. Cuando algunas de las covariables son endógenas de modo que se implementa la estimación de variables instrumentales, no se pueden obtener expresiones simples para los momentos del estimador. Generalmente, los estimadores de variables instrumentales solo tienen propiedades asintóticas deseables, no de muestra finita, y la inferencia se basa en aproximaciones asintóticas a la distribución muestral del estimador. Incluso cuando los instrumentos no están correlacionados con el error en la ecuación de interés y cuando los instrumentos no son débiles, las propiedades de la muestra finita del estimador de variables instrumentales pueden ser deficientes. Por ejemplo, los modelos identificados exactamente producen estimadores de muestras finitas sin momentos, por lo que se puede decir que el estimador no está sesgado ni insesgado, el tamaño nominal de las estadísticas de prueba puede estar sustancialmente distorsionado y las estimaciones comúnmente pueden estar muy alejadas del valor real. del parámetro. [21]

Probando la restricción de exclusión

El supuesto de que los instrumentos no están correlacionados con el término de error en la ecuación de interés no se puede probar en modelos identificados exactamente. Si el modelo está sobreidentificado, hay información disponible que puede usarse para probar este supuesto. La prueba más común de estas restricciones de sobreidentificación , llamada prueba de Sargan-Hansen , se basa en la observación de que los residuos no deben estar correlacionados con el conjunto de variables exógenas si los instrumentos son verdaderamente exógenos. [22] El estadístico de la prueba de Sargan-Hansen se puede calcular como (el número de observaciones multiplicado por el coeficiente de determinación ) a partir de la regresión MCO de los residuos sobre el conjunto de variables exógenas. Esta estadística será asintóticamente chi-cuadrado con m  −  k grados de libertad bajo el supuesto nulo de que el término de error no esté correlacionado con los instrumentos.

Ver también

Referencias

  1. ^ ab Imbens, G.; Angrist, J. (1994). "Identificación y estimación de efectos de tratamiento promedio local". Econométrica . 62 (2): 467–476. doi :10.2307/2951620. JSTOR  2951620. S2CID  153123153.
  2. ^ Buey, JG; Verde, PD; Ja, SE (2010). "Sí, pero ¿cuál es el mecanismo? (No espere una respuesta fácil)". Revista de Personalidad y Psicología Social . 98 (4): 550–558. CiteSeerX 10.1.1.169.5465 . doi :10.1037/a0018933. PMID  20307128. S2CID  7913867. 
  3. ^ https://www.stata.com/meeting/5nasug/wiv.pdf [ se necesita cita completa ]
  4. ^ Nichols, Austin (23 de julio de 2006). "Instrumentos débiles: descripción general y nuevas técnicas". {{cite journal}}: Citar diario requiere |journal=( ayuda )
  5. ^ Leigh, JP; Schembri, M. (2004). "Técnica de variables instrumentales: el precio de los cigarrillos proporcionó una mejor estimación de los efectos del tabaquismo sobre el SF-12". Revista de epidemiología clínica . 57 (3): 284–293. doi :10.1016/j.jclinepi.2003.08.006. PMID  15066689.
  6. ^ Epstein, Roy J. (1989). "La caída de OLS en la estimación estructural". Documentos económicos de Oxford . 41 (1): 94-107. doi : 10.1093/oxfordjournals.oep.a041930. JSTOR  2663184.
  7. ^ Valores, James H.; Trebbi, Francesco (2003). "Retrospectivas: ¿Quién inventó la regresión de variables instrumentales?". Revista de perspectivas económicas . 17 (3): 177–194. doi : 10.1257/089533003769204416 .
  8. ^ Reiersøl, Olav (1945). Análisis de Confluencia mediante Conjuntos Instrumentales de Variables . Arkiv para Matemáticas, Astronomi y Fysik. vol. 32A. Upsala: Almquist & Wiksells. OCLC  793451601.
  9. ^ Wooldridge, J.: Introducción a la econometría . Suroeste, Scarborough, Canadá, 2009.
  10. ^ abcd Perla, J. (2000). Causalidad: modelos, razonamiento e inferencia . Nueva York: Cambridge University Press . ISBN 978-0-521-89560-6.
  11. ^ Angrist, J.; Krueger, A. (2001). "Variables instrumentales y la búsqueda de identificación: de la oferta y la demanda a los experimentos naturales". Revista de perspectivas económicas . 15 (4): 69–85. doi : 10.1257/jep.15.4.69 . hdl : 1721.1/63775 .
  12. ^ Heckman, J. (2008). "Causalidad econométrica". Revista estadística internacional . 76 (1): 1–27. doi :10.1111/j.1751-5823.2007.00024.x.
  13. ^ Bowden, RJ; Turkington, DA (1984). Variables Instrumentales . Cambridge, Inglaterra: Cambridge University Press.
  14. ^ Davidson, Russell; Mackinnon, James (1993). Estimación e Inferencia en Econometría . Nueva York: Oxford University Press. ISBN 978-0-19-506011-9.
  15. ^ Wooldridge, J. (2010). Análisis econométrico de datos de sección transversal y de panel. Análisis econométrico de datos de sección transversal y de panel. Prensa del MIT. [ página necesaria ]
  16. ^ Lergenmuller, Simon (2017). Sustitución de predictores de dos etapas para datos de tiempo hasta el evento (Tesis). hdl :10852/57801.
  17. ^ Balke, A.; Perla, J. (1997). "Límites de los efectos del tratamiento de estudios con cumplimiento imperfecto". Revista de la Asociación Estadounidense de Estadística . 92 (439): 1172-1176. CiteSeerX 10.1.1.26.3952 . doi :10.1080/01621459.1997.10474074. S2CID  18365761. 
  18. ^ Heckman, J. (1997). "Variables instrumentales: un estudio de supuestos de comportamiento implícitos utilizados al realizar evaluaciones de programas". Revista de Recursos Humanos . 32 (3): 441–462. doi :10.2307/146178. JSTOR  146178.
  19. ^ Encuadernado, J.; Jaeger, fiscal del distrito; Panadero, RM (1995). "Problemas con la estimación de variables instrumentales cuando la correlación entre los instrumentos y la variable explicativa endógena es débil". Revista de la Asociación Estadounidense de Estadística . 90 (430): 443. doi : 10.1080/01621459.1995.10476536.
  20. ^ Valores, J.; Wright, J.; Yogo, M. (2002). "Un estudio de instrumentos débiles e identificación débil en el método generalizado de momentos". Revista de la Asociación Estadounidense de Estadística . 20 (4): 518–529. CiteSeerX 10.1.1.319.2477 . doi :10.1198/073500102288618658. S2CID  14793271. 
  21. ^ Nelson, CR; Startz, R. (1990). "Algunos resultados adicionales sobre las propiedades exactas de muestras pequeñas del estimador de variables instrumentales". Econométrica . 58 (4): 967–976. doi :10.2307/2938359. JSTOR  2938359. S2CID  119872226.
  22. ^ Hayashi, Fumio (2000). "Prueba de restricciones sobreidentificadas". Econometría . Princeton: Prensa de la Universidad de Princeton. págs. 217-221. ISBN 978-0-691-01018-2.

Otras lecturas

Bibliografía

enlaces externos