stringtranslate.com

Identificabilidad

En estadística , la identificabilidad es una propiedad que debe satisfacer un modelo para que sea posible realizar una inferencia precisa. Un modelo es identificable si es teóricamente posible conocer los valores verdaderos de los parámetros subyacentes de este modelo después de obtener un número infinito de observaciones de él. Matemáticamente, esto equivale a decir que los diferentes valores de los parámetros deben generar diferentes distribuciones de probabilidad de las variables observables. Por lo general, el modelo solo es identificable bajo ciertas restricciones técnicas, en cuyo caso el conjunto de estos requisitos se denomina condiciones de identificación .

Un modelo que no es identificable se dice que es no identificable o no identificable : dos o más parametrizaciones son observacionalmente equivalentes . En algunos casos, aunque un modelo no sea identificable, aún es posible conocer los valores verdaderos de un cierto subconjunto de los parámetros del modelo. En este caso decimos que el modelo es parcialmente identificable . En otros casos puede ser posible conocer la ubicación del parámetro verdadero hasta una cierta región finita del espacio de parámetros, en cuyo caso el modelo se establece como identificable .

Además de la exploración estrictamente teórica de las propiedades del modelo, la identificabilidad puede considerarse en un ámbito más amplio cuando un modelo se prueba con conjuntos de datos experimentales, utilizando el análisis de identificabilidad . [1]

Definición

Sea un modelo estadístico con espacio de parámetros . Decimos que es identificable si la aplicación es biunívoca : [2]

Esta definición significa que valores distintos de θ deben corresponder a distribuciones de probabilidad distintas: si θ 1θ 2 , entonces también P θ 1P θ 2 . [3] Si las distribuciones se definen en términos de funciones de densidad de probabilidad (pdf), entonces dos pdf deben considerarse distintas solo si difieren en un conjunto de medidas distintas de cero (por ejemplo, dos funciones ƒ 1 ( x ) =  1 0 ≤  x  < 1 y ƒ 2 ( x ) =  1 0 ≤  x  ≤ 1 difieren solo en un único punto x  = 1 —un conjunto de medidas cero— y, por lo tanto, no pueden considerarse como pdf distintas).

La identificabilidad del modelo en el sentido de invertibilidad de la función es equivalente a poder conocer el parámetro verdadero del modelo si el modelo puede ser observado indefinidamente. De hecho, si { X t } ⊆  S es la secuencia de observaciones del modelo, entonces por la ley fuerte de los grandes números ,

para cada conjunto medible A  ⊆  S (aquí 1 {...} es la función indicadora ). Por lo tanto, con un número infinito de observaciones podremos encontrar la distribución de probabilidad verdadera P 0 en el modelo, y dado que la condición de identificabilidad anterior requiere que el mapa sea invertible, también podremos encontrar el valor verdadero del parámetro que generó la distribución dada  P 0 .

Ejemplos

Ejemplo 1

Sea la familia de escala-ubicación normal :

Entonces

Esta expresión es igual a cero para casi todos los x solo cuando todos sus coeficientes son iguales a cero, lo que solo es posible cuando | σ 1 | = | σ 2 | y μ 1 = μ 2 . Dado que en la escala el parámetro σ está restringido a ser mayor que cero, concluimos que el modelo es identificable: ƒ θ 1  = ƒ θ 2θ 1  =  θ 2 .

Ejemplo 2

Sea el modelo de regresión lineal estándar :

(donde ′ denota la matriz transpuesta ). Entonces, el parámetro β es identificable si y solo si la matriz es invertible. Por lo tanto, esta es la condición de identificación en el modelo.

Ejemplo 3

Supongamos que el modelo lineal clásico de errores en las variables es :

donde ( ε , η , x* ) son variables aleatorias independientes normales conjuntas con valor esperado cero y varianzas desconocidas, y solo se observan las variables ( x , y ). Entonces este modelo no es identificable, [4] solo lo es el producto βσ² (donde σ² es la varianza del regresor latente x* ). Este también es un ejemplo de un modelo identificable por conjuntos : aunque no se puede aprender el valor exacto de β , podemos garantizar que debe estar en algún lugar del intervalo ( β yx , 1÷ β xy ), donde β yx es el coeficiente en la regresión MCO de y sobre x , y β xy es el coeficiente en la regresión MCO de x sobre y . [5]

Si abandonamos el supuesto de normalidad y requerimos que x* no se distribuya normalmente, conservando solo la condición de independencia ε  ⊥  η  ⊥  x* , entonces el modelo se vuelve identificable. [4]

Véase también

Referencias

Citas

  1. ^ Raue, A.; Kreutz, C.; Maiwald, T.; Bachmann, J.; Schilling, M.; Klingmuller, U.; Timmer, J. (1 de agosto de 2009). "Análisis de identificabilidad estructural y práctica de modelos dinámicos parcialmente observados mediante la explotación de la verosimilitud del perfil". Bioinformática . 25 (15): 1923–1929. doi : 10.1093/bioinformatics/btp358 . PMID  19505944.
  2. ^ Lehmann y Casella 1998, Cap. 1, Definición 5.2
  3. ^ van der Vaart 1998, pág. 62
  4. ^ desde Reiersøl 1950
  5. ^ Casella y Berger 2002, pág. 583

Fuentes

Lectura adicional

Econometría