stringtranslate.com

Identificabilidad

En estadística , la identificabilidad es una propiedad que un modelo debe satisfacer para que sea posible una inferencia precisa. Un modelo es identificable si es teóricamente posible conocer los verdaderos valores de los parámetros subyacentes de este modelo después de obtener un número infinito de observaciones del mismo. Matemáticamente, esto equivale a decir que diferentes valores de los parámetros deben generar diferentes distribuciones de probabilidad de las variables observables. Por lo general, el modelo es identificable sólo bajo ciertas restricciones técnicas, en cuyo caso el conjunto de estos requisitos se denomina condiciones de identificación .

Un modelo que no logra ser identificable se dice que es no identificable o no identificable : dos o más parametrizaciones son observacionalmente equivalentes . En algunos casos, aunque un modelo no sea identificable, aún es posible conocer los valores verdaderos de un determinado subconjunto de parámetros del modelo. En este caso decimos que el modelo es parcialmente identificable . En otros casos, puede ser posible conocer la ubicación del parámetro verdadero hasta una determinada región finita del espacio de parámetros, en cuyo caso el modelo se establece como identificable .

Además de la exploración estrictamente teórica de las propiedades del modelo, se puede hacer referencia a la identificabilidad en un ámbito más amplio cuando un modelo se prueba con conjuntos de datos experimentales, utilizando el análisis de identificabilidad . [1]

Definición

Sea un modelo estadístico con espacio de parámetros . Decimos que es identificable si el mapeo es uno a uno : [2]

Esta definición significa que distintos valores de θ deben corresponder a distintas distribuciones de probabilidad: si θ 1θ 2 , entonces también P θ 1P θ 2 . [3] Si las distribuciones se definen en términos de funciones de densidad de probabilidad (fdp), entonces dos fdp deben considerarse distintas sólo si difieren en un conjunto de medidas distintas de cero (por ejemplo, dos funciones ƒ 1 ( x ) =  1 0 ≤  x  < 1 y ƒ 2 ( x ) =  1 0 ≤  x  ≤ 1 difieren sólo en un único punto x  = 1 (un conjunto de medida cero) y, por lo tanto, no pueden considerarse como PDF distintas).

La identificabilidad del modelo en el sentido de invertibilidad del mapa equivale a poder conocer el verdadero parámetro del modelo si el modelo puede observarse durante un tiempo indefinido. De hecho, si { X t } ⊆  S es la secuencia de observaciones del modelo, entonces, según la fuerte ley de los grandes números ,

para cada conjunto medible A  ⊆  S (aquí 1 {...} es la función indicadora ). Así, con un número infinito de observaciones podremos encontrar la verdadera distribución de probabilidad P 0 en el modelo, y dado que la condición de identificabilidad anterior requiere que el mapa sea invertible, también podremos encontrar el valor verdadero del parámetro. que generó la distribución dada  P 0 .

Ejemplos

Ejemplo 1

Sea la familia de escala de ubicación normal :

Entonces

Esta expresión es igual a cero para casi todo x sólo cuando todos sus coeficientes son iguales a cero, lo cual sólo es posible cuando | s 1 | = | σ2 |y μ 1 = μ 2 . Dado que en la escala el parámetro σ está restringido a ser mayor que cero, concluimos que el modelo es identificable: ƒ θ 1  = ƒ θ 2θ 1  =  θ 2 .

Ejemplo 2

Sea el modelo de regresión lineal estándar :

(donde ′ denota transposición de matriz ). Entonces el parámetro β es identificable si y sólo si la matriz es invertible. Por tanto, esta es la condición de identificación en el modelo.

Ejemplo 3

Supongamos que es el modelo lineal clásico de errores en variables :

donde ( ε , η , x* ) son variables aleatorias independientes normales en conjunto con valor esperado cero y varianzas desconocidas, y solo se observan las variables ( x , y ). Entonces este modelo no es identificable, [4] solo lo es el producto βσ² (donde σ² es la varianza del regresor latente x* ). Este también es un ejemplo de un modelo de conjunto identificable : aunque no se puede conocer el valor exacto de β , podemos garantizar que debe estar en algún lugar del intervalo ( β yx , 1÷ β xy ), donde β yx es el coeficiente en MCO regresión de y en x , y β xy es el coeficiente en la regresión MCO de x en y . [5]

Si abandonamos el supuesto de normalidad y requerimos que x* no esté distribuido normalmente, conservando sólo la condición de independencia ε  ⊥  η  ⊥  x* , entonces el modelo se vuelve identificable. [4]

Ver también

Referencias

Citas

  1. ^ Raue, A.; Kreutz, C.; Maiwald, T.; Bachmann, J.; Schilling, M.; Klingmüller, U.; Timmer, J. (1 de agosto de 2009). "Análisis de identificabilidad estructural y práctica de modelos dinámicos parcialmente observados mediante la explotación de la probabilidad del perfil". Bioinformática . 25 (15): 1923-1929. doi : 10.1093/bioinformática/btp358 . PMID  19505944.
  2. ^ Lehmann y Casella 1998, cap. 1, Definición 5.2
  3. ^ van der Vaart 1998, pág. 62
  4. ^ ab Reiersøl 1950
  5. ^ Casella y Berger 2002, pag. 583

Fuentes

Otras lecturas

Econometría