stringtranslate.com

Información de Fisher

En estadística matemática , la información de Fisher (a veces simplemente llamada información [1] ) es una forma de medir la cantidad de información que una variable aleatoria observable X lleva sobre un parámetro desconocido θ de una distribución que modela X. Formalmente, es la varianza de la puntuación , o el valor esperado de la información observada .

El papel de la información de Fisher en la teoría asintótica de la estimación de máxima verosimilitud fue enfatizado y explorado por el estadístico Sir Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth ). La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas con las estimaciones de máxima verosimilitud . También se puede utilizar en la formulación de estadísticas de prueba, como la prueba de Wald .

En la estadística bayesiana , la información de Fisher juega un papel en la derivación de distribuciones previas no informativas según la regla de Jeffreys . [2] También aparece como la covarianza de muestra grande de la distribución posterior , siempre que la previa sea suficientemente suave (un resultado conocido como teorema de Bernstein-von Mises , que fue anticipado por Laplace para familias exponenciales ). [3] El mismo resultado se utiliza cuando se aproxima la posterior con la aproximación de Laplace , donde la información de Fisher aparece como la covarianza de la gaussiana ajustada. [4]

Se ha demostrado que los sistemas estadísticos de naturaleza científica (física, biológica, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen a la máxima información de Fisher. [5] El nivel del máximo depende de la naturaleza de las restricciones del sistema.

Definición

La información de Fisher es una forma de medir la cantidad de información que una variable aleatoria observable lleva consigo sobre un parámetro desconocido del que depende la probabilidad de . Sea la función de densidad de probabilidad (o función de masa de probabilidad ) para condicionada al valor de . Describe la probabilidad de que observemos un resultado dado de , dado un valor conocido de . Si tiene un pico pronunciado con respecto a los cambios en , es fácil indicar el valor "correcto" de a partir de los datos o, equivalentemente, que los datos proporcionan mucha información sobre el parámetro . Si es plana y dispersa, entonces se necesitarían muchas muestras de para estimar el valor "verdadero" real de que se obtendría utilizando toda la población muestreada. Esto sugiere estudiar algún tipo de varianza con respecto a .

Formalmente, la derivada parcial con respecto a del logaritmo natural de la función de verosimilitud se denomina puntuación . En determinadas condiciones de regularidad, si es el parámetro verdadero (es decir, se distribuye realmente como ), se puede demostrar que el valor esperado (el primer momento ) de la puntuación, evaluada en el valor verdadero del parámetro , es 0: [6]

La información de Fisher se define como la varianza de la puntuación: [7]

Tenga en cuenta que . Una variable aleatoria que contiene una alta información de Fisher implica que el valor absoluto de la puntuación suele ser alto. La información de Fisher no es una función de una observación particular, ya que la variable aleatoria X se ha promediado.

Si log  f ( x ; θ ) es dos veces diferenciable con respecto a θ , y bajo ciertas condiciones de regularidad, entonces la información de Fisher también puede escribirse como [8]

desde

y

Por lo tanto, la información de Fisher puede verse como la curvatura de la curva de soporte (el gráfico de la verosimilitud logarítmica). Cerca de la estimación de máxima verosimilitud , una información de Fisher baja indica que el máximo parece "despuntado", es decir, el máximo es poco profundo y hay muchos valores cercanos con una verosimilitud logarítmica similar. Por el contrario, una información de Fisher alta indica que el máximo es abrupto.

Condiciones de regularidad

Las condiciones de regularidad son las siguientes: [9]

  1. La derivada parcial de f ( X ; θ ) con respecto a θ existe casi en todas partes . (Puede no existir en un conjunto nulo, siempre que este conjunto no dependa de θ .)
  2. La integral de f ( X ; θ ) se puede diferenciar bajo el signo integral con respecto a θ .
  3. El soporte de f ( X ; θ ) no depende de θ .

Si θ es un vector, entonces las condiciones de regularidad deben cumplirse para cada componente de θ . Es fácil encontrar un ejemplo de una densidad que no satisface las condiciones de regularidad: la densidad de una variable Uniform(0, θ ) no satisface las condiciones 1 y 3. En este caso, aunque la información de Fisher se puede calcular a partir de la definición, no tendrá las propiedades que normalmente se supone que tiene.

En términos de probabilidad

Como la probabilidad de θ dado X es siempre proporcional a la probabilidad f ( X ; θ ), sus logaritmos difieren necesariamente en una constante que es independiente de θ , y las derivadas de estos logaritmos con respecto a θ son necesariamente iguales. Por lo tanto, se puede sustituir en una probabilidad logarítmica l ( θ ; X ) en lugar de log f ( X ; θ ) en las definiciones de la información de Fisher.

Muestras de cualquier tamaño

El valor X puede representar una única muestra extraída de una única distribución o puede representar una colección de muestras extraídas de una colección de distribuciones. Si hay n muestras y las n distribuciones correspondientes son estadísticamente independientes , entonces la información de Fisher será necesariamente la suma de los valores de información de Fisher de una única muestra, uno para cada muestra única de su distribución. En particular, si las n distribuciones son independientes y se distribuyen de manera idéntica , entonces la información de Fisher será necesariamente n veces la información de Fisher de una única muestra de la distribución común. Dicho en otras palabras, la información de Fisher de las observaciones iid de una muestra de tamaño n de una población es igual al producto de n y la información de Fisher de una única observación de la misma población.

Derivación informal del límite de Cramér-Rao

El límite de Cramér-Rao [10] [11] establece que la inversa de la información de Fisher es un límite inferior de la varianza de cualquier estimador insesgado de θ . HL Van Trees (1968) y B. Roy Frieden (2004) proporcionan el siguiente método para derivar el límite de Cramér-Rao , un resultado que describe el uso de la información de Fisher.

De manera informal, comenzamos considerando un estimador imparcial . Matemáticamente, "imparcial" significa que

Esta expresión es cero independientemente de θ , por lo que su derivada parcial con respecto a θ también debe ser cero. Por la regla del producto , esta derivada parcial también es igual a

Para cada θ , la función de verosimilitud es una función de densidad de probabilidad y, por lo tanto , . Al utilizar la regla de la cadena sobre la derivada parcial de y luego dividir y multiplicar por , se puede verificar que

Usando estos dos hechos anteriores, obtenemos

Factorizando el integrando se obtiene

Elevando al cuadrado la expresión en la integral, la desigualdad de Cauchy-Schwarz da como resultado

El segundo factor entre corchetes se define como la información de Fisher, mientras que el primer factor entre corchetes es el error cuadrático medio esperado del estimador . Al reordenar, la desigualdad nos dice que

En otras palabras, la precisión con la que podemos estimar θ está fundamentalmente limitada por la información de Fisher de la función de verosimilitud.

Alternativamente, la misma conclusión se puede obtener directamente de la desigualdad de Cauchy-Schwarz para las variables aleatorias , , aplicada a las variables aleatorias y , y observando que para estimadores insesgados tenemos

Ejemplos

Experimento de Bernoulli de un solo parámetro

Un ensayo de Bernoulli es una variable aleatoria con dos resultados posibles, 0 y 1, donde 1 tiene una probabilidad de θ . Se puede pensar que el resultado está determinado por el lanzamiento de una moneda sesgada, con una probabilidad de cara (1) de θ y una probabilidad de cruz (0) de 1 − θ .

Sea X un ensayo de Bernoulli de una muestra de la distribución. La información de Fisher contenida en X puede calcularse como:

Debido a que la información de Fisher es aditiva, la información de Fisher contenida en n ensayos de Bernoulli independientes es, por lo tanto,

Si es uno de los resultados posibles de n ensayos de Bernoulli independientes y es el j -ésimo resultado del i- ésimo ensayo, entonces la probabilidad de está dada por:

La media del i- ésimo ensayo es El valor esperado de la media de un ensayo es:

donde la suma es sobre todos los resultados posibles del ensayo. El valor esperado del cuadrado de las medias es:

Entonces la varianza en el valor de la media es:

Se observa que la información de Fisher es el recíproco de la varianza del número medio de éxitos en n ensayos de Bernoulli . Esto es generalmente cierto. En este caso, el límite de Cramér-Rao es una igualdad.

Estimar θ {\displaystyle \theta } de X ∼ Bern ⁡ ( θ ) {\displaystyle X\sim \operatorname {Bern} ({\sqrt {\theta }})}

Como otro ejemplo de juguete, considere una variable aleatoria con resultados posibles 0 y 1, con probabilidades y , respectivamente, para algún . Nuestro objetivo es realizar una estimación a partir de observaciones de .

La información de Fisher se lee en este caso Esta expresión también se puede derivar directamente de la fórmula de cambio de reparametrización que se proporciona a continuación. De manera más general, para cualquier función suficientemente regular tal que , la información de Fisher a recuperar se calcula de manera similar como

Forma matricial

Cuando hay N parámetros, de modo que θ es un vector N × 1 , entonces la información de Fisher toma la forma de una matriz N × N. Esta matriz se llama matriz de información de Fisher (FIM) y tiene elementos típicos

La FIM es una matriz semidefinida positiva N × N. Si es definida positiva, entonces define una métrica de Riemann [12] en el espacio de parámetros de N dimensiones . La geometría de información del tema utiliza esto para conectar la información de Fisher con la geometría diferencial y, en ese contexto, esta métrica se conoce como la métrica de información de Fisher .

Bajo ciertas condiciones de regularidad, la matriz de información de Fisher también puede escribirse como

El resultado es interesante por varios motivos:

Parámetros ortogonales de la información

Decimos que dos vectores de componentes de parámetros θ 1 y θ 2 son ortogonales a la información si la matriz de información de Fisher es diagonal en bloques, con estos componentes en bloques separados. [17] Los parámetros ortogonales son fáciles de manejar en el sentido de que sus estimaciones de máxima verosimilitud no están correlacionadas asintóticamente. Al considerar cómo analizar un modelo estadístico, se recomienda al modelador invertir algo de tiempo en buscar una parametrización ortogonal del modelo, en particular cuando el parámetro de interés es unidimensional, pero el parámetro molesto puede tener cualquier dimensión. [18]

Modelo estadístico singular

Si la matriz de información de Fisher es definida positiva para todo θ , entonces se dice que el modelo estadístico correspondiente es regular ; de lo contrario, se dice que el modelo estadístico es singular . [19] Los ejemplos de modelos estadísticos singulares incluyen los siguientes: mezclas normales, mezclas binomiales, mezclas multinomiales, redes bayesianas, redes neuronales, funciones de base radial, modelos ocultos de Markov, gramáticas estocásticas libres de contexto, regresiones de rango reducido, máquinas de Boltzmann.

En el aprendizaje automático , si se diseña un modelo estadístico que extrae la estructura oculta de un fenómeno aleatorio, entonces naturalmente se vuelve singular. [20]

Distribución normal multivariante

La FIM para una distribución normal multivariada de N variables tiene una forma especial. Sea el vector de parámetros de dimensión K y el vector de variables normales aleatorias . Supongamos que los valores medios de estas variables aleatorias son , y sea la matriz de covarianza . Entonces, para , la entrada ( m , n ) de la FIM es: [21]

donde denota la transpuesta de un vector, denota la traza de una matriz cuadrada , y:

Nótese que un caso especial, pero muy común, es aquel en el que , una constante. Entonces

En este caso la matriz de información de Fisher puede identificarse con la matriz de coeficientes de la teoría de estimación de ecuaciones normales de mínimos cuadrados .

Otro caso especial ocurre cuando la media y la covarianza dependen de dos parámetros vectoriales diferentes, por ejemplo, β y θ . Esto es especialmente popular en el análisis de datos espaciales, que a menudo utiliza un modelo lineal con residuos correlacionados. En este caso, [22]

dónde

Propiedades

Regla de la cadena

De manera similar a la entropía o información mutua , la información de Fisher también posee una descomposición en cadena . En particular, si X e Y son variables aleatorias distribuidas conjuntamente, se deduce que: [23]

donde y es la información de Fisher de Y relativa a calculada con respecto a la densidad condicional de Y dado un valor específico  X  =  x .

Como caso especial, si las dos variables aleatorias son independientes , la información obtenida por las dos variables aleatorias es la suma de la información de cada variable aleatoria por separado:

En consecuencia, la información en una muestra aleatoria de n observaciones independientes e idénticamente distribuidas es n veces la información en una muestra de tamaño 1.

F-divergencia

Dada una función convexa que es finita para todo , , y , (que podría ser infinita), define una f-divergencia . Entonces, si es estrictamente convexa en , entonces localmente en , la matriz de información de Fisher es una métrica, en el sentido de que [24] donde es la distribución parametrizada por . Es decir, es la distribución con función de densidad de probabilidad .

De esta forma, queda claro que la matriz de información de Fisher es una métrica de Riemann y varía correctamente ante un cambio de variables. (ver sección sobre Reparametrización).

Estadística suficiente

La información proporcionada por un estadístico suficiente es la misma que la de la muestra X . Esto se puede ver utilizando el criterio de factorización de Neyman para un estadístico suficiente. Si T ( X ) es suficiente para θ , entonces

para algunas funciones g y h . La independencia de h ( X ) de θ implica

y la igualdad de información se deduce entonces de la definición de información de Fisher. De manera más general, si T = t ( X ) es una estadística , entonces

con igualdad si y sólo si T es una estadística suficiente . [25]

Reparametrización

La información de Fisher depende de la parametrización del problema. Si θ y η son dos parametrizaciones escalares de un problema de estimación, y θ es una función continuamente diferenciable de η , entonces

donde y son las medidas de información de Fisher de η y θ , respectivamente. [26]

En el caso vectorial, supongamos que y son k -vectores que parametrizan un problema de estimación, y supongamos que es una función continuamente diferenciable de , entonces, [27]

donde el elemento ( i , j )ésimo de la matriz jacobiana k  ×  k está definido por

¿Y dónde está la matriz transpuesta de?

En geometría de la información , esto se ve como un cambio de coordenadas en una variedad de Riemann , y las propiedades intrínsecas de la curvatura no cambian bajo diferentes parametrizaciones. En general, la matriz de información de Fisher proporciona una métrica de Riemann (más precisamente, la métrica de Fisher-Rao) para la variedad de estados termodinámicos, y se puede utilizar como una medida de complejidad geométrica de la información para una clasificación de transiciones de fase , por ejemplo, la curvatura escalar del tensor métrico termodinámico diverge en (y solo en) un punto de transición de fase. [28]

En el contexto termodinámico, la matriz de información de Fisher está directamente relacionada con la tasa de cambio en los parámetros de orden correspondientes . [29] En particular, dichas relaciones identifican transiciones de fase de segundo orden a través de divergencias de elementos individuales de la matriz de información de Fisher.

Desigualdad isoperimétrica

La matriz de información de Fisher desempeña un papel en una desigualdad como la desigualdad isoperimétrica . [30] De todas las distribuciones de probabilidad con una entropía dada, aquella cuya matriz de información de Fisher tiene la traza más pequeña es la distribución gaussiana. Esto es como cómo, de todos los conjuntos acotados con un volumen dado, la esfera tiene el área de superficie más pequeña.

La prueba implica tomar una variable aleatoria multivariante con función de densidad y agregar un parámetro de ubicación para formar una familia de densidades . Luego, por analogía con la fórmula de Minkowski-Steiner , el "área de superficie" de se define como

donde es una variable gaussiana con matriz de covarianza . El nombre "área de superficie" es adecuado porque la potencia de entropía es el volumen del "conjunto de soporte efectivo", [31] por lo que es la "derivada" del volumen del conjunto de soporte efectivo, de forma muy similar a la fórmula de Minkowski-Steiner. El resto de la prueba utiliza la desigualdad de potencia de entropía , que es como la desigualdad de Brunn-Minkowski . Se descubre que la traza de la matriz de información de Fisher es un factor de .

Aplicaciones

Diseño óptimo de experimentos

La información de Fisher se utiliza ampliamente en el diseño experimental óptimo . Debido a la reciprocidad de la varianza del estimador y la información de Fisher, minimizar la varianza corresponde a maximizar la información .

Cuando el modelo estadístico lineal (o linealizado ) tiene varios parámetros , la media del estimador de parámetros es un vector y su varianza es una matriz . La inversa de la matriz de varianzas se denomina "matriz de información". Debido a que la varianza del estimador de un vector de parámetros es una matriz, el problema de "minimizar la varianza" es complicado. Utilizando la teoría estadística , los estadísticos comprimen la matriz de información utilizando estadísticas de resumen de valores reales ; al ser funciones de valores reales, estos "criterios de información" se pueden maximizar.

Tradicionalmente, los estadísticos han evaluado estimadores y diseños considerando algún estadístico resumen de la matriz de covarianza (de un estimador insesgado), usualmente con valores reales positivos (como el determinante o la traza de la matriz ). Trabajar con números reales positivos trae varias ventajas: si el estimador de un solo parámetro tiene una varianza positiva, entonces la varianza y la información de Fisher son ambas números reales positivos; por lo tanto, son miembros del cono convexo de números reales no negativos (cuyos miembros distintos de cero tienen recíprocos en este mismo cono).

Para varios parámetros, las matrices de covarianza y las matrices de información son elementos del cono convexo de matrices simétricas no definidas negativamente en un espacio vectorial parcialmente ordenado , bajo el orden de Loewner (Löwner). Este cono es cerrado bajo la adición e inversión de matrices, así como bajo la multiplicación de números reales positivos y matrices. Una exposición de la teoría de matrices y el orden de Loewner aparece en Pukelsheim. [32]

Los criterios tradicionales de optimalidad son los invariantes de la matriz de información , en el sentido de la teoría de invariantes ; algebraicamente, los criterios tradicionales de optimalidad son funcionales de los valores propios de la matriz de información (de Fisher) (ver diseño óptimo ).

Prioridad de Jeffreys en estadística bayesiana

En las estadísticas bayesianas , la información de Fisher se utiliza para calcular la anterior de Jeffreys , que es una anterior estándar, no informativa para parámetros de distribución continua. [33]

Neurociencia computacional

La información de Fisher se ha utilizado para encontrar límites en la precisión de los códigos neuronales. En ese caso, X es típicamente la respuesta conjunta de muchas neuronas que representan una variable de baja dimensión θ (como un parámetro de estímulo). En particular, se ha estudiado el papel de las correlaciones en el ruido de las respuestas neuronales. [34]

Epidemiología

Se utilizó la información de Fisher para estudiar qué tan informativas son las diferentes fuentes de datos para estimar el número de reproducción del SARS-CoV-2. [35]

Derivación de leyes físicas

La información de Fisher desempeña un papel central en un principio controvertido propuesto por Frieden como base de las leyes físicas, una afirmación que ha sido cuestionada. [36]

Aprendizaje automático

La información de Fisher se utiliza en técnicas de aprendizaje automático como la consolidación de peso elástico , [37] que reduce el olvido catastrófico en redes neuronales artificiales .

La información de Fisher se puede utilizar como una alternativa al hessiano de la función de pérdida en el entrenamiento de redes de descenso de gradiente de segundo orden. [38]

Discriminación de color

Utilizando una métrica de información de Fisher , da Fonseca et. al [39] investigaron el grado en el que las elipses de MacAdam (elipses de discriminación de color) pueden derivarse de las funciones de respuesta de los fotorreceptores de la retina.

Relación con la entropía relativa

La información de Fisher está relacionada con la entropía relativa . [40] La entropía relativa, o divergencia de Kullback–Leibler , entre dos distribuciones se puede escribir como

Ahora, considere una familia de distribuciones de probabilidad parametrizadas por . Entonces, la divergencia de Kullback–Leibler , entre dos distribuciones en la familia se puede escribir como

Si es fijo, entonces la entropía relativa entre dos distribuciones de la misma familia se minimiza en . Para valores cercanos a , se puede desarrollar la expresión anterior en una serie hasta el segundo orden:

Pero la derivada de segundo orden se puede escribir como

Así, la información de Fisher representa la curvatura de la entropía relativa de una distribución condicional con respecto a sus parámetros.

Historia

La información de Fisher fue discutida por varios estadísticos tempranos, en particular FY Edgeworth . [41] Por ejemplo, Savage [42] dice: "En ella [la información de Fisher], él [Fisher] fue anticipado en cierta medida (Edgeworth 1908–9 esp. 502, 507–8, 662, 677–8, 82–5 y referencias que él [Edgeworth] cita, incluyendo Pearson y Filon 1898 [. . .])". Hay una serie de fuentes históricas tempranas [43] y una serie de revisiones de este trabajo temprano. [44] [45] [46]

Véase también

Otras medidas empleadas en la teoría de la información :

Notas

  1. ^ Lehmann y Casella, pág. 115
  2. ^ Robert, Christian (2007). "Distribuciones previas no informativas". La elección bayesiana (2.ª ed.). Springer. pp. 127–141. ISBN 978-0-387-71598-8.
  3. ^ Le Cam, Lucien (1986). Métodos asintóticos en la teoría de la decisión estadística . Nueva York: Springer. pp. 618–621. ISBN. 0-387-96307-3.
  4. ^ Kass, Robert E.; Tierney, Luke; Kadane, Joseph B. (1990). "La validez de las expansiones posteriores basadas en el método de Laplace". En Geisser, S.; Hodges, JS; Press, SJ; Zellner, A. (eds.). Métodos bayesianos y de verosimilitud en estadística y econometría . Elsevier. págs. 473–488. ISBN 0-444-88376-2.
  5. ^ Frieden y Gatenby (2013)
  6. ^ Suba Rao. "Conferencias sobre inferencia estadística" (PDF) . Archivado desde el original (PDF) el 26 de septiembre de 2020. Consultado el 12 de abril de 2013 .
  7. ^ Pescador (1922)
  8. ^ Lehmann y Casella, ecuación (2.5.16), Lema 5.3, pág. 116.
  9. ^ Schervish, Mark J. (1995). Teoría de la estadística. Nueva York, NY: Springer New York. p. 111. ISBN 978-1-4612-4250-5.OCLC 852790658  .
  10. ^ Cramér (1946)
  11. ^ Rao (1945)
  12. ^ Nielsen, Frank (2023). "Un método de aproximación simple para la distancia de Fisher-Rao entre distribuciones normales multivariadas". Entropy . 25 (4): 654. arXiv : 2302.08175 . Bibcode :2023Entrp..25..654N. doi : 10.3390/e25040654 . PMC 10137715 . PMID  37190442. 
  13. ^ Nielsen, Frank (2013). "Límite inferior de Cramér-Rao y geometría de la información". Conectados al infinito II . Textos y lecturas en matemáticas. Vol. 67. págs. 18–37. arXiv : 1301.3578 . doi :10.1007/978-93-86279-56-9_2. ISBN . 978-93-80250-51-9.S2CID16759683  .​
  14. ^ Spall, JC (2005). "Cálculo de Monte Carlo de la matriz de información de Fisher en entornos no estándar". Revista de estadística computacional y gráfica . 14 (4): 889–909. doi :10.1198/106186005X78800. S2CID  16090098.
  15. ^ Spall, JC (2008), "Métodos mejorados para la estimación de Monte Carlo de la matriz de información de Fisher", Actas de la Conferencia de Control Estadounidense , Seattle, WA, 11-13 de junio de 2008, págs. 2395-2400. https://doi.org/10.1109/ACC.2008.4586850
  16. ^ Das, S.; Spall, JC; Ghanem, R. (2010). "Cálculo eficiente de Monte Carlo de la matriz de información de Fisher utilizando información previa". Estadística computacional y análisis de datos . 54 (2): 272–289. doi :10.1016/j.csda.2009.09.018.
  17. ^ Barndorff-Nielsen, OE; Cox, DR (1994). Inferencia y asintótica . Chapman & Hall. ISBN. 9780412494406.
  18. ^ Cox, DR; Reid, N. (1987). "Ortogonalidad de parámetros e inferencia condicional aproximada (con discusión)". J. Royal Statistical Soc. B . 49 : 1–39. doi :10.1111/j.2517-6161.1987.tb01422.x.
  19. ^ Watanabe, S. (2008), Accardi, L.; Freudenberg, W.; Ohya, M. (eds.), "Método geométrico algebraico en estimación estadística singular", Quantum Bio-Informatics , World Scientific : 325–336, Bibcode :2008qbi..conf..325W, doi :10.1142/9789812793171_0024, ISBN 978-981-279-316-4.
  20. ^ Watanabe, S (2013). "Un criterio de información bayesiano ampliamente aplicable". Revista de investigación en aprendizaje automático . 14 : 867–897.
  21. ^ Malagò, Luigi; Pistone, Giovanni (2015). "Geometría de la información de la distribución gaussiana en vista de la optimización estocástica". Actas de la XIII Conferencia de la ACM de 2015 sobre fundamentos de algoritmos genéticos . págs. 150–162. doi :10.1145/2725494.2725510. ISBN . 9781450334341.S2CID 693896  .
  22. ^ Mardia, KV; Marshall, RJ (1984). "Estimación de máxima verosimilitud de modelos para covarianza residual en regresión espacial". Biometrika . 71 (1): 135–46. doi :10.1093/biomet/71.1.135.
  23. ^ Zamir, R. (1998). "Una prueba de la desigualdad de información de Fisher mediante un argumento de procesamiento de datos". IEEE Transactions on Information Theory . 44 (3): 1246–1250. CiteSeerX 10.1.1.49.6628 . doi :10.1109/18.669301. 
  24. ^ Polyanskiy, Yury (2017). "Apuntes de clase sobre teoría de la información, capítulo 29, ECE563 (UIUC)" (PDF) . Apuntes de clase sobre teoría de la información . Archivado (PDF) desde el original el 2022-05-24 . Consultado el 2022-05-24 .
  25. ^ Schervish, Mark J. (1995). Teoría de la Estadística . Springer-Verlag. pag. 113.
  26. ^ Lehmann y Casella, ecuación (2.5.11).
  27. ^ Lehmann y Casella, ecuación (2.6.16)
  28. ^ Janke, W.; Johnston, DA; Kenna, R. (2004). "Geometría de la información y transiciones de fase". Physica A . 336 (1–2): 181. arXiv : cond-mat/0401092 . Código Bibliográfico :2004PhyA..336..181J. doi :10.1016/j.physa.2004.01.023. S2CID  119085942.
  29. ^ Prokopenko, M.; Lizier, Joseph T.; Lizier, JT; Obst, O.; Wang, XR (2011). "Relacionar la información de Fisher con los parámetros de orden". Physical Review E . 84 (4): 041116. Bibcode :2011PhRvE..84d1116P. doi :10.1103/PhysRevE.84.041116. PMID  22181096. S2CID  18366894.
  30. ^ Costa, M.; Cover, T. (noviembre de 1984). "Sobre la similitud de la desigualdad de potencia de entropía y la desigualdad de Brunn-Minkowski". IEEE Transactions on Information Theory . 30 (6): 837–839. doi :10.1109/TIT.1984.1056983. ISSN  1557-9654.
  31. ^ Portada, Thomas M. (2006). Elementos de la teoría de la información. Joy A. Thomas (2.ª ed.). Hoboken, NJ: Wiley-Interscience. p. 256. ISBN 0-471-24195-4.OCLC 59879802  .
  32. ^ Pukelsheim, Friedrich (1993). Diseño óptimo de experimentos . Nueva York: Wiley. ISBN 978-0-471-61971-0.
  33. ^ Bernardo, Jose M.; Smith, Adrian FM (1994). Teoría bayesiana . Nueva York: John Wiley & Sons. ISBN 978-0-471-92416-6.
  34. ^ Abbott, Larry F.; Dayan, Peter (1999). "El efecto de la variabilidad correlacionada en la precisión de un código de población". Computación neuronal . 11 (1): 91–101. doi :10.1162/089976699300016827. PMID  9950724. S2CID  2958438.
  35. ^ Parag, KV; Donnelly, CA; Zarebski, AE (2022). "Cuantificación de la información en curvas epidémicas ruidosas". Nature Computational Science . 2 (9): 584–594. doi : 10.1038/s43588-022-00313-1 . hdl : 10044/1/100205 . PMID  38177483. S2CID  248811793.
  36. ^ Streater, RF (2007). Causas perdidas en la física y más allá de ella . Springer. pág. 69. ISBN 978-3-540-36581-5.
  37. ^ Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A.; Milan, Kieran; Quan, John; Ramalho, Tiago (28 de marzo de 2017). "Superar el olvido catastrófico en redes neuronales". Actas de la Academia Nacional de Ciencias . 114 (13): 3521–3526. arXiv : 1612.00796 . Bibcode :2017PNAS..114.3521K. doi : 10.1073/pnas.1611835114 . ISSN  0027-8424. PMC 5380101. PMID 28292907  . 
  38. ^ Martens, James (agosto de 2020). "Nuevos conocimientos y perspectivas sobre el método del gradiente natural". Revista de investigación en aprendizaje automático (21). arXiv : 1412.1193 .
  39. ^ da Fonseca, Maria; Samengo, In´es (1 de diciembre de 2016). "Derivación de la capacidad de discriminación cromática humana a partir de una noción de distancia en el espacio de color basada en la información". Neural Computation . 28 (12): 2628–2655. arXiv : 1611.07272 . doi :10.1162/NECO_a_00903.
  40. ^ Gourieroux y Montfort (1995), página 87
  41. ^ Salvaje (1976)
  42. ^ Savage (1976), página 156
  43. ^ Edgeworth (septiembre de 1908, diciembre de 1908)
  44. ^ Pratt (1976)
  45. ^ Stigler (1978, 1986, 1999)
  46. ^ Hald (1998, 1999)

Referencias