stringtranslate.com

Distancia de Hellinger

En probabilidad y estadística , la distancia de Hellinger (estrechamente relacionada con la distancia de Bhattacharyya , aunque diferente de ella ) se utiliza para cuantificar la similitud entre dos distribuciones de probabilidad . Es un tipo de f -divergencia . La distancia de Hellinger se define en términos de la integral de Hellinger , que fue introducida por Ernst Hellinger en 1909. [1] [2]

A veces se le llama distancia de Jeffreys. [3] [4]

Definición

Teoría de la medida

Para definir la distancia de Hellinger en términos de la teoría de la medida , sean y dos medidas de probabilidad en un espacio de medida que son absolutamente continuas con respecto a una medida auxiliar . Tal medida siempre existe, por ejemplo . El cuadrado de la distancia de Hellinger entre y se define como la cantidad

Aquí, y , es decir , y son las derivadas de Radon–Nikodym de P y Q respectivamente con respecto a . Esta definición no depende de , es decir, la distancia de Hellinger entre P y Q no cambia si se reemplaza con una medida de probabilidad diferente con respecto a la cual tanto P como Q sean absolutamente continuas. Para compacidad, la fórmula anterior a menudo se escribe como

Teoría de la probabilidad utilizando la medida de Lebesgue

Para definir la distancia de Hellinger en términos de la teoría de probabilidad elemental, tomamos λ como la medida de Lebesgue , de modo que dP  /  y dQ  /  d λ son simplemente funciones de densidad de probabilidad . Si denotamos las densidades como f y g , respectivamente, la distancia de Hellinger al cuadrado se puede expresar como una integral de cálculo estándar.

donde la segunda forma se puede obtener expandiendo el cuadrado y utilizando el hecho de que la integral de una densidad de probabilidad sobre su dominio es igual a 1.

La distancia de Hellinger H ( PQ ) satisface la propiedad (derivable de la desigualdad de Cauchy-Schwarz )

Distribuciones discretas

Para dos distribuciones de probabilidad discretas y , su distancia Hellinger se define como

que está directamente relacionada con la norma euclidiana de la diferencia de los vectores raíz cuadrada, es decir

Además, [ cita requerida ]

Propiedades

La distancia de Hellinger forma una métrica acotada en el espacio de distribuciones de probabilidad sobre un espacio de probabilidad dado .

La distancia máxima 1 se alcanza cuando P asigna probabilidad cero a cada conjunto al que Q asigna una probabilidad positiva, y viceversa.

A veces se omite el factor delante de la integral, en cuyo caso la distancia de Hellinger varía de cero a la raíz cuadrada de dos.

La distancia de Hellinger está relacionada con el coeficiente de Bhattacharyya , ya que puede definirse como

Las distancias de Hellinger se utilizan en la teoría de la estadística secuencial y asintótica . [5] [6]

La distancia de Hellinger al cuadrado entre dos distribuciones normales es :

La distancia al cuadrado de Hellinger entre dos distribuciones normales multivariadas es [ 7 ]

La distancia al cuadrado de Hellinger entre dos distribuciones exponenciales es :

La distancia Hellinger al cuadrado entre dos distribuciones de Weibull y (donde es un parámetro de forma común y son los parámetros de escala respectivamente):

La distancia al cuadrado de Hellinger entre dos distribuciones de Poisson con parámetros de velocidad y , de modo que y , es:

La distancia Hellinger al cuadrado entre dos distribuciones beta es :

¿Dónde está la función beta ?

La distancia Hellinger al cuadrado entre dos distribuciones gamma es :

¿Dónde está la función gamma ?

Conexión con distancia de variación total

La distancia de Hellinger y la distancia de variación total (o distancia estadística) están relacionadas de la siguiente manera: [8]

Las constantes en esta desigualdad pueden cambiar dependiendo de la renormalización que elija ( o ).

Estas desigualdades se derivan inmediatamente de las desigualdades entre la norma 1 y la norma 2 .

Véase también

Notas

  1. ^ Nikulin, MS (2001) [1994], "Distancia de Hellinger", Enciclopedia de Matemáticas , EMS Press
  2. ^ Hellinger, Ernst (1909), "Neue Begründung der Theorie quadratischer Formen von unendlichvielen Veränderlichen", Journal für die reine und angewandte Mathematik (en alemán), 1909 (136): 210–271, doi :10.1515/crll.1909.136.210 , JFM  40.0393.01, S2CID  121150138
  3. ^ "Distancia de Jeffreys - Enciclopedia de Matemáticas". encyclopediaofmath.org . Consultado el 24 de mayo de 2022 .
  4. ^ Jeffreys, Harold (24 de septiembre de 1946). "Una forma invariante para la probabilidad previa en problemas de estimación". Actas de la Royal Society de Londres. Serie A. Ciencias matemáticas y físicas . 186 (1007): 453–461. Bibcode :1946RSPSA.186..453J. doi : 10.1098/rspa.1946.0056 . ISSN  0080-4630. PMID  20998741. S2CID  19490929.
  5. ^ Torgerson, Erik (1991). "Comparación de experimentos estadísticos". Enciclopedia de matemáticas . Vol. 36. Cambridge University Press.
  6. ^ Liese, Friedrich; Miescke, Klaus-J. (2008). Teoría de la decisión estadística: estimación, prueba y selección . Springer. ISBN 978-0-387-73193-3.
  7. ^ Pardo, L. (2006). Inferencia estadística basada en medidas de divergencia . Nueva York: Chapman and Hall/CRC. p. 51. ISBN. 1-58488-600-5.
  8. ^ Harsha, Prahladh (23 de septiembre de 2011). "Apuntes de clase sobre la complejidad de la comunicación" (PDF) .

Referencias