stringtranslate.com

distancia Hellinger

En probabilidad y estadística , la distancia de Hellinger (estrechamente relacionada, aunque diferente, con la distancia de Bhattacharyya ) se utiliza para cuantificar la similitud entre dos distribuciones de probabilidad . Es un tipo de f -divergencia . La distancia de Hellinger se define en términos de la integral de Hellinger , que fue introducida por Ernst Hellinger en 1909. [1] [2]

A veces se le llama distancia de Jeffreys. [3] [4]

Definición

Teoría de la medida

Para definir la distancia de Hellinger en términos de teoría de la medida , denotemos por y dos medidas de probabilidad en un espacio de medidas que sean absolutamente continuas con respecto a una medida auxiliar . Esta medida siempre existe, p. ej . El cuadrado de la distancia Hellinger entre y se define como la cantidad

Aquí, y , es decir, y son los derivados de Radón-Nikodym de P y Q respectivamente con respecto a . Esta definición no depende de , es decir, la distancia de Hellinger entre P y Q no cambia si se reemplaza con una medida de probabilidad diferente con respecto a la cual tanto P como Q son absolutamente continuos. Para la compacidad, la fórmula anterior a menudo se escribe como

Teoría de la probabilidad utilizando la medida de Lebesgue

Para definir la distancia de Hellinger en términos de teoría de probabilidad elemental, tomamos λ como la medida de Lebesgue , de modo que dP  /  y dQ  /  d λ son simplemente funciones de densidad de probabilidad . Si denotamos las densidades como f y g , respectivamente, la distancia de Hellinger al cuadrado se puede expresar como una integral de cálculo estándar.

donde la segunda forma se puede obtener expandiendo el cuadrado y utilizando el hecho de que la integral de una densidad de probabilidad sobre su dominio es igual a 1.

La distancia de Hellinger H ( PQ ) satisface la propiedad (derivada de la desigualdad de Cauchy-Schwarz )

Distribuciones discretas

Para dos distribuciones de probabilidad discretas y , su distancia de Hellinger se define como

que está directamente relacionado con la norma euclidiana de la diferencia de los vectores de raíz cuadrada, es decir

También,

Propiedades

La distancia de Hellinger forma una métrica acotada en el espacio de distribuciones de probabilidad sobre un espacio de probabilidad dado .

La distancia máxima 1 se logra cuando P asigna probabilidad cero a cada conjunto al que Q asigna una probabilidad positiva, y viceversa.

A veces se omite el factor delante de la integral, en cuyo caso la distancia de Hellinger oscila entre cero y la raíz cuadrada de dos.

La distancia de Hellinger está relacionada con el coeficiente de Bhattacharyya , ya que puede definirse como

Las distancias de Hellinger se utilizan en la teoría de la estadística secuencial y asintótica . [5] [6]

La distancia de Hellinger al cuadrado entre dos distribuciones normales y es:

La distancia de Hellinger al cuadrado entre dos distribuciones normales multivariadas es [7]

La distancia de Hellinger al cuadrado entre dos distribuciones exponenciales y es:

La distancia de Hellinger al cuadrado entre dos distribuciones de Weibull y (donde es un parámetro de forma común y son los parámetros de escala respectivamente):

La distancia de Hellinger al cuadrado entre dos distribuciones de Poisson con parámetros de tasa y , de modo que y , es:

La distancia de Hellinger al cuadrado entre dos distribuciones beta y es:

¿Dónde está la función beta ?

La distancia Hellinger al cuadrado entre dos distribuciones gamma es :

¿Dónde está la función gamma ?

Conexión con distancia de variación total.

La distancia de Hellinger y la distancia de variación total (o distancia estadística) se relacionan de la siguiente manera: [8]

Las constantes en esta desigualdad pueden cambiar según la renormalización que elija ( o ).

Estas desigualdades se derivan inmediatamente de las desigualdades entre la norma 1 y la norma 2 .

Ver también

Notas

  1. ^ Nikulin, MS (2001) [1994], "Distancia de Hellinger", Enciclopedia de Matemáticas , EMS Press
  2. ^ Hellinger, Ernst (1909), "Neue Begründung der Theorie quadratischer Formen von unendlichvielen Veränderlichen", Journal für die reine und angewandte Mathematik (en alemán), 1909 (136): 210–271, doi :10.1515/crll.1909.136.210 , JFM  40.0393.01, S2CID  121150138
  3. ^ "Distancia de Jeffreys - Enciclopedia de Matemáticas". encyclopediaofmath.org . Consultado el 24 de mayo de 2022 .
  4. ^ Jeffreys, Harold (24 de septiembre de 1946). "Una forma invariante para la probabilidad a priori en problemas de estimación". Actas de la Royal Society de Londres. Serie A. Ciencias Matemáticas y Físicas . 186 (1007): 453–461. Código bibliográfico : 1946RSPSA.186..453J. doi : 10.1098/rspa.1946.0056 . ISSN  0080-4630. PMID  20998741. S2CID  19490929.
  5. ^ Torgerson, Erik (1991). "Comparación de experimentos estadísticos". Enciclopedia de Matemáticas . vol. 36. Prensa de la Universidad de Cambridge.
  6. ^ Liese, Friedrich; Miescke, Klaus-J. (2008). Teoría de la decisión estadística: estimación, prueba y selección . Saltador. ISBN 978-0-387-73193-3.
  7. ^ Pardo, L. (2006). Inferencia estadística basada en medidas de divergencia . Nueva York: Chapman y Hall/CRC. pag. 51.ISBN 1-58488-600-5.
  8. ^ Harsha, Prahladh (23 de septiembre de 2011). "Apuntes de conferencias sobre la complejidad de la comunicación" (PDF) .

Referencias