En teoría de probabilidad y estadística direccional , una distribución de probabilidad envolvente es una distribución de probabilidad continua que describe puntos de datos que se encuentran en una unidad n -esfera . En una dimensión, una distribución envolvente consiste en puntos en el círculo unitario . Si es una variable aleatoria en el intervalo con función de densidad de probabilidad (PDF) , entonces es una variable circular distribuida de acuerdo con la distribución envolvente y es una variable angular en el intervalo distribuido de acuerdo con la distribución envolvente .
Cualquier función de densidad de probabilidad en la línea se puede "envolver" alrededor de la circunferencia de un círculo de radio unitario. [1] Es decir, la PDF de la variable envuelta
- en algún intervalo de longitud
es
que es una suma periódica de períodos . El intervalo preferido es generalmente para el cual .
Teoría
En la mayoría de las situaciones, un proceso que involucra estadísticas circulares produce ángulos ( ) que se encuentran en el intervalo , y se describen mediante una función de densidad de probabilidad "desenrollada" . Sin embargo, una medición producirá un ángulo que se encuentra en algún intervalo de longitud (por ejemplo, 0 a ). En otras palabras, una medición no puede determinar si se ha medido el ángulo verdadero o un ángulo envuelto , donde es un entero desconocido.
Si deseamos calcular el valor esperado de alguna función del ángulo medido será:
- .
Podemos expresar la integral como una suma de integrales sobre periodos de :
- .
Cambiando la variable de integración a e intercambiando el orden de integración y suma, tenemos
donde es la PDF de la distribución envuelta y es otro entero desconocido . El entero desconocido introduce una ambigüedad en el valor esperado de , similar al problema de calcular la media angular . Esto se puede resolver introduciendo el parámetro , ya que tiene una relación inequívoca con el ángulo verdadero :
- .
Calcular el valor esperado de una función arrojará respuestas inequívocas:
- .
Por este motivo, se prefiere el parámetro a los ángulos medidos en el análisis estadístico circular. Esto sugiere que la función de distribución envuelta puede expresarse como una función de tal manera que:
donde se define de tal manera que . Este concepto se puede extender al contexto multivariado mediante una extensión de la suma simple a una cantidad de sumas que cubran todas las dimensiones en el espacio de características:
donde es el vector base euclidiano.
Expresión en términos de funciones características
Una distribución envuelta fundamental es el peine de Dirac , que es una función delta de Dirac envuelta :
- .
Utilizando la función delta, se puede escribir una distribución general envuelta
- .
Intercambiando el orden de suma e integración, cualquier distribución envuelta se puede escribir como la convolución de la distribución desenvuelta y un peine de Dirac:
- .
El peine de Dirac también puede expresarse como una suma de exponenciales, por lo que podemos escribir:
- .
Nuevamente intercambiando el orden de suma e integración:
- .
Utilizando la definición de , la función característica de produce una serie de Laurent alrededor de cero para la distribución envuelta en términos de la función característica de la distribución desenvuelta:
o
De manera análoga a las distribuciones lineales, se denomina función característica de la distribución envuelta (o más exactamente, secuencia característica ). [2] Esta es una instancia de la fórmula de suma de Poisson , y se puede ver que los coeficientes de la serie de Fourier para la distribución envuelta son simplemente los coeficientes de la transformada de Fourier de la distribución desenvuelta en valores enteros.
Momentos
Los momentos de la distribución envuelta se definen como:
- .
Expresando en términos de la función característica e intercambiando el orden de integración y suma obtenemos:
- .
Del teorema del residuo tenemos
donde es la función delta de Kronecker . De ello se deduce que los momentos son simplemente iguales a la función característica de la distribución desenrollada para argumentos enteros:
- .
Generación de variables aleatorias
Si es una variable aleatoria extraída de una distribución de probabilidad lineal , entonces es una variable circular distribuida de acuerdo con la distribución envuelta, y es la variable angular distribuida de acuerdo con la distribución envuelta, con .
Entropía
La entropía de información de una distribución circular con densidad de probabilidad se define como:
donde es cualquier intervalo de longitud . [1] Si tanto la densidad de probabilidad como su logaritmo se pueden expresar como una serie de Fourier (o más generalmente, cualquier transformada integral en el círculo), la base ortogonal de la serie se puede utilizar para obtener una expresión de forma cerrada para la entropía.
Los momentos de la distribución son los coeficientes de Fourier para la expansión de la serie de Fourier de la densidad de probabilidad:
- .
Si el logaritmo de la densidad de probabilidad también se puede expresar como una serie de Fourier:
dónde
- .
Luego, intercambiando el orden de integración y suma, la entropía puede escribirse como:
- .
Utilizando la ortogonalidad de la base de Fourier, la integral puede reducirse a:
- .
Para el caso particular cuando la densidad de probabilidad es simétrica respecto de la media, el logaritmo puede escribirse:
y
y, dado que la normalización requiere que , la entropía puede escribirse:
- .
Véase también
Referencias
- Borradaile, Graham (2003). Estadísticas de datos de ciencias de la tierra. Saltador. ISBN 978-3-540-43603-4.
- Fisher, NI (1996). Análisis estadístico de datos circulares. Cambridge University Press. ISBN 978-0-521-56890-6.
Enlaces externos
- Matemáticas y estadísticas de valores circulares con C++11, una infraestructura C++11 para matemáticas y estadísticas de valores circulares (ángulos, hora del día, etc.)