En teoría de probabilidad y estadística , un momento central es un momento de una distribución de probabilidad de una variable aleatoria con respecto a la media de la variable aleatoria ; es decir, es el valor esperado de una potencia entera especificada de la desviación de la variable aleatoria de la media. Los diversos momentos forman un conjunto de valores mediante el cual se pueden caracterizar útilmente las propiedades de una distribución de probabilidad. Los momentos centrales se utilizan con preferencia a los momentos ordinarios, calculados en términos de desviaciones de la media en lugar de cero, porque los momentos centrales de orden superior se relacionan sólo con la extensión y la forma de la distribución, en lugar de también con su ubicación .
Se pueden definir conjuntos de momentos centrales para distribuciones univariadas y multivariadas.
El enésimo momento respecto de la media (o el enésimo momento central ) de una variable aleatoria de valor real X es la cantidad μ n := E[( X − E[ X ]) n ], donde E es el operador de expectativa . Para una distribución de probabilidad univariada continua con función de densidad de probabilidad f ( x ), el n ésimo momento alrededor de la media μ es
Para variables aleatorias que no tienen media, como la distribución de Cauchy , los momentos centrales no están definidos.
Los primeros momentos centrales tienen interpretaciones intuitivas:
Para todo n , el n- ésimo momento central es homogéneo de grado n :
Sólo para n tal que n sea igual a 1, 2 o 3 tenemos una propiedad de aditividad para las variables aleatorias X e Y que son independientes :
Un funcional relacionado que comparte las propiedades de invariancia de traducción y homogeneidad con el n -ésimo momento central, pero continúa teniendo esta propiedad de aditividad incluso cuando n ≥ 4 es el n -ésimo cumulante κ n ( X ). Para n = 1, el n- ésimo acumulante es simplemente el valor esperado ; para n = 2 o 3, el n- ésimo cumulante es justamente el n- ésimo momento central; para n ≥ 4, el n -ésimo cumulante es un polinomio mónico de n -ésimo grado en los primeros n momentos (aproximadamente cero), y también es un polinomio de n -ésimo grado (más simple) en los primeros n momentos centrales.
A veces es conveniente convertir momentos respecto del origen en momentos respecto de la media. La ecuación general para convertir el momento de orden n con respecto al origen en el momento con respecto a la media es
donde μ es la media de la distribución y el momento con respecto al origen viene dado por
Para los casos n = 2, 3, 4, que son de mayor interés debido a las relaciones con la varianza , la asimetría y la curtosis , respectivamente, esta fórmula se convierte en (observando que y ):
... y así sucesivamente, [2] siguiendo el triángulo de Pascal , es decir
porque
La siguiente suma es una variable estocástica que tiene una distribución compuesta.
donde son variables aleatorias mutuamente independientes que comparten la misma distribución común y una variable entera aleatoria independiente de la con su propia distribución. Los momentos de se obtienen como
donde se define como cero para .
En distribuciones que son simétricas con respecto a sus medias (no afectadas por ser reflejadas con respecto a la media), todos los momentos centrales impares son iguales a cero siempre que existan, porque en la fórmula para el n- ésimo momento, cada término que involucra un valor de X menor que la media por una cierta cantidad anula exactamente el término que involucra un valor de X mayor que la media en la misma cantidad.
Para una distribución de probabilidad bivariada continua con función de densidad de probabilidad f ( x , y ) el momento ( j , k ) con respecto a la media μ = ( μ X , μ Y ) es
El n.ésimo momento central para una variable aleatoria compleja X se define como [3]
El n- ésimo momento central absoluto de X se define como
El momento central de segundo orden β 2 se llama varianza de X , mientras que el momento central de segundo orden α 2 es la pseudovarianza de X.