En teoría de probabilidad y estadística , un momento central es un momento de una distribución de probabilidad de una variable aleatoria con respecto a la media de la variable aleatoria ; es decir, es el valor esperado de una potencia entera especificada de la desviación de la variable aleatoria con respecto a la media. Los diversos momentos forman un conjunto de valores mediante los cuales se pueden caracterizar de manera útil las propiedades de una distribución de probabilidad. Los momentos centrales se utilizan con preferencia a los momentos ordinarios, calculados en términos de desviaciones con respecto a la media en lugar de a partir de cero, porque los momentos centrales de orden superior se relacionan únicamente con la dispersión y la forma de la distribución, en lugar de también con su ubicación .
Se pueden definir conjuntos de momentos centrales para distribuciones univariadas y multivariadas.
El momento n con respecto a la media (o momento central n ) de una variable aleatoria de valor real X es la cantidad μ n := E[( X − E[ X ]) n ], donde E es el operador de expectativa . Para una distribución de probabilidad univariante continua con función de densidad de probabilidad f ( x ), el momento n con respecto a la media μ es
Para las variables aleatorias que no tienen media, como la distribución de Cauchy , los momentos centrales no están definidos.
Los primeros momentos centrales tienen interpretaciones intuitivas:
Para todo n , el n -ésimo momento central es homogéneo de grado n :
Sólo para n tal que n es igual a 1, 2 o 3 tenemos una propiedad de aditividad para las variables aleatorias X e Y que son independientes :
Un funcional relacionado que comparte las propiedades de homogeneidad e invariancia de la traslación con el momento central n -ésimo, pero continúa teniendo esta propiedad de aditividad incluso cuando n ≥ 4 es el n -ésimo cumulante κ n ( X ). Para n = 1, el n -ésimo cumulante es simplemente el valor esperado ; para n = 2 o 3, el n -ésimo cumulante es simplemente el n -ésimo momento central; para n ≥ 4, el n -ésimo cumulante es un polinomio mónico de grado n en los primeros n momentos (alrededor de cero), y también es un polinomio de grado n (más simple) en los primeros n momentos centrales.
A veces es conveniente convertir momentos respecto del origen en momentos respecto de la media. La ecuación general para convertir el momento de orden n respecto del origen en el momento respecto de la media es
donde μ es la media de la distribución y el momento respecto al origen viene dado por
Para los casos n = 2, 3, 4 —que son de mayor interés debido a las relaciones con la varianza , la asimetría y la curtosis , respectivamente— esta fórmula se convierte en (teniendo en cuenta que y ):
... y así sucesivamente, [2] siguiendo el triángulo de Pascal , es decir
porque
La siguiente suma es una variable estocástica que tiene una distribución compuesta
donde las son variables aleatorias independientes entre sí que comparten la misma distribución común y una variable aleatoria entera independiente de la con su propia distribución. Los momentos de se obtienen como
donde se define como cero para .
En distribuciones que son simétricas respecto de sus medias (no afectadas por ser reflejadas respecto de la media), todos los momentos centrales impares son iguales a cero siempre que existan, porque en la fórmula para el momento n , cada término que involucra un valor de X menor que la media en una cierta cantidad cancela exactamente el término que involucra un valor de X mayor que la media en la misma cantidad.
Para una distribución de probabilidad bivariada continua con función de densidad de probabilidad f ( x , y ) el momento ( j , k ) respecto a la media μ = ( μ X , μ Y ) es
El n -ésimo momento central para una variable aleatoria compleja X se define como [3]
El momento central n- ésimo absoluto de X se define como
El momento central de segundo orden β 2 se denomina varianza de X , mientras que el momento central de segundo orden α 2 es la pseudovarianza de X.