No ocurre lo mismo en intervalos ilimitados (problema del momento de Hamburger).
A mediados del siglo XIX, Pafnuti Chebyshov se convirtió en la primera persona en pensar sistemáticamente en términos de los momentos de una variable aleatoria.
El momento de una función, si no se especifica algo distinto, suele referirse a la expresión anterior con c = 0.
Por ejemplo, el momento inverso n con respecto a cero es
y el momento logarítmico n con respecto a cero es
[3] Los momentos respecto de la media μ se denominan momentos centrales, que describen la forma de la función, sin considerar traslaciones.
donde X es una variable aleatoria que tiene esta distribución acumulada F, y E es la esperanza o media.
El momento central n-ésimo normalizado de la variable aleatoria X es
Estos momentos centrales normalizados son cantidades adimensionales, que representan la distribución independientemente de cualquier cambio lineal de escala.
La raíz cuadrada positiva de la varianza es la desviación típica
El tercer momento central es la medida del desequilibrio de la distribución.
Cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero.
El tercer momento central normalizado se denomina asimetría estadística, a menudo γ.
Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.
Dado que es la expectativa de una cuarta potencia, el cuarto momento central, cuando se define, siempre es no negativo, y salvo distribuciones puntuales, siempre es estrictamente positivo.
La curtosis κ se define como el cuarto momento central estandarizado (de manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante).
Para distribuciones asimétricas no acotadas y no muy alejadas de la normal, κ tiende a estar en algún lugar en los valores comprendidos entre γ2 y 2γ2.
Es la expectativa de un cuadrado, por lo que no es negativa para todo a.
Su discriminante debe ser no positivo, lo que proporciona la relación requerida.
Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como la "importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión" (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como una medida de la "importancia relativa de las colas en comparación con el centro (la moda y los hombros) en la contribución a la asimetría" (para una determinada cantidad de asimetría, un quinto momento más alto corresponde a una mayor asimetría en las porciones de la cola y poca asimetría de la moda, mientras que el quinto momento inferior corresponde a una mayor asimetría en los hombros).
Los momentos mixtos son aquellos que involucran múltiples variables.
se denomina momento mixto central de orden
aplicado a una muestra X1, ..., Xn extraída de una población.
Entonces, por ejemplo, una estimación insesgada de la varianza poblacional (el segundo momento central) viene dada por
es suficiente, por ejemplo, que se cumpla la condición de Carleman:
Un resultado similar se cumple incluso para momentos de vectores aleatorios.
que converge débilmente a una función de distribución
Los momentos parciales se normalizan elevándolos a la potencia 1/n.
Se dice que μ tiene momento central p-ésimo finito si el momento central p-ésimo de μ con respecto a x0 es finito para algún x0 ∈ M. Esta terminología para medidas se aplica a las variables aleatorias de la forma habitual: si (Ω, Σ, P) es un espacio de probabilidad y X : Ω → M es una variable aleatoria, entonces el p-ésimo momento central de X respecto a x0 ∈ M se define como
y X tiene momento central p-ésimo finito si el momento central p-ésimo de X respecto a x0 es finito para algún x0 ∈ M.