En matemáticas , los momentos de una función son ciertas medidas cuantitativas relacionadas con la forma de la gráfica de la función . Si la función representa la densidad de masa, entonces el momento cero es la masa total, el primer momento (normalizado por la masa total) es el centro de masa y el segundo momento es el momento de inercia . Si la función es una distribución de probabilidad , entonces el primer momento es el valor esperado , el segundo momento central es la varianza , el tercer momento estandarizado es la asimetría y el cuarto momento estandarizado es la curtosis . El concepto matemático está estrechamente relacionado con el concepto de momento en física.
Para una distribución de masa o probabilidad en un intervalo acotado , la colección de todos los momentos (de todos los órdenes, de 0 a ∞ ) determina de forma única la distribución ( problema de momentos de Hausdorff ). No ocurre lo mismo en intervalos ilimitados ( problema del momento de hamburguesa ).
A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de momentos de variables aleatorias . [1]
El n -ésimo momento bruto (es decir, el momento alrededor de cero) de una variable aleatoria con función de densidad se define por [2]
Es posible definir momentos para variables aleatorias de una manera más general que los momentos para funciones con valores reales; consulte los momentos en espacios métricos. El momento de una función, sin mayor explicación, suele referirse a la expresión anterior con . Para el segundo momento y los momentos superiores, generalmente se utiliza el momento central (momentos con respecto a la media, siendo c la media) en lugar de los momentos con respecto a cero, porque proporcionan información más clara sobre la forma de la distribución.
También se pueden definir otros momentos. Por ejemplo, el n -ésimo momento inverso con respecto a cero es y el n -ésimo momento logarítmico con respecto a cero es
El n -ésimo momento alrededor de cero de una función de densidad de probabilidad es el valor esperado y se denomina momento crudo o momento crudo . [3] Los momentos respecto de su media se denominan momentos centrales ; estos describen la forma de la función, independientemente de la traducción .
Si es una función de densidad de probabilidad , entonces el valor de la integral anterior se denomina momento n -ésimo de la distribución de probabilidad . De manera más general, si F es una función de distribución de probabilidad acumulada de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces el n -ésimo momento de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes
El n -ésimo momento central normalizado o momento estandarizado es el n -ésimo momento central dividido por σ n ; el n -ésimo momento central normalizado de la variable aleatoria X es
Estos momentos centrales normalizados son cantidades adimensionales , que representan la distribución independientemente de cualquier cambio lineal de escala.
El primer momento crudo es la media , generalmente denotado
El segundo momento central es la varianza . La raíz cuadrada positiva de la varianza es la desviación estándar.
El tercer momento central es la medida del desequilibrio de la distribución; cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se llama asimetría , a menudo γ . Una distribución sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.
Para distribuciones que no son muy diferentes de la distribución normal , la mediana estará cerca de μ − γσ /6 ; el modo alrededor de μ − γσ /2 .
El cuarto momento central es una medida del peso de la cola de la distribución. Dado que es la expectativa de un cuarto poder, el cuarto momento central, cuando se define, siempre es no negativo; y salvo una distribución de puntos , siempre es estrictamente positiva. El cuarto momento central de una distribución normal es 3 σ 4 .
La curtosis κ se define como el cuarto momento central estandarizado. (De manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante ). [4] [5] Si una distribución tiene colas pesadas, la curtosis será alta (a veces llamada leptocúrtica); por el contrario, las distribuciones de cola ligera (por ejemplo, distribuciones acotadas como la uniforme) tienen curtosis baja (a veces llamada platicúrtica).
La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual a γ 2 + 1 ; La igualdad sólo es válida para distribuciones binarias . Para distribuciones asimétricas ilimitadas no muy alejadas de lo normal, κ tiende a estar en algún lugar del área de γ 2 y 2 γ 2 .
La desigualdad se puede probar considerando
Los momentos de orden superior son momentos más allá de los momentos de cuarto orden.
Al igual que con la varianza, la asimetría y la curtosis, estas son estadísticas de orden superior , que involucran combinaciones no lineales de los datos, y pueden usarse para la descripción o estimación de otros parámetros de forma . Cuanto mayor es el momento, más difícil es estimar, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad consumidos por los órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior (compárese con las derivadas de orden superior de sacudida y rebote en física ). Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como "importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión" (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como una medida de la "importancia relativa de las colas en comparación con el centro ( moda y hombros) en la contribución a la asimetría" (para una determinada cantidad de asimetría, un quinto momento más alto corresponde a una mayor asimetría en las porciones de la cola y poca asimetría de la moda, mientras que el quinto momento inferior corresponde a una mayor asimetría en los hombros).
Los momentos mixtos son momentos que involucran múltiples variables.
El valor se llama momento de orden (los momentos también se definen para no integrales ). Los momentos de la distribución conjunta de variables aleatorias se definen de manera similar. Para cualquier número entero , la expectativa matemática se llama momento de orden mixto (donde ), y se llama momento de orden mixto central . El momento mixto se llama covarianza y es una de las características básicas de la dependencia entre variables aleatorias.
Algunos ejemplos son la covarianza , la asimetría y la cokurtosis . Si bien existe una covarianza única, existen múltiples co-asismos y co-kurtosis.
Desde
El momento crudo de una convolución dice
El primer momento bruto y el segundo y tercer momentos centrales no normalizados son aditivos en el sentido de que si X e Y son variables aleatorias independientes , entonces
(Estos también pueden ser válidos para variables que satisfacen condiciones más débiles que la independencia. La primera siempre se cumple; si se cumple la segunda, las variables se denominan no correlacionadas ).
De hecho, estos son los tres primeros cumulantes y todos los cumulantes comparten esta propiedad de aditividad.
Para todo k , el k -ésimo momento bruto de una población se puede estimar utilizando el k -ésimo momento bruto de la muestra
Se puede demostrar que el valor esperado del momento muestral bruto es igual al k -ésimo momento bruto de la población, si ese momento existe, para cualquier tamaño de muestra n . Por tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo consume un grado de libertad al utilizar la media muestral. Entonces, por ejemplo, una estimación insesgada de la varianza poblacional (el segundo momento central) viene dada por
Los problemas de determinar una distribución de probabilidad a partir de su secuencia de momentos se denominan problemas de momentos . Estos problemas fueron discutidos por primera vez por PL Chebyshev (1874) [6] en relación con la investigación sobre teoremas de límites. Para que la distribución de probabilidad de una variable aleatoria quede definida unívocamente por sus momentos es suficiente, por ejemplo, que se cumpla la condición de Carleman:
Los momentos parciales a veces se denominan "momentos unilaterales". Los momentos parciales superior e inferior de orden n con respecto a un punto de referencia r se pueden expresar como
Si las funciones integrales no convergen, el momento parcial no existe.
Los momentos parciales se normalizan elevándolos a la potencia 1/ n . La relación de potencial alcista puede expresarse como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden. Se han utilizado en la definición de algunas métricas financieras, como el índice de Sortino , ya que se centran exclusivamente en las ventajas o desventajas.
Sea ( M , d ) un espacio métrico y sea B ( M ) el álgebra σ de Borel en M , el álgebra σ generada por los subconjuntos abiertos d de M . (Por razones técnicas, también es conveniente suponer que M es un espacio separable con respecto a la métrica d .) Sea 1 ≤ p ≤ ∞ .
El p -ésimo momento central de una medida μ en el espacio medible ( M , B( M )) alrededor de un punto dado x 0 ∈ M se define como
Se dice que μ tiene un p -ésimo momento central finito si el p -ésimo momento central de μ alrededor de x 0 es finito para algún x 0 ∈ M .
Esta terminología para medidas se aplica a las variables aleatorias de la forma habitual: si (Ω, Σ, P ) es un espacio de probabilidad y X : Ω → M es una variable aleatoria, entonces el p -ésimo momento central de X respecto de x 0 ∈ M se define como