stringtranslate.com

Momento (matemáticas)

En matemáticas , los momentos de una función son ciertas medidas cuantitativas relacionadas con la forma de la gráfica de la función . Si la función representa la densidad de masa, entonces el momento cero es la masa total, el primer momento (normalizado por la masa total) es el centro de masa y el segundo momento es el momento de inercia . Si la función es una distribución de probabilidad , entonces el primer momento es el valor esperado , el segundo momento central es la varianza , el tercer momento estandarizado es la asimetría y el cuarto momento estandarizado es la curtosis . El concepto matemático está estrechamente relacionado con el concepto de momento en física.

Para una distribución de masa o probabilidad en un intervalo acotado , la colección de todos los momentos (de todos los órdenes, de 0 a ) determina de forma única la distribución ( problema de momentos de Hausdorff ). No ocurre lo mismo en intervalos ilimitados ( problema del momento de hamburguesa ).

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de momentos de variables aleatorias . [1]

Importancia de los momentos.

El n -ésimo momento bruto (es decir, el momento alrededor de cero) de una variable aleatoria con función de densidad se define por [2]

nrealintegral

Es posible definir momentos para variables aleatorias de una manera más general que los momentos para funciones con valores reales; consulte los momentos en espacios métricos. El momento de una función, sin mayor explicación, suele referirse a la expresión anterior con . Para el segundo momento y los momentos superiores, generalmente se utiliza el momento central (momentos con respecto a la media, siendo c la media) en lugar de los momentos con respecto a cero, porque proporcionan información más clara sobre la forma de la distribución.

También se pueden definir otros momentos. Por ejemplo, el n- ésimo momento inverso con respecto a cero es y el n -ésimo momento logarítmico con respecto a cero es

El n -ésimo momento alrededor de cero de una función de densidad de probabilidad es el valor esperado y se denomina momento crudo o momento crudo . [3] Los momentos respecto de su media se denominan momentos centrales ; estos describen la forma de la función, independientemente de la traducción .

Si es una función de densidad de probabilidad , entonces el valor de la integral anterior se denomina momento n -ésimo de la distribución de probabilidad . De manera más general, si F es una función de distribución de probabilidad acumulada de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces el n -ésimo momento de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes

Xvariable aleatoriaFEoperador de expectativa
n( n − 1)función de densidad de probabilidadfunción de densidad de probabilidad

Momentos estandarizados

El n -ésimo momento central normalizado o momento estandarizado es el n -ésimo momento central dividido por σ n ; el n -ésimo momento central normalizado de la variable aleatoria X es

Estos momentos centrales normalizados son cantidades adimensionales , que representan la distribución independientemente de cualquier cambio lineal de escala.

Momentos notables

Significar

El primer momento crudo es la media , generalmente denotado

Diferencia

El segundo momento central es la varianza . La raíz cuadrada positiva de la varianza es la desviación estándar.

Oblicuidad

El tercer momento central es la medida del desequilibrio de la distribución; cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se llama asimetría , a menudo γ . Una distribución sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.

Para distribuciones que no son muy diferentes de la distribución normal , la mediana estará cerca de μγσ /6 ; el modo alrededor de μγσ /2 .

Curtosis

El cuarto momento central es una medida del peso de la cola de la distribución. Dado que es la expectativa de un cuarto poder, el cuarto momento central, cuando se define, siempre es no negativo; y salvo una distribución de puntos , siempre es estrictamente positiva. El cuarto momento central de una distribución normal es 3 σ 4 .

La curtosis κ se define como el cuarto momento central estandarizado. (De manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante ). [4] [5] Si una distribución tiene colas pesadas, la curtosis será alta (a veces llamada leptocúrtica); por el contrario, las distribuciones de cola ligera (por ejemplo, distribuciones acotadas como la uniforme) tienen curtosis baja (a veces llamada platicúrtica).

La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual a γ 2 + 1 ; La igualdad sólo es válida para distribuciones binarias . Para distribuciones asimétricas ilimitadas no muy alejadas de lo normal, κ tiende a estar en algún lugar del área de γ 2 y 2 γ 2 .

La desigualdad se puede probar considerando

T = ( Xμ )/ σapolinomioadiscriminante

Momentos más altos

Los momentos de orden superior son momentos más allá de los momentos de cuarto orden.

Al igual que con la varianza, la asimetría y la curtosis, estas son estadísticas de orden superior , que involucran combinaciones no lineales de los datos, y pueden usarse para la descripción o estimación de otros parámetros de forma . Cuanto mayor es el momento, más difícil es estimar, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad consumidos por los órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior (compárese con las derivadas de orden superior de sacudida y rebote en física) . Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como "importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión" (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como una medida de la "importancia relativa de las colas en comparación con el centro ( moda y hombros) en la contribución a la asimetría" (para una determinada cantidad de asimetría, un quinto momento más alto corresponde a una mayor asimetría en las porciones de la cola y poca asimetría de la moda, mientras que el quinto momento inferior corresponde a una mayor asimetría en los hombros).

Momentos mixtos

Los momentos mixtos son momentos que involucran múltiples variables.

El valor se llama momento de orden (los momentos también se definen para no integrales ). Los momentos de la distribución conjunta de variables aleatorias se definen de manera similar. Para cualquier número entero , la expectativa matemática se llama momento de orden mixto (donde ), y se llama momento de orden mixto central . El momento mixto se llama covarianza y es una de las características básicas de la dependencia entre variables aleatorias.

Algunos ejemplos son la covarianza , la asimetría y la cokurtosis . Si bien existe una covarianza única, existen múltiples co-asismos y co-kurtosas.

Propiedades de los momentos

Transformación de centro

Desde

coeficiente binomialba a

El momento de una convolución de función.

El momento crudo de una convolución dice

diferenciar

Acumulantes

El primer momento bruto y el segundo y tercer momentos centrales no normalizados son aditivos en el sentido de que si X e Y son variables aleatorias independientes , entonces

(Estos también pueden ser válidos para variables que satisfacen condiciones más débiles que la independencia. La primera siempre se cumple; si se cumple la segunda, las variables se denominan no correlacionadas ).

De hecho, estos son los tres primeros cumulantes y todos los cumulantes comparten esta propiedad de aditividad.

Momentos de muestra

Para todo k , el k -ésimo momento bruto de una población se puede estimar utilizando el k -ésimo momento bruto de la muestra

X 1 , ..., X n

Se puede demostrar que el valor esperado del momento muestral bruto es igual al k -ésimo momento bruto de la población, si ese momento existe, para cualquier tamaño de muestra n . Por tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo consume un grado de libertad al utilizar la media muestral. Entonces, por ejemplo, una estimación insesgada de la varianza poblacional (el segundo momento central) viene dada por

nn − 1

Problema de momentos

Los problemas de determinar una distribución de probabilidad a partir de su secuencia de momentos se denominan problemas de momentos . Estos problemas fueron discutidos por primera vez por PL Chebyshev (1874) [6] en relación con la investigación sobre teoremas de límites. Para que la distribución de probabilidad de una variable aleatoria quede definida unívocamente por sus momentos es suficiente, por ejemplo, que se cumpla la condición de Carleman:

problema de los momentosf,

Momentos parciales

Los momentos parciales a veces se denominan "momentos unilaterales". Los momentos parciales superior e inferior de orden n con respecto a un punto de referencia r se pueden expresar como

Si las funciones integrales no convergen, el momento parcial no existe.

Los momentos parciales se normalizan elevándolos a la potencia 1/ n . La relación de potencial alcista puede expresarse como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden. Se han utilizado en la definición de algunas métricas financieras, como el índice de Sortino , ya que se centran exclusivamente en las ventajas o desventajas.

Momentos centrales en espacios métricos.

Sea ( M , d ) un espacio métrico y sea B ( M ) el álgebra σ de Borel en M , el álgebra σ generada por los subconjuntos d - abiertos de M . (Por razones técnicas, también es conveniente suponer que M es un espacio separable con respecto a la métrica d .) Sea 1 ≤ p ≤ ∞ .

El p -ésimo momento central de una medida μ en el espacio medible ( M , B( M )) alrededor de un punto dado x 0M se define como

Se dice que μ tiene un p -ésimo momento central finito si el p -ésimo momento central de μ alrededor de x 0 es finito para algún x 0M .

Esta terminología para medidas se aplica a las variables aleatorias de la forma habitual: si (Ω, Σ, P ) es un espacio de probabilidad y X  : Ω → M es una variable aleatoria, entonces el p -ésimo momento central de X respecto de x 0M se define como

Xun p -ésimo momento central finitopXx 0x 0M

Ver también

Referencias

  1. ^ George Mackey (julio de 1980). "ANÁLISIS ARMÓNICO COMO EXPLOTACIÓN DE LA SIMETRÍA - UN ESTUDIO HISTÓRICO". Boletín de la Sociedad Matemática Estadounidense . Series nuevas. 3 (1): 549.
  2. ^ Papoulis, A. (1984). Probabilidad, variables aleatorias y procesos estocásticos, 2ª ed . Nueva York: McGraw Hill . págs. 145-149.
  3. ^ "Momento crudo - de Wolfram MathWorld". Archivado desde el original el 28 de mayo de 2009 . Consultado el 24 de junio de 2009 .Momentos crudos en Math-world
  4. ^ Casella, George ; Berger, Roger L. (2002). Inferencia estadística (2 ed.). Arboleda del Pacífico: Duxbury. ISBN 0-534-24312-6.
  5. ^ Ballanda, Kevin P.; MacGillivray, HL (1988). "Kurtosis: una revisión crítica". El estadístico estadounidense . 42 (2). Asociación Estadounidense de Estadística: 111–119. doi :10.2307/2684482. JSTOR  2684482.
  6. ^ Feller, W. (1957-1971). Una introducción a la teoría de la probabilidad y sus aplicaciones. Nueva York: John Wiley & Sons. 419 págs.

Otras lecturas

enlaces externos