stringtranslate.com

Diferencia absoluta media

La diferencia absoluta media (univariada) es una medida de dispersión estadística igual a la diferencia absoluta promedio de dos valores independientes extraídos de una distribución de probabilidad . Una estadística relacionada es la diferencia absoluta media relativa , que es la diferencia absoluta media dividida por la media aritmética e igual al doble del coeficiente de Gini . La diferencia absoluta de medias también se conoce como diferencia de medias absoluta (no debe confundirse con el valor absoluto de la diferencia de medias con signo ) y diferencia de medias de Gini (DGM). [1] La diferencia media absoluta a veces se indica como Δ o como MD.

Definición

La diferencia absoluta de medias se define como el "promedio" o "media", formalmente el valor esperado , de la diferencia absoluta de dos variables aleatorias X e Y distribuidas de forma independiente e idéntica con la misma distribución (desconocida) en adelante llamada Q.

Cálculo

Específicamente, en el caso discreto,

En el caso continuo,

Una forma alternativa de la ecuación viene dada por:

Diferencia absoluta media relativa

Cuando la distribución de probabilidad tiene una media aritmética AM finita y distinta de cero, la diferencia absoluta media relativa, a veces denotada por Δ o RMD, se define por

La diferencia absoluta media relativa cuantifica la diferencia absoluta media en comparación con el tamaño de la media y es una cantidad adimensional. La diferencia absoluta media relativa es igual al doble del coeficiente de Gini que se define en términos de la curva de Lorenz . Esta relación brinda perspectivas complementarias tanto a la diferencia absoluta media relativa como al coeficiente de Gini, incluidas formas alternativas de calcular sus valores.

Propiedades

La diferencia absoluta media es invariante a las traslaciones y la negación, y varía proporcionalmente a la escala positiva. Es decir, si X es una variable aleatoria y c es una constante:

La diferencia absoluta media relativa es invariante a la escala positiva, conmuta con la negación y varía bajo la traducción en proporción a la relación entre las medias aritméticas original y traducida. Es decir, si X es una variable aleatoria y c es una constante:

Si una variable aleatoria tiene una media positiva, entonces su diferencia absoluta de media relativa siempre será mayor o igual a cero. Si, además, la variable aleatoria sólo puede tomar valores mayores o iguales a cero, entonces su diferencia absoluta media relativa será menor que 2.

Comparado con la desviación estándar

La diferencia absoluta media es el doble de la escala L (el segundo momento L ), mientras que la desviación estándar es la raíz cuadrada de la varianza con respecto a la media (el segundo momento central convencional). Las diferencias entre los momentos L y los momentos convencionales se ven primero al comparar la diferencia absoluta media y la desviación estándar (el primer momento L y el primer momento convencional son ambos la media).

Tanto la desviación estándar como la diferencia absoluta de medias miden la dispersión: qué tan dispersos están los valores de una población o las probabilidades de una distribución. La diferencia absoluta de medias no se define en términos de una medida específica de tendencia central, mientras que la desviación estándar se define en términos de la desviación de la media aritmética. Debido a que la desviación estándar eleva al cuadrado sus diferencias, tiende a dar más peso a las diferencias más grandes y menos peso a las diferencias más pequeñas en comparación con la diferencia absoluta media. Cuando la media aritmética es finita, la diferencia absoluta de medias también será finita, incluso cuando la desviación estándar sea infinita. Vea los ejemplos para algunas comparaciones específicas.

La desviación estándar de distancia recientemente introducida juega un papel similar a la diferencia absoluta de medias, pero la desviación estándar de distancia funciona con distancias centradas. Véase también Estadísticas electrónicas .

Estimadores de muestra

Para una muestra aleatoria S de una variable aleatoria X , que consta de n valores y i , el estadístico

es un estimador consistente e insesgado de MD( X ). La estadística:

es un estimador consistente de RMD( X ), pero, en general, no es insesgado .

Los intervalos de confianza para RMD( X ) se pueden calcular utilizando técnicas de muestreo bootstrap.

En general, no existe un estimador insesgado para RMD( X ), en parte debido a la dificultad de encontrar una estimación insesgada para multiplicar por la inversa de la media. Por ejemplo, incluso cuando se sabe que la muestra se tomó de una variable aleatoria X ( p ) para una p desconocida , y X ( p ) − 1 tiene la distribución de Bernoulli , de modo que Pr( X ( p ) = 1) = 1 −  p y Pr( X ( p ) = 2) = p , entonces

RMD( X ( p )) = 2 p (1 -  p )/(1 +  p ) .

Pero el valor esperado de cualquier estimador R ( S ) de RMD ( X ( p )) será de la forma: [ cita necesaria ]

donde los r i son constantes. Entonces E( R ( S )) nunca puede ser igual a RMD( X ( p )) para todo p entre 0 y 1.

Ejemplos

† es la función Beta

Ver también

Referencias

  1. ^ Yitzhaki, Shlomo (2003). "Diferencia de medias de Gini: una medida superior de variabilidad para distribuciones no normales" (PDF) . Revista Internacional de Estadística Metron . 61 (2). Springer Verlag: 285–316.

Fuentes