stringtranslate.com

Oblicuidad

Ejemplo de distribución con asimetría positiva. Estos datos provienen de experimentos sobre el crecimiento del pasto de trigo.

En teoría de la probabilidad y estadística , la asimetría es una medida de la asimetría de la distribución de probabilidad de una variable aleatoria de valor real con respecto a su media. El valor de asimetría puede ser positivo, cero, negativo o indefinido.

Para una distribución unimodal (una distribución con un solo pico), la asimetría negativa comúnmente indica que la cola está en el lado izquierdo de la distribución, y la asimetría positiva indica que la cola está a la derecha. En los casos en que una cola es larga pero la otra es gorda, la asimetría no obedece a una regla simple. Por ejemplo, un valor cero en asimetría significa que las colas a ambos lados de la media se equilibran en general; Este es el caso de una distribución simétrica, pero también puede ser cierto para una distribución asimétrica en la que una cola es larga y delgada y la otra es corta pero gruesa. Por tanto, juzgar la simetría de una distribución dada utilizando sólo su asimetría es arriesgado; Se debe tener en cuenta la forma de distribución.

Introducción

Considere las dos distribuciones en la figura siguiente. Dentro de cada gráfico, los valores en el lado derecho de la distribución se estrechan de manera diferente a los valores en el lado izquierdo. Estos lados que se estrechan se llaman colas y proporcionan un medio visual para determinar cuál de los dos tipos de asimetría tiene una distribución:

  1. sesgo negativo : la cola izquierda es más larga; la masa de la distribución se concentra a la derecha de la figura. Se dice que la distribución estásesgada hacia la izquierda,de cola izquierdaosesgada hacia la izquierda, a pesar de que la curva en sí parece estar sesgada o inclinada hacia la derecha; En cambio , leftse refiere a que la cola izquierda se extiende y, a menudo, la media está sesgada hacia la izquierda de un centro típico de los datos. Una distribución sesgada hacia la izquierda suele aparecer como unainclinada hacia la derecha. [1]
  2. sesgo positivo : la cola derecha es más larga; la masa de la distribución se concentra a la izquierda de la figura. Se dice que la distribución estásesgada a la derecha,de cola derechaosesgada hacia la derecha, a pesar de que la curva en sí parece estar sesgada o inclinada hacia la izquierda; En cambio , la derechase refiere a que la cola derecha se extiende y, a menudo, la media está sesgada hacia la derecha de un centro típico de los datos. Una distribución sesgada hacia la derecha suele aparecer como unainclinada hacia la izquierda. [1]

A veces la asimetría en una serie de datos puede observarse no sólo gráficamente sino mediante una simple inspección de los valores. Por ejemplo, considere la secuencia numérica (49, 50, 51), cuyos valores están distribuidos uniformemente alrededor de un valor central de 50. Podemos transformar esta secuencia en una distribución sesgada negativamente agregando un valor muy por debajo de la media, que probablemente sea una valor atípico negativo , por ejemplo (40, 49, 50, 51). Por lo tanto, la media de la secuencia es 47,5 y la mediana es 49,5. Basado en la fórmula de sesgo no paramétrico , definido como el sesgo es negativo. De manera similar, podemos hacer que la secuencia sea positivamente asimétrica agregando un valor muy por encima de la media, que probablemente sea un valor atípico positivo, por ejemplo (49, 50, 51, 60), donde la media es 52,5 y la mediana es 50,5.

Como se mencionó anteriormente, una distribución unimodal con valor de asimetría cero no implica que esta distribución sea necesariamente simétrica. Sin embargo, una distribución simétrica unimodal o multimodal siempre tiene asimetría cero.

Ejemplo de distribución asimétrica con asimetría cero. Esta figura sirve como contraejemplo de que la asimetría cero no implica necesariamente una distribución simétrica. (La asimetría se calculó mediante el coeficiente de asimetría del momento de Pearson).

Relación de media y mediana

La asimetría no está directamente relacionada con la relación entre la media y la mediana: una distribución con asimetría negativa puede tener su media mayor o menor que la mediana, y lo mismo ocurre con la asimetría positiva. [2]

Una relación general de media y mediana bajo una distribución unimodal con asimetría diferente.

En la noción anterior de asimetría no paramétrica , definida como dónde está la media , es la mediana y es la desviación estándar , la asimetría se define en términos de esta relación: asimetría no paramétrica positiva/derecha significa que la media es mayor que (a la derecha). de) la mediana, mientras que el sesgo no paramétrico negativo/izquierdo significa que la media es menor que (a la izquierda de) la mediana. Sin embargo, la definición moderna de asimetría y la definición tradicional no paramétrica no siempre tienen el mismo signo: si bien coinciden para algunas familias de distribuciones, difieren en algunos casos, y combinarlas es engañoso.

Si la distribución es simétrica , entonces la media es igual a la mediana y la distribución tiene asimetría cero. [3] Si la distribución es simétrica y unimodal , entonces la media = mediana = moda . Este es el caso del lanzamiento de una moneda o de la serie 1,2,3,4,... Tenga en cuenta, sin embargo, que lo contrario no es cierto en general, es decir, la asimetría cero (definida a continuación) no implica que la media sea igual. a la mediana.

Un artículo de revista de 2005 señala: [2]

Muchos libros de texto enseñan una regla general que establece que la media está a la derecha de la mediana si está sesgada hacia la derecha y a la izquierda de la mediana si está sesgada hacia la izquierda. Esta regla falla con sorprendente frecuencia. Puede fallar en distribuciones multimodales o en distribuciones donde una cola es larga pero la otra es pesada . Sin embargo, lo más común es que la regla falle en distribuciones discretas donde las áreas a la izquierda y a la derecha de la mediana no son iguales. Tales distribuciones no sólo contradicen la relación de los libros de texto entre media, mediana y asimetría, sino que también contradicen la interpretación de la mediana en los libros de texto.

Distribución de residentes adultos en los hogares de EE. UU.

Por ejemplo, en la distribución de residentes adultos en los hogares estadounidenses, el sesgo es hacia la derecha. Sin embargo, dado que la mayoría de los casos es menor o igual que la moda, que también es la mediana, la media se ubica en la cola izquierda más pesada. Como resultado, la regla general de que la media está a la derecha de la mediana bajo sesgo a la derecha falló. [2]

Definición

Coeficiente de asimetría del momento de Fisher

La asimetría de una variable aleatoria X es el tercer momento estandarizado , definido como: [4] [5]

donde μ es la media, σ es la desviación estándar , E es el operador de expectativa , μ 3 es el tercer momento central y κ t son los t -ésimos cumulantes . A veces se lo denomina coeficiente de momento de asimetría de Pearson , [5] o simplemente coeficiente de momento de asimetría , [4] pero no debe confundirse con otras estadísticas de asimetría de Pearson (ver más abajo). La última igualdad expresa asimetría en términos de la relación del tercer cumulante κ 3 a la 1,5ª potencia del segundo cumulante κ 2 . Esto es análogo a la definición de curtosis como el cuarto cumulante normalizado por el cuadrado del segundo cumulante. La asimetría a veces también se denomina Skew[ X ].

Si σ es finito y μ también es finito, entonces la asimetría se puede expresar en términos del momento no central E[ X 3 ] expandiendo la fórmula anterior:

Ejemplos

La asimetría puede ser infinita, como cuando

donde los terceros cumulantes son infinitos, o como cuando

donde el tercer acumulante no está definido.

Ejemplos de distribuciones con asimetría finita incluyen los siguientes.

Asimetría de la muestra

Para una muestra de n valores, dos estimadores naturales de la asimetría poblacional son [6]

y

donde es la media muestral , s es la desviación estándar muestral , m 2 es el segundo momento central de la muestra (sesgado) y m 3 es el tercer momento central de la muestra (sesgado). [6] es un método de estimación de momentos.

Otra definición común de asimetría muestral es [6] [7]

donde es el estimador insesgado simétrico único del tercer cumulante y es el estimador insesgado simétrico del segundo cumulante (es decir, la varianza muestral ). Este coeficiente de momento estandarizado de Fisher-Pearson ajustado es la versión que se encuentra en Excel y en varios paquetes estadísticos, incluidos Minitab , SAS y SPSS . [7]

Bajo el supuesto de que la variable aleatoria subyacente tiene una distribución normal , se puede demostrar que las tres razones son estimadores insesgados y consistentes de la asimetría poblacional , es decir, sus distribuciones convergen a una distribución normal con media 0 y varianza 6 ( Pescador , 1930). [6] La varianza de la asimetría muestral es, por tanto, aproximadamente para muestras suficientemente grandes. Más precisamente, en una muestra aleatoria de tamaño n de una distribución normal, [8] [9]

En muestras normales, tiene la varianza más pequeña de los tres estimadores, con [6]

Para distribuciones no normales, y generalmente son estimadores sesgados de la asimetría poblacional ; sus valores esperados pueden incluso tener el signo opuesto al de la asimetría verdadera. Por ejemplo, una distribución mixta que consta de gaussianas muy delgadas centradas en −99, 0,5 y 2 con pesos de 0,01, 0,66 y 0,33 tiene una asimetría de aproximadamente −9,77, pero en una muestra de 3 tiene un valor esperado de aproximadamente 0,32. ya que normalmente las tres muestras están en la parte de la distribución con valores positivos, que está sesgada en sentido contrario.

Aplicaciones

La asimetría es una estadística descriptiva que se puede utilizar junto con el histograma y el gráfico de cuantiles normales para caracterizar los datos o la distribución.

La asimetría indica la dirección y la magnitud relativa de la desviación de una distribución de la distribución normal.

Con una asimetría pronunciada, los procedimientos de inferencia estadística estándar, como un intervalo de confianza para una media, no sólo serán incorrectos, en el sentido de que el nivel de cobertura real diferirá del nivel nominal (por ejemplo, 95%), sino que también darán como resultado resultados desiguales. probabilidades de error en cada lado.

La asimetría se puede utilizar para obtener probabilidades aproximadas y cuantiles de distribuciones (como el valor en riesgo en finanzas) a través de la expansión de Cornish-Fisher .

Muchos modelos suponen una distribución normal; es decir, los datos son simétricos con respecto a la media. La distribución normal tiene una asimetría de cero. Pero en realidad, es posible que los puntos de datos no sean perfectamente simétricos. Entonces, comprender la asimetría del conjunto de datos indica si las desviaciones de la media serán positivas o negativas.

La prueba K-cuadrado de D'Agostino es una prueba de normalidad de bondad de ajuste basada en la asimetría y la curtosis de la muestra.

Otras medidas de asimetría

Comparación de media , mediana y moda de dos distribuciones log-normales con las mismas medianas y diferentes asimetrías.

Se han utilizado otras medidas de asimetría, incluidos cálculos más simples sugeridos por Karl Pearson [10] (que no debe confundirse con el coeficiente de momento de asimetría de Pearson, ver arriba). Estas otras medidas son:

Primer coeficiente de asimetría de Pearson (asimetría modal)

La asimetría del modo de Pearson, [11] o primer coeficiente de asimetría, se define como

media - modo/Desviación Estándar.

Segundo coeficiente de asimetría de Pearson (asimetría mediana)

La asimetría mediana de Pearson, o segundo coeficiente de asimetría, [12] [13] se define como

3 ( mediamediana )/Desviación Estándar.

Que es un múltiplo simple del sesgo no paramétrico .

Medidas basadas en cuantiles

La medida de asimetría de Bowley (de 1901), [14] [15] también llamada coeficiente de Yule (de 1912) [16] [17] se define como:

donde Q es la función cuantil (es decir, la inversa de la función de distribución acumulativa ). El numerador es la diferencia entre el promedio de los cuartiles superior e inferior (una medida de ubicación) y la mediana (otra medida de ubicación), mientras que el denominador es el rango semiintercuartil , que para distribuciones simétricas es la medida de dispersión MAD .

Otros nombres para esta medida son medida de asimetría de Galton, [18] índice de Yule-Kendall [19] y asimetría cuartil, [20]

De manera similar, la medida de asimetría de Kelly se define como [21]

Groeneveld, RA y Meeden, G. (1984) describieron una formulación más general de una función de asimetría: [22] [23] [24]

La función γ ( u ) satisface −1 ≤  γ ( u ) ≤ 1 y está bien definida sin requerir la existencia de ningún momento de la distribución. [22] La medida de asimetría de Bowley es γ( u ) evaluada en u  = 3/4, mientras que la medida de asimetría de Kelly es γ( u ) evaluada en u  = 9/10. Esta definición conduce a una medida general correspondiente de asimetría [23] definida como el supremo de esta en el rango 1/2 ≤  u  < 1. Se puede obtener otra medida integrando el numerador y el denominador de esta expresión. [22]

Las medidas de asimetría basadas en cuantiles son a primera vista fáciles de interpretar, pero a menudo muestran variaciones muestrales significativamente mayores que los métodos basados ​​en momentos. Esto significa que a menudo las muestras de una distribución simétrica (como la distribución uniforme) tienen una gran asimetría basada en cuantiles, simplemente por casualidad.

Coeficiente de Groeneveld y Meeden

Groeneveld y Meeden han sugerido, como medida alternativa de asimetría, [22]

donde μ es la media, ν es la mediana, |...| es el valor absoluto y E () es el operador de expectativa. Esto está estrechamente relacionado en su forma con el segundo coeficiente de asimetría de Pearson.

momentos L

El uso de momentos L en lugar de momentos proporciona una medida de asimetría conocida como asimetría L. [25]

Asimetría de la distancia

Un valor de asimetría igual a cero no implica que la distribución de probabilidad sea simétrica. Por lo tanto, existe la necesidad de otra medida de asimetría que tenga esta propiedad: dicha medida se introdujo en 2000. [26] Se llama asimetría de distancia y se denota por dSkew. Si X es una variable aleatoria que toma valores en el espacio euclidiano d -dimensional, X tiene una expectativa finita, X ' es una copia independiente e idénticamente distribuida de X y denota la norma en el espacio euclidiano, entonces una medida simple de asimetría con respecto a El parámetro de ubicación θ es

y dSkew( X ) := 0 para X  = θ (con probabilidad 1). La asimetría de la distancia está siempre entre 0 y 1, es igual a 0 si y solo si X es diagonalmente simétrica con respecto a θ ( X y 2θ− X tienen la misma distribución de probabilidad) y es igual a 1 si y solo si X es una constante c ( ) con probabilidad uno. [27] Por lo tanto, existe una prueba estadística simple y consistente de simetría diagonal basada en la asimetría de la distancia de la muestra :

pareja medica

El par médico es una medida robusta de asimetría invariante en la escala, con un punto de ruptura del 25%. [28] Es la mediana de los valores de la función kernel.

tomado sobre todas las parejas tales que , ¿dónde está la mediana de la muestra ? Puede verse como la mediana de todas las posibles medidas de asimetría cuantil.

Ver también

Referencias

Citas

  1. ^ ab Illowsky, Bárbara; Dean, Susan (27 de marzo de 2020). "2.6 Asimetría y media, mediana y moda: estadísticas". AbiertoStax . Consultado el 21 de diciembre de 2022 .
  2. ^ abc von Hippel, Paul T. (2005). "Media, mediana y sesgo: corregir una regla de un libro de texto". Revista de Educación Estadística . 13 (2). Archivado desde el original el 20 de febrero de 2016.
  3. ^ "1.3.5.11. Medidas de asimetría y curtosis". NIST . Consultado el 18 de marzo de 2012 .
  4. ^ ab "Medidas de forma: asimetría y curtosis", 2008-2016 por Stan Brown, Oak Road Systems
  5. ^ ab Coeficiente de asimetría del momento de Pearson, FXSolver.com
  6. ^ abcde Joanes, DN; Gill, California (1998). "Comparación de medidas de asimetría y curtosis de la muestra". Revista de la Royal Statistical Society, Serie D. 47 (1): 183–189. doi :10.1111/1467-9884.00122.
  7. ^ ab Doane, David P. y Lori E. Seward. "Medir la asimetría: una estadística olvidada". Revista de Educación Estadística 19.2 (2011): 1-18. (Página 7)
  8. ^ Duncan Cramer (1997) Estadísticas fundamentales para la investigación social. Rutledge. ISBN 9780415172042 (pág. 85) 
  9. ^ Kendall, MG; Stuart, A. (1969) La teoría avanzada de la estadística, volumen 1: teoría de la distribución, tercera edición , Griffin. ISBN 0-85264-141-9 (Ejemplo 12.9) 
  10. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 5 de julio de 2010 . Consultado el 9 de abril de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  11. ^ Weisstein, Eric W. "Asimetría del modo Pearson". MundoMatemático .
  12. ^ Weisstein, Eric W. "Coeficientes de asimetría de Pearson". MundoMatemático .
  13. ^ Doane, David P.; Seward, Lori E. (2011). "Medición de la asimetría: ¿una estadística olvidada?" (PDF) . Revista de Educación Estadística . 19 (2): 1–18. doi : 10.1080/10691898.2011.11889611 .
  14. ^ Bowley, AL (1901). Elementos de estadística, PS King & Son, Laondon. O en una edición posterior: BOWLEY, AL. "Elementos de estadística, 4ª edición (Nueva York, Charles Scribner)" (1920).
  15. ^ Kenney JF y Keeping ES (1962) Matemáticas de la estadística, pt. 1, 3ª ed. , Van Nostrand, (página 102).
  16. ^ Navidad, George Udny. Una introducción a la teoría de la estadística. C. Griffin, limitada, 1912.
  17. ^ Groeneveld, Richard A (1991). "Un enfoque de función de influencia para describir la asimetría de una distribución". El estadístico estadounidense . 45 (2): 97-102. doi :10.2307/2684367. JSTOR  2684367.
  18. ^ Johnson, NL, Kotz, S y Balakrishnan, N (1994) p. 3 y pág. 40
  19. ^ Wilks DS (1995) Métodos estadísticos en las ciencias atmosféricas , p. 27. Academic Press. ISBN 0-12-751965-3 
  20. ^ Weisstein, Eric W. "Asimetría". mathworld.wolfram.com . Consultado el 21 de noviembre de 2019 .
  21. ^ AWL Pubudu Thilan. "Estadística Aplicada I: Capítulo 5: Medidas de asimetría" (PDF) . Universidad de Ruhuna . pag. 21.
  22. ^ abc Groeneveld, RA; Meeden, G. (1984). "Medición de asimetría y curtosis". El estadístico . 33 (4): 391–399. doi :10.2307/2987742. JSTOR  2987742.
  23. ^ ab MacGillivray (1992)
  24. ^ Hinkley DV (1975) "Sobre las transformaciones de potencia a la simetría", Biometrika , 62, 101-111
  25. ^ Hosking, JRM (1992). "¿Momentos o momentos L? Un ejemplo que compara dos medidas de forma distributiva". El estadístico estadounidense . 46 (3): 186–189. doi :10.2307/2685210. JSTOR  2685210.
  26. ^ Székely, GJ (2000). "Teoremas previos y posteriores al límite para las estadísticas", en: Estadísticas para el siglo XXI (eds. CR Rao y GJ Szekely), Dekker, Nueva York, págs.
  27. ^ Szekely, G. J. y Mori, T. F. (2001) "Una medida característica de asimetría y su aplicación para probar la simetría diagonal", Comunicaciones en estadística - Teoría y métodos 30/8 y 9, 1633-1639.
  28. ^ G. Brys; el señor Hubert ; A. Struyf (noviembre de 2004). "Una medida sólida de asimetría". Revista de Estadística Computacional y Gráfica . 13 (4): 996–1017. doi :10.1198/106186004X12632. S2CID  120919149.

Fuentes

enlaces externos