stringtranslate.com

Diferencia

Ejemplo de muestras de dos poblaciones con la misma media pero diferentes varianzas. La población roja tiene una media de 100 y una varianza de 100 (DE=10), mientras que la población azul tiene una media de 100 y una varianza de 2500 (DE=50), donde DE significa desviación estándar.

En teoría de probabilidad y estadística , la varianza es el valor esperado de la desviación al cuadrado de la media de una variable aleatoria . La desviación estándar (DE) se obtiene como la raíz cuadrada de la varianza. La varianza es una medida de dispersión , es decir, es una medida de qué tan lejos se extiende un conjunto de números de su valor promedio. Es el segundo momento central de una distribución y la covarianza de la variable aleatoria consigo misma, y ​​a menudo se representa por , , , o . [1]

Una ventaja de la varianza como medida de dispersión es que es más fácil de manipular algebraicamente que otras medidas de dispersión, como la desviación absoluta esperada ; por ejemplo, la varianza de una suma de variables aleatorias no correlacionadas es igual a la suma de sus varianzas. Una desventaja de la varianza para aplicaciones prácticas es que, a diferencia de la desviación estándar, sus unidades difieren de la variable aleatoria, por lo que la desviación estándar se informa más comúnmente como una medida de dispersión una vez finalizado el cálculo. Otra desventaja es que la varianza no es finita para muchas distribuciones.

Existen dos conceptos distintos, ambos denominados "varianza". Uno, como se ha comentado anteriormente, forma parte de una distribución de probabilidad teórica y se define mediante una ecuación. El otro, la varianza, es una característica de un conjunto de observaciones. Cuando la varianza se calcula a partir de observaciones, estas suelen medirse a partir de un sistema del mundo real. Si están presentes todas las observaciones posibles del sistema, la varianza calculada se denomina varianza de la población. Sin embargo, normalmente solo se dispone de un subconjunto y la varianza calculada a partir de este se denomina varianza de la muestra. La varianza calculada a partir de una muestra se considera una estimación de la varianza de la población completa. Existen múltiples formas de calcular una estimación de la varianza de la población, como se explica en la sección siguiente.

Los dos tipos de varianza están estrechamente relacionados. Para ver cómo, considere que una distribución de probabilidad teórica puede usarse como generador de observaciones hipotéticas. Si se genera un número infinito de observaciones usando una distribución, entonces la varianza de la muestra calculada a partir de ese conjunto infinito coincidirá con el valor calculado usando la ecuación de la distribución para la varianza. La varianza tiene un papel central en las estadísticas, donde algunas ideas que la usan incluyen estadísticas descriptivas , inferencia estadística , prueba de hipótesis , bondad de ajuste y muestreo de Monte Carlo .

Visualización geométrica de la varianza de una distribución arbitraria (2, 4, 4, 4, 5, 5, 7, 9):
  1. Se construye una distribución de frecuencias.
  2. El centroide de la distribución da su media.
  3. Para cada valor se forma un cuadrado cuyos lados son iguales a la diferencia de cada valor con respecto a la media.
  4. Al organizar los cuadrados en un rectángulo con un lado igual al número de valores, n , el resultado es que el otro lado es la varianza de la distribución, σ 2 .

Definición

La varianza de una variable aleatoria es el valor esperado de la desviación al cuadrado de la media de , :

Esta definición abarca las variables aleatorias generadas por procesos discretos , continuos , ni continuos ni mixtos. La varianza también puede considerarse como la covarianza de una variable aleatoria consigo misma:

La varianza también es equivalente al segundo cumulante de una distribución de probabilidad que genera . La varianza se designa típicamente como , o a veces como o , o simbólicamente como o simplemente (se pronuncia " sigma al cuadrado"). La expresión para la varianza se puede expandir de la siguiente manera:

En otras palabras, la varianza de X es igual a la media del cuadrado de X menos el cuadrado de la media de X. Esta ecuación no se debe utilizar para cálculos que utilicen aritmética de punto flotante , porque sufre una cancelación catastrófica si los dos componentes de la ecuación son similares en magnitud. Para otras alternativas numéricamente estables, consulte algoritmos para calcular la varianza .

Variable aleatoria discreta

Si el generador de variable aleatoria es discreto con función de masa de probabilidad , entonces

donde es el valor esperado, es decir,

(Cuando dicha varianza ponderada discreta se especifica mediante ponderaciones cuya suma no es 1, entonces se divide por la suma de las ponderaciones).

La varianza de una colección de valores igualmente probables se puede escribir como

donde es el valor medio, es decir,

La varianza de un conjunto de valores igualmente probables se puede expresar de manera equivalente, sin hacer referencia directa a la media, en términos de desviaciones al cuadrado de todas las distancias al cuadrado de los puntos entre sí: [2]

Variable aleatoria absolutamente continua

Si la variable aleatoria tiene una función de densidad de probabilidad y es la función de distribución acumulativa correspondiente , entonces

o equivalentemente,

¿Dónde está el valor esperado de dado por?

En estas fórmulas, las integrales con respecto a y son integrales de Lebesgue y Lebesgue-Stieltjes , respectivamente.

Si la función es Riemann-integrable en cada intervalo finito entonces

donde la integral es una integral de Riemann impropia .

Ejemplos

Distribución exponencial

La distribución exponencial con parámetro λ es una distribución continua cuya función de densidad de probabilidad está dada por

en el intervalo [0, ∞) . Se puede demostrar que su media es

Utilizando la integración por partes y haciendo uso del valor esperado ya calculado, tenemos:

Por lo tanto, la varianza de X viene dada por

Dado justo

Un dado de seis caras puede modelarse como una variable aleatoria discreta, X , con resultados del 1 al 6, cada uno con la misma probabilidad 1/6. El valor esperado de X es Por lo tanto, la varianza de X es

La fórmula general para la varianza del resultado, X , de un dado de n caras es

Distribuciones de probabilidad de uso común

La siguiente tabla enumera la varianza de algunas distribuciones de probabilidad comúnmente utilizadas.

Propiedades

Propiedades básicas

La varianza no es negativa porque los cuadrados son positivos o cero:

La varianza de una constante es cero.

Por el contrario, si la varianza de una variable aleatoria es cero, entonces es casi seguro que es una constante, es decir, siempre tiene el mismo valor:

Cuestiones de finitud

Si una distribución no tiene un valor esperado finito, como es el caso de la distribución de Cauchy , entonces la varianza tampoco puede ser finita. Sin embargo, algunas distribuciones pueden no tener una varianza finita, a pesar de que su valor esperado sea finito. Un ejemplo es una distribución de Pareto cuyo índice satisface

Descomposición

La fórmula general para la descomposición de la varianza o la ley de la varianza total es: Si y son dos variables aleatorias, y la varianza de existe, entonces

La esperanza condicional de un valor dado y la varianza condicional pueden entenderse de la siguiente manera. Dado cualquier valor particular y de la variable aleatoria  Y , existe una esperanza condicional dado el evento  Y  =  y . Esta cantidad depende del valor particular  y ; es una función . Esa misma función evaluada en la variable aleatoria Y es la esperanza condicional

En particular, si es una variable aleatoria discreta que asume valores posibles con probabilidades correspondientes , entonces en la fórmula para la varianza total, el primer término en el lado derecho se convierte en

donde . De manera similar, el segundo término del lado derecho se convierte en

donde y . Por lo tanto, la varianza total está dada por

Una fórmula similar se aplica en el análisis de varianza , donde la fórmula correspondiente es

Aquí se hace referencia a la media de los cuadrados. En el análisis de regresión lineal , la fórmula correspondiente es

Esto también puede derivarse de la aditividad de las varianzas, ya que la puntuación total (observada) es la suma de la puntuación prevista y la puntuación de error, donde las dos últimas no están correlacionadas.

Son posibles descomposiciones similares para la suma de desviaciones al cuadrado (suma de cuadrados, ):

Cálculo a partir del CDF

La varianza poblacional para una variable aleatoria no negativa se puede expresar en términos de la función de distribución acumulativa F usando

Esta expresión se puede utilizar para calcular la varianza en situaciones en las que se puede expresar convenientemente la CDF, pero no la densidad .

Propiedad característica

El segundo momento de una variable aleatoria alcanza el valor mínimo cuando se toma alrededor del primer momento (es decir, la media) de la variable aleatoria, es decir . Por el contrario, si una función continua satisface para todas las variables aleatorias X , entonces necesariamente tiene la forma , donde a > 0 . Esto también se cumple en el caso multidimensional. [3]

Unidades de medida

A diferencia de la desviación absoluta esperada , la varianza de una variable tiene unidades que son el cuadrado de las unidades de la propia variable. Por ejemplo, una variable medida en metros tendrá una varianza medida en metros al cuadrado. Por este motivo, a menudo se prefiere describir los conjuntos de datos a través de su desviación estándar o desviación cuadrática media en lugar de utilizar la varianza. En el ejemplo de los dados, la desviación estándar es 2,9 ≈ 1,7 , ligeramente mayor que la desviación absoluta esperada de 1,5.

Tanto la desviación estándar como la desviación absoluta esperada pueden utilizarse como indicadores de la "dispersión" de una distribución. La desviación estándar es más susceptible de manipulación algebraica que la desviación absoluta esperada y, junto con la varianza y su generalización, la covarianza , se utiliza con frecuencia en las estadísticas teóricas; sin embargo, la desviación absoluta esperada tiende a ser más robusta , ya que es menos sensible a los valores atípicos que surgen de anomalías de medición o de una distribución de colas excesivamente pesadas .

Propagación

Suma y multiplicación por una constante

La varianza es invariable con respecto a los cambios en un parámetro de ubicación . Es decir, si se agrega una constante a todos los valores de la variable, la varianza no cambia:

Si todos los valores se escalan mediante una constante, la varianza se escala mediante el cuadrado de esa constante:

La varianza de una suma de dos variables aleatorias está dada por

¿Dónde está la covarianza ?

Combinaciones lineales

En general, para la suma de variables aleatorias , la varianza se convierte en:

ver también identidad del general Bienaymé .

Estos resultados conducen a la varianza de una combinación lineal como:

Si las variables aleatorias son tales que

Entonces se dice que no están correlacionadas . De la expresión dada anteriormente se deduce inmediatamente que si las variables aleatorias no están correlacionadas, entonces la varianza de su suma es igual a la suma de sus varianzas, o, expresado simbólicamente:

Dado que las variables aleatorias independientes siempre están descorrelacionadas (véase Covarianza § Descorrelación e independencia ), la ecuación anterior se cumple en particular cuando las variables aleatorias son independientes. Por lo tanto, la independencia es suficiente, pero no necesaria, para que la varianza de la suma sea igual a la suma de las varianzas.

Notación matricial para la varianza de una combinación lineal

Definamos como un vector columna de variables aleatorias , y como un vector columna de escalares . Por lo tanto, es una combinación lineal de estas variables aleatorias, donde denota la transpuesta de . Sea también la matriz de covarianza de . La varianza de se da entonces por: [4]

Esto implica que la varianza de la media se puede escribir como (con un vector columna de unos)

Suma de variables

Suma de variables no correlacionadas

Una razón para el uso de la varianza en preferencia a otras medidas de dispersión es que la varianza de la suma (o la diferencia) de variables aleatorias no correlacionadas es la suma de sus varianzas:

Esta afirmación se llama fórmula de Bienaymé [5] y fue descubierta en 1853. [6] [7] A menudo se hace con la condición más fuerte de que las variables sean independientes , pero basta con que no estén correlacionadas. Por lo tanto, si todas las variables tienen la misma varianza σ 2 , entonces, como la división por n es una transformación lineal, esta fórmula implica inmediatamente que la varianza de su media es

Es decir, la varianza de la media disminuye cuando n aumenta. Esta fórmula para la varianza de la media se utiliza en la definición del error estándar de la media de la muestra, que se utiliza en el teorema del límite central .

Para probar la afirmación inicial, basta demostrar que

El resultado general se obtiene por inducción. Comenzando con la definición,

Utilizando la linealidad del operador de expectativa y el supuesto de independencia (o no correlación) de X e Y , esto se simplifica aún más de la siguiente manera:

Suma de variables correlacionadas

Suma de variables correlacionadas con tamaño de muestra fijo

En general, la varianza de la suma de n variables es la suma de sus covarianzas :

(Nota: La segunda igualdad proviene del hecho de que Cov( X i , X i ) = Var( X i ) .)

Aquí, está la covarianza , que es cero para las variables aleatorias independientes (si existe). La fórmula establece que la varianza de una suma es igual a la suma de todos los elementos en la matriz de covarianza de los componentes. La siguiente expresión establece de manera equivalente que la varianza de la suma es la suma de la diagonal de la matriz de covarianza más dos veces la suma de sus elementos triangulares superiores (o sus elementos triangulares inferiores); esto enfatiza que la matriz de covarianza es simétrica. Esta fórmula se utiliza en la teoría del alfa de Cronbach en la teoría clásica de pruebas .

Por lo tanto, si las variables tienen varianza igual σ 2 y la correlación promedio de distintas variables es ρ , entonces la varianza de su media es

Esto implica que la varianza de la media aumenta con el promedio de las correlaciones. En otras palabras, las observaciones correlacionadas adicionales no son tan efectivas como las observaciones independientes adicionales para reducir la incertidumbre de la media . Además, si las variables tienen varianza unitaria, por ejemplo, si están estandarizadas, entonces esto se simplifica a

Esta fórmula se utiliza en la fórmula de predicción de Spearman-Brown de la teoría clásica de los tests. Esta converge a ρ si n tiende a infinito, siempre que la correlación media permanezca constante o converja también. Por lo tanto, para la varianza de la media de las variables estandarizadas con correlaciones iguales o correlación media convergente tenemos

Por lo tanto, la varianza de la media de un gran número de variables estandarizadas es aproximadamente igual a su correlación promedio. Esto deja en claro que la media muestral de las variables correlacionadas no converge generalmente a la media poblacional, aunque la ley de los grandes números establece que la media muestral convergerá para las variables independientes.

Suma de variables no correlacionadas con tamaño de muestra aleatorio

Existen casos en los que se toma una muestra sin saber de antemano cuántas observaciones serán aceptables según algún criterio. En tales casos, el tamaño de la muestra N es una variable aleatoria cuya variación se suma a la variación de X , de modo que,

[8]

lo cual se desprende de la ley de varianza total .

Si N tiene una distribución de Poisson , entonces con estimador n = N. Por lo tanto, el estimador de se convierte en , dando (ver error estándar de la media de la muestra ).

Suma ponderada de variables

La propiedad de escala y la fórmula de Bienaymé, junto con la propiedad de la covarianza Cov( aXbY ) = ab Cov( XY ) implican conjuntamente que

Esto implica que en una suma ponderada de variables, la variable con el mayor peso tendrá un peso desproporcionadamente grande en la varianza del total. Por ejemplo, si X e Y no están correlacionadas y el peso de X es dos veces el peso de Y , entonces el peso de la varianza de X será cuatro veces el peso de la varianza de Y.

La expresión anterior se puede extender a una suma ponderada de múltiples variables:

Producto de variables

Producto de variables independientes

Si dos variables X e Y son independientes , la varianza de su producto viene dada por [9]

De manera equivalente, utilizando las propiedades básicas de la expectativa, se obtiene mediante

Producto de variables estadísticamente dependientes

En general, si dos variables son estadísticamente dependientes, entonces la varianza de su producto viene dada por:

Funciones arbitrarias

El método delta utiliza expansiones de Taylor de segundo orden para aproximar la varianza de una función de una o más variables aleatorias: consulte expansiones de Taylor para los momentos de funciones de variables aleatorias . Por ejemplo, la varianza aproximada de una función de una variable está dada por

siempre que f sea dos veces diferenciable y que la media y la varianza de X sean finitas.

Varianza de la población y varianza de la muestra

Las observaciones del mundo real, como las mediciones de la lluvia de ayer a lo largo del día, normalmente no pueden ser conjuntos completos de todas las observaciones posibles que podrían hacerse. Por lo tanto, la varianza calculada a partir del conjunto finito en general no coincidirá con la varianza que se habría calculado a partir de la población completa de observaciones posibles. Esto significa que uno estima la media y la varianza a partir de un conjunto limitado de observaciones utilizando una ecuación de estimador . El estimador es una función de la muestra de n observaciones extraídas sin sesgo observacional de toda la población de observaciones potenciales. En este ejemplo, la muestra sería el conjunto de mediciones reales de la lluvia de ayer de los pluviómetros disponibles dentro de la geografía de interés.

Los estimadores más simples para la media y la varianza de la población son simplemente la media y la varianza de la muestra, la media de la muestra y la varianza de la muestra (sin corregir) ; estos son estimadores consistentes (convergen al valor de toda la población a medida que aumenta el número de muestras), pero se pueden mejorar. De manera más simple, la varianza de la muestra se calcula como la suma de las desviaciones al cuadrado sobre la media (de la muestra), dividida por n como el número de muestras . Sin embargo, el uso de valores distintos de n mejora el estimador de varias maneras. Cuatro valores comunes para el denominador son n, n  − 1, n  + 1 y n  − 1,5: n es el más simple (la varianza de la muestra), n  − 1 elimina el sesgo, n  + 1 minimiza el error cuadrático medio para la distribución normal y n  − 1,5 elimina principalmente el sesgo en la estimación no sesgada de la desviación estándar para la distribución normal.

En primer lugar, si se desconoce la media real de la población, entonces la varianza de la muestra (que utiliza la media de la muestra en lugar de la media real) es un estimador sesgado : subestima la varianza por un factor de ( n  − 1) / n ; la corrección de este factor, que da como resultado la suma de las desviaciones al cuadrado sobre la media de la muestra dividida por n -1 en lugar de n , se denomina corrección de Bessel . El estimador resultante es insesgado y se denomina varianza de la muestra (corregida) o varianza de la muestra insesgada . Si la media se determina de alguna otra manera que no sea a partir de las mismas muestras utilizadas para estimar la varianza, entonces este sesgo no surge y la varianza se puede estimar con seguridad como la de las muestras sobre la media (conocida independientemente).

En segundo lugar, la varianza de la muestra no suele minimizar el error cuadrático medio entre la varianza de la muestra y la varianza de la población. La corrección del sesgo suele empeorar la situación: siempre se puede elegir un factor de escala que funcione mejor que la varianza de la muestra corregida, aunque el factor de escala óptimo depende del exceso de curtosis de la población (véase error cuadrático medio: varianza ) e introduce sesgo. Esto siempre consiste en reducir la escala del estimador insesgado (dividiendo por un número mayor que n  − 1) y es un ejemplo simple de un estimador de contracción : uno "encoge" el estimador insesgado hacia cero. Para la distribución normal, dividir por n  + 1 (en lugar de n  − 1 o n ) minimiza el error cuadrático medio. Sin embargo, el estimador resultante está sesgado y se conoce como variación muestral sesgada .

Varianza de la población

En general, la varianza poblacional de una población finita de tamaño N con valores x i está dada por donde la media poblacional es y , donde es el operador de valor esperado .

La varianza de la población también se puede calcular utilizando [10]

(El lado derecho tiene términos duplicados en la suma, mientras que el lado del medio solo tiene términos únicos para sumar). Esto es así porque la varianza de la población coincide con la varianza de la distribución de probabilidad generadora. En este sentido, el concepto de población se puede extender a variables aleatorias continuas con poblaciones infinitas.

Varianza de la muestra

Varianza de muestra sesgada

En muchas situaciones prácticas, la varianza real de una población no se conoce a priori y debe calcularse de alguna manera. Cuando se trata de poblaciones extremadamente grandes, no es posible contar todos los objetos de la población, por lo que el cálculo debe realizarse en una muestra de la población. [11] Esto generalmente se conoce como varianza muestral o varianza empírica . La varianza muestral también se puede aplicar a la estimación de la varianza de una distribución continua a partir de una muestra de esa distribución.

Tomamos una muestra con reemplazo de n valores Y 1 , ...,  Y n de la población de tamaño , donde n  <  N , y estimamos la varianza sobre la base de esta muestra. [12] Tomando directamente la varianza de los datos de la muestra obtenemos el promedio de las desviaciones al cuadrado :

[13]

(Véase la sección Varianza de la población para la derivación de esta fórmula.) Aquí, denota la media de la muestra :

Dado que las Y i se seleccionan aleatoriamente, tanto y como son variables aleatorias . Sus valores esperados se pueden evaluar promediando el conjunto de todas las muestras posibles { Y i } de tamaño n de la población. Esto da:

Aquí se derivan en la sección Varianza de población y debido a la independencia de y se utilizan.

Por lo tanto, se obtiene una estimación de la varianza de la población que está sesgada por un factor de, ya que el valor esperado de es menor que la varianza de la población (varianza verdadera) por ese factor. Por este motivo, se denomina varianza de muestra sesgada .

Varianza de muestra imparcial

Al corregir este sesgo se obtiene la varianza muestral no sesgada , denotada :

Cualquiera de los dos estimadores puede denominarse simplemente varianza de la muestra cuando la versión puede determinarse por el contexto. La misma prueba también es aplicable a muestras tomadas de una distribución de probabilidad continua.

El uso del término n  − 1 se denomina corrección de Bessel y también se utiliza en la covarianza de la muestra y la desviación estándar de la muestra (la raíz cuadrada de la varianza). La raíz cuadrada es una función cóncava y, por lo tanto, introduce un sesgo negativo (por la desigualdad de Jensen ), que depende de la distribución, y, por lo tanto, la desviación estándar de la muestra corregida (utilizando la corrección de Bessel) está sesgada. La estimación insesgada de la desviación estándar es un problema técnicamente complejo, aunque para la distribución normal, el uso del término n  − 1,5 produce un estimador casi insesgado.

La varianza muestral no sesgada es una estadística U para la función ƒ ( y 1y 2 ) = ( y 1  −  y 2 ) 2 /2, lo que significa que se obtiene promediando una estadística de 2 muestras sobre subconjuntos de 2 elementos de la población.

Ejemplo

Para un conjunto de números {10, 15, 30, 45, 57, 52, 63, 72, 81, 93, 102, 105}, si este conjunto es toda la población de datos para alguna medición, entonces la varianza es la varianza de la población 932,743 como la suma de las desviaciones al cuadrado sobre la media de este conjunto, dividida por 12 como el número de los miembros del conjunto. Si el conjunto es una muestra de toda la población, entonces la varianza de la muestra no sesgada se puede calcular como 1017,538, que es la suma de las desviaciones al cuadrado sobre la media de la muestra, dividida por 11 en lugar de 12. Una función VAR.S en Microsoft Excel proporciona la varianza de la muestra no sesgada, mientras que VAR.P es para la varianza de la población.

Distribución de la varianza de la muestra

Al ser una función de variables aleatorias , la varianza de la muestra es en sí misma una variable aleatoria y es natural estudiar su distribución. En el caso de que Y i sean observaciones independientes de una distribución normal , el teorema de Cochran muestra que la varianza de la muestra insesgada S 2 sigue una distribución de chi-cuadrado escalada (ver también: propiedades asintóticas y una prueba elemental ): [14]

donde σ 2 es la varianza de la población. Como consecuencia directa, se deduce que

y [15]

Si Y i son independientes y se distribuyen de forma idéntica, pero no necesariamente se distribuyen de forma normal, entonces [16]

donde κ es la curtosis de la distribución y μ 4 es el cuarto momento central .

Si las condiciones de la ley de los grandes números se cumplen para las observaciones al cuadrado, S 2 es un estimador consistente de  σ 2 . Se puede ver, de hecho, que la varianza del estimador tiende asintóticamente a cero. Una fórmula asintóticamente equivalente fue dada en Kenney y Keeping (1951:164), Rose y Smith (2002:264) y Weisstein (nd). [17] [18] [19]

Desigualdad de Samuelson

La desigualdad de Samuelson es un resultado que establece límites a los valores que pueden tomar las observaciones individuales en una muestra, dado que se han calculado la media de la muestra y la varianza (sesgada). [20] Los valores deben estar dentro de los límites

Relaciones con las medias armónicas y aritméticas

Se ha demostrado [21] que para una muestra { y i } de números reales positivos,

donde y max es el máximo de la muestra, A es la media aritmética, H es la media armónica de la muestra y es la varianza (sesgada) de la muestra.

Este límite se ha mejorado y se sabe que la varianza está limitada por

donde y min es el mínimo de la muestra. [22]

Pruebas de igualdad de varianzas

La prueba F de igualdad de varianzas y las pruebas de chi cuadrado son adecuadas cuando la muestra se distribuye normalmente. La no normalidad dificulta la prueba de igualdad de dos o más varianzas.

Se han propuesto varias pruebas no paramétricas, entre ellas la prueba de Barton–David–Ansari–Freund–Siegel–Tukey, la prueba de Capon, la prueba de Mood , la prueba de Klotz y la prueba de Sukhatme. La prueba de Sukhatme se aplica a dos varianzas y requiere que ambas medianas sean conocidas e iguales a cero. Las pruebas de Mood, Klotz, Capon y Barton–David–Ansari–Freund–Siegel–Tukey también se aplican a dos varianzas. Permiten que la mediana sea desconocida, pero requieren que las dos medianas sean iguales.

La prueba de Lehmann es una prueba paramétrica de dos varianzas. Existen varias variantes de esta prueba. Otras pruebas de igualdad de varianzas son la prueba de Box, la prueba de Box-Anderson y la prueba de Moses.

Se pueden utilizar métodos de remuestreo, que incluyen el bootstrap y el jackknife , para probar la igualdad de varianzas.

Momento de inercia

La varianza de una distribución de probabilidad es análoga al momento de inercia en mecánica clásica de una distribución de masa correspondiente a lo largo de una línea, con respecto a la rotación sobre su centro de masa. [23] Es debido a esta analogía que cosas como la varianza se denominan momentos de distribuciones de probabilidad . [23] La matriz de covarianza está relacionada con el tensor de momento de inercia para distribuciones multivariadas. El momento de inercia de una nube de n puntos con una matriz de covarianza de se da por [ cita requerida ]

Esta diferencia entre el momento de inercia en física y en estadística es clara para los puntos que se agrupan a lo largo de una línea. Supongamos que muchos puntos están cerca del eje x y se distribuyen a lo largo de él. La matriz de covarianza podría verse así:

Es decir, la mayor variación se da en la dirección x . Los físicos considerarían que este tiene un momento bajo respecto al eje x , por lo que el tensor del momento de inercia es

Semivarianza

La semivarianza se calcula de la misma manera que la varianza, pero solo se incluyen en el cálculo aquellas observaciones que caen por debajo de la media. También se describe como una medida específica en diferentes campos de aplicación. Para distribuciones sesgadas, la semivarianza puede proporcionar información adicional que la varianza no proporciona. [24]

Para las desigualdades asociadas con la semivarianza, véase la desigualdad de Chebyshev § Semivarianzas .

Etimología

El término varianza fue introducido por primera vez por Ronald Fisher en su artículo de 1918 La correlación entre parientes bajo la suposición de herencia mendeliana : [25]

La gran cantidad de estadísticas disponibles nos muestra que las desviaciones de una medida humana respecto de su media siguen muy de cerca la Ley Normal de Errores y, por lo tanto, que la variabilidad puede medirse uniformemente mediante la desviación típica correspondiente a la raíz cuadrada del error cuadrático medio . Cuando hay dos causas independientes de variabilidad capaces de producir en una población por lo demás uniforme distribuciones con desviaciones típicas y , se encuentra que la distribución, cuando ambas causas actúan juntas, tiene una desviación típica . Por lo tanto, es conveniente, al analizar las causas de variabilidad, tratar el cuadrado de la desviación típica como medida de variabilidad. Llamaremos a esta cantidad la Varianza...

Generalizaciones

Para variables complejas

Si es una variable aleatoria escalar de valor complejo , con valores en entonces su varianza es donde es el conjugado complejo de Esta varianza es un escalar real.

Para variables aleatorias con valores vectoriales

Como una matriz

Si es una variable aleatoria con valores vectoriales , cuyos valores se consideran un vector columna, entonces una generalización natural de la varianza es donde y es la transpuesta de y, por lo tanto, es un vector fila. El resultado es una matriz cuadrada semidefinida positiva , comúnmente denominada matriz de varianza-covarianza (o simplemente matriz de covarianza ).

Si es una variable aleatoria de valor vectorial y complejo, con valores en entonces la matriz de covarianza es donde es la transpuesta conjugada de [ cita requerida ] Esta matriz también es semidefinida positiva y cuadrada.

Como escalar

Otra generalización de la varianza para variables aleatorias con valores vectoriales , que da como resultado un valor escalar en lugar de una matriz, es la varianza generalizada , el determinante de la matriz de covarianza. Se puede demostrar que la varianza generalizada está relacionada con la dispersión multidimensional de puntos alrededor de su media. [26]

Se obtiene una generalización diferente considerando la ecuación para la varianza escalar, , y reinterpretándola como la distancia euclidiana al cuadrado entre la variable aleatoria y su media, o, simplemente, como el producto escalar del vector consigo mismo. Esto da como resultado que es la traza de la matriz de covarianza.

Véase también

Tipos de varianza

Referencias

  1. ^ Wasserman, Larry (2005). Toda la estadística: un curso conciso de inferencia estadística . Textos de Springer sobre estadística. p. 51. ISBN 978-1-4419-2322-6.
  2. ^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). Algunas nuevas fórmulas de deformación sobre varianza y covarianza . Actas de la 4.ª Conferencia internacional sobre modelado, identificación y control (ICMIC2012). págs. 987–992.
  3. ^ Kagan, A.; Shepp, LA (1998). "¿Por qué la varianza?". Statistics & Probability Letters . 38 (4): 329–333. doi :10.1016/S0167-7152(98)00041-8.
  4. ^ Johnson, Richard; Wichern, Dean (2001). Análisis estadístico multivariante aplicado . Prentice Hall. pág. 76. ISBN 0-13-187715-1.
  5. ^ Loève, M. (1977) "Teoría de la probabilidad", Textos de posgrado en matemáticas , Volumen 45, 4ª edición, Springer-Verlag, pág. 12.
  6. ^ Bienaymé, I.-J. (1853) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Comptes rendus de l'Académie des sciences Paris , 37, p. 309–317; copia digital disponible [1]
  7. ^ Bienaymé, I.-J. (1867) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Journal de Mathématiques Pures et Appliquées, Serie 2 , Tomo 12, p. 158–167; copia digital disponible [2][3]
  8. ^ Cornell, JR, y Benjamin, CA, Probabilidad, estadística y decisiones para ingenieros civiles, McGraw-Hill, NY, 1970, págs. 178-9.
  9. ^ Goodman, Leo A. (diciembre de 1960). "Sobre la varianza exacta de los productos". Revista de la Asociación Estadounidense de Estadística . 55 (292): 708–713. doi :10.2307/2281592. JSTOR  2281592.
  10. ^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). Algunas nuevas fórmulas de deformación sobre varianza y covarianza . Actas de la 4.ª Conferencia internacional sobre modelado, identificación y control (ICMIC2012). págs. 987–992.
  11. ^ Navidi, William (2006) Estadística para ingenieros y científicos , McGraw-Hill, pág. 14.
  12. ^ Montgomery, DC y Runger, GC (1994) Estadística aplicada y probabilidad para ingenieros , página 201. John Wiley & Sons Nueva York
  13. ^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). Algunas nuevas fórmulas de deformación sobre varianza y covarianza . Actas de la 4.ª Conferencia internacional sobre modelado, identificación y control (ICMIC2012). págs. 987–992.
  14. ^ Knight K. (2000), Estadística matemática , Chapman y Hall, Nueva York. (proposición 2.11)
  15. ^ Casella y Berger (2002) Inferencia estadística , Ejemplo 7.3.3, pág. 331 [ cita completa necesaria ]
  16. ^ Mood, AM, Graybill, FA y Boes, DC (1974) Introducción a la teoría de la estadística , 3.ª edición, McGraw-Hill, Nueva York, pág. 229
  17. ^ Kenney, John F.; Keeping, ES (1951). Matemáticas de la estadística. Segunda parte (PDF) (2.ª ed.). Princeton, Nueva Jersey: D. Van Nostrand Company, Inc. Archivado desde el original (PDF) el 17 de noviembre de 2018, a través de KrishiKosh.
  18. ^ Rose, Colin; Smith, Murray D. (2002). "Estadística matemática con Mathematica". Springer-Verlag, Nueva York.
  19. ^ Weisstein, Eric W. "Distribución de varianza de muestra". MathWorld Wolfram.
  20. ^ Samuelson, Paul (1968). "¿Hasta qué punto se puede ser desviado?". Revista de la Asociación Estadounidense de Estadística . 63 (324): 1522–1525. doi :10.1080/01621459.1968.10480944. JSTOR  2285901.
  21. ^ Mercer, A. McD. (2000). "Límites para A–G, A–H, G–H y una familia de desigualdades del tipo de Ky Fan, utilizando un método general". J. Math. Anal. Appl . 243 (1): 163–173. doi : 10.1006/jmaa.1999.6688 .
  22. ^ Sharma, R. (2008). "Algunas desigualdades más para la media aritmética, la media armónica y la varianza". Journal of Mathematical Inequalities . 2 (1): 109–114. CiteSeerX 10.1.1.551.9397 . doi :10.7153/jmi-02-11. 
  23. ^ ab Magnello, M. Eileen. "Karl Pearson y los orígenes de la estadística moderna: un elastólogo se convierte en estadístico". The Rutherford Journal .
  24. ^ Fama, Eugene F.; French, Kenneth R. (21 de abril de 2010). "Preguntas y respuestas: Semivarianza: ¿Una mejor medida del riesgo?". Foro Fama/French .
  25. ^ Ronald Fisher (1918) La correlación entre parientes en el supuesto de la herencia mendeliana
  26. ^ Kocherlakota, S.; Kocherlakota, K. (2004). "Varianza generalizada". Enciclopedia de ciencias estadísticas . Biblioteca en línea de Wiley. doi :10.1002/0471667196.ess0869. ISBN 0-471-66719-6.