Una ventaja de la varianza como medida de dispersión es que es más susceptible a la manipulación algebraica que otras medidas de dispersión como la desviación absoluta esperada ; por ejemplo, la varianza de una suma de variables aleatorias no correlacionadas es igual a la suma de sus varianzas. Una desventaja de la varianza para aplicaciones prácticas es que, a diferencia de la desviación estándar, sus unidades difieren de las de la variable aleatoria, razón por la cual la desviación estándar se informa más comúnmente como una medida de dispersión una vez finalizado el cálculo.
Hay dos conceptos distintos que se denominan "varianza". Uno, como se analizó anteriormente, es parte de una distribución de probabilidad teórica y está definido por una ecuación. La otra varianza es una característica de un conjunto de observaciones. Cuando la varianza se calcula a partir de observaciones, esas observaciones generalmente se miden a partir de un sistema del mundo real. Si todas las observaciones posibles del sistema están presentes, entonces la varianza calculada se llama varianza poblacional. Sin embargo, normalmente sólo está disponible un subconjunto y la varianza calculada a partir de él se denomina varianza muestral. La varianza calculada a partir de una muestra se considera una estimación de la varianza total de la población. Hay varias formas de calcular una estimación de la varianza poblacional, como se analiza en la sección siguiente.
Los dos tipos de varianza están estrechamente relacionados. Para ver cómo, considere que una distribución de probabilidad teórica puede usarse como generador de observaciones hipotéticas. Si se genera un número infinito de observaciones usando una distribución, entonces la varianza de la muestra calculada a partir de ese conjunto infinito coincidirá con el valor calculado usando la ecuación de varianza de la distribución. La varianza tiene un papel central en la estadística, donde algunas ideas que la utilizan incluyen estadística descriptiva , inferencia estadística , prueba de hipótesis , bondad de ajuste y muestreo de Monte Carlo .
Esta definición abarca variables aleatorias que se generan por procesos que son discretos , continuos , ninguno o mixtos. La varianza también se puede considerar como la covarianza de una variable aleatoria consigo misma:
La varianza también es equivalente al segundo acumulante de una distribución de probabilidad que genera . La varianza generalmente se designa como , o a veces como o , o simbólicamente como o simplemente (pronunciado " sigma cuadrado"). La expresión de la varianza se puede ampliar de la siguiente manera:
En otras palabras, la varianza de X es igual a la media del cuadrado de X menos el cuadrado de la media de X. Esta ecuación no debe usarse para cálculos que utilizan aritmética de punto flotante , porque sufre una cancelación catastrófica si los dos componentes de la ecuación son similares en magnitud. Para otras alternativas numéricamente estables, consulte Algoritmos para calcular la varianza .
(Cuando dicha varianza ponderada discreta se especifica mediante ponderaciones cuya suma no es 1, entonces se divide por la suma de las ponderaciones).
La varianza de una colección de valores igualmente probables se puede escribir como
¿ Dónde está el valor promedio? Eso es,
La varianza de un conjunto de valores igualmente probables se puede expresar de manera equivalente, sin hacer referencia directa a la media, en términos de desviaciones al cuadrado de todas las distancias al cuadrado por pares de puntos entre sí: [2]
Un dado justo de seis caras se puede modelar como una variable aleatoria discreta, X , con resultados del 1 al 6, cada uno con la misma probabilidad de 1/6. El valor esperado de X es Por lo tanto, la varianza de X es
La fórmula general para la varianza del resultado, X , de un dado de n caras es
Distribuciones de probabilidad de uso común
La siguiente tabla enumera la varianza de algunas distribuciones de probabilidad de uso común.
Propiedades
Propiedades básicas
La varianza no es negativa porque los cuadrados son positivos o cero:
La varianza de una constante es cero.
Por el contrario, si la varianza de una variable aleatoria es 0, entonces es casi seguro que sea una constante. Es decir, siempre tiene el mismo valor:
Cuestiones de finitud
Si una distribución no tiene un valor esperado finito, como es el caso de la distribución de Cauchy , entonces la varianza tampoco puede ser finita. Sin embargo, es posible que algunas distribuciones no tengan una varianza finita, a pesar de que su valor esperado sea finito. Un ejemplo es una distribución de Pareto cuyo índice satisface
Descomposición
La fórmula general para la descomposición de la varianza o ley de la varianza total es: Si y son dos variables aleatorias y la varianza de existe, entonces
La expectativa condicional de dada y la varianza condicional pueden entenderse de la siguiente manera. Dado cualquier valor particular y de la variable aleatoria Y , existe una expectativa condicional dado el evento Y = y . Esta cantidad depende del valor particular y ; es una función . Esa misma función evaluada en la variable aleatoria Y es la expectativa condicional
En particular, si es una variable aleatoria discreta que asume valores posibles con probabilidades correspondientes , entonces en la fórmula para la varianza total, el primer término del lado derecho se convierte en
dónde . De manera similar, el segundo término del lado derecho se convierte en
dónde y . Por lo tanto, la varianza total está dada por
Se aplica una fórmula similar en el análisis de varianza , donde la fórmula correspondiente es
aquí se refiere a la Media de los Cuadrados. En el análisis de regresión lineal la fórmula correspondiente es
Esto también puede derivarse de la aditividad de las varianzas, ya que la puntuación total (observada) es la suma de la puntuación prevista y la puntuación del error, donde las dos últimas no están correlacionadas.
Son posibles descomposiciones similares para la suma de desviaciones al cuadrado (suma de cuadrados, ):
Esta expresión se puede utilizar para calcular la varianza en situaciones en las que la CDF, pero no la densidad , se puede expresar convenientemente.
Propiedad característica
El segundo momento de una variable aleatoria alcanza el valor mínimo cuando se toma alrededor del primer momento (es decir, la media) de la variable aleatoria, es decir . Por el contrario, si una función continua satisface para todas las variables aleatorias X , entonces necesariamente tiene la forma , donde a > 0 . Esto también es válido en el caso multidimensional. [3]
Unidades de medida
A diferencia de la desviación absoluta esperada , la varianza de una variable tiene unidades que son el cuadrado de las unidades de la propia variable. Por ejemplo, una variable medida en metros tendrá una varianza medida en metros al cuadrado. Por esta razón, a menudo se prefiere describir conjuntos de datos a través de su desviación estándar o desviación cuadrática media en lugar de utilizar la varianza. En el ejemplo de los dados, la desviación estándar es √ 2,9 ≈ 1,7 , ligeramente mayor que la desviación absoluta esperada de 1,5.
La desviación estándar y la desviación absoluta esperada se pueden utilizar como indicador de la "difusión" de una distribución. La desviación estándar es más susceptible a la manipulación algebraica que la desviación absoluta esperada y, junto con la varianza y su covarianza de generalización , se utiliza con frecuencia en estadística teórica; sin embargo, la desviación absoluta esperada tiende a ser más robusta ya que es menos sensible a valores atípicos que surgen de anomalías en las mediciones o de una distribución excesivamente pesada .
Propagación
Suma y multiplicación por una constante.
La varianza es invariante con respecto a los cambios en un parámetro de ubicación . Es decir, si se suma una constante a todos los valores de la variable, la varianza no cambia:
Si todos los valores están escalados por una constante, la varianza está escalada por el cuadrado de esa constante:
La varianza de una suma de dos variables aleatorias está dada por
entonces se dice que no están correlacionados . De la expresión dada anteriormente se deduce inmediatamente que si las variables aleatorias no están correlacionadas, entonces la varianza de su suma es igual a la suma de sus varianzas, o, expresado simbólicamente:
Dado que las variables aleatorias independientes siempre no están correlacionadas (ver Covarianza § Falta de correlación e independencia ), la ecuación anterior se cumple en particular cuando las variables aleatorias son independientes. Por tanto, la independencia es suficiente pero no necesaria para que la varianza de la suma sea igual a la suma de las varianzas.
Notación matricial para la varianza de una combinación lineal.
Definir como vector columna de variables aleatorias y como vector columna de escalares . Por tanto, es una combinación lineal de estas variables aleatorias, donde denota la transpuesta de . Sea también la matriz de covarianza de . La varianza de viene dada entonces por: [4]
Esto implica que la varianza de la media se puede escribir como (con un vector columna de unos)
Suma de variables
Suma de variables no correlacionadas
Una razón para el uso de la varianza con preferencia a otras medidas de dispersión es que la varianza de la suma (o la diferencia) de variables aleatorias no correlacionadas es la suma de sus varianzas:
Esta afirmación se llama fórmula de Bienaymé [5] y fue descubierta en 1853. [6] [7] A menudo se hace con la condición más fuerte de que las variables sean independientes , pero basta con que no estén correlacionadas. Entonces, si todas las variables tienen la misma varianza σ 2 , entonces, dado que la división por n es una transformación lineal, esta fórmula implica inmediatamente que la varianza de su media es
Es decir, la varianza de la media disminuye cuando n aumenta. Esta fórmula para la varianza de la media se utiliza en la definición del error estándar de la media muestral, que se utiliza en el teorema del límite central .
Para probar la afirmación inicial, basta demostrar que
El resultado general se obtiene luego por inducción. Comenzando con la definición,
Utilizando la linealidad del operador de expectativa y el supuesto de independencia (o falta de correlación) de X e Y , esto se simplifica aún más de la siguiente manera:
Suma de variables correlacionadas
Suma de variables correlacionadas con tamaño de muestra fijo
En general, la varianza de la suma de n variables es la suma de sus covarianzas :
(Nota: la segunda igualdad proviene del hecho de que Cov( X i , X i ) = Var( X i ) .)
Aquí está la covarianza , que es cero para variables aleatorias independientes (si existe). La fórmula establece que la varianza de una suma es igual a la suma de todos los elementos en la matriz de covarianza de los componentes. La siguiente expresión establece de manera equivalente que la varianza de la suma es la suma de la diagonal de la matriz de covarianza más dos veces la suma de sus elementos triangulares superiores (o sus elementos triangulares inferiores); esto enfatiza que la matriz de covarianza es simétrica. Esta fórmula se utiliza en la teoría del alfa de Cronbach en la teoría de pruebas clásica .
Entonces, si las variables tienen igual varianza σ 2 y la correlación promedio de distintas variables es ρ , entonces la varianza de su media es
Esto implica que la varianza de la media aumenta con el promedio de las correlaciones. En otras palabras, las observaciones correlacionadas adicionales no son tan efectivas como las observaciones independientes adicionales para reducir la incertidumbre de la media . Además, si las variables tienen varianza unitaria, por ejemplo si están estandarizadas, entonces esto se simplifica a
Esta fórmula se utiliza en la fórmula de predicción de Spearman-Brown de la teoría de pruebas clásica. Esto converge a ρ si n tiende a infinito, siempre que la correlación promedio permanezca constante o también converja. Entonces, para la varianza de la media de variables estandarizadas con correlaciones iguales o correlación promedio convergente tenemos
Por tanto, la varianza de la media de un gran número de variables estandarizadas es aproximadamente igual a su correlación promedio. Esto deja claro que la media muestral de variables correlacionadas generalmente no converge con la media poblacional, aunque la ley de los grandes números establece que la media muestral convergerá para variables independientes.
Suma de variables no correlacionadas con tamaño de muestra aleatorio
Hay casos en los que se toma una muestra sin saber, de antemano, cuántas observaciones serán aceptables según algún criterio. En tales casos, el tamaño de la muestra N es una variable aleatoria cuya variación se suma a la variación de X , de modo que,
La propiedad de escala y la fórmula de Bienaymé, junto con la propiedad de la covarianza Cov( aX , bY ) = ab Cov( X , Y ) implican conjuntamente que
Esto implica que en una suma ponderada de variables, la variable con mayor peso tendrá un peso desproporcionadamente grande en la varianza del total. Por ejemplo, si X e Y no están correlacionados y el peso de X es dos veces el peso de Y , entonces el peso de la varianza de X será cuatro veces el peso de la varianza de Y.
La expresión anterior se puede extender a una suma ponderada de múltiples variables:
Producto de variables
Producto de variables independientes
Si dos variables X e Y son independientes , la varianza de su producto viene dada por [9]
De manera equivalente, utilizando las propiedades básicas de la expectativa, viene dada por
Producto de variables estadísticamente dependientes
En general, si dos variables son estadísticamente dependientes, entonces la varianza de su producto viene dada por:
siempre que f sea dos veces diferenciable y que la media y la varianza de X sean finitas.
Varianza de la población y varianza de la muestra.
Las observaciones del mundo real, como las mediciones de la lluvia de ayer a lo largo del día, normalmente no pueden ser conjuntos completos de todas las observaciones posibles que podrían realizarse. Como tal, la varianza calculada a partir del conjunto finito en general no coincidirá con la varianza que se habría calculado a partir de la población completa de posibles observaciones. Esto significa que se estima la media y la varianza a partir de un conjunto limitado de observaciones utilizando una ecuación estimadora . El estimador es una función de la muestra de n observaciones extraídas sin sesgo observacional de toda la población de observaciones potenciales. En este ejemplo, la muestra sería el conjunto de mediciones reales de la lluvia de ayer provenientes de pluviómetros disponibles dentro de la geografía de interés.
Los estimadores más simples de la media y la varianza de la población son simplemente la media y la varianza de la muestra, la media de la muestra y la varianza de la muestra (sin corregir) ; estos son estimadores consistentes (convergen al valor de toda la población a medida que aumenta el número de muestras). pero se puede mejorar. De manera más simple, la varianza muestral se calcula como la suma de las desviaciones al cuadrado sobre la media (muestra), dividida por n como el número de muestras . Sin embargo, utilizar valores distintos de n mejora el estimador de varias maneras. Cuatro valores comunes para el denominador son n, n − 1, n + 1 y n − 1,5: n es el más simple (la varianza de la muestra), n − 1 elimina el sesgo, n + 1 minimiza el error cuadrático medio para el normal. distribución, y n − 1,5 elimina en gran medida el sesgo en la estimación insesgada de la desviación estándar para la distribución normal.
En primer lugar, si se desconoce la verdadera media poblacional, entonces la varianza muestral (que utiliza la media muestral en lugar de la media verdadera) es un estimador sesgado : subestima la varianza por un factor de ( n − 1) / n ; corregir este factor, lo que da como resultado la suma de las desviaciones al cuadrado sobre la media muestral dividida por n -1 en lugar de n , se denomina corrección de Bessel . El estimador resultante es insesgado y se denomina varianza muestral (corregida) o varianza muestral insesgada . Por ejemplo, cuando n = 1, la varianza de una sola observación sobre la media muestral (en sí misma) es obviamente cero, independientemente de la varianza poblacional. Si la media se determina de alguna otra manera que no sea a partir de las mismas muestras utilizadas para estimar la varianza, entonces este sesgo no surge y la varianza puede estimarse con seguridad como la de las muestras con respecto a la media (conocida independientemente).
En segundo lugar, la varianza muestral generalmente no minimiza el error cuadrático medio entre la varianza muestral y la varianza poblacional. La corrección del sesgo a menudo empeora esto: siempre se puede elegir un factor de escala que funcione mejor que la varianza muestral corregida, aunque el factor de escala óptimo depende del exceso de curtosis de la población (ver error cuadrático medio: varianza ) e introduce sesgo. Esto siempre consiste en reducir el estimador insesgado (dividiendo por un número mayor que n − 1) y es un ejemplo simple de estimador de contracción : se "reduce" el estimador insesgado hacia cero. Para la distribución normal, dividir por n + 1 (en lugar de n − 1 o n ) minimiza el error cuadrático medio. Sin embargo, el estimador resultante está sesgado y se conoce como variación muestral sesgada .
Variación de la población
En general, la varianza poblacional de una población finita de tamaño N con valores x i está dada por
La varianza poblacional también se puede calcular usando
(El lado derecho tiene términos duplicados en la suma, mientras que el lado medio solo tiene términos únicos para sumar). Esto es cierto porque
varianza muestral
Varianza de muestra sesgada
En muchas situaciones prácticas, la verdadera varianza de una población no se conoce a priori y debe calcularse de alguna manera. Cuando se trata de poblaciones extremadamente grandes, no es posible contar todos los objetos de la población, por lo que el cálculo debe realizarse en una muestra de la población. [10] Esto generalmente se conoce como varianza muestral o varianza empírica . La varianza muestral también se puede aplicar a la estimación de la varianza de una distribución continua a partir de una muestra de esa distribución.
Tomamos una muestra con reemplazo de n valores Y 1 , ..., Y n de la población de tamaño , donde n < N , y estimamos la varianza sobre la base de esta muestra. [11] Tomando directamente la varianza de los datos de la muestra se obtiene el promedio de las desviaciones al cuadrado :
(Consulte la sección Varianza de la población para obtener la derivación de esta fórmula). Aquí, denota la media muestral :
Dado que los Y i se seleccionan aleatoriamente, ambos y son variables aleatorias . Sus valores esperados pueden evaluarse promediando el conjunto de todas las muestras posibles { Y i } de tamaño n de la población. Para esto da:
Aquí se utilizan los derivados de la sección Varianza de población y debido a la independencia de y .
Por lo tanto, se obtiene una estimación de la varianza poblacional que está sesgada por un factor de ya que el valor esperado de es menor que la varianza poblacional (varianza verdadera) de ese factor. Por esta razón, se le conoce como varianza muestral sesgada .
Varianza de muestra insesgada
Al corregir este sesgo se obtiene la varianza muestral insesgada , denotada :
Cualquiera de los estimadores puede denominarse simplemente varianza muestral cuando la versión puede determinarse por el contexto. La misma prueba también es aplicable a muestras tomadas de una distribución de probabilidad continua.
El uso del término n − 1 se denomina corrección de Bessel y también se utiliza en la covarianza muestral y la desviación estándar muestral (la raíz cuadrada de la varianza). La raíz cuadrada es una función cóncava y, por lo tanto, introduce un sesgo negativo (por la desigualdad de Jensen ), que depende de la distribución y, por lo tanto, la desviación estándar de la muestra corregida (usando la corrección de Bessel) está sesgada. La estimación insesgada de la desviación estándar es un problema técnicamente complicado, aunque para la distribución normal el uso del término n − 1,5 produce un estimador casi insesgado.
La varianza muestral insesgada es un estadístico U para la función ƒ ( y 1 , y 2 ) = ( y 1 − y 2 ) 2 /2, lo que significa que se obtiene promediando un estadístico de 2 muestras sobre subconjuntos de 2 elementos de la población.
Ejemplo
Para un conjunto de números {10, 15, 30, 45, 57, 52 63, 72, 81, 93, 102, 105}, si este conjunto es la población de datos completa para alguna medición, entonces la varianza es la varianza de la población 932,743 como la suma de las desviaciones al cuadrado respecto de la media de este conjunto, dividida por 12 como el número de miembros del conjunto. Si el conjunto es una muestra de toda la población, entonces la varianza de la muestra insesgada se puede calcular como 1017,538, que es la suma de las desviaciones al cuadrado sobre la media de la muestra, dividida por 11 en lugar de 12.
Si las condiciones de la ley de los grandes números se cumplen para las observaciones al cuadrado, S 2 es un estimador consistente de σ 2 . De hecho, se puede ver que la varianza del estimador tiende asintóticamente a cero. Kenney y Keeping (1951:164), Rose y Smith (2002:264) y Weisstein (sf) dieron una fórmula asintóticamente equivalente. [15] [16] [17]
La desigualdad de Samuelson
La desigualdad de Samuelson es un resultado que establece límites a los valores que pueden tomar las observaciones individuales en una muestra, dado que se han calculado la media muestral y la varianza (sesgada). [18] Los valores deben estar dentro de los límites
Relaciones con las medias armónicas y aritméticas.
Se ha demostrado [19] que para una muestra { y i } de números reales positivos,
donde y max es el máximo de la muestra, A es la media aritmética, H es la media armónica de la muestra y es la varianza (sesgada) de la muestra.
Este límite se ha mejorado y se sabe que la varianza está limitada por
Se han propuesto varias pruebas no paramétricas: entre ellas la prueba de Barton-David-Ansari-Freund-Siegel-Tukey, la prueba de Capon, la prueba de Mood , la prueba de Klotz y la prueba de Sukhatme. La prueba de Sukhatme se aplica a dos varianzas y requiere que ambas medianas sean conocidas e iguales a cero. Las pruebas de Mood, Klotz, Capon y Barton-David-Ansari-Freund-Siegel-Tukey también se aplican a dos varianzas. Permiten desconocer la mediana, pero requieren que las dos medianas sean iguales.
La prueba de Lehmann es una prueba paramétrica de dos varianzas. De esta prueba se conocen varias variantes. Otras pruebas de igualdad de varianzas incluyen la prueba de Box, la prueba de Box-Anderson y la prueba de Moisés.
La varianza de una distribución de probabilidad es análoga al momento de inercia en la mecánica clásica de una distribución de masa correspondiente a lo largo de una línea, con respecto a la rotación alrededor de su centro de masa. [ cita necesaria ] Es debido a esta analogía que cosas como la varianza se denominan momentos de distribuciones de probabilidad . [ cita necesaria ] La matriz de covarianza está relacionada con el tensor de momento de inercia para distribuciones multivariadas. El momento de inercia de una nube de n puntos con una matriz de covarianza de viene dado por [ cita necesaria ]
Esta diferencia entre el momento de inercia en física y en estadística es clara para los puntos que se agrupan a lo largo de una línea. Supongamos que muchos puntos están cerca del eje x y distribuidos a lo largo de él. La matriz de covarianza podría verse así
Es decir, existe la mayor variación en la dirección x . Los físicos considerarían que esto tiene un momento bajo alrededor del eje x , por lo que el tensor de momento de inercia es
Semivarianza
La semivarianza se calcula de la misma manera que la varianza, pero solo se incluyen en el cálculo aquellas observaciones que caen por debajo de la media:
El gran conjunto de estadísticas disponibles nos muestra que las desviaciones de una medición humana de su media siguen muy de cerca la Ley Normal de los Errores y, por tanto, que la variabilidad puede medirse uniformemente mediante la desviación estándar correspondiente a la raíz cuadrada de la media. error cuadrático . Cuando existen dos causas independientes de variabilidad capaces de producir en una población por lo demás uniforme distribuciones con desviaciones estándar y , se encuentra que la distribución, cuando ambas causas actúan juntas, tiene una desviación estándar . Por lo tanto, al analizar las causas de la variabilidad es deseable utilizar el cuadrado de la desviación estándar como medida de la variabilidad. A esta cantidad la llamaremos Variación...
Generalizaciones
Para variables complejas
Si es una variable aleatoria escalar de valor complejo , con valores en entonces su varianza es donde está el conjugado complejo de Esta varianza es un escalar real.
Para variables aleatorias con valores vectoriales
como una matriz
Si es una variable aleatoria con valores vectoriales , con valores en y considerados como un vector de columna, entonces una generalización natural de la varianza es donde y es la transposición de y también lo es un vector de fila. El resultado es una matriz cuadrada semidefinida positiva , comúnmente denominada matriz de varianza-covarianza (o simplemente matriz de covarianza ).
Otra generalización de la varianza para variables aleatorias con valores vectoriales , que da como resultado un valor escalar en lugar de una matriz, es la varianza generalizada , el determinante de la matriz de covarianza. Se puede demostrar que la varianza generalizada está relacionada con la dispersión multidimensional de puntos alrededor de su media. [23]
Se obtiene una generalización diferente considerando la ecuación de la varianza escalar, y reinterpretándola como la distancia euclidiana al cuadrado entre la variable aleatoria y su media, o simplemente como el producto escalar del vector consigo mismo. Esto da como resultado cuál es la traza de la matriz de covarianza.
^ Wasserman, Larry (2005). Toda la estadística: un curso conciso de inferencia estadística . Textos de Springer en estadística. pag. 51.ISBN _ 978-1-4419-2322-6.
^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). Algunas nuevas fórmulas de deformación sobre varianza y covarianza . Actas de la 4ª Conferencia Internacional sobre Modelado, Identificación y Control (ICMIC2012). págs. 987–992.
^ Kagan, A.; Shepp, LA (1998). "¿Por qué la variación?". Cartas de estadística y probabilidad . 38 (4): 329–333. doi :10.1016/S0167-7152(98)00041-8.
^ Loève, M. (1977) "Teoría de la probabilidad", Textos de posgrado en matemáticas , volumen 45, cuarta edición, Springer-Verlag, p. 12.
^ Bienaymé, I.-J. (1853) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Comptes rendus de l'Académie des sciences Paris , 37, p. 309–317; copia digital disponible [1]
^ Bienaymé, I.-J. (1867) "Considérations à l'appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés", Journal de Mathématiques Pures et Appliquées, Serie 2 , Tomo 12, p. 158–167; copia digital disponible [2][3]
^ Cornell, JR y Benjamin, CA, Probabilidad, estadística y decisiones para ingenieros civiles, McGraw-Hill, NY, 1970, páginas 178-9.
^ Goodman, Leo A. (diciembre de 1960). "Sobre la variación exacta de los productos". Revista de la Asociación Estadounidense de Estadística . 55 (292): 708–713. doi :10.2307/2281592. JSTOR 2281592.
^ Navidi, William (2006) Estadísticas para ingenieros y científicos , McGraw-Hill, p. 14.
^ Montgomery, DC y Runger, GC (1994) Estadística aplicada y probabilidad para ingenieros , página 201. John Wiley & Sons Nueva York
^ Knight K. (2000), Estadística matemática , Chapman y Hall, Nueva York. (proposición 2.11)
^ Casella y Berger (2002) Inferencia estadística , Ejemplo 7.3.3, p. 331 [ cita completa necesaria ]
^ Mood, AM, Graybill, FA y Boes, DC (1974) Introducción a la teoría de la estadística , tercera edición, McGraw-Hill, Nueva York, p. 229
^ Kenney, John F.; Keeping, ES (1951) Matemáticas de la Estadística. La segunda parte. 2da ed. D. Van Nostrand Company, Inc. Princeton: Nueva Jersey. http://krishikosh.egranth.ac.in/bitstream/1/2025521/1/G2257.pdf
^ Rosa, Colin; Smith, Murray D. (2002) Estadística matemática con Mathematica. Springer-Verlag, Nueva York. http://www.mathstatica.com/book/Mathematical_Statistics_with_Mathematica.pdf
^ Weisstein, Eric W. (sin fecha) Distribución de varianza de muestra. MathWorld: un recurso web de Wolfram. http://mathworld.wolfram.com/SampleVarianceDistribution.html
^ Mercer, A. McD. (2000). "Límites para A – G, A – H, G – H y una familia de desigualdades del tipo de Ky Fan, utilizando un método general". J. Matemáticas. Anal. Aplica . 243 (1): 163-173. doi : 10.1006/jmaa.1999.6688 .
^ Sharma, R. (2008). "Algunas desigualdades más para media aritmética, media armónica y varianza". Revista de desigualdades matemáticas . 2 (1): 109–114. CiteSeerX 10.1.1.551.9397 . doi :10.7153/jmi-02-11.
^ Fama, Eugene F.; Francés, Kenneth R. (21 de abril de 2010). "Preguntas y respuestas: Semivarianza: ¿una mejor medida de riesgo?". Fama/Foro Francés .
^ Ronald Fisher (1918) La correlación entre parientes bajo el supuesto de herencia mendeliana
^ Kocherlakota, S.; Kocherlakota, K. (2004). "Varianza generalizada". Enciclopedia de Ciencias Estadísticas . Biblioteca en línea de Wiley. doi : 10.1002/0471667196.ess0869. ISBN0-471-66719-6.