stringtranslate.com

Ley de varianza total

En la teoría de la probabilidad , la ley de varianza total [1] o fórmula de descomposición de la varianza o fórmulas de varianza condicional o ley de varianzas iteradas también conocida como ley de Eva , [2] establece que si y son variables aleatorias en el mismo espacio de probabilidad , y la varianza de es finita, entonces

En un lenguaje quizás más conocido por los estadísticos que por los teóricos de la probabilidad, los dos términos son los componentes "inexplicado" y "explicado" de la varianza respectivamente (cf. fracción de varianza no explicada , variación explicada ). En la ciencia actuarial , específicamente en la teoría de la credibilidad , el primer componente se denomina valor esperado de la varianza del proceso ( EVPV ) y el segundo se denomina varianza de las medias hipotéticas ( VHM ). [3] Estos dos componentes también son la fuente del término "ley de Eva", de las iniciales EV VE para "expectativa de varianza" y "varianza de la expectativa".

Explicación

Para entender la fórmula anterior, necesitamos comprender las variables aleatorias y . Estas variables dependen del valor de : para un determinado , y son números constantes. Básicamente, utilizamos los valores posibles de para agrupar los resultados y luego calculamos los valores esperados y las varianzas para cada grupo.

El componente "inexplicado" es simplemente el promedio de todas las varianzas de dentro de cada grupo. El componente "explicado" es la varianza de los valores esperados, es decir, representa la parte de la varianza que se explica por la variación del valor promedio de para cada grupo.

Peso de los perros por raza

Para ilustrarlo, considere el ejemplo de una exposición canina (un extracto seleccionado de Analysis_of_variance#Example ). Supongamos que la variable aleatoria corresponde al peso del perro y a la raza. En esta situación, es razonable esperar que la raza explique una parte importante de la varianza en el peso, ya que existe una gran varianza en los pesos promedio de las razas. Por supuesto, todavía hay cierta varianza en el peso de cada raza, que se tiene en cuenta en el término "inexplicado".

Tenga en cuenta que el término "explicado" en realidad significa "explicado por los promedios". Si las variaciones para cada variable fija (por ejemplo, para cada raza en el ejemplo anterior) son muy distintas, esas variaciones se combinan de todos modos en el término "inexplicado".

Ejemplos

Ejemplo 1

Cinco estudiantes de posgrado toman un examen que se califica de 0 a 100. Denotemos la calificación del estudiante e indiquemos si el estudiante es internacional o nacional. Los datos se resumen de la siguiente manera:

Entre los estudiantes internacionales, la media es y la varianza es .

Entre los estudiantes nacionales, la media es y la varianza es .

La parte de la varianza de "no explicada" por es la media de las varianzas para cada grupo. En este caso, es . La parte de la varianza de "explicada" por es la varianza de las medias de dentro de cada grupo definido por los valores de . En este caso, es cero, ya que la media es la misma para cada grupo. Por lo tanto, la variación total es

Ejemplo 2

Supongamos que X es un lanzamiento de moneda con una probabilidad de que salga cara de h . Supongamos que cuando X = cara , Y se extrae de una distribución normal con media μ h y desviación estándar σ h , y que cuando X = cruz , Y se extrae de una distribución normal con media μ t y desviación estándar σ t . Entonces, el primer término "inexplicado" en el lado derecho de la fórmula anterior es el promedio ponderado de las varianzas, h 2 + (1 − h ) σ t 2 , y el segundo término "explicado" es la varianza de la distribución que da μ h con probabilidad h y da μ t con probabilidad 1 − h .

Formulación

Existe una fórmula general de descomposición de la varianza para los componentes (ver más abajo). [4] Por ejemplo, con dos variables aleatorias condicionantes: que se desprende de la ley de la varianza condicional total: [4]

Nótese que el valor esperado condicional es una variable aleatoria por derecho propio, cuyo valor depende del valor de Nótese que el valor esperado condicional de dado el evento es una función de (¡aquí es donde la adherencia a la notación convencional y rígidamente sensible a mayúsculas y minúsculas de la teoría de la probabilidad se vuelve importante!). Si escribimos entonces la variable aleatoria es simplemente Comentarios similares se aplican a la varianza condicional .

Un caso especial (similar a la ley de expectativa total ) establece que si es una partición de todo el espacio de resultados, es decir, estos eventos son mutuamente excluyentes y exhaustivos, entonces

En esta fórmula, el primer componente es la expectativa de la varianza condicional; los otros dos componentes son la varianza de la expectativa condicional.

Prueba

Caso finito

Sean observados los valores de , con repeticiones.

Establecer y, para cada valor posible de , establecer .

Tenga en cuenta que

Sumando estos para , la última parcela se convierte en

Por eso,

Caso general

La ley de varianza total se puede demostrar utilizando la ley de la esperanza total . [5] En primer lugar, a partir de la definición de varianza. Nuevamente, a partir de la definición de varianza y aplicando la ley de la esperanza total, tenemos

Ahora reescribimos el segundo momento condicional de en términos de su varianza y primer momento, y aplicamos la ley de expectativa total en el lado derecho:

Dado que la expectativa de una suma es la suma de expectativas, los términos ahora se pueden reagrupar:

Finalmente, reconocemos los términos en el segundo conjunto de paréntesis como la varianza de la expectativa condicional :

Descomposición de varianza general aplicable a sistemas dinámicos

La siguiente fórmula muestra cómo aplicar la fórmula general de descomposición de la varianza teórica de la medida [4] a sistemas dinámicos estocásticos. Sea el valor de una variable del sistema en el tiempo Supongamos que tenemos las historias internas ( filtraciones naturales ) , cada una correspondiente a la historia (trayectoria) de una colección diferente de variables del sistema. Las colecciones no necesitan estar disjuntas. La varianza de se puede descomponer, para todos los tiempos, en componentes de la siguiente manera:

La descomposición no es única, depende del orden del condicionamiento en la descomposición secuencial.

El cuadrado de la correlación y la variación explicada (o informativa)

En los casos en que son tales que el valor esperado condicional es lineal; es decir, en los casos en que se sigue de la bilinealidad de la covarianza que y y el componente explicado de la varianza dividido por la varianza total es simplemente el cuadrado de la correlación entre y es decir, en tales casos,

Un ejemplo de esta situación es cuando tenemos una distribución normal bivariada (gaussiana).

De manera más general, cuando la expectativa condicional es una función no lineal de [4] que puede estimarse como el cuadrado de una regresión no lineal de sobre el uso de datos extraídos de la distribución conjunta de Cuando tiene una distribución gaussiana (y es una función invertible de ), o tiene una distribución gaussiana (marginal), este componente explicado de variación establece un límite inferior para la información mutua : [4]

Momentos más elevados

Una ley similar para el tercer momento central dice

Para cumulantes superiores , existe una generalización. Véase la ley de cumulancia total .

Véase también

Referencias

  1. ^ Neil A. Weiss, Un curso de probabilidad , Addison–Wesley, 2005, páginas 385–386.
  2. ^ Joseph K. Blitzstein y Jessica Hwang: "Introducción a la probabilidad"
  3. ^ Mahler, Howard C.; Dean, Curtis Gary (2001). "Capítulo 8: Credibilidad" (PDF) . En Casualty Actuarial Society (ed.). Fundamentos de la ciencia actuarial de accidentes (4.ª ed.). Casualty Actuarial Society . págs. 525–526. ISBN. 978-0-96247-622-8. Recuperado el 25 de junio de 2015 .
  4. ^ abcde Bowsher, CG y PS Swain, Identificación de fuentes de variación y flujo de información en redes bioquímicas, PNAS 15 de mayo de 2012 109 (20) E1320-E1328.
  5. ^ Neil A. Weiss, Un curso de probabilidad , Addison–Wesley, 2005, páginas 380–383.