stringtranslate.com

Contraste (estadística)

En estadística , particularmente en análisis de varianza y regresión lineal , un contraste es una combinación lineal de variables ( parámetros o estadísticos ) cuyos coeficientes suman cero, lo que permite la comparación de diferentes tratamientos. [1] [2]

Definiciones

Sea un conjunto de variables, ya sean parámetros o estadísticas , y sean constantes conocidas. La cantidad es una combinación lineal. Se denomina contraste si . [3] [4] Además, dos contrastes, y , son ortogonales si . [5]

Ejemplos

Imaginemos que estamos comparando cuatro medias, . La siguiente tabla describe tres posibles contrastes:

El primer contraste permite comparar la primera media con la segunda, el segundo contraste permite comparar la tercera media con la cuarta, y el tercer contraste permite comparar el promedio de las dos primeras medias con el promedio de las dos últimas. [4]

En un análisis de varianza unidireccional balanceado , el uso de contrastes ortogonales tiene la ventaja de dividir por completo la suma de cuadrados del tratamiento en componentes aditivos no superpuestos que representan la variación debida a cada contraste. [6] Considere los números anteriores: cada una de las filas suma cero (por lo tanto, son contrastes). Si multiplicamos cada elemento de la primera fila por el elemento correspondiente de la segunda fila y los sumamos, esto nuevamente da como resultado cero, por lo tanto, el primer y el segundo contraste son ortogonales, y así sucesivamente.

Conjuntos de contraste

Fondo

Un contraste se define como la suma de la media de cada grupo multiplicada por un coeficiente para cada grupo (es decir, un número con signo, c j ). [10] En forma de ecuación, , donde L es la suma ponderada de las medias de los grupos, los coeficientes c j representan los pesos asignados de las medias (estos deben sumar 0 para los contrastes ortogonales) y j representa las medias de los grupos. [8] Los coeficientes pueden ser positivos o negativos, y fracciones o números enteros, según la comparación de interés. Los contrastes lineales son muy útiles y se pueden utilizar para probar hipótesis complejas cuando se utilizan junto con ANOVA o regresión múltiple. En esencia, cada contraste define y prueba un patrón particular de diferencias entre las medias. [10]

Los contrastes deben construirse "para responder preguntas de investigación específicas" y no necesariamente tienen que ser ortogonales. [11]

Un contraste simple (no necesariamente ortogonal) es la diferencia entre dos medias. Un contraste más complejo puede probar diferencias entre varias medias (p. ej., con cuatro medias, asignar coeficientes de -3, -1, +1 y +3), o probar la diferencia entre una sola media y la media combinada de varios grupos (p. ej., si tiene cuatro medias, asigne coeficientes de -3, +1, +1 y +1) o probar la diferencia entre la media combinada de varios grupos y la media combinada de varios otros grupos (es decir, con cuatro medias, asigne coeficientes de -1, -1, +1 y +1). [8] Los coeficientes para las medias que se combinarán (o promediarán) deben ser los mismos en magnitud y dirección, es decir, igualmente ponderados. Cuando a las medias se les asignan coeficientes diferentes (ya sea en magnitud o dirección, o ambos), el contraste está probando una diferencia entre esas medias. Un contraste puede ser cualquiera de los siguientes: el conjunto de coeficientes utilizados para especificar una comparación; el valor específico de la combinación lineal obtenida para un estudio o experimento dado; la cantidad aleatoria definida al aplicar la combinación lineal a los efectos del tratamiento cuando estos se consideran en sí mismos como variables aleatorias. En este último contexto, a veces se utiliza el término variable de contraste .

Los contrastes se utilizan a veces para comparar efectos mixtos . Un ejemplo común es la diferencia entre dos puntuaciones de exámenes: una al principio del semestre y otra al final. Nótese que no nos interesa una de estas puntuaciones por sí sola, sino solo el contraste (en este caso, la diferencia). Dado que se trata de una combinación lineal de variables independientes, su varianza es igual a la suma ponderada de las varianzas de los sumandos; en este caso, ambos pesos son uno. Esta "combinación" de dos variables en una puede ser útil en muchos casos, como en el ANOVA , la regresión o incluso como estadística descriptiva por derecho propio.

Un ejemplo de un contraste complejo sería comparar 5 tratamientos estándar con un nuevo tratamiento, dando así a cada tratamiento anterior una media de 1/5, y a la media del sexto tratamiento nuevo una media de −1 (utilizando la ecuación anterior). Si esta nueva combinación lineal tiene una media de cero, esto significará que no hay evidencia de que los tratamientos anteriores sean diferentes del nuevo tratamiento en promedio. Si la suma de la nueva combinación lineal es positiva, hay alguna evidencia (la fuerza de la evidencia a menudo se asocia con el valor p calculado en esa combinación lineal) de que la media combinada de los 5 tratamientos estándar es mayor que la media del nuevo tratamiento. Se obtienen conclusiones análogas cuando la combinación lineal es negativa. [10] Sin embargo, la suma de la combinación lineal no es una prueba de significancia, vea la prueba de significancia (a continuación) para aprender cómo determinar si el contraste calculado a partir de la muestra es significativo.

Los resultados habituales para combinaciones lineales de variables aleatorias independientes significan que la varianza de un contraste es igual a la suma ponderada de las varianzas. [12] Si dos contrastes son ortogonales , las estimaciones creadas mediante el uso de dichos contrastes no estarán correlacionadas . Si se dispone de contrastes ortogonales, es posible resumir los resultados de un análisis estadístico en forma de una tabla de análisis de varianza simple, de tal manera que contenga los resultados para diferentes estadísticas de prueba relacionadas con diferentes contrastes, cada uno de los cuales es estadísticamente independiente. Los contrastes lineales se pueden convertir fácilmente en sumas de cuadrados . SS contraste = , con 1 grado de libertad , donde n representa el número de observaciones por grupo. Si los contrastes son ortogonales, la suma de los contrastes SS = SS tratamiento . Probar la significancia de un contraste requiere el cálculo de SS contraste . [8]

Prueba de significancia

El contraste SS también es un cuadrado medio porque todos los contrastes tienen 1 grado de libertad. Dividir por produce un estadístico F con uno y grados de libertad; la significancia estadística del contraste F se puede determinar comparando el estadístico F obtenido con un valor crítico de F con los mismos grados de libertad. [8]

Referencias

Enlaces externos

Notas

  1. ^ Casella, George; Berger, Roger L (2001). Inferencia estadística. Cengage Learning. ISBN 9780534243128.
  2. ^ George Casella (2008). Diseño estadístico. Springer . ISBN. 978-0-387-75965-4.
  3. ^ Casella y Berger 2001, pág. 526.
  4. ^ desde Casella 2008, pág. 11.
  5. ^ Casella 2008, pág. 12.
  6. ^ Casella 2008, pág. 13.
  7. ^ ab Everitt, BS (2002) The Cambridge Dictionary of Statistics , CUP. ISBN 0-521-81099-X (entrada para "Contrastes ortogonales") 
  8. ^ abcde Howell, David C. (2010). Métodos estadísticos para la psicología (7.ª ed.). Belmont, CA: Thomson Wadsworth. ISBN 978-0-495-59784-1.
  9. ^ Kim, Jong Sung. "Contrastes polinomiales ortogonales" (PDF) . Consultado el 27 de abril de 2012 .
  10. ^ abc Clark, James M. (2007). Análisis de datos intermedios: regresión múltiple y análisis de varianza . Universidad de Winnipeg.{{cite book}}: Mantenimiento de CS1: falta la ubicación del editor ( enlace )
  11. ^ Kuehl, Robert O. (2000). Diseño de experimentos: principios estadísticos del diseño y análisis de la investigación (2.ª ed.). Pacific Grove, CA: Duxbury/Thomson Learning. ISBN 0534368344.
  12. ^ Manual electrónico de métodos estadísticos del NIST/SEMATECH