stringtranslate.com

La camiseta de Tschuprow

En estadística , la T de Tschuprow es una medida de asociación entre dos variables nominales , que da un valor entre 0 y 1 (ambos inclusive). Está estrechamente relacionada con la V de Cramér , coincidiendo con ella para las tablas de contingencia cuadradas . Fue publicada por Alexander Tschuprow (ortografía alternativa: Chuprov) en 1939. [1]

Definición

Para una tabla de contingencia r  ×  c con r filas y c columnas, sea la proporción de la población en la celda y sea

y

Entonces la contingencia del cuadrado medio se da como

y la T de Tschuprow como

Propiedades

T es igual a cero si y solo si se cumple la independencia en la tabla, es decir, si y solo si . T es igual a uno si y solo si hay dependencia perfecta en la tabla, es decir, si y solo si para cada i hay solo un j tal que y viceversa. Por lo tanto, solo puede ser igual a 1 para tablas cuadradas. En esto difiere de la V de Cramér , que puede ser igual a 1 para cualquier tabla rectangular.

Estimación

Si tenemos una muestra multinomial de tamaño n , la forma habitual de estimar T a partir de los datos es mediante la fórmula

donde es la proporción de la muestra en la celda . Este es el valor empírico de T . Con la estadística de chi-cuadrado de Pearson , esta fórmula también se puede escribir como

Véase también

Otras medidas de correlación para datos nominales:

Otros artículos relacionados:

Referencias

  1. ^ Tschuprow, AA (1939) Principios de la teoría matemática de la correlación ; traducido por M. Kantorowitsch. W. Hodge & Co.