En estadística , la T de Tschuprow es una medida de asociación entre dos variables nominales , que da un valor entre 0 y 1 (ambos inclusive). Está estrechamente relacionada con la V de Cramér , coincidiendo con ella para las tablas de contingencia cuadradas . Fue publicada por Alexander Tschuprow (ortografía alternativa: Chuprov) en 1939. [1]
Definición
Para una tabla de contingencia r × c con r filas y c columnas, sea la proporción de la población en la celda y sea
- y
Entonces la contingencia del cuadrado medio se da como
y la T de Tschuprow como
Propiedades
T es igual a cero si y solo si se cumple la independencia en la tabla, es decir, si y solo si . T es igual a uno si y solo si hay dependencia perfecta en la tabla, es decir, si y solo si para cada i hay solo un j tal que y viceversa. Por lo tanto, solo puede ser igual a 1 para tablas cuadradas. En esto difiere de la V de Cramér , que puede ser igual a 1 para cualquier tabla rectangular.
Estimación
Si tenemos una muestra multinomial de tamaño n , la forma habitual de estimar T a partir de los datos es mediante la fórmula
donde es la proporción de la muestra en la celda . Este es el valor empírico de T . Con la estadística de chi-cuadrado de Pearson , esta fórmula también se puede escribir como
Véase también
Otras medidas de correlación para datos nominales:
Otros artículos relacionados:
Referencias
- ^ Tschuprow, AA (1939) Principios de la teoría matemática de la correlación ; traducido por M. Kantorowitsch. W. Hodge & Co.
- Liebetrau, A. (1983). Medidas de asociación (aplicaciones cuantitativas en las ciencias sociales). Sage Publications