stringtranslate.com

Kappa de Fleiss

El kappa de Fleiss (que debe su nombre a Joseph L. Fleiss ) es una medida estadística para evaluar la fiabilidad del acuerdo entre un número fijo de evaluadores al asignar calificaciones categóricas a una serie de ítems o clasificar ítems. Esto contrasta con otros kappas como el kappa de Cohen , que solo funcionan al evaluar el acuerdo entre no más de dos evaluadores o la fiabilidad intraevaluador (para un evaluador frente a ellos mismos). La medida calcula el grado de acuerdo en la clasificación por encima del que se esperaría por casualidad.

El kappa de Fleiss se puede utilizar con valores binarios o de escala nominal . También se puede aplicar a datos ordinales (datos clasificados): la documentación en línea de MiniTab [1] ofrece un ejemplo. Sin embargo, este documento señala: "Cuando se tienen clasificaciones ordinales, como clasificaciones de gravedad de defectos en una escala de 1 a 5, los coeficientes de Kendall , que tienen en cuenta el ordenamiento, suelen ser estadísticas más apropiadas para determinar la asociación que el kappa solo". Sin embargo, tenga en cuenta que los coeficientes de rango de Kendall solo son apropiados para datos de rango.

Introducción

El kappa de Fleiss es una generalización del estadístico pi de Scott , [2] una medida estadística de la confiabilidad entre evaluadores . [3] También está relacionado con el estadístico kappa de Cohen y el estadístico J de Youden , que pueden ser más apropiados en ciertos casos. [4] Mientras que el pi de Scott y el kappa de Cohen funcionan solo para dos evaluadores, el kappa de Fleiss funciona para cualquier número de evaluadores que otorguen calificaciones categóricas, a un número fijo de elementos, con la condición de que para cada elemento los evaluadores sean muestreados aleatoriamente. Puede interpretarse como la expresión del grado en el que la cantidad observada de acuerdo entre los evaluadores excede lo que se esperaría si todos los evaluadores hicieran sus calificaciones de manera completamente aleatoria. Es importante señalar que mientras que el kappa de Cohen supone que los mismos dos evaluadores han calificado un conjunto de elementos, el kappa de Fleiss permite específicamente que, aunque haya un número fijo de evaluadores (por ejemplo, tres), diferentes elementos pueden ser calificados por diferentes individuos. [3] Es decir, el ítem 1 es calificado por los evaluadores A, B y C; pero el ítem 2 podría ser calificado por los evaluadores D, E y F. La condición de muestreo aleatorio entre los evaluadores hace que el kappa de Fleiss no sea adecuado para los casos en que todos los evaluadores califican a todos los pacientes. [5]

El acuerdo se puede considerar de la siguiente manera: si un número fijo de personas asigna calificaciones numéricas a una serie de elementos, el kappa dará una medida de cuán consistentes son las calificaciones. El kappa, , se puede definir como:

(1)

El factor indica el grado de acuerdo que se puede alcanzar por encima del azar, y indica el grado de acuerdo que realmente se logra por encima del azar. Si los evaluadores están completamente de acuerdo, entonces . Si no hay acuerdo entre los evaluadores (salvo lo que se esperaría por azar), entonces .

Un ejemplo de uso del kappa de Fleiss puede ser el siguiente: considere varios psiquiatras a los que se les pide que examinen a diez pacientes. Para cada paciente, 14 psiquiatras dan uno de los cinco diagnósticos posibles. Estos se compilan en una matriz y el kappa de Fleiss se puede calcular a partir de esta matriz (ver el ejemplo a continuación) para mostrar el grado de acuerdo entre los psiquiatras por encima del nivel de acuerdo esperado por el azar.

Definición

Sea N el número total de sujetos, sea n el número de calificaciones por sujeto y sea k el número de categorías en las que se realizan las asignaciones. Los sujetos están indexados por i = 1, ..., N y las categorías están indexadas por j = 1, ..., k . Sea n ij el número de evaluadores que asignaron el sujeto i -ésimo a la categoría j -ésima.

Primero calcule p j , la proporción de todas las asignaciones que fueron para la categoría j :

(2)

Ahora calcule hasta qué punto los evaluadores están de acuerdo para el i -ésimo sujeto (es decir, calcule cuántos pares evaluador-evaluador están de acuerdo, en relación con el número de todos los pares evaluador-evaluador posibles):

(3)

Tenga en cuenta que está limitado entre 0 , cuando las calificaciones se asignan por igual a todas las categorías, y 1 , cuando todas las calificaciones se asignan a una sola categoría.

Ahora calcule , la media de los , y , que entran en la fórmula para :

(4)

(5)

Ejemplo resuelto

En el siguiente ejemplo, para cada uno de los diez "sujetos" ( ), catorce evaluadores ( ), seleccionados de un grupo más grande, asignan un total de cinco categorías ( ). Las categorías se presentan en las columnas, mientras que los sujetos se presentan en las filas. Cada celda enumera el número de evaluadores que asignaron el sujeto indicado (fila) a la categoría indicada (columna).

En la siguiente tabla, dado que , y . El valor es la proporción de todas las asignaciones que se realizaron a la categoría n. Por ejemplo, tomando la primera columna y tomando la segunda fila,

Para calcular , necesitamos saber la suma de ,

Sobre toda la hoja,

Interpretación

Landis y Koch (1977) dieron la siguiente tabla para interpretar los valores de un ejemplo de 2 clases y 2 anotadores. [6] Sin embargo, esta tabla no es de ninguna manera aceptada universalmente. No aportaron ninguna evidencia para respaldarla, sino que la basaron en su opinión personal. Se ha observado que estas pautas pueden ser más perjudiciales que útiles, [7] ya que la cantidad de categorías y sujetos afectará la magnitud del valor. Por ejemplo, el kappa es mayor cuando hay menos categorías. [8]

Pruebas de significancia

Los paquetes estadísticos pueden calcular una puntuación estándar (puntuación Z) para el kappa de Cohen o el kappa de Fleiss, que se puede convertir en un valor P. Sin embargo, incluso cuando el valor P alcanza el umbral de significación estadística (normalmente menos de 0,05), solo indica que el acuerdo entre los evaluadores es significativamente mejor de lo que se esperaría por casualidad. El valor P no indica, por sí solo, si el acuerdo es lo suficientemente bueno como para tener un alto valor predictivo.

Véase también

Referencias

  1. ^ Estadísticas Kappa para el análisis de concordancia de atributos, MiniTab Inc , consultado el 22 de enero de 2019.
  2. ^ Scott, W. (1955), "Fiabilidad del análisis de contenido: el caso de la codificación de escala nominal", Public Opinion Quarterly , 19 (3): 321–325, doi :10.1086/266577, JSTOR  2746450.
  3. ^ ab Fleiss, JL (1971), "Medición del acuerdo de escala nominal entre muchos evaluadores", Psychological Bulletin , 76 (5): 378–382, doi :10.1037/h0031619.
  4. ^ Powers, David MW (2012), El problema con Kappa , vol. Conferencia del Capítulo Europeo de la Asociación de Lingüística Computacional (EACL2012) Taller conjunto ROBUS-UNSUP., Asociación de Lingüística Computacional.
  5. ^ Hallgren, Kevin A. (2012), "Cálculo de la fiabilidad entre evaluadores para datos observacionales: descripción general y tutorial", Tutoriales en métodos cuantitativos para psicología , 8 (1): 3–34, doi :10.20982/tqmp.08.1.p023, PMID  22833776.
  6. ^ ab Landis, JR; Koch, GG (1977), "La medición del acuerdo entre observadores para datos categóricos", Biometrics , 33 (1): 159–174, doi :10.2307/2529310, JSTOR  2529310, PMID  843571.
  7. ^ Gwet, KL (2014), "Capítulo 6. (Gaithersburg: Advanced Analytics, LLC)", Manual de confiabilidad entre evaluadores (PDF) (4.ª ed.), Advanced Analytics, LLC, ISBN 978-0970806284.
  8. ^ Sim, J.; Wright, CC (2005), "La estadística Kappa en estudios de confiabilidad: uso, interpretación y requisitos de tamaño de muestra", Fisioterapia , 85 (3): 257–268, doi :10.1093/ptj/85.3.257.

Lectura adicional

Enlaces externos