stringtranslate.com

Repetibilidad

La repetibilidad o confiabilidad test-retest [1] es la proximidad de la concordancia entre los resultados de mediciones sucesivas de la misma medida, cuando se llevan a cabo bajo las mismas condiciones de medición. [2] En otras palabras, las mediciones son tomadas por una sola persona o instrumento sobre el mismo elemento, bajo las mismas condiciones y en un corto período de tiempo. Una confiabilidad test-retest menos que perfecta causa variabilidad test-retest . Dicha variabilidad puede ser causada, por ejemplo, por variabilidad intraindividual y variabilidad interobservador . Se puede decir que una medición es repetible cuando esta variación es menor que un criterio de aceptación predeterminado.

La variabilidad test-retest se utiliza en la práctica, por ejemplo, en el seguimiento médico de enfermedades. En estas situaciones, suele haber una "diferencia crítica" predeterminada y, en el caso de diferencias en los valores controlados que sean menores que esta diferencia crítica, puede considerarse la posibilidad de que la variabilidad sea la única causa de la diferencia, además de, por ejemplo, cambios en las enfermedades o los tratamientos. [3]

Condiciones

Para establecer la repetibilidad se deben cumplir las siguientes condiciones: [2] [4]

Los métodos de repetibilidad fueron desarrollados por Bland y Altman (1986). [5]

Si la correlación entre administraciones separadas de la prueba es alta (por ejemplo, 0,7 o más alta como en esta tabla de consistencia interna alfa de Cronbach [6] ), entonces tiene una buena confiabilidad test-retest.

El coeficiente de repetibilidad es una medida de precisión que representa el valor por debajo del cual se puede esperar que la diferencia absoluta entre dos resultados de pruebas repetidas se encuentre con una probabilidad del 95%. [ cita requerida ]

La desviación estándar en condiciones de repetibilidad es parte de la precisión y exactitud . [ cita requerida ]

Análisis de concordancia de atributos para bases de datos de defectos

Un análisis de acuerdo de atributos está diseñado para evaluar simultáneamente el impacto de la repetibilidad y la reproducibilidad en la precisión. Permite al analista examinar las respuestas de varios revisores mientras analizan varios escenarios varias veces. Produce estadísticas que evalúan la capacidad de los evaluadores para estar de acuerdo consigo mismos (repetibilidad), entre ellos ( reproducibilidad ) y con un valor maestro o correcto conocido (precisión general) para cada característica, una y otra vez. [7]

Pruebas psicológicas

Como la misma prueba se administra dos veces y cada prueba es paralela a sí misma, las diferencias entre las puntuaciones de la prueba y las puntuaciones de la segunda prueba deberían deberse únicamente a un error de medición. Este tipo de argumento es muy probablemente cierto para muchas mediciones físicas. Sin embargo, este argumento es a menudo inadecuado para la medición psicológica, porque a menudo es imposible considerar la segunda administración de una prueba como una medida paralela a la primera. [8]

La segunda administración de una prueba psicológica podría producir puntuaciones sistemáticamente diferentes a las de la primera administración debido a las siguientes razones: [8]

  1. El atributo que se mide puede cambiar entre la primera prueba y la segunda. Por ejemplo, una prueba de lectura que se administra en septiembre a una clase de tercer grado puede arrojar resultados diferentes cuando se vuelve a realizar en junio. Se esperaría algún cambio en la capacidad de lectura de los niños durante ese período de tiempo; una correlación baja entre la prueba y la segunda prueba podría reflejar cambios reales en el atributo en sí.
  2. La experiencia de realizar el test en sí puede cambiar la puntuación real de una persona. Por ejemplo, completar un inventario de ansiedad podría servir para aumentar el nivel de ansiedad de una persona.
  3. Efecto de arrastre , en particular si el intervalo entre la prueba y la segunda prueba es corto. Cuando se realiza la segunda prueba, las personas pueden recordar su respuesta original, lo que podría afectar las respuestas en la segunda administración.

Véase también

Referencias

  1. ^ Tipos de confiabilidad Archivado el 6 de junio de 2018 en Wayback Machine . Base de conocimientos sobre métodos de investigación. Última revisión: 20 de octubre de 2006
  2. ^ ab JCGM 100:2008. Evaluación de datos de medición – Guía para la expresión de la incertidumbre en la medición (PDF) , Comité Conjunto de Guías en Metrología, 2008, archivado (PDF) del original el 2009-10-01 , consultado el 2018-04-11
  3. ^ Fraser, CG; Fogarty, Y. (1989). "Interpretación de resultados de laboratorio". BMJ (Clinical Research Ed.) . 298 (6689): 1659–1660. doi :10.1136/bmj.298.6689.1659. PMC 1836738. PMID  2503170 . 
  4. ^ Taylor, Barry N.; Kuyatt, Chris E. (1994), NIST Guidelines for Evaluating and Expressing the Uncertainty of NIST Measurement Results Cover, Gaithersburg, MD, EE. UU.: Instituto Nacional de Estándares y Tecnología, archivado desde el original el 2019-09-30 , consultado el 2018-04-11
  5. ^ "Métodos estadísticos para evaluar la concordancia entre dos métodos de medición clínica". Archivado desde el original el 6 de julio de 2018. Consultado el 30 de septiembre de 2010 .
  6. ^ George, D. y Mallery, P. (2003). SPSS para Windows paso a paso: una guía y referencia sencilla. Actualización 11.0 (4.ª ed.). Boston: Allyn & Bacon.
  7. ^ "Análisis de acuerdo de atributos para bases de datos de defectos | iSixSigma". 26 de febrero de 2010. Archivado desde el original el 22 de marzo de 2016. Consultado el 7 de febrero de 2013 .
  8. ^ ab Davidshofer, Kevin R. Murphy, Charles O. (2005). Pruebas psicológicas: principios y aplicaciones (6.ª ed.). Upper Saddle River, NJ: Pearson/Prentice Hall. ISBN 978-0-13-189172-2.{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )

Enlaces externos