stringtranslate.com

Repetibilidad

La repetibilidad o confiabilidad test-retest [1] es la cercanía de la concordancia entre los resultados de mediciones sucesivas de la misma medida, cuando se llevan a cabo bajo las mismas condiciones de medición. [2] En otras palabras, las mediciones son tomadas por una sola persona o instrumento sobre el mismo artículo, en las mismas condiciones y en un corto período de tiempo. Una confiabilidad test-retest que no es perfecta provoca variabilidad test-retest . Dicha variabilidad puede ser causada, por ejemplo, por la variabilidad intraindividual y la variabilidad entre observadores . Se puede decir que una medición es repetible cuando esta variación es menor que un criterio de aceptación predeterminado.

La variabilidad test-retest se utiliza en la práctica, por ejemplo, en el seguimiento médico de enfermedades. En estas situaciones, a menudo existe una "diferencia crítica" predeterminada, y para diferencias en los valores monitoreados que son menores que esta diferencia crítica, se puede considerar la posibilidad de variabilidad como única causa de la diferencia, además de, por ejemplo, cambios. en enfermedades o tratamientos. [3]

Condiciones

Se deben cumplir las siguientes condiciones para establecer la repetibilidad: [2] [4]

Los métodos de repetibilidad fueron desarrollados por Bland y Altman (1986). [5]

Si la correlación entre administraciones separadas de la prueba es alta (por ejemplo, 0,7 o más, como en esta tabla de consistencia interna alfa de Cronbach [6] ), entonces tiene una buena confiabilidad test-retest.

El coeficiente de repetibilidad es una medida de precisión que representa el valor por debajo del cual se puede esperar que se encuentre la diferencia absoluta entre dos resultados de pruebas repetidas con una probabilidad del 95%.

La desviación estándar bajo condiciones de repetibilidad es parte de la precisión y exactitud .

Análisis de acuerdo de atributos para bases de datos de defectos.

Un análisis de concordancia de atributos está diseñado para evaluar simultáneamente el impacto de la repetibilidad y la reproducibilidad en la precisión. Permite al analista examinar las respuestas de varios revisores mientras analizan varios escenarios varias veces. Produce estadísticas que evalúan la capacidad de los tasadores para estar de acuerdo consigo mismos (repetibilidad), entre sí ( reproducibilidad ) y con un valor maestro conocido o correcto (precisión general) para cada característica, una y otra vez. [7]

Pruebas psicológicas

Debido a que la misma prueba se administra dos veces y cada prueba es paralela a sí misma, las diferencias entre las puntuaciones de la prueba y las de la nueva prueba deberían deberse únicamente a errores de medición. Es muy probable que este tipo de argumento sea cierto para muchas mediciones físicas. Sin embargo, este argumento suele ser inapropiado para la medición psicológica, porque a menudo es imposible considerar la segunda administración de una prueba como una medida paralela a la primera. [8]

La segunda administración de una prueba psicológica puede arrojar puntuaciones sistemáticamente diferentes a las de la primera administración debido a las siguientes razones: [8]

  1. El atributo que se está midiendo puede cambiar entre la primera prueba y la nueva prueba. Por ejemplo, una prueba de lectura que se administra en septiembre a una clase de tercer grado puede arrojar resultados diferentes cuando se repite en junio. Se esperaría algún cambio en la capacidad de lectura de los niños durante ese período de tiempo; una correlación baja entre prueba y repetición podría reflejar cambios reales en el atributo mismo.
  2. La experiencia de realizar el examen en sí puede cambiar la puntuación real de una persona. Por ejemplo, completar un inventario de ansiedad podría servir para aumentar el nivel de ansiedad de una persona.
  3. Efecto de arrastre , particularmente si el intervalo entre la prueba y la nueva prueba es corto. Cuando se vuelve a realizar la prueba, las personas pueden recordar su respuesta original, lo que podría afectar las respuestas en la segunda administración.

Ver también

Referencias

  1. ^ Tipos de confiabilidad Base de conocimientos sobre métodos de investigación. Última revisión: 20 de octubre de 2006
  2. ^ ab JCGM 100:2008. Evaluación de datos de medición – Guía para la expresión de la incertidumbre en la medición (PDF) , Comité Conjunto de Guías en Metrología, 2008
  3. ^ Fraser, CG; Fogarty, Y. (1989). "Interpretación de resultados de laboratorio". BMJ (Ed. de investigación clínica) . 298 (6689): 1659-1660. doi :10.1136/bmj.298.6689.1659. PMC 1836738 . PMID  2503170. 
  4. ^ Taylor, Barry N.; Kuyatt, Chris E. (1994), Directrices del NIST para evaluar y expresar la incertidumbre de la cobertura de resultados de mediciones del NIST, Gaithersburg, MD, EE. UU.: Instituto Nacional de Estándares y Tecnología
  5. ^ "Métodos estadísticos para evaluar la concordancia entre dos métodos de medición clínica".
  6. ^ George, D. y Mallery, P. (2003). SPSS para Windows paso a paso: Una guía y referencia sencilla. Actualización 11.0 (4ª ed.). Boston: Allyn y Bacon.
  7. ^ "Análisis de acuerdo de atributos para bases de datos de defectos | iSixSigma". 26 de febrero de 2010.
  8. ^ ab Davidshofer, Kevin R. Murphy, Charles O. (2005). Pruebas psicológicas: principios y aplicaciones (6ª ed.). Upper Saddle River, Nueva Jersey: Pearson/Prentice Hall. ISBN 978-0-13-189172-2.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )

enlaces externos