Tenga en cuenta la seguridad, la ergonomía y la resiliencia del sistema.
En el campo de los factores humanos y la ergonomía , la confiabilidad humana (también conocida como desempeño humano o HU ) es la probabilidad de que un humano realice una tarea con un estándar suficiente. [1] La confiabilidad de los humanos puede verse afectada por muchos factores, como la edad , la salud física , el estado mental , la actitud , las emociones , la propensión personal a ciertos errores y los sesgos cognitivos .
La confiabilidad humana es importante para la resiliencia de los sistemas sociotécnicos y tiene implicaciones para campos como la manufactura , la medicina y la energía nuclear . Los intentos realizados para disminuir el error humano y aumentar la confiabilidad en la interacción humana con la tecnología incluyen el diseño centrado en el usuario y el diseño tolerante a errores .
Factores que afectan el desempeño humano
El error humano , el desempeño humano y la confiabilidad humana son especialmente importantes de considerar cuando el trabajo se realiza en un entorno complejo y de alto riesgo. [2]
Las estrategias para abordar los factores que influyen en el rendimiento, como el estrés psicológico , la carga cognitiva y la fatiga, incluyen heurísticas y sesgos como el sesgo de confirmación , la heurística de disponibilidad y el sesgo de frecuencia .
Análisis de la confiabilidad humana
Existen diversos métodos para el análisis de confiabilidad humana (HRA). [3] [4] Dos clases generales de métodos son aquellos basados en la evaluación de riesgo probabilístico (PRA) y aquellos basados en una teoría cognitiva de control .
Técnicas basadas en PRA
Un método para analizar la confiabilidad humana es una extensión directa de la evaluación probabilística de riesgos (PRA): de la misma manera que el equipo puede fallar en una planta de energía , también puede cometer errores un operador humano. En ambos casos, un análisis ( descomposición funcional para el equipo y análisis de tareas para humanos) articularía un nivel de detalle para el cual se pueden asignar probabilidades de falla o error. Esta idea básica está detrás de la Técnica para la Predicción de la Tasa de Error Humano (THERP). [5] THERP tiene como objetivo generar probabilidades de error humano que se incorporarían a un PRA. El procedimiento de confiabilidad humana del Programa de Evaluación de Secuencia de Accidentes (ASEP) es una forma simplificada de THERP; una herramienta computacional asociada es el Código Simplificado de Análisis de Error Humano (SHEAN). [6] Más recientemente, la Comisión Reguladora Nuclear de los EE. UU. ha publicado el método de Análisis de Riesgo de Planta Estandarizado – Análisis de Confiabilidad Humana (SPAR-H) para tener en cuenta el potencial de error humano. [7] [8]
Técnicas basadas en el control cognitivo
Erik Hollnagel ha desarrollado esta línea de pensamiento en su trabajo sobre el Modelo de Control Contextual (COCOM) [9] y el Método de Análisis de Error y Confiabilidad Cognitiva (CREAM). [10] COCOM modela el desempeño humano como un conjunto de modos de control —estratégico (basado en la planificación a largo plazo), táctico (basado en procedimientos), oportunista (basado en el contexto actual) y aleatorio— y propone un modelo de cómo ocurren las transiciones entre estos modos de control. Este modelo de transición del modo de control consta de una serie de factores, incluyendo la estimación del operador humano del resultado de la acción (éxito o fracaso), el tiempo restante para llevar a cabo la acción (adecuado o inadecuado) y el número de objetivos simultáneos del operador humano en ese momento. CREAM es un método de análisis de confiabilidad humana que se basa en COCOM.
Técnicas relacionadas
Las técnicas relacionadas en ingeniería de seguridad e ingeniería de confiabilidad incluyen análisis de modos de falla y efectos , hazop , árbol de fallas y SAPHIRE (Programas de análisis de sistemas para evaluaciones prácticas de confiabilidad integradas).
Sistema de análisis y clasificación de factores humanos (HFACS)
El Sistema de Análisis y Clasificación de Factores Humanos (HFACS) fue desarrollado inicialmente como un marco para entender el papel del error humano en los accidentes de aviación . [11] [12] Se basa en el modelo de queso suizo de James Reason sobre el error humano en sistemas complejos. El HFACS distingue entre los "fallos activos" de actos inseguros y los "fallos latentes" de las condiciones previas para los actos inseguros, la supervisión insegura y las influencias organizacionales. Estas categorías se desarrollaron empíricamente sobre la base de muchos informes de accidentes de aviación.
Los "actos inseguros" son realizados por el operador humano "en primera línea" (por ejemplo, el piloto , el controlador de tráfico aéreo o el conductor). Los actos inseguros pueden ser errores (en la percepción, la toma de decisiones o el desempeño basado en habilidades) o violaciones. Las violaciones, o el desprecio deliberado por las reglas y los procedimientos, pueden ser rutinarias o excepcionales. Las violaciones rutinarias ocurren habitualmente y generalmente son toleradas por la organización o la autoridad. Las violaciones excepcionales son inusuales y a menudo extremas. Por ejemplo, conducir a 60 mph en una zona con límite de velocidad de 55 mph es una violación rutinaria, mientras que conducir a 130 mph en la misma zona es excepcional.
Existen dos tipos de condiciones previas para que se produzcan actos inseguros: las que se relacionan con el estado interno del operador humano y las que se relacionan con las prácticas o formas de trabajo del operador humano. Los estados internos adversos incluyen los relacionados con la fisiología (por ejemplo, enfermedad) y el estado mental (por ejemplo, fatiga mental, distracción). Un tercer aspecto del "estado interno" es en realidad un desajuste entre la capacidad del operador y las exigencias de la tarea. Cuatro tipos de supervisión insegura son: supervisión inadecuada; operaciones inapropiadas planificadas; no corregir un problema conocido; y violaciones de supervisión.
Las influencias organizacionales incluyen aquellas relacionadas con la gestión de recursos (por ejemplo, recursos humanos o financieros inadecuados), el clima organizacional (estructuras, políticas y cultura ) y los procesos organizacionales (como procedimientos , cronogramas , supervisión).
Véase también
Notas al pie
- ^ Calixto, Eduardo (1 de enero de 2016), Calixto, Eduardo (ed.), "Capítulo 5: Análisis de confiabilidad humana", Ingeniería de confiabilidad de gas y petróleo (segunda edición) , Boston: Gulf Professional Publishing, págs. 471–552, ISBN 978-0-12-805427-7, consultado el 18 de diciembre de 2023
- ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009
- ^ Kirwan y Ainsworth, 1992
- ^ Kirwan, 1994
- ^ Swain y Guttmann, 1983
- ^ Código simplificado de análisis de errores humanos (Wilson, 1993)
- ^ SPAR-H
- ^ Gertman y otros, 2005
- ^ (Hollnagel, 1993)
- ^ (Hollnagel, 1998)
- ^ Shappell y Wiegmann, 2000
- ^ Wiegmann y Shappell, 2003
Referencias
- Gertman, DL; Blackman, HS (2001). Manual de datos de análisis de seguridad y confiabilidad humana . Wiley.
- Gertman, D., Blackman, H., Marble, J., Byers, J. y Smith, C. (2005). El método de análisis de confiabilidad humana SPAR-H. NUREG/CR-6883. Laboratorio Nacional de Idaho, preparado para la Comisión Reguladora Nuclear de los Estados Unidos .
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace )[1] - M. Cappelli, A. M. Gadomski, M. Sepielli (2011). Factores humanos en la gestión de la seguridad de las centrales nucleares: un enfoque de modelado sociocognitivo utilizando la metateoría TOGA. Actas del Congreso Internacional sobre Avances en Centrales Nucleares. Niza (FR) . SFEN (Société Française d'Energie Nucléaire).
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Hollnagel, E. (1993). Análisis de confiabilidad humana: contexto y control . Prensa académica.
- Hollnagel, E. (1998). Método de análisis de errores y confiabilidad cognitiva: CREAM . Elsevier.
- Hollnagel, E.; Amalberti, R. (2001). El traje nuevo del emperador, o ¿qué pasó con el "error humano"? Presentación magistral invitada en el 4º Taller internacional sobre error humano, seguridad y desarrollo de sistemas . Linköping, 11 y 12 de junio de 2001.
- Hollnagel, E., Woods, DD y Leveson, N. (Eds.) (2006). Ingeniería de resiliencia: conceptos y preceptos . Ashgate.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Jones, PM (1999). Error humano y su mejora. En Handbook of Systems Engineering and Management (AP Sage y WB Rouse, eds.), 687-702 . Wiley.
- Kirwan, B. (1994). Una guía para la evaluación práctica de la confiabilidad humana . Taylor & Francis.
- Kirwan, B. y Ainsworth, L. (Eds.) (1992). Una guía para el análisis de tareas . Taylor & Francis.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Norman, D. (1988). La psicología de las cosas cotidianas . Libros básicos.
- Reason, J. (1990). Error humano . Cambridge University Press.
- Roth, E.; et al. (1994). Una investigación empírica del desempeño del operador en situaciones de emergencia simuladas que requieren un esfuerzo cognitivo. NUREG/CR-6208, Westinghouse Science and Technology Center . Informe preparado para la Comisión Reguladora Nuclear.
- Sage, AP (1992). Ingeniería de sistemas . Wiley.
- Senders, J.; Moray, N. (1991). Error humano: causa, predicción y reducción . Lawrence Erlbaum Associates.
- Shappell, S.; Wiegmann, D. (2000). El sistema de análisis y clasificación de factores humanos - HFACS. DOT/FAA/AM-00/7, Oficina de Medicina de Aviación, Administración Federal de Aviación, Departamento de Transporte .[2]
- Swain, AD y Guttman, HE (1983). Manual de análisis de confiabilidad humana con énfasis en aplicaciones en plantas de energía nuclear . NUREG/CR-1278 (Washington DC).
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Wallace, B.; Ross, A. (2006). Más allá del error humano . CRC Press.
- Wiegmann, D.; Shappell, S. (2003). Un enfoque basado en el error humano para el análisis de accidentes de aviación: el sistema de análisis y clasificación de factores humanos . Ashgate.
- Wilson, JR (1993). SHEAN (código de análisis de errores humanos simplificado) y THERP automatizado . Informe técnico número WINCO--11908 del Departamento de Energía de los Estados Unidos.[3]
- Woods, DD (1990). Modelado y predicción de errores humanos. En J. Elkind, S. Card, J. Hochberg y B. Huey (Eds.), Modelos de desempeño humano para ingeniería asistida por computadora (248-274) . Academic Press.
- Administración Federal de Aviación. Código electrónico de regulaciones de 2009. Recuperado el 25 de septiembre de 2009 de https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf
Lectura adicional
- Autrey, TD (2015). Cultura de seguridad de 6 horas: cómo reducir de manera sostenible los errores y riesgos humanos (y lograr lo que la capacitación por sí sola no puede lograr). Asociación de Desempeño Humano. Archivado desde el original el 2021-04-11 . Consultado el 2020-08-21 .
- Davies, JB, Ross, A., Wallace, B. y Wright, L. (2003). Gestión de la seguridad: un enfoque sistémico cualitativo . Taylor y Francis.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Dekker, SWA (2005). Diez preguntas sobre el error humano: una nueva perspectiva de los factores humanos y la seguridad de los sistemas. Lawrence Erlbaum Associates. Archivado desde el original el 11 de diciembre de 2012. Consultado el 24 de mayo de 2010 .
- Dekker, SWA (2006). Guía de campo para comprender el error humano. Ashgate. Archivado desde el original el 6 de marzo de 2012. Consultado el 24 de mayo de 2010 .
- Dekker, SWA (2007). Cultura justa: equilibrio entre seguridad y responsabilidad. Ashgate. Archivado desde el original el 6 de marzo de 2012. Consultado el 24 de mayo de 2010 .
- Dismukes, RK, Berman, BA y Loukopoulos, LD (2007). Los límites de la experiencia: replanteamiento del error del piloto y las causas de los accidentes aéreos . Ashgate.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Forester, J., Kolaczkowski, A., Lois, E. y Kelly, D. (2006). Evaluación de los métodos de análisis de confiabilidad humana en relación con las buenas prácticas. Informe final de NUREG-1842 . Comisión Reguladora Nuclear de los Estados Unidos.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace )[4] - Goodstein, LP, Andersen, HB y Olsen, SE (Eds.) (1988). Tareas, errores y modelos mentales . Taylor y Francis.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Grabowski, M. ; Roberts, KH (1996). "Error humano y organizacional en sistemas de gran escala". IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans . 26 : 2–16. doi :10.1109/3468.477856.
- Greenbaum, J. y Kyng, M. (Eds.) (1991). Diseño en acción: diseño cooperativo de sistemas informáticos . Lawrence Erlbaum Associates.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Harrison, M. (2004). Análisis de errores humanos y evaluación de la fiabilidad . Taller sobre interacción hombre-ordenador y fiabilidad, 46.ª reunión del grupo de trabajo 10.4 de la IFIP, Siena (Italia), 3 al 7 de julio de 2004.[5]
- Hollnagel, E. (1991). El fenotipo de las acciones erróneas: implicaciones para el diseño de HCI. En GWR Weir y JL Alty (Eds.), Interacción hombre-ordenador y sistemas complejos. Prensa académica.
- Hutchins, E. (1995). Cognición en la naturaleza . MIT Press.
- Kahneman, D., Slovic, P. y Tversky, A. (Eds.) (1982). "Juicio bajo incertidumbre: heurística y sesgos". Science . 185 (4157). Cambridge University Press: 1124–31. doi :10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
{{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Leveson, N. (1995). Safeware: Seguridad del sistema y computadoras . Addison-Wesley.
- Morgan, G. (1986). Imágenes de la organización . Sage.
- Mura, SS (1983). Violaciones de la concesión de licencias: violaciones legítimas del principio conversacional de Grice. En R. Craig y K. Tracy (Eds.), Coherencia conversacional: forma, estructura y estrategia (101-115) . Sage.
- Perrow, C. (1984). Accidentes normales: vivir con tecnologías de alto riesgo . Libros básicos. ISBN 9780465051441.
- Rasmussen, J. (1983). Habilidades, reglas y conocimientos: señales, signos y símbolos y otras distinciones en los modelos de desempeño humano. IEEE Transactions on Systems, Man, and Cybernetics , SMC-13, 257-267 .
- Rasmussen, J. (1986). Procesamiento de información e interacción hombre-máquina: un enfoque hacia la ingeniería cognitiva . Wiley.
- Silverman, B. (1992). Crítica del error humano: un enfoque de colaboración entre humanos y computadoras basado en el conocimiento . Academic Press.
- Swets, J. (1996). Teoría de detección de señales y análisis ROC en psicología y diagnóstico: artículos recopilados . Lawrence Erlbaum Associates.
- Tversky, A.; Kahneman, D. (1974). Juicio bajo incertidumbre: heurísticas y sesgos. Science , 185, 1124-1131 .
- Vaughan, D. (1996). La decisión de lanzar el Challenger: tecnología arriesgada, cultura y desviación en la NASA . University of Chicago Press. ISBN 9780226851761.
- Woods, DD, Johannesen, L., Cook, R. y Sarter, N. (1994). Detrás del error humano: sistemas cognitivos, computadoras y retrospectiva. Informe CSERIAC SOAR 94-01 . Centro de análisis de información sobre ergonomía de sistemas de tripulación, base aérea Wright-Patterson, Ohio.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - Wu, S., Hrudey, S., French, S., Bedford, T., Soane, E. y Pollard, S. (2009). "Un papel para el análisis de confiabilidad humana (HRA) en la prevención de incidentes relacionados con el agua potable y la garantía de agua potable segura" (PDF) . Water Research . 43 (13): 3227–3238. Bibcode :2009WatRe..43.3227W. doi :10.1016/j.watres.2009.04.040. PMID 19493557.
{{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - CCPS, Guidelines for Preventing Human Error. Este libro explica la metodología cualitativa y cuantitativa para predecir el error humano. La metodología cualitativa se denomina SPEAR: Systems for Predicting Human Error and Recovery, y la metodología cuantitativa también incluye THERP, etc.
Enlaces externos
Normas y documentos de orientación
- Estándar IEEE 1082 (1997): Guía IEEE para la incorporación de análisis de confiabilidad de la acción humana en centrales nucleares
- Norma DOE-HDBK-1028-2009 del DOE: Manual para la mejora del desempeño humano
Herramientas
- Calculadora EPRI HRA
- Herramientas de Eurocontrol para detectar errores humanos
- Software de evaluación de riesgos de salud RiskSpectrum
- Código simplificado de análisis de errores humanos
Laboratorios de investigación
Cobertura mediática
- “Cómo evitar errores humanos en TI” Archivado el 4 de marzo de 2016 en Wayback Machine.
- “La confiabilidad humana. Nos descomponemos igual que las máquinas” Ingeniero Industrial – Noviembre 2004, 36(11): 66
Redes
- Grupo de Gestión de Alta Confiabilidad en LinkedIn.com