Sistema cuyo fallo sería grave
Un sistema crítico para la seguridad [2] o un sistema crítico para la vida es un sistema cuyo fallo o mal funcionamiento puede dar lugar a uno (o más) de los siguientes resultados: [3] [4]
- Muerte o lesiones graves a personas
- Pérdida o daño grave al equipo/propiedad
- daño ambiental
Un sistema relacionado con la seguridad (o, a veces, un sistema que involucra la seguridad ) comprende todo (hardware, software y aspectos humanos) necesario para realizar una o más funciones de seguridad, en las que una falla causaría un aumento significativo en el riesgo de seguridad para las personas o el medio ambiente involucrados. [5] Los sistemas relacionados con la seguridad son aquellos que no tienen plena responsabilidad por controlar peligros como pérdida de vidas, lesiones graves o daños ambientales graves . El mal funcionamiento de un sistema que involucra la seguridad solo sería tan peligroso en conjunción con la falla de otros sistemas o un error humano . Algunas organizaciones de seguridad brindan orientación sobre sistemas relacionados con la seguridad, por ejemplo, la Health and Safety Executive en el Reino Unido . [6]
Los riesgos de este tipo se suelen gestionar con los métodos y herramientas de la ingeniería de seguridad . Un sistema crítico para la seguridad está diseñado para perder menos de una vida por cada mil millones (10 9 ) de horas de funcionamiento. [7] [8] Los métodos de diseño típicos incluyen la evaluación probabilística de riesgos , un método que combina el análisis de modos de fallo y efectos (FMEA) con el análisis del árbol de fallos . Los sistemas críticos para la seguridad se basan cada vez más en ordenadores .
Los sistemas críticos para la seguridad son un concepto que se utiliza a menudo junto con el modelo del queso suizo para representar (normalmente en un diagrama de pajarita ) cómo una amenaza puede escalar hasta convertirse en un accidente importante a través del fallo de múltiples barreras críticas. Este uso se ha vuelto común especialmente en el ámbito de la seguridad de procesos , en particular cuando se aplica a la perforación y producción de petróleo y gas, tanto con fines ilustrativos como para respaldar otros procesos, como la gestión de la integridad de los activos y la investigación de incidentes . [9]
Regímenes de confiabilidad
Existen varios regímenes de confiabilidad para sistemas críticos para la seguridad:
- Los sistemas de funcionamiento en caso de fallo siguen funcionando cuando fallan sus sistemas de control . Algunos ejemplos de estos sistemas son los ascensores , los termostatos de gas de la mayoría de los hornos domésticos y los reactores nucleares pasivos . El modo de funcionamiento en caso de fallo a veces es inseguro. El lanzamiento de armas nucleares en caso de pérdida de comunicaciones fue rechazado como sistema de control para las fuerzas nucleares estadounidenses porque es de funcionamiento en caso de fallo: una pérdida de comunicaciones provocaría el lanzamiento, por lo que este modo de funcionamiento se consideró demasiado arriesgado. Esto contrasta con el comportamiento letal en caso de fallo del sistema Perimeter construido durante la era soviética. [10]
- Los sistemas de protección contra fallas suaves pueden continuar funcionando de manera provisional con una eficiencia reducida en caso de falla. [11] La mayoría de las llantas de repuesto son un ejemplo de esto: generalmente vienen con ciertas restricciones (por ejemplo, una restricción de velocidad) y conducen a un menor ahorro de combustible. Otro ejemplo es el "Modo seguro" que se encuentra en la mayoría de los sistemas operativos Windows.
- Los sistemas a prueba de fallos se vuelven seguros cuando no pueden funcionar. Muchos sistemas médicos entran en esta categoría. Por ejemplo, una bomba de infusión puede fallar y, siempre que alerte a la enfermera y deje de bombear, no amenazará con perder la vida porque su intervalo de seguridad es lo suficientemente largo como para permitir una respuesta humana. En una línea similar, un controlador de quemador industrial o doméstico puede fallar, pero debe hacerlo en un modo seguro (es decir, apagar la combustión cuando detecte fallas). Es bien sabido que los sistemas de armas nucleares que se lanzan cuando se les ordena son a prueba de fallos, porque si fallan los sistemas de comunicaciones, no se puede ordenar el lanzamiento. La señalización ferroviaria está diseñada para ser a prueba de fallos.
- Los sistemas a prueba de fallos mantienen la máxima seguridad cuando no pueden funcionar. Por ejemplo, mientras que las puertas electrónicas a prueba de fallos se desbloquean durante cortes de energía, las puertas a prueba de fallos se bloquean, manteniendo un área segura.
- Los sistemas pasivos en caso de fallo siguen funcionando en caso de que se produzca un fallo del sistema. Un ejemplo de ello es el piloto automático de un avión . En caso de fallo, el avión permanecería en un estado controlable y permitiría al piloto tomar el control y completar el viaje y realizar un aterrizaje seguro.
- Los sistemas tolerantes a fallos evitan que se produzcan fallos en el servicio cuando se introducen fallas en el sistema. Un ejemplo puede incluir los sistemas de control para reactores nucleares ordinarios . El método normal para tolerar fallas es tener varias computadoras que prueben continuamente las partes de un sistema y activen repuestos en caliente para los subsistemas defectuosos. Siempre que los subsistemas defectuosos se reemplacen o reparen en intervalos de mantenimiento normales, estos sistemas se consideran seguros. Las computadoras, las fuentes de alimentación y los terminales de control utilizados por los seres humanos deben estar todos duplicados en estos sistemas de alguna manera.
Ingeniería de software para sistemas críticos de seguridad
La ingeniería de software para sistemas críticos para la seguridad es particularmente difícil. Hay tres aspectos que se pueden aplicar para ayudar al software de ingeniería para sistemas críticos para la vida. Primero está la ingeniería y gestión de procesos. Segundo, seleccionar las herramientas y el entorno adecuados para el sistema. Esto permite al desarrollador del sistema probar eficazmente el sistema mediante emulación y observar su efectividad. Tercero, abordar los requisitos legales y reglamentarios, como los requisitos de la Administración Federal de Aviación para la aviación. Al establecer un estándar para el desarrollo de un sistema, se obliga a los diseñadores a ceñirse a los requisitos. La industria de la aviónica ha tenido éxito en la producción de métodos estándar para producir software de aviónica crítico para la vida . Existen estándares similares para la industria, en general, ( IEC 61508 ) y las industrias automotriz ( ISO 26262 ), médica ( IEC 62304 ) y nuclear ( IEC 61513 ) específicamente. El enfoque estándar es codificar, inspeccionar, documentar, probar, verificar y analizar cuidadosamente el sistema. Otro enfoque consiste en certificar un sistema de producción, un compilador , y luego generar el código del sistema a partir de especificaciones. Otro enfoque utiliza métodos formales para generar pruebas de que el código cumple con los requisitos. [12] Todos estos enfoques mejoran la calidad del software en sistemas críticos para la seguridad al probar o eliminar pasos manuales en el proceso de desarrollo, porque las personas cometen errores, y estos errores son la causa más común de errores potencialmente mortales.
Ejemplos de sistemas críticos para la seguridad
Infraestructura
Medicamento[13]
Los requisitos tecnológicos pueden ir más allá de evitar fallos y pueden incluso facilitar los cuidados intensivos médicos (que se ocupan de curar a los pacientes) y también el soporte vital (que sirve para estabilizar a los pacientes).
Ingeniería nuclear[15]
Producción de petróleo y gas[16]
Recreación
Transporte
Ferrocarril[17]
- Sistemas de señalización y control ferroviario
- Detección de andenes para el control de puertas de trenes [18]
- Parada automática de trenes [18]
Automotor[19]
Aviación[20]
Vuelo espacial[21]
Véase también
Referencias
- ^ JC Knight (2002). "Sistemas críticos de seguridad: desafíos y direcciones". IEEE. págs. 547–550.
- ^ "Sistema crítico para la seguridad". encyclopedia.com . Consultado el 15 de abril de 2017 .
- ^ Sommerville, Ian (2015). Ingeniería de software (PDF) . Pearson India. ISBN 978-9332582699Archivado desde el original (PDF) el 17 de abril de 2018. Consultado el 18 de abril de 2018 .
- ^ Sommerville, Ian (24 de julio de 2014). «Sistemas críticos». Sitio web del libro de Sommerville . Archivado desde el original el 16 de septiembre de 2019. Consultado el 18 de abril de 2018 .
- ^ "Preguntas frecuentes – Edición 2.0: E) Conceptos clave". IEC 61508 – Seguridad funcional . Comisión Electrotécnica Internacional . Archivado desde el original el 25 de octubre de 2020. Consultado el 23 de octubre de 2016 .
- ^ "Parte 1: Guía clave" (PDF) . Gestión de la competencia para sistemas relacionados con la seguridad . Reino Unido: Health and Safety Executive . 2007 . Consultado el 23 de octubre de 2016 .
- ^ FAA AC 25.1309-1 A – Diseño y análisis de sistemas
- ^ Bowen, Jonathan P. (abril de 2000). "La ética de los sistemas críticos para la seguridad". Comunicaciones de la ACM . 43 (4): 91–97. doi : 10.1145/332051.332078 . S2CID 15979368.
- ^ CCPS en asociación con Energy Institute (2018). Bow Ties in Risk Management: A Concept Book for Process Safety . Nueva York, NY y Hoboken, NJ: AIChE y John Wiley & Sons . ISBN 9781119490395.
- ^ Thompson, Nicholas (21 de septiembre de 2009). "Dentro de la apocalíptica máquina soviética del fin del mundo". WIRED .
- ^ "Definición de fail-soft".
- ^ Bowen, Jonathan P.; Stavridou, Victoria (julio de 1993). "Sistemas críticos para la seguridad, métodos formales y estándares". Revista de ingeniería de software . 8 (4). IEE/BCS: 189–209. doi :10.1049/sej.1993.0025. S2CID 9756364.
- ^ "Diseño de sistemas de seguridad de dispositivos médicos: un enfoque sistemático". mddionline.com . 24 de enero de 2012.
- ^ Anderson, RJ; Smith, MF, eds. (septiembre-diciembre de 1998). "Número especial: Confidencialidad, privacidad y seguridad de los sistemas de atención sanitaria". Health Informatics Journal . 4 (3–4).
- ^ "Seguridad de los reactores nucleares". world-nuclear.org . Archivado desde el original el 18 de enero de 2016 . Consultado el 18 de diciembre de 2013 .
- ^ Cambio radical en la seguridad (2018). Documento de orientación para profesionales de verificación y aseguramiento . Aberdeen: Cambio radical en la seguridad.
- ^ "Sistemas críticos para la seguridad en el transporte ferroviario" (PDF) . Rtos.com . Archivado desde el original (PDF) el 2013-12-19 . Consultado el 2016-10-23 .
- ^ desde la máquina Wayback
- ^ "Sistemas automotrices críticos para la seguridad". sae.org .
- ^ Leanna Rierson (7 de enero de 2013). Desarrollo de software crítico para la seguridad: una guía práctica para el software de aviación y el cumplimiento de la norma DO-178C . CRC Press. ISBN 978-1-4398-1368-3.
- ^ "Requisitos y pautas para la calificación de sistemas de vuelo espacial para humanos" (PDF) . Procedimientos y pautas de la NASA . 19 de junio de 2003. NPG: 8705.2. Archivado desde el original (PDF) el 2021-03-17 . Consultado el 2016-10-23 .
Enlaces externos
- Un ejemplo de un sistema vital
- Biblioteca Virtual de sistemas críticos para la seguridad
- Explicación de Fail Operational y Fail Passive en Aviónica
- Sistema de Normas Técnicas de la NASA Garantía de Software y Estándar de Seguridad de Software
Archivado el 15 de julio de 2020 en Wayback Machine.