Sistema cuyo fallo sería grave
Un sistema crítico para la seguridad [2] o un sistema crítico para la vida es un sistema cuya falla o mal funcionamiento puede resultar en uno (o más) de los siguientes resultados: [3] [4]
- muerte o lesiones graves a personas
- Pérdida o daño severo al equipo/propiedad.
- daño ambiental
Un sistema relacionado con la seguridad (o, a veces, un sistema relacionado con la seguridad ) comprende todo (hardware, software y aspectos humanos) necesario para realizar una o más funciones de seguridad, en las que una falla causaría un aumento significativo en el riesgo de seguridad para las personas o el medio ambiente. involucrado. [5] Los sistemas relacionados con la seguridad son aquellos que no tienen la responsabilidad total de controlar peligros como la pérdida de vidas, lesiones graves o daños ambientales graves . El mal funcionamiento de un sistema relacionado con la seguridad sólo sería peligroso en combinación con el fallo de otros sistemas o un error humano . Algunas organizaciones de seguridad brindan orientación sobre sistemas relacionados con la seguridad, por ejemplo, el Ejecutivo de Salud y Seguridad del Reino Unido . [6]
Los riesgos de este tipo normalmente se gestionan con los métodos y herramientas de la ingeniería de seguridad . Un sistema crítico para la seguridad está diseñado para perder menos de una vida por cada mil millones (10 9 ) de horas de funcionamiento. [7] [8] Los métodos de diseño típicos incluyen la evaluación probabilística de riesgos , un método que combina el análisis de modos y efectos de falla (FMEA) con el análisis de árbol de fallas . Los sistemas críticos para la seguridad están cada vez más basados en ordenadores .
Los sistemas críticos para la seguridad son un concepto que se utiliza a menudo junto con el modelo del queso suizo para representar (generalmente en un diagrama de pajarita ) cómo una amenaza puede escalar a un accidente importante debido a la falla de múltiples barreras críticas. Este uso se ha vuelto común especialmente en el ámbito de la seguridad de procesos , en particular cuando se aplica a la perforación y producción de petróleo y gas, tanto con fines ilustrativos como para respaldar otros procesos, como la gestión de la integridad de los activos y la investigación de incidentes . [9]
Regímenes de confiabilidad
Existen varios regímenes de confiabilidad para sistemas críticos para la seguridad:
- Los sistemas operativos fallidos continúan funcionando cuando fallan sus sistemas de control . Ejemplos de estos incluyen los ascensores , los termostatos de gas en la mayoría de las calderas domésticas y los reactores nucleares pasivamente seguros . El modo operativo fallido a veces no es seguro. El lanzamiento de armas nucleares en caso de pérdida de comunicaciones fue rechazado como sistema de control para las fuerzas nucleares estadounidenses porque no funciona correctamente: una pérdida de comunicaciones provocaría el lanzamiento, por lo que este modo de operación se consideró demasiado arriesgado. Esto contrasta con el comportamiento letal del sistema perimetral construido durante la era soviética. [10]
- Los sistemas a prueba de fallos pueden continuar funcionando de forma provisional con una eficiencia reducida en caso de fallo. [11] La mayoría de los neumáticos de repuesto son un ejemplo de esto: normalmente vienen con ciertas restricciones (por ejemplo, una restricción de velocidad) y conducen a una menor economía de combustible. Otro ejemplo es el "Modo seguro" que se encuentra en la mayoría de los sistemas operativos Windows.
- Los sistemas a prueba de fallos se vuelven seguros cuando no pueden funcionar. Muchos sistemas médicos entran en esta categoría. Por ejemplo, una bomba de infusión puede fallar, y siempre que alerte a la enfermera y deje de bombear, no amenazará con la muerte porque su intervalo de seguridad es lo suficientemente largo como para permitir una respuesta humana. De manera similar, un controlador de quemador industrial o doméstico puede fallar, pero debe fallar en modo seguro (es decir, apagar la combustión cuando detecta fallas). Es famoso que los sistemas de armas nucleares que se lanzan cuando se les ordena son a prueba de fallos, porque si los sistemas de comunicaciones fallan, no se puede ordenar el lanzamiento. La señalización ferroviaria está diseñada para ser a prueba de fallos.
- Los sistemas a prueba de fallos mantienen la máxima seguridad cuando no pueden funcionar. Por ejemplo, mientras que las puertas electrónicas a prueba de fallas se desbloquean durante un corte de energía, las puertas a prueba de fallas se bloquean, manteniendo un área segura.
- Los sistemas pasivos ante fallos continúan funcionando en caso de fallo del sistema. Un ejemplo incluye el piloto automático de un avión . En caso de fallo, la aeronave permanecería en un estado controlable y permitiría al piloto hacerse cargo, completar el viaje y realizar un aterrizaje seguro.
- Los sistemas tolerantes a fallas evitan fallas en el servicio cuando se introducen fallas en el sistema. Un ejemplo puede incluir sistemas de control para reactores nucleares ordinarios . El método normal para tolerar fallas es hacer que varias computadoras prueben continuamente las partes de un sistema y enciendan repuestos dinámicos para los subsistemas que fallan. Siempre que los subsistemas defectuosos se reemplacen o reparen en intervalos de mantenimiento normales, estos sistemas se consideran seguros. Las computadoras, las fuentes de alimentación y los terminales de control utilizados por los seres humanos deben estar duplicados de alguna manera en estos sistemas.
Ingeniería de software para sistemas críticos para la seguridad.
La ingeniería de software para sistemas críticos para la seguridad es particularmente difícil. Hay tres aspectos que se pueden aplicar para ayudar al software de ingeniería para sistemas críticos para la vida. El primero es la ingeniería y gestión de procesos. En segundo lugar, seleccionar las herramientas y el entorno adecuados para el sistema. Esto permite al desarrollador del sistema probar eficazmente el sistema mediante emulación y observar su eficacia. En tercer lugar, abordar cualquier requisito legal y reglamentario, como los requisitos de la Administración Federal de Aviación para la aviación. Al establecer un estándar según el cual se requiere desarrollar un sistema, se obliga a los diseñadores a cumplir con los requisitos. La industria de la aviónica ha logrado producir métodos estándar para producir software de aviónica crítico para la vida . Existen estándares similares para la industria en general ( IEC 61508 ) y la industria automotriz ( ISO 26262 ), médica ( IEC 62304 ) y nuclear ( IEC 61513 ) específicamente. El enfoque estándar es codificar, inspeccionar, documentar, probar, verificar y analizar cuidadosamente el sistema. Otro enfoque consiste en certificar un sistema de producción, un compilador y luego generar el código del sistema a partir de las especificaciones. Otro enfoque utiliza métodos formales para generar pruebas de que el código cumple con los requisitos. [12] Todos estos enfoques mejoran la calidad del software en sistemas críticos para la seguridad al probar o eliminar pasos manuales en el proceso de desarrollo, porque las personas cometen errores, y estos errores son la causa más común de errores potenciales que ponen en peligro la vida.
Ejemplos de sistemas críticos para la seguridad
Infraestructura
Medicina [13]
Los requisitos tecnológicos pueden ir más allá de evitar fallos e incluso pueden facilitar cuidados médicos intensivos (que se ocupan de curar a los pacientes) y también soporte vital (que sirve para estabilizar a los pacientes).
Ingeniería nuclear [15]
Producción de petróleo y gas [16]
Recreación
Transporte
Ferrocarril [17]
- Sistemas de control y señalización ferroviaria.
- Detección de andén para controlar puertas de trenes [18]
- Parada automática de tren [18]
Automotriz [19]
Aviación [20]
Vuelos espaciales [21]
Ver también
Referencias
- ^ Caballero JC (2002). "Sistemas críticos para la seguridad: desafíos y direcciones". IEEE. págs. 547–550.
- ^ "Sistema crítico para la seguridad". enciclopedia.com . Consultado el 15 de abril de 2017 .
- ^ Sommerville, Ian (2015). Ingeniería de software (PDF) . PearsonIndia. ISBN 978-9332582699. Archivado desde el original (PDF) el 17 de abril de 2018 . Consultado el 18 de abril de 2018 .
- ^ Sommerville, Ian (24 de julio de 2014). "Sistemas críticos". un sitio web de libros de Sommerville . Archivado desde el original el 16 de septiembre de 2019 . Consultado el 18 de abril de 2018 .
- ^ "Preguntas frecuentes - Edición 2.0: E) Conceptos clave". IEC 61508 – Seguridad funcional . Comisión Electrotécnica Internacional . Archivado desde el original el 25 de octubre de 2020 . Consultado el 23 de octubre de 2016 .
- ^ "Parte 1: Orientación clave" (PDF) . Gestión de competencias para sistemas relacionados con la seguridad . Reino Unido: Ejecutivo de Salud y Seguridad . 2007 . Consultado el 23 de octubre de 2016 .
- ^ FAA AC 25.1309-1 A - Diseño y análisis del sistema
- ^ Bowen, Jonathan P. (abril de 2000). "La ética de los sistemas críticos para la seguridad". Comunicaciones de la ACM . 43 (4): 91–97. doi : 10.1145/332051.332078 . S2CID 15979368.
- ^ CCPS en asociación con Energy Institute (2018). Pajaritas en la gestión de riesgos: un libro conceptual para la seguridad de procesos . Nueva York, NY y Hoboken, Nueva Jersey: AIChE y John Wiley & Sons . ISBN 9781119490395.
- ^ Thompson, Nicolás (21 de septiembre de 2009). "Dentro de la apocalíptica máquina soviética del fin del mundo". CABLEADO .
- ^ "Definición de falla suave".
- ^ Bowen, Jonathan P.; Stavridou, Victoria (julio de 1993). "Sistemas críticos para la seguridad, métodos y normas formales". Revista de ingeniería de software . 8 (4). EEI/BCS: 189–209. doi :10.1049/sej.1993.0025. S2CID 9756364.
- ^ "Diseño de sistemas de seguridad de dispositivos médicos: un enfoque sistemático". mddionline.com . 2012-01-24.
- ^ Anderson, RJ; Smith, MF, eds. (Septiembre-diciembre de 1998). "Número especial: Confidencialidad, privacidad y seguridad de los sistemas sanitarios". Revista de Informática en Salud . 4 (3–4).
- ^ "Seguridad de los reactores nucleares". world-nuclear.org . Archivado desde el original el 18 de enero de 2016 . Consultado el 18 de diciembre de 2013 .
- ^ Cambio radical en seguridad (2018). Documento de orientación para profesionales de aseguramiento y verificación . Aberdeen: un cambio radical en materia de seguridad.
- ^ "Sistemas críticos para la seguridad en el transporte ferroviario" (PDF) . Rtos.com . Archivado desde el original (PDF) el 19 de diciembre de 2013 . Consultado el 23 de octubre de 2016 .
- ^ ab Wayback Machine
- ^ "Sistemas automotrices críticos para la seguridad". sae.org .
- ^ Leanna Rierson (7 de enero de 2013). Desarrollo de software crítico para la seguridad: una guía práctica para software de aviación y cumplimiento de DO-178C . Prensa CRC. ISBN 978-1-4398-1368-3.
- ^ "Requisitos y directrices de calificación humana para sistemas de vuelos espaciales" (PDF) . Procedimientos y directrices de la NASA . 19 de junio de 2003. NPG: 8705.2. Archivado desde el original (PDF) el 17 de marzo de 2021 . Consultado el 23 de octubre de 2016 .
enlaces externos
- Un ejemplo de un sistema vital
- Biblioteca virtual de sistemas críticos para la seguridad
- Explicación de falla operativa y falla pasiva en aviónica Archivado el 15 de julio de 2020 en Wayback Machine.