Falla con un resultado catastrófico o sin previo aviso
Fallar mal y fallar bien son conceptos de seguridad de sistemas y seguridad de redes (y de ingeniería en general) que describen cómo reacciona un sistema ante un fallo . Los términos han sido popularizados por Bruce Schneier , un criptógrafo y consultor de seguridad. [1] [2]
Fallando gravemente
Un sistema que falla gravemente es aquel que tiene un resultado catastrófico cuando se produce un fallo. Por lo tanto, un único punto de fallo puede hacer caer todo el sistema. Algunos ejemplos son:
- Bases de datos (como las de tarjetas de crédito ) protegidas únicamente por una contraseña . Una vez que se viola esta seguridad, se puede acceder a todos los datos.
- Fractura de estructuras críticas , como edificios o puentes, que dependen de una sola columna o armadura, cuya eliminación causaría un colapso en reacción en cadena bajo cargas normales.
- Controles de seguridad que se centran en establecer la identidad, no la intención (permitiendo así, por ejemplo, que los atacantes suicidas pasen).
- El acceso a Internet lo proporciona un único proveedor de servicios . Si la red del proveedor falla, se pierde toda la conectividad a Internet.
- Sistemas, incluidos los sociales, que dependen de una sola persona que, si está ausente o no está disponible permanentemente, detiene todo el sistema.
- Los materiales frágiles , como el " hormigón reforzado ", cuando se sobrecargan, fallan repentina y catastróficamente sin previo aviso.
- Mantener una única copia de los datos en un lugar central. Esos datos se pierden para siempre cuando ese lugar sufre daños, como en el incendio de la Oficina de Patentes de Estados Unidos en 1836 , el incendio del Centro Nacional de Registros de Personal de Estados Unidos en 1973 y la destrucción de la Biblioteca de Alejandría .
Fallando bien
Un sistema que falla bien es aquel que compartimenta o contiene sus fallas. Algunos ejemplos son:
- Cascos compartimentados en embarcaciones, que garantizan que una ruptura del casco en un compartimento no inunde todo el buque.
- Bases de datos que no permiten la descarga de todos los datos en un solo intento, lo que limita la cantidad de datos comprometidos.
- Edificios estructuralmente redundantes concebidos para resistir cargas superiores a las esperadas en circunstancias normales, o resistir cargas cuando la estructura está dañada.
- Sistemas informáticos que se reinician o pasan a un estado detenido cuando se produce una operación no válida. [3]
- Sistemas de control de acceso que se bloquean cuando se corta la energía a la unidad. [3]
- Estructuras de hormigón que muestran fracturas mucho antes de romperse bajo carga, dando así una advertencia temprana.
- Puertas blindadas en las cabinas de los aviones, que confinan a un potencial secuestrador dentro de la cabina incluso si logra eludir los controles de seguridad del aeropuerto. [1]
- Conectividad a Internet proporcionada por más de un proveedor o ruta discreta, conocida como multihoming .
- Redes en estrella o en malla , que pueden seguir funcionando cuando falla un nodo o una conexión (aunque en el caso de una red en estrella, una falla del concentrador central seguirá provocando que la red falle).
- Los materiales dúctiles , como el " hormigón poco reforzado ", cuando se sobrecargan, fallan gradualmente: ceden y se estiran, dando una cierta advertencia antes de la falla definitiva.
- Realizar una copia de seguridad de todos los datos importantes y almacenarlos en un lugar separado. Esos datos se pueden recuperar desde otra ubicación si alguna de ellas se daña.
También se ha afirmado que diseñar un sistema para que "falle bien" es un mejor uso de los limitados fondos de seguridad que la típica búsqueda de eliminar todas las fuentes potenciales de errores y fallos. [4]
Véase también
Referencias
- ^ ab Homeland Insecurity Archivado el 28 de septiembre de 2011 en Wayback Machine , Atlantic Monthly , septiembre de 2002
- ^ David Hillson (29 de marzo de 2011). The Failure Files: Perspectives on Failure [Los expedientes del fracaso: perspectivas sobre el fracaso]. Triarchy Press. pág. 146. ISBN 9781908009302.
- ^ de Eric Vanderburg (18 de febrero de 2013). «Fail Secure: la forma correcta de fallar». PC Security World . Archivado desde el original el 27 de octubre de 2014. Consultado el 11 de noviembre de 2014 .
- ^ Fallos en la seguridad de la información Archivado el 14 de octubre de 2008 en Wayback Machine - Young, William; Apogee Ltd Consulting, 2003