stringtranslate.com

Causa común y causa especial (estadísticas)

Las causas comunes y especiales son los dos orígenes distintos de la variación en un proceso, tal como se definen en el pensamiento y los métodos estadísticos de Walter A. Shewhart y W. Edwards Deming . En pocas palabras, las "causas comunes", también llamadas patrones naturales , son la variación habitual, histórica y cuantificable en un sistema, mientras que las "causas especiales" son variaciones inusuales, no observadas previamente y no cuantificables.

La distinción es fundamental en la filosofía de la estadística y la filosofía de la probabilidad , y el tratamiento diferente de estas cuestiones es un tema clásico en las interpretaciones de la probabilidad , reconocido y discutido ya en 1703 por Gottfried Leibniz ; a lo largo de los años se han utilizado varios nombres alternativos. La distinción ha sido particularmente importante en el pensamiento de los economistas Frank Knight , John Maynard Keynes y GLS Shackle .

Orígenes y conceptos

En 1703, Jacob Bernoulli le escribió a Gottfried Leibniz para hablar sobre su interés compartido en aplicar las matemáticas y la probabilidad a los juegos de azar. Bernoulli especuló sobre si sería posible recopilar datos de mortalidad de las lápidas y, de ese modo, calcular, con la práctica existente, la probabilidad de que un hombre de 20 años de edad sobreviva a un hombre de 60 años. Leibniz respondió que dudaba de que esto fuera posible:

La naturaleza ha establecido pautas que se originan en el retorno de los acontecimientos, pero sólo en su mayor parte. Nuevas enfermedades inundan la raza humana, de modo que por muchos experimentos que se hayan hecho con cadáveres, no se ha impuesto con ello un límite a la naturaleza de los acontecimientos para que en el futuro no puedan variar.

Esto refleja la idea central de que es posible predecir alguna variación, al menos aproximadamente en su frecuencia. Esta variación por causas comunes es evidente a partir de la base de la experiencia. Sin embargo, fenómenos nuevos, imprevistos, emergentes o previamente desatendidos (por ejemplo, "nuevas enfermedades") dan lugar a variaciones que van más allá de la base de la experiencia histórica. Shewhart y Deming argumentaron que esta variación por causas especiales es fundamentalmente impredecible en cuanto a la frecuencia de ocurrencia o la gravedad.

John Maynard Keynes enfatizó la importancia de la variación por causas especiales cuando escribió:

Por conocimiento "incierto" ... no me refiero simplemente a distinguir lo que se sabe con certeza de lo que es sólo probable. El juego de la ruleta no está sujeto, en este sentido, a la incertidumbre... El sentido en que estoy utilizando el término es el de la incertidumbre ante la perspectiva de una guerra europea, o el precio del cobre y la tasa de interés dentro de veinte años, o la obsolescencia de un nuevo invento... Sobre estas cuestiones no hay base científica sobre la cual formar ninguna probabilidad calculable. ¡Simplemente no sabemos!

Definiciones

Variaciones de causa común

La variación por causa común se caracteriza por:

Los resultados de una ruleta perfectamente equilibrada son un buen ejemplo de variación por causa común. La variación por causa común es el ruido dentro del sistema.

Walter A. Shewhart utilizó originalmente el término causa aleatoria . [1] El término causa común fue acuñado por Harry Alpert en 1947. La Western Electric Company utilizó el término patrón natural . [2] Shewhart denominó un proceso que presenta solo variación por causa común como bajo control estadístico . Este término está en desuso por algunos estadísticos modernos que prefieren la frase estable y predecible .

Variación por causa especial

La variación por causa especial se caracteriza por:

La variación por causas especiales siempre llega como una sorpresa. Es la señal dentro de un sistema.

Walter A. Shewhart utilizó originalmente el término causa asignable . [3] El término causa especial fue acuñado por W. Edwards Deming . La Western Electric Company utilizó el término patrón no natural . [2]

Ejemplos

Causas comunes

Causas especiales

Importancia para la economía

En economía, este círculo de ideas se analiza bajo el título de “ incertidumbre knightiana ”. John Maynard Keynes y Frank Knight analizaron la imprevisibilidad inherente de los sistemas económicos en sus trabajos y la utilizaron para criticar el enfoque matemático de la economía, en términos de utilidad esperada , desarrollado por Ludwig von Mises y otros. Keynes, en particular, argumentó que los sistemas económicos no tienden automáticamente al equilibrio del pleno empleo debido a la incapacidad de sus agentes para predecir el futuro. Como señaló en La teoría general del empleo, el interés y el dinero :

...como seres vivos y en movimiento, nos vemos obligados a actuar... [incluso cuando] nuestro conocimiento existente no proporciona una base suficiente para una expectativa matemática calculada.

El pensamiento de Keynes estaba en desacuerdo con el liberalismo clásico de la Escuela Austriaca de economistas, pero GLS Shackle reconoció la importancia de la idea de Keynes y trató de formalizarla dentro de una filosofía de libre mercado .

En economía financiera , la teoría del cisne negro se basa en la importancia y la imprevisibilidad de las causas especiales.

Importancia para la gestión industrial y de calidad

Una falla de causa especial es una falla que se puede corregir cambiando un componente o proceso, mientras que una falla de causa común es equivalente a ruido en el sistema y no se pueden realizar acciones específicas para prevenir la falla.

Harry Alpert observó:

En una prisión se produce un motín. Los funcionarios y los sociólogos elaboran un informe detallado sobre la prisión, con una explicación completa de por qué y cómo se produjo el motín, ignorando el hecho de que las causas eran comunes a la mayoría de las prisiones y que el motín podría haber ocurrido en cualquier lugar.

Alpert reconoce que existe la tentación de reaccionar ante un resultado extremo y considerarlo significativo, aun cuando sus causas sean comunes a muchas situaciones y las circunstancias particulares que rodean su ocurrencia sean el resultado de la mera casualidad. Este comportamiento tiene muchas implicaciones en la gestión y a menudo conduce a intervenciones ad hoc que simplemente aumentan el nivel de variación y la frecuencia de los resultados indeseables.

Tanto Deming como Shewhart defendieron el diagrama de control como un medio para gestionar un proceso de negocio de una manera económicamente eficiente.

Importancia para la estadística

Deming y Shewhart

Dentro del marco de probabilidad de frecuencia , no hay ningún proceso mediante el cual se pueda atribuir una probabilidad a la ocurrencia futura de una causa especial. [ cita requerida ] Uno podría preguntar ingenuamente si el enfoque bayesiano permite especificar dicha probabilidad. La existencia de variación por causa especial llevó a Keynes y Deming a interesarse por la probabilidad bayesiana , pero de su trabajo no surgió ninguna síntesis formal. La mayoría de los estadísticos de la escuela Shewhart-Deming opinan que las causas especiales no están incorporadas ni en la experiencia ni en el pensamiento actual (por eso resultan sorprendentes; se ha descuidado su probabilidad previa; en efecto, se le ha asignado el valor cero), de modo que cualquier probabilidad subjetiva está condenada a estar irremediablemente mal calibrada en la práctica.

De la cita de Leibniz que aparece más arriba se desprende de inmediato que existen implicaciones para el muestreo . Deming observó que en cualquier actividad de previsión, la población es la de los acontecimientos futuros, mientras que el marco de muestreo es, inevitablemente, algún subconjunto de los acontecimientos históricos. Deming sostuvo que la naturaleza disjunta de la población y el marco de muestreo era inherentemente problemática una vez que se admitía la existencia de variación por causas especiales, y rechazó el uso generalizado de la probabilidad y las estadísticas convencionales en tales situaciones. Articuló la dificultad como la distinción entre estudios estadísticos analíticos y enumerativos .

Shewhart sostuvo que, como los procesos sujetos a variaciones por causas especiales eran inherentemente impredecibles, las técnicas habituales de probabilidad no podían utilizarse para separar las variaciones por causas especiales de las variaciones por causas comunes. Desarrolló el gráfico de control como una heurística estadística para distinguir los dos tipos de variación. Tanto Deming como Shewhart defendieron el gráfico de control como un medio para evaluar el estado de control estadístico de un proceso y como base para la previsión.

Keynes

Keynes identificó tres dominios de probabilidad: [5]

y trató de basar en ello una teoría de probabilidad .

Falla de modo común en ingeniería

El fallo de modo común tiene un significado más específico en ingeniería. Se refiere a eventos que no son estadísticamente independientes . Los fallos en varias partes de un sistema pueden ser causados ​​por una sola falla, en particular fallos aleatorios debido a las condiciones ambientales o al envejecimiento. Un ejemplo es cuando todas las bombas de un sistema de rociadores contra incendios están ubicadas en una habitación. Si la habitación se calienta demasiado para que funcionen las bombas, todas fallarán esencialmente al mismo tiempo, por una causa (el calor en la habitación). [6] Otro ejemplo es un sistema electrónico en el que un fallo en una fuente de alimentación inyecta ruido en una línea de suministro, lo que provoca fallas en múltiples subsistemas.

Esto es particularmente importante en sistemas críticos para la seguridad que utilizan múltiples canales redundantes . Si la probabilidad de falla en un subsistema es p , entonces se esperaría que un sistema de N canales tuviera una probabilidad de falla de p N. Sin embargo, en la práctica, la probabilidad de falla es mucho mayor porque no son estadísticamente independientes; por ejemplo, la radiación ionizante o la interferencia electromagnética (EMI) pueden afectar a todos los canales. [7]

El principio de redundancia establece que, cuando los eventos de fallo de un componente son estadísticamente independientes, las probabilidades de que ocurran conjuntamente se multiplican. [8] Así, por ejemplo, si la probabilidad de fallo de un componente de un sistema es de una entre mil al año, la probabilidad de fallo conjunto de dos de ellos es de una entre un millón al año, siempre que los dos eventos sean estadísticamente independientes. Este principio favorece la estrategia de redundancia de componentes. Un lugar donde se implementa esta estrategia es en RAID 1 , donde dos discos duros almacenan los datos de un ordenador de forma redundante.

Pero aun así, un sistema puede tener muchos modos de falla comunes. Por ejemplo, considere los modos de falla comunes de un RAID1 donde se compran dos discos en una tienda en línea y se instalan en una computadora:

Además, si los eventos de falla de dos componentes son estadísticamente dependientes al máximo, la probabilidad de falla conjunta de ambos es idéntica a la probabilidad de falla de ellos individualmente. En tal caso, se anulan las ventajas de la redundancia. Las estrategias para evitar fallas de modo común incluyen mantener los componentes redundantes aislados físicamente.

Un ejemplo claro de redundancia con aislamiento es una planta de energía nuclear . [9] [10] El nuevo ABWR tiene tres divisiones de Sistemas de Enfriamiento de Núcleo de Emergencia , cada una con sus propios generadores y bombas y cada una aislada de las demás. El nuevo Reactor Presurizado Europeo tiene dos edificios de contención , uno dentro del otro. Sin embargo, incluso aquí es posible que ocurra un fallo de modo común (por ejemplo, en la Planta de Energía Nuclear Fukushima Daiichi , la energía de la red fue cortada por el terremoto de Tōhoku , luego los trece generadores diésel de respaldo fueron desactivados simultáneamente por el tsunami posterior que inundó los sótanos de las salas de turbinas).

Véase también

Bibliografía

Referencias

  1. ^ Shewhart, Walter A. (1931). Control económico de la calidad de productos manufacturados . Nueva York: D. Van Nostrand Company, Inc. p. 7. OCLC  1045408.
  2. ^ ab Western Electric Company (1956). Introducción al manual de control estadístico de calidad (1.ª edición). Indianápolis , Indiana: Western Electric Co. págs. 23-24. OCLC  33858387.
  3. ^ Shewhart, Walter A. (1931). Control económico de la calidad de productos manufacturados . Nueva York: D. Van Nostrand Company, Inc. p. 14. OCLC  1045408.
  4. ^ "Inferencia estadística". Archivado desde el original el 7 de octubre de 2006 . Consultado el 13 de noviembre de 2006 .
  5. ^ ab Keynes, JM (1921). Tratado sobre probabilidad . ISBN 0-333-10733-0.
  6. ^ Thomson, Jim (febrero de 2012). "Consideraciones sobre fallas en modo común en sistemas C&I de alta integridad" (PDF) . Seguridad en ingeniería . Consultado el 21 de noviembre de 2012 .
  7. ^ Randell, Brian Tolerancia a fallos de diseño en La evolución de la computación tolerante a fallos , Avizienis, A.; Kopetz, H.; Laprie, J.-C. (eds.), págs. 251–270. Springer-Verlag, 1987. ISBN 3-211-81941-X
  8. ^ "SEI Framework: Fault Tolerance Mechanisms". Gestión de redundancia . NIST High Integrity Software Systems Assurance. 30 de marzo de 1995. Archivado desde el original el 24 de noviembre de 2012. Consultado el 21 de noviembre de 2012 .
  9. ^ Edwards, GT; Watson, IA (julio de 1979). Un estudio de fallas en modo común . Autoridad de Energía Atómica del Reino Unido: Dirección de Seguridad y Confiabilidad. SRD R146.
  10. ^ Bourne, AJ; Edwards, GT; Hunns, DM; Poulter, DR; Watson, IA (enero de 1981). Defensas contra fallos de modo común en sistemas de redundancia: una guía para la dirección, los diseñadores y los operadores . Autoridad de Energía Atómica del Reino Unido: Dirección de Seguridad y Fiabilidad. SRD R196.