stringtranslate.com

Causa común y causa especial (estadísticas)

Las causas comunes y especiales son los dos orígenes distintos de la variación en un proceso, tal como se definen en el pensamiento y los métodos estadísticos de Walter A. Shewhart y W. Edwards Deming . Brevemente, las "causas comunes", también llamadas patrones naturales , son la variación habitual, histórica y cuantificable de un sistema, mientras que las "causas especiales" son variaciones inusuales, no observadas previamente y no cuantificables.

La distinción es fundamental en filosofía de la estadística y filosofía de la probabilidad , siendo el tratamiento diferente de estas cuestiones una cuestión clásica de las interpretaciones de probabilidad , reconocida y discutida ya en 1703 por Gottfried Leibniz ; Se han utilizado varios nombres alternativos a lo largo de los años. La distinción ha sido particularmente importante en el pensamiento de los economistas Frank Knight , John Maynard Keynes y GLS Shackle .

Orígenes y conceptos

En 1703, Jacob Bernoulli escribió a Gottfried Leibniz para discutir su interés compartido en aplicar las matemáticas y la probabilidad a los juegos de azar. Bernoulli especuló si sería posible recopilar datos de mortalidad de las lápidas y calcular así, según la práctica actual, la probabilidad de que un hombre que actualmente tiene 20 años sobreviva a un hombre de 60 años. Leibniz respondió que dudaba que esto fuera posible:

La naturaleza ha establecido patrones que se originan en el retorno de los acontecimientos, pero sólo en su mayor parte. Nuevas enfermedades inundan la raza humana, de modo que por muchos experimentos que habéis hecho con cadáveres, no habéis impuesto un límite a la naturaleza de los acontecimientos para que en el futuro no puedan variar.

Esto captura la idea central de que alguna variación es predecible, al menos aproximadamente en frecuencia. Esta variación de causa común es evidente a partir de la experiencia. Sin embargo, fenómenos nuevos, imprevistos, emergentes o previamente ignorados (por ejemplo, "nuevas enfermedades") dan lugar a variaciones fuera de la base de la experiencia histórica. Shewhart y Deming argumentaron que dicha variación por causas especiales es fundamentalmente impredecible en cuanto a frecuencia de ocurrencia o gravedad.

John Maynard Keynes enfatizó la importancia de la variación por causas especiales cuando escribió:

Por conocimiento "incierto"... no me refiero simplemente a distinguir lo que se sabe con certeza de lo que sólo es probable. El juego de la ruleta no está sujeto, en este sentido, a la incertidumbre... El sentido en el que estoy usando el término es aquel en el que la perspectiva de una guerra europea es incierta, o el precio del cobre y el tipo de interés veinte años después. dentro de unos años, o la obsolescencia de un nuevo invento... Sobre estas cuestiones no existe ninguna base científica sobre la cual formarse ninguna probabilidad calculable. ¡Simplemente no sabemos!

Definiciones

Variaciones de causa común

La variación de causa común se caracteriza por:

Los resultados de una ruleta perfectamente equilibrada son un buen ejemplo de variación por causa común. La variación de causa común es el ruido dentro del sistema.

Walter A. Shewhart utilizó originalmente el término causa casual . [1] El término causa común fue acuñado por Harry Alpert en 1947. La Western Electric Company utilizó el término patrón natural . [2] Shewhart llamó a un proceso que presenta solo variación de causa común estar bajo control estadístico . Este término está en desuso por algunos estadísticos modernos que prefieren la frase estable y predecible .

Variación por causa especial

La variación por causas especiales se caracteriza por:

La variación por causas especiales siempre llega como una sorpresa. Es la señal dentro de un sistema.

Walter A. Shewhart utilizó originalmente el término causa asignable . [3] El término causa especial fue acuñado por W. Edwards Deming . La Western Electric Company utilizó el término patrón antinatural . [2]

Ejemplos

Causas comunes

Causas especiales

Importancia para la economía

En economía, este círculo de ideas se analiza bajo la rúbrica de " incertidumbre Knightiana ". John Maynard Keynes y Frank Knight analizaron en su trabajo la imprevisibilidad inherente de los sistemas económicos y la utilizaron para criticar el enfoque matemático de la economía, en términos de utilidad esperada , desarrollado por Ludwig von Mises y otros. Keynes, en particular, argumentó que los sistemas económicos no tendían automáticamente al equilibrio del pleno empleo debido a la incapacidad de sus agentes para predecir el futuro. Como señaló en La Teoría General del Empleo, el Interés y el Dinero :

... como seres vivos y en movimiento, nos vemos obligados a actuar... [incluso cuando] nuestro conocimiento existente no proporciona una base suficiente para una expectativa matemática calculada.

El pensamiento de Keynes estaba en desacuerdo con el liberalismo clásico de la Escuela Austriaca de economistas, pero GLS Shackle reconoció la importancia de la idea de Keynes y trató de formalizarla dentro de una filosofía de libre mercado .

En economía financiera , la teoría del cisne negro se basa en la importancia y la imprevisibilidad de causas especiales.

Importancia para la gestión industrial y de calidad.

Una falla de causa especial es una falla que se puede corregir cambiando un componente o proceso, mientras que una falla de causa común es equivalente a ruido en el sistema y no se pueden tomar acciones específicas para prevenir la falla.

Harry Alpert observó:

Se produce un motín en cierta prisión. Funcionarios y sociólogos elaboran un informe detallado sobre la prisión, con una explicación completa de por qué y cómo sucedió aquí, ignorando el hecho de que las causas eran comunes a la mayoría de las cárceles y que los disturbios podrían haber ocurrido en cualquier lugar.

Alpert reconoce que existe la tentación de reaccionar ante un resultado extremo y verlo como significativo, incluso cuando sus causas son comunes a muchas situaciones y las circunstancias distintivas que rodean su ocurrencia son el resultado de una mera casualidad. Este comportamiento tiene muchas implicaciones dentro de la gestión, y a menudo conduce a intervenciones ad hoc que simplemente aumentan el nivel de variación y la frecuencia de resultados indeseables.

Tanto Deming como Shewhart defendieron el gráfico de control como un medio para gestionar un proceso de negocio de una manera económicamente eficiente.

Importancia para las estadísticas

Deming y Shewhart

Dentro del marco de probabilidad de frecuencia , no existe ningún proceso mediante el cual se pueda asignar una probabilidad a la ocurrencia futura de una causa especial. [ cita necesaria ] Uno podría preguntarse ingenuamente si el enfoque bayesiano permite especificar tal probabilidad. La existencia de variación por causas especiales llevó a Keynes y Deming a interesarse por la probabilidad bayesiana , pero de su trabajo no surgió ninguna síntesis formal. La mayoría de los estadísticos de la escuela Shewhart-Deming adoptan la opinión de que las causas especiales no están incorporadas ni en la experiencia ni en el pensamiento actual (por eso son una sorpresa; su probabilidad previa ha sido despreciada; de hecho, se les ha asignado el valor cero), de modo que cualquier probabilidad subjetiva está condenada a estar irremediablemente mal calibrada en la práctica.

De la cita anterior de Leibniz se desprende inmediatamente que existen implicaciones para el muestreo . Deming observó que en cualquier actividad de pronóstico, la población es la de eventos futuros, mientras que el marco muestral es, inevitablemente, algún subconjunto de eventos históricos. Deming sostuvo que la naturaleza disjunta de la población y el marco muestral era inherentemente problemática una vez que se admitía la existencia de una variación por causas especiales, rechazando el uso general de la probabilidad y las estadísticas convencionales en tales situaciones. Articuló la dificultad como la distinción entre estudios estadísticos analíticos y enumerativos .

Shewhart argumentó que, como los procesos sujetos a variación por causas especiales eran inherentemente impredecibles, las técnicas habituales de probabilidad no podían usarse para separar la variación por causas especiales de la variación por causas comunes. Desarrolló el gráfico de control como heurística estadística para distinguir los dos tipos de variación. Tanto Deming como Shewhart defendieron el gráfico de control como medio para evaluar el estado de control estadístico de un proceso y como base para la previsión.

Keynes

Keynes identificó tres dominios de probabilidad: [5]

y buscó basar una teoría de probabilidad en ello.

Fallo de modo común en ingeniería.

La falla de modo común tiene un significado más específico en ingeniería. Se refiere a eventos que no son estadísticamente independientes . Las fallas en múltiples partes de un sistema pueden ser causadas por una sola falla, particularmente fallas aleatorias debido a condiciones ambientales o envejecimiento. Un ejemplo es cuando todas las bombas de un sistema de rociadores contra incendios están ubicadas en una habitación. Si la habitación se calienta demasiado para que funcionen las bombas, todas fallarán esencialmente al mismo tiempo, por una causa (el calor de la habitación). [6] Otro ejemplo es un sistema electrónico en el que una falla en una fuente de alimentación inyecta ruido en una línea de suministro, provocando fallas en múltiples subsistemas.

Esto es particularmente importante en sistemas críticos para la seguridad que utilizan múltiples canales redundantes . Si la probabilidad de falla en un subsistema es p , entonces se esperaría que un sistema de N canales tuviera una probabilidad de falla de p N. Sin embargo, en la práctica, la probabilidad de fracaso es mucho mayor porque no son estadísticamente independientes; por ejemplo, la radiación ionizante o la interferencia electromagnética (EMI) pueden afectar a todos los canales. [7]

El principio de redundancia establece que, cuando los eventos de falla de un componente son estadísticamente independientes, las probabilidades de que ocurran conjuntamente se multiplican. [8] Así, por ejemplo, si la probabilidad de fallo de un componente de un sistema es de uno entre mil por año, la probabilidad de fallo conjunto de dos de ellos es de uno entre un millón por año, siempre que los dos eventos son estadísticamente independientes. Este principio favorece la estrategia de la redundancia de componentes. Un lugar donde se implementa esta estrategia es en RAID 1 , donde dos discos duros almacenan los datos de una computadora de forma redundante.

Pero aun así, un sistema puede tener muchos modos comunes de falla. Por ejemplo, considere los modos comunes de falla de un RAID1 donde se compran dos discos en una tienda en línea y se instalan en una computadora:

Además, si los eventos de falla de dos componentes son estadísticamente dependientes al máximo, la probabilidad de falla conjunta de ambos es idéntica a la probabilidad de falla de ellos individualmente. En tal caso, se anulan las ventajas de la redundancia. Las estrategias para evitar fallas de modo común incluyen mantener los componentes redundantes físicamente aislados.

Un excelente ejemplo de redundancia con aislamiento es una central nuclear . [9] [10] El nuevo ABWR tiene tres divisiones de sistemas de enfriamiento de emergencia del núcleo , cada una con sus propios generadores y bombas y cada una aislada de las demás. El nuevo Reactor Presurizado Europeo cuenta con dos edificios de contención , uno dentro del otro. Sin embargo, incluso aquí es posible que se produzca un fallo de modo común (por ejemplo, en la central nuclear de Fukushima Daiichi , la red eléctrica fue cortada por el terremoto de Tōhoku , luego los trece generadores diésel de respaldo quedaron todos simultáneamente desactivados por el posterior tsunami que inundó los sótanos de las salas de turbinas).

Ver también

Bibliografía

Referencias

  1. ^ Shewhart, Walter A. (1931). Control económico de la calidad del producto fabricado . Ciudad de Nueva York: D. Van Nostrand Company, Inc. p. 7. OCLC  1045408.
  2. ^ ab Compañía eléctrica occidental (1956). Manual de introducción al control estadístico de calidad (1 ed.). Indianápolis , Indiana: Western Electric Co. págs. OCLC  33858387.
  3. ^ Shewhart, Walter A. (1931). Control económico de la calidad del producto fabricado . Ciudad de Nueva York: D. Van Nostrand Company, Inc. p. 14. OCLC  1045408.
  4. ^ "Inferencia estadística". Archivado desde el original el 7 de octubre de 2006 . Consultado el 13 de noviembre de 2006 .
  5. ^ ab Keynes, JM (1921). Un tratado sobre probabilidad . ISBN 0-333-10733-0.
  6. ^ Thomson, Jim (febrero de 2012). "Consideraciones sobre fallas de modo común en sistemas C&I de alta integridad" (PDF) . Seguridad en Ingeniería . Consultado el 21 de noviembre de 2012 .
  7. ^ Randell, Brian Diseño de tolerancia a fallos en la evolución de la informática tolerante a fallos , Avizienis, A.; Kopetz, H.; Laprie, J.-C. (eds.), págs. 251–270. Springer-Verlag, 1987. ISBN 3-211-81941-X
  8. ^ "Marco SEI: mecanismos de tolerancia a fallos". Gestión de Redundancias . Garantía de sistemas de software de alta integridad del NIST. 30 de marzo de 1995. Archivado desde el original el 24 de noviembre de 2012 . Consultado el 21 de noviembre de 2012 .
  9. ^ Edwards, GT; Watson, IA (julio de 1979). Un estudio de fallas de modo común . Autoridad de Energía Atómica del Reino Unido: Dirección de Seguridad y Confiabilidad. SRD R146.
  10. ^ Bourne, AJ; Edwards, GT; Hunns, DM; Poulter, DR; Watson, IA (enero de 1981). Defensas contra fallas de modo común en sistemas de redundancia: una guía para administradores, diseñadores y operadores . Autoridad de Energía Atómica del Reino Unido: Dirección de Seguridad y Confiabilidad. SRD R196.