El control estadístico de procesos ( SPC ) o control estadístico de calidad ( SQC ) es la aplicación de métodos estadísticos para monitorear y controlar la calidad de un proceso de producción. Esto ayuda a garantizar que el proceso funcione de manera eficiente, produciendo más productos que cumplan con las especificaciones con menos desechos. El SPC se puede aplicar a cualquier proceso en el que se pueda medir el resultado del "producto conforme" (producto que cumple con las especificaciones). Las herramientas clave utilizadas en SPC incluyen gráficos de ejecución , gráficos de control , un enfoque en la mejora continua y el diseño de experimentos . Un ejemplo de un proceso donde se aplica SPC son las líneas de fabricación.
El SPC debe practicarse en dos fases: la primera fase es el establecimiento inicial del proceso y la segunda fase es el uso de producción regular del proceso. En la segunda fase, se debe tomar una decisión sobre el período a examinar, dependiendo del cambio en las condiciones de 5M&E (Hombre, Máquina, Material, Método, Movimiento, Medio Ambiente) y la tasa de desgaste de las piezas utilizadas en el proceso de fabricación (piezas de la máquina). , plantillas y accesorios).
Una ventaja del SPC sobre otros métodos de control de calidad, como la " inspección ", es que enfatiza la detección temprana y la prevención de problemas, en lugar de la corrección de los problemas después de que hayan ocurrido.
Además de reducir los residuos, el SPC puede conducir a una reducción del tiempo necesario para producir el producto. El SPC hace que sea menos probable que sea necesario reelaborar o desechar el producto terminado.
El control estadístico de procesos fue iniciado por Walter A. Shewhart en los Laboratorios Bell a principios de la década de 1920. Shewhart desarrolló el gráfico de control en 1924 y el concepto de estado de control estadístico. El control estadístico equivale al concepto de intercambiabilidad [1] [2] desarrollado por el lógico William Ernest Johnson también en 1924 en su libro Lógica, Parte III: Los fundamentos lógicos de la ciencia . [3] Junto con un equipo de AT&T que incluía a Harold Dodge y Harry Romig, trabajó para poner la inspección por muestreo también sobre una base estadística racional. Shewhart consultó con el coronel Leslie E. Simon en la aplicación de gráficos de control a la fabricación de municiones en el Arsenal Picatinny del ejército en 1934. Esa aplicación exitosa ayudó a convencer a Army Ordnance de contratar a George Edwards de AT&T para realizar consultas sobre el uso del control de calidad estadístico entre sus divisiones y contratistas al estallar la Segunda Guerra Mundial.
W. Edwards Deming invitó a Shewhart a hablar en la Escuela de Graduados del Departamento de Agricultura de EE. UU. y se desempeñó como editor del libro de Shewhart Método estadístico desde el punto de vista del control de calidad (1939), que fue el resultado de esa conferencia. Deming fue un importante arquitecto de los cursos cortos de control de calidad que capacitaron a la industria estadounidense en las nuevas técnicas durante la Segunda Guerra Mundial. Los graduados de estos cursos en tiempos de guerra formaron una nueva sociedad profesional en 1945, la Sociedad Estadounidense para el Control de Calidad , que eligió a Edwards como su primer presidente. Deming viajó a Japón durante la ocupación aliada y se reunió con la Unión de Científicos e Ingenieros Japoneses (JUSE) en un esfuerzo por introducir métodos SPC en la industria japonesa. [4] [5]
Shewhart leyó las nuevas teorías estadísticas que surgían de Gran Bretaña, especialmente el trabajo de William Sealy Gosset , Karl Pearson y Ronald Fisher . Sin embargo, entendió que los datos de procesos físicos rara vez producían una curva de distribución normal (es decir, una distribución gaussiana o ' curva de campana '). Descubrió que los datos de las mediciones de variación en la fabricación no siempre se comportaban de la misma manera que los datos de las mediciones de fenómenos naturales (por ejemplo, el movimiento browniano de partículas). Shewhart concluyó que si bien cada proceso muestra variación, algunos procesos muestran una variación que es natural al proceso (fuentes " comunes " de variación); Estos procesos los describió como bajo control (estadístico) . Otros procesos muestran además variaciones que no están presentes en todo momento en el sistema causal del proceso ( fuentes de variación " especiales "), que Shewhart describió como fuera de control . [6]
El control estadístico de procesos es apropiado para respaldar cualquier proceso repetitivo y se ha implementado en muchos entornos donde, por ejemplo, se utilizan sistemas de gestión de calidad ISO 9000 , incluyendo auditoría y contabilidad financiera, operaciones de TI, procesos de atención médica y procesos administrativos como acuerdos de préstamos y administración, facturación de clientes, etc. A pesar de las críticas sobre su uso en el diseño y el desarrollo, está bien posicionado para gestionar el gobierno de datos semiautomático de operaciones de procesamiento de datos de gran volumen, por ejemplo en un almacén de datos empresarial o en una gestión de calidad de datos empresariales. sistema. [7]
En el Modelo de Madurez de Capacidad (CMM) de 1988, el Instituto de Ingeniería de Software sugirió que el SPC podría aplicarse a los procesos de ingeniería de software. Las prácticas de Nivel 4 y Nivel 5 de la Integración del Modelo de Madurez de Capacidades ( CMMI ) utilizan este concepto.
La aplicación del SPC a procesos no repetitivos e intensivos en conocimiento, como la investigación y el desarrollo o la ingeniería de sistemas, ha suscitado escepticismo y sigue siendo controvertida. [8] [9] [10]
En No Silver Bullet , Fred Brooks señala que la complejidad, los requisitos de conformidad, la capacidad de cambio y la invisibilidad del software [11] [12] dan como resultado una variación inherente y esencial que no se puede eliminar. Esto implica que SPC es menos eficaz en el desarrollo de software que, por ejemplo, en la fabricación.
En fabricación, la calidad se define como la conformidad con las especificaciones. Sin embargo, nunca hay dos productos o características exactamente iguales, porque cualquier proceso contiene muchas fuentes de variabilidad. En la fabricación en masa, tradicionalmente, la calidad de un artículo terminado se garantiza mediante la inspección del producto posterior a la fabricación. Cada artículo (o una muestra de artículos de un lote de producción) puede ser aceptado o rechazado según qué tan bien cumpla con sus especificaciones de diseño . SPC utiliza herramientas estadísticas para observar el desempeño del proceso de producción con el fin de detectar variaciones significativas antes de que resulten en la producción de un artículo de calidad inferior. Cualquier fuente de variación en cualquier momento de un proceso se clasificará en una de dos clases.
La mayoría de los procesos tienen muchas fuentes de variación; la mayoría de ellos son menores y pueden ignorarse. Si se detectan las fuentes de variación asignables dominantes, potencialmente se pueden identificar y eliminar. Cuando se eliminan, se dice que el proceso es "estable". Cuando un proceso es estable, su variación debe permanecer dentro de un conjunto de límites conocidos. Esto es, al menos, hasta que ocurra otra fuente asignable de variación.
Por ejemplo, se puede diseñar una línea de envasado de cereales para el desayuno para llenar cada caja de cereal con 500 gramos de cereal. Algunas cajas tendrán un poco más de 500 gramos y otras un poco menos. Cuando se miden los pesos de los paquetes, los datos demostrarán una distribución de los pesos netos.
Si el proceso de producción, sus insumos o su entorno (por ejemplo, la máquina en la línea) cambian, la distribución de los datos cambiará. Por ejemplo, a medida que las levas y poleas de la maquinaria se desgastan, la máquina llenadora de cereales puede poner más cantidad de cereal de la especificada en cada caja. Aunque esto podría beneficiar al cliente, desde el punto de vista del fabricante es un desperdicio y aumenta el coste de producción. Si el fabricante encuentra el cambio y su origen de manera oportuna, el cambio puede corregirse (por ejemplo, reemplazar las levas y poleas).
Desde la perspectiva del SPC, si el peso de cada caja de cereal varía aleatoriamente, algunos más y otros menos, siempre dentro de un rango aceptable, entonces el proceso se considera estable. Si las levas y poleas de la maquinaria empiezan a desgastarse, es posible que los pesos de la caja de cereal no sean aleatorios. La funcionalidad degradada de las levas y poleas puede conducir a un patrón lineal no aleatorio de pesos crecientes de las cajas de cereal. A esto lo llamamos variación de causa común. Sin embargo, si todas las cajas de cereal de repente pesaran mucho más que el promedio debido a un mal funcionamiento inesperado de las levas y poleas, esto se consideraría una variación de causa especial.
La aplicación del SPC implica tres fases principales de actividad:
Los datos de las mediciones de variaciones en puntos del mapa de procesos se monitorean mediante gráficos de control . Los gráficos de control intentan diferenciar las fuentes de variación "asignables" ("especiales") de las fuentes "comunes". Las fuentes "comunes", debido a que son una parte esperada del proceso, preocupan mucho menos al fabricante que las fuentes "asignables". El uso de gráficos de control es una actividad continua, continua en el tiempo.
Cuando el proceso no activa ninguna de las "reglas de detección" del gráfico de control, se dice que es "estable". Se puede realizar un análisis de la capacidad del proceso en un proceso estable para predecir la capacidad del proceso para producir un "producto conforme" en el futuro.
Un proceso estable puede demostrarse mediante una firma de proceso que esté libre de variaciones fuera del índice de capacidad. Una firma de proceso son los puntos trazados en comparación con el índice de capacidad.
Cuando el proceso activa cualquiera de las "reglas de detección" del cuadro de control (o, alternativamente, la capacidad del proceso es baja), se pueden realizar otras actividades para identificar la fuente de la variación excesiva. Las herramientas utilizadas en estas actividades adicionales incluyen: diagrama de Ishikawa , experimentos diseñados y diagramas de Pareto . Los experimentos diseñados son un medio para cuantificar objetivamente la importancia relativa (fuerza) de las fuentes de variación. Una vez que se identifican las fuentes de variación (causas especiales), se pueden minimizar o eliminar. Los pasos para eliminar una fuente de variación podrían incluir: desarrollo de estándares, capacitación del personal, corrección de errores y cambios en el proceso mismo o sus entradas.
Cuando se monitorean muchos procesos con gráficos de control, a veces es útil calcular medidas cuantitativas de la estabilidad de los procesos. Estas métricas se pueden utilizar para identificar/priorizar los procesos que más necesitan acciones correctivas. Estas métricas también pueden considerarse como un complemento de las métricas de capacidad de proceso tradicionales . Se han propuesto varias métricas, como se describe en Ramírez y Runger. [13] Son (1) un índice de estabilidad que compara la variabilidad a largo plazo con la variabilidad a corto plazo, (2) una prueba ANOVA que compara la variación dentro del subgrupo con la variación entre subgrupos, y (3) una Relación de inestabilidad que compara la cantidad de subgrupos que tienen una o más violaciones de las reglas de Western Electric con la cantidad total de subgrupos.
Los gráficos de control digital utilizan reglas basadas en lógica que determinan "valores derivados" que señalan la necesidad de corrección. Por ejemplo,