El pronóstico es una disciplina de ingeniería enfocada en predecir el momento en el que un sistema o un componente ya no realizará su función prevista. [1] Esta falta de rendimiento es, en la mayoría de los casos, una falla más allá de la cual el sistema ya no se puede utilizar para alcanzar el rendimiento deseado. El tiempo previsto se convierte entonces en la vida útil restante ( RUL ), que es un concepto importante en la toma de decisiones para la mitigación de contingencias. El pronóstico predice el rendimiento futuro de un componente evaluando el grado de desviación o degradación de un sistema con respecto a sus condiciones normales de funcionamiento esperadas. [2] La ciencia del pronóstico se basa en el análisis de los modos de falla, la detección de signos tempranos de desgaste y envejecimiento y las condiciones de falla. Una solución de pronóstico eficaz se implementa cuando existe un conocimiento sólido de los mecanismos de falla que probablemente causen las degradaciones que conducen a fallas eventuales en el sistema. Por lo tanto, es necesario tener información inicial sobre las posibles fallas (incluido el sitio, el modo, la causa y el mecanismo) en un producto. Tal conocimiento es importante para identificar los parámetros del sistema que se deben monitorear. Los posibles usos de los pronósticos se encuentran en el mantenimiento basado en condiciones . La disciplina que vincula los estudios de los mecanismos de falla con la gestión del ciclo de vida del sistema a menudo se conoce como pronósticos y gestión de la salud ( PHM ), a veces también gestión de la salud del sistema ( SHM ) o, en aplicaciones de transporte, gestión de la salud del vehículo ( VHM ) o gestión de la salud del motor ( EHM ). Los enfoques técnicos para construir modelos en pronósticos se pueden clasificar ampliamente en enfoques basados en datos, enfoques basados en modelos y enfoques híbridos.
Los pronósticos basados en datos suelen utilizar técnicas de reconocimiento de patrones y aprendizaje automático para detectar cambios en los estados del sistema. [3] Los métodos clásicos basados en datos para la predicción de sistemas no lineales incluyen el uso de modelos estocásticos como el modelo autorregresivo (AR), el modelo AR de umbral, el modelo bilineal, la búsqueda de proyección, los splines de regresión adaptativa multivariante y la expansión de la serie de Volterra. Desde la última década, más intereses en la predicción del estado del sistema basada en datos se han centrado en el uso de modelos flexibles como varios tipos de redes neuronales (NN) y sistemas neuronales difusos (NF). Los enfoques basados en datos son apropiados cuando la comprensión de los primeros principios de funcionamiento del sistema no es completa o cuando el sistema es lo suficientemente complejo como para que desarrollar un modelo preciso sea prohibitivamente costoso. Por lo tanto, las principales ventajas de los enfoques basados en datos es que a menudo se pueden implementar más rápido y más barato en comparación con otros enfoques, y que pueden proporcionar una cobertura de todo el sistema (cf. modelos basados en la física, que pueden ser bastante limitados en su alcance). La principal desventaja es que los enfoques basados en datos pueden tener intervalos de confianza más amplios que otros enfoques y que requieren una cantidad sustancial de datos para el entrenamiento. Los enfoques basados en datos pueden subcategorizarse en estadísticas basadas en flotas y condicionamiento basado en sensores. Además, las técnicas basadas en datos también incluyen técnicas de conteo cíclico que pueden incluir conocimiento del dominio .
Las dos estrategias básicas basadas en datos implican (1) modelar el daño acumulativo (o, equivalentemente, la salud) y luego extrapolarlo a un umbral de daño (o salud), o (2) aprender directamente de los datos la vida útil restante. [4] [5] Como se mencionó, un cuello de botella principal es la dificultad de obtener datos de funcionamiento hasta la falla, en particular para sistemas nuevos, ya que hacer funcionar los sistemas hasta la falla puede ser un proceso largo y bastante costoso. Cuando el uso futuro no es el mismo que en el pasado (como ocurre con la mayoría de los sistemas no estacionarios), la recopilación de datos que incluyan todos los posibles usos futuros (tanto de carga como de condiciones ambientales) suele volverse casi imposible. Incluso cuando existen datos, la eficacia de los enfoques basados en datos no solo depende de la cantidad sino también de la calidad de los datos operativos del sistema. Estas fuentes de datos pueden incluir temperatura, presión, residuos de aceite, corrientes, voltajes, potencia, vibración y señal acústica, datos espectrométricos, así como datos de calibración y calorimétricos. A menudo, los datos deben procesarse previamente antes de poder usarse. Por lo general, se realizan dos procedimientos: i) eliminación de ruido y ii) extracción de características. La eliminación de ruido se refiere a la reducción o eliminación de la influencia del ruido en los datos. La extracción de características es importante porque en el mundo actual, hambriento de datos, se recopilan enormes cantidades de datos mediante mediciones de sensores que pueden no usarse fácilmente. Por lo tanto, se aplica el conocimiento del dominio y el procesamiento estadístico de señales para extraer características importantes de datos (en la mayoría de los casos) ruidosos y de alta dimensión. [6]
Los pronósticos basados en la física (a veces llamados pronósticos basados en modelos) intentan incorporar la comprensión física (modelos físicos) del sistema en la estimación de la vida útil restante (RUL). El modelado de la física se puede lograr en diferentes niveles, por ejemplo, niveles micro y macro. En el nivel micro (también llamado nivel material), los modelos físicos están incorporados por una serie de ecuaciones dinámicas que definen relaciones, en un momento dado o ciclo de carga, entre el daño (o degradación) de un sistema/componente y las condiciones ambientales y operativas bajo las cuales se opera el sistema/componente. Los modelos de nivel micro a menudo se denominan modelo de propagación de daños. Por ejemplo, el modelo de vida por fatiga de Yu y Harris para cojinetes de bolas, que relaciona la vida por fatiga de un cojinete con la tensión inducida, [7] el modelo de crecimiento de grietas de Paris y Erdogan, [8] y el modelo estocástico de propagación de defectos [9] son otros ejemplos de modelos de nivel micro. Dado que rara vez se dispone de mediciones de propiedades críticas de daño (como la tensión o la deformación de un componente mecánico), se deben utilizar los parámetros del sistema detectados para inferir los valores de tensión/deformación. Los modelos de nivel micro deben tener en cuenta en la gestión de la incertidumbre las suposiciones y simplificaciones, que pueden plantear limitaciones significativas a ese enfoque.
Los modelos a nivel macro son el modelo matemático a nivel de sistema, que define la relación entre las variables de entrada del sistema, las variables de estado del sistema y las variables/salidas de las medidas del sistema, donde el modelo es a menudo una representación algo simplificada del sistema, por ejemplo, un modelo de parámetros agrupados. La contrapartida es una mayor cobertura con la posible reducción de la precisión de un modo de degradación particular. Cuando esta contrapartida es permisible, el resultado puede ser una creación de prototipos más rápida. Sin embargo, cuando los sistemas son complejos (por ejemplo, un motor de turbina de gas), incluso un modelo a nivel macro puede ser un proceso que requiera mucho tiempo y trabajo. Como resultado, los modelos a nivel macro pueden no estar disponibles en detalle para todos los subsistemas. Las simplificaciones resultantes deben tenerse en cuenta en la gestión de la incertidumbre.
Los enfoques híbridos intentan aprovechar la fortaleza de los enfoques basados en datos y en modelos. [10] [11] En realidad, es raro que los enfoques de campo estén completamente basados en datos o puramente en modelos. La mayoría de las veces, los enfoques basados en modelos incluyen algunos aspectos de los enfoques basados en datos y los enfoques basados en datos recopilan la información disponible de los modelos. Un ejemplo del primero sería cuando los parámetros del modelo se ajustan utilizando datos de campo. Un ejemplo del segundo es cuando el punto de ajuste, el sesgo o el factor de normalización para un enfoque basado en datos lo proporcionan los modelos. Los enfoques híbridos se pueden clasificar ampliamente en dos categorías: 1) fusión de preestimación y 2) fusión de posestimación. El modelo basado en la física y el modelo empírico también se pueden combinar de una manera aditiva simple, como una combinación aditiva de un modelo basado en la física básica con una red neuronal artificial. Esto podría ofrecer un rendimiento de diagnóstico o pronóstico superior al de uno u otro. Véase, por ejemplo, un modelo híbrido aditivo empleado en el análisis del rendimiento de los motores a reacción. [12]
La motivación para la agregación de pre-estimación puede ser que no hay datos de verdad de campo disponibles. Esto puede ocurrir en situaciones donde los diagnósticos hacen un buen trabajo en la detección de fallas que se resuelven (a través del mantenimiento) antes de que ocurra la falla del sistema. Por lo tanto, casi no hay datos de funcionamiento hasta la falla. Sin embargo, existe un incentivo para saber mejor cuándo un sistema fallará para aprovechar mejor la vida útil restante y al mismo tiempo evitar el mantenimiento no programado (el mantenimiento no programado suele ser más costoso que el mantenimiento programado y da como resultado tiempo de inactividad del sistema). Garga et al. describen conceptualmente un enfoque híbrido de agregación de pre-estimación donde el conocimiento del dominio se utiliza para cambiar la estructura de una red neuronal, lo que resulta en una representación más parsimoniosa de la red. [ cita requerida ] Otra forma de lograr la agregación de pre-estimación es mediante un proceso combinado fuera de línea y en línea: En el modo fuera de línea, se puede utilizar un modelo de simulación basado en la física para comprender las relaciones de la respuesta del sensor al estado de falla; En el modo en línea, se pueden utilizar datos para identificar el estado actual del daño, luego rastrear los datos para caracterizar la propagación del daño y, finalmente, aplicar un modelo de propagación individualizado basado en datos para la predicción de la vida útil restante. Por ejemplo, Khorasgani et al. [13] modelaron la física de fallas en capacitores electrolíticos. Luego, utilizaron un enfoque de filtro de partículas para derivar la forma dinámica del modelo de degradación y estimar el estado actual de la salud del capacitor. Luego, este modelo se utiliza para obtener una estimación más precisa de la vida útil restante (RUL) de los capacitores a medida que se someten a las condiciones de estrés térmico.
La motivación para la fusión posterior a la estimación suele ser la consideración de la gestión de la incertidumbre. Es decir, la fusión posterior a la estimación ayuda a reducir los intervalos de incertidumbre de los enfoques basados en datos o modelos. Al mismo tiempo, mejora la precisión. La noción subyacente es que múltiples fuentes de información pueden ayudar a mejorar el rendimiento de un estimador. Este principio se ha aplicado con éxito en el contexto de la fusión de clasificadores, donde se utiliza la salida de múltiples clasificadores para llegar a un mejor resultado que cualquier clasificador solo. En el contexto de los pronósticos, la fusión se puede lograr empleando evaluaciones de calidad que se asignan a los estimadores individuales en función de una variedad de entradas, por ejemplo, heurísticas, rendimiento conocido a priori, horizonte de predicción o solidez de la predicción [ cita requerida ] .
La evaluación del desempeño pronóstica es de importancia clave para una implementación exitosa del sistema PHM. La falta temprana de métodos estandarizados para la evaluación del desempeño y conjuntos de datos de referencia resultó en la dependencia de métricas de desempeño convencionales tomadas de las estadísticas. Esas métricas se basaban principalmente en la exactitud y precisión, donde el desempeño se evalúa en relación con el final de la vida útil, generalmente conocido a priori en un entorno fuera de línea. Más recientemente, los esfuerzos por madurar la tecnología de pronósticos han puesto un enfoque significativo en la estandarización de los métodos de pronóstico, incluidos los de evaluación del desempeño. Un aspecto clave, que falta en las métricas convencionales, es la capacidad de rastrear el desempeño a lo largo del tiempo. Esto es importante porque los pronósticos son un proceso dinámico donde las predicciones se actualizan con una frecuencia adecuada a medida que se obtienen más datos de observación de un sistema operativo. De manera similar, el desempeño de la predicción cambia con el tiempo y debe rastrearse y cuantificarse. Otro aspecto que hace que este proceso sea diferente en un contexto PHM es el valor temporal de una predicción RUL. A medida que un sistema se acerca a una falla, la ventana de tiempo para tomar una acción correctiva se acorta y, en consecuencia, la precisión de las predicciones se vuelve más crítica para la toma de decisiones. Por último, la aleatoriedad y el ruido en los procesos, las mediciones y los modelos de predicción son inevitables y, por lo tanto, los pronósticos implican inevitablemente incertidumbre en sus estimaciones. Una evaluación sólida del desempeño de los pronósticos debe incorporar los efectos de esta incertidumbre.
Se han desarrollado varias métricas de desempeño de pronóstico que tienen en cuenta estas cuestiones:
Se puede utilizar una representación visual de estas métricas para describir el desempeño del pronóstico durante un horizonte temporal largo.
Existen muchos parámetros de incertidumbre que pueden influir en la precisión de la predicción. Estos pueden clasificarse de la siguiente manera: [14]
Se pueden encontrar ejemplos de cuantificación de la incertidumbre en [15] [16] [17] [18] [19]
Para la mayoría de las aplicaciones industriales de PHM, los sensores y el hardware de adquisición de datos disponibles comercialmente son normalmente los más prácticos y comunes. Algunos ejemplos de proveedores comerciales de hardware de adquisición de datos son National Instruments [20] y Advantech Webaccess; [21] sin embargo, para ciertas aplicaciones, el hardware se puede personalizar o hacer más resistente según sea necesario. Los tipos de sensores comunes para aplicaciones PHM incluyen acelerómetros, temperatura, presión, mediciones de velocidad de rotación mediante codificadores o tacómetros, mediciones eléctricas de voltaje y corriente, emisión acústica, celdas de carga para mediciones de fuerza y mediciones de desplazamiento o posición. Existen numerosos proveedores de sensores para esos tipos de medición, y algunos tienen una línea de productos específica que es más adecuada para el monitoreo de condiciones y aplicaciones PHM.
Los algoritmos de análisis de datos y la tecnología de reconocimiento de patrones se ofrecen ahora en algunas plataformas de software comerciales o como parte de una solución de software empaquetada. National Instruments tiene actualmente una versión de prueba (con un lanzamiento comercial el próximo año) del kit de herramientas de pronóstico Watchdog Agent, que es una colección de algoritmos PHM basados en datos que fueron desarrollados por el Centro de Sistemas de Mantenimiento Inteligente. [22] Esta colección de más de 20 herramientas permite configurar y personalizar los algoritmos para la extracción de firmas, la detección de anomalías, la evaluación de la salud, el diagnóstico de fallas y la predicción de fallas para una aplicación determinada según sea necesario. Las soluciones comerciales de monitoreo predictivo personalizadas que utilizan el kit de herramientas Watchdog Agent ahora están siendo ofrecidas por una empresa de reciente creación llamada Predictronics Corporation [23] en la que los fundadores fueron fundamentales en el desarrollo y la aplicación de esta tecnología PHM en el Centro de Sistemas de Mantenimiento Inteligente. Otro ejemplo es MATLAB y su Predictive Maintenance Toolbox [24] , que proporciona funciones y una aplicación interactiva para explorar, extraer y clasificar características utilizando técnicas basadas en datos y modelos, incluidos análisis estadísticos, espectrales y de series temporales. Esta caja de herramientas también incluye ejemplos de referencia para motores, cajas de engranajes, baterías y otras máquinas que se pueden reutilizar para desarrollar algoritmos personalizados de mantenimiento predictivo y monitoreo de condiciones. Otras ofertas de software comercial se centran en unas pocas herramientas para la detección de anomalías y el diagnóstico de fallas, y generalmente se ofrecen como una solución en paquete en lugar de una oferta de kit de herramientas. Un ejemplo incluye el método analítico de detección de anomalías Smart Signals, basado en modelos de tipo autoasociativo (modelado basado en similitud) que buscan cambios en la relación de correlación nominal en las señales, calculan los residuos entre el rendimiento esperado y el real y luego realizan pruebas de hipótesis sobre las señales residuales (prueba de relación de probabilidad secuencial). [25] Expert Microsystems también ofrece tipos similares de métodos de análisis, que utiliza un método de kernel autoasociativo similar para calcular residuos y tiene otros módulos para diagnóstico y predicción. [26]
[27] Si bien la mayoría de los enfoques de pronóstico se centran en el cálculo preciso de la tasa de degradación y la vida útil restante (RUL) de los componentes individuales, es la tasa a la que se degrada el rendimiento de los subsistemas y sistemas lo que resulta de mayor interés para los operadores y el personal de mantenimiento de estos sistemas.