stringtranslate.com

Validación y conciliación de datos.

La validación y conciliación de datos de procesos industriales , o más brevemente, la reconciliación de datos de procesos (PDR) , es una tecnología que utiliza información de proceso y métodos matemáticos para garantizar automáticamente la validación y conciliación de datos mediante la corrección de mediciones en procesos industriales. El uso de PDR permite extraer información precisa y confiable sobre el estado de los procesos industriales a partir de datos de medición sin procesar y produce un conjunto único y consistente de datos que representa la operación del proceso más probable.

Modelos, datos y errores de medición.

Los procesos industriales, por ejemplo los procesos químicos o termodinámicos en plantas químicas, refinerías, sitios de producción de petróleo o gas o centrales eléctricas, a menudo se representan mediante dos medios fundamentales:

  1. Modelos que expresan la estructura general de los procesos,
  2. Datos que reflejan el estado de los procesos en un momento determinado.

Los modelos pueden tener diferentes niveles de detalle; por ejemplo, se pueden incorporar equilibrios de conservación compuestos o de masa simples, o modelos termodinámicos más avanzados que incluyan leyes de conservación de energía. Matemáticamente, el modelo se puede expresar mediante un sistema no lineal de ecuaciones en las variables , que incorpora todas las restricciones del sistema mencionadas anteriormente (por ejemplo, los equilibrios de masa o calor alrededor de una unidad). Una variable podría ser la temperatura o la presión en un determinado lugar de la planta.

Tipos de errores

Los datos generalmente se originan a partir de mediciones tomadas en diferentes lugares del sitio industrial, por ejemplo, mediciones de temperatura, presión, caudal volumétrico, etc. Para comprender los principios básicos de PDR, es importante reconocer primero que las mediciones de la planta nunca son 100% correctas, es decir, La medición bruta no es una solución del sistema no lineal . Al utilizar mediciones sin corrección para generar balances de planta, es común tener incoherencias. Los errores de medición se pueden clasificar en dos tipos básicos:

  1. errores aleatorios debido a la precisión intrínseca del sensor y
  2. Errores sistemáticos (o errores graves) debidos a la calibración del sensor o a una transmisión de datos defectuosa.

Los errores aleatorios significan que la medición es una variable aleatoria con media , donde es el valor verdadero que normalmente no se conoce. Un error sistemático por otro lado se caracteriza por una medición que es una variable aleatoria con media , que no es igual al valor verdadero . Para facilitar la derivación e implementación de una solución de estimación óptima, y ​​basándose en argumentos de que los errores son la suma de muchos factores (de modo que el teorema del límite central tiene algún efecto), la conciliación de datos supone que estos errores se distribuyen normalmente .

Otras fuentes de errores al calcular los equilibrios de la planta incluyen fallas de proceso como fugas, pérdidas de calor no modeladas, propiedades físicas incorrectas u otros parámetros físicos utilizados en las ecuaciones y estructuras incorrectas, como líneas de derivación no modeladas. Otros errores incluyen dinámicas de plantas no modeladas, como cambios de atraco, y otras inestabilidades en las operaciones de la planta que violan los modelos de estado estacionario (algebraicos). Surgen errores dinámicos adicionales cuando las mediciones y las muestras no se toman al mismo tiempo, especialmente en los análisis de laboratorio.

La práctica normal de utilizar promedios de tiempo para la entrada de datos reduce en parte los problemas dinámicos. Sin embargo, eso no resuelve por completo las inconsistencias en el tiempo para datos muestreados con poca frecuencia, como los análisis de laboratorio.

Este uso de valores medios, como una media móvil , actúa como un filtro de paso bajo , por lo que el ruido de alta frecuencia se elimina en su mayor parte. El resultado es que, en la práctica, la conciliación de datos consiste principalmente en realizar ajustes para corregir errores sistemáticos como sesgos.

Necesidad de eliminar errores de medición.

ISA-95 es el estándar internacional para la integración de sistemas empresariales y de control [1] Afirma que:

La conciliación de datos es un problema grave para la integración del control empresarial. Los datos deben ser válidos para que sean útiles para el sistema empresarial. Los datos a menudo deben determinarse a partir de mediciones físicas que tienen factores de error asociados. Por lo general, esto debe convertirse en valores exactos para el sistema empresarial. Esta conversión puede requerir una conciliación manual o inteligente de los valores convertidos [...]. Se deben configurar sistemas para garantizar que se envíen datos precisos a producción y desde producción. Los errores administrativos o del operador inadvertidos pueden resultar en demasiada producción, muy poca producción, producción incorrecta, inventario incorrecto o falta de inventario.

Historia

La PDR ha adquirido cada vez más importancia debido a que los procesos industriales son cada vez más complejos. La PDR comenzó a principios de la década de 1960 con aplicaciones destinadas a cerrar balances de materia en procesos de producción donde las mediciones brutas estaban disponibles para todas las variables . [2] Al mismo tiempo se ha presentado el problema de la identificación y eliminación de errores graves . [3] A finales de los años 1960 y 1970 se tuvieron en cuenta variables no medidas en el proceso de conciliación de datos., [4] [5] El PDR también maduró al considerar sistemas generales de ecuaciones no lineales provenientes de modelos termodinámicos., [6] , [ 7] [8] Stanley y Mah introdujeron en 1977 la dinámica de estado casi estacionario para el filtrado y la estimación simultánea de parámetros a lo largo del tiempo. [7] La ​​PDR dinámica fue formulada como un problema de optimización no lineal por Liebman et al. en 1992. [9]

Conciliación de datos

La conciliación de datos es una técnica que tiene como objetivo corregir los errores de medición que se deben al ruido de medición, es decir, errores aleatorios . Desde un punto de vista estadístico, el supuesto principal es que no existen errores sistemáticos en el conjunto de mediciones, ya que pueden sesgar los resultados de la conciliación y reducir la solidez de la conciliación.

Dadas las mediciones , la conciliación de datos se puede expresar matemáticamente como un problema de optimización de la siguiente forma:

donde es el valor conciliado de la -ésima medición ( ), es el valor medido de la -ésima medición ( ), es la -ésima variable no medida ( ), y es la desviación estándar de la -ésima medición ( ), son el proceso restricciones de igualdad y son los límites de las variables medidas y no medidas.

El término se llama penalización de la medición i . La función objetivo es la suma de las penalizaciones, que se denotará en lo sucesivo por .

En otras palabras, se quiere minimizar la corrección general (medida en el término de mínimos cuadrados) que se necesita para satisfacer las restricciones del sistema . Además, cada término de mínimos cuadrados se pondera por la desviación estándar de la medida correspondiente. La desviación estándar está relacionada con la precisión de la medición. Por ejemplo, con un nivel de confianza del 95%, la desviación estándar es aproximadamente la mitad de la precisión.

Redundancia

La conciliación de datos se basa en gran medida en el concepto de redundancia para corregir las mediciones lo menos posible para satisfacer las restricciones del proceso. Aquí, la redundancia se define de manera diferente a la redundancia en la teoría de la información . En cambio, la redundancia surge de la combinación de datos del sensor con el modelo (restricciones algebraicas), a veces más específicamente llamada "redundancia espacial", [7] "redundancia analítica" o "redundancia topológica".

La redundancia puede deberse a la redundancia de sensores , donde los sensores se duplican para tener más de una medición de la misma cantidad. La redundancia también surge cuando una sola variable puede estimarse de varias maneras independientes a partir de conjuntos separados de mediciones en un momento dado o en un período de tiempo promedio, utilizando restricciones algebraicas.

La redundancia está ligada al concepto de observabilidad . Una variable (o sistema) es observable si los modelos y las mediciones de los sensores se pueden utilizar para determinar de forma única su valor (estado del sistema). Un sensor es redundante si su eliminación no causa pérdida de observabilidad. Stanley y Mah [10] establecieron definiciones rigurosas de observabilidad, calculabilidad y redundancia, junto con criterios para determinarlas, para estos casos con restricciones establecidas, como ecuaciones algebraicas y desigualdades. A continuación, ilustramos algunos casos especiales:

La redundancia topológica está íntimamente ligada con los grados de libertad ( ) de un sistema matemático, [11] es decir, el número mínimo de piezas de información (es decir, mediciones) que se requieren para calcular todas las variables del sistema. Por ejemplo, en el ejemplo anterior, la conservación del flujo requiere que . Es necesario conocer el valor de dos de las 3 variables para poder calcular la tercera. Los grados de libertad del modelo en ese caso son iguales a 2. Se necesitan al menos 2 mediciones para estimar todas las variables y se necesitarían 3 para la redundancia.

Cuando hablamos de redundancia topológica tenemos que distinguir entre variables medidas y no medidas. A continuación, denotaremos por las variables no medidas y las variables medidas. Entonces el sistema de restricciones del proceso se convierte en , que es un sistema no lineal en y . Si el sistema es calculable con las medidas dadas, entonces el nivel de redundancia topológica se define como , es decir, el número de medidas adicionales que están disponibles además de aquellas medidas que se requieren para calcular simplemente el sistema. Otra forma de ver el nivel de redundancia es utilizar la definición de , que es la diferencia entre el número de variables (medidas y no medidas) y el número de ecuaciones. Entonces uno consigue

es decir, la redundancia es la diferencia entre el número de ecuaciones y el número de variables no medidas . El nivel de redundancia total es la suma de la redundancia del sensor y la redundancia topológica. Hablamos de redundancia positiva si el sistema es calculable y la redundancia total es positiva. Se puede ver que el nivel de redundancia topológica depende simplemente del número de ecuaciones (cuantas más ecuaciones, mayor es la redundancia) y del número de variables no medidas (cuantas más variables no medidas, menor es la redundancia) y no del número de variables medidas. .

Los recuentos simples de variables, ecuaciones y mediciones son inadecuados para muchos sistemas, y se descomponen por varias razones: (a) Partes de un sistema pueden tener redundancia, mientras que otras no, y algunas partes pueden ni siquiera ser posibles de calcular, y ( b) Las no linealidades pueden llevar a conclusiones diferentes en diferentes puntos operativos. Como ejemplo, considere el siguiente sistema con 4 corrientes y 2 unidades.

Ejemplo de sistemas calculables y no calculables

Incorporamos solo restricciones de conservación de flujo y obtenemos y . Es posible que el sistema no sea calculable, aunque .

Si tenemos medidas para y , pero no para y , entonces el sistema no se puede calcular (saber no proporciona información sobre y ). Por otro lado, si se conocen y , pero no y , entonces se puede calcular el sistema.

En 1981, se probaron criterios de observabilidad y redundancia para este tipo de redes de flujo que implicaban únicamente restricciones de equilibrio de masa y energía. [12] Después de combinar todas las entradas y salidas de la planta en un "nodo ambiental", la pérdida de observabilidad corresponde a ciclos de corrientes no medidas. Esto se ve en el segundo caso anterior, donde las corrientes a y b están en un ciclo de corrientes no medidas. A continuación se realiza la clasificación de redundancia, mediante la prueba de un camino de flujos no medidos, ya que eso conduciría a un ciclo no medido si se eliminara la medición. Las mediciones cyd son redundantes en el segundo caso anterior, aunque parte del sistema no sea observable.

Beneficios

La redundancia se puede utilizar como fuente de información para cotejar y corregir las mediciones y aumentar su exactitud y precisión: por un lado se concilian. Además, el problema de conciliación de datos presentado anteriormente también incluye variables no medidas . Sobre la base de la redundancia de información, se pueden calcular estimaciones de estas variables no medidas junto con sus precisiones. En los procesos industriales, estas variables no medidas que proporciona la conciliación de datos se denominan sensores blandos o sensores virtuales, donde no se instalan sensores de hardware.

Validación de datos

La validación de datos denota todas las acciones de validación y verificación antes y después del paso de conciliación.

Filtrado de datos

El filtrado de datos denota el proceso de tratar los datos medidos de manera que los valores adquieran significado y se encuentren dentro del rango de valores esperados. El filtrado de datos es necesario antes del proceso de conciliación para aumentar la solidez del paso de conciliación. Hay varias formas de filtrar los datos, por ejemplo promediando varios valores medidos durante un período de tiempo bien definido.

Validación de resultados

La validación de resultados es el conjunto de acciones de validación o verificación tomadas después del proceso de conciliación y toma en cuenta variables medidas y no medidas, así como valores conciliados. La validación de resultados cubre, entre otros, análisis de penalizaciones para determinar la confiabilidad de la conciliación, o comprobaciones vinculadas para garantizar que los valores conciliados se encuentren en un rango determinado, por ejemplo, la temperatura debe estar dentro de unos límites razonables.

Detección de errores graves

La validación de resultados puede incluir pruebas estadísticas para validar la confiabilidad de los valores conciliados, verificando si existen errores graves en el conjunto de valores medidos. Estas pruebas pueden ser por ejemplo

Si no existen errores graves en el conjunto de valores medidos, entonces cada término de penalización en la función objetivo es una variable aleatoria que se distribuye normalmente con media igual a 0 y varianza igual a 1. En consecuencia, la función objetivo es una variable aleatoria que sigue una distribución chi-cuadrado , ya que es la suma del cuadrado de variables aleatorias distribuidas normalmente. Comparar el valor de la función objetivo con un percentil dado de la función de densidad de probabilidad de una distribución chi-cuadrado (por ejemplo, el percentil 95 para una confianza del 95%) da una indicación de si existe un error grave: si , entonces no existen errores graves con 95% de probabilidad. La prueba de chi cuadrado sólo da una indicación aproximada sobre la existencia de errores graves y es fácil de realizar: sólo hay que comparar el valor de la función objetivo con el valor crítico de la distribución de chi cuadrado.

La prueba individual compara cada término de penalización en la función objetivo con los valores críticos de la distribución normal. Si el -ésimo término de penalización está fuera del intervalo de confianza del 95% de la distribución normal, entonces hay motivos para creer que esta medición tiene un error grave.

Conciliación avanzada de datos de proceso

La reconciliación de datos de proceso avanzado (PDR) es un enfoque integrado que combina técnicas de reconciliación y validación de datos, que se caracteriza por

Modelos termodinámicos

Los modelos simples incluyen únicamente balances de masa. Al agregar restricciones termodinámicas como balances de energía al modelo, aumenta su alcance y nivel de redundancia . De hecho, como hemos visto anteriormente, el nivel de redundancia se define como , donde es el número de ecuaciones. Incluir balances de energía significa agregar ecuaciones al sistema, lo que resulta en un mayor nivel de redundancia (siempre que haya suficientes mediciones disponibles o, equivalentemente, no queden demasiadas variables sin medir).

Corrección de errores graves

El flujo de trabajo de un proceso avanzado de validación y conciliación de datos.

Los errores graves son errores sistemáticos de medición que pueden sesgar los resultados de la conciliación. Por lo tanto, es importante identificar y eliminar estos errores graves del proceso de conciliación. Después de la conciliación, se pueden aplicar pruebas estadísticas que indiquen si existe o no un error grave en algún lugar del conjunto de mediciones. Estas técnicas de corrección de errores graves se basan en dos conceptos:

La eliminación del error bruto determina una medición que está sesgada por un error sistemático y descarta esta medición del conjunto de datos. La determinación de la medida a descartar se basa en diferentes tipos de términos de penalización que expresan cuánto se desvían los valores medidos de los valores conciliados. Una vez que se detectan los errores graves, se descartan de las mediciones y la conciliación se puede realizar sin estas mediciones defectuosas que arruinan el proceso de conciliación. Si es necesario, la eliminación se repite hasta que no exista ningún error grave en el conjunto de mediciones.

La relajación del error bruto tiene como objetivo relajar la estimación de la incertidumbre de las mediciones sospechosas de modo que el valor conciliado esté en el intervalo de confianza del 95%. La relajación normalmente encuentra aplicación cuando no es posible determinar qué medida alrededor de una unidad es responsable del error grave (equivalencia de errores brutos). Entonces aumentan las incertidumbres de medición de las mediciones involucradas.

Es importante señalar que la corrección de errores graves reduce la calidad de la conciliación, ya sea que la redundancia disminuya (eliminación) o que la incertidumbre de los datos medidos aumente (relajación). Por lo tanto, sólo se puede aplicar cuando el nivel inicial de redundancia es lo suficientemente alto como para garantizar que aún se pueda realizar la conciliación de datos (consulte la Sección 2, [11] ).

Flujo de trabajo

Las soluciones PDR avanzadas ofrecen una integración de las técnicas mencionadas anteriormente:

  1. Adquisición de datos a partir del historiador de datos, base de datos o entradas manuales.
  2. Validación de datos y filtrado de mediciones sin procesar.
  3. conciliación de datos de mediciones filtradas
  4. verificación de resultados
    • verificación de rango
    • Corrección de errores graves (y volver al paso 3)
  5. almacenamiento de resultados (mediciones sin procesar junto con valores conciliados)

El resultado de un procedimiento PDR avanzado es un conjunto coherente de datos de proceso validados y conciliados.

Aplicaciones

La PDR encuentra aplicación principalmente en sectores industriales donde las mediciones no son precisas o incluso no existen, como por ejemplo en el sector upstream donde los medidores de flujo son difíciles o costosos de colocar (ver [13] ); o cuando los datos precisos son de gran importancia, por ejemplo, por razones de seguridad en las centrales nucleares (ver [14] ). Otro campo de aplicación es el control del rendimiento y de los procesos (ver [15] ) en el refinado de petróleo o en la industria química.

Dado que el PDR permite calcular estimaciones de forma fiable incluso para variables no medidas, la Sociedad Alemana de Ingeniería (VDI Gesellschaft Energie und Umwelt) ha aceptado la tecnología del PDR como medio para sustituir los costosos sensores en la industria de la energía nuclear (véase la norma VDI 2048, [11] ).

Ver también

Referencias

  1. ^ "ISA-95: el estándar internacional para la integración de sistemas empresariales y de control". isa-95.com.
  2. ^ DR Kuehn, H. Davidson, Control informático II. Matemáticas de Control , Química. Ing. Proceso 57: 44–47, 1961.
  3. ^ V. Vaclavek, Estudios sobre ingeniería de sistemas I. Sobre la aplicación del cálculo de las observaciones de cálculos de equilibrios de ingeniería química , Coll. Química checa. Comunitario. 34: 3653, 1968.
  4. ^ V. Vaclavek, M. Loucka, Selección de medidas necesarias para lograr equilibrios de masa multicomponente en una planta química , Chem. Ing. Ciencia. 31: 1199-1205, 1976.
  5. ^ RSH Mah , GM Stanley, DW Downing, Conciliación y rectificación de flujo de procesos y datos de inventario, Ind. & Eng. Química. Proc. Des. Desarrollo. 15: 175–183, 1976.
  6. ^ JC Knepper, JW Gorman, Análisis estadístico de conjuntos de datos restringidos , AiChE Journal 26: 260–164, 1961.
  7. ^ abc GM Stanley y RSH Mah, Estimación de flujos y temperaturas en redes de procesos, AIChE Journal 23: 642–650, 1977.
  8. ^ P. Joris, B. Kalitventzeff, Análisis y validación de mediciones de procesos , Proc. CEF'87: Utilice la informática. Química. Ing., Italia, 41–46, 1987.
  9. ^ MJ Liebman, TF Edgar, LS Lasdon, Estimación y conciliación de datos eficientes para procesos dinámicos utilizando técnicas de programación no lineal , Computers Chem. Ing. 16: 963–986, 1992.
  10. ^ Stanley GM y Mah, RSH, "Observabilidad y redundancia en la estimación de datos de proceso, Chem. Engng. Sci. 36, 259 (1981)
  11. ^ abc VDI-Gesellschaft Energie und Umwelt, "Directrices - VDI 2048 Blatt 1 - “Control y mejora de la calidad de los datos de proceso y sus incertidumbres mediante cálculo de corrección para pruebas de funcionamiento y aceptación”; VDI 2048 Parte 1; septiembre de 2017", Asociación de Ingenieros Alemanes , 2017.
  12. ^ Stanley GM y Mah RSH, "Clasificación de observabilidad y redundancia en redes de procesos", Chem. Ing. Ciencia. 36, 1941 (1981)
  13. ^ P. Delava, E. Maréchal, B. Vrielynck, B. Kalitventzeff (1999), Modelado de una unidad de destilación de petróleo crudo en términos de conciliación de datos con curvas ASTM o TBP como entrada directa - Aplicación: Tren de precalentamiento de petróleo crudo , Actas de Conferencia ESCAPE-9, Budapest, 31 de mayo al 2 de junio de 1999, volumen complementario, p. 17-20.
  14. ^ M. Langenstein, J. Jansky, B. Laipple (2004), Encontrar megavatios en plantas de energía nuclear con validación de datos de proceso , Actas de ICONE12, Arlington, EE. UU., 25 al 29 de abril de 2004.
  15. ^ Th. Amand, G. Heyen, B. Kalitventzeff, Monitoreo de plantas y detección de fallas: sinergia entre la conciliación de datos y el análisis de componentes principales , Comp. y Química, Ing. 25, pág. 501-507, 2001.