En tecnología de medición y metrología , la calibración es la comparación de los valores de medición entregados por un dispositivo bajo prueba con los de un estándar de calibración de precisión conocida. Dicho estándar podría ser otro dispositivo de medición de precisión conocida, un dispositivo que genere la cantidad que se va a medir, como un voltaje , un tono de sonido o un artefacto físico, como una regla de un metro .
El resultado de la comparación puede dar uno de los siguientes resultados:
Estrictamente hablando, el término "calibración" significa sólo el acto de comparación y no incluye ningún ajuste posterior.
El estándar de calibración normalmente es trazable a un estándar nacional o internacional mantenido por un organismo de metrología.
La definición formal de calibración de la Oficina Internacional de Pesas y Medidas (BIPM) es la siguiente: "Operación que, bajo condiciones específicas, en un primer paso, establece una relación entre los valores de magnitud con incertidumbres de medición proporcionados por patrones de medición e indicaciones correspondientes con incertidumbres de medición asociadas (del instrumento calibrado o patrón secundario) y, en un segundo paso, utiliza esta información para establecer una relación para obtener un resultado de medición a partir de una indicación". [1]
Esta definición establece que el proceso de calibración es puramente una comparación, pero introduce el concepto de incertidumbre de medición al relacionar las precisiones del dispositivo bajo prueba y el estándar.
La creciente necesidad de conocer la precisión y la incertidumbre y de disponer de normas coherentes y comparables a nivel internacional ha llevado a la creación de laboratorios nacionales. En muchos países, existe un Instituto Nacional de Metrología (INM) que se encargará de mantener los patrones primarios de medición (las principales unidades del SI más una serie de unidades derivadas) que se utilizarán para proporcionar trazabilidad a los instrumentos del cliente mediante calibración.
El Instituto Nacional de Metrología (NMI) respalda la infraestructura metrológica de ese país (y a menudo de otros) estableciendo una cadena ininterrumpida, desde el nivel superior de los estándares hasta el instrumento utilizado para la medición. Algunos ejemplos de Institutos Nacionales de Metrología son el NPL en el Reino Unido , el NIST en los Estados Unidos , el PTB en Alemania y muchos otros. Desde que se firmó el Acuerdo de Reconocimiento Mutuo, ahora es sencillo obtener la trazabilidad de cualquier INM participante y ya no es necesario que una empresa obtenga la trazabilidad de las mediciones del INM del país en el que está ubicada, como el Laboratorio Nacional de Física en el Reino Unido.
Para mejorar la calidad de la calibración y lograr que los resultados sean aceptados por organizaciones externas, es deseable que la calibración y las mediciones posteriores sean "trazables" a las unidades de medida definidas internacionalmente. La trazabilidad se establece mediante una comparación formal con un estándar que esté relacionado directa o indirectamente con estándares nacionales (como el NIST en los EE. UU.), estándares internacionales o materiales de referencia certificados . Esto puede ser realizado por laboratorios de estándares nacionales operados por el gobierno o por empresas privadas que ofrecen servicios de metrología.
Los sistemas de gestión de calidad requieren un sistema de metrología eficaz que incluya una calibración formal, periódica y documentada de todos los instrumentos de medición. Las normas ISO 9000 [2] e ISO 17025 [3] exigen que estas acciones sean trazables a un alto nivel y establecen cómo se pueden cuantificar.
Para comunicar la calidad de una calibración, el valor de calibración suele ir acompañado de una declaración de incertidumbre trazable hasta un nivel de confianza establecido. Esto se evalúa mediante un análisis de incertidumbre minucioso. En ocasiones, se requiere una DFS (desviación de la especificación) para operar maquinaria en un estado degradado. Siempre que esto suceda, debe hacerse por escrito y debe estar autorizado por un gerente con la asistencia técnica de un técnico de calibración.
Los dispositivos e instrumentos de medición se clasifican según las cantidades físicas que están diseñados para medir. Estas varían internacionalmente, por ejemplo, NIST 150-2G en los EE. UU. [4] y NABL -141 en la India. [5] En conjunto, estas normas cubren instrumentos que miden varias cantidades físicas como radiación electromagnética ( sondas de RF ), sonido ( medidor de nivel de sonido o dosímetro de ruido ), tiempo y frecuencia ( intervalometro ), radiación ionizante ( contador Geiger ), luz ( medidor de luz ), cantidades mecánicas ( interruptor de límite , manómetro , presostato ) y propiedades termodinámicas o térmicas ( termómetro , controlador de temperatura ). El instrumento estándar para cada dispositivo de prueba varía en consecuencia, por ejemplo, un comprobador de peso muerto para la calibración del manómetro y un comprobador de temperatura de bloque seco para la calibración del manómetro.
La calibración puede ser necesaria por las siguientes razones:
En general, se considera que la calibración incluye el proceso de ajustar la salida o indicación de un instrumento de medición para que coincida con el valor del estándar aplicado, dentro de una precisión especificada. Por ejemplo, se podría calibrar un termómetro para determinar el error de indicación o la corrección y ajustarlo (por ejemplo, mediante constantes de calibración ) de modo que muestre la temperatura real en grados Celsius en puntos específicos de la escala. Esta es la percepción del usuario final del instrumento. Sin embargo, muy pocos instrumentos se pueden ajustar para que coincidan exactamente con los estándares con los que se comparan. Para la gran mayoría de las calibraciones, el proceso de calibración es en realidad la comparación de un valor desconocido con uno conocido y el registro de los resultados.
El proceso de calibración comienza con el diseño del instrumento de medición que se va a calibrar. El diseño debe ser capaz de "mantener una calibración" durante su intervalo de calibración. En otras palabras, el diseño debe ser capaz de realizar mediciones que estén "dentro de la tolerancia de ingeniería " cuando se utilicen dentro de las condiciones ambientales establecidas durante un período de tiempo razonable. [6] Tener un diseño con estas características aumenta la probabilidad de que los instrumentos de medición reales funcionen como se espera. Básicamente, el propósito de la calibración es mantener la calidad de la medición, así como garantizar el funcionamiento adecuado de un instrumento en particular.
El mecanismo exacto para asignar valores de tolerancia varía según el país y el tipo de industria. El fabricante del equipo de medición generalmente asigna la tolerancia de medición, sugiere un intervalo de calibración (IC) y especifica el rango ambiental de uso y almacenamiento. La organización que utiliza el equipo generalmente asigna el intervalo de calibración real, que depende del nivel de uso probable de este equipo de medición específico. La asignación de intervalos de calibración puede ser un proceso formal basado en los resultados de calibraciones anteriores. Las propias normas no son claras sobre los valores de IC recomendados: [7]
El siguiente paso es definir el proceso de calibración. La selección de uno o más estándares es la parte más visible del proceso de calibración. Lo ideal es que el estándar tenga menos de 1/4 de la incertidumbre de medición del dispositivo que se está calibrando. Cuando se cumple este objetivo, la incertidumbre de medición acumulada de todos los estándares involucrados se considera insignificante cuando la medición final también se realiza con la relación 4:1. [10] Esta relación probablemente se formalizó por primera vez en el Manual 52 que acompañaba a MIL-STD-45662A, una de las primeras especificaciones del programa de metrología del Departamento de Defensa de los EE. UU. Fue 10:1 desde su inicio en la década de 1950 hasta la década de 1970, cuando el avance de la tecnología hizo que 10:1 fuera imposible para la mayoría de las mediciones electrónicas. [11]
Mantener una relación de precisión de 4:1 con equipos modernos es difícil. El equipo de prueba que se está calibrando puede ser tan preciso como el estándar de trabajo. [10] Si la relación de precisión es menor de 4:1, entonces se puede reducir la tolerancia de calibración para compensar. Cuando se alcanza 1:1, solo una coincidencia exacta entre el estándar y el dispositivo que se está calibrando es una calibración completamente correcta. Otro método común para lidiar con esta discrepancia de capacidad es reducir la precisión del dispositivo que se está calibrando.
Por ejemplo, un calibre con una precisión del 3 % indicada por el fabricante se puede cambiar a 4 % para que se pueda utilizar un estándar de precisión del 1 % en 4:1. Si el calibre se utiliza en una aplicación que requiere una precisión del 16 %, reducir la precisión del calibre al 4 % no afectará la precisión de las mediciones finales. Esto se denomina calibración limitada. Pero si la medición final requiere una precisión del 10 %, entonces el calibre del 3 % nunca puede ser mejor que 3,3:1. En ese caso, tal vez ajustar la tolerancia de calibración del calibre sería una mejor solución. Si la calibración se realiza a 100 unidades, el estándar del 1 % en realidad estaría entre 99 y 101 unidades. Los valores aceptables de las calibraciones en las que el equipo de prueba está en la proporción 4:1 serían de 96 a 104 unidades, inclusive. Cambiar el rango aceptable a 97 a 103 unidades eliminaría la posible contribución de todos los estándares y preservaría una proporción de 3,3:1. Continuando, un cambio adicional en el rango aceptable de 98 a 102 restablece una relación final de más de 4:1.
Este es un ejemplo simplificado. Las matemáticas del ejemplo pueden ponerse en tela de juicio. Es importante que cualquier razonamiento que haya guiado este proceso en una calibración real quede registrado y sea accesible. La informalidad contribuye a la acumulación de tolerancias y a otros problemas posteriores a la calibración que son difíciles de diagnosticar.
También en el ejemplo anterior, lo ideal sería que el valor de calibración de 100 unidades fuera el mejor punto en el rango del medidor para realizar una calibración de un solo punto. Puede ser la recomendación del fabricante o puede ser la forma en que ya se calibran dispositivos similares. También se utilizan calibraciones de múltiples puntos. Dependiendo del dispositivo, un estado de unidad cero, la ausencia del fenómeno que se está midiendo, también puede ser un punto de calibración. O el usuario puede restablecer el cero; existen varias variaciones posibles. Nuevamente, se deben registrar los puntos que se utilizarán durante la calibración.
Puede haber técnicas de conexión específicas entre el patrón y el dispositivo que se está calibrando que puedan influir en la calibración. Por ejemplo, en calibraciones electrónicas que involucran fenómenos analógicos, la impedancia de las conexiones de los cables puede influir directamente en el resultado.
Los métodos de calibración de los dispositivos modernos pueden ser manuales o automáticos.
Como ejemplo, se puede utilizar un proceso manual para calibrar un manómetro. El procedimiento requiere varios pasos [12] , para conectar el manómetro bajo prueba a un manómetro maestro de referencia y a una fuente de presión ajustable, para aplicar presión de fluido a los manómetros de referencia y de prueba en puntos definidos a lo largo del alcance del manómetro, y para comparar las lecturas de los dos. El manómetro bajo prueba se puede ajustar para asegurar que su punto cero y su respuesta a la presión cumplan lo más fielmente posible con la precisión deseada. Cada paso del proceso requiere un registro manual.
Un calibrador automático de presión [13] es un dispositivo que combina una unidad de control electrónico, un intensificador de presión utilizado para comprimir un gas como el nitrógeno , un transductor de presión utilizado para detectar los niveles deseados en un acumulador hidráulico y accesorios como trampas de líquido y accesorios de medición . Un sistema automático también puede incluir instalaciones de recopilación de datos para automatizar la recopilación de datos para el mantenimiento de registros.
Toda la información anterior se recopila en un procedimiento de calibración, que es un método de prueba específico . Estos procedimientos capturan todos los pasos necesarios para realizar una calibración exitosa. El fabricante puede proporcionar uno o la organización puede preparar uno que también capture todos los demás requisitos de la organización. Existen centros de intercambio de información para los procedimientos de calibración, como el Programa de Intercambio de Datos entre el Gobierno y la Industria (GIDEP) en los Estados Unidos.
Este mismo proceso se repite para cada uno de los estándares utilizados hasta alcanzar los estándares de transferencia, materiales de referencia certificados y/o constantes físicas naturales, los estándares de medición con menor incertidumbre en el laboratorio, lo que establece la trazabilidad de la calibración.
Consulte Metrología para conocer otros factores que se consideran durante el desarrollo del proceso de calibración.
Después de todo esto, los instrumentos individuales del tipo específico mencionado anteriormente pueden finalmente calibrarse. El proceso generalmente comienza con una verificación básica de daños. Algunas organizaciones, como las centrales nucleares, recopilan datos de calibración "tal como se encontraron" antes de realizar cualquier mantenimiento de rutina . Una vez que se solucionan el mantenimiento de rutina y las deficiencias detectadas durante la calibración, se realiza una calibración "tal como se dejó".
Lo más habitual es que un técnico de calibración se encargue de todo el proceso y firme el certificado de calibración, que documenta la finalización de una calibración satisfactoria. El proceso básico descrito anteriormente es un desafío difícil y costoso. El coste del soporte técnico de los equipos habituales suele rondar el 10 % del precio de compra original al año, como regla general aceptada . El mantenimiento de dispositivos exóticos como los microscopios electrónicos de barrido , los sistemas de cromatografía de gases y los dispositivos de interferómetro láser puede resultar incluso más costoso.
El dispositivo de "medición única" utilizado en la descripción del proceso de calibración básica anterior existe. Pero, según la organización, la mayoría de los dispositivos que necesitan calibración pueden tener varios rangos y muchas funcionalidades en un solo instrumento. Un buen ejemplo es un osciloscopio moderno común . Fácilmente podría haber 200.000 combinaciones de configuraciones para calibrar por completo y limitaciones en cuanto a cuánto se puede automatizar una calibración integral.
Para evitar el acceso no autorizado a un instrumento, se suelen aplicar sellos a prueba de manipulaciones después de la calibración. La imagen del soporte del osciloscopio muestra estos sellos y demuestra que el instrumento no se ha quitado desde la última calibración, ya que es posible que no se pueda acceder a los elementos de ajuste del instrumento sin autorización. También hay etiquetas que muestran la fecha de la última calibración y el intervalo de calibración que indica cuándo se necesita la siguiente. Algunas organizaciones también asignan una identificación única a cada instrumento para estandarizar el mantenimiento de registros y realizar un seguimiento de los accesorios que son fundamentales para una condición de calibración específica.
Cuando los instrumentos a calibrar están integrados con ordenadores, los programas informáticos integrados y cualquier corrección de calibración también están bajo control.
Las palabras "calibrar" y "calibración" ingresaron al idioma inglés tan recientemente como la Guerra Civil estadounidense , [14] en descripciones de artillería , y se cree que se derivan de una medición del calibre de un arma.
Algunos de los primeros sistemas conocidos de medición y calibración parecen haber sido creados entre las antiguas civilizaciones de Egipto , Mesopotamia y el valle del Indo , con excavaciones que revelan el uso de gradaciones angulares para la construcción. [15] El término "calibración" probablemente se asoció primero con la división precisa de la distancia lineal y los ángulos utilizando una máquina divisora y la medición de la masa gravitacional utilizando una báscula . Estas dos formas de medición por sí solas y sus derivados directos sustentaron casi todo el desarrollo comercial y tecnológico desde las primeras civilizaciones hasta aproximadamente el año 1800 d. C. [16]
Los primeros instrumentos de medición eran directos , es decir, tenían las mismas unidades que la cantidad que se medía. Algunos ejemplos son la longitud, con una vara de medir, y la masa, con una báscula. A principios del siglo XII, durante el reinado de Enrique I (1100-1135), se decretó que una yarda sería «la distancia desde la punta de la nariz del rey hasta la punta de su pulgar extendido». [17] Sin embargo, no fue hasta el reinado de Ricardo I (1197) que encontramos evidencia documentada. [18]
Siguieron otros intentos de estandarización, como la Carta Magna (1225) para medidas de líquidos, hasta llegar al Mètre des Archives de Francia y el establecimiento del sistema métrico .
Uno de los primeros dispositivos de medición de presión fue el barómetro de mercurio, atribuido a Torricelli (1643), [19] que leía la presión atmosférica utilizando mercurio . Poco después, se diseñaron manómetros llenos de agua . Todos ellos tendrían calibraciones lineales utilizando principios gravimétricos, donde la diferencia de niveles era proporcional a la presión. Las unidades de medida normales serían las convenientes pulgadas de mercurio o agua.
En el diseño del manómetro hidrostático de lectura directa de la derecha, la presión aplicada P a empuja el líquido hacia abajo por el lado derecho del tubo en U del manómetro, mientras que una escala de longitud junto al tubo mide la diferencia de niveles. La diferencia de altura resultante "H" es una medición directa de la presión o el vacío con respecto a la presión atmosférica . En ausencia de presión diferencial, ambos niveles serían iguales y este se usaría como punto cero.
La Revolución Industrial vio la adopción de dispositivos de medición de presión "indirectos", que eran más prácticos que el manómetro. [20] Un ejemplo es el de los motores de vapor de alta presión (hasta 50 psi), donde se usaba mercurio para reducir la longitud de la escala a aproximadamente 60 pulgadas, pero un manómetro de este tipo era caro y propenso a dañarse. [21] Esto estimuló el desarrollo de instrumentos de lectura indirecta, de los cuales el tubo de Bourdon inventado por Eugène Bourdon es un ejemplo notable.
En las vistas frontal y posterior de un manómetro Bourdon a la derecha, la presión aplicada en el accesorio inferior reduce la curvatura del tubo aplanado proporcionalmente a la presión. Esto mueve el extremo libre del tubo que está conectado al puntero. El instrumento se calibraría con un manómetro, que sería el estándar de calibración. Para la medición de cantidades indirectas de presión por unidad de área, la incertidumbre de calibración dependería de la densidad del fluido del manómetro y del medio para medir la diferencia de altura. A partir de esto, se podrían inferir otras unidades, como libras por pulgada cuadrada, y marcarlas en la escala.