En tecnología de medición y metrología , la calibración es la comparación de los valores de medición entregados por un dispositivo bajo prueba con los de un estándar de calibración de precisión conocida. Dicho estándar podría ser otro dispositivo de medición de precisión conocida, un dispositivo que genere la cantidad a medir, como un voltaje , un tono de sonido o un artefacto físico, como una regla métrica .
El resultado de la comparación puede resultar en uno de los siguientes:
Estrictamente hablando, el término "calibración" significa simplemente el acto de comparación y no incluye ningún ajuste posterior.
El patrón de calibración normalmente es trazable a un patrón nacional o internacional en poder de un organismo de metrología.
La definición formal de calibración por la Oficina Internacional de Pesas y Medidas (BIPM) es la siguiente: "Operación que, bajo condiciones específicas, en un primer paso, establece una relación entre los valores de las cantidades con las incertidumbres de medición proporcionadas por los estándares de medición y las indicaciones correspondientes". con incertidumbres de medición asociadas (del instrumento calibrado o estándar secundario) y, en un segundo paso, utiliza esta información para establecer una relación para obtener un resultado de medición a partir de una indicación". [1]
Esta definición establece que el proceso de calibración es puramente una comparación, pero introduce el concepto de incertidumbre de medición al relacionar las precisiones del dispositivo bajo prueba y el estándar.
La creciente necesidad de una precisión e incertidumbre conocidas y la necesidad de contar con estándares consistentes y comparables a nivel internacional ha llevado al establecimiento de laboratorios nacionales. En muchos países existirá un Instituto Nacional de Metrología (NMI) que mantendrá estándares primarios de medición (las principales unidades SI más una serie de unidades derivadas) que se utilizarán para proporcionar trazabilidad a los instrumentos del cliente mediante calibración.
El INM apoya la infraestructura metrológica en ese país (y a menudo en otros) estableciendo una cadena ininterrumpida, desde el nivel más alto de estándares hasta un instrumento utilizado para la medición. Ejemplos de Institutos Nacionales de Metrología son el NPL en el Reino Unido , el NIST en los Estados Unidos , el PTB en Alemania y muchos otros. Desde que se firmó el Acuerdo de Reconocimiento Mutuo, ahora es sencillo obtener la trazabilidad de cualquier INM participante y ya no es necesario que una empresa obtenga la trazabilidad de las mediciones del INM del país en el que está situada, como el Laboratorio Nacional de Física. en el Reino Unido.
Para mejorar la calidad de la calibración y que los resultados sean aceptados por organizaciones externas, es deseable que la calibración y las mediciones posteriores sean "rastreables" a las unidades de medición definidas internacionalmente. El establecimiento de la trazabilidad se logra mediante una comparación formal con un estándar que está directa o indirectamente relacionado con estándares nacionales (como NIST en EE. UU.), estándares internacionales o materiales de referencia certificados . Esto lo pueden hacer laboratorios de normas nacionales operados por el gobierno o empresas privadas que ofrecen servicios de metrología.
Los sistemas de gestión de la calidad exigen un sistema de metrología eficaz que incluya la calibración formal, periódica y documentada de todos los instrumentos de medición. Las normas ISO 9000 [2] e ISO 17025 [3] exigen que estas acciones trazables sean de alto nivel y establecen cómo pueden cuantificarse.
Para comunicar la calidad de una calibración, el valor de calibración suele ir acompañado de una declaración de incertidumbre rastreable hasta un nivel de confianza establecido. Esto se evalúa mediante un cuidadoso análisis de incertidumbre. Algunas veces se requiere un DFS (Departure From Spec) para operar maquinaria en estado degradado. Siempre que esto suceda, deberá ser por escrito y autorizado por un gerente con la asistencia técnica de un técnico de calibración.
Los dispositivos e instrumentos de medición se clasifican según las cantidades físicas para las que están diseñados. Estos varían a nivel internacional, por ejemplo, NIST 150-2G en EE. UU. [4] y NABL -141 en India. [5] En conjunto, estas normas cubren instrumentos que miden diversas cantidades físicas como la radiación electromagnética ( sondas de RF ), el sonido ( sonómetro o dosímetro de ruido ), el tiempo y la frecuencia ( intervalometro ), la radiación ionizante ( contador Geiger ), la luz ( medidor de luz ). medidor ), magnitudes mecánicas ( final de carrera , manómetro , presostato ) y propiedades termodinámicas o térmicas ( termómetro , controlador de temperatura ). El instrumento estándar para cada dispositivo de prueba varía en consecuencia, por ejemplo, un probador de peso muerto para la calibración de manómetros y un probador de temperatura de bloque seco para la calibración de manómetros.
La calibración puede ser necesaria por los siguientes motivos:
En el uso general, a menudo se considera que la calibración incluye el proceso de ajustar la salida o indicación de un instrumento de medición para que coincida con el valor del estándar aplicado, dentro de una precisión especificada. Por ejemplo, un termómetro podría calibrarse para determinar el error de indicación o la corrección y ajustarse (por ejemplo, mediante constantes de calibración ) para que muestre la temperatura real en grados Celsius en puntos específicos de la escala. Ésta es la percepción del usuario final del instrumento. Sin embargo, muy pocos instrumentos pueden ajustarse para que coincidan exactamente con los estándares con los que se comparan. Para la gran mayoría de las calibraciones, el proceso de calibración es en realidad la comparación de una incógnita con una conocida y el registro de los resultados.
El proceso de calibración comienza con el diseño del instrumento de medición que necesita ser calibrado. El diseño debe poder "mantener una calibración" durante su intervalo de calibración. En otras palabras, el diseño tiene que ser capaz de realizar mediciones que estén "dentro de la tolerancia de ingeniería " cuando se utiliza dentro de las condiciones ambientales establecidas durante un período de tiempo razonable. [6] Tener un diseño con estas características aumenta la probabilidad de que los instrumentos de medición reales funcionen como se espera. Básicamente, el propósito de la calibración es mantener la calidad de la medición y garantizar el funcionamiento adecuado de un instrumento en particular.
El mecanismo exacto para asignar valores de tolerancia varía según el país y el tipo de industria. El fabricante de equipos de medición generalmente asigna la tolerancia de medición, sugiere un intervalo de calibración (CI) y especifica el rango ambiental de uso y almacenamiento. La organización usuaria generalmente asigna el intervalo de calibración real, que depende del nivel de uso probable de este equipo de medición específico. La asignación de intervalos de calibración puede ser un proceso formal basado en los resultados de calibraciones anteriores. Los estándares en sí no son claros sobre los valores de CI recomendados: [7]
El siguiente paso es definir el proceso de calibración. La selección de un estándar o estándares es la parte más visible del proceso de calibración. Idealmente, el estándar tiene menos de 1/4 de la incertidumbre de medición del dispositivo que se está calibrando. Cuando se cumple este objetivo, la incertidumbre de medición acumulada de todos los estándares involucrados se considera insignificante cuando la medición final también se realiza con la relación 4:1. [10] Esta relación probablemente se formalizó por primera vez en el Manual 52 que acompañaba a MIL-STD-45662A, una de las primeras especificaciones del programa de metrología del Departamento de Defensa de EE. UU. Fue 10:1 desde sus inicios en la década de 1950 hasta la década de 1970, cuando los avances tecnológicos hicieron imposible el 10:1 para la mayoría de las mediciones electrónicas. [11]
Es difícil mantener una relación de precisión de 4:1 con equipos modernos. El equipo de prueba que se está calibrando puede ser tan preciso como el estándar de trabajo. [10] Si la relación de precisión es inferior a 4:1, entonces la tolerancia de calibración se puede reducir para compensar. Cuando se alcanza 1:1, sólo una coincidencia exacta entre el estándar y el dispositivo que se está calibrando es una calibración completamente correcta. Otro método común para solucionar este desajuste de capacidades es reducir la precisión del dispositivo que se está calibrando.
Por ejemplo, un medidor con una precisión del 3% indicada por el fabricante se puede cambiar al 4% para que se pueda utilizar un estándar de precisión del 1% en 4:1. Si el medidor se utiliza en una aplicación que requiere una precisión del 16 %, reducir la precisión del medidor al 4 % no afectará la precisión de las mediciones finales. Esto se llama calibración limitada. Pero si la medición final requiere una precisión del 10%, entonces el calibre del 3% nunca podrá ser mejor que 3,3:1. Entonces quizás ajustar la tolerancia de calibración del medidor sería una mejor solución. Si la calibración se realiza a 100 unidades, el estándar del 1% en realidad estaría entre 99 y 101 unidades. Los valores aceptables de calibraciones donde el equipo de prueba está en una proporción de 4:1 serían de 96 a 104 unidades, inclusive. Cambiar el rango aceptable de 97 a 103 unidades eliminaría la contribución potencial de todos los estándares y preservaría una proporción de 3,3:1. Continuando, un cambio adicional al rango aceptable de 98 a 102 restablece una proporción final de más de 4:1.
Este es un ejemplo simplificado. Las matemáticas del ejemplo pueden cuestionarse. Es importante que cualquier pensamiento que guió este proceso en una calibración real quede registrado y sea accesible. La informalidad contribuye a acumulaciones de tolerancia y otros problemas posteriores a la calibración difíciles de diagnosticar.
También en el ejemplo anterior, idealmente el valor de calibración de 100 unidades sería el mejor punto en el rango del medidor para realizar una calibración de un solo punto. Puede ser la recomendación del fabricante o puede ser la forma en que ya se están calibrando dispositivos similares. También se utilizan calibraciones de múltiples puntos. Dependiendo del dispositivo, un estado de unidad cero, la ausencia del fenómeno que se está midiendo, también puede ser un punto de calibración. O el usuario puede restablecer el cero; existen varias variaciones posibles. Nuevamente, se deben registrar los puntos a utilizar durante la calibración.
Puede haber técnicas de conexión específicas entre el estándar y el dispositivo que se está calibrando que pueden influir en la calibración. Por ejemplo, en calibraciones electrónicas que involucran fenómenos analógicos, la impedancia de las conexiones de los cables puede influir directamente en el resultado.
Los métodos de calibración de dispositivos modernos pueden ser manuales o automáticos.
Como ejemplo, se puede utilizar un proceso manual para calibrar un manómetro. El procedimiento requiere múltiples pasos, [12] para conectar el manómetro bajo prueba a un manómetro maestro de referencia y a una fuente de presión ajustable, para aplicar presión de fluido tanto a los manómetros de referencia como a los de prueba en puntos definidos a lo largo del alcance del manómetro, y para comparar el lecturas de los dos. El manómetro bajo prueba se puede ajustar para garantizar que su punto cero y su respuesta a la presión cumplan lo más fielmente posible con la precisión prevista. Cada paso del proceso requiere el mantenimiento de registros manuales.
Un calibrador de presión automático [13] es un dispositivo que combina una unidad de control electrónico, un intensificador de presión utilizado para comprimir un gas como el nitrógeno , un transductor de presión utilizado para detectar los niveles deseados en un acumulador hidráulico y accesorios como trampas de líquido y manómetro. accesorios . Un sistema automático también puede incluir instalaciones de recopilación de datos para automatizar la recopilación de datos para el mantenimiento de registros.
Toda la información anterior se recopila en un procedimiento de calibración, que es un método de prueba específico . Estos procedimientos capturan todos los pasos necesarios para realizar una calibración exitosa. El fabricante puede proporcionar uno o la organización puede preparar uno que también capture todos los demás requisitos de la organización. Existen cámaras de compensación para procedimientos de calibración como el Programa de Intercambio de Datos Gobierno-Industria (GIDEP) en los Estados Unidos.
Este proceso exacto se repite para cada uno de los estándares utilizados hasta alcanzar estándares de transferencia, materiales de referencia certificados y/o constantes físicas naturales, los estándares de medición con menor incertidumbre en el laboratorio. Esto establece la trazabilidad de la calibración.
Consulte Metrología para conocer otros factores que se consideran durante el desarrollo del proceso de calibración.
Después de todo esto, finalmente se pueden calibrar instrumentos individuales del tipo específico mencionado anteriormente. El proceso generalmente comienza con una verificación básica de daños. Algunas organizaciones, como las centrales nucleares, recopilan datos de calibración "tal como se encontraron" antes de realizar cualquier mantenimiento de rutina . Después de abordar el mantenimiento de rutina y las deficiencias detectadas durante la calibración, se realiza una calibración "como se dejó".
Más comúnmente, a un técnico de calibración se le confía todo el proceso y firma el certificado de calibración, que documenta la finalización de una calibración exitosa. El proceso básico descrito anteriormente es un desafío difícil y costoso. El costo del soporte del equipo ordinario es generalmente de aproximadamente el 10 % del precio de compra original anual, como regla general comúnmente aceptada . Los dispositivos exóticos como los microscopios electrónicos de barrido , los sistemas de cromatografía de gases y los interferómetros láser pueden ser incluso más costosos de mantener.
El dispositivo de 'medición única' utilizado en la descripción del proceso de calibración básica anterior sí existe. Pero, dependiendo de la organización, la mayoría de los dispositivos que necesitan calibración pueden tener varios rangos y muchas funcionalidades en un solo instrumento. Un buen ejemplo es un osciloscopio moderno común . Fácilmente podría haber 200.000 combinaciones de configuraciones para calibrar completamente y limitaciones sobre la cantidad de calibración que se puede automatizar.
Para evitar el acceso no autorizado a un instrumento, generalmente se aplican sellos a prueba de manipulaciones después de la calibración. La imagen del bastidor del osciloscopio los muestra y demuestra que el instrumento no ha sido retirado desde la última vez que se calibró, ya que es posible que no puedan acceder a los elementos de ajuste del instrumento. También hay etiquetas que muestran la fecha de la última calibración y cuándo el intervalo de calibración dicta cuándo se necesita la siguiente. Algunas organizaciones también asignan una identificación única a cada instrumento para estandarizar el mantenimiento de registros y realizar un seguimiento de los accesorios que son parte integral de una condición de calibración específica.
Cuando los instrumentos que se están calibrando se integran con computadoras, los programas informáticos integrados y cualquier corrección de calibración también están bajo control.
Las palabras "calibrar" y "calibración" entraron en el idioma inglés tan recientemente como en la Guerra Civil estadounidense , [14] en descripciones de artillería , que se cree que se derivan de una medida del calibre de un arma.
Algunos de los primeros sistemas conocidos de medición y calibración parecen haber sido creados entre las antiguas civilizaciones de Egipto , Mesopotamia y el valle del Indo , y las excavaciones revelan el uso de gradaciones angulares para la construcción. [15] El término "calibración" probablemente se asoció por primera vez con la división precisa de distancias lineales y ángulos usando un motor divisor y la medición de la masa gravitacional usando una balanza . Estas dos formas de medición por sí solas y sus derivados directos sustentaron casi todo el desarrollo del comercio y la tecnología desde las primeras civilizaciones hasta aproximadamente el año 1800 d.C.
Los primeros dispositivos de medición eran directos , es decir, tenían las mismas unidades que la cantidad que se estaba midiendo. Los ejemplos incluyen la longitud usando una vara de medir y la masa usando una báscula. A principios del siglo XII, durante el reinado de Enrique I (1100-1135), se decretó que una yarda era "la distancia desde la punta de la nariz del rey hasta la punta de su pulgar extendido". [17] Sin embargo, no fue hasta el reinado de Ricardo I (1197) que encontramos evidencia documentada. [18]
Siguieron otros intentos de estandarización, como la Carta Magna (1225) para medidas líquidas, hasta el Mètre des Archives de Francia y el establecimiento del sistema métrico .
Uno de los primeros dispositivos de medición de presión fue el barómetro de Mercurio, atribuido a Torricelli (1643), [19] que leía la presión atmosférica utilizando Mercurio . Poco después se diseñaron manómetros llenos de agua. Todos estos tendrían calibraciones lineales utilizando principios gravimétricos, donde la diferencia de niveles era proporcional a la presión. Las unidades de medida normales serían las convenientes pulgadas de mercurio o agua.
En el diseño del manómetro hidrostático de lectura directa de la derecha, la presión aplicada Pa empuja el líquido hacia abajo por el lado derecho del tubo en U del manómetro, mientras que una escala de longitud al lado del tubo mide la diferencia de niveles. La diferencia de altura resultante "H" es una medida directa de la presión o vacío con respecto a la presión atmosférica . En ausencia de presión diferencial, ambos niveles serían iguales y este se utilizaría como punto cero.
La Revolución Industrial vio la adopción de dispositivos de medición de presión "indirectos", que eran más prácticos que el manómetro. [20] Un ejemplo son las máquinas de vapor de alta presión (hasta 50 psi), donde se usaba mercurio para reducir la longitud de la escala a aproximadamente 60 pulgadas, pero dicho manómetro era costoso y propenso a dañarse. [21] Esto estimuló el desarrollo de instrumentos de lectura indirecta, de los cuales el tubo de Bourdon inventado por Eugène Bourdon es un ejemplo notable.
En las vistas frontal y posterior de un manómetro Bourdon a la derecha, la presión aplicada en el accesorio inferior reduce la curvatura del tubo aplanado proporcionalmente a la presión. Esto mueve el extremo libre del tubo que está vinculado al puntero. El instrumento se calibraría con un manómetro, que sería el estándar de calibración. Para la medición de cantidades indirectas de presión por unidad de área, la incertidumbre de calibración dependería de la densidad del fluido manómetro y de los medios para medir la diferencia de altura. A partir de esto se podrían inferir y marcar en la escala otras unidades, como libras por pulgada cuadrada.