stringtranslate.com

Calibración

En tecnología de medición y metrología , la calibración es la comparación de los valores de medición entregados por un dispositivo bajo prueba con los de un estándar de calibración de precisión conocida. Dicho estándar podría ser otro dispositivo de medición de precisión conocida, un dispositivo que genere la cantidad a medir, como un voltaje , un tono de sonido o un artefacto físico, como una regla métrica .

El resultado de la comparación puede resultar en uno de los siguientes:

Estrictamente hablando, el término "calibración" significa simplemente el acto de comparación y no incluye ningún ajuste posterior.

El patrón de calibración normalmente es trazable a un patrón nacional o internacional en poder de un organismo de metrología.

Definición de BIPM

La definición formal de calibración por la Oficina Internacional de Pesas y Medidas (BIPM) es la siguiente: "Operación que, bajo condiciones específicas, en un primer paso, establece una relación entre los valores de las cantidades con las incertidumbres de medición proporcionadas por los estándares de medición y las indicaciones correspondientes". con incertidumbres de medición asociadas (del instrumento calibrado o estándar secundario) y, en un segundo paso, utiliza esta información para establecer una relación para obtener un resultado de medición a partir de una indicación". [1]

Esta definición establece que el proceso de calibración es puramente una comparación, pero introduce el concepto de incertidumbre de medición al relacionar las precisiones del dispositivo bajo prueba y el estándar.

Procesos de calibración modernos

La creciente necesidad de una precisión e incertidumbre conocidas y la necesidad de contar con estándares consistentes y comparables a nivel internacional ha llevado al establecimiento de laboratorios nacionales. En muchos países existirá un Instituto Nacional de Metrología (NMI) que mantendrá estándares primarios de medición (las principales unidades SI más una serie de unidades derivadas) que se utilizarán para proporcionar trazabilidad a los instrumentos del cliente mediante calibración.

El INM apoya la infraestructura metrológica en ese país (y a menudo en otros) estableciendo una cadena ininterrumpida, desde el nivel más alto de estándares hasta un instrumento utilizado para la medición. Ejemplos de Institutos Nacionales de Metrología son el NPL en el Reino Unido , el NIST en los Estados Unidos , el PTB en Alemania y muchos otros. Desde que se firmó el Acuerdo de Reconocimiento Mutuo, ahora es sencillo obtener la trazabilidad de cualquier INM participante y ya no es necesario que una empresa obtenga la trazabilidad de las mediciones del INM del país en el que está situada, como el Laboratorio Nacional de Física. en el Reino Unido.

Calidad de calibración

Para mejorar la calidad de la calibración y que los resultados sean aceptados por organizaciones externas, es deseable que la calibración y las mediciones posteriores sean "rastreables" a las unidades de medición definidas internacionalmente. El establecimiento de la trazabilidad se logra mediante una comparación formal con un estándar que está directa o indirectamente relacionado con estándares nacionales (como NIST en EE. UU.), estándares internacionales o materiales de referencia certificados . Esto lo pueden hacer laboratorios de normas nacionales operados por el gobierno o empresas privadas que ofrecen servicios de metrología.

Los sistemas de gestión de la calidad exigen un sistema de metrología eficaz que incluya la calibración formal, periódica y documentada de todos los instrumentos de medición. Las normas ISO 9000 [2] e ISO 17025 [3] exigen que estas acciones rastreables sean de alto nivel y establecen cómo pueden cuantificarse.

Para comunicar la calidad de una calibración, el valor de calibración suele ir acompañado de una declaración de incertidumbre rastreable hasta un nivel de confianza establecido. Esto se evalúa mediante un cuidadoso análisis de incertidumbre. Algunas veces se requiere un DFS (Departure From Spec) para operar maquinaria en estado degradado. Siempre que esto suceda, deberá ser por escrito y autorizado por un gerente con la asistencia técnica de un técnico de calibración.

Los dispositivos e instrumentos de medición se clasifican según las cantidades físicas para las que están diseñados. Estos varían a nivel internacional, por ejemplo, NIST 150-2G en EE. UU. [4] y NABL -141 en India. [5] En conjunto, estas normas cubren instrumentos que miden diversas cantidades físicas como la radiación electromagnética ( sondas de RF ), el sonido ( sonómetro o dosímetro de ruido ), el tiempo y la frecuencia ( intervalometro ), la radiación ionizante ( contador Geiger ), la luz ( medidor de luz ). medidor ), magnitudes mecánicas ( final de carrera , manómetro , presostato ) y propiedades termodinámicas o térmicas ( termómetro , controlador de temperatura ). El instrumento estándar para cada dispositivo de prueba varía en consecuencia, por ejemplo, un probador de peso muerto para la calibración de manómetros y un probador de temperatura de bloque seco para la calibración de manómetros.

Avisos de calibración del instrumento

La calibración puede ser necesaria por los siguientes motivos:

En el uso general, a menudo se considera que la calibración incluye el proceso de ajustar la salida o indicación de un instrumento de medición para que coincida con el valor del estándar aplicado, dentro de una precisión especificada. Por ejemplo, un termómetro podría calibrarse para determinar el error de indicación o la corrección y ajustarse (por ejemplo, mediante constantes de calibración ) para que muestre la temperatura real en grados Celsius en puntos específicos de la escala. Ésta es la percepción del usuario final del instrumento. Sin embargo, muy pocos instrumentos pueden ajustarse para que coincidan exactamente con los estándares con los que se comparan. Para la gran mayoría de las calibraciones, el proceso de calibración es en realidad la comparación de una incógnita con una conocida y el registro de los resultados.

Proceso de calibración básico

Propósito y alcance

El proceso de calibración comienza con el diseño del instrumento de medición que necesita ser calibrado. El diseño debe poder "mantener una calibración" durante su intervalo de calibración. En otras palabras, el diseño tiene que ser capaz de realizar mediciones que estén "dentro de la tolerancia de ingeniería " cuando se utiliza dentro de las condiciones ambientales establecidas durante un período de tiempo razonable. [6] Tener un diseño con estas características aumenta la probabilidad de que los instrumentos de medición reales funcionen como se espera. Básicamente, el propósito de la calibración es mantener la calidad de la medición y garantizar el funcionamiento adecuado de un instrumento en particular.

Frecuencia

El mecanismo exacto para asignar valores de tolerancia varía según el país y el tipo de industria. El fabricante de equipos de medición generalmente asigna la tolerancia de medición, sugiere un intervalo de calibración (CI) y especifica el rango ambiental de uso y almacenamiento. La organización usuaria generalmente asigna el intervalo de calibración real, que depende del nivel de uso probable de este equipo de medición específico. La asignación de intervalos de calibración puede ser un proceso formal basado en los resultados de calibraciones anteriores. Los estándares en sí no son claros sobre los valores de CI recomendados: [7]

ISO 17025 [3]
"Un certificado de calibración (o etiqueta de calibración) no deberá contener ninguna recomendación sobre el intervalo de calibración excepto cuando así se haya acordado con el cliente. Este requisito puede ser reemplazado por regulaciones legales."
ANSI/NCSL Z540 [8]
"...se calibrará o verificará a intervalos periódicos establecidos y mantenidos para asegurar una confiabilidad aceptable..."
ISO-9001 [2]
"Cuando sea necesario para garantizar resultados válidos, el equipo de medición deberá... calibrarse o verificarse a intervalos específicos, o antes de su uso..."
MIL-STD-45662A [9]
"... se calibrarán a intervalos periódicos establecidos y mantenidos para asegurar una precisión y confiabilidad aceptables... El contratista deberá acortar o alargar los intervalos, cuando los resultados de calibraciones anteriores indiquen que dicha acción es apropiada para mantener niveles aceptables. fiabilidad."

Estándares requeridos y precisión.

El siguiente paso es definir el proceso de calibración. La selección de un estándar o estándares es la parte más visible del proceso de calibración. Idealmente, el estándar tiene menos de 1/4 de la incertidumbre de medición del dispositivo que se está calibrando. Cuando se cumple este objetivo, la incertidumbre de medición acumulada de todos los estándares involucrados se considera insignificante cuando la medición final también se realiza con la relación 4:1. [10] Esta relación probablemente se formalizó por primera vez en el Manual 52 que acompañaba a MIL-STD-45662A, una de las primeras especificaciones del programa de metrología del Departamento de Defensa de EE. UU. Fue 10:1 desde sus inicios en la década de 1950 hasta la década de 1970, cuando los avances tecnológicos hicieron imposible el 10:1 para la mayoría de las mediciones electrónicas. [11]

Es difícil mantener una relación de precisión de 4:1 con equipos modernos. El equipo de prueba que se está calibrando puede ser tan preciso como el estándar de trabajo. [10] Si la relación de precisión es inferior a 4:1, entonces la tolerancia de calibración se puede reducir para compensar. Cuando se alcanza 1:1, sólo una coincidencia exacta entre el estándar y el dispositivo que se está calibrando es una calibración completamente correcta. Otro método común para solucionar este desajuste de capacidades es reducir la precisión del dispositivo que se está calibrando.

Por ejemplo, un medidor con una precisión del 3% indicada por el fabricante se puede cambiar al 4% para que se pueda utilizar un estándar de precisión del 1% en 4:1. Si el medidor se utiliza en una aplicación que requiere una precisión del 16 %, reducir la precisión del medidor al 4 % no afectará la precisión de las mediciones finales. Esto se llama calibración limitada. Pero si la medición final requiere una precisión del 10%, entonces el indicador del 3% nunca podrá ser mejor que 3,3:1. Entonces quizás ajustar la tolerancia de calibración del medidor sería una mejor solución. Si la calibración se realiza a 100 unidades, el estándar del 1% en realidad estaría entre 99 y 101 unidades. Los valores aceptables de calibraciones donde el equipo de prueba está en una proporción de 4:1 serían de 96 a 104 unidades, inclusive. Cambiar el rango aceptable de 97 a 103 unidades eliminaría la contribución potencial de todos los estándares y preservaría una proporción de 3,3:1. Continuando, un cambio adicional al rango aceptable de 98 a 102 restablece una proporción final de más de 4:1.

Este es un ejemplo simplificado. Las matemáticas del ejemplo pueden cuestionarse. Es importante que cualquier pensamiento que guió este proceso en una calibración real quede registrado y sea accesible. La informalidad contribuye a acumulaciones de tolerancia y otros problemas posteriores a la calibración difíciles de diagnosticar.

También en el ejemplo anterior, idealmente el valor de calibración de 100 unidades sería el mejor punto en el rango del medidor para realizar una calibración de un solo punto. Puede ser la recomendación del fabricante o puede ser la forma en que ya se están calibrando dispositivos similares. También se utilizan calibraciones de múltiples puntos. Dependiendo del dispositivo, un estado de unidad cero, la ausencia del fenómeno que se está midiendo, también puede ser un punto de calibración. O el usuario puede restablecer el cero; existen varias variaciones posibles. Nuevamente, se deben registrar los puntos a utilizar durante la calibración.

Puede haber técnicas de conexión específicas entre el estándar y el dispositivo que se está calibrando que pueden influir en la calibración. Por ejemplo, en calibraciones electrónicas que involucran fenómenos analógicos, la impedancia de las conexiones de los cables puede influir directamente en el resultado.

Calibraciones manuales y automáticas.

Los métodos de calibración de dispositivos modernos pueden ser manuales o automáticos.

Calibración manual: militar estadounidense calibrando un manómetro. El dispositivo bajo prueba está a su izquierda y el estándar de prueba a su derecha.

Como ejemplo, se puede utilizar un proceso manual para calibrar un manómetro. El procedimiento requiere múltiples pasos, [12] para conectar el manómetro bajo prueba a un manómetro maestro de referencia y a una fuente de presión ajustable, para aplicar presión de fluido tanto a los manómetros de referencia como a los de prueba en puntos definidos a lo largo del alcance del manómetro, y para comparar el lecturas de los dos. El manómetro bajo prueba se puede ajustar para garantizar que su punto cero y su respuesta a la presión cumplan lo más fielmente posible con la precisión prevista. Cada paso del proceso requiere el mantenimiento de registros manuales.

Calibración automática: un militar estadounidense que utiliza un calibrador de presión automático 3666C

Un calibrador de presión automático [13] es un dispositivo que combina una unidad de control electrónico, un intensificador de presión utilizado para comprimir un gas como el nitrógeno , un transductor de presión utilizado para detectar los niveles deseados en un acumulador hidráulico y accesorios como trampas de líquido y manómetro. accesorios . Un sistema automático también puede incluir instalaciones de recopilación de datos para automatizar la recopilación de datos para el mantenimiento de registros.

Descripción y documentación del proceso.

Toda la información anterior se recopila en un procedimiento de calibración, que es un método de prueba específico . Estos procedimientos capturan todos los pasos necesarios para realizar una calibración exitosa. El fabricante puede proporcionar uno o la organización puede preparar uno que también capture todos los demás requisitos de la organización. Existen cámaras de compensación para procedimientos de calibración como el Programa de Intercambio de Datos Gobierno-Industria (GIDEP) en los Estados Unidos.

Este proceso exacto se repite para cada uno de los estándares utilizados hasta alcanzar estándares de transferencia, materiales de referencia certificados y/o constantes físicas naturales, los estándares de medición con menor incertidumbre en el laboratorio. Esto establece la trazabilidad de la calibración.

Consulte Metrología para conocer otros factores que se consideran durante el desarrollo del proceso de calibración.

Después de todo esto, finalmente se pueden calibrar instrumentos individuales del tipo específico mencionado anteriormente. El proceso generalmente comienza con una verificación básica de daños. Algunas organizaciones, como las centrales nucleares, recopilan datos de calibración "tal como se encontraron" antes de realizar cualquier mantenimiento de rutina . Después de abordar el mantenimiento de rutina y las deficiencias detectadas durante la calibración, se realiza una calibración "como se dejó".

Más comúnmente, a un técnico de calibración se le confía todo el proceso y firma el certificado de calibración, que documenta la finalización de una calibración exitosa. El proceso básico descrito anteriormente es un desafío difícil y costoso. El costo del soporte del equipo ordinario es generalmente de aproximadamente el 10 % del precio de compra original anual, como regla general comúnmente aceptada . Los dispositivos exóticos como los microscopios electrónicos de barrido , los sistemas de cromatografía de gases y los interferómetros láser pueden ser incluso más costosos de mantener.

El dispositivo de 'medición única' utilizado en la descripción del proceso de calibración básica anterior sí existe. Pero, dependiendo de la organización, la mayoría de los dispositivos que necesitan calibración pueden tener varios rangos y muchas funcionalidades en un solo instrumento. Un buen ejemplo es un osciloscopio moderno común . Fácilmente podría haber 200.000 combinaciones de configuraciones para calibrar completamente y limitaciones sobre la cantidad de calibración que se puede automatizar.

Un estante para instrumentos con sellos indicadores de manipulación.

Para evitar el acceso no autorizado a un instrumento, generalmente se aplican sellos a prueba de manipulaciones después de la calibración. La imagen del bastidor del osciloscopio los muestra y demuestra que el instrumento no ha sido retirado desde la última vez que se calibró, ya que es posible que no puedan acceder a los elementos de ajuste del instrumento. También hay etiquetas que muestran la fecha de la última calibración y cuándo el intervalo de calibración dicta cuándo se necesita la siguiente. Algunas organizaciones también asignan una identificación única a cada instrumento para estandarizar el mantenimiento de registros y realizar un seguimiento de los accesorios que son parte integral de una condición de calibración específica.

Cuando los instrumentos que se están calibrando se integran con computadoras, los programas informáticos integrados y cualquier corrección de calibración también están bajo control.

Desarrollo historico

Orígenes

Las palabras "calibrar" y "calibración" entraron en el idioma inglés tan recientemente como en la Guerra Civil estadounidense , [14] en descripciones de artillería , que se cree que se derivan de una medida del calibre de un arma.

Algunos de los primeros sistemas conocidos de medición y calibración parecen haber sido creados entre las antiguas civilizaciones de Egipto , Mesopotamia y el valle del Indo , y las excavaciones revelan el uso de gradaciones angulares para la construcción. [15] El término "calibración" probablemente se asoció por primera vez con la división precisa de distancias lineales y ángulos usando un motor divisor y la medición de la masa gravitacional usando una balanza . Estas dos formas de medición por sí solas y sus derivados directos sustentaron casi todo el desarrollo del comercio y la tecnología desde las primeras civilizaciones hasta aproximadamente el año 1800 d.C.

Calibración de pesos y distancias ( c.  1100 CE )

Un ejemplo de báscula con un error de calibración de ½ onza en cero. Se trata de un "error de puesta a cero" que está inherentemente indicado y que normalmente el usuario puede ajustar, pero en este caso puede deberse a la cuerda y la banda elástica.

Los primeros dispositivos de medición eran directos , es decir, tenían las mismas unidades que la cantidad que se estaba midiendo. Los ejemplos incluyen la longitud usando una vara de medir y la masa usando una báscula. A principios del siglo XII, durante el reinado de Enrique I (1100-1135), se decretó que una yarda era "la distancia desde la punta de la nariz del rey hasta la punta de su pulgar extendido". [17] Sin embargo, no fue hasta el reinado de Ricardo I (1197) que encontramos evidencia documentada. [18]

Tamaño de las medidas
"En todo el reino habrá el mismo patio del mismo tamaño y deberá ser de hierro".

Siguieron otros intentos de estandarización, como la Carta Magna (1225) para medidas líquidas, hasta el Mètre des Archives de Francia y el establecimiento del sistema métrico .

La calibración temprana de instrumentos de presión.

Diseño de lectura directa de un manómetro de tubo en U.

Uno de los primeros dispositivos de medición de presión fue el barómetro de Mercurio, atribuido a Torricelli (1643), [19] que leía la presión atmosférica utilizando Mercurio . Poco después se diseñaron manómetros llenos de agua. Todos estos tendrían calibraciones lineales utilizando principios gravimétricos, donde la diferencia de niveles era proporcional a la presión. Las unidades de medida normales serían las convenientes pulgadas de mercurio o agua.

En el diseño del manómetro hidrostático de lectura directa de la derecha, la presión aplicada Pa empuja el líquido hacia abajo por el lado derecho del tubo en U del manómetro, mientras que una escala de longitud al lado del tubo mide la diferencia de niveles. La diferencia de altura resultante "H" es una medida directa de la presión o vacío con respecto a la presión atmosférica . En ausencia de presión diferencial, ambos niveles serían iguales y este se utilizaría como punto cero.

La Revolución Industrial vio la adopción de dispositivos de medición de presión "indirectos", que eran más prácticos que el manómetro. [20] Un ejemplo son las máquinas de vapor de alta presión (hasta 50 psi), donde se usaba mercurio para reducir la longitud de la escala a aproximadamente 60 pulgadas, pero dicho manómetro era costoso y propenso a dañarse. [21] Esto estimuló el desarrollo de instrumentos de lectura indirecta, de los cuales el tubo de Bourdon inventado por Eugène Bourdon es un ejemplo notable.

Diseño de lectura indirecta que muestra un tubo Bourdon desde la parte delantera (izquierda) y la trasera (derecha).

En las vistas frontal y posterior de un manómetro Bourdon a la derecha, la presión aplicada en el accesorio inferior reduce la curvatura del tubo aplanado proporcionalmente a la presión. Esto mueve el extremo libre del tubo que está vinculado al puntero. El instrumento se calibraría con un manómetro, que sería el estándar de calibración. Para la medición de cantidades indirectas de presión por unidad de área, la incertidumbre de calibración dependería de la densidad del fluido manómetro y de los medios para medir la diferencia de altura. A partir de esto se podrían inferir y marcar en la escala otras unidades, como libras por pulgada cuadrada.

Ver también

Referencias

  1. ^ JCGM 200:2008 Vocabulario internacional de metrología Archivado el 31 de octubre de 2019 en Wayback Machine - Conceptos básicos y generales y términos asociados (VIM)
  2. ^ ab ISO 9001: "Sistemas de gestión de la calidad - Requisitos" (2008), sección 7.6.
  3. ^ ab ISO 17025: "Requisitos generales para la competencia de los laboratorios de ensayo y calibración" (2005), sección 5.
  4. ^ Faison, C. Douglas; Brickenkamp, ​​Carroll S. (marzo de 2004). «Laboratorios de Calibración: Guía Técnica de Medidas Mecánicas» (PDF) . Manual NIST 150-2G . NIST . Consultado el 14 de junio de 2015 .
  5. ^ "Medición y calibración de metrología, presión, térmica y electrotécnica". Instituto de Investigación sobre Control de Fluidos (FCRI), Ministerio de Industrias Pesadas y Empresas Públicas, Gobierno. de la India. Archivado desde el original el 14 de junio de 2015 . Consultado el 14 de junio de 2015 .
  6. ^ Haider, Syed Imtiaz; Asif, Syed Erfan (16 de febrero de 2011). Manual de Capacitación en Control de Calidad: Guía de Capacitación Integral para Laboratorios de API, Productos Farmacéuticos y Biotecnologías Terminados. Prensa CRC. pag. 49.ISBN _ 978-1-4398-4994-1.
  7. ^ Desnudo, Allen (2006). Análisis de intervalos de calibración simplificado (PDF) . Aiken, SC: Taller y Simposio Internacional NCSL, bajo contrato con la Oficina de Información Científica y Técnica, Departamento de Energía de EE. UU. págs. 1–2. Archivado (PDF) desde el original el 18 de abril de 2007 . Consultado el 28 de noviembre de 2014 .
  8. ^ "ANSI/NCSL Z540.3-2006 (R2013)". La Conferencia Nacional de Laboratorios de Normas (NCSL) Internacional. Archivado desde el original el 20 de noviembre de 2014 . Consultado el 28 de noviembre de 2014 .
  9. ^ "Requisitos de los sistemas de calibración (estándar militar)" (PDF) . Washington, DC: Departamento de Defensa de Estados Unidos. 1 de agosto de 1998. Archivado desde el original (PDF) el 30 de octubre de 2005 . Consultado el 28 de noviembre de 2014 .
  10. ^ ab Ligowski, M.; Jabloński, Ryszard; Tabe, M. (2011), Jabłoński, Ryszard; Březina, Tomaš (eds.), Procedimiento para calibrar el microscopio de fuerza con sonda Kelvin , Mecatrónica: avances científicos y tecnológicos recientes, p. 227, doi :10.1007/978-3-642-23244-2, ISBN 978-3-642-23244-2, LCCN  2011935381
  11. ^ Manual militar: Evaluación del sistema de calibración del contratista (PDF) . Departamento de Defensa de Estados Unidos. 17 de agosto de 1984. pág. 7. Archivado (PDF) desde el original el 4 de diciembre de 2014 . Consultado el 28 de noviembre de 2014 .
  12. ^ Procedimiento de calibración de manómetros (USBR 1040) (PDF) . Departamento del Interior de EE. UU., Oficina de Reclamación. págs. 70–73. Archivado (PDF) desde el original el 12 de mayo de 2013 . Consultado el 28 de noviembre de 2014 .
  13. ^ "Sistema automático de calibración de presión KNC modelo 3666" (PDF) . Corporación King Nutronics. Archivado desde el original (PDF) el 4 de diciembre de 2014 . Consultado el 28 de noviembre de 2014 .
  14. ^ "la definición de calibrar". Diccionario.com . Consultado el 18 de marzo de 2018 .
  15. ^ Baber, Zaheer (1996). La ciencia del imperio: conocimiento científico, civilización y dominio colonial en la India. Prensa SUNY. págs. 23 y 24. ISBN 978-0-7914-2919-8.
  16. ^ Franceschini, Fiorenzo; Galetto, Mauricio; Maisano, Domenico; Mastrogiacomo, Luca; Pralio, Barbara (6 de junio de 2011). Metrología dimensional distribuida a gran escala: nuevos conocimientos. Medios de ciencia y negocios de Springer. págs. 117-118. ISBN 978-0-85729-543-9.
  17. ^ Ackroyd, Peter (16 de octubre de 2012). Fundación: La historia de Inglaterra desde sus inicios hasta los Tudor. Prensa de San Martín. págs. 133-134. ISBN 978-1-250-01367-5.
  18. ^ Suave, Alfred Edward; Tawney, Richard Henry (1919). Historia económica inglesa: documentos seleccionados. Compañía Macmillan. págs. 154-155.
  19. ^ Tilford, Charles R (1992). «Medidas de presión y vacío» (PDF) . Métodos físicos de la química : 106–173. Archivado desde el original (PDF) el 5 de diciembre de 2014 . Consultado el 28 de noviembre de 2014 .
  20. ^ Fridman, AE; Sabak, Andrés; Makinen, Paul (23 de noviembre de 2011). La calidad de las mediciones: una referencia metrológica. Medios de ciencia y negocios de Springer. págs. 10-11. ISBN 978-1-4614-1478-0.
  21. ^ Cuscó, Laurence (1998). Guía para la Medición de Presión y Vacío . Londres: Instituto de Medición y Control. pag. 5.ISBN _ 0-904457-29-X.

Fuentes