stringtranslate.com

Resolución óptica

La resolución óptica describe la capacidad de un sistema de imágenes para resolver detalles en el objeto del que se está tomando la imagen. Un sistema de imágenes puede tener muchos componentes individuales, incluyendo una o más lentes y/o componentes de grabación y visualización. Cada uno de estos contribuye (siempre que se disponga de un diseño adecuado y de una alineación adecuada) a la resolución óptica del sistema; El entorno en el que se toman las imágenes suele ser otro factor importante.

Resolución lateral

La resolución depende de la distancia entre dos puntos radiantes distinguibles. Las secciones siguientes describen las estimaciones teóricas de la resolución, pero los valores reales pueden diferir. Los resultados a continuación se basan en modelos matemáticos de discos Airy , que suponen un nivel de contraste adecuado. En sistemas de bajo contraste, la resolución puede ser mucho menor que la predicha por la teoría que se describe a continuación. Los sistemas ópticos reales son complejos y las dificultades prácticas a menudo aumentan la distancia entre fuentes puntuales distinguibles.

La resolución de un sistema se basa en la distancia mínima a la que se pueden distinguir los puntos como individuos. Se utilizan varios estándares para determinar, cuantitativamente, si los puntos se pueden distinguir o no. Uno de los métodos especifica que, en la línea entre el centro de un punto y el siguiente, el contraste entre la intensidad máxima y mínima sea al menos un 26% menor que el máximo. Esto corresponde a la superposición de un disco de Airy sobre el primer anillo oscuro del otro. Este estándar de separación también se conoce como criterio de Rayleigh . En símbolos, la distancia se define de la siguiente manera: [1]

Esta fórmula es adecuada para microscopía confocal, pero también se utiliza en microscopía tradicional. En los microscopios confocales de escaneo láser , la función de dispersión de puntos de ancho completo medio máximo (FWHM) se utiliza a menudo para evitar la dificultad de medir el disco de Airy. [1] Esto, combinado con el patrón de iluminación rasterizado, da como resultado una mejor resolución, pero sigue siendo proporcional a la fórmula basada en Rayleigh proporcionada anteriormente.

También es común en la literatura sobre microscopía una fórmula de resolución que trata las preocupaciones antes mencionadas sobre el contraste de manera diferente. [2] La resolución predicha por esta fórmula es proporcional a la fórmula basada en Rayleigh y difiere en aproximadamente un 20%. Para estimar la resolución teórica, puede ser adecuado.

Cuando se utiliza un condensador para iluminar la muestra, también se debe incluir la forma del lápiz de luz que emana del condensador. [3]

En un microscopio configurado correctamente, .

Las estimaciones de resolución anteriores son específicas del caso en el que dos muestras idénticas muy pequeñas irradian de manera incoherente en todas direcciones. Se deben tener en cuenta otras consideraciones si las fuentes irradian con diferentes niveles de intensidad, son coherentes, grandes o irradian en patrones no uniformes.

Resolución de la lente

La capacidad de una lente para resolver detalles generalmente está determinada por la calidad de la lente, pero en última instancia está limitada por la difracción . La luz proveniente de una fuente puntual en el objeto se difracta a través de la apertura de la lente de manera que forma un patrón de difracción en la imagen, que tiene un punto central y anillos brillantes circundantes, separados por nulos oscuros; este patrón se conoce como patrón de Airy , y el lóbulo central brillante como disco de Airy . El radio angular del disco de Airy (medido desde el centro hasta el primer nulo) viene dado por:

Dos puntos adyacentes en el objeto dan lugar a dos patrones de difracción. Si la separación angular de los dos puntos es significativamente menor que el radio angular del disco de Airy, entonces los dos puntos no se pueden resolver en la imagen, pero si su separación angular es mucho mayor que esto, se forman imágenes distintas de los dos puntos y por lo tanto puede resolverse. Rayleigh definió el " criterio de Rayleigh ", algo arbitrario, según el cual dos puntos cuya separación angular es igual al radio del disco de Airy hasta el primer nulo pueden considerarse resueltos. Se puede observar que cuanto mayor sea el diámetro de la lente o su apertura, mayor será la resolución. Los telescopios astronómicos tienen lentes cada vez más grandes para poder "ver" detalles cada vez más finos en las estrellas.

Sin embargo, sólo las lentes de la más alta calidad tienen una resolución limitada por difracción y normalmente la calidad de la lente limita su capacidad para resolver detalles. Esta capacidad se expresa mediante la función de transferencia óptica , que describe la variación espacial (angular) de la señal luminosa en función de la frecuencia espacial (angular). Cuando la imagen se proyecta sobre un plano, como una película fotográfica o un detector de estado sólido, la frecuencia espacial es el dominio preferido, pero cuando la imagen se refiere únicamente a la lente, se prefiere la frecuencia angular. OTF se puede descomponer en componentes de magnitud y fase de la siguiente manera:

La OTF tiene en cuenta la aberración , algo que la expresión de frecuencia límite anterior no tiene en cuenta. La magnitud se conoce como función de transferencia de modulación (MTF) y la porción de fase se conoce como función de transferencia de fase (PTF) .

En los sistemas de imágenes, el sensor normalmente no captura el componente de fase. Por tanto, la medida importante con respecto a los sistemas de imágenes es el MTF.

La fase es de vital importancia para la óptica adaptativa y los sistemas holográficos.

Resolución del sensor (espacial)

Algunos sensores ópticos están diseñados para detectar diferencias espaciales en la energía electromagnética . Estos incluyen películas fotográficas , dispositivos de estado sólido ( detectores CCD , CMOS y detectores de infrarrojos como PtSi e InSb ), detectores de tubos ( vidicon , plumbicon y tubos fotomultiplicadores utilizados en dispositivos de visión nocturna), detectores de escaneo (utilizados principalmente para IR) , detectores piroeléctricos y detectores de microbolómetros . La capacidad de dicho detector para resolver esas diferencias depende principalmente del tamaño de los elementos de detección.

La resolución espacial generalmente se expresa en pares de líneas por milímetro (lppmm), líneas (de resolución, principalmente para video analógico), contraste versus ciclos/mm o MTF (el módulo de OTF). La MTF se puede encontrar tomando la transformada de Fourier bidimensional de la función de muestreo espacial. Los píxeles más pequeños dan como resultado curvas MTF más amplias y, por lo tanto, una mejor detección de energía de frecuencia más alta.

Esto es análogo a tomar la transformada de Fourier de una función de muestreo de señal ; Como en ese caso, el factor dominante es el período de muestreo, que es análogo al tamaño del elemento de la imagen ( píxel ).

Otros factores incluyen el ruido de píxeles, la diafonía de píxeles, la penetración del sustrato y el factor de relleno.

Un problema común entre los no técnicos es el uso del número de píxeles del detector para describir la resolución. Si todos los sensores fueran del mismo tamaño, esto sería aceptable. Como no lo son, el uso del número de píxeles puede resultar engañoso. Por ejemplo, una cámara de 2 megapíxeles con píxeles de 20 micrómetros cuadrados tendrá peor resolución que una cámara de 1 megapíxel con píxeles de 8 micrómetros, en igualdad de condiciones.

Para medir la resolución, los fabricantes de películas suelen publicar un gráfico de respuesta (%) frente a frecuencia espacial (ciclos por milímetro). La trama se deriva experimentalmente. Los fabricantes de cámaras y sensores de estado sólido normalmente publican especificaciones de las cuales el usuario puede derivar un MTF teórico de acuerdo con el procedimiento que se describe a continuación. Algunos también pueden publicar curvas MTF, mientras que otros (especialmente los fabricantes de intensificadores) publicarán la respuesta (%) en la frecuencia de Nyquist o, alternativamente, publicarán la frecuencia en la que la respuesta es del 50%.

Para encontrar una curva MTF teórica para un sensor, es necesario conocer tres características del sensor: el área de detección activa, el área que comprende el área de detección y las estructuras de interconexión y soporte ("bienes inmuebles"), y el número total de esas áreas (el recuento de píxeles). Casi siempre se proporciona el recuento total de píxeles. A veces se dan las dimensiones generales del sensor, a partir de las cuales se puede calcular el área del inmueble. Ya sea que el área inmobiliaria se proporcione o se derive, si no se proporciona el área de píxeles activos, se puede derivar del área inmobiliaria y el factor de relleno , donde el factor de relleno es la relación entre el área activa y el área inmobiliaria dedicada.

En la notación de Gaskill, el área de detección es una función peine 2D ( x , y ) de la distancia entre píxeles (el paso ), convolucionada con una función recta 2D ( x , y ) del área activa del píxel, delimitada por un 2D Función rect( x , y ) de la dimensión general del sensor. La transformada de Fourier de esta es una función regida por la distancia entre píxeles, convolucionada con una función regida por el número de píxeles y multiplicada por la función correspondiente al área activa. Esta última función sirve como envoltura general de la función del MTF; Siempre que el número de píxeles sea mucho mayor que uno, el tamaño del área activa domina el MTF.

Función de muestreo:

donde el sensor tiene M × N píxeles

Resolución del sensor (temporal)

Un sistema de imágenes que funciona a 24 fotogramas por segundo es esencialmente un sistema de muestreo discreto que muestrea un área 2D. Las mismas limitaciones descritas por Nyquist se aplican a este sistema como a cualquier sistema de muestreo de señales.

Todos los sensores tienen una respuesta temporal característica. La película está limitada tanto en los extremos de resolución corta como en resolución larga por ruptura de reciprocidad . Por lo general, se considera que duran más de 1 segundo y menos de 1/10.000 de segundo. Además, la película requiere un sistema mecánico para hacerla avanzar a través del mecanismo de exposición, o un sistema óptico móvil para exponerla. Estos limitan la velocidad a la que se pueden exponer fotogramas sucesivos.

CCD y CMOS son las preferencias modernas para sensores de vídeo. La velocidad del CCD está limitada por la velocidad a la que se puede mover la carga de un sitio a otro. CMOS tiene la ventaja de tener celdas direccionables individualmente, lo que le ha dado ventaja en la industria de la fotografía de alta velocidad .

Los vidicons, plumbicons y los intensificadores de imágenes tienen aplicaciones específicas. La velocidad a la que se pueden muestrear depende de la tasa de desintegración del fósforo utilizado. Por ejemplo, el fósforo P46 tiene un tiempo de desintegración de menos de 2 microsegundos, mientras que el tiempo de desintegración del P43 es del orden de 2-3 milisegundos. Por lo tanto, el P43 no se puede utilizar a velocidades de cuadro superiores a 1000 cuadros por segundo (cuadros/s). Consulte § Enlaces externos para obtener enlaces a información sobre fósforo.

Los detectores piroeléctricos responden a los cambios de temperatura. Por lo tanto, no se detectará una escena estática, por lo que requieren helicópteros . También tienen un tiempo de caída, por lo que la respuesta temporal del sistema piroeléctrico será un paso de banda, mientras que los otros detectores analizados serán un paso bajo.

Si los objetos dentro de la escena están en movimiento en relación con el sistema de imágenes, el desenfoque de movimiento resultante dará como resultado una resolución espacial más baja. Los tiempos de integración cortos minimizarán el desenfoque, pero los tiempos de integración están limitados por la sensibilidad del sensor. Además, el movimiento entre fotogramas en las películas afectará a los esquemas de compresión de películas digitales (por ejemplo, MPEG-1, MPEG-2). Finalmente, existen esquemas de muestreo que requieren movimiento real o aparente dentro de la cámara (espejos de escaneo, persianas enrollables) que pueden resultar en una representación incorrecta del movimiento de la imagen. Por tanto, la sensibilidad del sensor y otros factores relacionados con el tiempo tendrán un impacto directo en la resolución espacial.

Efecto del ancho de banda analógico en la resolución

La resolución espacial de los sistemas digitales (por ejemplo, HDTV y VGA ) se fija independientemente del ancho de banda analógico porque cada píxel se digitaliza, transmite y almacena como un valor discreto. Las cámaras, grabadoras y pantallas digitales deben seleccionarse de modo que la resolución sea idéntica entre la cámara y la pantalla. Sin embargo, en los sistemas analógicos, la resolución de la cámara, la grabadora, el cableado, los amplificadores, los transmisores, los receptores y la pantalla pueden ser independientes y la resolución general del sistema se rige por el ancho de banda del componente de menor rendimiento.

En los sistemas analógicos, cada línea horizontal se transmite como una señal analógica de alta frecuencia. Por lo tanto, cada elemento de la imagen (píxel) se convierte en un valor eléctrico analógico (voltaje) y, por lo tanto, los cambios de valores entre píxeles se convierten en cambios de voltaje. Los estándares de transmisión requieren que el muestreo se realice en un tiempo fijo (que se describe a continuación), por lo que más píxeles por línea se convierten en un requisito para más cambios de voltaje por unidad de tiempo, es decir, una frecuencia más alta. Dado que dichas señales suelen estar limitadas en banda por cables, amplificadores, grabadores, transmisores y receptores, la limitación de banda en la señal analógica actúa como un filtro de paso bajo eficaz en la resolución espacial. La diferencia en resoluciones entre VHS (240 líneas discernibles por línea de escaneo), Betamax (280 líneas) y el formato ED Beta más nuevo (500 líneas) se explica principalmente por la diferencia en el ancho de banda de grabación.

En el estándar de transmisión NTSC , cada campo contiene 262,5 líneas y se transmiten 59,94 campos por segundo. Por lo tanto, cada línea debe tardar 63 microsegundos, 10,7 de los cuales son para restablecer la línea siguiente. Por tanto, la velocidad de retroceso es 15,734 kHz. Para que la imagen parezca tener aproximadamente la misma resolución horizontal y vertical (ver factor Kell ), debería poder mostrar 228 ciclos por línea, lo que requiere un ancho de banda de 4,28 MHz. Si se conoce el ancho de la línea (sensor), esto se puede convertir directamente en ciclos por milímetro, la unidad de resolución espacial.

Las señales del sistema de televisión B/G/I/K (generalmente utilizadas con codificación de color PAL ) transmiten cuadros con menos frecuencia (50 Hz), pero el cuadro contiene más líneas y es más ancho, por lo que los requisitos de ancho de banda son similares.

Tenga en cuenta que una "línea discernible" forma la mitad de un ciclo (un ciclo requiere una línea oscura y una clara), por lo que "228 ciclos" y "456 líneas" son medidas equivalentes.

Resolución del sistema

Hay dos métodos para determinar la "resolución del sistema" (en el sentido de que se omite el ojo u otra recepción final de la información óptica). La primera es realizar una serie de convoluciones bidimensionales , primero con la imagen y la lente, y luego, con el resultado de ese procedimiento y un sensor (y así sucesivamente por todos los componentes del sistema). Esto no sólo es costoso desde el punto de vista computacional, sino que normalmente también requiere la repetición del proceso para cada objeto adicional del que se va a visualizar.

El otro método consiste en transformar cada uno de los componentes del sistema al dominio de frecuencia espacial y luego multiplicar los resultados 2-D. Se puede determinar una respuesta del sistema sin referencia a un objeto. Aunque este método es considerablemente más difícil de comprender conceptualmente, resulta más fácil de usar computacionalmente, especialmente cuando se deben probar diferentes iteraciones de diseño u objetos con imágenes.

La transformación a utilizar es la transformada de Fourier.

Resolución ocular

El ojo humano es una característica limitante de muchos sistemas, cuando el objetivo del sistema es presentar datos a los humanos para su procesamiento.

Por ejemplo, en una función de seguridad o control de tráfico aéreo, la pantalla y la estación de trabajo deben construirse de manera que los humanos promedio puedan detectar problemas y dirigir medidas correctivas. Otros ejemplos son cuando un ser humano utiliza los ojos para realizar una tarea crítica como volar (pilotaje por referencia visual), conducir un vehículo, etc.

La mejor agudeza visual del ojo humano en su centro óptico (la fóvea) es de menos de 1 minuto de arco por par de líneas, y se reduce rápidamente al alejarse de la fóvea.

El cerebro humano requiere algo más que un par de líneas para comprender lo que el ojo está visualizando. El criterio de Johnson define el número de pares de líneas de resolución ocular, o resolución del sensor, necesarios para reconocer o identificar un elemento.

Resolución atmosférica

Los sistemas que atraviesan largas trayectorias atmosféricas pueden verse limitados por la turbulencia . Una medida clave de la calidad de la turbulencia atmosférica es el diámetro de visión , también conocido como diámetro de visión de Fried . Un camino que es temporalmente coherente se conoce como parche isoplanático .

Las aperturas grandes pueden sufrir un promedio de apertura , el resultado de la integración de varios caminos en una imagen.

La turbulencia escala con una longitud de onda de aproximadamente 6/5 de potencia. Por tanto, ver es mejor en longitudes de onda infrarrojas que en longitudes de onda visibles.

Las exposiciones cortas sufren menos turbulencias que las exposiciones más largas debido a la turbulencia de escala "interior" y "exterior"; Se considera que corto es mucho menos de 10 ms para imágenes visibles (normalmente, menos de 2 ms). La turbulencia de escala interna surge debido a los remolinos en el flujo turbulento, mientras que la turbulencia de escala externa surge de un gran flujo de masa de aire. Estas masas normalmente se mueven lentamente y, por lo tanto, se reducen al disminuir el período de integración.

Un sistema limitado únicamente por la calidad de la óptica se dice que está limitado por la difracción . Sin embargo, dado que la turbulencia atmosférica es normalmente el factor limitante para los sistemas visibles que miran a través de trayectorias atmosféricas largas, la mayoría de los sistemas están limitados por la turbulencia. Las correcciones se pueden realizar mediante el uso de óptica adaptativa o técnicas de posprocesamiento.

Medición de la resolución óptica

Hay una variedad de sistemas de medición disponibles y su uso puede depender del sistema que se esté probando.

Los gráficos de prueba típicos para la función de transferencia de contraste (CTF) consisten en patrones de barras repetidos (consulte la discusión a continuación). La resolución límite se mide determinando el grupo más pequeño de barras, tanto vertical como horizontalmente, para el cual se puede ver el número correcto de barras. Sin embargo, al calcular el contraste entre las áreas blanca y negra en varias frecuencias diferentes, los puntos del CTF se pueden determinar con la ecuación de contraste. dónde

Cuando el sistema ya no puede resolver las barras, las áreas en blanco y negro tienen el mismo valor, por lo que Contraste = 0. En frecuencias espaciales muy bajas, C max = 1 y C min = 0, por lo que Modulación = 1. Se puede ver algo de modulación. por encima de la resolución límite; estos pueden tener alias y estar invertidos en fase.

Cuando se utilizan otros métodos, incluidos el interferograma, la sinusoide y el borde en el objetivo ISO 12233, es posible calcular la curva MTF completa. La respuesta al borde es similar a una respuesta escalonada , y la transformada de Fourier de la primera diferencia de la respuesta escalonada produce el MTF.

Interferograma

Un interferograma creado entre dos fuentes de luz coherentes puede usarse para al menos dos propósitos relacionados con la resolución. El primero es determinar la calidad de un sistema de lentes (ver LUPI) y el segundo es proyectar un patrón en un sensor (especialmente película fotográfica) para medir la resolución.

Objetivo NBS 1010a/ISO #2

Esta tabla de prueba de resolución de 5 barras se utiliza a menudo para la evaluación de sistemas de microfilmes y escáneres. Es conveniente para un rango 1:1 (que normalmente cubre de 1 a 18 ciclos/mm) y está marcado directamente en ciclos/mm. Los detalles se pueden encontrar en ISO-3334.

Objetivo de la USAF de 1951

SilverFast Resolution Target USAF 1951 para determinar la resolución óptima de un escáner

El objetivo de prueba de resolución USAF 1951 consta de un patrón de objetivos de 3 barras. A menudo se encuentra cubriendo un rango de 0,25 a 228 ciclos/mm. Cada grupo consta de seis elementos. El grupo se designa mediante un número de grupo (-2, -1, 0, 1, 2, etc.) que es la potencia a la que se debe elevar 2 para obtener la frecuencia espacial del primer elemento (por ejemplo, el grupo -2 es 0,25 pares de líneas por milímetro). Cada elemento es la sexta raíz de 2 más pequeña que el elemento anterior en el grupo (por ejemplo, el elemento 1 es 2^0, el elemento 2 es 2^(-1/6), el elemento 3 es 2(-1/3), etc. ). Leyendo el grupo y el número de elemento del primer elemento que no se puede resolver, se podrá determinar mediante inspección la resolución límite. El complejo sistema de numeración y el uso de un gráfico de consulta se pueden evitar mediante el uso de un gráfico de diseño mejorado pero no estandarizado, que etiqueta las barras y los espacios directamente en ciclos/mm usando una fuente extendida OCR-A .

Objetivo NBS 1952

El objetivo de NBS 1952 es un patrón de 3 barras (barras largas). La frecuencia espacial se imprime junto a cada conjunto de barras triples, por lo que la resolución límite puede determinarse mediante inspección. Esta frecuencia normalmente es solo la marcada después de que el tamaño del gráfico se ha reducido (normalmente 25 veces). La solicitud original requería colocar el gráfico a una distancia 26 veces la distancia focal de la lente de imagen utilizada. Las barras de arriba y de la izquierda están en secuencia, separadas aproximadamente por la raíz cuadrada de dos (12, 17, 24, etc.), mientras que las barras de abajo y de la izquierda tienen la misma separación pero un punto de inicio diferente (14, 20, 28, etc.)

Objetivo de resolución de vídeo EIA 1956

Objetivo de resolución de vídeo EIA 1956

El gráfico de resolución EIA 1956 fue diseñado específicamente para usarse con sistemas de televisión. Las líneas que se expanden gradualmente cerca del centro están marcadas con indicaciones periódicas de la frecuencia espacial correspondiente. La resolución límite podrá determinarse mediante inspección. La medida más importante es limitar la resolución horizontal, ya que la resolución vertical suele estar determinada por el estándar de vídeo aplicable (I/B/G/K/NTSC/NTSC-J).

Objetivo IEEE Std 208-1995

El objetivo de resolución IEEE 208-1995 es similar al objetivo de la EIA. La resolución se mide en líneas de TV horizontales y verticales.

Objetivo ISO 12233

El objetivo ISO 12233 se desarrolló para aplicaciones de cámaras digitales, ya que la resolución espacial de las cámaras digitales modernas puede exceder las limitaciones de los objetivos más antiguos. Incluye varios objetivos de filo de navaja con el fin de calcular MTF mediante transformada de Fourier . Están desplazados de la vertical 5 grados para que los bordes se muestreen en muchas fases diferentes, lo que permite estimar la respuesta de frecuencia espacial más allá de la frecuencia de Nyquist del muestreo.

Patrones de prueba aleatorios

La idea es análoga al uso de un patrón de ruido blanco en acústica para determinar la respuesta de frecuencia del sistema.

Patrones sinusoidales que aumentan monótonamente

El interferograma utilizado para medir la resolución de una película se puede sintetizar en computadoras personales y usarse para generar un patrón para medir la resolución óptica. Véase especialmente las curvas Kodak MTF.

ráfaga múltiple

Una señal multiráfaga es una forma de onda electrónica que se utiliza para probar sistemas de visualización, grabación y transmisión analógica. El patrón de prueba consta de varios períodos cortos de frecuencias específicas. El contraste de cada uno puede medirse mediante inspección y registrarse, dando un gráfico de atenuación versus frecuencia. El patrón multiráfaga NTSC3.58 consta de bloques de 500 kHz, 1 MHz, 2 MHz, 3 MHz y 3,58 MHz. 3,58 MHz es importante porque es la frecuencia de crominancia del vídeo NTSC.

Discusión

Usando una barra, la medida resultante es la función de transferencia de contraste (CTF) y no la MTF. La diferencia surge de los subarmónicos de las ondas cuadradas y puede calcularse fácilmente.

Ver también

Referencias

  1. ^ ab "Centro de recursos Olympus FluoView: resolución y contraste en microscopía confocal". olympusconfocal.com . Archivado desde el original el 5 de julio de 2004 . Consultado el 30 de diciembre de 2019 .
  2. ^ Propiedades de los objetivos del microscopio | MicroscopíaU
  3. ^ Manual de microscopía de expresiones moleculares: anatomía del microscopio: apertura y resolución numéricas

enlaces externos