stringtranslate.com

Fotografía computacional

La fotografía computacional ofrece muchas nuevas posibilidades. Este ejemplo combina imágenes HDR (alto rango dinámico) con panorámicas ( unión de imágenes ), combinando de manera óptima la información de múltiples fotografías con diferentes exposiciones de objetos superpuestos. [1] [2] [3] [4] [5]

La fotografía computacional se refiere a técnicas de captura y procesamiento de imágenes digitales que utilizan computación digital en lugar de procesos ópticos. La fotografía computacional puede mejorar las capacidades de una cámara, o introducir características que no eran posibles en absoluto con la fotografía basada en película, o reducir el costo o el tamaño de los elementos de la cámara. Los ejemplos de fotografía computacional incluyen el cálculo en la cámara de panoramas digitales , [6] imágenes de alto rango dinámico y cámaras de campo de luz . Las cámaras de campo de luz utilizan elementos ópticos novedosos para capturar información de escena tridimensional que luego se puede utilizar para producir imágenes 3D, profundidad de campo mejorada y desenfoque selectivo (o "posenfoque"). La profundidad de campo mejorada reduce la necesidad de sistemas de enfoque mecánico . Todas estas características utilizan técnicas de imágenes computacionales.

La definición de fotografía computacional ha evolucionado para cubrir una serie de áreas temáticas en gráficos por computadora , visión por computadora y óptica aplicada . Estas áreas se dan a continuación, organizadas de acuerdo con una taxonomía propuesta por Shree K. Nayar [ cita requerida ] . Dentro de cada área hay una lista de técnicas, y para cada técnica se citan uno o dos artículos o libros representativos. Deliberadamente se omiten de la taxonomía las técnicas de procesamiento de imágenes (ver también procesamiento de imágenes digitales ) aplicadas a imágenes capturadas tradicionalmente para producir mejores imágenes. Ejemplos de tales técnicas son el escalado de imágenes , la compresión de rango dinámico (es decir, mapeo de tonos ), la gestión del color , la finalización de imágenes (también conocida como relleno de agujeros), la compresión de imágenes , la marca de agua digital y los efectos de imagen artística. También se omiten las técnicas que producen datos de rango , datos de volumen , modelos 3D , campos de luz 4D , BRDF 4D, 6D u 8D u otras representaciones basadas en imágenes de alta dimensión. La fotografía épsilon es un subcampo de la fotografía computacional.

Efecto en la fotografía

Las fotografías tomadas mediante fotografía computacional pueden permitir a los aficionados producir fotografías que rivalizan con la calidad de los fotógrafos profesionales, pero a fecha de 2019 no superan el uso de equipos de nivel profesional. [7]

Iluminación computacional

Se trata de controlar la iluminación fotográfica de forma estructurada y, a continuación, procesar las imágenes capturadas para crear nuevas imágenes. Las aplicaciones incluyen la reiluminación basada en imágenes, la mejora de imágenes, la eliminación de desenfoques de imágenes , la recuperación de geometría/material, etc.

Las imágenes de alto rango dinámico utilizan imágenes de la misma escena expuestas de forma diferente para ampliar el rango dinámico. [8] Otros ejemplos incluyen el procesamiento y la fusión de imágenes del mismo tema iluminadas de forma diferente ("espacio de luz").

Óptica computacional

Esta es la captura de imágenes codificadas ópticamente, seguida de una decodificación computacional para producir nuevas imágenes. La obtención de imágenes con apertura codificada se aplicó principalmente en astronomía o imágenes de rayos X para mejorar la calidad de la imagen. En lugar de un solo orificio, se aplica un patrón de orificio en la obtención de imágenes y se realiza una deconvolución para recuperar la imagen. [9] En la obtención de imágenes con exposición codificada, el estado de encendido/apagado del obturador se codifica para modificar el núcleo del desenfoque de movimiento . [10] De esta manera, la eliminación del desenfoque de movimiento se convierte en un problema bien condicionado . De manera similar, en una apertura codificada basada en lentes, la apertura se puede modificar insertando una máscara de banda ancha. [11] Por lo tanto, la eliminación del desenfoque fuera de foco se convierte en un problema bien condicionado. La apertura codificada también puede mejorar la calidad en la adquisición del campo de luz utilizando la óptica de transformada de Hadamard.

También se pueden diseñar patrones de apertura codificados utilizando filtros de color, con el fin de aplicar diferentes códigos en diferentes longitudes de onda. [12] [13] Esto permite aumentar la cantidad de luz que llega al sensor de la cámara, en comparación con las máscaras binarias.

Imágenes computacionales

La obtención de imágenes computacionales es un conjunto de técnicas de obtención de imágenes que combinan la adquisición y el procesamiento de datos para crear la imagen de un objeto a través de medios indirectos con el fin de obtener una resolución mejorada e información adicional, como la fase óptica o la reconstrucción 3D . La información se registra a menudo sin utilizar una configuración de microscopio óptico convencional o con conjuntos de datos limitados.

Las imágenes computacionales permiten ir más allá de las limitaciones físicas de los sistemas ópticos, como la apertura numérica , [14] o incluso eliminan la necesidad de elementos ópticos . [15]

Para partes del espectro óptico donde los elementos de imagen como los objetivos son difíciles de fabricar o los sensores de imagen no se pueden miniaturizar, la obtención de imágenes computacionales proporciona alternativas útiles en campos como los rayos X [16] y las radiaciones THz .

Técnicas comunes

Entre las técnicas comunes de obtención de imágenes computacionales se encuentran la obtención de imágenes sin lentes , la obtención de imágenes moteadas computacionales, [17] la pticografía y la pticografía de Fourier .

La técnica de imágenes computacionales a menudo se basa en técnicas de detección compresiva o recuperación de fase , donde se reconstruye el espectro angular del objeto. Otras técnicas están relacionadas con el campo de las imágenes computacionales, como la holografía digital , la visión artificial y los problemas inversos como la tomografía .

Procesamiento computacional

Se trata del procesamiento de imágenes no codificadas ópticamente para producir nuevas imágenes.

Sensores computacionales

Se trata de detectores que combinan detección y procesamiento, normalmente en hardware, como el sensor de imagen binaria sobremuestreado .

Trabajos tempranos en visión por computadora

Aunque la fotografía computacional es actualmente una palabra de moda en el campo de los gráficos por computadora, muchas de sus técnicas aparecieron por primera vez en la literatura sobre visión por computadora, ya sea con otros nombres o en artículos destinados al análisis de formas 3D.

Un aparato portátil de fotografía computacional de 1981

Historia del arte

La fotografía computacional portátil se originó en la década de 1970 y principios de la de 1980, y ha evolucionado hasta convertirse en una forma de arte más reciente. Esta imagen se utilizó en la portada del libro de texto de John Wiley and Sons sobre el tema.

La fotografía computacional, como forma de arte, se ha practicado mediante la captura de imágenes con diferentes exposiciones del mismo tema y su combinación. Esta fue la inspiración para el desarrollo de la computadora portátil en la década de 1970 y principios de la década de 1980. La fotografía computacional se inspiró en el trabajo de Charles Wyckoff y, por lo tanto, los conjuntos de datos de fotografía computacional (por ejemplo, imágenes con diferentes exposiciones del mismo tema que se toman para hacer una sola imagen compuesta) a veces se denominan Conjuntos Wyckoff, en su honor.

Los primeros trabajos en esta área (estimación conjunta de la proyección de la imagen y el valor de exposición) fueron realizados por Mann y Candoccia.

Charles Wyckoff dedicó gran parte de su vida a crear tipos especiales de películas fotográficas de tres capas que captaban diferentes exposiciones del mismo tema. Una fotografía de una explosión nuclear, tomada con la película de Wyckoff, apareció en la portada de la revista Life y mostraba el rango dinámico desde las áreas oscuras externas hasta el núcleo interno.

Véase también

Referencias

  1. ^ Steve Mann . "Composición de múltiples imágenes de la misma escena", Actas de la 46.ª Conferencia anual sobre ciencia y tecnología de la imagen, 9-14 de mayo, Cambridge, Massachusetts, 1993
  2. ^ S. Mann, C. Manders y J. Fung, "La ecuación de cambio de restricción del espacio de luz (LCCE) con aplicación práctica para la estimación de la transformación de proyectividad+ganancia entre múltiples imágenes del mismo tema", IEEE International Conference on Acoustics, Speech, and Signal Processing, 6–10 de abril de 2003, pp III - 481-4 vol. 3.
  3. ^ Estimación conjunta de parámetros tanto en el dominio como en el rango de funciones en la misma órbita del grupo proyectivo-Wyckoff", IEEE International Conference on Image Processing, vol. 3, 16-19, págs. 193-196, septiembre de 1996
  4. ^ Frank M. Candocia: Registro conjunto de imágenes en dominio y rango mediante análisis comparativo lineal por partes. IEEE Transactions on Image Processing 12(4): 409-419 (2003)
  5. ^ Frank M. Candocia: Alineación homográfica y comparamétrica simultánea de múltiples imágenes ajustadas por exposición de la misma escena. IEEE Transactions on Image Processing 12(12): 1485-1494 (2003)
  6. ^ Steve Mann y RW Picard. "Fuelles virtuales: construcción de imágenes fijas de alta calidad a partir de vídeo", en Actas de la Primera Conferencia Internacional sobre Procesamiento de Imágenes del IEEE, Austin, Texas, 13-16 de noviembre de 1994
  7. ^ "El borde de la fotografía computacional".
  8. ^ SOBRE SER `NO DIGITAL' CON CÁMARAS DIGITALES: AMPLIACIÓN DEL RANGO DINÁMICO COMBINANDO IMÁGENES CON EXPOSICIONES DIFERENTES, 48.ª conferencia anual de la IS&T (Sociedad para la Ciencia y la Tecnología de la Imagen), Cambridge, Massachusetts, mayo de 1995, páginas 422-428
  9. ^ Martinello, Manuel. "Imágenes de apertura codificada" (PDF) .
  10. ^ Raskar, Ramesh; Agrawal, Amit; Tumblin, Jack (2006). "Coded Exposure Photography: Motion Deblurring using Fluttered Shutter" (Fotografía de exposición codificada: eliminación del desenfoque de movimiento mediante el uso de un obturador parpadeante) . Consultado el 29 de noviembre de 2010 .
  11. ^ Veeraraghavan, Ashok; Raskar, Ramesh; Agrawal, Amit; Mohan, Ankit; Tumblin, Jack (2007). "Fotografía moteada: cámaras mejoradas con máscara para campos de luz heterodinos y reenfoque de apertura codificada" . Consultado el 29 de noviembre de 2010 .
  12. ^ Martinello, Manuel; Wajs, Andrew; Quan, Shuxue; Lee, Hank; Lim, Chien; Woo, Taekun; Lee, Wonho; Kim, Sang-Sik; Lee, David (2015). "Fotografía de doble apertura: imagen y profundidad desde una cámara móvil" (PDF) . Conferencia internacional sobre fotografía computacional .
  13. ^ Chakrabarti, A.; Zickler, T. (2012). "Profundidad y desenfoque a partir de una profundidad de campo que varía espectralmente". IEEE European Conference on Computer Vision . 7576 : 648–666.
  14. ^ Ou et al., "Pticografía de Fourier de alta apertura numérica: principio, implementación y caracterización" Optics Express 23, 3 (2015)
  15. ^ Boominathan et al., "Imágenes sin lentes: un renacimiento computacional" (2016)
  16. ^ Miyakawa et al., "Detector de apertura codificada: un sensor de imagen con una resolución de píxeles inferior a 20 nm", Optics Express 22, 16 (2014)
  17. ^ Katz et al., "Imágenes no invasivas de un solo disparo a través de capas de dispersión y alrededor de esquinas mediante correlaciones de moteado", Nature Photonics 8, 784–790 (2014)

Enlaces externos