La fotografía computacional se refiere a técnicas de captura y procesamiento de imágenes digitales que utilizan computación digital en lugar de procesos ópticos. La fotografía computacional puede mejorar las capacidades de una cámara, o introducir características que no eran posibles en absoluto con la fotografía basada en película, o reducir el costo o el tamaño de los elementos de la cámara. Los ejemplos de fotografía computacional incluyen el cálculo en la cámara de panoramas digitales , [6] imágenes de alto rango dinámico y cámaras de campo de luz . Las cámaras de campo de luz utilizan elementos ópticos novedosos para capturar información de escena tridimensional que luego se puede utilizar para producir imágenes 3D, profundidad de campo mejorada y desenfoque selectivo (o "posenfoque"). La profundidad de campo mejorada reduce la necesidad de sistemas de enfoque mecánico . Todas estas características utilizan técnicas de imágenes computacionales.
La definición de fotografía computacional ha evolucionado para cubrir una serie de áreas temáticas en gráficos por computadora , visión por computadora y óptica aplicada . Estas áreas se dan a continuación, organizadas de acuerdo con una taxonomía propuesta por Shree K. Nayar [ cita requerida ] . Dentro de cada área hay una lista de técnicas, y para cada técnica se citan uno o dos artículos o libros representativos. Deliberadamente se omiten de la taxonomía las técnicas de procesamiento de imágenes (ver también procesamiento de imágenes digitales ) aplicadas a imágenes capturadas tradicionalmente para producir mejores imágenes. Ejemplos de tales técnicas son el escalado de imágenes , la compresión de rango dinámico (es decir, mapeo de tonos ), la gestión del color , la finalización de imágenes (también conocida como relleno de agujeros), la compresión de imágenes , la marca de agua digital y los efectos de imagen artística. También se omiten las técnicas que producen datos de rango , datos de volumen , modelos 3D , campos de luz 4D , BRDF 4D, 6D u 8D u otras representaciones basadas en imágenes de alta dimensión. La fotografía épsilon es un subcampo de la fotografía computacional.
Las fotografías tomadas mediante fotografía computacional pueden permitir a los aficionados producir fotografías que rivalizan con la calidad de los fotógrafos profesionales, pero a fecha de 2019 [actualizar]no superan el uso de equipos de nivel profesional. [7]
Se trata de controlar la iluminación fotográfica de forma estructurada y, a continuación, procesar las imágenes capturadas para crear nuevas imágenes. Las aplicaciones incluyen la reiluminación basada en imágenes, la mejora de imágenes, la eliminación de desenfoques de imágenes , la recuperación de geometría/material, etc.
Las imágenes de alto rango dinámico utilizan imágenes de la misma escena expuestas de forma diferente para ampliar el rango dinámico. [8] Otros ejemplos incluyen el procesamiento y la fusión de imágenes del mismo tema iluminadas de forma diferente ("espacio de luz").
Esta es la captura de imágenes codificadas ópticamente, seguida de una decodificación computacional para producir nuevas imágenes. La obtención de imágenes con apertura codificada se aplicó principalmente en astronomía o imágenes de rayos X para mejorar la calidad de la imagen. En lugar de un solo orificio, se aplica un patrón de orificio en la obtención de imágenes y se realiza una deconvolución para recuperar la imagen. [9] En la obtención de imágenes con exposición codificada, el estado de encendido/apagado del obturador se codifica para modificar el núcleo del desenfoque de movimiento . [10] De esta manera, la eliminación del desenfoque de movimiento se convierte en un problema bien condicionado . De manera similar, en una apertura codificada basada en lentes, la apertura se puede modificar insertando una máscara de banda ancha. [11] Por lo tanto, la eliminación del desenfoque fuera de foco se convierte en un problema bien condicionado. La apertura codificada también puede mejorar la calidad en la adquisición del campo de luz utilizando la óptica de transformada de Hadamard.
También se pueden diseñar patrones de apertura codificados utilizando filtros de color, con el fin de aplicar diferentes códigos en diferentes longitudes de onda. [12] [13] Esto permite aumentar la cantidad de luz que llega al sensor de la cámara, en comparación con las máscaras binarias.
La obtención de imágenes computacionales es un conjunto de técnicas de obtención de imágenes que combinan la adquisición y el procesamiento de datos para crear la imagen de un objeto a través de medios indirectos con el fin de obtener una resolución mejorada e información adicional, como la fase óptica o la reconstrucción 3D . La información se registra a menudo sin utilizar una configuración de microscopio óptico convencional o con conjuntos de datos limitados.
Las imágenes computacionales permiten ir más allá de las limitaciones físicas de los sistemas ópticos, como la apertura numérica , [14] o incluso eliminan la necesidad de elementos ópticos . [15]
Para partes del espectro óptico donde los elementos de imagen como los objetivos son difíciles de fabricar o los sensores de imagen no se pueden miniaturizar, la obtención de imágenes computacionales proporciona alternativas útiles en campos como los rayos X [16] y las radiaciones THz .
Entre las técnicas comunes de obtención de imágenes computacionales se encuentran la obtención de imágenes sin lentes , la obtención de imágenes moteadas computacionales, [17] la pticografía y la pticografía de Fourier .
La técnica de imágenes computacionales a menudo se basa en técnicas de detección compresiva o recuperación de fase , donde se reconstruye el espectro angular del objeto. Otras técnicas están relacionadas con el campo de las imágenes computacionales, como la holografía digital , la visión artificial y los problemas inversos como la tomografía .
Se trata del procesamiento de imágenes no codificadas ópticamente para producir nuevas imágenes.
Se trata de detectores que combinan detección y procesamiento, normalmente en hardware, como el sensor de imagen binaria sobremuestreado .
Aunque la fotografía computacional es actualmente una palabra de moda en el campo de los gráficos por computadora, muchas de sus técnicas aparecieron por primera vez en la literatura sobre visión por computadora, ya sea con otros nombres o en artículos destinados al análisis de formas 3D.
La fotografía computacional, como forma de arte, se ha practicado mediante la captura de imágenes con diferentes exposiciones del mismo tema y su combinación. Esta fue la inspiración para el desarrollo de la computadora portátil en la década de 1970 y principios de la década de 1980. La fotografía computacional se inspiró en el trabajo de Charles Wyckoff y, por lo tanto, los conjuntos de datos de fotografía computacional (por ejemplo, imágenes con diferentes exposiciones del mismo tema que se toman para hacer una sola imagen compuesta) a veces se denominan Conjuntos Wyckoff, en su honor.
Los primeros trabajos en esta área (estimación conjunta de la proyección de la imagen y el valor de exposición) fueron realizados por Mann y Candoccia.
Charles Wyckoff dedicó gran parte de su vida a crear tipos especiales de películas fotográficas de tres capas que captaban diferentes exposiciones del mismo tema. Una fotografía de una explosión nuclear, tomada con la película de Wyckoff, apareció en la portada de la revista Life y mostraba el rango dinámico desde las áreas oscuras externas hasta el núcleo interno.