En fotografía y videografía , la captura HDR de múltiples exposiciones es una técnica que crea imágenes de alto rango dinámico (HDR) (o imágenes de rango dinámico extendido ) al tomar y combinar múltiples exposiciones del mismo tema en diferentes exposiciones . La combinación de múltiples imágenes de esta manera da como resultado una imagen con un rango dinámico mayor que el que sería posible al tomar una sola imagen. La técnica también se puede utilizar para capturar videos al tomar y combinar múltiples exposiciones para cada cuadro del video. El término "HDR" se usa con frecuencia para referirse al proceso de creación de imágenes HDR a partir de múltiples exposiciones. Muchos teléfonos inteligentes tienen una función HDR automatizada que se basa en técnicas de imágenes computacionales para capturar y combinar múltiples exposiciones.
Una sola imagen capturada por una cámara proporciona un rango finito de luminosidad inherente al medio, ya sea un sensor digital o una película. Fuera de este rango, la información tonal se pierde y no se ven características; los tonos que exceden el rango se "queman" y aparecen en blanco puro en las áreas más brillantes, mientras que los tonos que caen por debajo del rango se "aplastan" y aparecen en negro puro en las áreas más oscuras. La relación entre los valores tonales máximos y mínimos que se pueden capturar en una sola imagen se conoce como rango dinámico . En fotografía, el rango dinámico se mide en diferencias de valores de exposición (EV), también conocidas como pasos .
La respuesta del ojo humano a la luz no es lineal: reducir a la mitad el nivel de luz no reduce a la mitad el brillo percibido de un espacio, sino que lo hace parecer apenas más oscuro. Para la mayoría de los niveles de iluminación, la respuesta es aproximadamente logarítmica . [1] [2] Los ojos humanos se adaptan con bastante rapidez a los cambios en los niveles de luz . Por lo tanto, el HDR puede producir imágenes que se parecen más a lo que un humano ve cuando mira al sujeto.
Esta técnica se puede aplicar para producir imágenes que preserven el contraste local para una representación natural, o exageren el contraste local para un efecto artístico. HDR es útil para grabar muchas escenas del mundo real que contienen un rango más amplio de brillo del que se puede capturar directamente, típicamente tanto luz solar directa brillante como sombras profundas. [3] [4] [5] [6] Debido a las limitaciones de la impresión y el contraste de visualización , el rango dinámico extendido de las imágenes HDR debe comprimirse al rango que se puede mostrar. El método de renderizar una imagen de alto rango dinámico a un monitor estándar o dispositivo de impresión se llama mapeo de tonos ; reduce el contraste general de una imagen HDR para permitir la visualización en dispositivos o impresiones con un rango dinámico más bajo.
Uno de los objetivos de la tecnología HDR es presentar un rango de luminancia similar al que se experimenta a través del sistema visual humano . El ojo humano, mediante una respuesta no lineal, la adaptación del iris y otros métodos, se ajusta constantemente a un amplio rango de luminancia presente en el entorno. El cerebro interpreta continuamente esta información para que el espectador pueda ver en una amplia gama de condiciones de luz.
La mayoría de las cámaras están limitadas a un rango mucho más estrecho de valores de exposición dentro de una sola imagen, debido al rango dinámico del medio de captura. Con un rango dinámico limitado, las diferencias tonales solo se pueden capturar dentro de un cierto rango de brillo. Fuera de este rango, no se pueden distinguir detalles: cuando el tono que se captura excede el rango en áreas brillantes, estos tonos aparecen como blanco puro, y cuando el tono que se captura no cumple con el umbral mínimo, estos tonos aparecen como negro puro. Las imágenes capturadas con cámaras que no son HDR que tienen un rango de exposición limitado (rango dinámico bajo, LDR), pueden perder detalles en las altas luces o las sombras .
Los sensores de imagen CMOS modernos tienen un rango dinámico mejorado y, a menudo, pueden capturar una gama más amplia de tonos en una sola exposición [10], lo que reduce la necesidad de realizar HDR de exposición múltiple. Los negativos y diapositivas de película en color constan de múltiples capas de película que responden a la luz de manera diferente. La película original (especialmente los negativos en comparación con las transparencias o diapositivas) presenta un rango dinámico muy alto (del orden de 8 para los negativos y de 4 a 4,5 para las transparencias positivas).
El HDR de exposición múltiple se utiliza en fotografía y también en aplicaciones de rango dinámico extremo, como trabajos de soldadura o de automoción. En las cámaras de seguridad se utiliza el término "rango dinámico amplio" en lugar de HDR.
Un sujeto que se mueve rápidamente o el movimiento de la cámara entre las múltiples exposiciones generará un efecto "fantasma" o un efecto estroboscópico de desenfoque escalonado debido a que las imágenes fusionadas no son idénticas. A menos que el sujeto esté estático y la cámara esté montada en un trípode, puede haber un equilibrio entre el rango dinámico extendido y la nitidez. Los cambios repentinos en las condiciones de iluminación (luz LED estroboscópica) también pueden interferir con los resultados deseados, al producir una o más capas HDR que sí tienen la luminosidad esperada por un sistema HDR automatizado, aunque aún se podría producir una imagen HDR razonable manualmente en el software reorganizando las capas de la imagen para fusionarlas en orden de su luminosidad real.
Debido a la no linealidad de algunos sensores, pueden ser comunes los artefactos de imagen.
Las características de la cámara, como las curvas gamma , la resolución del sensor, el ruido, la calibración fotométrica y la calibración del color, afectan las imágenes resultantes de alto rango dinámico. [11]
Las fotografías de alto rango dinámico generalmente son composiciones de múltiples imágenes de rango dinámico estándar, a menudo capturadas mediante horquillado de exposición . Luego, el software de manipulación de fotografías fusiona los archivos de entrada en una sola imagen HDR, a la que luego también se le aplican mapas de tonos de acuerdo con las limitaciones de la salida o visualización planificada.
Cualquier cámara que permita el control manual de la exposición puede realizar capturas de imágenes HDR con múltiples exposiciones, aunque una equipada con horquillado automático de exposición (AEB) facilita el proceso. Algunas cámaras tienen una función AEB que abarca un rango dinámico mucho mayor que otras, desde ±0,6 en cámaras más sencillas hasta ±18 EV en las mejores cámaras profesionales, a partir de 2020. [12][actualizar]
El valor de exposición (EV) se refiere a la cantidad de luz aplicada al detector fotosensible, ya sea una película o un sensor digital como un CCD . Un aumento o disminución de un paso se define como la duplicación o reducción a la mitad de la cantidad de luz capturada. Revelar detalles en las sombras más oscuras requiere un EV mayor, mientras que preservar los detalles en situaciones muy brillantes requiere EV muy bajos.
El valor EV se controla mediante uno de dos controles fotográficos: variando el tamaño de la apertura o el tiempo de exposición. Un conjunto de imágenes con múltiples valores EV destinados al procesamiento HDR debe capturarse únicamente modificando el tiempo de exposición; modificar el tamaño de la apertura también afectaría la profundidad de campo y, por lo tanto, las múltiples imágenes resultantes serían bastante diferentes, lo que impediría su combinación final en una única imagen HDR.
La fotografía HDR con exposición múltiple generalmente se limita a escenas fijas porque cualquier movimiento entre imágenes sucesivas impedirá o impedirá el éxito de la combinación posterior. Además, debido a que el fotógrafo debe capturar tres o más imágenes para obtener el rango de luminancia deseado , tomar un conjunto tan completo de imágenes requiere tiempo adicional. Los fotógrafos han desarrollado métodos y técnicas de cálculo para superar parcialmente estos problemas, pero se recomienda el uso de un trípode resistente para minimizar las diferencias de encuadre entre exposiciones.
La información tonal y los detalles de las áreas de sombra se pueden recuperar de imágenes que están deliberadamente sobreexpuestas (es decir, con EV positivo en comparación con la exposición correcta de la escena), mientras que la información tonal similar de las áreas de luces se puede recuperar de imágenes que están deliberadamente subexpuestas (EV negativo). El proceso de seleccionar y extraer información de sombras y luces de estas imágenes sobreexpuestas/subexpuestas y luego combinarlas con imágenes que están expuestas correctamente para la escena general se conoce como fusión de exposición . La fusión de exposición se puede realizar manualmente, dependiendo del criterio, la experiencia y la capacitación del operador de HDR, pero generalmente, la fusión se realiza automáticamente mediante software.
La información almacenada en imágenes de alto rango dinámico corresponde típicamente a los valores físicos de luminancia o radiancia que se pueden observar en el mundo real. Esto es diferente de las imágenes digitales tradicionales , que representan colores como deberían aparecer en un monitor o una impresión en papel. Por lo tanto, los formatos de imagen HDR a menudo se denominan referidos a la escena , en contraste con las imágenes digitales tradicionales, que son referidas al dispositivo o referidas a la salida . Además, las imágenes tradicionales generalmente se codifican para el sistema visual humano (maximizando la información visual almacenada en el número fijo de bits), lo que generalmente se llama codificación gamma o corrección gamma . Los valores almacenados para imágenes HDR a menudo se comprimen gamma utilizando funciones matemáticas como leyes de potencia , logaritmos o valores lineales de punto flotante , ya que las codificaciones lineales de punto fijo son cada vez más ineficientes en rangos dinámicos más altos. [13] [14] [15]
Las imágenes HDR a menudo no utilizan rangos fijos por canal de color , a diferencia de las imágenes tradicionales, para representar muchos más colores en un rango dinámico mucho más amplio (canales múltiples). Para ese propósito, no utilizan valores enteros para representar los canales de color individuales (por ejemplo, 0-255 en un intervalo de 8 bits por píxel para rojo, verde y azul), sino que utilizan una representación de punto flotante. Los valores comunes son números de punto flotante de 16 bits ( media precisión ) o 32 bits para representar píxeles HDR. Sin embargo, cuando se utiliza la función de transferencia adecuada , los píxeles HDR para algunas aplicaciones se pueden representar con una profundidad de color que tiene tan solo 10 a 12 bits (1024 a 4096 valores) para luminancia y 8 bits (256 valores) para crominancia sin introducir ningún artefacto de cuantificación visible . [13] [16]
El mapeo de tonos reduce el rango dinámico, o la relación de contraste, de una imagen completa, al tiempo que conserva el contraste localizado. Aunque es una operación distinta, el mapeo de tonos suele aplicarse a los archivos HDR mediante el mismo paquete de software.
A menudo se necesita el mapeo de tonos porque el rango dinámico que se puede mostrar suele ser menor que el rango dinámico de la imagen capturada o procesada. [10] Las pantallas HDR pueden recibir una señal de rango dinámico más alto que las pantallas SDR , lo que reduce la necesidad de mapeo de tonos.
El HDR se puede realizar mediante varios métodos:
Este es un ejemplo de cuatro imágenes de rango dinámico estándar que se combinan para producir tres imágenes resultantes con mapas de tonos :
Este es un ejemplo de una escena con un rango dinámico muy amplio:
Hay varias aplicaciones de software disponibles en las plataformas PC, Mac y Linux para producir archivos HDR e imágenes con mapas de tonos. [19] Entre los títulos destacados se incluyen:
Varios fabricantes de cámaras ofrecen funciones HDR de exposición múltiple integradas. Por ejemplo, la cámara réflex digital Pentax K-7 tiene un modo HDR que realiza 3 o 5 exposiciones y genera (solamente) una imagen HDR con mapeo de tonos en un archivo JPEG. [20] La Canon PowerShot G12 , la Canon PowerShot S95 y la Canon PowerShot S100 ofrecen funciones similares en un formato más pequeño. [21] El enfoque de Nikon se denomina "D-Lighting activo" y aplica compensación de exposición y mapeo de tonos a la imagen tal como sale del sensor, con el énfasis puesto en crear un efecto realista. [22]
Algunos teléfonos inteligentes ofrecen modos HDR para sus cámaras, y la mayoría de las plataformas móviles tienen aplicaciones que permiten tomar fotografías HDR con múltiples exposiciones. [23] Google lanzó un modo HDR+ para los teléfonos inteligentes Nexus 5 y Nexus 6 en 2014, que captura automáticamente una serie de imágenes y las combina en una sola imagen fija, como detalla Marc Levoy . A diferencia del HDR tradicional, la implementación de HDR+ de Levoy utiliza múltiples imágenes subexpuestas mediante el uso de una velocidad de obturación corta, que luego se alinean y promedian por píxel, lo que mejora el rango dinámico y reduce el ruido. Al seleccionar la imagen más nítida como base para la alineación, se reduce el efecto del movimiento de la cámara. [24]
Algunos de los sensores de los teléfonos y cámaras modernos pueden combinar dos imágenes en un chip para que el usuario pueda visualizar o procesar directamente un rango dinámico más amplio sin compresión de píxeles. [ cita requerida ]
Aunque no está tan establecido como la captura de fotografías fijas, también es posible capturar y combinar múltiples imágenes para cada fotograma de un video con el fin de aumentar el rango dinámico capturado por la cámara. [25] Esto se puede hacer a través de múltiples métodos:
Algunas cámaras diseñadas para usarse en aplicaciones de seguridad pueden proporcionar automáticamente dos o más imágenes para cada cuadro, con exposición cambiante. [ cita requerida ] Por ejemplo, un sensor para video de 30 fps emitirá 60 fps con los cuadros impares en un tiempo de exposición corto y los cuadros pares en un tiempo de exposición más largo.
En 2020, Qualcomm anunció Snapdragon 888 , un SoC móvil capaz de realizar captura de video HDR multiexposición computacional en 4K y también grabarlo en un formato compatible con pantallas HDR . [29]
En 2021, el teléfono inteligente Xiaomi Mi 11 Ultra puede realizar HDR de exposición múltiple computacional para captura de video. [30]
La captura HDR se puede implementar en cámaras de vigilancia, incluso en modelos económicos. Esto suele denominarse función de amplio rango dinámico (WDR) [31]. Algunos ejemplos son CarCam Tiny, Prestige DVR-390 y DVR-478. [32]
La idea de utilizar varias exposiciones para reproducir adecuadamente un rango de luminancia demasiado extremo fue propuesta por Gustave Le Gray en la década de 1850 para reproducir paisajes marinos que mostraran tanto el cielo como el mar. Tal reproducción era imposible en ese momento con los métodos estándar, ya que el rango de luminosidad era demasiado extremo. Le Gray utilizó un negativo para el cielo y otro con una exposición más prolongada para el mar, y combinó los dos en una sola imagen en positivo. [33]
El mapeo manual de tonos se logró mediante el uso de la técnica de esquivar y quemar , aumentando o disminuyendo selectivamente la exposición de regiones de la fotografía para lograr una mejor reproducción de la tonalidad. Esto fue efectivo porque el rango dinámico del negativo es significativamente mayor que el que estaría disponible en la impresión en papel positiva terminada cuando se expone a través del negativo de manera uniforme. Un excelente ejemplo es la fotografía Schweitzer at the Lamp de W. Eugene Smith , de su ensayo fotográfico de 1954 A Man of Mercy sobre Albert Schweitzer y su trabajo humanitario en el África Ecuatorial Francesa. La imagen tardó cinco días en reproducir el rango tonal de la escena, que va desde una lámpara brillante (en relación con la escena) hasta una sombra oscura. [35]
Ansel Adams elevó el esquivado y el quemado a la categoría de arte. Muchas de sus famosas impresiones fueron manipuladas en el cuarto oscuro con estos dos métodos. Adams escribió un libro completo sobre la producción de impresiones llamado The Print , en el que se destacan el esquivado y el quemado, en el contexto de su sistema de zonas . [36]
Con la llegada de la fotografía en color, el mapeo de tonos en el cuarto oscuro ya no era posible debido a que se necesitaba un tiempo específico durante el proceso de revelado de la película en color. Los fotógrafos recurrieron a los fabricantes de películas para diseñar nuevas películas con una respuesta mejorada, o continuaron fotografiando en blanco y negro para utilizar métodos de mapeo de tonos. [ cita requerida ]
La película en color capaz de grabar directamente imágenes de alto rango dinámico fue desarrollada por Charles Wyckoff y EG&G "en el curso de un contrato con el Departamento de la Fuerza Aérea ". [37] Esta película XR tenía tres capas de emulsión , una capa superior con una clasificación de velocidad ASA de 400, una capa intermedia con una clasificación intermedia y una capa inferior con una clasificación ASA de 0,004. La película se procesó de manera similar a las películas en color , y cada capa produjo un color diferente. [38] El rango dinámico de esta película de rango extendido se ha estimado en 1:10 8 . [39] Se ha utilizado para fotografiar explosiones nucleares, [40] para fotografía astronómica, [41] para investigación espectrográfica, [42] y para imágenes médicas. [43] Las imágenes detalladas de Wyckoff de explosiones nucleares aparecieron en la portada de la revista Life a mediados de la década de 1950.
Georges Cornuéjols y los licenciatarios de sus patentes (Brdi, Hymatom) introdujeron el principio de la imagen de vídeo HDR en 1986, interponiendo una pantalla LCD matricial delante del sensor de imagen de la cámara, [44] aumentando la dinámica del sensor en cinco pasos.
El concepto de mapeo de tonos de vecindad fue aplicado a las cámaras de video en 1988 por un grupo del Technion en Israel, dirigido por Oliver Hilsenrath y Yehoshua Y. Zeevi. Los investigadores del Technion solicitaron una patente para este concepto en 1991, [45] y varias patentes relacionadas en 1992 y 1993. [46]
En febrero y abril de 1990, Georges Cornuéjols presentó la primera cámara HDR en tiempo real que combinaba dos imágenes captadas sucesivamente por un sensor [47] o simultáneamente [48] por dos sensores de la cámara. Este proceso se conoce como horquillado y se utiliza para una transmisión de vídeo.
En 1991, Hymatom, licenciatario de Georges Cornuéjols, presentó la primera cámara de vídeo comercial que capturaba en tiempo real múltiples imágenes con diferentes exposiciones y producía una imagen de vídeo HDR.
También en 1991, Georges Cornuéjols introdujo el principio de imagen HDR+ mediante acumulación no lineal de imágenes para aumentar la sensibilidad de la cámara: [47] para entornos con poca luz, se acumulan varias imágenes sucesivas, aumentando así la relación señal-ruido .
En 1993, otra cámara médica comercial que producía una imagen de vídeo HDR, fabricada por el Technion. [46]
Las imágenes HDR modernas utilizan un enfoque completamente diferente, basado en la creación de un mapa de luminancia o luz de alto rango dinámico utilizando únicamente operaciones de imagen globales (en toda la imagen) y luego mapeando los tonos del resultado. El HDR global se introdujo por primera vez en 1993 [3], lo que dio como resultado una teoría matemática de imágenes con diferentes exposiciones del mismo tema que fue publicada en 1995 por Steve Mann y Rosalind Picard . [4]
El 28 de octubre de 1998, Ben Sarao creó una de las primeras imágenes HDR+G (alto rango dinámico + gráfico) nocturnas de la STS-95 en la plataforma de lanzamiento del Centro Espacial Kennedy de la NASA . Consistía en cuatro imágenes en película del transbordador espacial de noche que se compusieron digitalmente con elementos gráficos digitales adicionales. La imagen se exhibió por primera vez en el Gran Salón de la Sede de la NASA , en Washington DC, en 1999 y luego se publicó en el Hasselblad Forum . [49]
La llegada de las cámaras digitales de consumo produjo una nueva demanda de imágenes HDR para mejorar la respuesta a la luz de los sensores de las cámaras digitales, que tenían un rango dinámico mucho menor que la película. Steve Mann desarrolló y patentó el método global-HDR para producir imágenes digitales con un rango dinámico extendido en el MIT Media Lab . [50] El método de Mann implicaba un procedimiento de dos pasos: primero, generar una matriz de imágenes de punto flotante mediante operaciones de imagen solo globales (operaciones que afectan a todos los píxeles de manera idéntica, sin tener en cuenta sus vecindarios locales). Segundo, convertir esta matriz de imágenes, utilizando el procesamiento de vecindario local (reasignación de tonos, etc.), en una imagen HDR. La matriz de imágenes generada por el primer paso del proceso de Mann se llama imagen de espacio de luz , fotografía de espacio de luz o mapa de radiancia . Otro beneficio de las imágenes global-HDR es que proporciona acceso al mapa de luz o radiancia intermedio, que se ha utilizado para la visión por computadora y otras operaciones de procesamiento de imágenes . [50]
En febrero de 2001, se demostró la técnica Dynamic Ranger, que utiliza múltiples fotografías con diferentes niveles de exposición para lograr un alto rango dinámico similar al del ojo desnudo. [51]
A principios de la década de 2000, varias investigaciones académicas utilizaron sensores y cámaras de nivel de consumidor. [52] Algunas empresas como RED y Arri han estado desarrollando sensores digitales capaces de un rango dinámico más alto. [53] [54] RED EPIC-X puede capturar imágenes HDRx secuenciales en el tiempo [17] con una latitud de resaltado adicional de 1 a 3 pasos seleccionable por el usuario en el canal "x". El canal "x" se puede fusionar con el canal normal en el software de posproducción. La cámara Arri Alexa utiliza una arquitectura de doble ganancia para generar una imagen HDR a partir de dos exposiciones capturadas al mismo tiempo. [27]
Con la llegada de las cámaras digitales de bajo coste para el consumidor, muchos aficionados comenzaron a publicar en Internet vídeos time-lapse HDR con mapas de tonos, que son básicamente una secuencia de fotografías fijas en rápida sucesión. En 2010, el estudio independiente Soviet Montage produjo un ejemplo de vídeo HDR a partir de secuencias de vídeo con exposición desigual utilizando un divisor de haz y cámaras de vídeo HD de consumo. [55] Se han descrito métodos similares en la literatura académica en 2001 y 2007. [56] [57]
En 2005, Adobe Systems introdujo varias características nuevas en Photoshop CS2 , entre ellas, Combinar con HDR , compatibilidad con imágenes de punto flotante de 32 bits y mapeo de tonos HDR. [58]
El 30 de junio de 2016, Microsoft agregó soporte para la composición digital de imágenes HDR a Windows 10 utilizando la Plataforma universal de Windows . [59]
imágenes que almacenan una representación de la escena en un rango de intensidades acorde con la escena son lo que llamamos HDR o "mapas de radiancia". Por otro lado, llamamos LDR a las imágenes adecuadas para su visualización con la tecnología de visualización actual.
{{cite book}}
: |work=
ignorado ( ayuda )