stringtranslate.com

Representación de alto rango dinámico

Una comparación del renderizado estándar de apertura fija (izquierda) con el renderizado HDR (derecha) en el videojuego Half-Life 2: Lost Coast

La representación de alto rango dinámico ( HDRR o representación HDR ), también conocida como iluminación de alto rango dinámico , es la representación de escenas de gráficos por computadora mediante el uso de cálculos de iluminación realizados en alto rango dinámico (HDR). Esto permite preservar detalles que pueden perderse debido a relaciones de contraste limitadas . Los videojuegos , las películas y los efectos especiales generados por computadora se benefician de esto, ya que crea escenas más realistas que con modelos de iluminación más simplistas.

La empresa de procesadores gráficos Nvidia resume la motivación para HDR en tres puntos: las cosas brillantes pueden ser muy brillantes, las cosas oscuras pueden ser muy oscuras y los detalles se pueden ver en ambos. [1]

Historia

Greg Ward introdujo el uso de imágenes de alto rango dinámico (HDRI) en gráficos por computadora en 1985 con su software de simulación de iluminación y renderizado Radiance de código abierto que creó el primer formato de archivo que retenía una imagen de alto rango dinámico. HDRI languideció durante más de una década, frenada por una potencia informática, almacenamiento y métodos de captura limitados. Hasta hace poco no se había desarrollado la tecnología necesaria para poner en práctica el HDRI. [2] [3]

En 1990, Nakame y cols. , presentó un modelo de iluminación para simuladores de conducción que destacó la necesidad de un procesamiento de alto rango dinámico en simulaciones realistas. [4]

En 1995, Greg Spencer presentó en SIGGRAPH los efectos de deslumbramiento basados ​​en la física para imágenes digitales , proporcionando un modelo cuantitativo para los destellos y el florecimiento en el ojo humano. [5]

En 1997, Paul Debevec presentó Recuperación de mapas de radiancia de alto rango dinámico a partir de fotografías [6] en SIGGRAPH, y al año siguiente presentó Renderización de objetos sintéticos en escenas reales . [7] Estos dos artículos sentaron las bases para crear sondas de luz HDR de una ubicación y luego usar esta sonda para iluminar una escena renderizada.

Desde entonces, HDRI y HDRL ( iluminación basada en imágenes de alto rango dinámico ) se han utilizado en muchas situaciones en escenas 3D en las que insertar un objeto 3D en un entorno real requiere los datos de la sonda de luz para proporcionar soluciones de iluminación realistas.

En aplicaciones de juegos, Riven: The Sequel to Myst en 1997 utilizó un sombreador de posprocesamiento HDRI basado directamente en el artículo de Spencer. [8] Después del E3 de 2003, Valve lanzó una película de demostración de su motor Source representando un paisaje urbano en un alto rango dinámico. [9] El término no volvió a usarse comúnmente hasta el E3 de 2004, donde ganó mucha más atención cuando Epic Games presentó Unreal Engine 3 y Valve anunció Half-Life 2: Lost Coast en 2005, junto con motores de código abierto como OGRE 3D. y juegos de código abierto como Nexuiz .

Ejemplos

Una de las principales ventajas del renderizado HDR es que se conservan los detalles de una escena con una gran relación de contraste. Sin HDR, las áreas demasiado oscuras se recortan en negro y las áreas demasiado brillantes se recortan en blanco. Estos están representados por el hardware como un valor de coma flotante de 0,0 y 1,0 para negro puro y blanco puro, respectivamente.

Otro aspecto del renderizado HDR es la adición de señales de percepción que aumentan el brillo aparente. El renderizado HDR también afecta a cómo se conserva la luz en fenómenos ópticos como reflejos y refracciones , así como en materiales transparentes como el vidrio. En el renderizado LDR, las fuentes de luz muy brillantes en una escena (como el sol) tienen un límite de 1,0. Cuando esta luz se refleja, el resultado debe ser menor o igual a 1,0. Sin embargo, en el renderizado HDR, las fuentes de luz muy brillantes pueden superar el brillo 1,0 para simular sus valores reales. Esto permite que los reflejos de las superficies mantengan un brillo realista para fuentes de luz brillantes.

Limitaciones y compensaciones

Ojo humano

El ojo humano puede percibir escenas con una relación de contraste dinámico muy alta , en torno a 1.000.000:1. La adaptación se logra en parte mediante ajustes del iris y cambios químicos lentos, que toman algún tiempo (por ejemplo, el retraso en poder ver cuando se pasa de una iluminación brillante a una oscuridad total). En un momento dado, el rango estático del ojo es menor, alrededor de 10.000:1. Sin embargo, esto sigue siendo mayor que el rango estático de la mayoría de las tecnologías de visualización. [ cita necesaria ]

Salida a pantallas

Aunque muchos fabricantes afirman cifras muy altas, las pantallas de plasma , las pantallas LCD y las pantallas CRT pueden ofrecer sólo una fracción de la relación de contraste que se encuentra en el mundo real, y éstas generalmente se miden en condiciones ideales. [ cita necesaria ] El contraste simultáneo del contenido real en condiciones de visualización normales es significativamente menor.

Se puede lograr cierto aumento en el rango dinámico de los monitores LCD reduciendo automáticamente la luz de fondo en escenas oscuras. Por ejemplo, LG llama a esta tecnología "Contraste fino digital"; [10] Samsung lo describe como "relación de contraste dinámico". Otra técnica es tener una variedad de luces de fondo LED más brillantes y más oscuras, por ejemplo con sistemas desarrollados por BrightSide Technologies. [11]

Las pantallas OLED tienen mejores capacidades de rango dinámico que las LCD, similares al plasma pero con menor consumo de energía. Rec. 709 define el espacio de color para HDTV y Rec. 2020 define un espacio de color más grande pero aún incompleto para la televisión de ultra alta definición .

Floración ligera

El florecimiento de la luz es el resultado de la dispersión en la lente humana, que el cerebro humano interpreta como un punto brillante en una escena. Por ejemplo, una luz brillante en el fondo parecerá derramarse sobre los objetos en primer plano. Esto se puede utilizar para crear una ilusión que haga que el punto brillante parezca más brillante de lo que realmente es. [5]

Llamarada

El destello es la difracción de la luz en la lente humana, lo que da como resultado "rayos" de luz que emanan de pequeñas fuentes de luz y también puede provocar algunos efectos cromáticos. Es más visible en fuentes de luz puntuales debido a su pequeño ángulo visual. [5]

Los dispositivos de visualización típicos no pueden mostrar una luz tan brillante como la del sol, y la iluminación ambiental de la habitación les impide mostrar un negro verdadero. Por lo tanto, los sistemas de renderizado HDR tienen que mapear todo el rango dinámico de lo que el ojo vería en la situación renderizada en las capacidades del dispositivo. Este mapeo de tonos se realiza en relación con lo que ve la cámara de escena virtual, combinado con varios efectos de pantalla completa , por ejemplo, para simular polvo en el aire iluminado por la luz solar directa en una caverna oscura, o la dispersión en el ojo.

El mapeo de tonos y los sombreadores florecientes se pueden usar juntos para ayudar a simular estos efectos.

Mapeo de tonos

El mapeo de tonos, en el contexto de la representación de gráficos, es una técnica utilizada para mapear colores desde un rango dinámico alto (en el que se realizan cálculos de iluminación) a un rango dinámico más bajo que coincide con las capacidades del dispositivo de visualización deseado. Normalmente, el mapeo no es lineal: conserva suficiente rango para colores oscuros y limita gradualmente el rango dinámico para colores brillantes. Esta técnica suele producir imágenes visualmente atractivas con buenos detalles y contraste generales. Existen varios operadores de mapeo tonal, que van desde métodos simples en tiempo real utilizados en juegos de computadora hasta técnicas más sofisticadas que intentan imitar la respuesta perceptiva del sistema visual humano.

Aplicaciones en entretenimiento informático.

Actualmente, HDRR ha prevalecido en los juegos , principalmente para PC , Xbox 360 de Microsoft y PlayStation 3 de Sony . También ha sido simulado en los sistemas PlayStation 2 , GameCube , Xbox y Amiga . Sproing Interactive Media ha anunciado que su nuevo motor de juego Athena para Wii admitirá HDRR, agregando Wii a la lista de sistemas que lo admiten.

En la autoedición y los juegos, los valores de color suelen procesarse varias veces. Como esto incluye multiplicación y división (que pueden acumular errores de redondeo ), es útil tener la precisión y el rango extendidos de los formatos de entero de 16 bits o de punto flotante de 16 bits . Esto es útil independientemente de las limitaciones antes mencionadas en algunos hardware.

Desarrollo de HDRR a través de DirectX

Los complejos efectos de sombreado comenzaron a funcionar con el lanzamiento de Shader Model 1.0 con DirectX 8. Shader Model 1.0 iluminó mundos 3D con lo que se llama iluminación estándar. La iluminación estándar, sin embargo, tenía dos problemas:

  1. La precisión de la iluminación se limitó a números enteros de 8 bits, lo que limitó la relación de contraste a 256:1. Usando el modelo de color HVS , el valor (V) o brillo de un color tiene un rango de 0 a 255. Esto significa que el blanco más brillante (un valor de 255) es sólo 255 niveles más brillante que el tono más oscuro por encima del negro puro (es decir, : valor de 0).
  2. Los cálculos de iluminación se basaron en números enteros , lo que no ofreció tanta precisión porque el mundo real no se limita a números enteros.

El 24 de diciembre de 2002, Microsoft lanzó una nueva versión de DirectX . DirectX 9.0 introdujo Shader Model 2.0, que ofrecía uno de los componentes necesarios para permitir la representación de imágenes de alto rango dinámico: la precisión de la iluminación no se limitaba a sólo 8 bits. Aunque 8 bits era el mínimo en las aplicaciones, los programadores podían elegir hasta un máximo de 24 bits para mayor precisión de iluminación. Sin embargo, todos los cálculos todavía se basaban en números enteros. Una de las primeras tarjetas gráficas que admitió DirectX 9.0 de forma nativa fue la Radeon 9700 de ATI , aunque el efecto no se programó en los juegos hasta años después. El 23 de agosto de 2003, Microsoft actualizó DirectX a DirectX 9.0b, lo que habilitó el perfil Pixel Shader 2.x (Extendido) para la serie Radeon X de ATI y la serie de unidades de procesamiento de gráficos GeForce FX de NVIDIA .

El 9 de agosto de 2004, Microsoft actualizó DirectX una vez más a DirectX 9.0c. Esto también expuso el perfil Shader Model 3.0 para High-Level Shader Language (HLSL). La precisión de iluminación de Shader Model 3.0 tiene un mínimo de 32 bits, a diferencia del mínimo de 8 bits de 2.0. Además, todos los cálculos de precisión de la iluminación ahora se basan en punto flotante . NVIDIA afirma que las relaciones de contraste con Shader Model 3.0 pueden llegar a 65535:1 utilizando una precisión de iluminación de 32 bits. Al principio, HDRR solo era posible en tarjetas de video con capacidad para efectos Shader-Model-3.0, pero los desarrolladores de software pronto agregaron compatibilidad para Shader Model 2.0. Como nota al margen, cuando se hace referencia a él como Shader Model 3.0 HDR, HDR en realidad se realiza mediante combinación FP16. La combinación FP16 no forma parte de Shader Model 3.0, pero es compatible principalmente con tarjetas que también admiten Shader Model 3.0 (las excepciones incluyen la serie GeForce 6200). La combinación FP16 se puede utilizar como una forma más rápida de renderizar HDR en videojuegos.

Shader Model 4.0 es una característica de DirectX 10, que se lanzó con Windows Vista. Shader Model 4.0 permite renderizado HDR de 128 bits, a diferencia del HDR de 64 bits en Shader Model 3.0 (aunque esto es teóricamente posible en Shader Model 3.0).

Shader Model 5.0 es una característica de DirectX 11. Permite la compresión 6:1 de texturas HDR sin pérdida notable, lo cual prevalece en versiones anteriores de las técnicas de compresión de texturas DirectX HDR.

Desarrollo de HDRR a través de OpenGL

Es posible desarrollar HDRR a través del sombreador GLSL a partir de OpenGL 1.4 en adelante.

Motores de juegos que admiten renderizado HDR

Ver también

Referencias

  1. ^ Simon Green y Cem Cebenoyan (2004). "Renderizado de alto rango dinámico (en la GeForce 6800)" (PDF) . Serie GeForce 6 . nVidia. pag. 3.
  2. ^ Reinhard, Erik; Greg Ward; Sumanta Pattanaik; Paul Debevec (agosto de 2005). Imágenes de alto rango dinámico: adquisición, visualización e iluminación basada en imágenes . Westport, Connecticut: Morgan Kaufmann. ISBN 978-0-12-585263-0.
  3. ^ Greg Ward. "Imágenes de alto rango dinámico" (PDF) . en cualquier lugar.com . Consultado el 18 de agosto de 2009 .
  4. ^ Nakamae, Eihachiro; Kaneda, Kazufumi; Okamoto, Takashi; Nishita, Tomoyuki (1990). "Un modelo de iluminación destinado a simuladores de conducción". Actas de la 17ª conferencia anual sobre gráficos por computadora y técnicas interactivas . págs. 395–404. doi : 10.1145/97879.97922. ISBN 978-0201509335. S2CID  11880939.
  5. ^ a b C Spencer, Greg; Shirley, Pedro; Zimmerman, Kurt; Greenberg, Donald P. (1995). "Efectos de deslumbramiento de base física para imágenes digitales". Actas de la 22ª conferencia anual sobre gráficos por computadora y técnicas interactivas: SIGGRAPH '95 . pag. 325. CiteSeerX 10.1.1.41.1625 . doi :10.1145/218380.218466. ISBN  978-0897917018. S2CID  17643910.
  6. ^ Paul E. Debevec y Jitendra Malik (1997). "Recuperación de mapas de radiancia de alto rango dinámico a partir de fotografías". Actas de la 24ª conferencia anual sobre gráficos por computadora y técnicas interactivas: SIGGRAPH '97 . págs. 369–378. doi : 10.1145/258734.258884 . ISBN 0897918967.
  7. ^ Paul E. Debevec (1998). "Representación de objetos sintéticos en escenas reales: uniendo gráficos tradicionales y basados ​​en imágenes con iluminación global y fotografía de alto rango dinámico". Actas de la 25ª conferencia anual sobre gráficos por computadora y técnicas interactivas: SIGGRAPH '98 . págs. 189-198. doi : 10.1145/280814.280864 . ISBN 0897919998.
  8. ^ Forcade, Tim (febrero de 1998). "Desentrañando a Riven". Mundo de los gráficos por computadora .
  9. ^ Válvula (2003). "Half-Life 2: Tráiler de efectos Source DirectX 9.0 (2003)". YouTube. Archivado desde el original el 21 de diciembre de 2021.
  10. ^ Contraste fino digital
  11. ^ BrightSide Technologies ahora es parte de Dolby - Archivado el 10 de septiembre de 2007 en Wayback Machine.
  12. ^ "Renderizado - Funciones - Tecnología Unreal". Juegos épicos . 2006. Archivado desde el original el 7 de marzo de 2011 . Consultado el 15 de marzo de 2011 .
  13. ^ "FUENTE - SISTEMA DE RENDERIZACIÓN". Válvula . 2007. Archivado desde el original el 23 de marzo de 2011 . Consultado el 15 de marzo de 2011 .
  14. ^ "La asombrosa tecnología de The Witcher 3". Jugador de PC . 2015 . Consultado el 8 de mayo de 2016 .
  15. ^ "FarCry 1.3: Last Play de Crytek trae HDR y 3Dc por primera vez". Laboratorios X-bit . 2004. Archivado desde el original el 24 de julio de 2008 . Consultado el 15 de marzo de 2011 .
  16. ^ "CryEngine 2: descripción general". CryTek . 2011 . Consultado el 15 de marzo de 2011 .
  17. ^ Pereira, Chris (3 de diciembre de 2016). "Kojima se asocia con Killzone, Horizon Dev Guerrilla para Death Stranding". GameSpot . CBS interactivo . Archivado desde el original el 4 de diciembre de 2019 . Consultado el 3 de diciembre de 2016 .
  18. ^ "Unigine Engine - Unigine (motor 3D avanzado para juegos multiplataforma y sistemas de realidad virtual)". Unigine Corp. 2011 . Consultado el 15 de marzo de 2011 .
  19. ^ "Doctor Babilonia". Archivado desde el original el 4 de julio de 2015 . Consultado el 3 de julio de 2015 .
  20. ^ "Versión de código abierto con licencia del MIT de Torque 3D de GarageGames: GarageGames / Torque3D". GitHub . 2019-08-22.

enlaces externos