La imagen también contiene datos sobre las distancias de los objetos desde la cámara.
En gráficos por computadora en 3D y visión artificial , un mapa de profundidad es una imagen o canal de imagen que contiene información relacionada con la distancia de las superficies de los objetos de la escena desde un punto de vista. El término está relacionado (y puede ser análogo) con búfer de profundidad , búfer Z , almacenamiento en búfer Z y profundidad Z. [1] La "Z" en estos últimos términos se relaciona con una convención de que el eje central de visión de una cámara está en la dirección del eje Z de la cámara, y no en el eje Z absoluto de una escena.
Ejemplos
Estructura cúbica
Mapa de profundidad: cuanto más cerca, más oscuro
Mapa de profundidad: cuanto más cerca está el plano focal, más oscuro es
Aquí se pueden ver dos mapas de profundidad diferentes, junto con el modelo original del que se derivan. El primer mapa de profundidad muestra la luminancia en proporción a la distancia desde la cámara. Las superficies más cercanas son más oscuras; las más alejadas, más claras. El segundo mapa de profundidad muestra la luminancia en relación con las distancias desde un plano focal nominal. Las superficies más cercanas al plano focal son más oscuras; las más alejadas del plano focal son más claras (tanto las más cercanas como las más alejadas del punto de vista). [ cita requerida ]
Usos
Los mapas de profundidad tienen varios usos, entre ellos:
Simular el efecto de medios semitransparentes uniformemente densos dentro de una escena, como niebla, humo o grandes volúmenes de agua.
Simulación de profundidades de campo reducidas , en las que algunas partes de una escena parecen estar desenfocadas. Los mapas de profundidad se pueden utilizar para desenfocar una imagen de forma selectiva en distintos grados. Una profundidad de campo reducida puede ser una característica de la fotografía macro , por lo que la técnica puede formar parte del proceso de falsificación de miniaturas .
Z-buffering y z-culling, técnicas que se pueden utilizar para hacer más eficiente la representación de escenas 3D. Se pueden utilizar para identificar objetos ocultos a la vista y que, por lo tanto, pueden ignorarse para algunos fines de representación. Esto es particularmente importante en aplicaciones en tiempo real, como los juegos de computadora, donde una sucesión rápida de representaciones completadas debe estar disponible a tiempo para mostrarse a una velocidad regular y fija.
Mapeo de sombras : parte de un proceso utilizado para crear sombras proyectadas por la iluminación en gráficos informáticos 3D. En este uso, los mapas de profundidad se calculan desde la perspectiva de las luces, no del espectador. [2]
Proporcionar la información de distancia necesaria para crear y generar autoestereogramas y en otras aplicaciones relacionadas destinadas a crear la ilusión de visualización en 3D a través de estereoscopía .
Dispersión del subsuelo : se puede utilizar como parte de un proceso para agregar realismo simulando las propiedades semitransparentes de materiales translúcidos como la piel humana.
En visión artificial y visión por computadora, permitir que las imágenes 3D sean procesadas por herramientas de imágenes 2D.
Creación de conjuntos de datos de imágenes de profundidad. [6]
Limitaciones
Los mapas de profundidad de un solo canal registran la primera superficie observada y, por lo tanto, no pueden mostrar información sobre las superficies observadas o refractadas a través de objetos transparentes o reflejadas en espejos. Esto puede limitar su uso para simular con precisión la profundidad de campo o los efectos de niebla.
Los mapas de profundidad de un solo canal no pueden transmitir múltiples distancias cuando se encuentran dentro de la vista de un solo píxel. Esto puede ocurrir cuando más de un objeto ocupa la ubicación de ese píxel. Este podría ser el caso, por ejemplo, de modelos que presentan pelo, piel o césped. En términos más generales, los bordes de los objetos pueden describirse de manera ambigua cuando cubren parcialmente un píxel.
Según el uso previsto de un mapa de profundidad, puede resultar útil o necesario codificar el mapa a mayores profundidades de bits. Por ejemplo, un mapa de profundidad de 8 bits solo puede representar un rango de hasta 256 distancias diferentes.
Dependiendo de cómo se generen, los mapas de profundidad pueden representar la distancia perpendicular entre un objeto y el plano de la cámara de escena. Por ejemplo, una cámara de escena que apunta directamente a una superficie plana y de manera perpendicular a ella puede registrar una distancia uniforme para toda la superficie. En este caso, geométricamente, las distancias reales desde la cámara hasta las áreas de la superficie plana que se ven en las esquinas de la imagen son mayores que las distancias hasta el área central. Sin embargo, para muchas aplicaciones, esta discrepancia no es un problema significativo.
Referencias
^ Computer Arts / 3D World Glossary [ enlace muerto permanente ] , Documento recuperado el 26 de enero de 2011.
^ Eisemann, Elmar; Schwarz, Michael; Assarsson, Ulf; Wimmer, Michael (19 de abril de 2016). Sombras en tiempo real. Prensa CRC. ISBN 978-1-4398-6769-3.
^ ab "Soltani, AA, Huang, H., Wu, J., Kulkarni, TD, y Tenenbaum, JB. Síntesis de formas 3D mediante el modelado de mapas de profundidad y siluetas de múltiples vistas con redes generativas profundas. En Actas de la Conferencia IEEE sobre visión artificial y reconocimiento de patrones (págs. 1511-1519)". GitHub .
^ Schuon, Sebastian, et al. "Lidarboost: Superresolución de profundidad para escaneo de formas 3D tof [ vínculo muerto ] ". Visión artificial y reconocimiento de patrones, 2009. CVPR 2009. Conferencia IEEE sobre. IEEE, 2009.
^ Malik, Aamir Saeed, ed. Aplicaciones de mapas de profundidad e imágenes 3D: algoritmos y tecnologías: algoritmos y tecnologías [ enlace roto ] . IGI Global, 2011.
^ Mousavi, Seyed Muhammad Hossein; Mirinezhad, S. Younes (enero de 2021). "Base de datos de rostros de Kinect iraní (IKFDB): una base de datos de rostros basada en la profundidad de color recopilada por el sensor Kinect v.2". SN Applied Sciences . 3 (1). doi : 10.1007/s42452-020-03999-y . ISSN 2523-3963.