stringtranslate.com

reconstrucción 3D

Reconstrucción 3D de la anatomía general de la vista lateral derecha de una pequeña babosa marina Pseudunela viatoris .

En visión por computadora y gráficos por computadora , la reconstrucción 3D es el proceso de capturar la forma y apariencia de objetos reales. Este proceso se puede lograr mediante métodos activos o pasivos. [1] Si se permite que el modelo cambie su forma con el tiempo, esto se conoce como reconstrucción no rígida o espacio-temporal . [2]

Motivación y aplicaciones.

La investigación de la reconstrucción 3D siempre ha sido un objetivo difícil. Mediante el uso de la reconstrucción 3D se puede determinar el perfil 3D de cualquier objeto, así como conocer las coordenadas 3D de cualquier punto del perfil. La reconstrucción 3D de objetos es un problema generalmente científico y una tecnología central de una amplia variedad de campos, como el diseño geométrico asistido por computadora ( CAGD ), gráficos por computadora , animación por computadora , visión por computadora , imágenes médicas , ciencia computacional , realidad virtual , medios digitales. , etc. [3] Por ejemplo, la información sobre las lesiones de los pacientes se puede presentar en 3D en la computadora, lo que ofrece un enfoque nuevo y preciso en el diagnóstico y, por lo tanto, tiene un valor clínico vital. [4] Los modelos de elevación digitales se pueden reconstruir utilizando métodos como la altimetría láser aérea [5] o el radar de apertura sintética . [6]

Métodos activos

Mapa de ecosondeo en 3D de un cañón submarino

Los métodos activos, es decir, métodos de datos de rango, dado el mapa de profundidad , reconstruyen el perfil 3D mediante un enfoque de aproximación numérica y construyen el objeto en un escenario basado en el modelo. Estos métodos interfieren activamente con el objeto reconstruido, ya sea mecánica o radiométricamente utilizando telémetros , para adquirir el mapa de profundidad, por ejemplo, luz estructurada , telémetro láser y otras técnicas de detección activa. Un ejemplo simple de un método mecánico usaría un medidor de profundidad para medir la distancia a un objeto giratorio colocado sobre una plataforma giratoria. Los métodos radiométricos más aplicables emiten radiación hacia el objeto y luego miden su parte reflejada. Los ejemplos van desde fuentes de luz en movimiento, luz visible coloreada, láseres de tiempo de vuelo [7] hasta microondas o ultrasonidos 3D . Consulte Escaneo 3D para obtener más detalles.

Métodos pasivos

Los métodos pasivos de reconstrucción 3D no interfieren con el objeto reconstruido; solo utilizan un sensor para medir el resplandor reflejado o emitido por la superficie del objeto para inferir su estructura 3D a través de la comprensión de la imagen . [8] Normalmente, el sensor es un sensor de imagen en una cámara sensible a la luz visible y la entrada al método es un conjunto de imágenes digitales (una, dos o más) o vídeo. En este caso hablamos de reconstrucción basada en imágenes y el resultado es un modelo 3D . En comparación con los métodos activos, los métodos pasivos se pueden aplicar a una gama más amplia de situaciones. [9]

Métodos de señales monoculares

Los métodos de señales monoculares se refieren al uso de una o más imágenes desde un punto de vista (cámara) para proceder a la construcción 3D. Hace uso de características 2D (por ejemplo, siluetas, sombreado y textura) para medir la forma 3D, y es por eso que también se llama Shape-From-X, donde X puede ser siluetas , sombreado , textura, etc. La reconstrucción 3D a través de señales monoculares es simple. y rápido, y sólo se necesita una imagen digital adecuada, por lo que sólo una cámara es adecuada. Técnicamente evita la correspondencia estéreo , que es bastante compleja. [10]

Generación y reconstrucción de formas 3D a partir de siluetas o mapas de profundidad de vista única o múltiple [11]
Un " casco visual " reconstruido desde múltiples puntos de vista

Forma a partir del sombreado Debido al análisis de la información de sombra en la imagen, mediante el uso de la reflectancia lambertiana , se restaura la profundidad de la información normal de la superficie del objeto para reconstruir. [12]

Estéreo fotométrico Este método es más sofisticado que el método de forma de sombreado. Se utilizan imágenes tomadas en diferentes condiciones de iluminación para resolver la información de profundidad. Vale la pena mencionar que este enfoque requiere más de una imagen. [13]

Forma a partir de textura Supongamos que un objeto con una superficie lisa está cubierto por unidades de textura replicadas y su proyección de 3D a 2D provoca distorsión y perspectiva . La distorsión y la perspectiva medidas en imágenes 2D proporcionan la pista para resolver inversamente la profundidad de la información normal de la superficie del objeto. [14]

Soluciones basadas en aprendizaje automático El aprendizaje automático permite aprender la correspondencia entre las características sutiles en la entrada y el equivalente 3D respectivo. Las redes neuronales profundas han demostrado ser muy eficaces para la reconstrucción 3D a partir de una imagen de un solo color. [15] Esto funciona incluso para imágenes de entrada no fotorrealistas, como bocetos. [16] Gracias al alto nivel de precisión en las características 3D reconstruidas, se ha empleado un método basado en aprendizaje profundo para aplicaciones de ingeniería biomédica para reconstruir imágenes de TC a partir de rayos X. [17]

Visión en estéreo

La visión estéreo obtiene la información geométrica tridimensional de un objeto a partir de múltiples imágenes basándose en la investigación del sistema visual humano . [18] Los resultados se presentan en forma de mapas de profundidad. Las imágenes de un objeto adquiridas por dos cámaras simultáneamente en diferentes ángulos de visión , o por una sola cámara en diferentes momentos y diferentes ángulos de visión, se utilizan para restaurar su información geométrica 3D y reconstruir su perfil y ubicación 3D. Esto es más directo que los métodos monoculares, como la forma a partir del sombreado.

El método de visión estéreo binocular requiere dos cámaras idénticas con ejes ópticos paralelos para observar un mismo objeto, adquiriendo dos imágenes desde diferentes puntos de vista. En términos de relaciones trigonométricas, la información de profundidad se puede calcular a partir de la disparidad. El método de visión estéreo binocular está bien desarrollado y contribuye de manera estable a una reconstrucción 3D favorable, lo que lleva a un mejor rendimiento en comparación con otras construcciones 3D. Desafortunadamente, requiere mucho cálculo y además su rendimiento es bastante pobre cuando la distancia de la línea de base es grande.

Planteamiento del problema y conceptos básicos

El enfoque de utilizar la visión estéreo binocular para adquirir información geométrica 3D de un objeto se basa en la disparidad visual . [19] La siguiente imagen proporciona un diagrama esquemático simple de visión estéreo binocular con visión horizontal, donde b es la línea de base entre los centros proyectivos de dos cámaras.

Geometría de un sistema estereoscópico.

El origen del sistema de coordenadas de la cámara está en el centro óptico de la lente de la cámara, como se muestra en la figura. En realidad, el plano de imagen de la cámara está detrás del centro óptico de la lente de la cámara. Sin embargo, para simplificar el cálculo, las imágenes se dibujan delante del centro óptico de la lente mediante f. El eje u y el eje v del sistema de coordenadas de la imagen están en la misma dirección que el eje x y el eje y del sistema de coordenadas de la cámara, respectivamente. El origen del sistema de coordenadas de la imagen se encuentra en la intersección del plano de la imagen y el eje óptico. Supongamos un punto del mundo cuyos puntos de imagen correspondientes están y respectivamente en el plano de imagen izquierdo y derecho. Supongamos que dos cámaras están en el mismo plano, entonces las coordenadas y de y son idénticas, es decir, . Según relaciones trigonométricas ,

donde están las coordenadas de en el sistema de coordenadas de la cámara izquierda, es la distancia focal de la cámara. La disparidad visual se define como la diferencia en la ubicación del punto de imagen de un determinado punto del mundo adquirido por dos cámaras,

a partir del cual se pueden calcular las coordenadas de.

Por tanto, una vez conocidas las coordenadas de los puntos de la imagen, además de los parámetros de dos cámaras, se pueden determinar las coordenadas 3D del punto.

La reconstrucción 3D consta de las siguientes secciones:

Adquisición de imágen

La adquisición de imágenes digitales 2D es la fuente de información de la reconstrucción 3D. La reconstrucción 3D comúnmente utilizada se basa en dos o más imágenes, aunque en algunos casos puede emplear solo una imagen. Existen varios tipos de métodos para la adquisición de imágenes que dependen de las ocasiones y propósitos de la aplicación específica. No sólo se deben cumplir los requisitos de la aplicación, sino que también se deben considerar la disparidad visual, la iluminación, el rendimiento de la cámara y las características del escenario.

Calibración de cámara

La calibración de la cámara en Binocular Stereo Vision se refiere a la determinación de la relación de mapeo entre los puntos de la imagen y las coordenadas espaciales en el escenario 3D. La calibración de la cámara es una parte básica y esencial en la reconstrucción 3D mediante Visión Estéreo Binocular.

Extracción de características

El objetivo de la extracción de características es obtener las características de las imágenes, a través de las cuales se procesa la correspondencia estéreo. Como resultado, las características de las imágenes están estrechamente relacionadas con la elección de los métodos de comparación. No existe una teoría universalmente aplicable para la extracción de características, lo que lleva a una gran diversidad de correspondencias estéreo en la investigación de la visión estéreo binocular.

Correspondencia estéreo

La correspondencia estéreo consiste en establecer la correspondencia entre factores primitivos en las imágenes, es decir, hacer coincidir y partir de dos imágenes. Se deben tener en cuenta ciertos factores de interferencia en el escenario, por ejemplo, iluminación, ruido, características físicas de la superficie, etc.

Restauracion

Según una correspondencia precisa, combinada con los parámetros de ubicación de la cámara, la información geométrica 3D se puede recuperar sin dificultades. Debido al hecho de que la precisión de la reconstrucción 3D depende de la precisión de la correspondencia, el error de los parámetros de ubicación de la cámara, etc., los procedimientos anteriores deben realizarse con cuidado para lograr una reconstrucción 3D relativamente precisa.

Reconstrucción 3D de imágenes médicas

La rutina clínica de diagnóstico, el seguimiento del paciente, la cirugía asistida por computadora, la planificación quirúrgica, etc., se ven facilitados por modelos 3D precisos de la parte deseada de la anatomía humana. La principal motivación detrás de la reconstrucción 3D incluye

Aplicaciones:

La reconstrucción 3D tiene aplicaciones en muchos campos. Incluyen:

Planteamiento del problema:

La mayoría de los algoritmos disponibles para la reconstrucción 3D son extremadamente lentos y no se pueden utilizar en tiempo real. Aunque los algoritmos presentados aún están en pañales, tienen el potencial de realizar un cálculo rápido.

Enfoques existentes:

Triangulación de Delaunay (25 Puntos)

Delaunay y las formas alfa

Ambos métodos se han ampliado recientemente para reconstruir nubes de puntos con ruido. [34] En este método, la calidad de los puntos determina la viabilidad del método. Para una triangulación precisa, dado que estamos utilizando todo el conjunto de nubes de puntos, los puntos de la superficie con el error por encima del umbral se representarán explícitamente en la geometría reconstruida. [32]

Cubos de marcha

Métodos de puesta a cero

La reconstrucción de la superficie se realiza utilizando una función de distancia que asigna a cada punto en el espacio una distancia con signo a la superficie S. Se utiliza un algoritmo de contorno para extraer un conjunto de ceros que se utiliza para obtener una representación poligonal del objeto. Así, el problema de reconstruir una superficie a partir de una nube de puntos desorganizada se reduce a la definición de la función f apropiada con valor cero para los puntos muestreados y valor diferente a cero para el resto. Un algoritmo llamado cubos de marcha estableció el uso de tales métodos. [35] Hay diferentes variantes para un algoritmo dado, algunas usan una función discreta f , mientras que otras usan una función de base radial poliarmónica para ajustar el conjunto de puntos inicial. [36] [37] También se han utilizado funciones como Mínimos Cuadrados en Movimiento, funciones básicas con soporte local, [38] basadas en la ecuación de Poisson. La pérdida de precisión de la geometría en áreas con curvatura extrema, es decir, esquinas y bordes, es uno de los principales problemas encontrados. Además, el pretratamiento de la información, mediante la aplicación de algún tipo de técnica de filtrado, también afecta a la definición de las esquinas al suavizarlas. Existen varios estudios relacionados con técnicas de posprocesamiento utilizadas en la reconstrucción para la detección y refinamiento de esquinas pero estos métodos aumentan la complejidad de la solución. [39]

Geometría sólida con representación de volumen Imagen cortesía de Patrick Chris Fragile Ph.D., UC Santa Barbara

Técnica de realidad virtual

La transparencia total del volumen del objeto se visualiza mediante la técnica de realidad virtual. Las imágenes se realizarán proyectando rayos a través de datos de volumen. A lo largo de cada rayo, es necesario calcular la opacidad y el color en cada vóxel. Luego, la información calculada a lo largo de cada rayo se agregará a un píxel en el plano de la imagen. Esta técnica nos ayuda a ver de forma integral toda una estructura compacta del objeto. Dado que la técnica requiere una enorme cantidad de cálculos, las computadoras requieren una configuración sólida que sea apropiada para datos de bajo contraste. Se pueden considerar dos métodos principales para la proyección de rayos:

Trazando un rayo a través de una cuadrícula de vóxeles. Los vóxeles que se atraviesan además de los seleccionados utilizando un algoritmo estándar de 8 conexiones se muestran sombreados.

Cuadrícula de vóxeles

En esta técnica de filtrado, el espacio de entrada se muestrea utilizando una cuadrícula de vóxeles 3D para reducir la cantidad de puntos. [40] Para cada vóxel , se elige un centroide como representante de todos los puntos. Hay dos enfoques, la selección del centroide del vóxel o seleccionar el centroide de los puntos que se encuentran dentro del vóxel. Obtener el promedio de puntos interno tiene un costo computacional mayor, pero ofrece mejores resultados. De este modo, se obtiene un subconjunto del espacio de entrada que representa aproximadamente la superficie subyacente. El método Voxel Grid presenta los mismos problemas que otras técnicas de filtrado: imposibilidad de definir el número final de puntos que representan la superficie, pérdida de información geométrica por la reducción de los puntos dentro de un vóxel y sensibilidad a espacios de entrada ruidosos.

Ver también

Referencias

  1. ^ Lunas, Theo, Luc Van Gool y Maarten Vergauwen. "Reconstrucción 3D a partir de múltiples imágenes, parte 1: Principios". Fundamentos y tendencias en visión y gráficos por computadora 4.4 (2010): 287-404.
  2. ^ Zollhöfer, Michael y col. "Reconstrucción no rígida en tiempo real mediante una cámara RGB-D". Transacciones ACM sobre gráficos 33.4 (2014): 156.
  3. ^ "El futuro del modelado 3D". GarajeGranja . 2017-05-27 . Consultado el 27 de mayo de 2017 .
  4. ^ ab Liping Zheng; Guangyao Li; Jing Sha (2007). "El estudio de la reconstrucción 3D de imágenes médicas". En Luo, Qingming; Wang, Lihong V.; Tuchin, Valery V.; Gu, Min (eds.). Quinto Congreso Internacional sobre Fotónica e Imágenes en Biología y Medicina . Actas de SPIE. vol. 6534. págs. 65342K–65342K–6. doi : 10.1117/12.741321. S2CID  62548928.
  5. ^ Vosselman, George y Sander Dijkman. "Reconstrucción de modelos de construcción en 3D a partir de nubes de puntos y planos del terreno". Archivos internacionales de fotogrametría, teledetección y ciencias de la información espacial 34.3/W4 (2001): 37-44.
  6. ^ Colesanti, Carlo y Janusz Wasowski. "Investigación de deslizamientos de tierra con interferometría de radar de apertura sintética (SAR) espacial". Ingeniería geológica 88.3-4 (2006): 173-199.
  7. ^ ab Mahmoudzadeh, Ahmadreza; Golroo, Amir; Jahanshahi, Mohammad R.; Firoozi Yeganeh, Sayna (enero de 2019). "Estimación de la rugosidad del pavimento fusionando datos de color y profundidad obtenidos de un sensor RGB-D económico". Sensores . 19 (7): 1655. Código bibliográfico : 2019Senso..19.1655M. doi : 10.3390/s19071655 . PMC 6479490 . PMID  30959936. 
  8. ^ Buelthoff, Heinrich H. y Alan L. Yuille. «Shape-from-X: Psicofísica y computación Archivado el 7 de enero de 2011 en Wayback Machine .» Fibras' 91, Boston, MA. Sociedad Internacional de Óptica y Fotónica, 1991.
  9. ^ Lunas, Theo (2010). Reconstrucción 3D a partir de múltiples imágenes. Parte 1, Principios . Gool, Luc van., Vergauwen, Maarten. Hannover, MA: Now Publishers, Inc. ISBN 978-1-60198-285-8. OCLC  607557354.
  10. ^ Saxena, Ashutosh; Sol, Min; Ng, Andrew Y. (2007). "Reconstrucción 3-D a partir de vistas dispersas mediante visión monocular". 2007 IEEE 11ª Conferencia Internacional sobre Visión por Computadora . págs. 1–8. CiteSeerX 10.1.1.78.5303 . doi :10.1109/ICCV.2007.4409219. ISBN  978-1-4244-1630-1. S2CID  17571812.
  11. ^ Soltani, AA; Huang, H.; Wu, J.; Kulkarni, TD; Tenenbaum, JB (2017). "Sintetizar formas 3D mediante el modelado de siluetas y mapas de profundidad de múltiples vistas con redes generativas profundas". Actas de la Conferencia IEEE sobre visión por computadora y reconocimiento de patrones . págs. 1511-1519 - a través de GitHub.
  12. ^ Cuerno, Berthold KP. "Forma a partir del sombreado: un método para obtener la forma de un objeto liso y opaco desde una sola vista". (1970).
  13. ^ Woodham, Robert J. (1980). "Método fotométrico para determinar la orientación de la superficie a partir de múltiples imágenes" (PDF) . Ingeniería Óptica . 19 (1): 138-141. Código Bib : 1980OptEn..19..139W. doi :10.1117/12.7972479. Archivado desde el original (PDF) el 27 de marzo de 2014.
  14. ^ Witkin, Andrew P. (1981). "Recuperar la forma y orientación de la superficie a partir de la textura" (PDF) . Inteligencia artificial . 17 (1–3): 17–45. doi :10.1016/0004-3702(81)90019-9.
  15. ^ Feng, Qi; Shum, Hubert PH; Morishima, Shigeo (2022). "Estimación de profundidad 360 en la naturaleza: el conjunto de datos Depth360 y la red SegFuse". Conferencia IEEE 2022 sobre realidad virtual e interfaces de usuario 3D (VR) . IEEE. págs. 664–673. arXiv : 2202.08010 . doi :10.1109/VR51125.2022.00087. ISBN 978-1-6654-9617-9.
  16. ^ Nozawa, Naoki; Shum, Hubert PH; Feng, Qi; Ho, Edmond SL; Morishima, Shigeo (2022). "Reconstrucción de la forma del coche en 3D a partir de un boceto de contorno utilizando GAN y Lazy Learning". Computadora visual . Saltador. 38 (4): 1317-1330. doi : 10.1007/s00371-020-02024-y . ISSN  1432-2315.
  17. ^ Corona-Figueroa, Abril; Bond-Taylor, Sam; Bhowmik, Neelanjan; Gaus, Yona Falinie A.; Breckon, Toby P.; Shum, Hubert PH; Willcocks, Chris G. (2023). "Traducción no alineada de 2D a 3D con difusión de código cuantificado vectorial condicional mediante transformadores" . IEEE/CVF. arXiv : 2308.14152 .
  18. ^ Kass, Michael; Witkin, Andrés; Terzopoulos, Demetri (1988). "Serpientes: modelos de contorno activos" (PDF) . Revista Internacional de Visión por Computadora . 1 (4): 321–331. doi :10.1007/BF00133570. S2CID  12849354.
  19. ^ McCoun, Jacques y Lucien Reeves. Visión binocular: desarrollo, percepción de profundidad y trastornos. Editores de ciencia nueva, Inc. , 2010.
  20. ^ Mahmoudzadeh, Ahmadreza; Yeganeh, Sayna Firoozi; Golroo, Amir (9 de julio de 2019). "Reconstrucción 3D de la superficie del pavimento mediante un sensor RGB-D". arXiv : 1907.04124 [cs.CV].
  21. ^ Carranza, Joel y col. "Vídeo de punto de vista libre de actores humanos". Transacciones ACM sobre gráficos. vol. 22. N° 3. ACM, 2003.
  22. ^ Thrun, Sebastián. "Mapeo robótico: una encuesta". Explorando la inteligencia artificial en el nuevo milenio 1.1-35 (2002): 1.
  23. ^ Poullis, Charalambos; Tú, Suya (mayo de 2011). "Reconstrucción 3D de Áreas Urbanas". 2011 Conferencia Internacional sobre Imágenes, Modelado, Procesamiento, Visualización y Transmisión 3D . págs. 33–40. doi :10.1109/3dimpvt.2011.14. ISBN 978-1-61284-429-9. S2CID  1189988.
  24. ^ Xu, Fang y Klaus Mueller. "Reconstrucción tomográfica computarizada 3D en tiempo real utilizando hardware de gráficos comercial Archivado el 19 de marzo de 2016 en Wayback Machine ". Física en Medicina y Biología 52.12 (2007): 3405.
  25. ^ ab Mortara, Michela y col. "Aprender el patrimonio cultural mediante juegos serios". Revista de Patrimonio Cultural 15.3 (2014): 318-325.
  26. ^ Bruno, Fabio; et al. (enero-marzo de 2010). "De la reconstrucción 3D a la realidad virtual: Una metodología completa para la exposición arqueológica digital". Revista de Patrimonio Cultural . 11 (1): 42–49. doi :10.1016/j.culher.2009.02.006 - vía ResearchGate.
  27. ^ Izadi, Shahram y otros. "KinectFusion: reconstrucción e interacción 3D en tiempo real mediante una cámara de profundidad en movimiento". Actas del 24º simposio anual de ACM sobre software y tecnología de interfaz de usuario. ACM, 2011.
  28. ^ Wang, junio; Gu, Dongxiao; Yu, Zeyun; Bronceado, Changbai; Zhou, Laishui (diciembre de 2012). "Un marco para la reconstrucción de modelos 3D en ingeniería inversa". Informática e Ingeniería Industrial . 63 (4): 1189-1200. doi :10.1016/j.cie.2012.07.009.
  29. ^ Moeslund, Thomas B. y Erik Granum. "Un estudio sobre la captura del movimiento humano basada en visión por computadora". Visión por computadora y comprensión de imágenes 81.3 (2001): 231-268.
  30. ^ Hejrati, Mohsen y Deva Ramanan. "Análisis por síntesis: reconocimiento de objetos 3D mediante reconstrucción de objetos". Actas de la Conferencia IEEE sobre visión por computadora y reconocimiento de patrones. 2014.
  31. ^ Keskin, Cem, Ayse Erkan y Lale Akarun. "Seguimiento de manos en tiempo real y reconocimiento de gestos en 3D para interfaces interactivas que utilizan hmm". ICANN/ICONIPP 2003 (2003): 26-29.
  32. ^ ab Angelopoulou, A.; Psarrou, A.; García-Rodríguez, J.; Orts-Escolano, S.; Azorín-López, J.; Revett, K. (20 de febrero de 2015). "Reconstrucción 3D de imágenes médicas a partir de cortes marcados automáticamente con modelos neuronales en crecimiento" (PDF) . Neurocomputación . 150 (Parte A): 16-25. doi :10.1016/j.neucom.2014.03.078. hdl : 10045/42544 .
  33. ^ ab Edelsbrunner, Herbert; Mücke, Ernst (enero de 1994). "Formas alfa tridimensionales". Transmisión ACM. Grafico . 13 (1): 43–72. arXiv : matemáticas/9410208 . Bibcode : 1994matemáticas....10208E. doi :10.1145/174462.156635. S2CID  1600979.
  34. ^ ab Dey, Tamal K .; Goswami, Samrat (agosto de 2006). "Probable reconstrucción de superficie a partir de muestras ruidosas". Geometría Computacional . 35 (1–2): 124–141. doi :10.1016/j.comgeo.2005.10.006.
  35. ^ Lorensen, William E.; Cline, Harvey E. (julio de 1987). "Cubos en marcha: un algoritmo de construcción de superficies 3D de alta resolución". Gráficos por computadora ACM SIGGRAPH . 21 (4): 163–169. CiteSeerX 10.1.1.545.613 . doi :10.1145/37402.37422. 
  36. ^ Hoppe, Hugues; DeRose, Tony; Duchamp, Tom; McDonald, John; Stuetzle, Werner (julio de 1992). "Reconstrucción de superficie desde puntos no organizados". Gráficos por computadora ACM SIGGRAPH . 26 (2): 71–78. CiteSeerX 10.1.1.5.3672 . doi :10.1145/142920.134011. 
  37. ^ Carr, JC; Beatson, RK; Cherrie, JB; Mitchell, TJ; Susto, WR; McCallum, antes de Cristo; Evans, TR (2001). «Reconstrucción y representación de objetos 3d con funciones de base radial» (PDF) . 28ª Conferencia Anual sobre Gráficos por Computadora y Técnicas Interactivas SIGGRAPH 2001 . ACM. págs. 67–76.
  38. ^ Walder, C.; Schölkopf, B.; Chapelle, O. (2006). "Modelado de superficies implícitas con una base de soporte compacto globalmente regularizada" (PDF) . Eurografía . 25 (3). Archivado desde el original (PDF) el 22 de septiembre de 2017 . Consultado el 9 de octubre de 2018 .
  39. ^ Wang, CL (junio de 2006). "Reconstrucción incremental de bordes afilados en superficies de malla". Diseño asistido por ordenador . 38 (6): 689–702. doi :10.1016/j.cad.2006.02.009.
  40. ^ Connolly, C. (1984). "Generación acumulativa de modelos de octree a partir de datos de rango". Actas. 1984 Conferencia Internacional IEEE sobre Robótica y Automatización . vol. 1. págs. 25–32. doi :10.1109/ROBOT.1984.1087212.{{cite book}}: Mantenimiento CS1: fecha y año ( enlace )

enlaces externos

enlaces externos