stringtranslate.com

Reproyección asincrónica

La reproyección asincrónica es una clase de tecnologías de gráficos por computadora cuyo objetivo es garantizar la capacidad de respuesta de un casco de realidad virtual al movimiento del usuario, incluso cuando la GPU no puede mantener el ritmo de cuadros objetivo del casco . [1] La reproyección implica que el controlador del auricular tome uno o varios cuadros previamente renderizados y use información de movimiento más reciente de los sensores del auricular para extrapolar (a menudo denominado "reproyectar" o "deformar") el cuadro anterior en una predicción de lo que normalmente se representa. como se vería el marco. [2] "Asíncrono" se refiere a que este proceso se realiza continuamente en paralelo con el renderizado, lo que permite que los cuadros reproyectados se muestren sin demora en caso de que un cuadro normal no se renderice a tiempo. [2]

El uso de estas técnicas permite reducir las especificaciones del hardware de reproducción de vídeo necesarias para lograr un determinado nivel de capacidad de respuesta previsto. [3]

Variaciones

Varios proveedores han implementado sus propias variaciones de la técnica con diferentes nombres. Google y Valve se refieren a las versiones básicas de la técnica como reproyección asíncrona , [1] [4] mientras que Oculus tiene dos implementaciones, llamadas timewarp asíncrono [2] y spacewarp asíncrono . La distorsión del tiempo asincrónica utiliza los datos de rotación de los auriculares para extrapolar un nuevo fotograma renderizado en función del último fotograma que recibió. La deformación espacial asincrónica también utiliza información de profundidad para ayudar a compensar la perspectiva y otros cambios geométricos. [5] [6] [7] La ​​primera versión de Valve llamada reproyección intercalada haría que la aplicación se ejecutara a la mitad de la velocidad de fotogramas y reproyectara cada dos fotogramas. [8] Una variante posterior de Valve es SteamVR Motion Smoothing , que se basa en la reproyección asincrónica regular para poder reproyectar dos fotogramas en lugar de uno. [4]

Ver también

Referencias

  1. ^ ab "Reproyección asincrónica". Desarrolladores de Google . Corporación Google . Consultado el 10 de junio de 2019 .
  2. ^ abc Antonov, Michael (2 de marzo de 2015). "Examen de la distorsión del tiempo asincrónica". Blog para desarrolladores de Oculus . Tecnologías de Facebook, LLC . Consultado el 10 de junio de 2019 .
  3. ^ Orland, Kyle (10 de junio de 2019). "Oculus reduce las especificaciones mínimas de Rift utilizando tecnología de" deformación espacial asíncrona ". ArsTechnica . Conde Nast . Consultado el 10 de junio de 2019 .
  4. ^ ab Vlachos, Alex (27 de noviembre de 2018). "Presentamos el suavizado de movimiento SteamVR". Comunidad de vapor . Válvula . Consultado el 10 de junio de 2019 .
  5. ^ Beeler, decano; Hutchins, Ed; Pedriana, Paul (10 de noviembre de 2016). "Deformación espacial asincrónica". Blog para desarrolladores de Oculus . Tecnologías de Facebook, LLC . Consultado el 10 de junio de 2019 .
  6. ^ Aksoy, Volga; Beeler, Dean (9 de agosto de 2019). "Spacewarp asincrónico 2.0". Blog para desarrolladores de Oculus . Tecnologías de Facebook, LLC . Consultado el 18 de agosto de 2020 .
  7. ^ Lang, Ben (4 de abril de 2019). "Oculus lanza ASW 2.0 con Timewarp posicional para reducir la latencia y mejorar el rendimiento". Camino a la realidad virtual . Consultado el 13 de noviembre de 2022 .
  8. ^ Leiby, Aaron (26 de marzo de 2016). "La reproyección entrelazada ahora está habilitada para todas las aplicaciones de forma predeterminada". Comunidad de vapor . Válvula . Consultado el 10 de junio de 2019 .