La reproyección asincrónica es una clase de tecnologías de gráficos por computadora cuyo objetivo es garantizar la capacidad de respuesta de un casco de realidad virtual al movimiento del usuario, incluso cuando la GPU no puede mantener el ritmo de cuadros objetivo del casco . [1] La reproyección implica que el controlador del auricular tome uno o varios cuadros previamente renderizados y use información de movimiento más reciente de los sensores del auricular para extrapolar (a menudo denominado "reproyectar" o "deformar") el cuadro anterior en una predicción de lo que normalmente se representa. como se vería el marco. [2] "Asíncrono" se refiere a que este proceso se realiza continuamente en paralelo con el renderizado, lo que permite que los cuadros reproyectados se muestren sin demora en caso de que un cuadro normal no se renderice a tiempo. [2]
El uso de estas técnicas permite reducir las especificaciones del hardware de reproducción de vídeo necesarias para lograr un determinado nivel de capacidad de respuesta previsto. [3]
Varios proveedores han implementado sus propias variaciones de la técnica con diferentes nombres. Google y Valve se refieren a las versiones básicas de la técnica como reproyección asíncrona , [1] [4] mientras que Oculus tiene dos implementaciones, llamadas timewarp asíncrono [2] y spacewarp asíncrono . La distorsión del tiempo asincrónica utiliza los datos de rotación de los auriculares para extrapolar un nuevo fotograma renderizado en función del último fotograma que recibió. La deformación espacial asincrónica también utiliza información de profundidad para ayudar a compensar la perspectiva y otros cambios geométricos. [5] [6] [7] La primera versión de Valve llamada reproyección intercalada haría que la aplicación se ejecutara a la mitad de la velocidad de fotogramas y reproyectara cada dos fotogramas. [8] Una variante posterior de Valve es SteamVR Motion Smoothing , que se basa en la reproyección asincrónica regular para poder reproyectar dos fotogramas en lugar de uno. [4]