stringtranslate.com

Cuadros por segundo

Velocidad de cuadros (comúnmente expresada enfotogramas por segundo oFPS) suele ser lafrecuencia(velocidad) a la quese capturan o muestranimágenes(fotogramasEsta definición se aplica ade cineyvídeo,la animación por computadorayde captura de movimiento. En estos contextos, la velocidad de fotogramas se puede utilizar indistintamente confrecuencia de fotogramas yfrecuencia de actualización, que se expresan enhercios. Además, en el contexto del rendimiento de los gráficos por computadora, FPS es la velocidad a la que un sistema, en particular unaGPU, puede generar fotogramas, y la frecuencia de actualización es la frecuencia con la que una pantalla muestra fotogramas completos.[1]En las especificaciones de las cámaras electrónicas, la velocidad de cuadros se refiere a la velocidad máxima posible que se pueden capturar los cuadros, pero en la práctica, otras configuraciones (como el tiempo de exposición) pueden reducir la frecuencia real a un número menor que la velocidad de cuadros.

Visión humana

La sensibilidad temporal y la resolución de la visión humana varían según el tipo y las características del estímulo visual, y difiere entre individuos. El sistema visual humano puede procesar de 10 a 12 imágenes por segundo y percibirlas individualmente, mientras que a velocidades más altas se percibe como movimiento. [2] La mayoría de los participantes en los estudios perciben la luz modulada (como la pantalla de una computadora ) como estable cuando la frecuencia es superior a 50 Hz. Esta percepción de la luz modulada como estable se conoce como umbral de fusión de parpadeo . Sin embargo, cuando la luz modulada no es uniforme y contiene una imagen, el umbral de fusión del parpadeo puede ser mucho mayor, de cientos de hercios. [3] Con respecto al reconocimiento de imágenes , se ha descubierto que las personas reconocen una imagen específica en una serie ininterrumpida de imágenes diferentes, cada una de las cuales dura tan solo 13 milisegundos. [4] La persistencia de la visión a veces explica un estímulo visual muy corto de un solo milisegundo que tiene una duración percibida de entre 100 ms y 400 ms. Múltiples estímulos que son muy cortos a veces se perciben como un solo estímulo, como un destello de luz verde de 10 ms seguido inmediatamente por un destello de luz roja de 10 ms percibido como un único destello de luz amarillo. [5]

Cine y vídeo

Película muda

Las primeras películas mudas habían indicado velocidades de cuadros entre 16 y 24 cuadros por segundo (fps), [6] pero como las cámaras eran accionadas manualmente, la velocidad a menudo cambiaba durante la escena para adaptarse al estado de ánimo. Los proyeccionistas también podrían cambiar la velocidad de fotogramas en el cine ajustando un reóstato que controla el voltaje que alimenta el mecanismo de transporte de la película en el proyector . [7] Las compañías cinematográficas a menudo tenían la intención de que los cines mostraran sus películas mudas a velocidades de cuadros más altas que las que fueron filmadas. [8] Estas velocidades de cuadro fueron suficientes para la sensación de movimiento, pero se percibió como un movimiento entrecortado. Para minimizar el parpadeo percibido, los proyectores emplearon contraventanas de doble y triple hoja , de modo que cada cuadro se mostraba dos o tres veces, aumentando la velocidad de parpadeo a 48 o 72 hercios y reduciendo la fatiga visual. Thomas Edison dijo que 46 fotogramas por segundo era el mínimo necesario para que el ojo percibiera el movimiento: "Cualquier cantidad menor fatigará la vista". [9] [10] A mediados y finales de la década de 1920, la velocidad de fotogramas de las películas mudas aumentó a 20-26 FPS. [9]

película sonora

Cuando se introdujo la película sonora en 1926, ya no se toleraban las variaciones en la velocidad de la película, ya que el oído humano es más sensible que el ojo a los cambios de frecuencia. Muchos cines habían proyectado películas mudas entre 22 y 26 FPS, por lo que la industria eligió como compromiso 24 FPS para el cine sonoro. [11] De 1927 a 1930, a medida que varios estudios actualizaron sus equipos, la velocidad de 24 FPS se convirtió en estándar para películas sonoras de 35 mm. [2] A 24 FPS, la película viaja a través del proyector a una velocidad de 456 milímetros (18,0 pulgadas) por segundo. Esto permitió que simples obturadores de dos hojas produjeran una serie de imágenes proyectadas a 48 por segundo, satisfaciendo la recomendación de Edison. Muchos proyectores de películas modernos de 35 mm utilizan obturadores de tres hojas para producir 72 imágenes por segundo; cada cuadro aparece en la pantalla tres veces. [9]

Animación

Esta caricatura animada de un caballo al galope se muestra a 12 dibujos por segundo, y el movimiento rápido está al borde de ser objetablemente entrecortado.

En la animación dibujada, los personajes en movimiento suelen filmarse "de dos en dos", es decir, se muestra un dibujo por cada dos fotogramas de la película (que normalmente se ejecuta a 24 fotogramas por segundo), es decir, sólo hay 12 dibujos por segundo. [12] Aunque la tasa de actualización de la imagen es baja, la fluidez es satisfactoria para la mayoría de los sujetos. Sin embargo, cuando se requiere que un personaje realice un movimiento rápido, generalmente es necesario volver a animar "unos", ya que los "dos" son demasiado lentos para transmitir el movimiento adecuadamente. Una combinación de las dos técnicas mantiene la vista engañada sin costes de producción innecesarios. [13]

La animación de la mayoría de los " dibujos animados del sábado por la mañana " se producía lo más barata posible y la mayoría de las veces se rodaba en "tres" o incluso "cuatro", es decir, tres o cuatro fotogramas por dibujo. Esto se traduce en sólo 8 o 6 dibujos por segundo respectivamente. El anime también suele dibujarse de tres en tres o de dos en dos. [14] [15]

Estándares de vídeo modernos

Debido a la frecuencia de la red eléctrica, la transmisión de televisión analógica se desarrolló con velocidades de cuadro de 50 Hz (en la mayor parte del mundo) o 60 Hz (Canadá, EE. UU., Japón, Corea del Sur). La frecuencia de la red eléctrica era extremadamente estable y por lo tanto era lógico utilizarla para la sincronización.

La introducción de la tecnología de televisión en color hizo necesario reducir esa frecuencia de 60 FPS en un 0,1% para evitar el " arrastre de puntos ", un artefacto de visualización que aparece en pantallas heredadas en blanco y negro y que aparece en superficies muy saturadas de color. Se descubrió que al reducir la velocidad de fotogramas en un 0,1%, se minimizaba el efecto indeseable. [ ¿ investigacion original? ]

A partir de 2021 , los estándares de transmisión de vídeo en Norteamérica, Japón y Corea del Sur todavía se basan en 60/1.001 ≈ 59,94 imágenes por segundo. Normalmente se utilizan dos tamaños de imágenes: 1920×1080 ("1080i/p") y 1280×720 ("720p"). De manera confusa, los formatos entrelazados suelen indicar la mitad de su velocidad de imagen, 29,97/25 FPS, y el doble de su altura de imagen, pero estas declaraciones son puramente personalizadas; en cada formato se producen 60 imágenes por segundo. Una resolución de 1080i produce 59,94 o 50 imágenes de 1920 × 540, cada una aplastada a media altura en el proceso fotográfico y estirada hacia atrás para llenar la pantalla durante la reproducción en un televisor. El formato 720p produce imágenes de 59,94/50 o 29,97/25 1280×720p, no comprimidas, por lo que no es necesario expandir ni comprimir la imagen. Esta confusión se extendió por toda la industria en los primeros días del software de vídeo digital, y gran parte del software se escribía incorrectamente; los desarrolladores creían que sólo se esperaban 29,97 imágenes por segundo, lo cual era incorrecto. Si bien era cierto que cada elemento de la imagen fue sondeado y enviado solo 29,97 veces por segundo, la ubicación del píxel inmediatamente debajo de ese fue sondeada 1/60 de segundo después, parte de una imagen completamente separada para el siguiente fotograma de 1/60 de segundo. . [ ¿ investigacion original? ]

A su velocidad nativa de 24 FPS, la película no se podía mostrar en vídeo de 60 Hz sin el proceso desplegable necesario , lo que a menudo provoca "vibración": para convertir 24 fotogramas por segundo en 60 fotogramas por segundo, cada fotograma impar se repite, reproduciéndose dos veces. mientras que cada cuadro par se triplica. Esto crea un movimiento desigual, que parece estroboscópico. Otras conversiones tienen una duplicación de cuadros desigual similar. Los estándares de vídeo más nuevos admiten 120, 240 o 300 fotogramas por segundo, por lo que los fotogramas se pueden muestrear uniformemente para velocidades de fotogramas estándar, como películas de 24, 48 y 60 FPS o vídeos de 25, 30, 50 o 60 FPS. Por supuesto, estas velocidades de fotogramas más altas también se pueden mostrar en sus velocidades nativas. [16] [17]

Especificaciones de la cámara electrónica

En las especificaciones de las cámaras electrónicas, la velocidad de fotogramas se refiere a la velocidad máxima posible de fotogramas que se pueden capturar (por ejemplo, si el tiempo de exposición se establece cerca de cero), pero en la práctica, otras configuraciones (como el tiempo de exposición) pueden reducir la frecuencia real a un número inferior a la velocidad de fotogramas. [18]

Conversión ascendente de velocidad de fotogramas

La conversión ascendente de velocidad de fotogramas (FRC) es el proceso de aumentar la resolución temporal de una secuencia de vídeo sintetizando uno o más fotogramas intermedios entre dos fotogramas consecutivos. Una velocidad de fotogramas baja provoca aliasing , produce artefactos de movimiento abruptos y degrada la calidad del vídeo. En consecuencia, la resolución temporal es un factor importante que afecta la calidad del vídeo. Los algoritmos para FRC se utilizan ampliamente en aplicaciones, incluida la mejora de la calidad visual, la compresión de vídeo y la generación de vídeo en cámara lenta. [ cita necesaria ]

Vídeo con baja velocidad de fotogramas
Vídeo con una velocidad de fotogramas 4 veces mayor

Métodos

La mayoría de los métodos FRC se pueden clasificar en flujo óptico o métodos basados ​​en kernel [19] [20] y métodos basados ​​en alucinaciones de píxeles. [21] [22]

FRC basado en flujo

Los métodos basados ​​en flujo combinan linealmente los flujos ópticos previstos entre dos cuadros de entrada para aproximar los flujos desde el cuadro intermedio objetivo hasta los cuadros de entrada. También proponen la inversión del flujo (proyección) para una deformación de la imagen más precisa . Además, existen algoritmos que proporcionan diferentes pesos de vectores de flujo superpuestos dependiendo de la profundidad del objeto de la escena a través de una capa de proyección de flujo.

FRC basado en alucinaciones de píxeles

Los métodos basados ​​en alucinaciones de píxeles utilizan convolución deformable en el generador del cuadro central reemplazando los flujos ópticos con vectores desplazados. Existen algoritmos que también interpolan fotogramas intermedios con la ayuda de convolución deformable en el dominio de características. Sin embargo, dado que estos métodos alucinan píxeles directamente a diferencia de los métodos FRC basados ​​​​en flujo, los fotogramas predichos tienden a ser borrosos cuando hay objetos que se mueven rápidamente.

Instrumentos

Filtro de conversión de velocidad de fotogramas AviSynth MSU
El filtro de conversión de velocidad de fotogramas de AviSynth MSU es una herramienta de código abierto destinada a la conversión ascendente de la velocidad de fotogramas de vídeo. Aumenta la velocidad de fotogramas en un factor entero. Permite, por ejemplo, convertir un vídeo de 15 fps en un vídeo de 30 fps.
Adobe Premiere Pro
Adobe Premiere Pro es un programa de software de edición de video comercial que le permite ralentizar su video usando flujo óptico y efectos de reasignación de tiempo a metraje filmado de manera convencional para crear una cámara lenta más fluida y con mejor apariencia.
Vegas Pro
Vegas Pro también es un programa de software de edición de vídeo comercial. También existe un método para hacer videos en cámara lenta. Para realizarlo, debes elegir la magnitud del movimiento en tu video y los porcentajes de velocidad de reproducción.
Topaz Video mejora la IA
Topaz Video Enhance AI tiene el modelo Chronos AI que utiliza aprendizaje profundo para aumentar la velocidad de cuadros de video sin artefactos. Este algoritmo genera nuevos fotogramas que a menudo son indistinguibles de los fotogramas capturados con la cámara.
Convertidor avanzado de velocidad de fotogramas (AFRC)
La principal ventaja del algoritmo AFRC es el uso de varias técnicas de mejora de la calidad, como el enmascaramiento adaptativo de artefactos, el procesamiento de franjas negras y el seguimiento de oclusión:
  • la técnica de enmascaramiento de artefactos adaptativo permite hacer que los artefactos sean menos visibles para los ojos, aumentando así la calidad integral del video procesado;
  • el procesamiento de franjas negras permite evitar artefactos que aparecen comúnmente en fotogramas interpolados en el caso de que se presenten franjas negras cerca de los bordes del marco;
  • El seguimiento de oclusión realiza una restauración de alta calidad de fotogramas interpolados cerca de los bordes en caso de presencia de movimiento con dirección hacia/desde el borde del fotograma.

Ver también

Referencias

  1. ^ Tamasi, Tony (3 de diciembre de 2019). "¿Qué es la velocidad de fotogramas y por qué es importante para los juegos de PC?" . Consultado el 12 de febrero de 2023 .
  2. ^ ab Leer, Paul; Meyer, Mark-Paul; Grupo Gamma (2000). Restauración de películas cinematográficas. Conservación y Museología. Butterworth-Heinemann. págs. 24-26. ISBN 978-0-7506-2793-1.
  3. ^ James Davis (1986), "Los humanos perciben artefactos parpadeantes a 500 Hz", Sci. Rep. , 5 : 7861, doi : 10.1038/srep07861, PMC 4314649 , PMID  25644611 
  4. ^ Potter, Mary C. (28 de diciembre de 2013). "Detección de significado en RSVP a 13 ms por imagen" (PDF) . Atención, percepción y psicofísica . 76 (2): 270–279. doi :10.3758/s13414-013-0605-z. hdl : 1721.1/107157 . PMID  24374558. S2CID  180862. Archivado (PDF) desde el original el 9 de octubre de 2022.
  5. ^ Robert Efron (1973). "Conservación de información temporal por sistemas perceptivos". Percepción y Psicofísica . 14 (3): 518–530. doi : 10.3758/bf03211193 .
  6. ^ Marrón, Julie (2014). "Palimpsestos audiovisuales: resincronización de películas mudas con música 'especial'". En David Neumeyer (ed.). El manual de Oxford de estudios de música cinematográfica . Prensa de la Universidad de Oxford. pag. 588.ISBN _ 978-0195328493.
  7. ^ Kerr, Walter (1975). Payasos Silenciosos . Knopf. pag. 36.ISBN _ 978-0394469072.
  8. ^ Tarjeta, James (1994). Cine seductor: el arte del cine mudo . Knopf. pag. 53.ISBN _ 978-0394572185.
  9. ^ abc Brownlow, Kevin (verano de 1980). "Películas mudas: ¿Cuál era la velocidad adecuada?". Vista y sonido . 49 (3): 164-167. Archivado desde el original el 8 de julio de 2011 . Consultado el 2 de mayo de 2012 .
  10. ^ Elsaesser, Thomas; Barker, Adán (1990). Cine temprano: espacio, marco, narrativa . Publicación BFI. pag. 284.ISBN _ 978-0-85170-244-5.
  11. ^ TWiT Netcast Network (30 de marzo de 2017), Cómo los 24 FPS se convirtieron en estándar, archivado desde el original el 4 de noviembre de 2021 , consultado el 31 de marzo de 2017
  12. ^ Mastica, Johnny. "¿Qué son los unos, los dos y los tres en la animación?". Cable de vida . Consultado el 8 de agosto de 2018 .
  13. ^ Whitaker, Harold; Sito, John Halas; actualizado por Tim (2009). Momento de la animación (2ª ed.). Ámsterdam: Elsevier/Focal Press. pag. 52.ISBN _ 978-0240521602. Consultado el 8 de agosto de 2018 .{{cite book}}: CS1 maint: multiple names: authors list (link)
  14. ^ "Disparo de tres en tres (uno, dos, etc.)". Red de noticias de anime .
  15. ^ CLIP STUDIO (12 de febrero de 2016). "CLIP STUDIO PAINT ア ニ メ ー シ ョ ン 機 能 の 使 い 方". Archivado desde el original el 4 de noviembre de 2021, a través de YouTube.
  16. ^ Televisión de alta velocidad de fotogramas, documento técnico de la BBC WHP 169, septiembre de 2008, M. Armstrong, D. Flynn, M. Hammond, PAWAN Jahajpuria S. Jolly, R. Salmon.
  17. ^ Jon Fingas (27 de noviembre de 2014), "Las secuelas de 'Avatar' de James Cameron se mantendrán a 48 fotogramas por segundo", Engadget , consultado el 15 de abril de 2017
  18. ^ Whaley, Sean (21 de noviembre de 2018). "¿Qué es la velocidad de fotogramas y por qué es importante para los juegos de PC?" . Consultado el 5 de agosto de 2021 .
  19. ^ Simón, Niklaus; Largo, Mai; Feng, Liu (2017). Interpolación de fotogramas de vídeo mediante convolución separable adaptativa . ICCV. arXiv : 1708.01692 .
  20. ^ Huaizu, Jiang; Deqing, Sol; Varun, Jampani; Ming-Hsuan, Yang; Erik, Learned-Miller; Enero, Kautz (2018). Super slomo: estimación de alta calidad de múltiples cuadros intermedios para interpolación de video . ICCV. arXiv : 1712.00080 .
  21. ^ Shurui, Gui; Chaoyue, Wang; Qihua, Chen; Dacheng, Tao (2020). "Featureflow: interpolación de vídeo robusta mediante generación de estructura a textura". Conferencia IEEE/CVF 2020 sobre visión por computadora y reconocimiento de patrones (CVPR) . IEEE. págs. 14001–14010. doi :10.1109/CVPR42600.2020.01402. ISBN 978-1-7281-7169-2.
  22. ^ Myungsub, Choi; Heewon, Kim; Bohyung, Han; Ning, Xu; Kyoung, Mu Lee (2020). "La atención del canal es todo lo que necesita para la interpolación de fotogramas de vídeo". Actas de la Conferencia AAAI sobre Inteligencia Artificial . AAAI. 34 (7): 10663–10671. doi : 10.1609/aaai.v34i07.6693 .

enlaces externos

( Copia de Wayback Machine )