stringtranslate.com

Formato de codificación de vídeo

Un formato de codificación de video [a] (o, a veces, formato de compresión de video ) es un formato de representación de contenido de video digital , como en un archivo de datos o flujo de bits . Por lo general, utiliza un algoritmo de compresión de video estandarizado , generalmente basado en codificación de transformación de coseno discreto (DCT) y compensación de movimiento . Una implementación de software, firmware o hardware específica capaz de comprimir o descomprimir en un formato de codificación de video específico se denomina códec de video .

Algunos formatos de codificación de vídeo están documentados mediante un documento de especificaciones técnicas detalladas conocido como especificación de codificación de vídeo . Algunas de estas especificaciones están escritas y aprobadas por organizaciones de estandarización como estándares técnicos y, por lo tanto, se las conoce como estándar de codificación de video . Hay normas de facto y normas formales.

El contenido de video codificado usando un formato de codificación de video particular normalmente se incluye con una secuencia de audio (codificada usando un formato de codificación de audio ) dentro de un formato contenedor multimedia como AVI , MP4 , FLV , RealMedia o Matroska . Como tal, el usuario normalmente no tiene un archivo H.264 , sino un archivo de vídeo que es un contenedor MP4 de vídeo codificado en H.264, normalmente junto con audio codificado en AAC . Los formatos de contenedores multimedia pueden contener uno de varios formatos de codificación de vídeo diferentes; por ejemplo, el formato contenedor MP4 puede contener formatos de codificación de vídeo como MPEG-2 Parte 2 o H.264. Otro ejemplo es la especificación inicial para el tipo de archivo WebM , que especifica el formato del contenedor (Matroska), pero también exactamente qué formato de compresión de vídeo ( VP8 ) y audio ( Vorbis ) está dentro del contenedor Matroska, aunque Matroska es capaz de contener VP9. Posteriormente se agregó soporte de video y audio Opus a la especificación WebM .

Distinción entre formato y códec

Un formato es el plan de diseño de los datos producidos o consumidos por un códec .

Aunque los formatos de codificación de vídeo como H.264 a veces se denominan códecs , existe una clara diferencia conceptual entre una especificación y sus implementaciones. Los formatos de codificación de video se describen en las especificaciones, y el software, firmware o hardware para codificar/decodificar datos en un formato de codificación de video determinado desde/hacia video sin comprimir son implementaciones de esas especificaciones. Como analogía, el formato de codificación de vídeo H.264 (especificación) es para el códec OpenH264 (implementación específica) lo que el lenguaje de programación C (especificación) es para el compilador GCC (implementación específica). Tenga en cuenta que para cada especificación (por ejemplo, H.264 ), puede haber muchos códecs que implementen esa especificación (por ejemplo, productos e implementaciones x264 , OpenH264, H.264/MPEG-4 AVC ).

Esta distinción no se refleja consistentemente terminológicamente en la literatura. La especificación H.264 llama a los estándares de codificación de vídeo H.261 , H.262 , H.263 y H.264 y no contiene la palabra códec . [2] La Alliance for Open Media distingue claramente entre el formato de codificación de video AV1 y el códec que lo acompaña que están desarrollando, pero llama al formato de codificación de video en sí una especificación de códec de video . [3] La especificación VP9 llama códec al formato de codificación de vídeo VP9 . [4]

Como ejemplo de combinación, las páginas de Chromium [5] y Mozilla [6] que enumeran su formato de video admiten ambos formatos de codificación de video, como los códecs H.264 . Como otro ejemplo, en el anuncio de Cisco de un códec de video gratuito, el comunicado de prensa se refiere al formato de codificación de video H.264 como un códec ("elección de un códec de video común"), pero llama a la implementación de Cisco de un codificador/decodificador H.264 y un códec poco después ("nuestro códec H.264 de código abierto"). [7]

Un formato de codificación de vídeo no dicta todos los algoritmos utilizados por un códec que implementa el formato. Por ejemplo, una gran parte de cómo funciona típicamente la compresión de video es encontrar similitudes entre fotogramas de video (coincidencia de bloques) y luego lograr la compresión copiando subimágenes similares previamente codificadas (como macrobloques ) y agregando pequeñas diferencias cuando sea necesario. Encontrar combinaciones óptimas de dichos predictores y diferencias es un problema NP-difícil , [8] lo que significa que es prácticamente imposible encontrar una solución óptima. Aunque el formato de codificación de vídeo debe admitir dicha compresión entre fotogramas en el formato de flujo de bits, al no exigir innecesariamente algoritmos específicos para encontrar dichas coincidencias de bloques y otros pasos de codificación, los códecs que implementan la especificación de codificación de vídeo tienen cierta libertad para optimizar e innovar en su elección. de algoritmos. Por ejemplo, la sección 0.5 de la especificación H.264 dice que los algoritmos de codificación no forman parte de la especificación. [2] La libre elección del algoritmo también permite diferentes compensaciones de complejidad espacio-temporal para el mismo formato de codificación de vídeo, por lo que una transmisión en vivo puede utilizar un algoritmo rápido pero ineficiente en términos de espacio, y una codificación de DVD de una sola vez para una producción en masa posterior puede Cambie el tiempo de codificación prolongado por una codificación que aproveche el espacio.

Historia

El concepto de compresión de vídeo analógico se remonta a 1929, cuando RD Kell en Gran Bretaña propuso el concepto de transmitir sólo las partes de la escena que cambiaban de un cuadro a otro. El concepto de compresión de vídeo digital se remonta a 1952, cuando los investigadores de los Laboratorios Bell, BM Oliver y CW Harrison, propusieron el uso de modulación diferencial de código de pulso (DPCM) en la codificación de vídeo. En 1959, el concepto de compensación de movimiento entre cuadros fue propuesto por los investigadores de la NHK Y. Taki, M. Hatori y S. Tanaka, quienes propusieron una codificación de video predictiva entre cuadros en la dimensión temporal . [9] En 1967, los investigadores de la Universidad de Londres AH Robinson y C. Cherry propusieron la codificación de longitud de ejecución (RLE), un esquema de compresión sin pérdidas , para reducir el ancho de banda de transmisión de señales de televisión analógicas . [10]

Los primeros algoritmos de codificación de vídeo digital eran para vídeo sin comprimir o utilizaban compresión sin pérdidas , ambos métodos ineficientes y poco prácticos para la codificación de vídeo digital. [11] [12] El vídeo digital se introdujo en la década de 1970, [11] inicialmente utilizando modulación de código de pulso (PCM) sin comprimir que requería altas velocidades de bits de alrededor de 45 a 200 Mbit/s para vídeo de definición estándar (SD), [11] [ 12] , que era hasta 2.000 veces mayor que el ancho de banda de telecomunicaciones (hasta 100 kbit/s ) disponible hasta la década de 1990. [12] De manera similar, el vídeo de alta definición (HD) 1080p sin comprimir requiere velocidades de bits superiores a 1 Gbit/s , significativamente mayores que el ancho de banda disponible en la década de 2000. [13]  

DCT con compensación de movimiento

La compresión de vídeo práctica surgió con el desarrollo de la codificación DCT con compensación de movimiento (MC DCT), [12] [11] también llamada compensación de movimiento en bloque (BMC) [9] o compensación de movimiento DCT. Este es un algoritmo de codificación híbrido, [9] que combina dos técnicas clave de compresión de datos : codificación por transformada de coseno discreta (DCT) [12] [11] en la dimensión espacial y compensación predictiva de movimiento en la dimensión temporal . [9]

La codificación DCT es una técnica de codificación por transformación de compresión de bloques con pérdida que fue propuesta por primera vez por Nasir Ahmed , quien inicialmente la pensó para la compresión de imágenes , mientras trabajaba en la Universidad Estatal de Kansas en 1972. Luego, Ahmed la desarrolló hasta convertirla en un algoritmo práctico de compresión de imágenes con T. Natarajan y KR Rao en la Universidad de Texas en 1973 y se publicó en 1974. [14] [15] [16]

El otro avance clave fue la codificación híbrida con compensación de movimiento. [9] En 1974, Ali Habibi de la Universidad del Sur de California introdujo la codificación híbrida, [17] [18] [19] que combina la codificación predictiva con la codificación por transformación. [9] [20] Examinó varias técnicas de codificación de transformadas, incluida la DCT, la transformada de Hadamard , la transformada de Fourier , la transformada inclinada y la transformada de Karhunen-Loeve . [17] Sin embargo, su algoritmo se limitó inicialmente a la codificación intra-cuadro en la dimensión espacial. En 1975, John A. Roese y Guner S. Robinson ampliaron el algoritmo de codificación híbrida de Habibi a la dimensión temporal, utilizando codificación de transformación en la dimensión espacial y codificación predictiva en la dimensión temporal, desarrollando una codificación híbrida con compensación de movimiento entre cuadros . [9] [21] Para la codificación de transformadas espaciales, experimentaron con diferentes transformadas, incluida la DCT y la transformada rápida de Fourier (FFT), desarrollaron codificadores híbridos entre cuadros para ellas y descubrieron que la DCT es la más eficiente debido a su complejidad reducida, capaz de comprimir datos de imagen hasta 0,25 bits por píxel para una escena de videoteléfono con una calidad de imagen comparable a la de un codificador intracuadro típico que requiere 2 bits por píxel. [22] [21]

La DCT fue aplicada a la codificación de vídeo por Wen-Hsiung Chen, [23] quien desarrolló un algoritmo DCT rápido con CH Smith y SC Fralick en 1977, [24] [25] y fundó Compression Labs para comercializar la tecnología DCT. [23] En 1979, Anil K. Jain y Jaswant R. Jain desarrollaron aún más la compresión de vídeo DCT con compensación de movimiento. [26] [9] Esto llevó a Chen a desarrollar un algoritmo práctico de compresión de video, llamado DCT con compensación de movimiento o codificación de escena adaptativa, en 1981. [9] La DCT con compensación de movimiento se convirtió más tarde en la técnica de codificación estándar para la compresión de video desde finales de la década de 1980. adelante. [11] [27]

Estándares de codificación de vídeo

El primer estándar de codificación de vídeo digital fue H.120 , desarrollado por el CCITT (ahora ITU-T) en 1984. [28] H.120 no se podía utilizar en la práctica porque su rendimiento era demasiado pobre. [28] H.120 utilizó codificación DPCM con compensación de movimiento, [9] un algoritmo de compresión sin pérdidas que era ineficaz para la codificación de vídeo. [11] A finales de la década de 1980, varias empresas comenzaron a experimentar con la codificación por transformada de coseno discreta (DCT), una forma mucho más eficiente de compresión para la codificación de vídeo. El CCITT recibió 14 propuestas para formatos de compresión de vídeo basados ​​en DCT, en contraste con una sola propuesta basada en compresión de cuantificación vectorial (VQ). El estándar H.261 se desarrolló basándose en la compresión DCT con compensación de movimiento. [11] [27] H.261 fue el primer estándar práctico de codificación de vídeo, [28] y utiliza patentes con licencia de varias empresas, incluidas Hitachi , PictureTel , NTT , BT y Toshiba , entre otras. [29] Desde H.261, la compresión DCT con compensación de movimiento ha sido adoptada por todos los principales estándares de codificación de vídeo (incluidos los formatos H.26x y MPEG ) que siguieron. [11] [27]

MPEG-1 , desarrollado por Motion Picture Experts Group (MPEG), le siguió en 1991 y fue diseñado para comprimir vídeo con calidad VHS . [28] Fue sucedido en 1994 por MPEG-2 / H.262 , [28] que fue desarrollado con patentes con licencia de varias empresas, principalmente Sony , Thomson y Mitsubishi Electric . [30] MPEG-2 se convirtió en el formato de vídeo estándar para la televisión digital DVD y SD . [28] Su algoritmo DCT con compensación de movimiento fue capaz de alcanzar una relación de compresión de hasta 100:1, lo que permitió el desarrollo de tecnologías de medios digitales como el vídeo bajo demanda (VOD) [12] y la televisión de alta definición (HDTV). ). [31] En 1999, le siguió MPEG-4 / H.263 , que supuso un gran avance para la tecnología de compresión de vídeo. [28] Utiliza patentes con licencia de varias empresas, principalmente Mitsubishi, Hitachi y Panasonic . [32]

El formato de codificación de vídeo más utilizado en 2019 es H.264/MPEG-4 AVC . [33] Fue desarrollado en 2003 y utiliza patentes con licencia de varias organizaciones, principalmente Panasonic, Godo Kaisha IP Bridge y LG Electronics . [34] A diferencia del DCT estándar utilizado por sus predecesores, AVC utiliza el número entero DCT . [23] [35] H.264 es uno de los estándares de codificación de vídeo para discos Blu-ray ; Todos los reproductores de Blu-ray Disc deben poder decodificar H.264. También es ampliamente utilizado para la transmisión de fuentes de Internet, como videos de YouTube , Netflix , Vimeo y iTunes Store , software web como Adobe Flash Player y Microsoft Silverlight , y también varias transmisiones de HDTV a través de tierra ( estándares del Comité de Sistemas de Televisión Avanzado). , ISDB-T , DVB-T o DVB-T2 ), cable ( DVB-C ) y satélite ( DVB-S2 ). [36]

Un problema principal para muchos formatos de codificación de vídeo han sido las patentes , lo que encarece su uso o corre el riesgo potencial de una demanda por patentes debido a patentes submarinas . La motivación detrás de muchos formatos de codificación de video diseñados recientemente, como Theora , VP8 y VP9, ​​ha sido crear un estándar de codificación de video ( libre ) cubierto únicamente por patentes libres de regalías. [37] El estado de la patente también ha sido un punto importante de controversia para la elección de qué formatos de video admitirán los principales navegadores web dentro de la etiqueta de video HTML5 .

El formato de codificación de vídeo de generación actual es HEVC (H.265), introducido en 2013. AVC utiliza el DCT entero con tamaños de bloque de 4x4 y 8x8, y HEVC utiliza transformaciones DCT y DST enteras con tamaños de bloque variados entre 4x4 y 32x32. [38] HEVC está fuertemente patentado, principalmente por Samsung Electronics , GE , NTT y JVC Kenwood . [39] Lo cuestiona el formato AV1 , destinado a la licencia gratuita. A partir de 2019 , AVC es, con diferencia, el formato más utilizado para la grabación, compresión y distribución de contenido de vídeo, utilizado por el 91 % de los desarrolladores de vídeo, seguido de HEVC, que utiliza el 43 % de los desarrolladores. [33]

Lista de estándares de codificación de video

Sin pérdida, con pérdida y sin comprimir

El vídeo de consumo generalmente se comprime utilizando códecs de vídeo con pérdida , ya que eso da como resultado archivos significativamente más pequeños que la compresión sin pérdida . Algunos formatos de codificación de video están diseñados explícitamente para compresión con o sin pérdidas, y algunos formatos de codificación de video, como Dirac y H.264 , admiten ambos. [49]

Los formatos de vídeo sin comprimir , como Clean HDMI , son una forma de vídeo sin pérdidas que se utiliza en algunas circunstancias, como cuando se envía vídeo a una pantalla a través de una conexión HDMI . Algunas cámaras de alta gama también pueden capturar vídeo directamente en este formato.

intramarco

La compresión entre cuadros complica la edición de una secuencia de video codificada. [50] Una subclase de formatos de codificación de vídeo relativamente simples son los formatos de vídeo intra-cuadro , como DV , en los que cada fotograma del flujo de vídeo se comprime de forma independiente sin hacer referencia a otros fotogramas del flujo, y no se intenta tomarlos. Aprovecha las correlaciones entre imágenes sucesivas a lo largo del tiempo para una mejor compresión. Un ejemplo es Motion JPEG , que es simplemente una secuencia de imágenes comprimidas individualmente en JPEG . Este enfoque es rápido y sencillo, a expensas de que el vídeo codificado sea mucho más grande que un formato de codificación de vídeo que soporte la codificación entre cuadros .

Debido a que la compresión entre cuadros copia datos de un cuadro a otro, si el cuadro original simplemente se corta (o se pierde en la transmisión), los cuadros siguientes no se pueden reconstruir correctamente. Hacer 'cortes' en vídeo comprimido intracuadro mientras se edita vídeo es casi tan fácil como editar vídeo sin comprimir: uno encuentra el principio y el final de cada fotograma, y ​​simplemente copia bit a bit cada fotograma que desea conservar, y descarta el marcos que uno no quiere. Otra diferencia entre la compresión intracuadro e intercuadro es que, con los sistemas intracuadro, cada cuadro utiliza una cantidad similar de datos. En la mayoría de los sistemas entre cuadros, ciertos cuadros (como los " cuadros I " en MPEG-2 ) no pueden copiar datos de otros cuadros, por lo que requieren muchos más datos que otros cuadros cercanos. [51]

Es posible crear un editor de vídeo basado en computadora que detecte los problemas causados ​​cuando se editan fotogramas I mientras que otros los necesitan. Esto ha permitido utilizar formatos más nuevos como HDV para la edición. Sin embargo, este proceso exige mucha más potencia informática que editar vídeo comprimido intraframe con la misma calidad de imagen. Pero esta compresión no es muy efectiva para ningún formato de audio. [52]

Perfiles y niveles

Un formato de codificación de video puede definir restricciones opcionales para el video codificado, llamadas perfiles y niveles. Es posible tener un decodificador que sólo admita la decodificación de un subconjunto de perfiles y niveles de un formato de vídeo determinado, por ejemplo para hacer que el programa/hardware decodificador sea más pequeño, más simple o más rápido. [53]

Un perfil restringe qué técnicas de codificación están permitidas. Por ejemplo, el formato H.264 incluye los perfiles baseline , main y high (y otros). Si bien los sectores P (que se pueden predecir en función de los sectores anteriores) se admiten en todos los perfiles, los sectores B (que se pueden predecir en función de los sectores anteriores y siguientes) se admiten en los perfiles principal y superior , pero no en la línea de base . [54]

Un nivel es una restricción de parámetros como la resolución máxima y las velocidades de datos. [54]

Ver también

Notas

Referencias

  1. ^ Thomas Wiegand ; Gary J. Sullivan; Gisle Bjontegaard y Ajay Luthra (julio de 2003). "Descripción general del estándar de codificación de vídeo H.264/AVC" (PDF) . TRANSACCIONES IEEE SOBRE CIRCUITOS Y SISTEMAS PARA TECNOLOGÍA DE VIDEO.
  2. ^ ab "SERIE H: SISTEMAS AUDIOVISUALES Y MULTIMEDIA: Infraestructura de servicios audiovisuales - Codificación de vídeo en movimiento: Codificación de vídeo avanzada para servicios audiovisuales genéricos". Itu.int . Consultado el 6 de enero de 2015 .
  3. ^ "Portada". Alianza para los Medios Abiertos . Consultado el 23 de mayo de 2016 .
  4. ^ Adrián Grange; Peter de Rivaz y Jonathan Hunt. "Especificación del proceso de decodificación y flujo de bits VP9" (PDF) .
  5. ^ "Audio/vídeo". Los proyectos de cromo . Consultado el 23 de mayo de 2016 .
  6. ^ "Formatos multimedia compatibles con los elementos de audio y vídeo HTML". Mozilla . Consultado el 23 de mayo de 2016 .
  7. ^ Rowan Trollope (30 de octubre de 2013). "H.264 de código abierto elimina las barreras a WebRTC". Cisco. Archivado desde el original el 14 de mayo de 2019 . Consultado el 23 de mayo de 2016 .
  8. ^ "Capítulo 3: Algoritmo de poda A * modificado para encontrar K-MCSP en compresión de video" (PDF) . Shodhganga.inflibnet.ac.in . Consultado el 6 de enero de 2015 .
  9. ^ abcdefghij "Historia de la compresión de vídeo". UIT-T . Equipo Conjunto de Vídeo (JVT) de ISO/IEC MPEG y ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 y ITU-T SG16 Q.6). Julio de 2002. págs. 11, 24–9, 33, 40–1, 53–6 . Consultado el 3 de noviembre de 2019 .
  10. ^ Robinson, AH; Cereza, C. (1967). "Resultados de un prototipo de esquema de compresión de ancho de banda de televisión". Actas del IEEE . 55 (3). IEEE : 356–364. doi :10.1109/PROC.1967.5493.
  11. ^ abcdefghi Ghanbari, Mohammed (2003). Códecs estándar: desde compresión de imágenes hasta codificación de vídeo avanzada. Institución de Ingeniería y Tecnología . págs. 1–2. ISBN 9780852967102.
  12. ^ abcdef Lea, William (1994). Vídeo a la carta: Trabajo de investigación 94/68. Biblioteca de la Cámara de los Comunes . Consultado el 20 de septiembre de 2019 .
  13. ^ Lee, Jack (2005). Sistemas escalables de transmisión continua de medios: arquitectura, diseño, análisis e implementación. John Wiley e hijos . pag. 25.ISBN 9780470857649.
  14. ^ Ahmed, Nasir (enero de 1991). "Cómo se me ocurrió la transformada del coseno discreto". Procesamiento de señales digitales . 1 (1): 4–5. doi :10.1016/1051-2004(91)90086-Z.
  15. ^ Ahmed, Nasir ; Natarajan, T.; Rao, KR (enero de 1974), "Transformada de coseno discreta", IEEE Transactions on Computers , C-23 (1): 90–93, doi :10.1109/TC.1974.223784, S2CID  149806273
  16. ^ Rao, KR ; Yip, P. (1990), Transformada de coseno discreta: algoritmos, ventajas, aplicaciones , Boston: Academic Press, ISBN 978-0-12-580203-1
  17. ^ ab Habibi, Ali (1974). "Codificación híbrida de datos pictóricos". Transacciones IEEE sobre Comunicaciones . 22 (5): 614–624. doi :10.1109/TCOM.1974.1092258.
  18. ^ Chen, Z.; Él, T.; Jin, X.; Wu, F. (2019). "Aprendizaje para la compresión de vídeo". Transacciones IEEE sobre circuitos y sistemas para tecnología de vídeo . 30 (2): 566–576. arXiv : 1804.09869 . doi : 10.1109/TCSVT.2019.2892608. S2CID  13743007.
  19. ^ Pratt, William K. (1984). Avances en Electrónica y Física Electrónica: Suplemento. Prensa académica . pag. 158.ISBN 9780120145720. Un avance significativo en la metodología de codificación de imágenes se produjo con la introducción del concepto de codificación de transformación híbrida/DPCM (Habibi, 1974).
  20. ^ Ohm, Jens-Rainer (2015). Codificación y transmisión de señales multimedia. Saltador. pag. 364.ISBN 9783662466919.
  21. ^ ab Roese, John A.; Robinson, Guner S. (30 de octubre de 1975). Tescher, Andrew G. (ed.). "Codificación espacial y temporal combinada de secuencias de imágenes digitales". Transmisión eficiente de información pictórica . 0066 . Sociedad Internacional de Óptica y Fotónica: 172–181. Código bibliográfico : 1975SPIE...66..172R. doi : 10.1117/12.965361. S2CID  62725808.
  22. ^ Huang, TS (1981). Análisis de secuencia de imágenes. Medios de ciencia y negocios de Springer . pag. 29.ISBN 9783642870378.
  23. ^ abc Stanković, Radomir S.; Astola, Jaakko T. (2012). "Reminiscencias de los primeros trabajos en DCT: entrevista con KR Rao" (PDF) . Reimpresiones de los primeros días de las ciencias de la información . 60 . Consultado el 13 de octubre de 2019 .
  24. ^ Chen, Wen-Hsiung; Smith, CH; Fralick, SC (septiembre de 1977). "Un algoritmo computacional rápido para la transformada del coseno discreto". Transacciones IEEE sobre Comunicaciones . 25 (9): 1004–1009. doi :10.1109/TCOM.1977.1093941.
  25. ^ "T.81 - Compresión y codificación digital de imágenes fijas de tonos continuos - Requisitos y directrices" (PDF) . CCITT . Septiembre de 1992 . Consultado el 12 de julio de 2019 .
  26. ^ Cianci, Philip J. (2014). Televisión de alta definición: la creación, desarrollo e implementación de la tecnología HDTV. McFarland. pag. 63.ISBN 9780786487974.
  27. ^ abc Li, Jian Ping (2006). Actas de la Conferencia Internacional de Computación de 2006 sobre tecnología de medios activos Wavelet y procesamiento de información: Chongqing, China, 29 al 31 de agosto de 2006. World Scientific . pag. 847.ISBN 9789812709998.
  28. ^ abcdefg "Infografía sobre la historia de los formatos de archivos de vídeo". Redes reales . 22 de abril de 2012 . Consultado el 5 de agosto de 2019 .
  29. ^ ab "Recomendación UIT-T declarada patente(s)". UIT . Consultado el 12 de julio de 2019 .
  30. ^ ab "Lista de patentes MPEG-2" (PDF) . MPEG LA . Consultado el 7 de julio de 2019 .
  31. ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26 al 28 de octubre de 1993). "Un esquema de codificación HDTV utilizando DCT de dimensión adaptativa". Procesamiento de señales de HDTV: Actas del taller internacional sobre HDTV '93, Ottawa, Canadá . Elsevier : 611–618. doi :10.1016/B978-0-444-81844-7.50072-3. ISBN 9781483298511.
  32. ^ abc "MPEG-4 Visual - Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  33. ^ abc "Informe para desarrolladores de vídeo 2019" (PDF) . Bitmovin . 2019 . Consultado el 5 de noviembre de 2019 .
  34. ^ ab "AVC/H.264 - Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  35. ^ Wang, Hanli; Kwong, S.; Kok, C. (2006). "Algoritmo de predicción eficiente de coeficientes DCT enteros para optimización H.264/AVC". Transacciones IEEE sobre circuitos y sistemas para tecnología de vídeo . 16 (4): 547–552. doi :10.1109/TCSVT.2006.871390. S2CID  2060937.
  36. ^ "Difusión de vídeo digital (DVB); especificación para el uso de codificación de vídeo y audio en servicios DVB entregados directamente a través de IP" (PDF) .
  37. ^ "Mundo, conoce a Thor: un proyecto para crear un códec de vídeo libre de derechos". 11 de agosto de 2015.
  38. ^ Thomson, Gavin; Shah, Athar (2017). "Presentación de HEIF y HEVC" (PDF) . Apple Inc. Consultado el 5 de agosto de 2019 .
  39. ^ ab "Lista de patentes HEVC" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  40. ^ ISO. "Hogar". Organización de Estándares Internacionales . YO ASI . Consultado el 3 de agosto de 2022 .
  41. ^ "Patentes y Normas ISO". YO ASI . Consultado el 10 de julio de 2019 .
  42. ^ Davis, Andrew (13 de junio de 1997). "Descripción general de la recomendación H.320". Tiempos EE.UU. Consultado el 7 de noviembre de 2019 .
  43. ^ IEEE WESCANEX 97: comunicaciones, energía e informática: actas de conferencias. Universidad de Manitoba, Winnipeg, Manitoba, Canadá: Instituto de Ingenieros Eléctricos y Electrónicos . 22 y 23 de mayo de 1997. pág. 30.ISBN 9780780341470. H.263 es similar a H.261, pero más complejo. Actualmente es el estándar internacional de compresión de vídeo más utilizado para videotelefonía en líneas telefónicas RDSI (Red Digital de Servicios Integrados).
  44. ^ "Movimiento JPEG 2000 Parte 3". Grupo conjunto de expertos en fotografía, JPEG y grupo conjunto de expertos en imágenes de dos niveles, JBIG . Archivado desde el original el 5 de octubre de 2012 . Consultado el 21 de junio de 2014 .
  45. ^ Taubman, David; Marcelino, Miguel (2012). Fundamentos, estándares y práctica de la compresión de imágenes JPEG2000: Fundamentos, estándares y práctica de la compresión de imágenes. Medios de ciencia y negocios de Springer . ISBN 9781461507994.
  46. ^ Swartz, Charles S. (2005). Comprensión del cine digital: un manual profesional. Taylor y Francisco . pag. 147.ISBN 9780240806174.
  47. ^ "Lista de patentes VC-1" (PDF) . MPEG LA . Consultado el 11 de julio de 2019 .
  48. ^ "Lista avanzada de patentes HEVC". Avance HEVC . Archivado desde el original el 24 de agosto de 2020 . Consultado el 6 de julio de 2019 .
  49. ^ Filippov, Alexey; Norkin, Aney; Álvarez, José Roberto (abril 2020). "RFC 8761 - Metodología de evaluación y requisitos del códec de vídeo". datatracker.ietf.org . Consultado el 10 de febrero de 2022 .
  50. ^ Bhojani, DR "Compresión de vídeo 4.1" (PDF) . Hipótesis . Consultado el 6 de marzo de 2013 .
  51. ^ Jaiswal, RC (2009). Ingeniería Audio-Video . Pune, Maharashtra: Nirali Prakashan. pag. 3.55. ISBN 9788190639675.
  52. ^ "Códecs web". www.w3.org . Consultado el 10 de febrero de 2022 .
  53. ^ "Representación de vídeo: descripción general | Temas de ScienceDirect". www.sciencedirect.com . Consultado el 10 de febrero de 2022 .
  54. ^ ab Jan Ozer. "Opciones de codificación para vídeo H.264". Adobe.com . Consultado el 6 de enero de 2015 .