stringtranslate.com

Formato de codificación de vídeo

Un formato de codificación de vídeo [a] (o, a veces, formato de compresión de vídeo ) es un formato de representación de contenido de vídeo digital , como un archivo de datos o un flujo de bits . Normalmente, utiliza un algoritmo de compresión de vídeo estandarizado , que se basa más comúnmente en la codificación por transformada de coseno discreta (DCT) y la compensación de movimiento . Una implementación específica de software, firmware o hardware capaz de realizar la compresión o descompresión en un formato de codificación de vídeo específico se denomina códec de vídeo .

Algunos formatos de codificación de vídeo se documentan mediante un documento de especificación técnica detallado conocido como especificación de codificación de vídeo . Algunas de estas especificaciones son redactadas y aprobadas por organizaciones de normalización como estándares técnicos y, por lo tanto, se conocen como estándares de codificación de vídeo . Existen estándares de facto y estándares formales.

El contenido de vídeo codificado mediante un formato de codificación de vídeo en particular normalmente se incluye con una secuencia de audio (codificada mediante un formato de codificación de audio ) dentro de un formato contenedor multimedia como AVI , MP4 , FLV , RealMedia o Matroska . Como tal, el usuario normalmente no tiene un archivo H.264 , sino un archivo de vídeo , que es un contenedor MP4 de vídeo codificado en H.264, normalmente junto con audio codificado en AAC . Los formatos contenedores multimedia pueden contener uno de varios formatos de codificación de vídeo diferentes; por ejemplo, el formato contenedor MP4 puede contener formatos de codificación de vídeo como MPEG-2 Parte 2 o H.264. Otro ejemplo es la especificación inicial para el tipo de archivo WebM , que especifica el formato contenedor (Matroska), pero también exactamente qué formato de compresión de vídeo ( VP8 ) y audio ( Vorbis ) está dentro del contenedor Matroska, aunque Matroska es capaz de contener vídeo VP9 , ​​y la compatibilidad con audio Opus se añadió más tarde a la especificación WebM .

Distinción entreformatoycódec

Un formato es el plan de diseño para los datos producidos o consumidos por un códec .

Aunque los formatos de codificación de vídeo como H.264 a veces se denominan códecs , existe una clara diferencia conceptual entre una especificación y sus implementaciones. Los formatos de codificación de vídeo se describen en especificaciones, y el software, firmware o hardware para codificar/decodificar datos en un formato de codificación de vídeo determinado desde/hacia vídeo sin comprimir son implementaciones de esas especificaciones. Como analogía, el formato de codificación de vídeo H.264 (especificación) es al códec OpenH264 (implementación específica) lo que el lenguaje de programación C (especificación) es al compilador GCC (implementación específica). Tenga en cuenta que para cada especificación (por ejemplo, H.264 ), puede haber muchos códecs que implementen esa especificación (por ejemplo, x264 , OpenH264, productos e implementaciones H.264/MPEG-4 AVC ).

Esta distinción no se refleja de manera uniforme en la terminología de la literatura. La especificación H.264 denomina estándares de codificación de vídeo H.261 , H.262 , H.263 y H.264 y no contiene la palabra códec . [2] La Alliance for Open Media distingue claramente entre el formato de codificación de vídeo AV1 y el códec que lo acompaña y que están desarrollando, pero denomina al formato de codificación de vídeo en sí una especificación de códec de vídeo . [3] La especificación VP9 denomina al formato de codificación de vídeo VP9 en sí un códec . [4]

Como ejemplo de fusión, las páginas de Chromium [5] y Mozilla [6] que enumeran sus formatos de video compatibles llaman a los formatos de codificación de video, como los códecs H.264 . Como otro ejemplo, en el anuncio de Cisco de un códec de video gratuito, el comunicado de prensa se refiere al formato de codificación de video H.264 como códec ("elección de un códec de video común"), pero poco después llama códec a la implementación de Cisco de un codificador/descodificador H.264 ("códec H.264 de código abierto"). [7]

Un formato de codificación de vídeo no dicta todos los algoritmos utilizados por un códec que implementa el formato. Por ejemplo, una gran parte de cómo funciona normalmente la compresión de vídeo es mediante la búsqueda de similitudes entre fotogramas de vídeo (coincidencia de bloques) y luego lograr la compresión copiando subimágenes similares previamente codificadas (como macrobloques ) y añadiendo pequeñas diferencias cuando sea necesario. Encontrar combinaciones óptimas de dichos predictores y diferencias es un problema NP-hard , [8] lo que significa que es prácticamente imposible encontrar una solución óptima. Aunque el formato de codificación de vídeo debe soportar dicha compresión en todos los fotogramas en el formato de flujo de bits, al no exigir innecesariamente algoritmos específicos para encontrar dichas coincidencias de bloques y otros pasos de codificación, los códecs que implementan la especificación de codificación de vídeo tienen cierta libertad para optimizar e innovar en su elección de algoritmos. Por ejemplo, la sección 0.5 de la especificación H.264 dice que los algoritmos de codificación no son parte de la especificación. [2] La libre elección del algoritmo también permite diferentes compensaciones de complejidad espacio-temporal para el mismo formato de codificación de video, por lo que una transmisión en vivo puede usar un algoritmo rápido pero ineficiente en términos de espacio, y una codificación de DVD de una sola vez para una producción en masa posterior puede intercambiar un tiempo de codificación prolongado por una codificación eficiente en términos de espacio.

Historia

El concepto de compresión de vídeo analógico se remonta a 1929, cuando RD Kell en Gran Bretaña propuso el concepto de transmitir solo las partes de la escena que cambiaban de fotograma a fotograma. El concepto de compresión de vídeo digital se remonta a 1952, cuando los investigadores de Bell Labs BM Oliver y CW Harrison propusieron el uso de modulación diferencial de código de pulsos (DPCM) en la codificación de vídeo. En 1959, el concepto de compensación de movimiento entre fotogramas fue propuesto por los investigadores de NHK Y. Taki, M. Hatori y S. Tanaka, quienes propusieron la codificación de vídeo predictiva entre fotogramas en la dimensión temporal . [9] En 1967, los investigadores de la Universidad de Londres AH Robinson y C. Cherry propusieron la codificación de longitud de ejecución (RLE), un esquema de compresión sin pérdida , para reducir el ancho de banda de transmisión de señales de televisión analógica . [10]

Los primeros algoritmos de codificación de vídeo digital fueron para vídeo sin comprimir o utilizaban compresión sin pérdida , ambos métodos ineficientes y poco prácticos para la codificación de vídeo digital. [11] [12] El vídeo digital se introdujo en la década de 1970, [11] inicialmente utilizando modulación de código de pulso sin comprimir (PCM), que requería altas tasas de bits de alrededor de 45-200 Mbit/s para vídeo de definición estándar (SD), [11] [12] que era hasta 2.000 veces mayor que el ancho de banda de telecomunicaciones (hasta 100 kbit/s ) disponible hasta la década de 1990. [12] De manera similar, el vídeo de alta definición (HD) 1080p sin comprimir requiere tasas de bits superiores a 1 Gbit/s , significativamente mayor que el ancho de banda disponible en la década de 2000. [13]  

DCT con compensación de movimiento

La compresión de vídeo práctica surgió con el desarrollo de la codificación DCT compensada por movimiento (MC DCT), [12] [11] también llamada compensación de movimiento en bloque (BMC) [9] o compensación de movimiento DCT. Se trata de un algoritmo de codificación híbrido, [9] que combina dos técnicas de compresión de datos clave: la codificación de transformada de coseno discreta (DCT) [12] [11] en la dimensión espacial y la compensación de movimiento predictiva en la dimensión temporal . [9]

La codificación DCT es una técnica de codificación de transformación de compresión de bloques con pérdida que fue propuesta por primera vez por Nasir Ahmed , quien inicialmente la pensó para la compresión de imágenes , mientras trabajaba en la Universidad Estatal de Kansas en 1972. Luego, Ahmed la desarrolló en un algoritmo práctico de compresión de imágenes con T. Natarajan y KR Rao en la Universidad de Texas en 1973, y se publicó en 1974. [14] [15] [16]

El otro desarrollo clave fue la codificación híbrida con compensación de movimiento. [9] En 1974, Ali Habibi en la Universidad del Sur de California introdujo la codificación híbrida, [17] [18] [19] que combina la codificación predictiva con la codificación de transformación. [9] [20] Examinó varias técnicas de codificación de transformación, incluyendo la DCT, la transformada de Hadamard , la transformada de Fourier , la transformada inclinada y la transformada de Karhunen-Loeve . [17] Sin embargo, su algoritmo se limitó inicialmente a la codificación intra-cuadro en la dimensión espacial. En 1975, John A. Roese y Guner S. Robinson extendieron el algoritmo de codificación híbrida de Habibi a la dimensión temporal, utilizando la codificación de transformación en la dimensión espacial y la codificación predictiva en la dimensión temporal, desarrollando la codificación híbrida con compensación de movimiento entre cuadros . [9] [21] Para la codificación de la transformada espacial, experimentaron con diferentes transformadas, incluyendo la DCT y la transformada rápida de Fourier (FFT), desarrollando codificadores híbridos entre cuadros para ellas, y encontraron que la DCT es la más eficiente debido a su complejidad reducida, capaz de comprimir datos de imagen hasta 0,25 bits por píxel para una escena de videoteléfono con una calidad de imagen comparable a un codificador intra-cuadro típico que requiere 2 bits por píxel. [22] [21]

Wen-Hsiung Chen aplicó la DCT a la codificación de vídeo [23] , quien desarrolló un algoritmo DCT rápido con CH Smith y SC Fralick en 1977 [24] [25] y fundó Compression Labs para comercializar la tecnología DCT. [23] En 1979, Anil K. Jain y Jaswant R. Jain desarrollaron aún más la compresión de vídeo DCT con compensación de movimiento. [26] [9] Esto llevó a Chen a desarrollar un algoritmo práctico de compresión de vídeo, llamado DCT con compensación de movimiento o codificación de escena adaptativa, en 1981. [9] La DCT con compensación de movimiento se convirtió más tarde en la técnica de codificación estándar para la compresión de vídeo desde finales de los años 1980 en adelante. [11] [27]

Estándares de codificación de vídeo

El primer estándar de codificación de vídeo digital fue el H.120 , desarrollado por el CCITT (ahora ITU-T) en 1984. [28] El H.120 no se podía utilizar en la práctica, ya que su rendimiento era demasiado deficiente. [28] El H.120 utilizaba codificación DPCM con compensación de movimiento, [9] un algoritmo de compresión sin pérdidas que era ineficiente para la codificación de vídeo. [11] A finales de los años 1980, varias empresas comenzaron a experimentar con la codificación por transformada de coseno discreta (DCT), una forma de compresión mucho más eficiente para la codificación de vídeo. El CCITT recibió 14 propuestas de formatos de compresión de vídeo basados ​​en DCT, en contraste con una única propuesta basada en la compresión por cuantificación vectorial (VQ). El estándar H.261 se desarrolló en base a la compresión DCT con compensación de movimiento. [11] [27] H.261 fue el primer estándar práctico de codificación de vídeo, [28] y utiliza patentes licenciadas por varias empresas, entre ellas Hitachi , PictureTel , NTT , BT y Toshiba , entre otras. [29] Desde H.261, la compresión DCT compensada por movimiento ha sido adoptada por todos los principales estándares de codificación de vídeo (incluidos los formatos H.26x y MPEG ) que le siguieron. [11] [27]

MPEG-1 , desarrollado por el Moving Picture Experts Group (MPEG), le siguió en 1991, y fue diseñado para comprimir vídeo de calidad VHS . [28] Fue sucedido en 1994 por MPEG-2 / H.262 , [28] que se desarrolló con patentes licenciadas de varias empresas, principalmente Sony , Thomson y Mitsubishi Electric . [30] MPEG-2 se convirtió en el formato de vídeo estándar para DVD y televisión digital SD . [28] Su algoritmo DCT con compensación de movimiento pudo lograr una relación de compresión de hasta 100:1, lo que permitió el desarrollo de tecnologías de medios digitales como el vídeo a la carta (VOD) [12] y la televisión de alta definición (HDTV). [31] En 1999, fue seguido por MPEG-4 / H.263 , que fue un gran avance para la tecnología de compresión de vídeo. [28] Utiliza patentes licenciadas de varias empresas, principalmente Mitsubishi, Hitachi y Panasonic . [32]

El formato de codificación de vídeo más utilizado a partir de 2019 es H.264/MPEG-4 AVC . [33] Fue desarrollado en 2003 y utiliza patentes licenciadas por varias organizaciones, principalmente Panasonic, Godo Kaisha IP Bridge y LG Electronics . [34] A diferencia del estándar DCT utilizado por sus predecesores, AVC utiliza el DCT entero . [23] [35] H.264 es uno de los estándares de codificación de vídeo para discos Blu-ray ; todos los reproductores de discos Blu-ray deben poder decodificar H.264. También es ampliamente utilizado por fuentes de Internet de transmisión, como videos de YouTube , Netflix , Vimeo y iTunes Store , software web como Adobe Flash Player y Microsoft Silverlight , y también varias transmisiones de HDTV por tierra ( estándares ATSC , ISDB-T , DVB-T o DVB-T2 ), cable ( DVB-C ) y satélite ( DVB-S2 ). [36]

Un problema principal para muchos formatos de codificación de vídeo han sido las patentes , lo que hace que su uso sea costoso o potencialmente arriesgado a una demanda de patentes debido a patentes submarinas . La motivación detrás de muchos formatos de codificación de vídeo diseñados recientemente, como Theora , VP8 y VP9, ​​ha sido crear un estándar de codificación de vídeo ( libre ) cubierto solo por patentes libres de regalías. [37] El estado de la patente también ha sido un punto importante de discordia para la elección de qué formatos de vídeo admitirán los navegadores web principales dentro de la etiqueta de vídeo HTML .

El formato de codificación de vídeo de la generación actual es HEVC (H.265), introducido en 2013. AVC utiliza la DCT de enteros con tamaños de bloque de 4x4 y 8x8, y HEVC utiliza transformadas DCT y DST de enteros con tamaños de bloque variados entre 4x4 y 32x32. [38] HEVC está fuertemente patentado, principalmente por Samsung Electronics , GE , NTT y JVCKenwood . [39] Es desafiado por el formato AV1 , destinado a una licencia libre. A partir de 2019 , AVC es, con mucho, el formato más utilizado para la grabación, compresión y distribución de contenido de vídeo, utilizado por el 91% de los desarrolladores de vídeo, seguido de HEVC, que es utilizado por el 43% de los desarrolladores. [33]

Lista de estándares de codificación de vídeo

Sin pérdida, con pérdida y sin comprimir

Los videos de consumo generalmente se comprimen utilizando códecs de video con pérdida , ya que esto da como resultado archivos significativamente más pequeños que la compresión sin pérdida . Algunos formatos de codificación de video diseñados explícitamente para compresión con pérdida o sin pérdida, y algunos formatos de codificación de video como Dirac y H.264 admiten ambos. [49]

Los formatos de vídeo sin comprimir , como Clean HDMI , son una forma de vídeo sin pérdida que se utiliza en algunas circunstancias, como cuando se envía vídeo a una pantalla a través de una conexión HDMI . Algunas cámaras de alta gama también pueden capturar vídeo directamente en este formato.

Dentro del marco

La compresión entre fotogramas complica la edición de una secuencia de vídeo codificada. [50] Una subclase de formatos de codificación de vídeo relativamente sencillos son los formatos de vídeo intrafotograma , como DV , en los que cada fotograma del flujo de vídeo se comprime de forma independiente sin hacer referencia a otros fotogramas del flujo, y no se intenta aprovechar las correlaciones entre imágenes sucesivas a lo largo del tiempo para lograr una mejor compresión. Un ejemplo es Motion JPEG , que es simplemente una secuencia de imágenes comprimidas individualmente en JPEG . Este enfoque es rápido y sencillo, a expensas de que el vídeo codificado sea mucho más grande que un formato de codificación de vídeo que admita la codificación entre fotogramas .

Debido a que la compresión entre cuadros copia datos de un cuadro a otro, si el cuadro original simplemente se corta (o se pierde en la transmisión), los cuadros siguientes no se pueden reconstruir correctamente. Hacer cortes en un video comprimido intracuadro durante la edición de video es casi tan fácil como editar un video sin comprimir: uno encuentra el comienzo y el final de cada cuadro, y simplemente copia bit a bit cada cuadro que uno quiere mantener, y descarta los cuadros que uno no quiere. Otra diferencia entre la compresión intracuadro y la compresión entre cuadros es que, con los sistemas intracuadro, cada cuadro usa una cantidad similar de datos. En la mayoría de los sistemas entre cuadros, a ciertos cuadros (como los cuadros I en MPEG-2 ) no se les permite copiar datos de otros cuadros, por lo que requieren muchos más datos que otros cuadros cercanos. [51]

Es posible crear un editor de vídeo basado en ordenador que detecte los problemas que se producen cuando se eliminan algunos fotogramas mientras que otros los necesitan. Esto ha permitido utilizar formatos más nuevos como HDV para la edición. Sin embargo, este proceso exige mucho más poder de procesamiento que la edición de vídeo comprimido intracuadro con la misma calidad de imagen. Pero esta compresión no es muy eficaz para utilizarla en cualquier formato de audio. [52]

Perfiles y niveles

Un formato de codificación de vídeo puede definir restricciones opcionales para el vídeo codificado, llamadas perfiles y niveles. Es posible tener un decodificador que sólo admita la decodificación de un subconjunto de perfiles y niveles de un formato de vídeo determinado, por ejemplo, para hacer que el programa/hardware del decodificador sea más pequeño, más simple o más rápido. [53]

Un perfil restringe las técnicas de codificación permitidas. Por ejemplo, el formato H.264 incluye los perfiles baseline , main y high (y otros). Mientras que los cortes P (que se pueden predecir en función de los cortes anteriores) se admiten en todos los perfiles, los cortes B (que se pueden predecir en función de los cortes anteriores y posteriores) se admiten en los perfiles main y high , pero no en baseline . [54]

Un nivel es una restricción sobre parámetros como la resolución máxima y las velocidades de datos. [54]

Véase también

Notas

Referencias

  1. ^ Thomas Wiegand ; Gary J. Sullivan; Gisle Bjontegaard y Ajay Luthra (julio de 2003). "Descripción general del estándar de codificación de video H.264/AVC" (PDF) . IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY.
  2. ^ ab «SERIE H: SISTEMAS AUDIOVISUALES Y MULTIMEDIA: Infraestructura de servicios audiovisuales – Codificación de vídeo en movimiento: Codificación avanzada de vídeo para servicios audiovisuales genéricos». Itu.int . Consultado el 6 de enero de 2015 .
  3. ^ "Portada". Alliance for Open Media . Consultado el 23 de mayo de 2016 .
  4. ^ Adrian Grange; Peter de Rivaz y Jonathan Hunt. "Especificación del proceso de decodificación y flujo de bits VP9" (PDF) .
  5. ^ "Audio/Video". The Chromium Projects . Consultado el 23 de mayo de 2016 .
  6. ^ "Formatos multimedia admitidos por los elementos de audio y vídeo HTML". Mozilla . Consultado el 23 de mayo de 2016 .
  7. ^ Rowan Trollope (30 de octubre de 2013). «Open-Sourced H.264 Removes Barriers to WebRTC» (El H.264 de código abierto elimina las barreras para WebRTC). Cisco. Archivado desde el original el 14 de mayo de 2019. Consultado el 23 de mayo de 2016 .
  8. ^ "Capítulo 3: Algoritmo de poda A* modificado para encontrar K-MCSP en compresión de video" (PDF) . Shodhganga.inflibnet.ac.in . Consultado el 6 de enero de 2015 .
  9. ^ abcdefghij "Historia de la compresión de vídeo". UIT-T . Equipo de vídeo conjunto (JVT) de ISO/IEC MPEG y ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 y ITU-T SG16 Q.6). Julio de 2002. págs. 11, 24–9, 33, 40–1, 53–6 . Consultado el 3 de noviembre de 2019 .
  10. ^ Robinson, AH; Cherry, C. (1967). "Resultados de un prototipo de esquema de compresión de ancho de banda para televisión". Actas del IEEE . 55 (3). IEEE : 356–364. doi :10.1109/PROC.1967.5493.
  11. ^ abcdefghi Ghanbari, Mohammed (2003). Códecs estándar: de la compresión de imágenes a la codificación avanzada de vídeo. Institution of Engineering and Technology . págs. 1–2. ISBN 9780852967102.
  12. ^ abcdef Lea, William (1994). Vídeo a la carta: Documento de investigación 94/68. Biblioteca de la Cámara de los Comunes . Consultado el 20 de septiembre de 2019 .
  13. ^ Lee, Jack (2005). Sistemas escalables de transmisión continua de medios: arquitectura, diseño, análisis e implementación. John Wiley & Sons . pág. 25. ISBN 9780470857649.
  14. ^ Ahmed, Nasir (enero de 1991). "Cómo se me ocurrió la transformada discreta del coseno". Procesamiento de señales digitales . 1 (1): 4–5. doi :10.1016/1051-2004(91)90086-Z.
  15. ^ Ahmed, Nasir ; Natarajan, T.; Rao, KR (enero de 1974), "Transformada discreta del coseno", IEEE Transactions on Computers , C-23 (1): 90–93, doi :10.1109/TC.1974.223784, S2CID  149806273
  16. ^ Rao, KR ; Yip, P. (1990), Transformada discreta del coseno: algoritmos, ventajas, aplicaciones , Boston: Academic Press, ISBN 978-0-12-580203-1
  17. ^ ab Habibi, Ali (1974). "Codificación híbrida de datos pictóricos". IEEE Transactions on Communications . 22 (5): 614–624. doi :10.1109/TCOM.1974.1092258.
  18. ^ Chen, Z.; He, T.; Jin, X.; Wu, F. (2019). "Aprendizaje para compresión de video". IEEE Transactions on Circuits and Systems for Video Technology . 30 (2): 566–576. arXiv : 1804.09869 . doi :10.1109/TCSVT.2019.2892608. S2CID  13743007.
  19. ^ Pratt, William K. (1984). Avances en electrónica y física electrónica: suplemento. Academic Press . pág. 158. ISBN 9780120145720Un avance significativo en la metodología de codificación de imágenes se produjo con la introducción del concepto de codificación híbrida por transformada/DPCM (Habibi, 1974) .
  20. ^ Ohm, Jens-Rainer (2015). Codificación y transmisión de señales multimedia. Springer. pág. 364. ISBN 9783662466919.
  21. ^ ab Roese, John A.; Robinson, Guner S. (30 de octubre de 1975). Tescher, Andrew G. (ed.). "Codificación espacial y temporal combinada de secuencias de imágenes digitales". Transmisión eficiente de información pictórica . 0066 . Sociedad Internacional de Óptica y Fotónica: 172–181. Bibcode :1975SPIE...66..172R. doi :10.1117/12.965361. S2CID  62725808.
  22. ^ Huang, TS (1981). Análisis de secuencias de imágenes. Springer Science & Business Media . pág. 29. ISBN. 9783642870378.
  23. ^ abc Stanković, Radomir S.; Astola, Jaakko T. (2012). "Reminiscencias de los primeros trabajos en DCT: entrevista con KR Rao" (PDF) . Reimpresiones de los primeros días de las ciencias de la información . 60 . Consultado el 13 de octubre de 2019 .
  24. ^ Chen, Wen-Hsiung; Smith, CH; Fralick, SC (septiembre de 1977). "Un algoritmo computacional rápido para la transformada discreta del coseno". IEEE Transactions on Communications . 25 (9): 1004–1009. doi :10.1109/TCOM.1977.1093941.
  25. ^ "T.81 – Compresión digital y codificación de imágenes fijas de tono continuo – Requisitos y directrices" (PDF) . CCITT . Septiembre de 1992 . Consultado el 12 de julio de 2019 .
  26. ^ Cianci, Philip J. (2014). Televisión de alta definición: la creación, el desarrollo y la implementación de la tecnología HDTV. McFarland. pág. 63. ISBN 9780786487974.
  27. ^ abc Li, Jian Ping (2006). Actas de la Conferencia Internacional de Computación 2006 sobre Tecnología de Medios Activos Wavelet y Procesamiento de Información: Chongqing, China, 29-31 de agosto de 2006. World Scientific . p. 847. ISBN 9789812709998.
  28. ^ abcdefg "Infografía sobre la historia de los formatos de archivos de vídeo". RealNetworks . 22 de abril de 2012 . Consultado el 5 de agosto de 2019 .
  29. ^ ab "Recomendación UIT-T declarada patente(s)". UIT . Consultado el 12 de julio de 2019 .
  30. ^ ab "Lista de patentes MPEG-2" (PDF) . MPEG LA . Consultado el 7 de julio de 2019 .
  31. ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26-28 de octubre de 1993). "Un esquema de codificación HDTV utilizando DCT de dimensión adaptativa". Procesamiento de señales de HDTV: Actas del Taller internacional sobre HDTV '93, Ottawa, Canadá . Elsevier : 611–618. doi :10.1016/B978-0-444-81844-7.50072-3. ISBN . 9781483298511.
  32. ^ abc "MPEG-4 Visual - Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  33. ^ abc "Informe de desarrolladores de vídeo 2019" (PDF) . Bitmovin . 2019 . Consultado el 5 de noviembre de 2019 .
  34. ^ ab "AVC/H.264 – Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  35. ^ Wang, Hanli; Kwong, S.; Kok, C. (2006). "Algoritmo de predicción eficiente de coeficientes DCT enteros para optimización H.264/AVC". IEEE Transactions on Circuits and Systems for Video Technology . 16 (4): 547–552. doi :10.1109/TCSVT.2006.871390. S2CID  2060937.
  36. ^ "Transmisión de vídeo digital (DVB); Especificación para el uso de codificación de vídeo y audio en servicios DVB entregados directamente sobre IP" (PDF) .
  37. ^ "World, Meet Thor – a Project to Crafting a Video Codec Free Royalty" (Mundo, conoce a Thor: un proyecto para crear un códec de vídeo libre de derechos). 11 de agosto de 2015.
  38. ^ Thomson, Gavin; Shah, Athar (2017). "Introducción a HEIF y HEVC" (PDF) . Apple Inc. Consultado el 5 de agosto de 2019 .
  39. ^ ab "Lista de patentes HEVC" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  40. ^ ISO. «Inicio». Organización Internacional de Normalización . ISO . Consultado el 3 de agosto de 2022 .
  41. ^ "Normas ISO y patentes". ISO . Consultado el 10 de julio de 2019 .
  42. ^ Davis, Andrew (13 de junio de 1997). "Resumen de la recomendación H.320". EE Times . Consultado el 7 de noviembre de 2019 .
  43. ^ IEEE WESCANEX 97: comunicaciones, energía y computación: actas de congresos. Universidad de Manitoba, Winnipeg, Manitoba, Canadá: Instituto de Ingenieros Eléctricos y Electrónicos . 22-23 de mayo de 1997. p. 30. ISBN 9780780341470El H.263 es similar al H.261, pero más complejo. Actualmente es el estándar de compresión de vídeo internacional más utilizado para telefonía por vídeo en líneas telefónicas ISDN (Red Digital de Servicios Integrados).
  44. ^ "Motion JPEG 2000 Part 3". Grupo conjunto de expertos en fotografía, JPEG y grupo conjunto de expertos en imágenes de dos niveles, JBIG . Archivado desde el original el 5 de octubre de 2012. Consultado el 21 de junio de 2014 .
  45. ^ Taubman, David; Marcellin, Michael (2012). Fundamentos, estándares y prácticas de compresión de imágenes JPEG2000: Fundamentos, estándares y prácticas de compresión de imágenes. Springer Science & Business Media . ISBN 9781461507994.
  46. ^ Swartz, Charles S. (2005). Entender el cine digital: un manual profesional. Taylor & Francis . p. 147. ISBN 9780240806174.
  47. ^ "Lista de patentes VC-1" (PDF) . MPEG LA . Consultado el 11 de julio de 2019 .
  48. ^ "Lista de patentes de HEVC Advance". HEVC Advance . Archivado desde el original el 24 de agosto de 2020. Consultado el 6 de julio de 2019 .
  49. ^ Filippov, Alexey; Norkin, Aney; Alvarez, José Roberto (abril de 2020). «RFC 8761 - Requisitos de códecs de vídeo y metodología de evaluación». datatracker.ietf.org . Consultado el 10 de febrero de 2022 .
  50. ^ Bhojani, DR "4.1 Video Compression" (PDF) . Hipótesis . Consultado el 6 de marzo de 2013 .
  51. ^ Jaiswal, RC (2009). Ingeniería Audio-Video . Pune, Maharashtra: Nirali Prakashan. pag. 3.55. ISBN 9788190639675.
  52. ^ "WebCodecs". www.w3.org . Consultado el 10 de febrero de 2022 .
  53. ^ "Representación de video: descripción general | Temas de ScienceDirect" www.sciencedirect.com . Consultado el 10 de febrero de 2022 .
  54. ^ por Jan Ozer. "Opciones de codificación para vídeo H.264". Adobe.com . Consultado el 6 de enero de 2015 .