stringtranslate.com

H.261

H.261 es un estándar de compresión de vídeo de la UIT-T , ratificado por primera vez en noviembre de 1988. [1] [2] Es el primer miembro de la familia H.26x de estándares de codificación de vídeo en el dominio del Grupo de Estudio 16 de Expertos en Codificación de Vídeo de la UIT-T ( VCEG , entonces Grupo de Especialistas en Codificación para Telefonía Visual). Fue el primer estándar de codificación de vídeo que fue útil en términos prácticos.

H.261 fue diseñado originalmente para transmisión a través de líneas RDSI en las que las velocidades de datos son múltiplos de 64 kbit/s. El algoritmo de codificación fue diseñado para poder operar a velocidades de bits de video entre 40 kbit/s y 2 Mbit/s. El estándar admite dos tamaños de fotogramas de video: CIF (352×288 luma con 176×144 croma) y QCIF (176×144 con 88×72 croma) utilizando un esquema de muestreo 4:2:0 . También tiene un truco de compatibilidad con versiones anteriores para enviar imágenes fijas con una resolución de luma de 704×576 y una resolución de croma de 352×288 (que se agregó en una revisión posterior en 1993).

Historia

El primer estándar de codificación de vídeo digital fue el H.120 , creado por el CCITT (actualmente ITU-T) en 1984. [3] El H.120 no se podía utilizar en la práctica, ya que su rendimiento era demasiado deficiente. [3] El H.120 se basaba en la modulación diferencial por código de pulsos (DPCM), que tenía una compresión ineficiente. A finales de la década de 1980, varias empresas comenzaron a experimentar con la compresión DCT mucho más eficiente para la codificación de vídeo, y el CCITT recibió 14 propuestas de formatos de compresión de vídeo basados ​​en DCT, en contraste con una única propuesta basada en la compresión de cuantificación vectorial (VQ). Posteriormente, se desarrolló el estándar H.261 basado en la compresión DCT. [4]

El H.261 fue desarrollado por el Grupo de Especialistas en Codificación para Telefonía Visual del Grupo de Estudio XV del CCITT (que luego pasó a formar parte del SG16 de la UIT-T), presidido por Sakae Okubo de NTT . [5] Desde el H.261, la compresión DCT ha sido adoptada por todos los principales estándares de codificación de vídeo que le siguieron. [4]

Aunque el H.261 fue precedido en 1984 por el H.120 (que también sufrió una revisión en 1988 de cierta importancia histórica) como estándar de codificación de vídeo digital, el H.261 fue el primer estándar de codificación de vídeo digital verdaderamente práctico (en términos de compatibilidad de productos en cantidades significativas). De hecho, todos los estándares de codificación de vídeo internacionales posteriores ( MPEG-1 Parte 2 , H.262/MPEG-2 Parte 2 , H.263 , MPEG-4 Parte 2 , H.264/MPEG-4 Parte 10 y HEVC ) se han basado estrechamente en el diseño del H.261. Además, los métodos utilizados por el comité de desarrollo del H.261 para desarrollar el estándar de forma colaborativa han seguido siendo el proceso operativo básico para el trabajo de normalización posterior en este campo. [5]

Aunque H.261 se aprobó por primera vez como estándar en 1988, a la primera versión le faltaban algunos elementos importantes necesarios para convertirla en una especificación de interoperabilidad completa . Varias partes de la misma se marcaron como "En estudio". [2] Posteriormente se revisó en 1990 para añadir los aspectos necesarios restantes, [6] y luego se revisó nuevamente en 1993. [7] La ​​revisión de 1993 agregó un Anexo D titulado "Transmisión de imágenes fijas", que proporcionaba una forma compatible con versiones anteriores de enviar imágenes fijas con una resolución de luminancia de 704 × 576 y una resolución de croma de 352 × 288 mediante el uso de un submuestreo escalonado 2:1 horizontal y verticalmente para separar la imagen en cuatro subimágenes que se enviaban secuencialmente. [7]

Diseño H.261

La unidad básica de procesamiento del diseño se denomina macrobloque y H.261 fue el primer estándar en el que apareció el concepto de macrobloque. Cada macrobloque consta de una matriz de 16×16 de muestras de luminancia y dos matrices correspondientes de 8×8 de muestras de croma , utilizando un muestreo 4:2:0 y un espacio de color YCbCr . El algoritmo de codificación utiliza un híbrido de predicción entre imágenes con compensación de movimiento y codificación de transformación espacial con cuantificación escalar , escaneo en zigzag y codificación de entropía .

La predicción entre imágenes reduce la redundancia temporal, y se utilizan vectores de movimiento para compensar el movimiento. Aunque H.261 solo admite vectores de movimiento con valores enteros, se puede aplicar un filtro de desenfoque a la señal de predicción, lo que mitiga parcialmente la falta de precisión del vector de movimiento de muestra fraccionaria. La codificación de transformación que utiliza una transformada de coseno discreta (DCT) de 8×8 reduce la redundancia espacial. La DCT que se utiliza ampliamente en este sentido fue introducida por N. Ahmed , T. Natarajan y KR Rao en 1974. [8] Luego se aplica la cuantificación escalar para redondear los coeficientes de transformación a la precisión adecuada determinada por un parámetro de control de tamaño de paso, y los coeficientes de transformación cuantificados se escanean en zigzag y se codifican por entropía (utilizando un código de longitud variable de "nivel de ejecución " ) para eliminar la redundancia estadística.

En realidad, el estándar H.261 solo especifica cómo decodificar el vídeo. Los diseñadores de codificadores tenían libertad para diseñar sus propios algoritmos de codificación (como sus propios algoritmos de estimación de movimiento ), siempre que su salida estuviera restringida adecuadamente para permitir que la decodificara cualquier decodificador fabricado según el estándar. Los codificadores también tienen libertad para realizar cualquier preprocesamiento que quieran en su vídeo de entrada, y los decodificadores pueden realizar cualquier posprocesamiento que quieran en su vídeo decodificado antes de la visualización. Una técnica de posprocesamiento eficaz que se convirtió en un elemento clave de los mejores sistemas basados ​​en H.261 se denomina filtrado de desbloqueo . Esto reduce la aparición de artefactos en forma de bloque causados ​​por las partes de compensación de movimiento y transformación espacial basadas en bloques del diseño. De hecho, los artefactos de bloqueo son probablemente un fenómeno familiar para casi todo el que haya visto vídeo digital. Desde entonces, el filtrado de desbloqueo se ha convertido en una parte integral de los estándares más recientes H.264 y HEVC (aunque incluso cuando se utilizan estos estándares más nuevos, aún se permite un posprocesamiento adicional que puede mejorar la calidad visual si se realiza bien).

Los refinamientos de diseño introducidos en posteriores esfuerzos de estandarización han dado como resultado mejoras significativas en la capacidad de compresión en relación con el diseño H.261. Esto ha hecho que H.261 se haya vuelto esencialmente obsoleto, aunque todavía se utiliza como modo de compatibilidad con versiones anteriores en algunos sistemas de videoconferencia (como H.323 ) y para algunos tipos de video de Internet. Sin embargo, H.261 sigue siendo un hito histórico importante en el campo del desarrollo de la codificación de video.

Implementaciones de software

El código libavcodec con licencia LGPL incluye un codificador y decodificador H.261. Es compatible con los reproductores multimedia gratuitos VLC y MPlayer , así como con los proyectos de decodificadores ffdshow y FFmpeg .

Titulares de patentes

Las siguientes empresas contribuyeron con patentes para el desarrollo del formato H.261: [9]

Véase también

Referencias

  1. ^ "(Documento de posición de Nokia) Arquitectura web y consideraciones de códecs para servicios audiovisuales" (PDF) . H.261, que (en su primera versión) fue ratificada en noviembre de 1988.
  2. ^ de ITU-T (1988). «H.261: Códec de vídeo para servicios audiovisuales a 384 kbit/s - Recomendación H.261 (11/88)» . Consultado el 21 de octubre de 2010 .
  3. ^ ab "Infografía sobre la historia de los formatos de archivos de vídeo". RealNetworks . 22 de abril de 2012 . Consultado el 5 de agosto de 2019 .
  4. ^ ab Ghanbari, Mohammed (2003). Códecs estándar: de la compresión de imágenes a la codificación avanzada de vídeo. Institución de Ingeniería y Tecnología . Págs. 1–2. ISBN 9780852967102.
  5. ^ ab S. Okubo, "Metodología de modelos de referencia: una herramienta para la creación colaborativa de estándares de codificación de vídeo", Proceedings of the IEEE , vol. 83, núm. 2, febrero de 1995, págs. 139-150
  6. ^ UIT-T (1990). «H.261: Códec de vídeo para servicios audiovisuales a px 64 kbit/s - Recomendación H.261 (12/90)» . Consultado el 10 de diciembre de 2015 .
  7. ^ de ITU-T (1993). «H.261: Códec de vídeo para servicios audiovisuales a 64 kbit/s - Recomendación H.261 (03/93)» . Consultado el 10 de diciembre de 2015 .
  8. ^ N. Ahmed, T. Natarajan y KR Rao, "Transformada discreta del coseno", IEEE Transactions on Computers , enero de 1974, págs. 90-93; archivo PDF Archivado el 25 de noviembre de 2011 en Wayback Machine .
  9. ^ "Recomendación UIT-T declarada como patente". UIT . Consultado el 12 de julio de 2019 .
  10. ^ "Declaración de patente registrada como H261-07". UIT . Consultado el 11 de julio de 2019 .

Enlaces externos