stringtranslate.com

H.261

H.261 es un estándar de compresión de vídeo del UIT-T , ratificado por primera vez en noviembre de 1988. [1] [2] Es el primer miembro de la familia H.26x de estándares de codificación de vídeo en el dominio de la Comisión de Estudio 16 del UIT-T. Grupo de Expertos en Codificación de Vídeo ( VCEG , entonces Grupo de Especialistas en Codificación para Telefonía Visual). Fue el primer estándar de codificación de vídeo útil en términos prácticos.

H.261 se diseñó originalmente para la transmisión a través de líneas RDSI en las que las velocidades de datos son múltiplos de 64 kbit/s. El algoritmo de codificación fue diseñado para poder operar a velocidades de bits de vídeo entre 40 kbit/s y 2 Mbit/s. El estándar admite dos tamaños de fotogramas de vídeo: CIF (352×288 luma con 176×144 croma) y QCIF (176×144 con 88×72 croma) utilizando un esquema de muestreo 4:2:0 . También tiene un truco compatible con versiones anteriores para enviar imágenes fijas con una resolución luma de 704 × 576 y una resolución croma de 352 × 288 (que se agregó en una revisión posterior en 1993).

Historia

El primer estándar de codificación de vídeo digital fue H.120 , creado por el CCITT (ahora ITU-T) en 1984. [3] H.120 no se podía utilizar en la práctica porque su rendimiento era demasiado pobre. [3] H.120 se basó en la modulación diferencial de código de pulso (DPCM), que tenía una compresión ineficiente. A finales de la década de 1980, varias empresas comenzaron a experimentar con la compresión DCT, mucho más eficiente para la codificación de vídeo, y el CCITT recibió 14 propuestas para formatos de compresión de vídeo basados ​​en DCT, en contraste con una sola propuesta basada en la compresión de cuantificación vectorial (VQ). . Posteriormente se desarrolló el estándar H.261 basado en la compresión DCT. [4]

H.261 fue desarrollado por el Grupo de Especialistas en Codificación para Telefonía Visual de la Comisión de Estudio XV del CCITT (que luego pasó a formar parte de la CE 16 del UIT-T), presidido por Sakae Okubo de NTT . [5] Desde H.261, la compresión DCT ha sido adoptada por todos los principales estándares de codificación de vídeo que siguieron. [4]

Mientras que H.261 fue precedido en 1984 por H.120 (que también sufrió una revisión en 1988 de cierta importancia histórica) como estándar de codificación de vídeo digital, H.261 fue el primer estándar de codificación de vídeo digital verdaderamente práctico (en términos de soporte de producto). en cantidades significativas). De hecho, todos los estándares internacionales de codificación de vídeo posteriores ( MPEG-1 Parte 2 , H.262/MPEG-2 Parte 2 , H.263 , MPEG-4 Parte 2 , H.264/MPEG-4 Parte 10 y HEVC ) tienen se ha basado estrechamente en el diseño H.261. Además, los métodos utilizados por el comité de desarrollo H.261 para desarrollar el estándar en colaboración han seguido siendo el proceso operativo básico para el trabajo de estandarización posterior en el campo. [5]

Aunque H.261 se aprobó por primera vez como estándar en 1988, a la primera versión le faltaban algunos elementos importantes necesarios para convertirlo en una especificación de interoperabilidad completa . Varias partes estaban marcadas como "En estudio". [2] Posteriormente fue revisado en 1990 para agregar los aspectos necesarios restantes, [6] y luego fue revisado nuevamente en 1993. [7] La ​​revisión de 1993 agregó un Anexo D titulado "Transmisión de imágenes fijas", que proporcionó una versión compatible con versiones anteriores. manera de enviar imágenes fijas con una resolución luma de 704 × 576 y una resolución cromática de 352 × 288 mediante el uso de un submuestreo escalonado 2:1 horizontal y vertical para separar la imagen en cuatro subimágenes que se enviaron secuencialmente. [7]

diseño H.261

La unidad de procesamiento básica del diseño se llama macrobloque , y H.261 fue el primer estándar en el que apareció el concepto de macrobloque. Cada macrobloque consta de una matriz de 16 × 16 de muestras de luma y dos matrices correspondientes de 8 × 8 de muestras de croma , utilizando un muestreo 4:2:0 y un espacio de color YCbCr . El algoritmo de codificación utiliza un híbrido de predicción entre imágenes con compensación de movimiento y codificación de transformación espacial con cuantificación escalar , escaneo en zig-zag y codificación de entropía .

La predicción entre imágenes reduce la redundancia temporal y se utilizan vectores de movimiento para compensar el movimiento. Si bien H.261 solo admite vectores de movimiento con valores enteros, se puede aplicar un filtro de desenfoque a la señal de predicción, mitigando parcialmente la falta de precisión del vector de movimiento de muestra fraccionaria. La codificación de transformadas utilizando una transformada de coseno discreta (DCT) de 8 × 8 reduce la redundancia espacial. La DCT que se utiliza ampliamente a este respecto fue introducida por N. Ahmed , T. Natarajan y KR Rao en 1974. [8] Luego se aplica la cuantificación escalar para redondear los coeficientes de transformación a la precisión apropiada determinada por un parámetro de control de tamaño de paso. y los coeficientes de transformación cuantificados se escanean en zigzag y se codifican por entropía (utilizando un código de longitud variable de "nivel de ejecución " ) para eliminar la redundancia estadística.

En realidad, el estándar H.261 sólo especifica cómo decodificar el vídeo. Los diseñadores de codificadores tuvieron libertad para diseñar sus propios algoritmos de codificación (como sus propios algoritmos de estimación de movimiento ), siempre y cuando su salida estuviera restringida adecuadamente para permitir que fuera decodificada por cualquier decodificador fabricado según el estándar. Los codificadores también pueden realizar cualquier preprocesamiento que deseen en su vídeo de entrada, y los decodificadores pueden realizar cualquier posprocesamiento que deseen en su vídeo decodificado antes de mostrarlo. Una técnica de posprocesamiento eficaz que se convirtió en un elemento clave de los mejores sistemas basados ​​en H.261 se llama filtrado de desbloqueo . Esto reduce la apariencia de artefactos en forma de bloque causados ​​por la compensación de movimiento basada en bloques y las partes de transformación espacial del diseño. De hecho, el bloqueo de artefactos es probablemente un fenómeno familiar para casi todos los que han visto vídeos digitales. Desde entonces, el filtrado de desbloqueo se ha convertido en una parte integral de los estándares más recientes H.264 y HEVC (aunque incluso cuando se utilizan estos estándares más nuevos, aún se permite el posprocesamiento adicional y puede mejorar la calidad visual si se realiza bien).

Las mejoras de diseño introducidas en esfuerzos de estandarización posteriores han dado como resultado mejoras significativas en la capacidad de compresión en relación con el diseño H.261. Esto ha provocado que H.261 se vuelva esencialmente obsoleto, aunque todavía se utiliza como modo de compatibilidad con versiones anteriores en algunos sistemas de videoconferencia (como H.323 ) y para algunos tipos de vídeo de Internet. Sin embargo, H.261 sigue siendo un hito histórico importante en el campo del desarrollo de la codificación de vídeo.

Implementaciones de software

El libavcodec con licencia LGPL incluye un codificador y decodificador H.261. Es compatible con el reproductor multimedia gratuito VLC y los reproductores multimedia MPlayer , y en proyectos de decodificadores ffdshow y FFmpeg .

Titulares de patentes

Las siguientes empresas contribuyeron con patentes para el desarrollo del formato H.261: [9]

Ver también

Referencias

  1. ^ "(Documento de posición de Nokia) Consideraciones sobre códec y arquitectura web para servicios audiovisuales" (PDF) . H.261, que (en su primera versión) fue ratificado en noviembre de 1988.
  2. ^ ab UIT-T (1988). «H.261: Códec de vídeo para servicios audiovisuales a px 384 kbit/s - Recomendación H.261 (11/88)» . Consultado el 21 de octubre de 2010 .
  3. ^ ab "Infografía sobre la historia de los formatos de archivos de vídeo". Redes reales . 22 de abril de 2012 . Consultado el 5 de agosto de 2019 .
  4. ^ ab Ghanbari, Mohammed (2003). Códecs estándar: desde compresión de imágenes hasta codificación de vídeo avanzada. Institución de Ingeniería y Tecnología . págs. 1–2. ISBN 9780852967102.
  5. ^ ab S. Okubo, "Metodología del modelo de referencia: una herramienta para la creación colaborativa de estándares de codificación de vídeo", Actas del IEEE , vol. 83, núm. 2, febrero de 1995, págs. 139-150
  6. ^ UIT-T (1990). «H.261: Códec de vídeo para servicios audiovisuales a px 64 kbit/s - Recomendación H.261 (12/90)» . Consultado el 10 de diciembre de 2015 .
  7. ^ ab UIT-T (1993). «H.261: Códec de vídeo para servicios audiovisuales a px 64 kbit/s - Recomendación H.261 (03/93)» . Consultado el 10 de diciembre de 2015 .
  8. ^ N. Ahmed, T. Natarajan y KR Rao, "Discrete Cosine Transform", IEEE Transactions on Computers , enero de 1974, págs. 90-93; Archivo PDF Archivado el 25 de noviembre de 2011 en Wayback Machine .
  9. ^ "Recomendación UIT-T declarada patente(s)". UIT . Consultado el 12 de julio de 2019 .
  10. ^ "Declaración de patente registrada como H261-07". UIT . Consultado el 11 de julio de 2019 .

enlaces externos