El vídeo digital es una representación electrónica de imágenes visuales en movimiento ( vídeo ) en forma de datos digitales codificados . Esto contrasta con el vídeo analógico , que representa imágenes visuales en movimiento en forma de señales analógicas . El vídeo digital comprende una serie de imágenes digitales que se muestran en rápida sucesión, normalmente a 24, 25, 30 o 60 fotogramas por segundo . El vídeo digital tiene muchas ventajas, como la facilidad de copia, multidifusión, uso compartido y almacenamiento.
El vídeo digital se introdujo comercialmente por primera vez en 1986 con el formato Sony D1 , que grababa una señal de vídeo componente de definición estándar sin comprimir en formato digital. Además de los formatos sin comprimir , los formatos de vídeo digital comprimido más populares en la actualidad incluyen MPEG-2 , H.264 y AV1 . Los estándares de interconexión modernos que se utilizan para la reproducción de vídeo digital incluyen HDMI , DisplayPort , Interfaz visual digital (DVI) e interfaz digital en serie (SDI).
El vídeo digital se puede copiar y reproducir sin que se degrade su calidad. Por el contrario, cuando se copian fuentes analógicas, se produce una pérdida de generación . El vídeo digital se puede almacenar en medios digitales como discos Blu-ray , en el almacenamiento de datos de la computadora o transmitir por Internet a usuarios finales que miran el contenido en una pantalla de computadora personal o dispositivo móvil o en un televisor inteligente digital . Hoy en día, el contenido de vídeo digital, como programas de televisión y películas, también incluye una banda sonora de audio digital .
La base de las cámaras de vídeo digitales son los sensores de imagen de semiconductor de óxido de metal (MOS) . [1] El primer sensor de imagen de semiconductor práctico fue el dispositivo de carga acoplada (CCD), inventado en 1969 [2] por Willard S. Boyle, quien ganó un Premio Nobel por su trabajo en física. [3] Después de la comercialización de los sensores CCD a fines de la década de 1970 y principios de la de 1980, la industria del entretenimiento comenzó lentamente a realizar la transición de video analógico a imágenes y videos digitales durante las siguientes dos décadas. [4] Al CCD le siguió el sensor de píxeles activos CMOS ( sensor CMOS ), [5] desarrollado en la década de 1990. [6] [7]
Las películas importantes [a] filmadas en video digital superaron a las filmadas en película en 2013. Desde 2016, más del 90% de las películas importantes se filmaron en video digital. [8] [9] A partir de 2017 [actualizar], el 92% de las películas se filman en formato digital. [10] Solo 24 películas importantes lanzadas en 2018 se filmaron en 35 mm. [11] Hoy en día, las cámaras de empresas como Sony , Panasonic , JVC y Canon ofrecen una variedad de opciones para grabar videos de alta definición. En el extremo superior del mercado, ha surgido una serie de cámaras dirigidas específicamente al mercado del cine digital. Estas cámaras de Sony , Vision Research , Arri , Blackmagic Design , Panavision , Grass Valley y Red ofrecen una resolución y un rango dinámico que superan los de las cámaras de video tradicionales, que están diseñadas para las necesidades limitadas de la televisión abierta . [12]
En la década de 1970, la modulación por código de pulsos (PCM) indujo el nacimiento de la codificación de video digital , que exigía altas tasas de bits de 45 a 140 Mbit/s para contenido de definición estándar (SD). En la década de 1980, la transformada de coseno discreta (DCT) se convirtió en el estándar para la compresión de video digital . [13]
El primer estándar de codificación de vídeo digital fue el H.120 , creado por el Comité Consultivo Internacional Telegráfico y Telefónico ( CCITT , actualmente UIT-T) en 1984. El H.120 no era práctico debido a su bajo rendimiento. [14] El H.120 se basaba en la modulación diferencial por código de pulsos (DPCM), un algoritmo de compresión que era ineficiente para la codificación de vídeo. A finales de los años 1980, varias empresas comenzaron a experimentar con DCT, una forma de compresión mucho más eficiente para la codificación de vídeo. El CCITT recibió 14 propuestas de formatos de compresión de vídeo basados en DCT, en contraste con una única propuesta basada en la compresión de cuantificación vectorial (VQ). El estándar H.261 se desarrolló en base a la compresión DCT, [15] convirtiéndose en el primer estándar de codificación de vídeo práctico. [14] Desde el H.261, la compresión DCT ha sido adoptada por todos los principales estándares de codificación de vídeo que le siguieron. [15]
En 1991 apareció el formato MPEG-1 , desarrollado por el Motion Picture Experts Group (MPEG), diseñado para comprimir vídeo de calidad VHS . En 1994, apareció el formato MPEG-2 / H.262 , que se convirtió en el formato de vídeo estándar para DVD y televisión digital SD . En 1999, apareció el formato MPEG-4 y, en 2003, el formato H.264/MPEG-4 AVC , que se convirtió en el estándar de codificación de vídeo más utilizado. [ 16 ]
El formato de codificación de vídeo de la generación actual es HEVC (H.265), introducido en 2013. Mientras que AVC utiliza la DCT de enteros con tamaños de bloque de 4x4 y 8x8, HEVC utiliza transformadas DCT y DST de enteros con tamaños de bloque variados entre 4x4 y 32x32. [17] HEVC está fuertemente patentado, y la mayoría de las patentes pertenecen a Samsung Electronics , GE , NTT y JVC Kenwood . [18] Actualmente está siendo desafiado por el formato AV1 , que pretende tener licencia libre . A partir de 2019 [actualizar], AVC es, con diferencia, el formato más utilizado para la grabación, compresión y distribución de contenido de vídeo, utilizado por el 91% de los desarrolladores de vídeo, seguido de HEVC, que es utilizado por el 43% de los desarrolladores. [19]
A partir de finales de la década de 1970 y principios de la de 1980, se introdujeron equipos de producción de vídeo que eran digitales en su funcionamiento interno. Entre ellos se encontraban los correctores de base de tiempo (TBC) [b] y las unidades de efectos de vídeo digitales (DVE). [c] Funcionaban tomando una entrada de vídeo compuesto analógico estándar y digitalizándola internamente. Esto facilitaba la corrección o mejora de la señal de vídeo, como en el caso de un TBC, o la manipulación y la adición de efectos al vídeo, en el caso de una unidad DVE. La información de vídeo digitalizada y procesada se convertía luego de nuevo a vídeo analógico estándar para su salida.
Más tarde, en la década de 1970, los fabricantes de equipos de transmisión de vídeo profesional, como Bosch (a través de su división Fernseh ) y Ampex, desarrollaron prototipos de grabadoras de vídeo digitales (VTR) en sus laboratorios de investigación y desarrollo. La máquina de Bosch utilizaba un transportador de cinta de vídeo tipo B de 1 pulgada modificado y grababa una forma temprana de vídeo digital CCIR 601. El prototipo de grabadora de vídeo digital de Ampex utilizaba una VTR de cinta de vídeo cuádruplex de 2 pulgadas modificada (una Ampex AVR-3) equipada con electrónica de vídeo digital personalizada y un cabezal octaplex especial de 8 cabezales (las máquinas cuádruples analógicas normales de 2" solo utilizaban 4 cabezales). Al igual que las cuádruples de 2" estándar, el audio de la máquina digital prototipo de Ampex, apodada Annie por sus desarrolladores, seguía grabando el audio en analógico como pistas lineales en la cinta. Ninguna de estas máquinas de estos fabricantes se comercializó nunca.
El vídeo digital se introdujo comercialmente por primera vez en 1986 con el formato Sony D1 , que grababa una señal de vídeo componente de definición estándar sin comprimir en formato digital. Las conexiones de vídeo componente requerían tres cables, pero la mayoría de las instalaciones de televisión estaban cableadas para vídeo compuesto NTSC o PAL utilizando un solo cable. Debido a esta incompatibilidad y al coste de la grabadora, el formato D1 se utilizó principalmente en grandes cadenas de televisión y otros estudios de vídeo con capacidad para vídeo componente.
En 1988, Sony y Ampex desarrollaron y lanzaron conjuntamente el formato de videocasete digital D2 , que grababa video digitalmente sin compresión en formato ITU-601 , de manera muy similar al D1. En comparación, el D2 tenía la principal diferencia de codificar el video en forma compuesta según el estándar NTSC, por lo que solo requería conexiones de video compuesto de un solo cable hacia y desde un VCR D2. Esto lo convirtió en una opción perfecta para la mayoría de las instalaciones de televisión en ese momento. El D2 fue un formato exitoso en la industria de transmisión televisiva a lo largo de finales de los años 80 y los años 90. El D2 también se usó ampliamente en esa época como el formato de cinta maestra para masterizar discos láser . [d]
Los formatos D1 y D2 serían eventualmente reemplazados por sistemas más económicos que utilizaban compresión de video, en particular el Digital Betacam de Sony , que se introdujo en los estudios de televisión de la cadena . Otros ejemplos de formatos de video digital que utilizaban compresión fueron el DCT de Ampex (el primero en emplearlo cuando se presentó en 1992), el estándar de la industria DV y MiniDV y sus variaciones profesionales, el DVCAM de Sony y el DVCPRO de Panasonic , y el Betacam SX , una variante de menor costo del Digital Betacam que utiliza compresión MPEG-2. [20]
Uno de los primeros productos de vídeo digital que se ejecutaron en ordenadores personales fue PACo: el compilador de animación PICS de The Company of Science & Art en Providence, Rhode Island. Se desarrolló a principios de 1990 y se comercializó por primera vez en mayo de 1991. PACo podía transmitir vídeo de duración ilimitada con sonido sincronizado desde un único archivo (con la extensión de archivo .CAV ) en CD-ROM. Para su creación se necesitaba un Mac y la reproducción era posible en Mac, PC y estaciones SPARC de Sun. [21]
QuickTime , el marco multimedia de Apple Computer , fue lanzado en junio de 1991. Audio Video Interleave de Microsoft le siguió en 1992. Las herramientas iniciales de creación de contenido a nivel de consumidor eran rudimentarias, requerían que una fuente de video analógica se digitalizara a un formato legible por computadora. Si bien al principio era de baja calidad, el video digital de consumo aumentó rápidamente en calidad, primero con la introducción de estándares de reproducción como MPEG-1 y MPEG-2 (adoptados para su uso en transmisión de televisión y medios DVD), y la introducción del formato de cinta DV que permitía transferir grabaciones en el formato directamente a archivos de video digital utilizando un puerto FireWire en una computadora de edición. Esto simplificó el proceso, lo que permitió que los sistemas de edición no lineal (NLE) se implementaran de manera económica y amplia en computadoras de escritorio sin necesidad de equipo de reproducción o grabación externo.
La adopción generalizada del vídeo digital y los formatos de compresión que lo acompañan ha reducido el ancho de banda necesario para una señal de vídeo de alta definición (con HDV y AVCHD , así como varios formatos profesionales como XDCAM , todos ellos utilizando menos ancho de banda que una señal analógica de definición estándar). Estos ahorros han aumentado la cantidad de canales disponibles en la televisión por cable y los sistemas de transmisión directa por satélite , han creado oportunidades para la reasignación del espectro de frecuencias de transmisión de televisión terrestre y han hecho posible las videocámaras sin cinta basadas en memoria flash , entre otras innovaciones y eficiencias.
En el plano cultural, el vídeo digital ha permitido que el vídeo y el cine se vuelvan ampliamente disponibles y populares, lo que beneficia al entretenimiento, la educación y la investigación. [22] El vídeo digital es cada vez más común en las escuelas, y los estudiantes y los profesores se interesan por aprender a utilizarlo de manera pertinente. [23] El vídeo digital también tiene aplicaciones en el ámbito sanitario, ya que permite a los médicos controlar la frecuencia cardíaca y los niveles de oxígeno de los bebés. [24]
Además, el cambio del vídeo analógico al digital afectó a los medios de comunicación de diversas maneras, como por ejemplo en la forma en que las empresas utilizan las cámaras para la vigilancia. La televisión de circuito cerrado (CCTV) pasó a utilizar grabadoras de vídeo digitales (DVR), lo que planteó el problema de cómo almacenar las grabaciones para la recopilación de pruebas. Hoy en día, el vídeo digital se puede comprimir para ahorrar espacio de almacenamiento. [25]
La televisión digital (DTV) es la producción y transmisión de vídeo digital desde las redes a los consumidores. Esta técnica utiliza codificación digital en lugar de las señales analógicas utilizadas antes de la década de 1950. [26] En comparación con los métodos analógicos, la DTV es más rápida y ofrece más capacidades y opciones para transmitir y compartir datos. [27]
Los orígenes de la televisión digital están ligados a la disponibilidad de ordenadores económicos y de alto rendimiento . No fue hasta la década de 1990 que la televisión digital se convirtió en una posibilidad real. [28] Anteriormente, la televisión digital no era prácticamente viable debido a los requisitos de ancho de banda poco prácticos del vídeo sin comprimir , [29] que requerían alrededor de 200 Mbit/s para una señal de televisión de definición estándar (SDTV), [30] [31] y más de 1 Gbit/s para la televisión de alta definición (HDTV). [29] [32]
El vídeo digital comprende una serie de imágenes digitales que se muestran en rápida sucesión. En el contexto del vídeo, estas imágenes se denominan fotogramas . [e] La velocidad a la que se muestran los fotogramas se conoce como velocidad de fotogramas y se mide en fotogramas por segundo . Cada fotograma es una imagen digital y, por tanto, comprende una formación de píxeles . El color de un píxel se representa mediante un número fijo de bits de ese color donde se almacena la información del color dentro de la imagen. [33] Por ejemplo, 8 bits capturan 256 niveles por canal y 10 bits capturan 1.024 niveles por canal. [34] Cuantos más bits, más variaciones sutiles de colores se pueden reproducir. Esto se denomina profundidad de color o profundidad de bits del vídeo.
En un vídeo entrelazado, cada fotograma se compone de dos mitades de una imagen. La primera mitad contiene solo las líneas impares de un fotograma completo. La segunda mitad contiene solo las líneas pares. Estas mitades se denominan individualmente campos . Dos campos consecutivos componen un fotograma completo. Si un vídeo entrelazado tiene una velocidad de fotogramas de 30 fotogramas por segundo, la velocidad de campo es de 60 campos por segundo, aunque ambos forman parte del vídeo entrelazado, los fotogramas por segundo y los campos por segundo son números separados.
Por definición, la tasa de bits es una medida de la velocidad del contenido de información de la transmisión de vídeo digital. En el caso de vídeo sin comprimir, la tasa de bits corresponde directamente a la calidad del vídeo porque la tasa de bits es proporcional a cada propiedad que afecta a la calidad del vídeo . La tasa de bits es una propiedad importante cuando se transmite vídeo porque el enlace de transmisión debe ser capaz de soportar esa tasa de bits. La tasa de bits también es importante cuando se trata del almacenamiento de vídeo porque, como se muestra arriba, el tamaño del vídeo es proporcional a la tasa de bits y a la duración. La compresión de vídeo se utiliza para reducir en gran medida la tasa de bits mientras que tiene poco efecto sobre la calidad. [35]
Los bits por píxel (BPP) son una medida de la eficiencia de la compresión. Un vídeo de color verdadero sin compresión alguna puede tener un BPP de 24 bits/píxel. El submuestreo de croma puede reducir el BPP a 16 o 12 bits/píxel. La aplicación de compresión JPEG en cada fotograma puede reducir el BPP a 8 o incluso 1 bit/píxel. La aplicación de algoritmos de compresión de vídeo como MPEG1 , MPEG2 o MPEG4 permite la existencia de valores de BPP fraccionarios.
BPP representa los bits promedio por píxel. Hay algoritmos de compresión que mantienen el BPP casi constante durante toda la duración del video. En este caso, también obtenemos una salida de video con una tasa de bits constante (CBR). Este video CBR es adecuado para la transmisión de video en tiempo real, sin búfer y con ancho de banda fijo (por ejemplo, en videoconferencias). Dado que no todos los fotogramas se pueden comprimir al mismo nivel, porque la calidad se ve más afectada para escenas de alta complejidad, algunos algoritmos intentan ajustar constantemente el BPP. Mantienen el BPP alto mientras comprimen escenas complejas y bajo para escenas menos exigentes. [36] De esta manera, proporciona la mejor calidad con la tasa de bits promedio más pequeña (y el tamaño de archivo más pequeño, en consecuencia). Este método produce una tasa de bits variable porque rastrea las variaciones del BPP.
Las películas estándar suelen grabar a 24 fotogramas por segundo. Para el vídeo, hay dos estándares de velocidad de fotogramas: NTSC , a 30/1,001 (unos 29,97) fotogramas por segundo (unos 59,94 campos por segundo), y PAL , a 25 fotogramas por segundo (50 campos por segundo). Las cámaras de vídeo digitales vienen en dos formatos de captura de imágenes diferentes: entrelazado y escaneo progresivo . Las cámaras entrelazadas graban la imagen en conjuntos alternos de líneas: se escanean las líneas impares, luego las pares, luego las impares, y así sucesivamente.
Un conjunto de líneas pares o impares se denomina campo y un emparejamiento consecutivo de dos campos de paridad opuesta se denomina cuadro . Las cámaras de escaneo progresivo graban todas las líneas de cada cuadro como una sola unidad. Por lo tanto, el video entrelazado captura el movimiento de la escena con el doble de frecuencia que el video progresivo para la misma velocidad de cuadros. El escaneo progresivo generalmente produce una imagen ligeramente más nítida, sin embargo, el movimiento puede no ser tan fluido como el video entrelazado.
El vídeo digital se puede copiar sin pérdida de generación, lo que degrada la calidad en los sistemas analógicos. Sin embargo, un cambio en los parámetros como el tamaño del fotograma o un cambio del formato digital puede reducir la calidad del vídeo debido a pérdidas de escalado y transcodificación de la imagen . El vídeo digital se puede manipular y editar en sistemas de edición no lineal .
El vídeo digital tiene un coste significativamente inferior al de la película de 35 mm. En comparación con el elevado coste de la película , los medios digitales utilizados para la grabación de vídeo digital, como la memoria flash o el disco duro , son muy económicos. El vídeo digital también permite ver las imágenes en el lugar sin el costoso y lento procesamiento químico que requiere la película. La transferencia de vídeo digital por red hace innecesaria la entrega física de cintas y rollos de película.
La televisión digital (incluida la televisión de alta definición de mayor calidad ) se introdujo en la mayoría de los países desarrollados a principios de la década de 2000. Hoy en día, el vídeo digital se utiliza en los teléfonos móviles y sistemas de videoconferencia modernos . El vídeo digital se utiliza para la distribución de medios por Internet , incluida la transmisión de vídeo y la distribución de películas entre pares .
Existen muchos tipos de compresión de vídeo para ofrecer vídeo digital a través de Internet y en discos ópticos. Los tamaños de archivo de vídeo digital utilizados para la edición profesional no suelen ser prácticos para estos fines, y el vídeo requiere una mayor compresión con códecs para su uso con fines recreativos.
A partir de 2017 [actualizar], la resolución de imagen más alta demostrada para la generación de video digital es de 132,7 megapíxeles (15360 x 8640 píxeles). La velocidad más alta se logra en cámaras industriales y científicas de alta velocidad que son capaces de filmar videos de 1024 x 1024 a una velocidad de hasta 1 millón de cuadros por segundo durante breves períodos de grabación.
El vídeo digital en directo consume ancho de banda. El vídeo digital grabado consume almacenamiento de datos. La cantidad de ancho de banda o almacenamiento necesario se determina en función del tamaño del fotograma, la profundidad de color y la velocidad de fotogramas. Cada píxel consume una cantidad de bits determinada por la profundidad de color. Los datos necesarios para representar un fotograma de datos se determinan multiplicando por la cantidad de píxeles de la imagen. El ancho de banda se determina multiplicando el requisito de almacenamiento de un fotograma por la velocidad de fotogramas. Los requisitos generales de almacenamiento de un programa se pueden determinar multiplicando el ancho de banda por la duración del programa.
Estos cálculos son precisos para el vídeo sin comprimir, pero debido a la tasa de bits relativamente alta del vídeo sin comprimir, la compresión de vídeo se utiliza ampliamente. En el caso del vídeo comprimido, cada fotograma requiere solo un pequeño porcentaje de los bits originales. Esto reduce el consumo de datos o ancho de banda en un factor de 5 a 12 veces cuando se utiliza la compresión sin pérdida , pero más comúnmente, se utiliza la compresión con pérdida debido a su reducción del consumo de datos en factores de 20 a 200. [37] [ verificación fallida ] Tenga en cuenta que no es necesario que todos los fotogramas estén igualmente comprimidos en el mismo porcentaje. En su lugar, considere el factor promedio de compresión para todos los fotogramas tomados en conjunto.
Interfaces de vídeo digital especialmente diseñadas
Las interfaces de propósito general se utilizan para transportar vídeo digital.
La siguiente interfaz ha sido diseñada para transportar vídeo comprimido en formato MPEG -Transport:
El vídeo comprimido también se transmite mediante UDP - IP a través de Ethernet . Existen dos métodos para ello:
Otros métodos para transmitir vídeo por IP
{{cite book}}
: |journal=
ignorado ( ayuda ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace )