HD-MAC ( High Definition Multiplexed Analogue Components ) fue un estándar de televisión de difusión propuesto por la Comisión Europea en 1986, como parte del proyecto Eureka 95. [1] Pertenece a la familia de estándares MAC - Multiplexed Analogue Components . Es un intento temprano de la CEE de proporcionar televisión de alta definición (HDTV) en Europa . Es una mezcla compleja de señal analógica (basada en el estándar Multiplexed Analogue Components ), multiplexada con sonido digital y datos de asistencia para la decodificación (DATV). La señal de vídeo (1250 líneas/50 campos por segundo en relación de aspecto 16:9 , con 1152 líneas visibles) se codificó con un codificador D2-MAC modificado .
Los receptores de definición estándar D2-MAC podían decodificar HD-MAC , pero no se obtenía una resolución adicional y se apreciaban ciertos artefactos. Para decodificar la señal con resolución completa se requería un sintonizador HD-MAC específico.
La descripción del formato de vídeo de la Unión Europea de Radiodifusión es la siguiente: ancho x alto [tipo de escaneo: i o p] / número de fotogramas completos por segundo [2]
Las emisiones digitales con definición estándar europea utilizan 720×576i/25, es decir, 25 cuadros entrelazados de 720 píxeles de ancho y 576 píxeles de alto: las líneas impares (1, 3, 5...) se agrupan para formar el campo impar, que se transmite primero, y luego le sigue el campo par que contiene las líneas 2, 4, 6... Por tanto, hay dos campos en un cuadro, lo que da como resultado una frecuencia de campo de 25 × 2 = 50 Hz.
La parte visible de la señal de vídeo proporcionada por un receptor HD-MAC era de 1152i/25, lo que duplica exactamente la resolución vertical de la definición estándar. La cantidad de información se multiplica por 4, considerando que el codificador inició sus operaciones a partir de una cuadrícula de muestreo de 1440x1152i/25.
El trabajo sobre la especificación HD-MAC comenzó oficialmente en mayo de 1986. El objetivo era reaccionar contra una propuesta japonesa, apoyada por los EE. UU., que pretendía establecer el sistema Hi-Vision (también conocido como MUSE) diseñado por la NHK como estándar mundial. Además de preservar la industria electrónica europea, también existía la necesidad de producir un estándar que fuera compatible con los sistemas de frecuencia de campo de 50 Hz (utilizados por una gran mayoría de países del mundo). A decir verdad, los 60 Hz exactos de la propuesta japonesa también preocupaban a los EE. UU., ya que su infraestructura de definición estándar basada en NTSC M usaba una frecuencia práctica de 59,94 Hz, lo que potencialmente conducía a problemas de incompatibilidad.
En septiembre de 1988, los japoneses realizaron las primeras retransmisiones en Alta Definición de los Juegos Olímpicos , utilizando su sistema Hi-Vision ( NHK producía material utilizando este formato desde 1982). En ese mismo mes de septiembre, Europa mostró por primera vez una alternativa creíble, es decir, una cadena de retransmisiones completa en HD-MAC, en el IBC 88 en Brighton. [3] En este espectáculo se presentaron los primeros prototipos de cámaras de vídeo HD de barrido progresivo ( Thomson /LER). [4]
El SCART dorado se desarrolló como interfaz de transmisión para dispositivos de consumo, [5] una implementación especial y compatible con versiones anteriores de la conexión SCART normal . Se dice que algunos televisores de Philips y Telefunken estaban equipados con él.
Para los Juegos Olímpicos de Invierno de Albertville 1992 y los Juegos Olímpicos de Verano de Barcelona 1992 , se realizó una demostración pública de la transmisión HD-MAC. [1] Se instalaron 60 receptores HD-MAC para los juegos de Albertville y 700 para los juegos de Barcelona en "Eurosites" para mostrar las capacidades del estándar. [6] Se utilizaron proyectores CRT de 1250 líneas (1152 visibles) para crear una imagen de unos pocos metros de ancho en espacios públicos de Barcelona para los Juegos Olímpicos. [7] También hubo algunos televisores CRT 16 :9 "Space system" de Thomson. El proyecto utilizó a veces televisores de retroproyección . Además, unos 80.000 espectadores de receptores D2-MAC también pudieron ver el canal (aunque no en HD). Se estima que 350.000 personas en toda Europa pudieron ver esta demostración de HDTV europea. Este proyecto fue financiado por la CEE . La señal convertida a PAL fue utilizada por las principales emisoras como SWR , BR y 3sat . El estándar HD-MAC también se demostró en la Expo de Sevilla '92 , utilizando exclusivamente equipos diseñados para trabajar con el estándar, como cámaras Plumbicon y CCD , televisores CRT de visión directa y proyección trasera, VTR BCH 1000 Tipo B , cables de fibra óptica monomodo y reproductores de Laserdisc con sus respectivos discos. El equipo de producción era visible para el público a través de las ventanas. [9]
Como el ancho de banda libre de UHF era muy escaso, el HD-MAC sólo podía utilizarse "de facto" por los proveedores de cable y satélite, [1] donde su ancho de banda estaba menos restringido, de manera similar a Hi-Vision, que sólo se transmitía por la NHK a través de un canal satelital dedicado llamado BShi. Sin embargo, el estándar nunca se popularizó entre las emisoras. A pesar de todo esto, la HDTV analógica no pudo reemplazar a la SDTV (terrestre) convencional PAL/ SECAM , lo que hizo que los equipos HD-MAC fueran poco atractivos para los consumidores potenciales.
A partir de 1986, todas las emisoras de satélite de alta potencia debían utilizar el formato MAC. Sin embargo, el lanzamiento de satélites de potencia media por parte de SES y el uso del formato PAL permitieron a las emisoras prescindir del formato HD-MAC, lo que redujo sus costos de transmisión. Sin embargo, el formato HD-MAC quedó reservado para los enlaces satelitales transcontinentales.
El estándar HD-MAC fue abandonado en 1993 y desde entonces todos los esfuerzos de la UE y la UER se han centrado en el sistema DVB (Digital Video Broadcasting), que permite tanto la SDTV como la HDTV.
Este artículo sobre la IFA de 1993 ofrece una visión del estado del proyecto cuando se acercaba su fin. Menciona "una recopilación especial de la BBC codificada en HD-MAC y reproducida desde una grabadora de cintas de vídeo D1 ". [10]
El desarrollo de HD-MAC se detuvo junto con el proyecto EUREKA en 1996, porque la calidad de la imagen no se consideró lo suficientemente buena, los televisores receptores no tenían suficiente resolución, la relación de aspecto 16:9 que luego se convertiría en estándar se consideraba exótica y los televisores receptores no eran lo suficientemente grandes para exhibir la calidad de imagen del estándar, y los que lo eran, eran televisores CRT, lo que los hacía extremadamente pesados. [11]
Las transmisiones analógicas SDTV PAL / SECAM utilizan 6, 7 ( VHF ) u 8 MHz ( UHF ). La línea 819 ( System E ) utiliza canales VHF de 14 MHz de ancho. Para HD-MAC, el medio de transmisión debe garantizar un ancho de banda de banda base de al menos 11,14 MHz. [12] Esto se traduce en un espaciamiento de canales de 12 MHz en redes de cable. La especificación permite canales de 8 MHz, pero en este caso los datos de asistencia ya no se pueden decodificar correctamente, y solo es posible extraer una señal de definición estándar, utilizando un receptor D2-MAC. Para la transmisión por satélite, debido a la expansión del espectro de modulación FM, se utilizaría un transpondedor de satélite completo, lo que daría como resultado un ancho de banda de 27 a 36 MHz. [13] La situación es prácticamente la misma en la definición estándar analógica: un transpondedor determinado solo puede admitir un canal analógico. Entonces, desde este punto de vista, pasar a HD no representa un inconveniente.
El funcionamiento del BRE (Bandwidth Reduction Encoding) se inició con vídeo analógico HD (incluso cuando la fuente era una grabadora digital, se reconvertía a analógico para alimentar al codificador [14] ). Se especificó que tuviera una frecuencia de campo de 50 Hz. Podía ser entrelazado, con 25 cuadros por segundo (llamado 1250/50/2 en la recomendación), o podía escanearse progresivamente con 50 cuadros completos por segundo (llamado 1250/50/1). La versión entrelazada fue la que se utilizó en la práctica. En cualquier caso, el número de líneas visibles era 1152, el doble de la definición vertical estándar de 576 líneas. El número completo de líneas en un periodo de cuadro, incluidas las que no se pueden mostrar, era 1250. Esto daba como resultado un periodo de línea de 32 μs. Según la recomendación de la UIT para los parámetros de los estándares de HDTV [15], la parte activa de la línea tenía una longitud de 26,67 μs (véase también el documento de la cámara LDK 9000 [16] ).
Si se hubiera aplicado la tendencia moderna de píxeles cuadrados, se habría obtenido una cuadrícula de muestreo de 2048 x 1152 píxeles. Sin embargo, no existía tal requisito en la norma, ya que los monitores CRT no necesitan ninguna escala adicional para poder mostrar píxeles no cuadrados. Según la especificación, la frecuencia de muestreo para la entrada entrelazada que se iba a utilizar era de 72 MHz, lo que daba como resultado 72 x 26,67 = 1920 muestras horizontales. Luego se reconvertía a 1440 desde dentro del dominio muestreado. La señal de entrada a menudo se originaba a partir de fuentes muestreadas previamente a solo 54 MHz, por razones económicas, y por lo tanto ya no contenían más que el equivalente analógico de 1440 muestras por línea. En última instancia, el punto de partida para BRE fue una cuadrícula de muestreo de 1440 x 1152 píxeles (el doble de las resoluciones horizontal y vertical de la SD digital), entrelazada, a 25 fps. [17]
Para mejorar la resolución horizontal de la norma D2-MAC , sólo había que aumentar su ancho de banda. Esto era fácil de hacer ya que, a diferencia de PAL , el sonido no se envía en una subportadora, sino que se multiplexa con la imagen. Sin embargo, aumentar el ancho de banda vertical era más complejo, ya que la frecuencia de línea debía permanecer en 15,625 kHz para ser compatible con D2-MAC. Esto ofrecía tres opciones:
Como ninguno de los tres modos hubiera sido suficiente, la elección durante la codificación no se hizo para la imagen completa, sino para pequeños bloques de 16x16 píxeles. La señal contenía entonces pistas (el flujo digital DATV) que controlaban qué método de desentrelazado debía utilizar el decodificador.
El modo de 20 ms ofrecía una resolución temporal mejorada, pero el de 80 ms era el único que proporcionaba una alta definición espacial en el sentido habitual. El modo de 40 ms descartaba uno de los campos de alta definición y lo reconstruía en el receptor con la ayuda de datos de compensación de movimiento. También se proporcionaban algunas indicaciones en caso de un movimiento de fotograma completo (paneo de la cámara, etc.) para mejorar la calidad de la reconstrucción.
El codificador podría funcionar en el modo operativo "Cámara", utilizando los tres modos de codificación, pero también en el modo "película" donde no se utilizaba el modo de codificación de 20 ms.
El modo de 80 ms aprovechó su velocidad de cuadro reducida de 12,5 fps para distribuir el contenido de un cuadro HD en dos cuadros SD, lo que significa cuatro campos de 20 ms = 80 ms, de ahí el nombre.
Pero eso no era suficiente, ya que un único fotograma HD contiene el equivalente a 4 fotogramas SD. Esto se podría haber "solucionado" duplicando el ancho de banda de la señal D2-MAC, aumentando así la resolución horizontal permitida por el mismo factor. En cambio, se conservó el ancho de banda del canal D2-MAC estándar y se eliminó un píxel de cada dos de cada línea. Este submuestreo se realizó en un patrón quincux . Suponiendo que los píxeles de una línea estuvieran numerados independientemente del 1 al 1440, solo se conservaron los píxeles 1, 3, 5... de la primera línea, los píxeles 2, 4, 6... de la segunda, 1, 3, 5... de nuevo de la tercera, y así sucesivamente. De esa manera, la información de todas las columnas del fotograma HD se transmitía al receptor. Cada píxel faltante estaba rodeado por 4 píxeles transmitidos (excepto en los lados) y se podía interpolar a partir de ellos. La resolución horizontal resultante de 720 se truncó aún más al límite de 697 muestras por línea del multiplexor de video D2-HDMAC. [18]
Como consecuencia de estas operaciones, se logró un factor de reducción de 4:1, lo que permitió transportar la señal de video de alta definición en un canal D2-MAC estándar. Las muestras retenidas por el BRE se ensamblaron en una señal de visión D2-MAC de definición estándar válida y finalmente se convirtieron a analógica para su transmisión. Los parámetros de modulación fueron tales que se preservó la independencia de las muestras. [19]
Para decodificar completamente la imagen, el receptor tenía que volver a muestrear la señal y luego leerla de la memoria varias veces. El BRD (decodificador de restauración de ancho de banda) del receptor reconstruiría entonces una cuadrícula de muestreo de 1394 x 1152 a partir de ella, bajo el control del flujo DATV, para ser alimentada a su DAC.
El resultado final fue una señal de vídeo HD analógica entrelazada de 1250 líneas (1152 visibles), 25 fps, con una frecuencia de campo de 50 Hz.
Los sistemas europeos se conocen generalmente como estándares de 50 Hz (frecuencia de campo). Los dos campos están separados por 20 ms en el tiempo. El proyecto Eu95 [20] [21] afirmó que evolucionaría hacia 1152p/50, y se lo tiene en cuenta como una posible fuente en la especificación D2-HDMAC. En ese formato, se captura un fotograma completo cada 20 ms, preservando así la calidad del movimiento de la televisión y completándolo con fotogramas sólidos sin artefactos que representan solo un instante en el tiempo, como se hace en el cine. Sin embargo, la frecuencia de fotogramas de 24 fps del cine es un poco baja, y se requiere una cantidad generosa de smear de movimiento para permitir que el ojo perciba un movimiento suave. 50 Hz es más del doble de esa frecuencia, y el smear de movimiento se puede reducir en proporción, lo que permite obtener imágenes más nítidas.
En la práctica, el formato 50P no se utilizó mucho. Incluso se hicieron algunas pruebas filmando a 50 fps y luego telecineando. [22]
Thomson/LER presentó una cámara progresiva, pero utilizaba una forma de muestreo quincuncial y, por lo tanto, tenía algunas limitaciones de ancho de banda. [23]
Este requisito suponía ampliar los límites tecnológicos de la época y habría contribuido a la notoria falta de sensibilidad de algunas cámaras Eu 95 (en particular las CRT). Esta sed de luz fue uno de los problemas que acosaron a los operadores que rodaron la película francesa "L'affaire Seznec" en 1250i. Algunas cámaras CCD se desarrollaron en el contexto del proyecto, véase por ejemplo la LDK9000: relación señal/ruido de 50 DB a 30 MHz.1000 lux a F/4.
El sistema Eu95 habría proporcionado una mejor compatibilidad con la tecnología cinematográfica que su competidor, primero por el escaneo progresivo y segundo por la comodidad y calidad de la transferencia entre los estándares de 50 Hz y la película (sin artefactos de movimiento, uno sólo necesita invertir el proceso habitual de "aceleración PAL" reduciendo la velocidad de cuadros en una relación 25/24). Tomar un cuadro de dos de una secuencia de 50P habría proporcionado un video de 25P adecuado como punto de partida para esta operación. Si la secuencia se graba a 50P con un obturador completamente abierto, producirá la misma cantidad de manchas de movimiento que una toma de 25P con un obturador medio abierto, una configuración común cuando se graba con una cámara de cine estándar.
En la práctica, Hi-Vision parece haber tenido más éxito en ese sentido, habiéndose utilizado para películas como Giulia e Giulia (1987) y Los libros de Próspero (1991).
En 1988 se presentó un prototipo de grabadora de cintas para el consumidor. Tenía un tiempo de grabación de 80 minutos y utilizaba una cinta "metálica" de 1,25 cm. El ancho de banda era de 10,125 MHz y la relación señal/ruido de 42 dB. [24]
También se había diseñado un prototipo de videodisco HD-MAC. [25] La versión que se presentó en 1988 podía grabar 20 minutos por lado de un disco de 30 cm. El ancho de banda era de 12 MHz y la relación señal/ruido de 32 dB. [26] Este medio se utilizó durante varias horas en la Expo 92. [27]
En cuanto al estudio y la producción, la situación era completamente distinta. Las técnicas de reducción de ancho de banda de HD-MAC reducen la tasa de píxeles de HD al nivel de SD. Por lo tanto, en teoría, habría sido posible utilizar una grabadora de vídeo digital SD, suponiendo que proporcionase suficiente espacio para el flujo de asistencia DATV, que requiere menos de 1,1 Mbit/s. El vídeo SD con formato 4:2:0 (12 bits por píxel) necesita 720x576x25x12 bits por segundo, lo que es ligeramente inferior a 125 Mbit/s, en comparación con los 270 Mbit/s disponibles en una máquina D-1 .
Pero no hay ninguna razón real para que el equipo de estudio esté limitado por HD-MAC, ya que este último es solo un estándar de transmisión, utilizado para transmitir el material HD desde el transmisor a los espectadores. Además, existen recursos técnicos y financieros disponibles para almacenar el video HD con mejor calidad, para su edición y archivo.
En la práctica, se utilizaron otros métodos. Al comienzo del proyecto Eureka95, el único medio para grabar la señal HD de una cámara era una enorme grabadora de cintas de 1 pulgada, la BTS BCH 1000, que se basaba en el formato de cinta de vídeo tipo B, pero con 8 cabezales de vídeo en lugar de los dos que se utilizan habitualmente, junto con una velocidad de cinta lineal superior de 66 cm/s, lo que satisfacía los mayores requisitos de ancho de banda del vídeo HD.
El plan del proyecto Eureka95 era desarrollar un grabador digital de muestreo de 72 MHz sin comprimir, denominado grabador "Gigabit". Se esperaba que su desarrollo llevara un año, por lo que, mientras tanto, se ensamblaron dos sistemas de grabación digital alternativos, ambos utilizando como punto de partida el grabador de componentes digitales sin comprimir de definición estándar "D1".
El sistema D1 submuestreado en quincunce o doble/dual desarrollado por Thomson utilizaba dos grabadoras digitales D-1 que estaban sincronizadas en una relación maestro/esclavo. Los campos impares podían entonces grabarse en uno de los D-1 y los campos pares en el otro. En sentido horizontal, el sistema registraba sólo la mitad del ancho de banda horizontal, con muestras tomadas en una cuadrícula de muestreo en quincunce. Esto le daba al sistema un rendimiento de ancho de banda completo en la dirección diagonal, pero se reducía a la mitad en sentido horizontal o vertical, dependiendo de las características temporales y espaciales exactas de la imagen.
El sistema Quadriga [28] fue desarrollado por la BBC en 1988 utilizando 4 grabadoras D1 sincronizadas, muestreo de 54 MHz y distribuyendo la señal de tal manera que bloques de 4 píxeles se enviaban a cada grabadora por turno. De esta manera, si se veía una sola cinta, la imagen aparecía como una representación justa pero distorsionada de la imagen completa, lo que permitía tomar decisiones de edición en una sola grabación, y era posible una edición con tres máquinas en una sola cuadriga procesando cada uno de los cuatro canales por turno, con ediciones idénticas realizadas en los otros tres canales posteriormente bajo el control de un controlador de edición programado.
Las grabadoras D1 originales estaban limitadas a una interfaz de vídeo paralela con cables cortos y muy voluminosos, pero esto no era un problema, ya que las señales digitales se almacenaban en los 5 bastidores de media altura (4 D1 y el bastidor de interfaz/control/entrelazado) que componían la Quadriga, e inicialmente todas las señales externas eran componentes analógicos. La introducción de SDI (la interfaz digital en serie de 270 Mbit/s) simplificó el cableado cuando la BBC construyó una segunda Quadriga.
Philips también construyó una Quadriga, pero utilizó un formato ligeramente diferente: la imagen HD se dividía en cuatro cuadrantes y cada uno de ellos se enviaba a una de las cuatro grabadoras. Salvo por un retraso de procesamiento ligeramente mayor, funcionaba de forma similar al método de la BBC y ambas versiones del equipo Quadriga se diseñaron para que fueran interoperables y se pudiera conmutar entre los modos intercalado y de cuadrante.
En 1993, Philips, en una empresa conjunta con Bosch ( BTS ), produjo un sistema de grabación "BRR" (o Bit Rate Reduction) que permitía grabar la señal Full HD en una única grabadora D1 (o D5 HD ). Si la cinta se reproducía en una grabadora D1 convencional, se podía ver una versión de baja resolución de la imagen en el centro de la pantalla, y estaba rodeada de lo que parecía ser ruido, pero en realidad eran simplemente datos codificados/comprimidos, de forma similar a las técnicas de compresión digital MPEG posteriores, con una tasa de compresión de 5:1, comenzando con un muestreo de 72 MHz. Algunos equipos BRR también contenían interfaces Quadriga, para facilitar la conversión entre formatos de grabación, y también se podían conmutar entre las versiones BBC y Philips del formato Quadriga. En ese momento, las señales Quadriga se transportaban en cuatro cables SDI.
Finalmente, con la ayuda de Toshiba, alrededor del año 2000, se fabricó el grabador Gigabit, conocido entonces como D6 HDTV VTR "Voodoo", algunos años después de que se interrumpiera el trabajo en el sistema de 1250 líneas en favor del Common Image Format, el sistema HDTV como se lo conoce hoy.
Por lo tanto, la calidad de los archivos Eureka 95 es superior a la que los espectadores podrían ver en la salida de un decodificador HD-MAC.
Para la realización de la película basada en HD L'affaire Seznec , la compañía Thomson certificó que sería capaz de transferir HD a película de 35 mm. Pero ninguno de los intentos tuvo éxito (la filmación se realizó en dual-D1). Sin embargo, otra película francesa filmada en 1994, Du fond du coeur: Germaine et Benjamin , supuestamente logró tal transferencia. Se dice que se filmó en alta definición digital en 1250 líneas. [29] [30] De ser así, podría decirse que sería la primera película de alta definición digital, utilizando una frecuencia de campo de 50 Hz compatible con películas, 7 años antes de Vidocq y 8 años antes de Star Wars: Episodio II - El ataque de los clones . [ cita requerida ] . Para una perspectiva histórica sobre las películas de origen HD, se pueden mencionar los primeros intentos como ' Harlow ', filmada en 1965 utilizando un proceso analógico de 819 líneas cercano a HD que luego evolucionó a resoluciones más altas (ver Electronovision ).
Se adquirió experiencia en elementos fundamentales como la grabación digital de alta definición, el procesamiento digital que incluye la compensación de movimiento, las cámaras CCD de alta definición y también en los factores que determinan la aceptación o el rechazo de un nuevo formato por parte de los profesionales, y todo ello se aprovechó al máximo en el proyecto de transmisión de vídeo digital que, a diferencia del HD-MAC, es un gran éxito mundial. A pesar de las primeras afirmaciones de los competidores de que no podía realizar la tecnología de alta definición, pronto se implementó en Australia precisamente para ese fin.
Las cámaras y grabadoras se reutilizaron para los primeros experimentos en cine digital de alta definición.
Estados Unidos trajo a casa algunas de las cámaras Eu95 para ser estudiadas en el contexto de su propio esfuerzo de desarrollo del estándar HDTV.
En Francia, una empresa llamada VTHR (Video Transmission Haute Resolution) utilizó durante algún tiempo el hardware Eu95 para retransmitir eventos culturales a pequeños pueblos (más tarde, cambiaron a MPEG2 SD de 15 Mbit/s mejorado).
En 1993, Texas Instruments construyó un prototipo DMD de 2048x1152. [31] En los documentos no se expone ninguna razón para elegir esta resolución específica en lugar del sistema japonés de 1035 líneas activas, o alternativamente duplicar las 480 líneas del televisor estadounidense estándar a 960, pero de esa manera podría cubrir todas las resoluciones que se esperaba que estuvieran presentes en el mercado, y eso incluía la europea, que resultó ser la más alta. Algunos de los legados de este desarrollo se pueden ver en los proyectores de películas digitales "2K" y "4K" que utilizan chips TI DLP, que funcionan con una resolución ligeramente más amplia de lo habitual de 2048x1080 o 4096x2160, lo que da una relación de aspecto de 1.896:1 sin estiramiento anamórfico (en comparación con el 1.778:1 del 16:9 normal, con 1920 o 3840 píxeles horizontales), dan un poco (6.7%) más de resolución horizontal con lentes anamórficas cuando se muestran películas de 2.21:1 (o más anchas) preparadas específicamente para ellas, y una mejora adicional (~13.78%) a través de un letterbox reducido si se usan sin dichas lentes.
A partir de 2010, algunos monitores de computadora estaban disponibles con una resolución de 2048x1152 (por ejemplo, Samsung 2343BWX 23, Dell SP2309W). Es poco probable que esto se refiera a Eu95, especialmente porque la frecuencia de actualización generalmente estará predeterminada en "60 Hz" (o 59,94 Hz), sino simplemente una resolución "HD+" conveniente hecha para presumir sobre los omnipresentes paneles HD de 1920x1080, con la menor mejora posible en la resolución real mientras se mantiene la misma resolución 16:9 para la reproducción de video sin recortes ni letterboxing (la siguiente resolución "conveniente" de 16:9 es la comparativamente mucho más grande, mucho más cara, 2560x1600 "2.5K", como se usa, por ejemplo, en las pantallas Apple Cinema y Retina); También es un ancho de potencia de 2 "ordenado", el doble del ancho del estándar XGA de antaño (por lo que, por ejemplo, los sitios web diseñados para ese ancho se pueden ampliar sin problemas hasta el 200 %), y resulta ser 4 veces el tamaño de los paneles de 1024 x 576 que se utilizan habitualmente en los netbooks y tabletas móviles más económicos (de la misma manera que el estándar 2.5K es 4 veces el WXGA de 1280 x 800 que se utiliza en los portátiles ultraportátiles y las tabletas de gama media). De esta manera, se puede considerar una forma de evolución de especificaciones convergentes: aunque hay pocas posibilidades de que los dos estándares estén directamente relacionados, sus particularidades se habrán determinado mediante métodos muy similares.
Aunque el hecho es ahora principalmente de interés histórico, la mayoría de los monitores CRT para PC con tubos más grandes tenían una frecuencia de barrido horizontal máxima de 70 kHz o superior, lo que significa que podrían haber manejado 2048x1152 a 60 Hz progresivos si se configuraban para usar una resolución personalizada (con márgenes de borrado verticales más delgados que el propio HD-MAC/Eu95 para aquellos clasificados para menos de 75 kHz). Los monitores capaces de soportar la frecuencia de actualización más baja, incluidos los modelos más pequeños incapaces de 70 kHz pero buenos para al menos 58 kHz (preferiblemente 62,5 kHz) y capaces de soportar la frecuencia de actualización vertical más baja, podrían en cambio configurarse para ejecutar 50 Hz progresivos, o incluso 100 Hz entrelazados para evitar el parpadeo que de otro modo causaría.
Sistemas de transmisión de televisión
Normas relacionadas:
{{cite book}}
: CS1 maint: nombres numéricos: lista de autores ( enlace )