Los gráficos de alta definición son un método para almacenar información de imágenes en la memoria de una computadora de manera que cada píxel esté representado por dos bytes . Por lo general, el color se representa con 16 bits , pero algunos dispositivos también admiten colores de alta definición de 15 bits. [1]
En Windows 7 , Microsoft utilizó el término color alto para identificar sistemas de visualización que pueden hacer uso de más de 8 bits por canal de color (formatos de representación 10:10:10:2 o 16:16:16:16) de los formatos tradicionales de 8 bits por canal de color. [2] Este es un uso diferente y distinto de los formatos de 15 bits (5:5:5) o 16 bits (5:6:5) tradicionalmente asociados con la frase color alto ; consulte color profundo .
En el color alto de 15 bits, uno de los bits de los dos bytes se ignora o se reserva para un canal alfa , y los 15 bits restantes se dividen entre los componentes rojo , verde y azul del color final.
Cada uno de los componentes RGB tiene 5 bits asociados, lo que da 2⁵ = 32 intensidades de cada componente. Esto permite 32768 colores posibles para cada píxel.
Los populares chips gráficos Cirrus Logic de principios de los años 1990 hicieron uso del bit de orden alto adicional para sus llamados modos de video "mixtos": con el bit 15 limpio, los bits 0 a 14 se tratarían como un valor RGB como se describió anteriormente, mientras que con el bit 15 establecido, los bits 0 a 7 se interpretarían como un índice de 8 bits en una paleta de 256 colores (con los bits 8 a 14 sin usar). Esto permitió la visualización de imágenes en color de (comparativamente) alta calidad junto con elementos de pantalla animados por paleta , pero en la práctica, esta característica casi no fue utilizada por ningún software.
Cuando se utilizan los 16 bits, uno de los componentes (normalmente el verde con RGB565, ver más abajo) obtiene un bit adicional, lo que permite 64 niveles de intensidad para ese componente y un total de 65536 colores disponibles.
Esto puede llevar a pequeñas discrepancias en la codificación, por ejemplo, cuando uno desea codificar el color RGB de 24 bits (40, 40, 40) con 16 bits (un problema común al submuestreo ). Cuarenta en binario es 00101000. Los canales rojo y azul tomarán los cinco bits más significativos y tendrán un valor de 00101, o 5 en una escala de 0 a 31 (16,1%). El canal verde, con seis bits de precisión, tendrá un valor binario de 001010, o 10 en una escala de 0 a 63 (15,9%). Debido a esto, el color RGB (40, 40, 40) tendrá un ligero tinte violáceo ( magenta ) cuando se muestre en 16 bits. 40 en una escala de 0 a 255 es 15,7%. Otros colores de 24 bits presentarían un matiz verde al ser submuestreados: por ejemplo, la representación RGB de 24 bits de 14,1 % de gris, es decir (36, 36, 36), se codificaría como 4/31 (12,9 %) en los canales rojo y azul, pero 9/63 (14,3 %) en el canal verde, porque 36 se representa como 00100100 en binario.
El verde suele elegirse para el bit adicional de 16 bits porque el ojo humano tiene su máxima sensibilidad para los tonos verdes. Para una demostración, observe atentamente la siguiente imagen (nota: esto funcionará solo en monitores que muestren colores verdaderos , es decir, 24 o 32 bits) donde se muestran tonos oscuros de rojo, verde y azul utilizando 128 niveles de intensidad para cada componente (7 bits).
Los lectores con visión normal deberían ver los tonos individuales de verde con relativa facilidad, mientras que los tonos de rojo deberían ser difíciles de ver y los tonos de azul probablemente sean indistinguibles. En casos más raros, algunos sistemas admiten un poco más de profundidad de color en el canal rojo o azul, generalmente en aplicaciones donde ese color es más frecuente (fotografías de tonos de piel o cielos, por ejemplo).
Generalmente no es necesaria una tabla de consulta de colores (CLUT o paleta) cuando se está en modo de color de alta densidad, porque hay suficientes colores disponibles por píxel para representar gráficos y fotografías de manera razonablemente satisfactoria. Sin embargo, la falta de precisión disminuye la fidelidad de la imagen; como resultado, algunos formatos de imagen (por ejemplo, TIFF ) pueden guardar imágenes de 16 bits con paleta con una CLUT incorporada.