En imágenes digitales , un píxel (abreviado px ), pel [ 1] o elemento de imagen [2] es el elemento direccionable más pequeño en una imagen rasterizada o el elemento direccionable más pequeño en un dispositivo de visualización de matriz de puntos . En la mayoría de los dispositivos de visualización digital , los píxeles son el elemento más pequeño que se puede manipular a través del software.
Cada píxel es una muestra de una imagen original; cuantas más muestras se tengan, más precisa será la representación del original. La intensidad de cada píxel es variable. En los sistemas de imágenes en color, un color suele estar representado por tres o cuatro intensidades de componentes, como rojo, verde y azul , o cian, magenta, amarillo y negro .
En algunos contextos (como en las descripciones de sensores de cámara ), píxel se refiere a un único elemento escalar de una representación multicomponente (llamado fotositios en el contexto de sensores de cámara, aunque a veces se utiliza el término " elemento sensor " ), [3] mientras que en otros contextos (como la resonancia magnética) puede referirse a un conjunto de intensidades de componentes para una posición espacial.
El software de los primeros ordenadores de consumo se reproducía necesariamente a baja resolución, con píxeles de gran tamaño visibles a simple vista; los gráficos realizados con estas limitaciones pueden denominarse pixel art , especialmente en referencia a los videojuegos. Sin embargo, los ordenadores y las pantallas modernas pueden reproducir fácilmente órdenes de magnitud más píxeles de lo que era posible antes, lo que requiere el uso de grandes unidades de medida, como el megapíxel (un millón de píxeles).
La palabra píxel es una combinación de pix (de "pictures", abreviado como "pics") y el (de " elemento "); formaciones similares con ' el' incluyen las palabras voxel [4] ' píxel de volumen ' y texel ' píxel de textura ' . [4] La palabra pix apareció en los titulares de la revista Variety en 1932, como abreviatura de la palabra pictures , en referencia a películas. [5] En 1938, los fotoperiodistas usaban "pix" en referencia a imágenes fijas. [6]
La palabra "píxel" fue publicada por primera vez en 1965 por Frederic C. Billingsley del JPL para describir los elementos de imagen de las imágenes escaneadas desde sondas espaciales a la Luna y Marte. [7] Billingsley había aprendido la palabra de Keith E. McFarland, de la División Link de General Precision en Palo Alto , quien a su vez dijo que no sabía dónde se originó. McFarland dijo simplemente que estaba "en uso en ese momento" ( c. 1963 ). [6]
El concepto de "elemento de imagen" data de los primeros tiempos de la televisión, por ejemplo, como " Bildpunkt " (la palabra alemana para píxel , literalmente 'punto de imagen') en la patente alemana de 1888 de Paul Nipkow . Según varias etimologías, la primera publicación del término elemento de imagen en sí fue en la revista Wireless World en 1927, [8] aunque ya se había utilizado antes en varias patentes estadounidenses presentadas en 1911. [9]
Algunos autores explican el píxel como una celda de imagen, ya en 1972. [10] En gráficos y en el procesamiento de imágenes y vídeos, a menudo se utiliza pel en lugar de píxel . [11] Por ejemplo, IBM lo utilizó en su Referencia técnica para el PC original .
La pixilación , escrita con una segunda i , es una técnica cinematográfica no relacionada que data de los inicios del cine, en la que actores en vivo posan cuadro por cuadro y son fotografiados para crear una animación stop-motion. Una palabra británica arcaica que significa "posesión por espíritus ( pixies )", el término se ha utilizado para describir el proceso de animación desde principios de la década de 1950; varios animadores, incluidos Norman McLaren y Grant Munro , son reconocidos por popularizarlo. [12]
En general, se considera que un píxel es el componente más pequeño de una imagen digital . Sin embargo, la definición depende en gran medida del contexto. Por ejemplo, puede haber " píxeles impresos " en una página, píxeles transportados por señales electrónicas o representados por valores digitales, píxeles en un dispositivo de visualización o píxeles en una cámara digital (elementos fotosensores). Esta lista no es exhaustiva y, según el contexto, los sinónimos incluyen pel, muestra, byte, bit, punto y punto puntual. Los píxeles se pueden utilizar como una unidad de medida, como 2400 píxeles por pulgada, 640 píxeles por línea o separados por 10 píxeles.
Las medidas " puntos por pulgada " (dpi) y " píxeles por pulgada " (ppi) a veces se usan indistintamente, pero tienen significados distintos, especialmente para dispositivos de impresión, donde dpi es una medida de la densidad de colocación de puntos (por ejemplo, gotas de tinta) de la impresora. [13] Por ejemplo, una imagen fotográfica de alta calidad se puede imprimir con 600 ppp en una impresora de inyección de tinta de 1200 ppp. [14] Incluso números de ppp más altos, como los 4800 ppp citados por los fabricantes de impresoras desde 2002, no significan mucho en términos de resolución alcanzable . [15]
Cuantos más píxeles se utilicen para representar una imagen, más parecido puede ser el resultado al original. El número de píxeles de una imagen a veces se denomina resolución, aunque la resolución tiene una definición más específica. La cantidad de píxeles se puede expresar como un solo número, como en una cámara digital de "tres megapíxeles", que tiene un número nominal de tres millones de píxeles, o como un par de números, como en una "pantalla de 640 por 480", que tiene 640 píxeles de lado a lado y 480 de arriba a abajo (como en una pantalla VGA ) y, por lo tanto, tiene un número total de 640 × 480 = 307 200 píxeles, o 0,3 megapíxeles.
Los píxeles o muestras de color que forman una imagen digitalizada (como un archivo JPEG utilizado en una página web) pueden o no estar en correspondencia uno a uno con los píxeles de la pantalla, dependiendo de cómo muestre una imagen una computadora. En informática, una imagen compuesta de píxeles se conoce como imagen de mapa de bits o imagen rasterizada . La palabra raster se origina a partir de patrones de escaneo de televisión y se ha utilizado ampliamente para describir técnicas similares de impresión y almacenamiento de medios tonos .
Por comodidad, los píxeles se organizan normalmente en una cuadrícula bidimensional regular . Al utilizar esta disposición, se pueden implementar muchas operaciones comunes aplicando de manera uniforme la misma operación a cada píxel de forma independiente. Son posibles otras disposiciones de píxeles, con algunos patrones de muestreo que incluso cambian la forma (o núcleo ) de cada píxel en la imagen. Por este motivo, se debe tener cuidado al adquirir una imagen en un dispositivo y mostrarla en otro, o al convertir datos de imagen de un formato de píxel a otro.
Por ejemplo:
Los monitores de ordenador (y los televisores) suelen tener una resolución nativa fija . Su valor depende del monitor y del tamaño. Consulta a continuación las excepciones históricas.
Las computadoras pueden usar píxeles para mostrar una imagen, a menudo una imagen abstracta que representa una GUI . La resolución de esta imagen se denomina resolución de pantalla y está determinada por la tarjeta de video de la computadora. Los monitores de pantalla plana (y los televisores), por ejemplo, los monitores OLED o LCD , o los de tinta electrónica , también usan píxeles para mostrar una imagen y tienen una resolución nativa , que (idealmente) debería coincidir con la resolución de la tarjeta de video. Cada píxel está formado por tríadas , y la cantidad de estas tríadas determina la resolución nativa.
En los monitores CRT más antiguos, que se encontraban disponibles históricamente, la resolución era posiblemente ajustable (aún más baja que la que logran los monitores modernos), mientras que en algunos de esos monitores (o televisores) la velocidad de barrido del haz era fija, lo que daba como resultado una resolución nativa fija. La mayoría de los monitores CRT no tienen una velocidad de barrido del haz fija, lo que significa que no tienen una resolución nativa en absoluto; en cambio, tienen un conjunto de resoluciones que son igualmente compatibles. Para producir las imágenes más nítidas posibles en una pantalla plana, por ejemplo, OLED o LCD, el usuario debe asegurarse de que la resolución de pantalla de la computadora coincida con la resolución nativa del monitor.
La escala de píxeles utilizada en astronomía es la distancia angular entre dos objetos en el cielo que se encuentran separados por un píxel en el detector (CCD o chip infrarrojo). La escala s, medida en radianes, es la relación entre el espaciado entre píxeles p y la distancia focal f de la óptica precedente, s = p / f . (La distancia focal es el producto de la relación focal por el diámetro de la lente o espejo asociado).
Dado que s se expresa generalmente en unidades de segundos de arco por píxel, dado que 1 radián equivale a (180/π) × 3600 ≈ 206 265 segundos de arco, y dado que las distancias focales a menudo se dan en milímetros y los tamaños de píxeles en micrómetros, lo que produce otro factor de 1000, la fórmula a menudo se cita como s = 206 p / f .
La cantidad de colores distintos que se pueden representar con un píxel depende de la cantidad de bits por píxel (bpp). Una imagen de 1 bpp utiliza 1 bit por cada píxel, por lo que cada píxel puede estar encendido o apagado. Cada bit adicional duplica la cantidad de colores disponibles, por lo que una imagen de 2 bpp puede tener 4 colores y una imagen de 3 bpp puede tener 8 colores:
Para profundidades de color de 15 o más bits por píxel, la profundidad normalmente es la suma de los bits asignados a cada uno de los componentes rojo, verde y azul. Highcolor , que normalmente significa 16 bpp, normalmente tiene cinco bits para rojo y azul cada uno, y seis bits para verde, ya que el ojo humano es más sensible a los errores en verde que en los otros dos colores primarios. Para aplicaciones que involucran transparencia, los 16 bits se pueden dividir en cinco bits cada uno de rojo, verde y azul, con un bit restante para la transparencia. Una profundidad de 24 bits permite 8 bits por componente. En algunos sistemas, está disponible una profundidad de 32 bits: esto significa que cada píxel de 24 bits tiene 8 bits adicionales para describir su opacidad (para fines de combinación con otra imagen).
Muchos sistemas de visualización y adquisición de imágenes no son capaces de mostrar o detectar los diferentes canales de color en el mismo sitio. Por lo tanto, la cuadrícula de píxeles se divide en regiones de un solo color que contribuyen al color mostrado o detectado cuando se ve a distancia. En algunas pantallas, como las pantallas LCD, LED y de plasma, estas regiones de un solo color son elementos direccionables por separado, que se conocen como subpíxeles , principalmente colores RGB . [18] Por ejemplo, las LCD suelen dividir cada píxel verticalmente en tres subpíxeles. Cuando el píxel cuadrado se divide en tres subpíxeles, cada subpíxel es necesariamente rectangular. En la terminología de la industria de las pantallas, los subpíxeles a menudo se denominan píxeles , ya que son los elementos direccionables básicos desde el punto de vista del hardware y, por lo tanto, se utilizan circuitos de píxeles en lugar de circuitos de subpíxeles .
La mayoría de los sensores de imagen de las cámaras digitales utilizan regiones de sensor de un solo color, por ejemplo, utilizando el patrón de filtro Bayer , y en la industria de las cámaras estos se conocen como píxeles, al igual que en la industria de las pantallas, no como subpíxeles .
Para los sistemas con subpíxeles, se pueden adoptar dos enfoques diferentes:
Este último enfoque, conocido como renderizado de subpíxeles , utiliza el conocimiento de la geometría de los píxeles para manipular los tres subpíxeles de color por separado, lo que produce un aumento en la resolución aparente de las pantallas en color. Si bien las pantallas CRT utilizan áreas de fósforo con máscaras de rojo, verde y azul, dictadas por una cuadrícula llamada máscara de sombra, requeriría un paso de calibración difícil para alinearse con la trama de píxeles mostrada, por lo que las CRT no utilizan renderizado de subpíxeles.
El concepto de subpíxeles está relacionado con las muestras .
En el diseño gráfico, web e interfaces de usuario, un "píxel" puede hacer referencia a una longitud fija en lugar de un píxel real en la pantalla para adaptarse a diferentes densidades de píxeles . Una definición típica, como en CSS , es que un píxel "físico" mide 1 ⁄ 96 pulgadas (0,26 mm). De esta manera, se garantiza que un elemento determinado se mostrará con el mismo tamaño sin importar la resolución de pantalla en la que se visualice. [19]
Sin embargo, puede haber algunos ajustes adicionales entre un píxel "físico" y un píxel lógico en pantalla. Como las pantallas se ven a diferentes distancias (considere un teléfono, una pantalla de computadora y un televisor), la longitud deseada (un "píxel de referencia") se escala en relación con una distancia de visualización de referencia (28 pulgadas (71 cm) en CSS). Además, como las densidades de píxeles de pantalla reales rara vez son múltiplos de 96 ppp, a menudo se aplica algún redondeo para que un píxel lógico sea una cantidad entera de píxeles reales. Al hacerlo, se evitan artefactos de renderizado. El "píxel" final obtenido después de estos dos pasos se convierte en el "ancla" en el que se basan todas las demás mediciones absolutas (por ejemplo, el "centímetro"). [20]
Ejemplo práctico, con un televisor de 30 pulgadas (76 cm) y 2160p colocado a 56 pulgadas (140 cm) del espectador:
El navegador optará entonces por utilizar el tamaño de píxel de 1,721× o redondearlo a una proporción de 2×.
Un megapíxel ( MP ) es un millón de píxeles; el término se utiliza no solo para la cantidad de píxeles de una imagen, sino también para expresar la cantidad de elementos del sensor de imagen de las cámaras digitales o la cantidad de elementos de visualización de las pantallas digitales . Por ejemplo, una cámara que produce una imagen de 2048 × 1536 píxeles (3 145 728 píxeles de imagen final) normalmente utiliza algunas filas y columnas adicionales de elementos del sensor y se dice comúnmente que tiene "3,2 megapíxeles" o "3,4 megapíxeles", dependiendo de si el número informado es el recuento de píxeles "efectivo" o "total". [21]
El píxel se utiliza para definir la resolución de una fotografía. La resolución de una fotografía se calcula multiplicando el ancho y la altura de un sensor en píxeles.
Las cámaras digitales utilizan componentes electrónicos fotosensibles, ya sea sensores de imagen de dispositivo acoplado por carga (CCD) o de semiconductor de óxido metálico complementario (CMOS), que constan de una gran cantidad de elementos sensores individuales, cada uno de los cuales registra un nivel de intensidad medido. En la mayoría de las cámaras digitales, el conjunto de sensores está cubierto con un mosaico de filtros de color con patrones que tiene regiones rojas, verdes y azules en la disposición del filtro Bayer, de modo que cada elemento sensor puede registrar la intensidad de un solo color primario de luz. La cámara interpola la información de color de los elementos sensores vecinos, a través de un proceso llamado desmosaico , para crear la imagen final. Estos elementos sensores a menudo se denominan "píxeles", aunque solo registran un canal (solo rojo, verde o azul) de la imagen en color final. Por lo tanto, se deben interpolar dos de los tres canales de color para cada sensor y una llamada cámara de N megapíxeles que produce una imagen de N megapíxeles proporciona solo un tercio de la información que una imagen del mismo tamaño podría obtener de un escáner. Así, ciertos contrastes de color pueden parecer más difusos que otros, dependiendo de la distribución de los colores primarios (el verde tiene el doble de elementos que el rojo o el azul en la disposición de Bayer).
DxO Labs inventó el Perceptual MegaPixel (P-MPix) para medir la nitidez que produce una cámara cuando se combina con un objetivo en particular, a diferencia del MP que indica un fabricante para un producto de cámara, que se basa únicamente en el sensor de la cámara. El nuevo P-MPix afirma ser un valor más preciso y relevante para que los fotógrafos lo tengan en cuenta al sopesar la nitidez de la cámara. [22] A mediados de 2013, el objetivo Sigma 35 mm f/1.4 DG HSM montado en una Nikon D800 tenía el P-MPix medido más alto. Sin embargo, con un valor de 23 MP, todavía borra [ aclaración necesaria ] más de un tercio del sensor de 36,3 MP de la D800. [23] En agosto de 2019, Xiaomi lanzó el Redmi Note 8 Pro como el primer teléfono inteligente del mundo con cámara de 64 MP. [24] El 12 de diciembre de 2019, Samsung lanzó el Samsung A71, que también tiene una cámara de 64 MP. [25] A fines de 2019, Xiaomi anunció el primer teléfono con cámara con un sensor de 108 MP y 1/1,33 pulgadas de ancho. El sensor es más grande que la mayoría de las cámaras puente con un sensor de 1/2,3 pulgadas de ancho. [26]
Se ha introducido un nuevo método para añadir megapíxeles en una cámara con sistema Micro Four Thirds , que solo utiliza un sensor de 16 MP pero puede producir una imagen RAW de 64 MP (JPEG de 40 MP) haciendo dos exposiciones, desplazando el sensor medio píxel entre ellas. Al utilizar un trípode para tomar varias fotografías a nivel en una misma toma, las múltiples imágenes de 16 MP se generan en una imagen unificada de 64 MP. [27]
Estas celdas a menudo se denominan
vóxeles(
elementos de volumen), en analogía con los píxeles.
impresora puntos por pulgada píxeles por pulgada.