stringtranslate.com

Ráfaga de color

Sincronización horizontal y ráfaga de color de la salida compuesta de una computadora Commodore 64

Colorburst es una señal de vídeo analógica y compuesta generada por un generador de señales de vídeo que se utiliza para mantener sincronizada la subportadora de crominancia en una señal de televisión en color . Al sincronizar un oscilador con la explosión de color en el porche trasero (comienzo) de cada línea de exploración , un receptor de televisión puede restaurar la portadora suprimida de las señales de crominancia (color) y, a su vez, decodificar la información de color. El uso más común de colorburst es unir equipos como referencia común con un mezclador de visión en un estudio de televisión utilizando una configuración multicámara .

Explicación

En NTSC , su frecuencia es exactamente 315/88 = 3,579 54 [a]  MHz con una fase de 180°. PAL utiliza una frecuencia de exactamente 4,43361875 MHz, con su fase alternando entre 135° y 225° de línea a línea. Dado que la señal de explosión de color tiene una amplitud conocida, a veces se utiliza como nivel de referencia para compensar las variaciones de amplitud en la señal general.

SECAM es único por no tener una señal de explosión de color, ya que las señales de crominancia se codifican utilizando FM en lugar de QAM , por lo que la fase de la señal es irrelevante y no se necesita ningún punto de referencia.

Justificación de la frecuencia de ráfaga de color NTSC

El estándar de televisión NTSC en blanco y negro original especificaba una velocidad de cuadros de 30 Hz y 525 líneas por cuadro, o 15750 líneas por segundo. El audio tenía una frecuencia modulada de 4,5 MHz por encima de la señal de vídeo. Como era en blanco y negro, el vídeo constaba únicamente de información de luminancia (brillo). Aunque todo el espacio intermedio estaba ocupado, la naturaleza basada en líneas de la información del vídeo significaba que los datos de luminancia no estaban distribuidos uniformemente en el dominio de la frecuencia ; se concentró en múltiplos del tipo de línea. Trazar la señal de vídeo en un espectrograma dio una firma que parecía los dientes de un peine o un engranaje, en lugar de ser suave y uniforme.

RCA descubrió [1] que si la información de crominancia (color), que tenía un espectro similar, se modulaba en una portadora que fuera un múltiplo medio entero de la velocidad de línea, sus picos de señal encajarían perfectamente entre los picos de los datos de luminancia. y se minimizó la interferencia. No fue eliminado, pero lo que quedó no fue evidente a los ojos humanos. (Los televisores modernos intentan reducir aún más esta interferencia utilizando un filtro de peine ).

Para proporcionar suficiente ancho de banda para la señal de crominancia, pero interferir sólo con las porciones de frecuencia más alta (y por lo tanto menos perceptibles) de la señal de luminancia, era deseable una subportadora de crominancia cercana a 3,6 MHz. 227,5 = 455/2 veces la velocidad de línea estaba cerca del número correcto, y los pequeños factores de 455 (5 × 7 × 13) hacen que un divisor sea fácil de construir.

Sin embargo, la señal de audio podría generar interferencias adicionales . Para minimizar la interferencia allí, era igualmente deseable hacer que la distancia entre la frecuencia portadora de crominancia y la frecuencia portadora de audio fuera un múltiplo medio entero de la velocidad de línea. La suma de estos dos semienteros implica que la distancia entre la frecuencia de la portadora de luminancia y la portadora de audio debe ser un múltiplo entero de la velocidad de línea. Sin embargo, el estándar NTSC original, con una separación entre portadoras de 4,5 MHz y una velocidad de línea de 15750 Hz, no cumplía con este requisito: el audio era 285,714 veces la velocidad de línea.

Si bien los receptores en blanco y negro existentes no podían decodificar una señal con una frecuencia portadora de audio diferente, podían usar fácilmente la abundante información de sincronización en la señal de video para decodificar una velocidad de línea ligeramente más lenta. Así, el nuevo estándar de televisión en color redujo la velocidad de línea en un factor de 1,001 a 1/286 de la frecuencia subportadora de audio de 4,5 MHz, o aproximadamente 15734,2657 Hz. Esto redujo la velocidad de fotogramas a 30/1,001 ≈ 29,9700 Hz y colocó la subportadora de color en 227,5/286 = 455/572 = 35/44 de la subportadora de audio de 4,5 MHz. [2]

Cristales

El decodificador de color de un televisor NTSC o PAL contiene un oscilador de cristal con explosión de color .

Debido a que se produjeron tantos televisores analógicos en color desde la década de 1960 hasta principios de la década de 2000, las economías de escala redujeron el costo de los cristales colorburst, por lo que a menudo se utilizaron en otras aplicaciones, como osciladores para microprocesadores o para radioaficionados : 3,5795 MHz ha desde entonces se convirtió en una frecuencia de llamada QRP común en la banda de 80 metros , y su frecuencia duplicada de 7,159 MHz es una frecuencia de llamada común en la banda de 40 metros . Triplicar esta frecuencia es también la forma en que los circuitos de radio FM llegaron a utilizar una frecuencia intermedia nominal de 10,7 MHz en la conversión superheterodina .

Ver también

Referencias

  1. ^ Marrón y suerte (junio de 1953). «PRINCIPIOS Y DESARROLLO DE LOS SISTEMAS DE TELEVISIÓN EN COLOR» (PDF) . Revisión de RCA . XIV : 155-156.
  2. ^ "ESPECIFICACIONES DE LA SEÑAL NTSC" (PDF) . Radio antigua.org . 23 de mayo de 2018.
  3. ^ ab Especificaciones de Atari 2600 http://problemkaputt.de/2k6specs.htm
  4. ^ ab Manual de referencia de hardware de Altirra, "Tiempos de ciclo", http://www.virtualdub.org/downloads/Altirra%20Hardware%20Reference%20Manual.pdf
  5. ^ En modo normal (alta velocidad). El 1000 SX también tiene un modo más lento de 4,77 MHz ( 43 f  ) para compatibilidad con IBM PCjr.
  6. ^ ab wiki de NES DEV: frecuencia de reloj

Notas