El radar de apertura sintética ( SAR ) es una forma de radar que se utiliza para crear imágenes bidimensionales o reconstrucciones tridimensionales de objetos, como paisajes. [1] El SAR utiliza el movimiento de la antena del radar sobre una región objetivo para proporcionar una resolución espacial más fina que los radares de barrido de haz estacionarios convencionales. El SAR normalmente se monta en una plataforma móvil, como una aeronave o una nave espacial, y tiene sus orígenes en una forma avanzada de radar aerotransportado de visión lateral (SLAR). La distancia que recorre el dispositivo SAR sobre un objetivo durante el período en que la escena del objetivo está iluminada crea la gran apertura de la antena sintética (el tamaño de la antena). Normalmente, cuanto mayor sea la apertura, mayor será la resolución de la imagen, independientemente de si la apertura es física (una antena grande) o sintética (una antena móvil); esto permite al SAR crear imágenes de alta resolución con antenas físicas comparativamente pequeñas. Para un tamaño y orientación de antena fijos, los objetos que están más lejos permanecen iluminados por más tiempo; por lo tanto, el SAR tiene la propiedad de crear aperturas sintéticas más grandes para objetos más distantes, lo que da como resultado una resolución espacial consistente en un rango de distancias de visualización.
Para crear una imagen SAR, se transmiten pulsos sucesivos de ondas de radio para "iluminar" una escena objetivo, y se recibe y registra el eco de cada pulso. Los pulsos se transmiten y los ecos se reciben utilizando una única antena formadora de haces , con longitudes de onda que van desde un metro hasta varios milímetros. A medida que el dispositivo SAR a bordo de la aeronave o nave espacial se mueve, la ubicación de la antena en relación con el objetivo cambia con el tiempo. El procesamiento de señales de los ecos de radar sucesivos registrados permite combinar las grabaciones de estas múltiples posiciones de antena. Este proceso forma la apertura de la antena sintética y permite la creación de imágenes de mayor resolución de las que serían posibles de otro modo con una antena física determinada. [2]
El SAR es capaz de realizar teledetección de alta resolución , independientemente de la altitud de vuelo y del clima, ya que puede seleccionar frecuencias para evitar la atenuación de la señal causada por el clima. El SAR tiene capacidad de generar imágenes diurnas y nocturnas, ya que la iluminación la proporciona el SAR. [3] [4] [5]
Las imágenes SAR tienen amplias aplicaciones en la teledetección y el mapeo de superficies de la Tierra y otros planetas. Las aplicaciones de SAR son numerosas. Los ejemplos incluyen topografía, oceanografía, glaciología, geología (por ejemplo, discriminación de terrenos e imágenes del subsuelo). SAR también se puede utilizar en silvicultura para determinar la altura del bosque, la biomasa y la deforestación. El monitoreo de volcanes y terremotos utiliza interferometría diferencial . SAR también se puede aplicar para monitorear la estabilidad de la infraestructura civil, como puentes. [6] SAR es útil en el monitoreo ambiental, como derrames de petróleo, inundaciones, [7] [8] crecimiento urbano, [9] vigilancia militar: incluyendo política estratégica y evaluación táctica. [5] SAR se puede implementar como SAR inverso observando un objetivo en movimiento durante un tiempo sustancial con una antena estacionaria.
Un radar de apertura sintética es un radar de imágenes montado sobre una plataforma móvil. [10] Las ondas electromagnéticas se transmiten secuencialmente, los ecos se recogen y la electrónica del sistema digitaliza y almacena los datos para su posterior procesamiento. Como la transmisión y la recepción se producen en momentos diferentes, se asignan a diferentes posiciones pequeñas. La combinación bien ordenada de las señales recibidas crea una apertura virtual que es mucho más larga que el ancho físico de la antena. De ahí el término "apertura sintética", que le otorga la propiedad de un radar de imágenes. [5] La dirección del alcance es perpendicular a la trayectoria de vuelo y perpendicular a la dirección del acimut, que también se conoce como dirección a lo largo de la trayectoria porque está en línea con la posición del objeto dentro del campo de visión de la antena.
El procesamiento 3D se realiza en dos etapas. La dirección de acimut y rango se enfocan para la generación de imágenes 2D (azimut-rango) de alta resolución, después de lo cual se utiliza un modelo de elevación digital (DEM) [11] [12] para medir las diferencias de fase entre imágenes complejas, que se determina a partir de diferentes ángulos de observación para recuperar la información de altura. Esta información de altura, junto con las coordenadas de acimut-rango proporcionadas por el enfoque SAR 2-D, proporciona la tercera dimensión, que es la elevación. [3] El primer paso requiere solo algoritmos de procesamiento estándar, [12] para el segundo paso, se utiliza un preprocesamiento adicional como el co-registro de imágenes y la calibración de fase. [3] [13]
Además, se pueden utilizar múltiples líneas de base para extender las imágenes 3D a la dimensión temporal . Las imágenes SAR 4D y multi-D permiten obtener imágenes de escenarios complejos, como áreas urbanas, y tienen un rendimiento mejorado con respecto a las técnicas interferométricas clásicas, como la interferometría de dispersor persistente (PSI). [14]
Los algoritmos SAR modelan la escena como un conjunto de objetivos puntuales que no interactúan entre sí (la aproximación de Born ).
Si bien los detalles de los distintos algoritmos SAR difieren, el procesamiento SAR en cada caso es la aplicación de un filtro adaptado a los datos brutos, para cada píxel de la imagen de salida, donde los coeficientes del filtro adaptado son la respuesta de un único objetivo puntual aislado. [15] En los primeros días del procesamiento SAR, los datos brutos se registraban en película y el posprocesamiento mediante filtro adaptado se implementaba ópticamente utilizando lentes de forma cónica, cilíndrica y esférica. El algoritmo Range-Doppler es un ejemplo de un enfoque más reciente.
El radar de apertura sintética determina la reflectividad 3D a partir de los datos SAR medidos. Básicamente, se trata de una estimación espectral, ya que para una celda específica de una imagen, las mediciones SAR de valor complejo de la pila de imágenes SAR son una versión muestreada de la transformada de Fourier de reflectividad en la dirección de elevación, pero la transformada de Fourier es irregular. [16] Por lo tanto, las técnicas de estimación espectral se utilizan para mejorar la resolución y reducir el moteado en comparación con los resultados de las técnicas de imágenes SAR de transformada de Fourier convencionales. [17]
La FFT (Transformada Rápida de Fourier, es decir, periodograma o filtro adaptado ) es uno de esos métodos, que se utiliza en la mayoría de los algoritmos de estimación espectral, y hay muchos algoritmos rápidos para calcular la transformada de Fourier discreta multidimensional. El álgebra de matriz de núcleo de Kronecker computacional [18] es un algoritmo popular utilizado como nueva variante de los algoritmos FFT para el procesamiento en sistemas de radar de apertura sintética (SAR) multidimensionales. Este algoritmo utiliza un estudio de las propiedades teóricas de los conjuntos de indexación de datos de entrada/salida y grupos de permutaciones.
Se utiliza una rama del álgebra lineal multidimensional finita para identificar similitudes y diferencias entre varias variantes del algoritmo FFT y para crear nuevas variantes. Cada cálculo DFT multidimensional se expresa en forma de matriz. La matriz DFT multidimensional, a su vez, se desintegra en un conjunto de factores, llamados primitivos funcionales, que se identifican individualmente con un diseño computacional de software/hardware subyacente. [5]
La implementación de FFT es esencialmente una realización del mapeo del marco matemático a través de la generación de variantes y la ejecución de operaciones matriciales. El rendimiento de esta implementación puede variar de una máquina a otra, y el objetivo es identificar en qué máquina funciona mejor. [19]
El método espectral de Capon, también llamado método de varianza mínima, es una técnica de procesamiento de matrices multidimensionales. [22] Es un método no paramétrico basado en la covarianza, que utiliza un enfoque de banco de filtros adaptado y sigue dos pasos principales:
El filtro paso banda adaptativo Capon está diseñado para minimizar la potencia de la salida del filtro, así como para dejar pasar las frecuencias ( ) sin ninguna atenuación, es decir, satisfacer, para cada ( ),
donde R es la matriz de covarianza , es la transpuesta conjugada compleja de la respuesta al impulso del filtro FIR, es el vector de Fourier 2D, definido como , denota el producto de Kronecker. [22]
Por lo tanto, pasa una sinusoide 2D a una frecuencia dada sin distorsión y minimizando la varianza del ruido de la imagen resultante. El propósito es calcular la estimación espectral de manera eficiente. [22]
La estimación espectral se da como
donde R es la matriz de covarianza y es la transpuesta compleja conjugada 2D del vector de Fourier. El cálculo de esta ecuación sobre todas las frecuencias requiere mucho tiempo. Se observa que el estimador Capon hacia adelante-hacia atrás produce una mejor estimación que el enfoque capon clásico solo hacia adelante. La razón principal detrás de esto es que mientras que el Capon hacia adelante-hacia atrás usa los vectores de datos hacia adelante y hacia atrás para obtener la estimación de la matriz de covarianza, el Capon solo hacia adelante usa solo los vectores de datos hacia adelante para estimar la matriz de covarianza. [22]
El método APES (estimación de amplitud y fase) también es un método de banco de filtros adaptado, que supone que los datos del historial de fase son una suma de sinusoides 2D en ruido.
El estimador espectral APES tiene una interpretación de filtrado de dos pasos:
Empíricamente, el método APES produce picos espectrales más amplios que el método Capon, pero estimaciones espectrales más precisas para la amplitud en SAR. [25] En el método Capon, aunque los picos espectrales son más estrechos que los del APES, los lóbulos laterales son más altos que en el caso del APES. Como resultado, se espera que la estimación de la amplitud sea menos precisa para el método Capon que para el método APES. El método APES requiere aproximadamente 1,5 veces más cálculos que el método Capon. [26]
El método SAMV es un algoritmo basado en la reconstrucción de señales dispersas sin parámetros. Logra una superresolución y es robusto a señales altamente correlacionadas. El nombre enfatiza su base en el criterio de varianza mínima asintótica (AMV). Es una herramienta poderosa para la recuperación de las características de amplitud y frecuencia de múltiples fuentes altamente correlacionadas en entornos desafiantes (por ejemplo, número limitado de instantáneas, baja relación señal-ruido ). Las aplicaciones incluyen imágenes de radar de apertura sintética y localización de varias fuentes.
El método SAMV es capaz de lograr una resolución mayor que algunos métodos paramétricos establecidos, por ejemplo, MUSIC , especialmente con señales altamente correlacionadas.
La complejidad computacional del método SAMV es mayor debido a su procedimiento iterativo.
Este método de descomposición del subespacio separa los vectores propios de la matriz de autocovarianza en aquellos correspondientes a señales y al desorden. [5] La amplitud de la imagen en un punto ( ) viene dada por:
donde es la amplitud de la imagen en un punto , es la matriz de coherencia y es el hermitiano de la matriz de coherencia, es la inversa de los valores propios del subespacio de desorden, son vectores definidos como [5]
donde ⊗ denota el producto Kronecker de los dos vectores.
MUSIC detecta frecuencias en una señal realizando una descomposición propia en la matriz de covarianza de un vector de datos de las muestras obtenidas de las muestras de la señal recibida. Cuando todos los vectores propios están incluidos en el subespacio de desorden (orden del modelo = 0), el método EV se vuelve idéntico al método Capon. Por lo tanto, la determinación del orden del modelo es fundamental para el funcionamiento del método EV. El valor propio de la matriz R decide si su vector propio correspondiente corresponde al desorden o al subespacio de la señal. [5]
Se considera que el método MUSIC tiene un rendimiento deficiente en aplicaciones SAR. Este método utiliza una constante en lugar del subespacio de desorden. [5]
En este método, el denominador se iguala a cero cuando una señal sinusoidal correspondiente a un punto en la imagen SAR está alineada con uno de los vectores propios del subespacio de la señal, que es el pico en la estimación de la imagen. Por lo tanto, este método no representa con precisión la intensidad de dispersión en cada punto, sino que muestra los puntos particulares de la imagen. [5] [28]
El algoritmo de retroproyección tiene dos métodos: retroproyección en el dominio del tiempo y retroproyección en el dominio de la frecuencia . La retroproyección en el dominio del tiempo tiene más ventajas que la retroproyección en el dominio de la frecuencia y, por lo tanto, es más preferida. La retroproyección en el dominio del tiempo forma imágenes o espectros haciendo coincidir los datos adquiridos del radar con lo que espera recibir. Puede considerarse como un filtro adaptado ideal para el radar de apertura sintética. No es necesario tener un paso de compensación de movimiento diferente debido a su calidad de manejo de movimiento/muestreo no ideal. También puede usarse para varias geometrías de imágenes. [29]
En GEO-SAR, para centrarse especialmente en la trayectoria relativa, el algoritmo de retroproyección funciona muy bien. Utiliza el concepto de procesamiento azimutal en el dominio del tiempo. Para la geometría satélite-suelo, GEO-SAR desempeña un papel importante. [30]
El procedimiento de este concepto se desarrolla de la siguiente manera. [30]
Capon y APES pueden producir estimaciones espectrales más precisas con lóbulos laterales mucho más bajos y picos espectrales más estrechos que el método de transformada rápida de Fourier (FFT), que también es un caso especial de los enfoques de filtrado FIR. Se observa que, aunque el algoritmo APES proporciona picos espectrales ligeramente más amplios que el método Capon, el primero produce estimaciones espectrales generales más precisas que el segundo y el método FFT. [25]
El método FFT es rápido y simple, pero tiene lóbulos laterales más grandes. Capon tiene alta resolución pero alta complejidad computacional. EV también tiene alta resolución y alta complejidad computacional. APES tiene mayor resolución, es más rápido que capon y EV pero alta complejidad computacional. [10]
El método MUSIC no suele ser adecuado para la obtención de imágenes SAR, ya que el blanqueamiento de los valores propios del desorden destruye las inhomogeneidades espaciales asociadas con el desorden del terreno u otra dispersión difusa en las imágenes SAR. Pero ofrece una resolución de frecuencia más alta en la densidad espectral de potencia (PSD) resultante que los métodos basados en la transformada rápida de Fourier (FFT). [31]
El algoritmo de retroproyección es costoso en términos computacionales. Es especialmente atractivo para sensores que son de banda ancha, de ángulo amplio y/o tienen aperturas coherentes largas con un movimiento fuera de pista sustancial. [32]
El SAR requiere que se tomen capturas de eco en varias posiciones de antena. Cuantas más capturas se tomen (en diferentes posiciones de antena), más confiable será la caracterización del objetivo.
Se pueden obtener capturas múltiples moviendo una sola antena a diferentes ubicaciones, colocando múltiples antenas estacionarias en diferentes ubicaciones o combinaciones de estas.
La ventaja de una única antena móvil es que se puede colocar fácilmente en cualquier número de posiciones para proporcionar cualquier número de formas de onda monoestáticas. Por ejemplo, una antena montada en un avión toma muchas capturas por segundo mientras el avión viaja.
Las principales ventajas de las antenas estáticas múltiples son que se puede caracterizar un objetivo en movimiento (suponiendo que la electrónica de captura sea lo suficientemente rápida), que no se necesita ningún vehículo ni maquinaria de movimiento y que no es necesario obtener las posiciones de las antenas a partir de otra información, a veces poco fiable. (Uno de los problemas del SAR a bordo de un avión es saber las posiciones precisas de las antenas mientras el avión se desplaza).
En el caso de varias antenas estáticas, son posibles todas las combinaciones de capturas de formas de onda de radar monoestáticas y multiestáticas . Sin embargo, tenga en cuenta que no resulta ventajoso capturar una forma de onda para cada una de las dos direcciones de transmisión para un par de antenas determinado, porque esas formas de onda serán idénticas. Cuando se utilizan varias antenas estáticas, el número total de formas de onda de eco únicas que se pueden capturar es
donde N es el número de posiciones de antena únicas.
La antena permanece en una posición fija. Puede ser ortogonal a la trayectoria de vuelo o puede estar ligeramente inclinada hacia adelante o hacia atrás. [5]
Cuando la apertura de la antena se desplaza a lo largo de la trayectoria de vuelo, se transmite una señal a una velocidad igual a la frecuencia de repetición de pulsos (PRF). El límite inferior de la PRF está determinado por el ancho de banda Doppler del radar. La retrodispersión de cada una de estas señales se suma de forma conmutativa píxel por píxel para lograr la resolución azimutal fina deseada en las imágenes de radar. [33]
La apertura sintética del foco está dada por
donde es el ángulo formado entre el inicio y el final de la imagen, como se muestra en el diagrama de la imagen del foco y es la distancia de alcance.
El modo de foco ofrece una mejor resolución, aunque para una zona de terreno más pequeña. En este modo, el haz de iluminación del radar se dirige continuamente a medida que se mueve la aeronave, de modo que ilumina la misma zona durante un período de tiempo más largo. Este modo no es un modo de imagen de franja continua tradicional; sin embargo, tiene una alta resolución de acimut. [ 28 ] En [34] se ofrece una explicación técnica del SAR de foco a partir de los principios básicos.
Mientras funciona como un SAR en modo de escaneo, el haz de la antena barre periódicamente y, por lo tanto, cubre un área mucho más grande que los modos de foco y mapa de franjas. Sin embargo, la resolución de azimut se vuelve mucho menor que en el modo de mapa de franjas debido a la disminución del ancho de banda de azimut. Claramente, se logra un equilibrio entre la resolución de azimut y el área de escaneo del SAR. [35] Aquí, la apertura sintética se comparte entre las subfranjas y no está en contacto directo dentro de una subfranja. Se requiere una operación de mosaico en las direcciones de azimut y rango para unir las ráfagas de azimut y las subfranjas de rango. [28]
Las ondas de radar tienen una polarización . Diferentes materiales reflejan las ondas de radar con diferentes intensidades, pero los materiales anisotrópicos como la hierba a menudo reflejan diferentes polarizaciones con diferentes intensidades. Algunos materiales también convertirán una polarización en otra. Al emitir una mezcla de polarizaciones y usar antenas receptoras con una polarización específica, se pueden recopilar varias imágenes de la misma serie de pulsos. Con frecuencia, se utilizan tres de estas polarizaciones RX-TX (HH-pol, VV-pol, VH-pol) como los tres canales de color en una imagen sintetizada. Esto es lo que se ha hecho en la imagen de la derecha. La interpretación de los colores resultantes requiere pruebas significativas de materiales conocidos.
Los nuevos avances en polarimetría incluyen el uso de los cambios en los retornos de polarización aleatorios de algunas superficies (como la hierba o la arena) y entre dos imágenes de la misma ubicación en diferentes momentos para determinar dónde se produjeron cambios no visibles para los sistemas ópticos. Algunos ejemplos incluyen túneles subterráneos o caminos de vehículos que circulan por el área que se está fotografiando. Se ha desarrollado una observación mejorada de manchas de petróleo en el mar mediante SAR mediante el modelado físico apropiado y el uso de mediciones totalmente polarimétricas y polarimétricas duales.
La polarimetría SAR es una técnica que se utiliza para obtener información física cualitativa y cuantitativa para aplicaciones terrestres, de nieve y hielo, oceánicas y urbanas, basada en la medición y exploración de las propiedades polarimétricas de los dispersores artificiales y naturales. La clasificación del terreno y del uso de la tierra es una de las aplicaciones más importantes del radar de apertura sintética polarimétrico (PolSAR). [36]
La polarimetría SAR utiliza una matriz de dispersión (S) para identificar el comportamiento de dispersión de los objetos después de una interacción con una onda electromagnética. La matriz está representada por una combinación de estados de polarización horizontal y vertical de las señales transmitidas y recibidas.
donde, HH es para transmisión horizontal y recepción horizontal, VV es para transmisión vertical y recepción vertical, HV es para transmisión horizontal y recepción vertical, y VH es para transmisión vertical y recepción horizontal.
Las dos primeras combinaciones de polarización se denominan de polarización similar (o copolarizadas), porque las polarizaciones de transmisión y recepción son las mismas. Las dos últimas combinaciones se denominan de polarización cruzada porque las polarizaciones de transmisión y recepción son ortogonales entre sí. [37]
El modelo de potencia de dispersión de tres componentes de Freeman y Durden [38] se utiliza con éxito para la descomposición de una imagen PolSAR, aplicando la condición de simetría de reflexión utilizando una matriz de covarianza. El método se basa en mecanismos de dispersión física simples (dispersión de superficie, dispersión de doble rebote y dispersión de volumen). La ventaja de este modelo de dispersión es que es simple y fácil de implementar para el procesamiento de imágenes. Hay 2 enfoques principales para una descomposición de matriz polarimétrica 3x3. Uno es el enfoque de matriz de covarianza lexicográfica basado en parámetros físicamente medibles, [38] y el otro es la descomposición de Pauli que es una matriz de descomposición coherente. Representa toda la información polarimétrica en una sola imagen SAR. La información polarimétrica de [S] podría representarse mediante la combinación de las intensidades en una sola imagen RGB donde todas las intensidades anteriores se codificarán como un canal de color. [39]
En el análisis de imágenes PolSAR, puede haber casos en los que la condición de simetría de reflexión no se cumple. En esos casos, se puede utilizar un modelo de dispersión de cuatro componentes [36] [40] para descomponer imágenes de radar de apertura sintética (SAR) polarimétricas. Este enfoque aborda el caso de dispersión simétrica sin reflexión. Incluye y extiende el método de descomposición de tres componentes introducido por Freeman y Durden [38] a un cuarto componente agregando la potencia de dispersión helicoidal. Este término de potencia helicoidal generalmente aparece en áreas urbanas complejas, pero desaparece para un dispersor distribuido natural. [36]
También hay un método mejorado que utiliza el algoritmo de descomposición de cuatro componentes, que se introdujo para los análisis de imágenes de datos polSAR generales. Los datos SAR se filtran primero, lo que se conoce como reducción de moteado, luego cada píxel se descompone mediante un modelo de cuatro componentes para determinar la potencia de dispersión de superficie ( ), la potencia de dispersión de doble rebote ( ), la potencia de dispersión de volumen ( ) y la potencia de dispersión de hélice ( ). [36] Luego, los píxeles se dividen en 5 clases (superficie, doble rebote, volumen, hélice y píxeles mixtos) clasificados con respecto a las potencias máximas. Se agrega una categoría mixta para los píxeles que tienen dos o tres potencias de dispersión dominantes iguales después del cálculo. El proceso continúa a medida que los píxeles de todas estas categorías se dividen en 20 pequeños desordenes aproximadamente de la misma cantidad de píxeles y se fusionan como se desea, esto se llama fusión de grupos. Se clasifican iterativamente y luego se entrega automáticamente el color a cada clase. El resumen de este algoritmo lleva a comprender que los colores marrones denotan las clases de dispersión de superficie, los colores rojos las clases de dispersión de doble rebote, los colores verdes las clases de dispersión de volumen y los colores azules las clases de dispersión de hélice. [41]
Aunque este método está pensado para casos sin reflexión, incluye automáticamente la condición de simetría de reflexión, por lo que se puede utilizar como caso general. También conserva las características de dispersión al tener en cuenta la categoría de dispersión mixta, por lo que resulta un mejor algoritmo.
En lugar de descartar los datos de fase, se puede extraer información de ellos. Si se dispone de dos observaciones del mismo terreno desde posiciones muy similares, se puede realizar una síntesis de apertura para proporcionar el rendimiento de resolución que proporcionaría un sistema de radar con dimensiones iguales a la separación de las dos mediciones. Esta técnica se denomina SAR interferométrico o InSAR.
Si las dos muestras se obtienen simultáneamente (quizás colocando dos antenas en la misma aeronave, a cierta distancia entre sí), entonces cualquier diferencia de fase contendrá información sobre el ángulo desde el cual regresó el eco del radar. Combinando esto con la información de la distancia, se puede determinar la posición en tres dimensiones del píxel de la imagen. En otras palabras, se puede extraer la altitud del terreno así como la reflectividad del radar, produciendo un modelo de elevación digital (DEM) con un solo paso de avión. Una aplicación de aeronave en el Centro Canadiense de Teledetección produjo mapas de elevación digitales con una resolución de 5 m y errores de altitud también de aproximadamente 5 m. Se utilizó la interferometría para cartografiar muchas regiones de la superficie de la Tierra con una precisión sin precedentes utilizando datos de la Misión de Topografía Radar del Transbordador .
Si las dos muestras están separadas en el tiempo, quizás de dos vuelos sobre el mismo terreno, entonces hay dos posibles fuentes de cambio de fase. La primera es la altitud del terreno, como se ha comentado anteriormente. La segunda es el movimiento del terreno: si el terreno ha cambiado entre observaciones, devolverá una fase diferente. La cantidad de cambio necesaria para provocar una diferencia de fase significativa es del orden de la longitud de onda utilizada. Esto significa que si el terreno se desplaza centímetros, se puede ver en la imagen resultante (se debe disponer de un mapa de elevación digital para separar los dos tipos de diferencia de fase; puede ser necesaria una tercera pasada para producir una).
Este segundo método ofrece una herramienta poderosa en geología y geografía . El flujo glaciar se puede mapear con dos pasadas. Se han publicado mapas que muestran la deformación del terreno después de un terremoto menor o después de una erupción volcánica (mostrando la contracción de todo el volcán en varios centímetros). [42] [43] [44]
La interferometría diferencial (D-InSAR) requiere la toma de al menos dos imágenes con la adición de un DEM. El DEM puede ser producido por mediciones GPS o podría ser generado por interferometría siempre que el tiempo entre la adquisición de los pares de imágenes sea corto, lo que garantiza una distorsión mínima de la imagen de la superficie objetivo. En principio, 3 imágenes del área del suelo con una geometría de adquisición de imágenes similar suelen ser suficientes para D-InSAR. El principio para detectar el movimiento del suelo es bastante simple. Se crea un interferograma a partir de las dos primeras imágenes; esto también se llama interferograma de referencia o interferograma topográfico. Se crea un segundo interferograma que captura la topografía + distorsión. Restando este último del interferograma de referencia se pueden revelar franjas diferenciales, lo que indica movimiento. La técnica de generación de 3 imágenes D-InSAR descrita se llama método de 3 pasos o de doble diferencia.
Las franjas diferenciales que permanecen como franjas en el interferograma diferencial son el resultado de los cambios en el rango SAR de cualquier punto desplazado en el terreno de un interferograma al siguiente. En el interferograma diferencial, cada franja es directamente proporcional a la longitud de onda SAR, que es de aproximadamente 5,6 cm para el ciclo monofásico de ERS y RADARSAT. El desplazamiento de la superficie alejándose de la dirección de observación del satélite provoca un aumento en la diferencia de trayectoria (que se traduce en fase). Dado que la señal viaja desde la antena SAR hasta el objetivo y viceversa, el desplazamiento medido es el doble de la unidad de longitud de onda. Esto significa que en interferometría diferencial un ciclo de franja − π a + π o una longitud de onda corresponde a un desplazamiento relativo a la antena SAR de solo la mitad de la longitud de onda (2,8 cm). Existen varias publicaciones sobre la medición del movimiento de subsidencia, análisis de estabilidad de pendientes, deslizamientos de tierra, movimiento de glaciares, etc. herramientas D-InSAR. Se han realizado nuevos avances en esta técnica mediante la interferometría diferencial a partir de la trayectoria ascendente y descendente del SAR satelital para estimar el movimiento del suelo en 3D. Las investigaciones en esta área han demostrado que se pueden lograr mediciones precisas del movimiento del suelo en 3D con precisiones comparables a las mediciones basadas en GPS.
La tomografía SAR es un subcampo de un concepto denominado interferometría multibase. Se ha desarrollado para proporcionar una exposición tridimensional a las imágenes, que utiliza el concepto de formación de haz. Se puede utilizar cuando el uso exige una preocupación de fase enfocada entre los componentes de magnitud y fase de los datos SAR, durante la recuperación de información. Una de las principales ventajas de la tomografía SAR es que puede separar los parámetros que se dispersan, independientemente de lo diferentes que sean sus movimientos. [45] Al utilizar la tomografía SAR con interferometría diferencial, se desarrolló una nueva combinación denominada "tomografía diferencial" (Diff-Tomo). [45]
Tomo-SAR tiene una aplicación basada en imágenes de radar, que es la representación del volumen de hielo y la coherencia temporal del bosque ( la coherencia temporal describe la correlación entre las ondas observadas en diferentes momentos del tiempo). [45]
Los sistemas de radar convencionales emiten ráfagas de energía de radio con un rango de frecuencias bastante estrecho. Un canal de banda estrecha, por definición, no permite cambios rápidos en la modulación. Dado que es el cambio en una señal recibida lo que revela el momento de llegada de la señal (obviamente, una señal invariable no revelaría nada sobre "cuándo" se reflejó desde el objetivo), una señal con solo un cambio lento en la modulación no puede revelar la distancia al objetivo tan bien como una señal con un cambio rápido en la modulación.
El término banda ultraancha (UWB) hace referencia a cualquier transmisión de radio que utilice un ancho de banda muy grande, lo que equivale a decir que utiliza cambios muy rápidos en la modulación. Aunque no existe un valor de ancho de banda establecido que califique a una señal como "UWB", los sistemas que utilizan anchos de banda mayores que una porción considerable de la frecuencia central (normalmente alrededor del diez por ciento) suelen denominarse sistemas "UWB". Un sistema UWB típico puede utilizar un ancho de banda de un tercio a la mitad de su frecuencia central. Por ejemplo, algunos sistemas utilizan un ancho de banda de aproximadamente 1 GHz centrado alrededor de 3 GHz.
Los dos métodos más comunes para aumentar el ancho de banda de la señal que se utilizan en los radares UWB, incluido el SAR, son los pulsos muy cortos y el chirrido de gran ancho de banda. En otra parte de este artículo se ofrece una descripción general del chirrido. El ancho de banda de un sistema con chirrido puede ser tan estrecho o tan amplio como deseen los diseñadores. Los sistemas UWB basados en pulsos, que son el método más común asociado con el término "radar UWB", se describen aquí.
Un sistema de radar basado en pulsos transmite pulsos muy cortos de energía electromagnética, normalmente de unas pocas ondas o menos. Un pulso muy corto es, por supuesto, una señal que cambia muy rápidamente y, por lo tanto, ocupa un ancho de banda muy amplio. Esto permite una medición mucho más precisa de la distancia y, por lo tanto, de la resolución.
La principal desventaja del SAR UWB basado en pulsos es que la electrónica de transmisión y recepción es difícil de diseñar para aplicaciones de alta potencia. En concreto, el ciclo de trabajo de transmisión es tan excepcionalmente bajo y el tiempo de pulso tan excepcionalmente corto, que la electrónica debe ser capaz de ofrecer una potencia instantánea extremadamente alta para rivalizar con la potencia media de los radares convencionales. (Si bien es cierto que el UWB proporciona una ganancia notable en capacidad de canal sobre una señal de banda estrecha debido a la relación de ancho de banda en el teorema de Shannon-Hartley y debido a que el ciclo de trabajo de recepción bajo recibe menos ruido, lo que aumenta la relación señal-ruido , sigue habiendo una disparidad notable en el presupuesto de enlace porque el radar convencional puede ser varios órdenes de magnitud más potente que un radar típico basado en pulsos). Por tanto, el SAR UWB basado en pulsos se utiliza normalmente en aplicaciones que requieren niveles de potencia media en el rango de microvatios o milivatios, y por tanto se utiliza para escanear áreas objetivo más pequeñas y cercanas (varias decenas de metros), o en casos en los que es posible una integración prolongada (en un lapso de minutos) de la señal recibida. Sin embargo, esta limitación se soluciona en los sistemas de radar UWB con chirrido.
Las principales ventajas del radar UWB son una mejor resolución (unos pocos milímetros utilizando electrónica comercial disponible ) y más información espectral de la reflectividad del objetivo.
El enfoque Doppler se refiere comúnmente al método de procesamiento del historial de fase del haz real no enfocado para lograr una mejor resolución que la que se podría lograr al procesar el haz real sin él. Debido a que la apertura real de la antena del radar es tan pequeña (en comparación con la longitud de onda en uso), la energía del radar se extiende sobre un área amplia (generalmente de muchos grados de ancho en una dirección ortogonal (en ángulos rectos) a la dirección de la plataforma (avión)). El enfoque Doppler aprovecha el movimiento de la plataforma en el que los objetivos por delante de la plataforma devuelven una señal Doppler desplazada hacia arriba (ligeramente más alta en frecuencia) y los objetivos detrás de la plataforma devuelven una señal Doppler desplazada hacia abajo (ligeramente más baja en frecuencia).
La cantidad de desplazamiento varía con el ángulo hacia adelante o hacia atrás desde la dirección ortonormal. Al conocer la velocidad de la plataforma, el retorno de la señal del objetivo se coloca en un "bin" de ángulo específico que cambia con el tiempo. Las señales se integran con el tiempo y, por lo tanto, el "haz" del radar se reduce sintéticamente a una apertura mucho más pequeña; o, más exactamente (y en función de la capacidad de distinguir desplazamientos Doppler más pequeños), el sistema puede tener cientos de haces muy "apretados" simultáneamente. Esta técnica mejora drásticamente la resolución angular; sin embargo, es mucho más difícil aprovechar esta técnica para la resolución de alcance. (Véase radar de pulso Doppler ).
Una técnica común para muchos sistemas de radar (que también se encuentra generalmente en los sistemas SAR) es la de " chirriar " la señal. En un radar "chirriado", se permite que el pulso sea mucho más largo. Un pulso más largo permite que se emita más energía y, por lo tanto, se reciba, pero generalmente dificulta la resolución de alcance. Pero en un radar chirriado, este pulso más largo también tiene un cambio de frecuencia durante el pulso (de ahí el chirrido o cambio de frecuencia). Cuando se devuelve la señal "chirriada", debe correlacionarse con el pulso enviado. Clásicamente, en los sistemas analógicos, se pasa a una línea de retardo dispersiva (a menudo un dispositivo de onda acústica de superficie ) que tiene la propiedad de variar la velocidad de propagación según la frecuencia. Esta técnica "comprime" el pulso en el tiempo, lo que tiene el efecto de un pulso mucho más corto (resolución de alcance mejorada) mientras que tiene el beneficio de una longitud de pulso más larga (mucha más señal de retorno). Los sistemas más nuevos utilizan la correlación de pulso digital para encontrar el retorno de pulso en la señal.
En una aplicación típica de SAR, se conecta una sola antena de radar a una aeronave o nave espacial de modo que un componente sustancial del haz radiado de la antena tenga una dirección de propagación de onda perpendicular a la dirección de la trayectoria de vuelo. Se permite que el haz sea amplio en la dirección vertical para que ilumine el terreno desde casi debajo de la aeronave hacia el horizonte.
La resolución en la dimensión de rango de la imagen se logra mediante la creación de pulsos que definen intervalos de tiempo muy cortos, ya sea mediante la emisión de pulsos cortos que consisten en una frecuencia portadora y las bandas laterales necesarias, todo dentro de un cierto ancho de banda, o mediante el uso de " pulsos chirp " más largos en los que la frecuencia varía (a menudo de manera lineal) con el tiempo dentro de ese ancho de banda. Los diferentes tiempos en los que regresan los ecos permiten distinguir puntos a diferentes distancias.
La resolución de imagen del SAR en su coordenada de rango (expresada en píxeles de imagen por unidad de distancia) es principalmente proporcional al ancho de banda de radio de cualquier tipo de pulso que se utilice. En la coordenada de rango cruzado, la resolución similar es principalmente proporcional al ancho de banda del desplazamiento Doppler de los retornos de señal dentro del ancho del haz. Dado que la frecuencia Doppler depende del ángulo de la dirección del punto de dispersión con respecto a la dirección lateral, el ancho de banda Doppler disponible dentro del ancho del haz es el mismo en todos los rangos. Por lo tanto, los límites teóricos de resolución espacial en ambas dimensiones de la imagen permanecen constantes con la variación del rango. Sin embargo, en la práctica, tanto los errores que se acumulan con el tiempo de recopilación de datos como las técnicas particulares utilizadas en el posprocesamiento limitan aún más la resolución de rango cruzado a grandes distancias.
La señal total es la de un área del suelo del tamaño del ancho del haz. Para producir un haz que sea estrecho en la dirección transversal [ aclaración necesaria ] , los efectos de difracción requieren que la antena sea ancha en esa dimensión. Por lo tanto, la distinción, entre sí, de puntos de alcance compartido simplemente por las intensidades de los retornos que persisten mientras estén dentro del ancho del haz es difícil con antenas transportables por aeronaves, porque sus haces pueden tener anchos lineales solo alrededor de dos órdenes de magnitud (cientos de veces) más pequeños que el alcance. (Las que se pueden transportar en naves espaciales pueden hacerlo 10 o más veces mejor). Sin embargo, si se registran tanto la amplitud como la fase de los retornos, entonces la parte de ese retorno multiobjetivo que se dispersó radialmente desde cualquier elemento de escena más pequeño se puede extraer mediante la correlación de vector de fase del retorno total con la forma del retorno esperado de cada uno de esos elementos.
El proceso puede considerarse como una combinación de la serie de observaciones distribuidas espacialmente como si todas se hubieran realizado simultáneamente con una antena tan larga como el ancho del haz y enfocada en ese punto en particular. La "apertura sintética" simulada en el alcance máximo del sistema mediante este proceso no sólo es más larga que la antena real, sino que, en aplicaciones prácticas, es mucho más larga que la de la aeronave con radar y enormemente más larga que la de la nave espacial con radar.
Aunque algunas referencias a los SAR los han caracterizado como "telescopios de radar", su analogía óptica real es el microscopio, siendo el detalle en sus imágenes menor que la longitud de la apertura sintética. En términos de ingeniería de radar, mientras que el área objetivo está en el " campo lejano " de la antena iluminadora, está en el "campo cercano" de la simulada. Un diseño y un funcionamiento cuidadosos pueden lograr una resolución de elementos menores a una millonésima parte del rango, por ejemplo, 30 cm a 300 km, o aproximadamente un pie a casi 200 millas (320 km).
La conversión del tiempo de retardo de retorno en rango geométrico puede ser muy precisa debido a la constancia natural de la velocidad y la dirección de propagación de las ondas electromagnéticas. Sin embargo, para una aeronave que vuela a través de una atmósfera que nunca es uniforme ni está en calma, la relación de los tiempos de transmisión y recepción de pulsos con las posiciones geométricas sucesivas de la antena debe ir acompañada de un ajuste constante de las fases de retorno para tener en cuenta las irregularidades detectadas en la trayectoria de vuelo. Los SAR en naves espaciales evitan ese problema atmosférico, pero aún deben realizar correcciones para los movimientos conocidos de la antena debido a las rotaciones de la nave espacial, incluso aquellos que son reacciones a los movimientos de la maquinaria a bordo. La ubicación de un SAR en un vehículo espacial tripulado puede requerir que los humanos permanezcan cuidadosamente inmóviles en relación con el vehículo durante los períodos de recopilación de datos.
Los retornos de los dispersores dentro del alcance de cualquier imagen se distribuyen en un intervalo de tiempo coincidente. El período entre pulsos debe ser lo suficientemente largo para permitir que los retornos de alcance más lejano de cualquier pulso terminen de llegar antes de que comiencen a aparecer los de alcance más cercano del siguiente pulso, de modo que no se superpongan entre sí en el tiempo. Por otro lado, la frecuencia entre pulsos debe ser lo suficientemente rápida para proporcionar muestras suficientes para la resolución deseada en todo el alcance (o en todo el haz). Cuando el radar debe ser transportado por un vehículo de alta velocidad y debe obtener imágenes de un área grande con una resolución fina, esas condiciones pueden entrar en conflicto, lo que conduce a lo que se ha denominado el problema de ambigüedad del SAR. Las mismas consideraciones se aplican también a los radares "convencionales", pero este problema se produce de manera significativa solo cuando la resolución es tan fina que solo está disponible a través de procesos SAR. Dado que la base del problema es la capacidad de transporte de información del único canal de entrada de señal proporcionado por una antena, la única solución es utilizar canales adicionales alimentados por antenas adicionales. El sistema se convierte entonces en un híbrido entre un SAR y un sistema en fase, y a veces se lo denomina sistema Vernier.
La combinación de las series de observaciones requiere recursos computacionales significativos, que generalmente se logran con técnicas de transformada de Fourier . La alta velocidad de computación digital disponible en la actualidad permite que dicho procesamiento se realice casi en tiempo real a bordo de una aeronave SAR (necesariamente existe un retraso mínimo hasta que se reciben todas las partes de la señal). El resultado es un mapa de reflectividad del radar, que incluye tanto la amplitud como la fase.
La información de amplitud, cuando se muestra en una pantalla similar a un mapa, brinda información sobre la cobertura del suelo de la misma manera que lo hace una fotografía en blanco y negro. También se pueden realizar variaciones en el procesamiento, ya sea en estaciones a bordo de vehículos o en estaciones terrestres, para diversos fines, a fin de acentuar ciertas características de la imagen para un análisis detallado del área objetivo.
Aunque la información de fase de una imagen generalmente no está disponible para un observador humano de un dispositivo de visualización de imágenes, se puede conservar numéricamente y, a veces, permite reconocer ciertas características adicionales de los objetivos.
Desafortunadamente, las diferencias de fase entre elementos de imagen adyacentes ("píxeles") también producen efectos de interferencia aleatorios llamados " moteado de coherencia ", que es una especie de granulosidad con dimensiones del orden de la resolución, lo que hace que el concepto de resolución adquiera un significado sutilmente diferente. Este efecto es el mismo que se aprecia tanto visualmente como fotográficamente en escenas ópticas iluminadas con láser. La escala de esa estructura de moteado aleatorio está determinada por el tamaño de la apertura sintética en longitudes de onda y no puede ser más fina que la resolución del sistema. La estructura de moteado se puede atenuar a expensas de la resolución.
Antes de que existieran las computadoras digitales rápidas, el procesamiento de datos se hacía utilizando una técnica de holografía óptica . Los datos de radar analógicos se registraban como un patrón de interferencia holográfica en una película fotográfica a una escala que permitía que la película conservara los anchos de banda de la señal (por ejemplo, 1:1.000.000 para un radar que utiliza una longitud de onda de 0,6 metros). Luego, la luz que utilizaba, por ejemplo, ondas de 0,6 micrómetros (como las de un láser de helio-neón ) que pasaba a través del holograma podía proyectar una imagen del terreno a una escala grabable en otra película a distancias focales de procesador razonables de alrededor de un metro. Esto funcionaba porque tanto el SAR como los arreglos en fase son fundamentalmente similares a la holografía óptica, pero utilizan microondas en lugar de ondas de luz. Los "procesadores de datos ópticos" desarrollados para este propósito de radar [46] [47] [48] fueron los primeros sistemas de computadoras ópticas analógicas eficaces y, de hecho, se idearon antes de que la técnica holográfica se adaptara por completo a la formación de imágenes ópticas. Debido a las diferentes fuentes de alcance y estructuras de señales de alcance cruzado en las señales de radar, los procesadores de datos ópticos para SAR incluían no sólo lentes esféricas y cilíndricas, sino a veces también cónicas.
Las siguientes consideraciones también se aplican a los radares de imágenes de terreno con apertura real, pero tienen mayor importancia cuando la resolución en el alcance se corresponde con una resolución de haz cruzado que solo está disponible en un SAR.
Las dos dimensiones de una imagen de radar son el alcance y el alcance transversal. Las imágenes de radar de parches limitados de terreno pueden parecerse a fotografías oblicuas, pero no a las tomadas desde la ubicación del radar. Esto se debe a que la coordenada de alcance en una imagen de radar es perpendicular a la coordenada del ángulo vertical de una foto oblicua. La posición aparente de la pupila de entrada (o centro de la cámara ) para ver una imagen de este tipo no es, por lo tanto, como si estuviera en el radar, sino como si estuviera en un punto desde el cual la línea de visión del observador es perpendicular a la dirección de alcance oblicuo que conecta el radar y el objetivo, con un alcance oblicuo que aumenta de arriba a abajo de la imagen.
Debido a que los rangos de inclinación para nivelar el terreno varían en ángulo vertical, cada elevación de dicho terreno aparece como una superficie curva, específicamente una de coseno hiperbólico . Las verticales a varios rangos son perpendiculares a esas curvas. Las direcciones aparentes de observación del observador son paralelas al eje "hipcos" de la curva. Los elementos directamente debajo del radar aparecen como si se vieran ópticamente horizontalmente (es decir, desde un lado) y aquellos a distancias lejanas como si se vieran ópticamente directamente desde arriba. Estas curvaturas no son evidentes a menos que se observen grandes extensiones de terreno de alcance cercano, incluidas las cordilleras inclinadas empinadas.
Cuando se observan como se especifica arriba, las imágenes de radar de alta resolución de áreas pequeñas pueden parecer más parecidas a las imágenes ópticas habituales, por dos razones. La primera razón se entiende fácilmente imaginando un asta de bandera en la escena. El alcance oblicuo hasta su extremo superior es menor que hasta su base. Por lo tanto, el asta puede aparecer correctamente con el extremo superior hacia arriba solo cuando se observa en la orientación anterior. En segundo lugar, como la iluminación del radar está hacia abajo, las sombras se ven en su dirección más habitual de "iluminación superior".
La imagen de la parte superior del poste se superpondrá a la de algún punto del terreno que se encuentre en el mismo arco de distancia oblicua pero a una distancia horizontal más corta ("distancia terrestre"). Las imágenes de superficies de la escena que se encuentran frente a la iluminación y al punto de visión aparente tendrán geometrías que se asemejan a las de una escena óptica vista desde ese punto de visión. Sin embargo, las pendientes que se encuentran frente al radar se acortarán y las que se encuentren en dirección opuesta se alargarán con respecto a sus dimensiones horizontales (mapa). Por lo tanto, las primeras se iluminarán y las segundas se atenuarán.
Los retornos de pendientes más empinadas que la perpendicular al rango oblicuo se superpondrán a los de terrenos de menor elevación a un rango de tierra más cercano, siendo ambos visibles pero entremezclados. Esto es especialmente el caso de superficies verticales como las paredes de los edificios. Otro inconveniente de visualización que surge cuando una superficie es más empinada que la perpendicular al rango oblicuo es que entonces está iluminada en una cara pero "vista" desde la cara opuesta. Entonces uno "ve", por ejemplo, la pared orientada hacia el radar de un edificio como si fuera desde adentro, mientras que el interior del edificio y la pared trasera (la más cercana al observador, por lo tanto, se espera que sea visible ópticamente para él) han desaparecido, ya que carecen de iluminación, estando a la sombra de la pared frontal y el techo. Algunos retornos del techo pueden superponerse a los de la pared frontal, y ambos pueden superponerse a los retornos del terreno frente al edificio. La sombra visible del edificio incluirá las de todos los elementos iluminados. Las sombras largas pueden presentar bordes borrosos debido al movimiento de la antena iluminadora durante el "tiempo de exposición" necesario para crear la imagen.
Las superficies que habitualmente consideramos rugosas, si dicha rugosidad consiste en un relieve menor que la longitud de onda del radar, se comportarán como espejos lisos, mostrando, más allá de dicha superficie, imágenes adicionales de los objetos que se encuentran frente a ella. Esas imágenes especulares aparecerán dentro de la sombra de la superficie reflejada, a veces llenando toda la sombra, impidiendo así el reconocimiento de la sombra.
La dirección de superposición de cualquier punto de la escena no es directamente hacia el radar, sino hacia el punto de la dirección actual de la trayectoria del SAR que está más cerca del punto objetivo. Si el SAR está "desviado" hacia adelante o hacia atrás en dirección opuesta a la dirección exacta de la trayectoria, entonces la dirección de la iluminación, y por lo tanto la dirección de la sombra, no será opuesta a la dirección de superposición, sino que estará inclinada hacia la derecha o hacia la izquierda con respecto a ella. Una imagen aparecerá con la geometría de proyección correcta cuando se vea de modo que la dirección de superposición sea vertical, la trayectoria de vuelo del SAR esté por encima de la imagen y el alcance aumente un poco hacia abajo.
Los objetos en movimiento dentro de una escena SAR alteran las frecuencias Doppler de los retornos. Por lo tanto, dichos objetos aparecen en la imagen en ubicaciones desplazadas en la dirección transversal en cantidades proporcionales al componente de dirección transversal de su velocidad. Los vehículos de carretera pueden representarse fuera de la carretera y, por lo tanto, no reconocerse como elementos de tráfico vial. Los trenes que aparecen alejados de sus vías se reconocen más fácilmente por su longitud paralela a la vía conocida, así como por la ausencia de una longitud igual de firma de la plataforma de la vía y de algún terreno adyacente, ambos ensombrecidos por el tren. Si bien las imágenes de embarcaciones en movimiento pueden desplazarse con respecto a la línea de las partes anteriores de sus estelas, las partes más recientes de la estela, que aún participan de algo del movimiento de la embarcación, aparecen como curvas que conectan la imagen de la embarcación con la estela relativamente tranquila que se encuentra a popa. En tales casos identificables, la velocidad y la dirección de los elementos en movimiento se pueden determinar a partir de las cantidades de sus desplazamientos. El componente a lo largo de la vía del movimiento de un objetivo causa cierto desenfoque. Los movimientos aleatorios, como los de las hojas de los árboles arrastradas por el viento, los vehículos que circulan por terrenos accidentados o los humanos u otros animales que caminan o corren, generalmente hacen que esos elementos no se puedan enfocar, lo que da como resultado desenfoque o incluso una invisibilidad efectiva.
Estas consideraciones, junto con la estructura de moteado debida a la coherencia, requieren un cierto tiempo para acostumbrarse a interpretar correctamente las imágenes SAR. Para ello, se han acumulado grandes colecciones de firmas de objetivos importantes mediante la realización de numerosos vuelos de prueba sobre terrenos y objetos culturales conocidos.
Una técnica estrechamente relacionada con el SAR utiliza un conjunto (denominado " conjunto en fase ") de elementos de antena reales distribuidos espacialmente en una o dos dimensiones perpendiculares a la dimensión del alcance del radar. Estos conjuntos físicos son verdaderamente sintéticos, de hecho se crean mediante la síntesis de una colección de antenas físicas subsidiarias. Su funcionamiento no necesita implicar movimiento relativo a los objetivos. Todos los elementos de estos conjuntos reciben simultáneamente en tiempo real, y las señales que pasan a través de ellos pueden ser sometidas individualmente a cambios controlados de las fases de esas señales. Un resultado puede ser responder con mayor intensidad a la radiación recibida de un área pequeña específica de la escena, centrándose en esa área para determinar su contribución a la señal total recibida. El conjunto de señales detectadas coherentemente recibidas en toda la apertura del conjunto se puede replicar en varios canales de procesamiento de datos y procesarse de manera diferente en cada uno. El conjunto de respuestas así rastreadas a diferentes áreas pequeñas de la escena se puede mostrar en conjunto como una imagen de la escena.
En comparación, un SAR (que por lo general tiene una sola antena física) recoge señales en distintas posiciones y en distintos momentos. Cuando el radar es transportado por una aeronave o un vehículo en órbita, esas posiciones son funciones de una única variable, la distancia a lo largo de la trayectoria del vehículo, que es una única dimensión matemática (no necesariamente lo mismo que una dimensión geométrica lineal). Las señales se almacenan, de modo que pasan a ser funciones, ya no del tiempo, sino de las ubicaciones de registro a lo largo de esa dimensión. Cuando las señales almacenadas se leen más tarde y se combinan con cambios de fase específicos, el resultado es el mismo que si los datos registrados se hubieran recogido mediante un conjunto de antenas en fase de igual longitud y forma. Lo que se sintetiza así es un conjunto de señales equivalente a lo que podría haberse recibido simultáneamente mediante un conjunto de antenas en fase de gran apertura (en una dimensión). El SAR simula (en lugar de sintetizar) ese conjunto de antenas en fase unidimensional de gran longitud. Aunque el término que figura en el título de este artículo se ha derivado incorrectamente, ahora está firmemente establecido por medio siglo de uso.
Aunque el funcionamiento de un sistema de matriz en fase se entiende fácilmente como una técnica completamente geométrica, el hecho de que un sistema de apertura sintética recopile sus datos a medida que él (o su objetivo) se mueve a cierta velocidad significa que las fases que variaban con la distancia recorrida originalmente variaban con el tiempo, por lo que constituían frecuencias temporales. Siendo las frecuencias temporales las variables que utilizan comúnmente los ingenieros de radar, sus análisis de los sistemas SAR se expresan generalmente (y de manera muy productiva) en esos términos. En particular, la variación de fase durante el vuelo a lo largo de la apertura sintética se ve como una secuencia de desplazamientos Doppler de la frecuencia recibida con respecto a la frecuencia transmitida. Una vez que los datos recibidos se han registrado y, por lo tanto, se han vuelto atemporales, la situación de procesamiento de datos SAR también se puede entender como un tipo especial de matriz en fase, tratable como un proceso completamente geométrico.
El núcleo de las técnicas de SAR y de matriz en fase es que las distancias que recorren las ondas de radar hacia y desde cada elemento de la escena consisten en un número entero de longitudes de onda más una fracción de una longitud de onda "final". Esas fracciones causan diferencias entre las fases de la re-radiación recibida en varias posiciones de SAR o matriz. Se necesita una detección coherente para capturar la información de fase de la señal además de la información de amplitud de la señal. Ese tipo de detección requiere encontrar las diferencias entre las fases de las señales recibidas y la fase simultánea de una muestra bien preservada de la iluminación transmitida.
{{cite journal}}
: CS1 maint: numeric names: authors list (link){{cite book}}
: |journal=
ignorado ( ayuda )