stringtranslate.com

Historia del radar de apertura sintética

La historia del radar de apertura sintética comienza en 1951, con la invención de la tecnología por parte del matemático Carl A. Wiley y su desarrollo en la década siguiente. Inicialmente desarrollada para uso militar, la tecnología se ha aplicado desde entonces en el campo de la ciencia planetaria .

Invención

Madrid , España, visto desde una imagen aérea de satélite de 16 cm

Carl A. Wiley , [1] matemático de Goodyear Aircraft Company en Litchfield Park, Arizona , inventó el radar de apertura sintética en junio de 1951 mientras trabajaba en un sistema de guía de correlación para el programa ICBM Atlas . [2] A principios de 1952, Wiley, junto con Fred Heisley y Bill Welty, construyó un sistema de validación de conceptos conocido como DOUSER (" Doppler Unbeamed Search Radar"). Durante las décadas de 1950 y 1960, Goodyear Aircraft (más tarde Goodyear Aerospace) introdujo numerosos avances en la tecnología SAR, muchos de ellos con la ayuda de Don Beckerleg. [3]

Independientemente del trabajo de Wiley, los ensayos experimentales realizados a principios de 1952 por Sherwin y otros en el Laboratorio de Sistemas de Control de la Universidad de Illinois mostraron resultados que, según ellos, "podrían proporcionar la base para sistemas de radar con una resolución angular muy mejorada" e incluso podrían conducir a sistemas capaces de enfocar en todos los rangos simultáneamente. [4]

En ambos programas, el procesamiento de los retornos de radar se realizó mediante métodos de filtrado de circuitos eléctricos. En esencia, la intensidad de la señal en bandas discretas aisladas de frecuencia Doppler definía intensidades de imagen que se mostraban en posiciones angulares coincidentes dentro de las ubicaciones de rango adecuadas. Cuando solo se utilizaba la parte central (banda Doppler cero) de las señales de retorno, el efecto era como si solo existiera esa parte central del haz. Eso llevó al término de Afilado del haz Doppler. La visualización de los retornos de varias bandas de frecuencia Doppler no cero adyacentes lograba una "subdivisión del haz" adicional (a veces llamada "radar no enfocado", aunque podría haberse considerado "semi enfocado"). La patente de Wiley, solicitada en 1954, todavía proponía un procesamiento similar. El volumen de los circuitos disponibles entonces limitaba el grado en que esos esquemas podían mejorar aún más la resolución.

El principio se incluyó en un memorando [5] escrito por Walter Hausz de General Electric que era parte del informe entonces secreto de una conferencia de estudio de verano del Departamento de Defensa de 1952 llamada TEOTA ("Los ojos del ejército"), [6] que buscaba identificar nuevas técnicas útiles para el reconocimiento militar y la recopilación técnica de inteligencia. Un programa de verano de seguimiento en 1953 en la Universidad de Michigan , llamado Proyecto Wolverine, identificó varios de los temas de TEOTA, incluida la resolución de subancho de haz asistida por Doppler, como esfuerzos de investigación que serían patrocinados por el Departamento de Defensa (DoD) en varios laboratorios de investigación académicos e industriales. En ese mismo año, el grupo de Illinois produjo una imagen de "mapa de tiras" que exhibía una cantidad considerable de resolución de subancho de haz.

Proyecto Michigan

Objetivos

Un proyecto de radar enfocado más avanzado se encontraba entre varios esquemas de teledetección asignados en 1953 al Proyecto Michigan, un programa patrocinado por tres servicios (Ejército, Marina, Fuerza Aérea) en el Centro de Investigación Willow Run (WRRC) de la Universidad de Michigan , ese programa era administrado por el Cuerpo de Señales del Ejército . Inicialmente llamado el proyecto de radar de mirada lateral, fue llevado a cabo por un grupo primero conocido como el Laboratorio de Radar y más tarde como el Laboratorio de Radar y Óptica. Proponía tener en cuenta, no solo la existencia a corto plazo de varios cambios Doppler particulares, sino la historia completa de los cambios constantemente variables de cada objetivo a medida que este último cruzaba el haz. Un análisis temprano realizado por el Dr. Louis J. Cutrona, Weston E. Vivian y Emmett N. Leith de ese grupo mostró que un sistema completamente enfocado de este tipo debería producir, en todos los rangos, una resolución igual al ancho (o, según algunos criterios, la mitad del ancho) de la antena real llevada en la aeronave de radar y apuntando continuamente de costado a la trayectoria de la aeronave. [7]

Base técnica y científica

El procesamiento de datos requerido consistía en calcular correlaciones cruzadas de las señales recibidas con muestras de las formas de señales que se esperaban de fuentes de amplitud unitaria en los distintos rangos. En ese momento, incluso las grandes computadoras digitales tenían capacidades cercanas a los niveles de las calculadoras portátiles de cuatro funciones actuales, por lo que no eran capaces de realizar una cantidad tan grande de cálculos. En su lugar, el dispositivo para realizar los cálculos de correlación debía ser un correlador óptico .

Se propuso que las señales recibidas por la antena móvil y detectadas coherentemente se mostraran como una única línea de traza de rango a través del diámetro de la cara de un tubo de rayos catódicos , registrándose las formas sucesivas de la línea como imágenes proyectadas sobre una película que se desplazaba perpendicularmente a la longitud de esa línea. La información de la película revelada se procesaría posteriormente en el laboratorio en un equipo que todavía se estaba diseñando como una de las principales tareas del proyecto. En la propuesta inicial del procesador, se esperaba que una disposición de lentes multiplicara las señales registradas punto por punto con las formas de señal conocidas haciendo pasar luz sucesivamente a través de la película de señal y otra película que contenía el patrón de señal conocido. El paso posterior de suma o integración de la correlación se realizaría mediante la convergencia de conjuntos apropiados de productos de multiplicación mediante la acción de enfoque de una o más lentes esféricas y cilíndricas. El procesador iba a ser, en efecto, una computadora analógica óptica que realizaba cálculos aritméticos escalares a gran escala en muchos canales (con muchos "rayos" de luz) a la vez. En última instancia, se necesitarían dos dispositivos de este tipo, cuyas salidas se combinarían como componentes de cuadratura de la solución completa.

El deseo de mantener el equipo pequeño había llevado a registrar el patrón de referencia en una película de 35 mm . Las pruebas demostraron rápidamente que los patrones en la película eran tan finos que mostraban efectos de difracción pronunciados que impedían un enfoque final nítido. [8]

Eso llevó a Leith, un físico que estaba ideando el correlador, a reconocer que esos efectos en sí mismos podían, mediante procesos naturales, realizar una parte significativa del procesamiento necesario, ya que las tiras de la grabación a lo largo de la pista operaban como cortes diametrales de una serie de placas de zona óptica circulares. Cualquier placa de este tipo funciona de manera similar a una lente, cada placa tiene una longitud focal específica para cualquier longitud de onda dada. La grabación que se había considerado como escalar se reconoció como pares de vectores de signo opuesto de muchas frecuencias espaciales más una cantidad de "sesgo" de frecuencia cero. La suma de correlación necesaria cambió de un par de escalares a un solo vector.

Cada franja de placa de zona tiene dos longitudes focales iguales pero de signo opuesto: una real, donde un haz que la atraviesa converge hacia un foco, y una virtual, donde otro haz parece haber divergido, más allá de la otra cara de la placa de zona. El componente de frecuencia cero ( polarización de CC ) no tiene punto focal, pero se superpone a los haces convergentes y divergentes. La clave para obtener, a partir del componente de onda convergente, imágenes enfocadas que no se superpongan con neblina no deseada de los otros dos es bloquear este último, permitiendo que solo el haz deseado pase a través de una apertura de selección de banda de frecuencia correctamente posicionada.

Cada rango de radar produce una franja de placa de zona con una longitud focal proporcional a ese rango. Este hecho se convirtió en una complicación principal en el diseño de procesadores ópticos . En consecuencia, las revistas técnicas de la época contienen una gran cantidad de material dedicado a formas de lidiar con la variación del enfoque con el rango.

Para lograr ese importante cambio de enfoque, la luz utilizada debía ser monocromática y coherente, propiedades que ya eran un requisito en la radiación del radar. Como los láseres también estaban en el futuro, la mejor aproximación disponible en ese momento a una fuente de luz coherente era la salida de una lámpara de vapor de mercurio , pasada a través de un filtro de color que coincidía con la banda verde del espectro de la lámpara y luego concentrada lo mejor posible en una abertura muy pequeña que limitaba el haz. Si bien la cantidad de luz resultante era tan débil que se tuvieron que utilizar tiempos de exposición muy largos, se montó a tiempo un correlador óptico funcional para usarlo cuando se dispusiera de los datos adecuados.

Aunque la creación de ese radar fue una tarea más sencilla basada en técnicas ya conocidas, ese trabajo exigía el logro de una linealidad de señal y una estabilidad de frecuencia que estaban en el extremo estado de la técnica. El Laboratorio de Radar diseñó y construyó un instrumento adecuado y se instaló en un avión C-46 ( Curtiss Commando ). Debido a que el avión fue cedido al WRRC por el Ejército de los EE. UU. y fue volado y mantenido por los propios pilotos y personal de tierra del WRRC, estuvo disponible para muchos vuelos en horarios que coincidían con las necesidades del Laboratorio de Radar, una característica importante para permitir la repetición frecuente de pruebas y la "depuración" del complejo equipo en continuo desarrollo. Por el contrario, el grupo de Illinois había utilizado un C-46 perteneciente a la Fuerza Aérea y volado por pilotos de la Fuerza Aérea solo mediante un acuerdo previo, lo que resultó, a los ojos de esos investigadores, en una limitación a una frecuencia menos que deseable de pruebas de vuelo de su equipo, por lo tanto, un ancho de banda bajo de retroalimentación de las pruebas. (El trabajo posterior con aviones Convair más nuevos continuó el control local del grupo de Michigan de los horarios de vuelo).

Resultados

La antena de 1,5 m de ancho elegida por Michigan, que era excedente de la Segunda Guerra Mundial, teóricamente tenía una capacidad de resolución de 1,5 m, pero al principio se utilizaron datos de solo el 10% del ancho del haz, ya que el objetivo en ese momento era demostrar una resolución de 15 m. Se entendió que una resolución más fina requeriría el desarrollo adicional de medios para detectar desviaciones de la aeronave con respecto a un rumbo y una trayectoria de vuelo ideales, y para usar esa información para hacer las correcciones necesarias en la orientación de la antena y en las señales recibidas antes del procesamiento. Después de numerosas pruebas en las que incluso una pequeña turbulencia atmosférica impidió que la aeronave volara lo suficientemente recta y nivelada para obtener buenos datos de 15 m, un vuelo antes del amanecer en agosto de 1957 [9] produjo una imagen similar a un mapa del área del aeropuerto de Willow Run que sí demostró una resolución de 15 m en algunas partes de la imagen, mientras que el ancho del haz iluminado allí era de 270 m. Aunque el Departamento de Defensa había considerado la posibilidad de finalizar el programa debido a lo que parecía ser una falta de resultados, ese primer éxito aseguró más financiación para continuar el desarrollo que condujera a soluciones a las necesidades reconocidas.

Primera imagen exitosa obtenida con un radar de apertura sintética aerotransportado enfocado: aeropuerto Willow Run y ​​alrededores, agosto de 1957. Imagen cortesía de la Universidad de Michigan.

Reconocimiento público

El principio SAR fue reconocido públicamente por primera vez a través de un comunicado de prensa de abril de 1960 sobre el sistema experimental AN/UPD-1 del ejército de los EE. UU., que consistía en un elemento aerotransportado fabricado por Texas Instruments e instalado en un avión Beech L-23D y una estación de procesamiento de datos terrestre móvil fabricada por WRRC e instalada en una camioneta militar. En ese momento, no se reveló la naturaleza del procesador de datos. Un artículo técnico en la revista del Grupo Profesional de Electrónica Militar del IRE ( Instituto de Ingenieros de Radio ) en febrero de 1961 [10] describía el principio SAR y las versiones C-46 y AN/UPD-1, pero no explicaba cómo se procesaban los datos ni que la capacidad de resolución máxima del UPD-1 era de aproximadamente 50 pies (15 m). Sin embargo, el número de junio de 1960 del Grupo Profesional de Teoría de la Información del IRE contenía un largo artículo [11] sobre "Sistemas de procesamiento y filtrado de datos ópticos" escrito por miembros del grupo de Michigan. Aunque no se hacía referencia al uso de esas técnicas para el radar, los lectores de ambas revistas podían comprender fácilmente la existencia de una conexión entre artículos que compartían algunos autores.

Vietnam

Se diseñó rápidamente un sistema operativo para ser transportado en una versión de reconocimiento del avión F-4 "Phantom" y se utilizó brevemente en Vietnam, donde no logró impresionar favorablemente a sus usuarios debido a la combinación de su baja resolución (similar a la del UPD-1), la naturaleza moteada de sus imágenes de onda coherente (similar a la moteada de las imágenes láser) y la escasa comprensión de la diferencia entre sus imágenes de alcance/alcance cruzado y las imágenes ópticas de ángulo/ángulo que son familiares para los intérpretes de fotografías militares. Las lecciones que proporcionó fueron bien aprendidas por los investigadores posteriores, los diseñadores de sistemas operativos, los instructores de interpretación de imágenes y los patrocinadores del Departamento de Defensa de un mayor desarrollo y adquisición.

Mejora posterior

En trabajos posteriores se logró finalmente alcanzar la capacidad latente de la técnica. Ese trabajo, basado en diseños avanzados de circuitos de radar y detección precisa de desviaciones del vuelo recto ideal, junto con procesadores ópticos más sofisticados que utilizan fuentes de luz láser y lentes muy grandes especialmente diseñadas hechas de vidrio notablemente transparente, permitió al grupo de Michigan avanzar la resolución del sistema, en intervalos de aproximadamente cinco años, primero a 15 pies (4,6 m), luego a 5 pies (1,5 m) y, a mediados de la década de 1970, a 1 pie (este último solo en intervalos de alcance muy cortos mientras el procesamiento aún se realizaba ópticamente). Los últimos niveles y el rango dinámico muy amplio asociado demostraron ser adecuados para identificar muchos objetos de interés militar, así como características del suelo, el agua, la vegetación y el hielo que estaban siendo estudiadas por una variedad de investigadores ambientales que tenían autorizaciones de seguridad que les permitían acceder a lo que entonces eran imágenes clasificadas. De manera similar, los sistemas operativos mejorados pronto siguieron a cada uno de esos pasos de resolución más fina.

Comparación de la primera imagen obtenida por SAR con una imagen posterior de resolución mejorada. Además, la fuente de luz para el procesamiento de datos se había cambiado de una lámpara de mercurio a un láser. Datos de la imagen cortesía de la Universidad de Michigan y Recursos Naturales de Canadá.

Incluso la etapa de resolución de 1,5 m (5 pies) había sobrepasado la capacidad de los tubos de rayos catódicos (limitados a unos 2000 elementos distinguibles a lo largo del diámetro de la pantalla) para ofrecer detalles lo suficientemente precisos como para captar señales en películas y, al mismo tiempo, cubrir franjas de amplio rango, y sobrepasó a los sistemas de procesamiento óptico de manera similar. Sin embargo, casi al mismo tiempo, las computadoras digitales finalmente se volvieron capaces de realizar el procesamiento sin limitaciones similares, y la consiguiente presentación de las imágenes en monitores de tubos de rayos catódicos en lugar de películas permitió un mejor control sobre la reproducción tonal y una medición de imágenes más conveniente.

La obtención de las mejores resoluciones a grandes distancias se vio facilitada por la incorporación de la capacidad de girar una antena aérea más grande para iluminar con más intensidad un área objetivo limitada de forma continua mientras se recopilaban datos en varios grados de aspecto, eliminando así la limitación anterior de resolución al ancho de la antena. Esto se denominó modo de foco, que ya no producía imágenes de franjas continuas sino, en cambio, imágenes de parches aislados de terreno.

Plataforma fuera de la atmósfera

Desde el comienzo del desarrollo de los sistemas SAR, se comprendió que la trayectoria orbital extremadamente suave de una plataforma fuera de la atmósfera la hacía ideal para su uso. Las primeras experiencias con satélites terrestres artificiales también habían demostrado que los cambios de frecuencia Doppler de las señales que viajaban a través de la ionosfera y la atmósfera eran lo suficientemente estables como para permitir que se lograra una resolución muy fina incluso a distancias de cientos de kilómetros. [12] Las primeras imágenes de la Tierra obtenidas por un sistema SAR desde el espacio fueron mostradas por un proyecto que ahora se conoce como Quill (desclasificado en 2012). [13]

Digitalización

Después de que se iniciara el trabajo inicial, varias de las capacidades para crear sistemas clasificados útiles no existieron hasta dos décadas después. Ese ritmo aparentemente lento de avances a menudo fue acompañado por el progreso de otras invenciones, como el láser, la computadora digital , la miniaturización de circuitos y el almacenamiento compacto de datos. Una vez que apareció el láser, el procesamiento óptico de datos se convirtió en un proceso rápido porque proporcionaba muchos canales analógicos paralelos, pero el diseño de cadenas ópticas adecuadas para hacer coincidir las longitudes focales de las señales con los rangos se realizó en muchas etapas y resultó que requería algunos componentes ópticos novedosos. Dado que el proceso dependía de la difracción de las ondas de luz, requería montajes antivibración , salas limpias y operadores altamente capacitados. Incluso en sus mejores momentos, su uso de CRT y película para el almacenamiento de datos impuso límites a la profundidad de rango de las imágenes.

En varias etapas, alcanzar las expectativas, a menudo demasiado optimistas, que se tenían sobre los equipos de computación digital resultó llevar mucho más tiempo del previsto. Por ejemplo, el sistema SEASAT estaba listo para orbitar antes de que estuviera disponible su procesador digital, por lo que se tuvo que utilizar un esquema de grabación y procesamiento óptico de rápido montaje para obtener una confirmación oportuna del funcionamiento del sistema. En 1978, la empresa aeroespacial canadiense MacDonald Dettwiler (MDA) desarrolló el primer procesador SAR digital . [14] Cuando finalmente se completó y se utilizó su procesador digital, el equipo digital de esa época tardaba muchas horas en crear una franja de imagen a partir de cada ejecución de unos pocos segundos de datos. [15] Aun así, si bien eso supuso un paso atrás en velocidad, fue un paso adelante en calidad de imagen. Los métodos modernos ahora proporcionan alta velocidad y alta calidad.

Recopilación de datos

Un modelo de un satélite de reconocimiento alemán SAR-Lupe dentro de un cohete Cosmos-3M.

Los aviones que sobrevuelan el terreno en cuestión pueden recopilar datos de gran precisión. En la década de 1980, como prototipo de instrumentos para volar en los transbordadores espaciales de la NASA, la NASA operó un radar de apertura sintética en un Convair 990 de la NASA . En 1986, este avión se incendió al despegar. En 1988, la NASA reconstruyó un SAR de banda C, L y P para volar en el avión DC-8 de la NASA . Llamado AIRSAR, voló misiones en sitios de todo el mundo hasta 2004. Otro avión de este tipo, el Convair 580 , fue volado por el Centro Canadiense de Teledetección hasta aproximadamente 1996, cuando fue entregado a Environment Canada por razones presupuestarias. La mayoría de las aplicaciones de topografía terrestre se llevan a cabo ahora mediante observación por satélite . Satélites como ERS-1 /2, JERS-1 , Envisat ASAR y RADARSAT-1 se lanzaron explícitamente para llevar a cabo este tipo de observación. Sus capacidades difieren, en particular en su apoyo a la interferometría, pero todos han recopilado enormes cantidades de datos valiosos. El transbordador espacial también transportó equipos de radar de apertura sintética durante las misiones SIR-A y SIR-B durante la década de 1980, las misiones Shuttle Radar Laboratory (SRL) en 1994 y la Shuttle Radar Topography Mission en 2000.

La Venera 15 y la Venera 16, seguidas más tarde por la sonda espacial Magallanes , mapearon la superficie de Venus durante varios años utilizando un radar de apertura sintética.

Titán – Característica en evolución en Ligeia Mare (SAR; 21 de agosto de 2014).

El radar de apertura sintética fue utilizado por primera vez por la NASA en el satélite oceanográfico Seasat del JPL en 1978 (esta misión también llevaba un altímetro y un dispersómetro ); luego se desarrolló más ampliamente en las misiones Spaceborne Imaging Radar (SIR) en el transbordador espacial en 1981, 1984 y 1994. La misión Cassini a Saturno utilizó SAR para mapear la superficie de la luna principal del planeta , Titán , cuya superficie está parcialmente oculta a la inspección óptica directa por la neblina atmosférica. El radar de sondeo SHARAD en el Mars Reconnaissance Orbiter y el instrumento MARSIS en Mars Express han observado lecho de roca debajo de la superficie del hielo polar de Marte y también indicaron la probabilidad de hielo de agua sustancial en las latitudes medias marcianas. El Lunar Reconnaissance Orbiter , lanzado en 2009, lleva un instrumento SAR llamado Mini-RF , que fue diseñado principalmente para buscar depósitos de hielo de agua en los polos de la Luna .

TitánLigeia Mare – SAR y vistas más claras y sin manchas.

El proyecto Mineseeker está diseñando un sistema para determinar si hay minas terrestres en ciertas regiones, basado en un dirigible que lleva un radar de apertura sintética de banda ultraancha. Las pruebas iniciales son prometedoras; el radar es capaz de detectar incluso minas de plástico enterradas.

La Oficina Nacional de Reconocimiento mantiene una flota de satélites de radar de apertura sintética (ahora desclasificados) comúnmente designados como Lacrosse u Onyx .

En febrero de 2009, el avión de vigilancia Sentinel R1 entró en servicio en la RAF, equipado con el sistema Airborne Stand-Off Radar ( ASTOR ) basado en SAR .

El sistema de satélites de reconocimiento militar SAR-Lupe de las Fuerzas Armadas alemanas ( Bundeswehr ) está plenamente operativo desde el 22 de julio de 2008.

A partir de enero de 2021, varias empresas comerciales comenzaron a lanzar constelaciones de satélites para recopilar imágenes SAR de la Tierra. [16]

Distribución de datos

Venecia, Italia, captada en 2023 por el satélite UMBRA

La instalación satelital de Alaska proporciona producción, archivo y distribución a la comunidad científica de productos y herramientas de datos SAR de misiones activas y pasadas, incluida la publicación en junio de 2013 de imágenes SAR de Seasat de hace 35 años recientemente procesadas.

El Centro de Teledetección Avanzada Tropical del Sudeste (CSTARS) transmite y procesa datos SAR (así como otros datos) de una variedad de satélites y brinda apoyo a la Escuela Rosenstiel de Ciencias Marinas, Atmosféricas y de la Tierra de la Universidad de Miami . El CSTARS también brinda apoyo a operaciones de socorro en casos de desastre, investigación oceanográfica y meteorológica y proyectos de investigación de seguridad portuaria y marítima.

Véase también

Referencias

  1. ^ "En memoria de Carl A. Wiley", AW Love, Boletín de la IEEE Antennas and Propagation Society , págs. 17-18, junio de 1985.
  2. ^ "Radares de apertura sintética: un paradigma para la evolución tecnológica", CA Wiley, IEEE Transactions on Aerospace and Electronic Systems, v. AES-21, n.º 3, págs. 440-443, mayo de 1985
  3. ^ Gart, Jason H. "La industria electrónica y aeroespacial en Arizona durante la Guerra Fría, 1945-1968: Motorola, Hughes Aircraft, Goodyear Aircraft". Tesis doctoral, Universidad Estatal de Arizona, 2006.
  4. ^ "Algunos desarrollos tempranos en sistemas de radar de apertura sintética", CW Sherwin, JP Ruina y RD Rawcliffe, IRE Transactions on Military Electronics , abril de 1962, págs. 111-115.
  5. ^ Este memorando fue uno de los 20 que se publicaron como volumen subsidiario de la siguiente referencia. No se ha localizado todavía ninguna copia no clasificada. Con suerte, algún lector de este artículo podrá encontrar alguna que aún exista.
  6. ^ "Problemas de vigilancia en el campo de batalla", Informe del Proyecto TEOTA (Los ojos del ejército), 1 de mayo de 1953, Oficina del Jefe de Comunicaciones. Centro de Información Técnica de Defensa (Documento AD 32532)
  7. ^ "Una técnica Doppler para obtener una resolución angular muy fina a partir de un radar aerotransportado de observación lateral" Informe del Proyecto Michigan No. 2144-5-T, Universidad de Michigan, Centro de Investigación Willow Run, julio de 1954. (Aún no se ha localizado ninguna copia desclasificada de este informe histórico originalmente confidencial).
  8. ^ "Una breve historia del Grupo de Óptica de los Laboratorios Willow Run", Emmett N. Leith, en Tendencias en Óptica: Investigación, Desarrollo y Aplicaciones (libro), Anna Consortini, Academic Press, San Diego: 1996.
  9. ^ "High-Resolution Radar Achievements During Preliminary Flight Tests", WA Blikken y GO Hall, Instituto de Ciencia y Tecnología, Universidad de Michigan, 1 de septiembre de 1957. Centro de Información Técnica de Defensa (Documento AD148507)
  10. ^ "Un sistema de inteligencia de combate con radar de alta resolución", LJ Cutrona, WE Vivian, EN Leith y G. O Hall; IRE Transactions on Military Electronics, abril de 1961, págs. 127-131
  11. ^ "Sistemas de procesamiento y filtrado de datos ópticos", LJ Cutrona, EN Leith, CJ Palermo y LJ Porcello; IRE Transactions on Information Theory, junio de 1960, págs. 386-400.
  12. ^ Un estudio experimental de fluctuaciones de fase rápidas inducidas a lo largo de una trayectoria de propagación de satélite a tierra, Porcello, LJ, Univ. de Michigan, abril de 1964
  13. ^ Robert L. Butterworth "Quill: el primer satélite con radar de imágenes"
  14. ^ "Observación de la Tierra y su entorno: estudio de misiones y sensores", Herbert J. Kramer
  15. ^ "Principios del radar de apertura sintética", SW McCandless y CR Jackson, Capítulo 1 del "SAR Marine Users Manual", NOAA, 2004, pág.11.
  16. ^ Debra, Werner (4 de enero de 2021). "Spacety comparte las primeras imágenes del pequeño satélite SAR de banda C". Noticias del espacio . Iceye de Finlandia opera cinco satélites SAR de banda X. Capella Space, con sede en San Francisco, comenzó a publicar imágenes en octubre de su primer satélite operativo, Sequoia, que también opera en banda X. Spacety planea construir, lanzar y operar una constelación de 56 pequeños satélites SAR.