stringtranslate.com

Detección comprimida

La detección comprimida (también conocida como detección por compresión , muestreo por compresión o muestreo disperso ) es una técnica de procesamiento de señales para adquirir y reconstruir eficientemente una señal , mediante la búsqueda de soluciones a sistemas lineales indeterminados . Esto se basa en el principio de que, mediante la optimización, la escasez de una señal se puede aprovechar para recuperarla de muchas menos muestras de las requeridas por el teorema de muestreo de Nyquist-Shannon . Hay dos condiciones bajo las cuales la recuperación es posible. [1] El primero es la dispersión , que requiere que la señal sea escasa en algún dominio. La segunda es la incoherencia, que se aplica mediante la propiedad isométrica, que es suficiente para señales escasas. [2] [3] La detección comprimida tiene aplicaciones, por ejemplo, en resonancia magnética, donde normalmente se cumple la condición de incoherencia. [4]

Descripción general

Un objetivo común del campo de la ingeniería del procesamiento de señales es reconstruir una señal a partir de una serie de mediciones de muestreo. En general, esta tarea es imposible porque no hay forma de reconstruir una señal durante los momentos en que no se mide la señal. Sin embargo, con conocimientos o suposiciones previas sobre la señal, resulta posible reconstruir perfectamente una señal a partir de una serie de mediciones (la adquisición de esta serie de mediciones se llama muestreo ). Con el tiempo, los ingenieros han mejorado su comprensión de qué supuestos son prácticos y cómo se pueden generalizar.

Uno de los primeros avances en el procesamiento de señales fue el teorema de muestreo de Nyquist-Shannon . Afirma que si la frecuencia más alta de una señal real es inferior a la mitad de la frecuencia de muestreo, entonces la señal se puede reconstruir perfectamente mediante interpolación sinc . La idea principal es que con un conocimiento previo sobre las limitaciones de las frecuencias de la señal, se necesitan menos muestras para reconstruir la señal.

Alrededor de 2004, Emmanuel Candès , Justin Romberg , Terence Tao y David Donoho demostraron que, dado el conocimiento sobre la escasez de una señal , la señal puede reconstruirse con incluso menos muestras de las que requiere el teorema de muestreo. [5] [6] Esta idea es la base de la sensación comprimida.

Historia

La detección comprimida se basa en técnicas que otros campos científicos han utilizado históricamente. [7] En estadística, el método de mínimos cuadrados se complementó con el -norm , que fue introducido por Laplace . Tras la introducción de la programación lineal y el algoritmo simplex de Dantzig , la norma se utilizó en estadística computacional . En teoría estadística, George W. Brown y escritores posteriores utilizaron la norma - sobre estimadores insesgados de mediana . Fue utilizado por Peter J. Huber y otros que trabajaban en estadísticas sólidas . La norma - también se utilizó en el procesamiento de señales, por ejemplo, en la década de 1970, cuando los sismólogos construyeron imágenes de capas reflectantes dentro de la Tierra basándose en datos que no parecían satisfacer el criterio de Nyquist-Shannon . [8] Se utilizó en búsqueda de coincidencias en 1993, el estimador LASSO por Robert Tibshirani en 1996 [9] y búsqueda de bases en 1998. [10] Hubo resultados teóricos que describían cuándo estos algoritmos recuperaban soluciones dispersas, pero el tipo y número requeridos de las mediciones fueron subóptimas y posteriormente mejoraron enormemente mediante la detección comprimida. [ cita necesaria ]

A primera vista, la detección comprimida podría parecer violar el teorema de muestreo , porque la detección comprimida depende de la escasez de la señal en cuestión y no de su frecuencia más alta. Esta es una idea errónea, porque el teorema de muestreo garantiza una reconstrucción perfecta dadas condiciones suficientes, no necesarias. Un método de muestreo fundamentalmente diferente del muestreo clásico de tasa fija no puede "violar" el teorema de muestreo. Las señales dispersas con componentes de alta frecuencia pueden submuestrearse en gran medida utilizando la detección comprimida en comparación con el muestreo clásico de velocidad fija. [11]

Método

Sistema lineal indeterminado

Un sistema indeterminado de ecuaciones lineales tiene más incógnitas que ecuaciones y generalmente tiene un número infinito de soluciones. La siguiente figura muestra un sistema de ecuaciones de este tipo para el que queremos encontrar una solución .

Sistema de ecuaciones lineales indeterminadas

Para elegir una solución para dicho sistema, se deben imponer restricciones o condiciones adicionales (como la suavidad), según corresponda. En la detección comprimida, se agrega la restricción de escasez, permitiendo solo soluciones que tengan un pequeño número de coeficientes distintos de cero. No todos los sistemas indeterminados de ecuaciones lineales tienen una solución dispersa. Sin embargo, si existe una solución única y dispersa para el sistema indeterminado, entonces el marco de detección comprimido permite la recuperación de esa solución.

Método de solución/reconstrucción.

Ejemplo de recuperación de una señal desconocida (línea gris) a partir de algunas mediciones (puntos negros) sabiendo que la señal es escasa en la base de los polinomios de Hermite (los puntos morados muestran los coeficientes recuperados).

La detección comprimida aprovecha la redundancia de muchas señales interesantes: no son puro ruido. En particular, muchas señales son dispersas , es decir, contienen muchos coeficientes cercanos o iguales a cero, cuando se representan en algún dominio. [12] Esta es la misma idea que se utiliza en muchas formas de compresión con pérdida .

La detección comprimida generalmente comienza con la toma de una combinación lineal ponderada de muestras, también denominadas mediciones de compresión, en una base diferente de aquella en la que se sabe que la señal es escasa. Los resultados encontrados por Emmanuel Candès , Justin Romberg , Terence Tao y David Donoho mostraron que el número de estas mediciones de compresión puede ser pequeño y aún contener casi toda la información útil. Por lo tanto, la tarea de convertir la imagen nuevamente al dominio deseado implica resolver una ecuación matricial indeterminada ya que el número de mediciones de compresión tomadas es menor que el número de píxeles de la imagen completa. Sin embargo, agregar la restricción de que la señal inicial es escasa permite resolver este sistema indeterminado de ecuaciones lineales .

La solución de mínimos cuadrados a tales problemas es minimizar la norma , es decir, minimizar la cantidad de energía en el sistema. Esto suele ser matemáticamente simple (implica solo una multiplicación de matrices por la pseudoinversa de la base muestreada). Sin embargo, esto conduce a resultados deficientes para muchas aplicaciones prácticas, para las cuales los coeficientes desconocidos tienen energía distinta de cero.

Para imponer la restricción de escasez al resolver el sistema indeterminado de ecuaciones lineales, se puede minimizar el número de componentes distintos de cero de la solución. David Donoho llamó "norma" a la función que cuenta el número de componentes distintos de cero de un vector . [nota 1]

Candès et al. demostró que para muchos problemas es probable que la norma sea equivalente a la norma , en un sentido técnico: este resultado de equivalencia permite resolver el problema, que es más fácil que el problema. Encontrar el candidato con la norma más pequeña se puede expresar con relativa facilidad como un programa lineal , para el cual ya existen métodos de solución eficientes. [14] Cuando las mediciones pueden contener una cantidad finita de ruido, se prefiere la eliminación de ruido de búsqueda de base a la programación lineal, ya que preserva la escasez frente al ruido y se puede resolver más rápido que un programa lineal exacto.

Reconstrucción CS basada en variación total

Motivación y aplicaciones.

Papel de la regularización de la televisión

La variación total puede verse como una función de valor real no negativa definida en el espacio de funciones de valor real (para el caso de funciones de una variable) o en el espacio de funciones integrables (para el caso de funciones de varias variables). . Especialmente para las señales, la variación total se refiere a la integral del gradiente absoluto de la señal. En la reconstrucción de señales e imágenes, se aplica como regularización de variación total donde el principio subyacente es que las señales con detalles excesivos tienen una variación total alta y que eliminar estos detalles, al tiempo que se retiene información importante como los bordes, reduciría la variación total de la señal y acercar la señal a la señal original del problema.

Para la reconstrucción de señales e imágenes se utilizan modelos de minimización. Otros enfoques también incluyen los mínimos cuadrados, como se analizó anteriormente en este artículo. Estos métodos son extremadamente lentos y devuelven una reconstrucción no tan perfecta de la señal. Los modelos actuales de regularización de CS intentan abordar este problema incorporando antecedentes de escasez de la imagen original, uno de los cuales es la variación total (TV). Los enfoques de televisión convencionales están diseñados para brindar soluciones constantes por partes. Algunos de ellos incluyen (como se analiza más adelante) la minimización restringida que utiliza un esquema iterativo. Este método, aunque rápido, conduce posteriormente a un suavizado excesivo de los bordes, lo que da como resultado bordes de imagen borrosos. [15] Se han implementado métodos de TV con reponderación iterativa para reducir la influencia de grandes magnitudes de valores de gradiente en las imágenes. Esto se ha utilizado en la reconstrucción por tomografía computarizada (TC) como un método conocido como variación total con preservación de bordes. Sin embargo, como las magnitudes de gradiente se utilizan para estimar los pesos de penalización relativos entre los términos de fidelidad de datos y regularización, este método no es robusto al ruido y los artefactos y no es lo suficientemente preciso para la reconstrucción de imágenes/señales de CS y, por lo tanto, no logra preservar estructuras más pequeñas.

El progreso reciente en este problema implica el uso de un refinamiento de TV iterativamente direccional para la reconstrucción de CS. [16] Este método tendría 2 etapas: la primera etapa estimaría y refinaría el campo de orientación inicial, que se define como una estimación inicial puntual ruidosa, a través de la detección de bordes, de la imagen dada. En la segunda etapa, se presenta el modelo de reconstrucción CS utilizando un regularizador de TV direccional. A continuación se proporcionan más detalles sobre estos enfoques basados ​​en TV (minimización de l1 reponderada iterativamente, TV que preserva los bordes y modelo iterativo que utiliza campo de orientación direccional y TV).

Enfoques existentes

Reponderado iterativamente 1 minimización
Método de minimización reponderado iterativamente para CS

En los modelos de reconstrucción CS que utilizan minimización restringida, [17] los coeficientes más grandes se penalizan fuertemente en la norma. Se propuso tener una formulación ponderada de minimización diseñada para penalizar más democráticamente los coeficientes distintos de cero. Se utiliza un algoritmo iterativo para construir los pesos apropiados. [18] Cada iteración requiere resolver un problema de minimización encontrando el mínimo local de una función de penalización cóncava que se parezca más a la norma. Se introduce un parámetro adicional en la ecuación iterativa, generalmente para evitar transiciones bruscas en la curva de la función de penalización, para garantizar la estabilidad y para que una estimación cero en una iteración no conduzca necesariamente a una estimación cero en la siguiente iteración. Básicamente, el método implica utilizar la solución actual para calcular los pesos que se utilizarán en la siguiente iteración.

Ventajas y desventajas

Las primeras iteraciones pueden encontrar estimaciones de muestra inexactas; sin embargo, este método las reducirá en una etapa posterior para dar más peso a las estimaciones de señales más pequeñas distintas de cero. Una de las desventajas es la necesidad de definir un punto de partida válido, ya que es posible que no siempre se obtenga un mínimo global debido a la concavidad de la función. Otra desventaja es que este método tiende a penalizar uniformemente el gradiente de la imagen independientemente de las estructuras de la imagen subyacente. Esto provoca un suavizado excesivo de los bordes, especialmente los de las regiones de bajo contraste, lo que posteriormente conduce a la pérdida de información de bajo contraste. Las ventajas de este método incluyen: reducción de la tasa de muestreo para señales dispersas; reconstrucción de la imagen siendo resistente a la eliminación de ruido y otros artefactos; y uso de muy pocas iteraciones. Esto también puede ayudar a recuperar imágenes con gradientes escasos.

En la figura que se muestra a continuación, P1 se refiere al primer paso del proceso de reconstrucción iterativo de la matriz de proyección P de la geometría del haz de abanico, que está limitada por el término de fidelidad de los datos. Esto puede contener ruido y artefactos ya que no se realiza ninguna regularización. La minimización de P1 se resuelve mediante el método de mínimos cuadrados del gradiente conjugado. P2 se refiere al segundo paso del proceso de reconstrucción iterativo en el que utiliza el término de regularización de variación total que preserva los bordes para eliminar ruido y artefactos y así mejorar la calidad de la imagen/señal reconstruida. La minimización de P2 se realiza mediante un método simple de descenso de gradiente. La convergencia se determina probando, después de cada iteración, la positividad de la imagen, comprobando si es para el caso en el que (tenga en cuenta que se refiere a los diferentes coeficientes de atenuación lineal de rayos X en diferentes vóxeles de la imagen del paciente).

Detección comprimida basada en variación total (TV) que preserva los bordes
Figura del diagrama de flujo para el método de variación total de conservación de bordes para detección comprimida

Este es un algoritmo iterativo de reconstrucción de TC con regularización de TV que preserva los bordes para reconstruir imágenes de TC a partir de datos muy submuestreados obtenidos con TC de dosis baja a través de niveles de corriente bajos (miliamperios). Para reducir la dosis de imagen, uno de los enfoques utilizados es reducir el número de proyecciones de rayos X adquiridas por los detectores del escáner. Sin embargo, estos datos de proyección insuficientes que se utilizan para reconstruir la imagen de TC pueden provocar artefactos de rayas. Además, el uso de estas proyecciones insuficientes en los algoritmos de televisión estándar termina por infradeterminar el problema y, por lo tanto, conduce a infinitas soluciones posibles. En este método, se asigna una función ponderada de penalización adicional a la norma TV original. Esto permite una detección más fácil de discontinuidades marcadas en la intensidad de las imágenes y, por lo tanto, adapta el peso para almacenar la información del borde recuperada durante el proceso de reconstrucción de la señal/imagen. El parámetro controla la cantidad de suavizado aplicado a los píxeles en los bordes para diferenciarlos de los píxeles que no están en los bordes. El valor de se cambia de forma adaptativa en función de los valores del histograma de la magnitud del gradiente para que un cierto porcentaje de píxeles tenga valores de gradiente mayores que . Por lo tanto, el término de variación total que preserva los bordes se vuelve más escaso y esto acelera la implementación. Se utiliza un proceso de iteración de dos pasos conocido como algoritmo de división hacia adelante y hacia atrás. [19] El problema de optimización se divide en dos subproblemas que luego se resuelven con el método de mínimos cuadrados de gradiente conjugado [20] y el método de descenso de gradiente simple, respectivamente. El método se detiene cuando se logra la convergencia deseada o se alcanza el número máximo de iteraciones. [15]

Ventajas y desventajas

Algunas de las desventajas de este método son la ausencia de estructuras más pequeñas en la imagen reconstruida y la degradación de la resolución de la imagen. Sin embargo, este algoritmo de TV que preserva los bordes requiere menos iteraciones que el algoritmo de TV convencional. [15] Al analizar los perfiles de intensidad horizontal y vertical de las imágenes reconstruidas, se puede ver que hay saltos bruscos en los puntos del borde y fluctuaciones menores e insignificantes en los puntos que no están en el borde. Por lo tanto, este método conduce a un error relativo bajo y una correlación más alta en comparación con el método TV. También suprime y elimina eficazmente cualquier forma de ruido de la imagen y artefactos de la imagen, como rayas.

Modelo iterativo que utiliza un campo de orientación direccional y variación total direccional.

Para evitar el suavizado excesivo de los bordes y los detalles de la textura y para obtener una imagen CS reconstruida que sea precisa y resistente al ruido y los artefactos, se utiliza este método. Primero, se obtiene una estimación inicial del campo de orientación puntual ruidoso de la imagen . Este campo de orientación ruidoso se define para que pueda perfeccionarse en una etapa posterior para reducir las influencias del ruido en la estimación del campo de orientación. Luego se introduce una estimación aproximada del campo de orientación basada en el tensor de estructura, que se formula como: [21] . Aquí, se refiere al tensor de estructura relacionado con el punto de píxel de la imagen (i, j) que tiene una desviación estándar . se refiere al núcleo gaussiano con desviación estándar . se refiere al parámetro definido manualmente para la imagen debajo del cual la detección de bordes es insensible al ruido. se refiere al gradiente de la imagen y se refiere al producto tensor obtenido al usar este gradiente. [dieciséis]

El tensor de estructura obtenido se convoluciona con un núcleo gaussiano para mejorar la precisión de la estimación de la orientación al establecer valores altos para tener en cuenta los niveles de ruido desconocidos. Para cada píxel (i,j) de la imagen, el tensor de estructura J es una matriz semidefinida simétrica y positiva. Al convolucionar todos los píxeles de la imagen con , se obtienen los vectores propios ortonormales ω y υ de la matriz. ω apunta en la dirección de la orientación dominante que tiene el mayor contraste y υ apunta en la dirección de la orientación de la estructura que tiene el menor contraste. La estimación inicial aproximada del campo de orientación se define como = υ. Esta estimación es precisa en bordes fuertes. Sin embargo, en bordes débiles o en regiones con ruido, su confiabilidad disminuye.

Para superar este inconveniente, se define un modelo de orientación refinado en el que el término de datos reduce el efecto del ruido y mejora la precisión, mientras que el segundo término de penalización con la norma L2 es un término de fidelidad que garantiza la precisión de la estimación aproximada inicial.

Este campo de orientación se introduce en el modelo de optimización de variación total direccional para la reconstrucción de CS mediante la ecuación: . es la señal objetiva que necesita ser recuperada. Y es el vector de medición correspondiente, d es el campo de orientación refinado iterativo y es la matriz de medición CS. Este método sufre algunas iteraciones que finalmente conducen a la convergencia. es la estimación aproximada del campo de orientación de la imagen reconstruida de la iteración anterior (para comprobar la convergencia y el rendimiento óptico posterior, se utiliza la iteración anterior). Para los dos campos vectoriales representados por y , se refiere a la multiplicación de los respectivos elementos vectoriales horizontales y verticales de y seguida de su posterior suma. Estas ecuaciones se reducen a una serie de problemas de minimización convexa que luego se resuelven con una combinación de métodos de división de variables y métodos lagrangianos aumentados (solución rápida basada en FFT con una solución de forma cerrada). [16] (Lagrangiano aumentado) se considera equivalente a la iteración dividida de Bregman que garantiza la convergencia de este método. El campo de orientación, d, se define como igual a , donde se definen las estimaciones horizontales y verticales de .

Método lagrangiano aumentado para campos de orientación y modelos iterativos de refinamiento de campos direccionales

El método lagrangiano aumentado para el campo de orientación, implica inicializar y luego encontrar el minimizador aproximado de con respecto a estas variables. Luego se actualizan los multiplicadores lagrangianos y el proceso iterativo se detiene cuando se logra la convergencia. Para el modelo iterativo de refinamiento de variación total direccional, el método lagrangiano aumentado implica la inicialización . [22]

Aquí, hay variables recientemente introducidas donde = , = , = y = . son los multiplicadores lagrangianos para . Para cada iteración se calcula el minimizador aproximado de con respecto a las variables ( ). Y al igual que en el modelo de refinamiento de campos, los multiplicadores lagrangianos se actualizan y el proceso iterativo se detiene cuando se logra la convergencia.

Para el modelo de refinamiento del campo de orientación, los multiplicadores lagrangianos se actualizan en el proceso iterativo de la siguiente manera:

Para el modelo iterativo de refinamiento de variación total direccional, los multiplicadores lagrangianos se actualizan de la siguiente manera:

Aquí hay constantes positivas.

Ventajas y desventajas

Con base en las métricas de la relación señal-ruido máxima (PSNR) y el índice de similitud estructural (SSIM) e imágenes de verdad conocidas para probar el rendimiento, se concluye que la variación total direccional iterativa tiene un mejor rendimiento reconstruido que los métodos no iterativos en preservando las áreas de bordes y texturas. El modelo de refinamiento del campo de orientación desempeña un papel importante en esta mejora del rendimiento, ya que aumenta el número de píxeles sin dirección en el área plana y, al mismo tiempo, mejora la coherencia del campo de orientación en las regiones con bordes.

Aplicaciones

El campo de la detección de compresión está relacionado con varios temas del procesamiento de señales y las matemáticas computacionales, como sistemas lineales indeterminados , pruebas grupales , pesos pesados, codificación dispersa , multiplexación , muestreo disperso y tasa finita de innovación. Su amplio alcance y generalidad han permitido varios enfoques innovadores mejorados por CS en el procesamiento y compresión de señales, solución de problemas inversos, diseño de sistemas radiantes, imágenes de radar y a través de la pared, y caracterización de antenas. [23] Las técnicas de imágenes que tienen una fuerte afinidad con la detección de compresión incluyen la apertura codificada y la fotografía computacional .

La reconstrucción CS convencional utiliza señales escasas (generalmente muestreadas a una velocidad menor que la frecuencia de muestreo de Nyquist) para la reconstrucción mediante minimización restringida. Una de las primeras aplicaciones de este enfoque fue en la sismología de reflexión, que utilizaba señales reflejadas escasas de datos de banda limitada para rastrear los cambios entre las capas del subsuelo. [24] Cuando el modelo LASSO cobró importancia en la década de 1990 como método estadístico para la selección de modelos dispersos, [25] este método se utilizó aún más en el análisis armónico computacional para la representación de señales dispersas de diccionarios demasiado completos. Algunas de las otras aplicaciones incluyen el muestreo incoherente de pulsos de radar. El trabajo de Boyd et al. [17] ha aplicado el modelo LASSO, para la selección de modelos dispersos, hacia convertidores analógicos a digitales (los actuales utilizan una frecuencia de muestreo superior a la frecuencia de Nyquist junto con la representación cuantificada de Shannon). Esto implicaría una arquitectura paralela en la que la polaridad de la señal analógica cambia a un ritmo elevado seguido de la digitalización de la integral al final de cada intervalo de tiempo para obtener la señal digital convertida.

Fotografía

La detección comprimida se ha utilizado en un sensor de cámara de teléfono móvil experimental. El enfoque permite una reducción de la energía de adquisición de imágenes por imagen hasta en un factor de 15 a costa de complejos algoritmos de descompresión; el cálculo puede requerir una implementación fuera del dispositivo. [26]

La detección comprimida se utiliza en cámaras de un solo píxel de la Universidad Rice . [27] Bell Labs empleó la técnica en una cámara de un solo píxel sin lente que toma fotografías usando instantáneas repetidas de aperturas elegidas al azar de una cuadrícula. La calidad de la imagen mejora con la cantidad de instantáneas y generalmente requiere una pequeña fracción de los datos de las imágenes convencionales, al tiempo que elimina las aberraciones relacionadas con la lente y el enfoque. [28] [29]

Holografía

La detección comprimida se puede utilizar para mejorar la reconstrucción de imágenes en holografía aumentando la cantidad de vóxeles que se pueden inferir de un solo holograma. [30] [31] [32] También se utiliza para la recuperación de imágenes a partir de mediciones submuestreadas en holografía óptica [33] [34] y de ondas milimétricas [35] .

Reconocimiento facial

La detección comprimida se ha utilizado en aplicaciones de reconocimiento facial . [36]

Imagen de resonancia magnética

Se ha utilizado la detección comprimida [37] [38] para acortar las sesiones de exploración de imágenes por resonancia magnética en hardware convencional. [39] [40] [41] Los métodos de reconstrucción incluyen

La detección comprimida aborda el problema del tiempo de escaneo elevado al permitir una adquisición más rápida al medir menos coeficientes de Fourier. Esto produce una imagen de alta calidad con un tiempo de escaneo relativamente menor. Otra aplicación (que también se analiza más adelante) es la reconstrucción por TC con menos proyecciones de rayos X. La detección comprimida, en este caso, elimina las partes de alto gradiente espacial, principalmente el ruido de la imagen y los artefactos. Esto tiene un enorme potencial, ya que se pueden obtener imágenes de TC de alta resolución con bajas dosis de radiación (mediante ajustes de corriente-mA más bajos). [45]

Tomografía en red

La detección comprimida ha mostrado resultados sobresalientes en la aplicación de la tomografía de red a la gestión de redes . La estimación del retraso de la red y la detección de la congestión de la red pueden modelarse como sistemas indeterminados de ecuaciones lineales donde la matriz de coeficientes es la matriz de enrutamiento de la red. Además, en Internet , las matrices de enrutamiento de red generalmente satisfacen el criterio para utilizar detección comprimida. [46]

Cámaras infrarrojas de onda corta

En 2013, una empresa anunció cámaras infrarrojas de onda corta que utilizan sensores comprimidos. [47] Estas cámaras tienen una sensibilidad a la luz de 0,9  μm a 1,7 μm, longitudes de onda invisibles para el ojo humano.

Astronomía de síntesis de apertura.

En radioastronomía e interferometría astronómica óptica , la cobertura total del plano de Fourier suele estar ausente y no se obtiene información de fase en la mayoría de las configuraciones de hardware. Para obtener imágenes de síntesis de apertura , se emplean varios algoritmos de detección comprimidos. [48] ​​El algoritmo Högbom CLEAN se utiliza desde 1974 para la reconstrucción de imágenes obtenidas de radiointerferómetros, que es similar al algoritmo de búsqueda de coincidencias mencionado anteriormente.

Microscopio de transmisión por electrones

Se ha utilizado la detección comprimida combinada con una apertura móvil para aumentar la tasa de adquisición de imágenes en un microscopio electrónico de transmisión . [49] En el modo de escaneo , la detección de compresión combinada con el escaneo aleatorio del haz de electrones ha permitido una adquisición más rápida y una menor dosis de electrones, lo que permite obtener imágenes de materiales sensibles al haz de electrones. [50]

Ver también

Notas

  1. ^ Las comillas sirvieron para dos advertencias. Primero, la "norma" del número de ceros no es una norma F adecuada , porque no es continua en su argumento escalar: nnzsx ) es constante cuando α se aproxima a cero. Desafortunadamente, los autores ahora descuidan las comillas y la terminología abusada , chocando con el uso establecido de la norma para el espacio de funciones mensurables (equipadas con una métrica apropiada) o para el espacio de secuencias con F–norm . [13]

Referencias

  1. ^ CS: Genotipado comprimido, Sudoku de ADN: aprovechamiento de la secuenciación de alto rendimiento para análisis de muestras multiplexadas.
  2. ^ Donoho, David L. (2006). "Para la mayoría de los grandes sistemas indeterminados de ecuaciones lineales, la solución mínima de 1 norma es también la solución más escasa". Comunicaciones sobre Matemática Pura y Aplicada . 59 (6): 797–829. doi :10.1002/cpa.20132. S2CID  8510060.
  3. ^ M. Davenport, "Los fundamentos de la detección de compresión", SigView, 12 de abril de 2013.
  4. ^ Candès, EJ y Plan, Y. (2010). Una teoría probabilística y sin RIP de la detección comprimida. Transacciones IEEE sobre teoría de la información, 57, 7235-7254.
  5. ^ Candès, Emmanuel J.; Romberg, Justin K.; Tao, Terence (2006). "Recuperación de señal estable de mediciones incompletas e inexactas" (PDF) . Comunicaciones sobre Matemática Pura y Aplicada . 59 (8): 1207-1223. arXiv : matemáticas/0503066 . Código Bib : 2005 matemáticas ...... 3066C. doi :10.1002/cpa.20124. S2CID  119159284. Archivado desde el original (PDF) el 11 de marzo de 2012 . Consultado el 10 de febrero de 2011 .
  6. ^ Donoho, DL (2006). "Detección comprimida". Transacciones IEEE sobre teoría de la información . 52 (4): 1289-1306. doi :10.1109/TIT.2006.871582. S2CID  206737254.
  7. ^ Lista de ideas de regularización L1 de Vivek Goyal, Alyson Fletcher, Sundeep Rangan, The Optimistic Bayesian: Análisis del método de réplica de la detección comprimida
  8. ^ Hayes, Brian (2009). "Las mejores partes". Científico americano . 97 (4): 276. doi :10.1511/2009.79.276. S2CID  349102.
  9. ^ Tibshirani, Robert. "Regresión, contracción y selección mediante el lazo". Revista de la Royal Statistical Society, Serie B. 58 (1): 267–288.
  10. ^ "Descomposición atómica por búsqueda de bases", por Scott Shaobing Chen, David L. Donoho, Michael, A. Saunders. Revista SIAM de Computación Científica
  11. ^ Candès, Emmanuel J.; Romberg, Justin K.; Tao, Terence (2006). "Principios sólidos de incertidumbre: reconstrucción de señales exactas a partir de información de Fourier altamente incompleta" (PDF) . Traducción IEEE. inf. Teoría . 52 (8): 489–509. arXiv : matemáticas/0409186 . CiteSeerX 10.1.1.122.4429 . doi :10.1109/tit.2005.862083. S2CID  7033413. 
  12. ^ Candès, EJ y Wakin, MB, Introducción al muestreo por compresión , Revista IEEE Signal Processing, V.21, marzo de 2008 [1]
  13. ^ Stefan Rolewicz. Espacios lineales métricos .
  14. ^ L1-MAGIC es una colección de rutinas MATLAB
  15. ^ abcTian , ​​Z.; Jia, X.; Yuan, K.; Pantalón.; Jiang, SB (2011). "Reconstrucción por TC de dosis baja mediante regularización total de la variación preservando el borde". Phys Med Biol . 56 (18): 5949–5967. arXiv : 1009.2288 . Código Bib : 2011PMB....56.5949T. doi :10.1088/0031-9155/56/18/011. PMC 4026331 . PMID  21860076. 
  16. ^ abc Xuan Fei; Zhihui Wei; Liang Xiao (2013). "Refinamiento de la variación total direccional iterativa para la reconstrucción de imágenes con detección de compresión". Cartas de procesamiento de señales IEEE . 20 (11): 1070–1073. Código Bib : 2013ISPL...20.1070F. doi :10.1109/LSP.2013.2280571. S2CID  8156085.
  17. ^ ab Candes, EJ; Wakin, MB; Boyd, SP (2008). "Mejora de la escasez mediante la minimización de l1 reponderada". J. Fourier Anal. Solicitud . 14 (5–6): 877–905. arXiv : 0711.1612 . doi :10.1007/s00041-008-9045-x. S2CID  5879257.
  18. ^ Lange, K.: Optimización, Springer Texts in Statistics. Springer, Nueva York (2004)
  19. ^ Combettes, P; Wajs, V (2005). "Recuperación de señal mediante división proximal hacia adelante y hacia atrás". Modelo multiescala simultáneo . 4 (4): 1168–200. doi :10.1137/050626090. S2CID  15064954.
  20. ^ Hestenes, M; Stiefel, E (1952). "Métodos de gradientes conjugados para la resolución de sistemas lineales". Revista de Investigación de la Oficina Nacional de Normas . 49 (6): 409–36. doi : 10.6028/jres.049.044 .
  21. ^ Brox, T.; Weickert, J.; Burgeth, B.; Mrázek, P. (2006). "Tensores de estructura no lineal". Imagen Vis. Computación . 24 (1): 41–55. CiteSeerX 10.1.1.170.6085 . doi :10.1016/j.imavis.2005.09.010. 
  22. ^ Goldluecke, B.; Strekalovskiy, E.; Cremers, D.; Siims, P.-TAI (2012). "La variación total vectorial natural que surge de la teoría de la medida geométrica". SIAM J. Ciencia de la imagen . 5 (2): 537–563. CiteSeerX 10.1.1.364.3997 . doi :10.1137/110823766. 
  23. ^ Andrea Massa; Paolo Rocca; Giacomo Oliveri (2015). "Detección de compresión en electromagnético: una revisión". Revista IEEE Antenas y Propagación . 57 (1): 224–238. Código Bib : 2015IAPM...57..224M. doi :10.1109/MAP.2015.2397092. S2CID  30196057.
  24. ^ Taylor, HL; Bancos, Carolina del Sur; McCoy, JF (1979). "Deconvolución con la norma 1". Geofísica . 44 (1): 39–52. doi :10.1190/1.1440921.
  25. ^ Tibshirani, R (1996). "Regresión, contracción y selección mediante el lazo" (PDF) . Estadística JR. Soc. B . 58 (1): 267–288. doi :10.1111/j.2517-6161.1996.tb02080.x. S2CID  16162039.
  26. ^ David Schneider (marzo de 2013). "El nuevo chip de la cámara captura sólo lo que necesita". Espectro IEEE . Consultado el 20 de marzo de 2013 .
  27. ^ "Imágenes compresivas: una nueva cámara de un solo píxel". DSP de arroz . Archivado desde el original el 5 de junio de 2010 . Consultado el 4 de junio de 2013 .
  28. ^ "Bell Labs inventa la cámara sin lentes". Revisión de tecnología del MIT . 2013-05-25. Archivado desde el original el 20 de enero de 2016 . Consultado el 4 de junio de 2013 .
  29. ^ Pandilla Huang; Hong Jiang; Kim Matthews; Paul Wilford (2013). Imágenes sin lentes mediante detección de compresión . Conferencia internacional IEEE 2013 sobre procesamiento de imágenes. vol. 2393, págs. 2101-2105. arXiv : 1305.7181 . Código Bib : 2013arXiv1305.7181H. doi :10.1109/ICIP.2013.6738433. ISBN 978-1-4799-2341-0.
  30. ^ Brady, David; Choi, Kerkil; Marcos, Daniel; Horisaki, Ryoichi; Lim, Sehoon (2009). "Holografía compresiva". Óptica Express . 17 (15): 13040–13049. Código Bib : 2009OExpr..1713040B. doi : 10.1364/oe.17.013040 . PMID  19654708.
  31. ^ Rivenson, Y.; popa, A.; Javidi, B. (2010). "Holografía compresiva de Fresnel". Revista de tecnología de visualización . 6 (10): 506–509. Código Bib : 2010JDisT...6..506R. CiteSeerX 10.1.1.391.2020 . doi :10.1109/jdt.2010.2042276. S2CID  7460759. 
  32. ^ Denis, Loic; Lorenz, Dirk; Thibaut, Eric; Fournier, Corinne; Trede, Dennis (2009). "Reconstrucción de hologramas en línea con restricciones de escasez" (PDF) . Optar. Lett . 34 (22): 3475–3477. Código Bib : 2009OptL...34.3475D. doi :10.1364/ol.34.003475. PMID  19927182. S2CID  14377881.
  33. ^ Marim, M.; Angelini, E.; Olivo-Marín, JC; Atlán, M. (2011). "Microscopía holográfica comprimida fuera de eje en condiciones de poca luz". Letras de Óptica . 36 (1): 79–81. arXiv : 1101.1735 . Código Bib : 2011 OptL...36...79M. doi :10.1364/ol.36.000079. PMID  21209693. S2CID  24074045.
  34. ^ Marim, MM; Atlan, M.; Angelini, E.; Olivo-Marín, JC (2010). "Detección comprimida con holografía de cambio de frecuencia fuera del eje". Letras de Óptica . 35 (6): 871–873. arXiv : 1004.5305 . Código Bib : 2010OptL...35..871M. doi :10.1364/ol.35.000871. PMID  20237627. S2CID  9738556.
  35. ^ Fernández Cull, Christy; Wikner, David A.; Mait, José N.; Mattheiss, Michael; Brady, David J. (2010). "Holografía compresiva de ondas milimétricas". Aplica. Optar . 49 (19): E67-E82. Código Bib : 2010ApOpt..49E..67C. CiteSeerX 10.1.1.1018.5231 . doi :10.1364/ao.49.000e67. PMID  20648123. 
  36. ^ "Los ingenieros prueban el reconocimiento facial de alta precisión". Cableado . 2008-03-24. Archivado desde el original el 10 de enero de 2014.
  37. ^ Lustig, Michael (2007). "Resonancia magnética dispersa: la aplicación de detección comprimida para imágenes de resonancia magnética rápidas". Resonancia Magnética en Medicina . 58 (6): 1182-1195. doi : 10.1002/mrm.21391 . PMID  17969013. S2CID  15370510.
  38. ^ Lustig, M.; Donoho, DL; Santos, JM; Pauly, JM (2008). "Resonancia magnética con detección comprimida". Revista de procesamiento de señales IEEE . 25 (2): 72–82. Código Bib : 2008 ISPM...25...72L. doi :10.1109/MSP.2007.914728. S2CID  945906.
  39. ^ Jordan Ellenberg Autor de correo electrónico (4 de marzo de 2010). "Rellene los espacios en blanco: uso de las matemáticas para convertir conjuntos de datos de baja resolución en muestras de alta resolución | Revista Wired". Cableado . vol. 18, núm. 3 . Consultado el 4 de junio de 2013 . {{cite magazine}}: |author=tiene nombre genérico ( ayuda )
  40. ^ Por qué la detección comprimida NO es una tecnología de "mejora" de CSI... ¡todavía!
  41. ^ Seguramente debe estar bromeando, señor guionista.
  42. ^ Zhang, Y.; Peterson, B. (2014). "Muestreo de energía preservada para resonancia magnética con detección comprimida". Métodos Computacionales y Matemáticos en Medicina . 2014 : 546814. arXiv : 1501.03915 . Código Bib : 2015CMMM.201514104T. doi : 10.1155/2014/546814 . PMC 4058219 . PMID  24971155. 
  43. ^ Zhang, Y. (2015). "Algoritmo de umbral de contracción iterativa de ondas exponenciales para imágenes de resonancia magnética de detección comprimida". Ciencias de la Información . 322 : 115-132. doi :10.1016/j.ins.2015.06.017.
  44. ^ Zhang, Y.; Wang, S. (2015). "Algoritmo de umbral de contracción iterativo de ondas exponenciales con desplazamiento aleatorio para imágenes de resonancia magnética de detección comprimida". Transacciones IEEJ sobre Ingeniería Eléctrica y Electrónica . 10 (1): 116–117. doi :10.1002/tee.22059. S2CID  109854375.
  45. ^ Figueiredo, M.; Bioucas-Días, JM; Nowak, RD (2007). "Algoritmos de mayorización-minimización para la restauración de imágenes basadas en wavelets". Traducción IEEE. Proceso de imagen . 16 (12): 2980–2991. Código Bib : 2007ITIP...16.2980F. doi :10.1109/tip.2007.909318. PMID  18092597. S2CID  8160052.
  46. ^ [Tomografía en red mediante detección comprimida | http://www.ee.washington.edu/research/funlab/Publications/2010/CS-Tomo.pdf]
  47. ^ "Sitio web de InView". inviewcorp.com . Archivado desde el original el 31 de marzo de 2013.
  48. ^ Técnicas de imágenes de detección comprimidas para radiointerferometría.
  49. ^ Stevens, Andrés; Kovarik, Libor; Abellán, Patricia; Yuan, Xin; Carín, Lawrence; Browning, Nigel D. (13 de agosto de 2015). "Aplicar detección de compresión al vídeo TEM: un aumento sustancial de la velocidad de fotogramas en cualquier cámara". Imágenes estructurales y químicas avanzadas . 1 (1). doi : 10.1186/s40679-015-0009-3 .
  50. ^ Kovarik, L.; Stevens, A.; Liyu, A.; Browning, ND (17 de octubre de 2016). "Implementación de un enfoque de muestreo disperso rápido y preciso para imágenes STEM de resolución atómica de dosis baja". Letras de Física Aplicada . 109 (16): 164102. Código bibliográfico : 2016ApPhL.109p4102K. doi :10.1063/1.4965720.

Otras lecturas