stringtranslate.com

Imágenes de difracción coherente

Patrón de difracción de un nanocristal de oro formado a partir de un haz de rayos X coherentes de área nanométrica. Esta imagen de difracción espacial recíproca fue tomada por el grupo de Ian Robinson para ser utilizada en la reconstrucción de una imagen de difracción de rayos X coherente espacial real en 2007.

La imagen difractiva coherente ( CDI ) es una técnica "sin lentes" para la reconstrucción 2D o 3D de la imagen de estructuras a nanoescala como nanotubos, [1] nanocristales, [2] capas nanocristalinas porosas, [3] defectos, [4] potencialmente proteínas, [5] y más. [5] En CDI, un haz altamente coherente de rayos X , electrones u otra partícula o fotón en forma de onda incide sobre un objeto.

El haz dispersado por el objeto produce un patrón de difracción que luego es recogido por un detector. Este patrón registrado se utiliza para reconstruir una imagen a través de un algoritmo de retroalimentación iterativo. En efecto, la lente del objetivo en un microscopio típico se reemplaza con un software para convertir el patrón de difracción del espacio recíproco en una imagen del espacio real. La ventaja de no utilizar lentes es que la imagen final está libre de aberraciones y, por lo tanto, la resolución solo está limitada por la difracción y la dosis (dependiendo de la longitud de onda , el tamaño de la apertura y la exposición). Aplicar una simple transformada inversa de Fourier a la información que solo tiene intensidades es insuficiente para crear una imagen a partir del patrón de difracción debido a la falta de información de fase. Esto se llama el problema de la fase .

Proceso de toma de imágenes

El proceso general de obtención de imágenes se puede dividir en cuatro pasos simples: 1. El haz coherente se dispersa desde la muestra. 2. Se mide el módulo de la transformada de Fourier. 3. Se utilizan algoritmos computacionales para recuperar las fases. 4. Se recupera la imagen mediante la transformada de Fourier inversa.

En la CDI, la lente del objetivo que se utiliza en un microscopio tradicional se reemplaza por algoritmos computacionales y software que pueden convertir el espacio recíproco en espacio real. El patrón de difracción que capta el detector se encuentra en el espacio recíproco, mientras que la imagen final debe estar en el espacio real para que sea útil para el ojo humano.

Para empezar, una fuente de luz altamente coherente de rayos X, electrones u otras partículas ondulatorias debe incidir sobre un objeto. Este haz, aunque popularmente se denomina rayos X, tiene el potencial de estar compuesto de electrones debido a su longitud de onda general reducida; esta longitud de onda más baja permite una mayor resolución y, por lo tanto, una imagen final más clara. Sin embargo, los haces de electrones tienen una profundidad de penetración limitada en comparación con los rayos X, ya que los electrones tienen una masa inherente. Debido a esta luz incidente, se ilumina un punto en el objeto que se está detectando y se refleja en su superficie. Luego, el haz se dispersa por el objeto produciendo un patrón de difracción representativo de la transformada de Fourier del objeto. Luego, el detector recopila el patrón de difracción complejo y evalúa la transformada de Fourier de todas las características que existen en la superficie del objeto. Al introducir la información de difracción en el dominio de la frecuencia, la imagen no es detectable por el ojo humano y, por lo tanto, es muy diferente de lo que estamos acostumbrados a observar utilizando técnicas de microscopía normales.

Luego se crea una imagen reconstruida mediante la utilización de un algoritmo iterativo de recuperación de fase por retroalimentación, en el que se detectan unos pocos cientos de estos rayos incidentes y se superponen para proporcionar suficiente redundancia en el proceso de reconstrucción. Por último, un algoritmo informático transforma la información de difracción en el espacio real y produce una imagen observable por el ojo humano; esta imagen es la que probablemente veríamos mediante técnicas de microscopía tradicionales. La esperanza es que el uso de CDI produzca una imagen de mayor resolución debido a su diseño libre de aberraciones y a sus algoritmos computacionales.

El problema de la fase

Existen dos parámetros relevantes para las ondas difractadas: amplitud y fase. En la microscopía típica que utiliza lentes no existe problema de fase, ya que la información de fase se conserva cuando las ondas se refractan. Cuando se recopila un patrón de difracción, los datos se describen en términos de recuentos absolutos de fotones o electrones, una medición que describe amplitudes pero pierde información de fase. Esto da como resultado un problema inverso mal planteado , ya que cualquier fase podría asignarse a las amplitudes antes de una transformada de Fourier inversa al espacio real. [6]

Se desarrollaron tres ideas que permitieron la reconstrucción de imágenes del espacio real a partir de patrones de difracción. [5] La primera idea fue la realización por Sayre en 1952 de que la difracción de Bragg submuestrea la intensidad difractada en relación con el teorema de Shannon. [7] Si el patrón de difracción se muestrea al doble de la frecuencia de Nyquist (inversa del tamaño de la muestra) o más densa, puede producir una imagen única del espacio real. [2] La segunda fue un aumento en la potencia de cálculo en la década de 1980 que permitió el algoritmo iterativo de entrada-salida híbrida (HIO) para la recuperación de fase para optimizar y extraer información de fase utilizando datos de intensidad muestreados adecuadamente con retroalimentación. Este método fue introducido [4] por Fienup en la década de 1980. [8] En 1998, Miao , Sayre y Chapman utilizaron simulaciones numéricas para demostrar que cuando los puntos de intensidad medidos independientemente son más que las variables desconocidas, la fase se puede recuperar en principio del patrón de difracción mediante algoritmos iterativos. [9] Finalmente, Miao y colaboradores informaron la primera demostración experimental de CDI en 1999 utilizando una imagen secundaria para proporcionar información de baja resolución. [10] Posteriormente se desarrollaron métodos de reconstrucción que podrían eliminar la necesidad de una imagen secundaria.

Se puede utilizar un nanotubo de pared doble simulado (n1,m1)(n2,m2) para probar un algoritmo CDI. Primero, se crea un nanotubo simulado (izquierda) dados los números quirales, (26,24)(35,25) en este caso. Luego se crea un patrón de difracción utilizando la función de espectro de potencia en el software Digital Micrograph (centro). Finalmente, se prueba el algoritmo reconstruyendo una imagen final (derecha). Este trabajo fue realizado por Ji Li y Jian-Min Zuo en 2007.

Reconstrucción

En una reconstrucción típica [2], el primer paso es generar fases aleatorias y combinarlas con la información de amplitud del patrón del espacio recíproco. Luego, se aplica una transformada de Fourier de ida y vuelta para moverse entre el espacio real y el espacio recíproco con el módulo al cuadrado del campo de onda difractada igual a las intensidades de difracción medidas en cada ciclo. Al aplicar varias restricciones en el espacio real y recíproco, el patrón evoluciona hacia una imagen después de suficientes iteraciones del proceso HIO. Para garantizar la reproducibilidad, el proceso se repite típicamente con nuevos conjuntos de fases aleatorias y cada ejecución tiene típicamente cientos a miles de ciclos. [2] [11] [12] [13] Las restricciones impuestas en el espacio real y recíproco generalmente dependen de la configuración experimental y de la muestra que se va a fotografiar. La restricción del espacio real es restringir el objeto fotografiado a una región confinada llamada "soporte". Por ejemplo, se puede suponer inicialmente que el objeto que se va a fotografiar reside en una región no más grande que aproximadamente el tamaño del haz. En algunos casos, esta restricción puede ser más restrictiva, como en una región de soporte periódica para una matriz de puntos cuánticos espaciados uniformemente. [2] Otros investigadores han investigado la obtención de imágenes de objetos extendidos, es decir, objetos que son más grandes que el tamaño del haz, aplicando otras restricciones. [14] [15] [16]

En la mayoría de los casos, la restricción de soporte impuesta es a priori, es decir, la modifica el investigador en función de la evolución de la imagen. En teoría, esto no es necesariamente necesario y se han desarrollado algoritmos [17] que imponen un soporte evolutivo basándose únicamente en la imagen utilizando una función de autocorrelación. Esto elimina la necesidad de una imagen secundaria (soporte), lo que hace que la reconstrucción sea autónoma.

El patrón de difracción de un cristal perfecto es simétrico, por lo que la transformada de Fourier inversa de ese patrón tiene un valor completamente real. La introducción de defectos en el cristal conduce a un patrón de difracción asimétrico con una transformada de Fourier inversa de valor complejo. Se ha demostrado [18] que la densidad del cristal se puede representar como una función compleja donde su magnitud es la densidad electrónica y su fase es la "proyección de las deformaciones locales de la red cristalina sobre el vector de red recíproco Q del pico de Bragg sobre el que se mide la difracción". [4] Por lo tanto, es posible obtener imágenes de los campos de deformación asociados con los defectos del cristal en 3D utilizando CDI y se ha informado [4] en un caso. Desafortunadamente, la obtención de imágenes de funciones de valor complejo (que, para abreviar, representa el campo de deformación en los cristales) está acompañada de problemas complementarios, a saber, la unicidad de las soluciones, el estancamiento del algoritmo, etc. Sin embargo, se abordaron desarrollos recientes que superaron estos problemas (en particular para las estructuras estampadas). [19] [20] Por otro lado, si la geometría de difracción es insensible a la tensión, como en GISAXS, la densidad de electrones tendrá un valor real y será positiva. [2] Esto proporciona otra restricción para el proceso HIO, aumentando así la eficiencia del algoritmo y la cantidad de información que se puede extraer del patrón de difracción.

Algoritmos

Uno de los aspectos más importantes de la obtención de imágenes por difracción coherente es el algoritmo que recupera la fase a partir de las magnitudes de Fourier y reconstruye la imagen. Existen varios algoritmos para este propósito, aunque cada uno sigue un formato similar de iteración entre el espacio real y el recíproco del objeto (Pham 2020). Además, con frecuencia se define una región de soporte para separar el objeto de su región circundante de densidad cero (Pham 2020). Como se mencionó anteriormente, Fienup desarrolló los algoritmos iniciales de Reducción de Error (ER) e Entrada-Salida Híbrida (HIO), que utilizaron una restricción de soporte para el espacio real y magnitudes de Fourier como restricción en el espacio recíproco (Fienup 1978). El algoritmo ER establece tanto la región de densidad cero como las densidades negativas dentro del soporte en cero para cada iteración (Fienup 1978). El algoritmo HIO relaja las condiciones de ER al reducir gradualmente las densidades negativas del soporte a cero con cada iteración (Fienup 1978). Si bien HIO permitió la reconstrucción de una imagen a partir de un patrón de difracción libre de ruido, tuvo dificultades para recuperar la fase en experimentos reales donde las magnitudes de Fourier estaban corrompidas por el ruido. Esto condujo a un mayor desarrollo de algoritmos que pudieran manejar mejor el ruido en la reconstrucción de imágenes. En 2010, se creó un nuevo algoritmo llamado suavizado de sobremuestreo (OSS) para utilizar una restricción de suavidad en el objeto representado. OSS utilizaría filtros gaussianos para aplicar una restricción de suavidad a la región de densidad cero que, según se descubrió, aumenta la robustez al ruido y reduce las oscilaciones en la reconstrucción (Rodríguez 2013).

Imágenes proximales generalizadas (GPS)

Basándose en el éxito de OSS, se ha desarrollado un nuevo algoritmo llamado suavizado proximal generalizado (GPS). El GPS aborda el ruido en el espacio real y recíproco incorporando principios de regularización de Moreau-Yosida, que es un método para convertir una función convexa en una función convexa suavizada (Moreau 1965) (Yosida 1964). La restricción de magnitud se relaja en un término de cuadrados de mínima fidelidad como un medio para reducir el ruido en el espacio recíproco (Pham 2020). En general, se encontró que el GPS funciona mejor que OSS y HIO en consistencia, velocidad de convergencia y robustez al ruido. Usando el factor R (error relativo) como medida de efectividad, se encontró que el GPS tiene un factor R más bajo tanto en el espacio real como en el recíproco (Pham 2020). Además, tomó menos iteraciones para que el GPS convergiera hacia un factor R más bajo en comparación con OSS y HIO en ambos espacios (Pham 2020).

Coherencia

Dos fuentes de ondas son coherentes cuando su frecuencia y forma de onda son idénticas; esta propiedad de las ondas permite la interferencia estacionaria en la que la onda es constante temporal o espacialmente y las ondas se suman o se restan entre sí. La coherencia es importante en el contexto de la CDI, ya que la coherencia de las dos fuentes permite que se produzca la emisión continua de ondas. Una diferencia de fase constante y la coherencia de una onda son necesarias para obtener cualquier tipo de patrón de interferencia.

Es evidente que se necesita un haz de ondas muy coherente para que la CDI funcione, ya que la técnica requiere la interferencia de ondas difractadas. Las ondas coherentes deben generarse en la fuente (sincrotrón, emisor de campo, etc.) y deben mantener la coherencia hasta la difracción. Se ha demostrado [11] que el ancho de coherencia del haz incidente debe ser aproximadamente el doble del ancho lateral del objeto que se va a fotografiar. Sin embargo, la determinación del tamaño del parche coherente para decidir si el objeto cumple o no con el criterio es objeto de debate. [21] A medida que se reduce el ancho de coherencia, el tamaño de los picos de Bragg en el espacio recíproco aumenta y comienzan a superponerse, lo que conduce a una disminución de la resolución de la imagen.

Fuentes de energía

radiografía

La formación de imágenes por difracción coherente de rayos X ( CXDI o CXD ) utiliza rayos X (normalmente de 0,5 a 4 keV) [5] para formar un patrón de difracción que puede resultar más atractivo para aplicaciones 3D que la difracción de electrones, ya que los rayos X suelen tener una mejor penetración. Para la formación de imágenes de superficies, la penetración de los rayos X puede resultar indeseable, en cuyo caso se puede utilizar una geometría de ángulo de inclinación, como GISAXS. [2] Se utiliza un CCD de rayos X típico para registrar el patrón de difracción. Si la muestra se gira sobre un eje perpendicular al haz, se puede reconstruir una imagen tridimensional. [12]

Debido al daño por radiación, [5] la resolución está limitada (para configuraciones de iluminación continua) a aproximadamente 10 nm para muestras biológicas hidratadas congeladas, pero deberían ser posibles resoluciones de hasta 1 a 2 nm para materiales inorgánicos menos sensibles al daño (usando fuentes de sincrotrón modernas). Se ha propuesto [5] que el daño por radiación puede evitarse utilizando pulsos ultracortos de rayos X donde la escala de tiempo del mecanismo de destrucción es más larga que la duración del pulso. Esto puede permitir una mayor energía y, por lo tanto, una mayor resolución de CXDI de materiales orgánicos como las proteínas. Sin embargo, sin la pérdida de información, "el número lineal de píxeles del detector fija la dispersión de energía necesaria en el haz" [11], lo que se vuelve cada vez más difícil de controlar a energías más altas.

En un informe de 2006, [4] la resolución fue de 40 nm utilizando la Fuente de Fotones Avanzada (APS), pero los autores sugieren que esto podría mejorarse con mayor potencia y fuentes de rayos X más coherentes, como el láser de electrones libres de rayos X.

Se utiliza un nanotubo de carbono de pared simple simulado (izquierda) para generar un patrón de difracción (centro) para probar el algoritmo de reconstrucción (derecha). La parte superior e inferior son tubos de quiralidad diferente. Este trabajo fue realizado por Ji Li y Jian-Min Zuo en 2007.

Electrones

La obtención de imágenes por difracción de electrones coherente funciona de la misma manera que la CXDI, en principio, solo que los electrones son las ondas difractadas y se utiliza una placa de obtención de imágenes para detectar los electrones en lugar de un CCD. En un informe publicado [1], se obtuvo una imagen de un nanotubo de carbono de doble pared (DWCNT) utilizando difracción de electrones de área nanométrica ( NAED ) con resolución atómica. En principio, la obtención de imágenes por difracción de electrones debería producir una imagen de mayor resolución porque la longitud de onda de los electrones puede ser mucho menor que la de los fotones sin alcanzar energías muy altas. Los electrones también tienen una penetración mucho más débil, por lo que son más sensibles a la superficie que los rayos X. Sin embargo, normalmente los haces de electrones son más dañinos que los rayos X, por lo que esta técnica puede limitarse a materiales inorgánicos.

En el enfoque de Zuo, [1] se utiliza una imagen electrónica de baja resolución para localizar un nanotubo. Un cañón de electrones de emisión de campo genera un haz con alta coherencia y alta intensidad. El tamaño del haz se limita al área nanométrica con la apertura del condensador para asegurar la dispersión solo de una sección del nanotubo de interés. El patrón de difracción se registra en el campo lejano utilizando placas de imágenes electrónicas a una resolución de 0,0025 1/Å. Utilizando un método típico de reconstrucción HIO se produce una imagen con una resolución de Å en la que se puede observar directamente la quiralidad (estructura reticular) del DWCNT. Zuo descubrió que es posible comenzar con fases no aleatorias basadas en una imagen de baja resolución de un TEM para mejorar la calidad de la imagen final.

IZQUIERDA Representación de volumen de una partícula formada por una colección de nanopartículas octaédricas de Si, DERECHA La sección central que muestra el alto grado de porosidad. [3]

En 2007, Podorov et al. [22] propusieron una solución analítica exacta del problema CDXI para casos particulares.

En 2016, utilizando la línea de luz de imágenes de difracción coherente (CXDI) en ESRF (Grenoble, Francia), los investigadores cuantificaron la porosidad de grandes capas nanocristalinas facetadas en el origen de la banda de emisión de fotoluminiscencia en el infrarrojo. [3] Se ha demostrado que los fonones pueden confinarse en estructuras submicrónicas, lo que podría ayudar a mejorar el rendimiento de las aplicaciones fotónicas y fotovoltaicas (PV).

CDI in situ

Las mediciones incompletas han sido un problema observado en todos los algoritmos de CDI. Dado que el detector es demasiado sensible para absorber un haz de partículas directamente, se debe colocar un tope de haz o un orificio en su centro para evitar el contacto directo (Pham 2020). Además, los detectores a menudo se construyen con múltiples paneles con espacios entre ellos donde nuevamente no se pueden recopilar datos (Pham 2020). En última instancia, estas cualidades del detector dan como resultado datos faltantes dentro de los patrones de difracción. La CDI in situ es un nuevo método de esta tecnología de imágenes que podría aumentar la resistencia a las mediciones incompletas. La CDI in situ genera imágenes de una región estática y una región dinámica que cambia con el tiempo como resultado de estímulos externos (Hung Lo 2018). Se recopila una serie de patrones de difracción a lo largo del tiempo con interferencia de las regiones estática y dinámica (Hung Lo 2018). Debido a esta interferencia, la región estática actúa como una restricción invariante en el tiempo que une los patrones en menos iteraciones (Hung Lo 2018). La aplicación de esta región estática como restricción hace que la CDI in situ sea más robusta a los datos incompletos y a la interferencia de ruido en los patrones de difracción (Hung Lo 2018). En general, la CDI in situ proporciona una recopilación de datos más clara en menos iteraciones que otras técnicas de CDI.

Técnicas relacionadas

A lo largo de los años se han desarrollado varias técnicas para CDI y se han utilizado para estudiar muestras en física, química, materiales, ciencia, nanociencia, geología y biología (6); esto incluye, entre otras, DCI de ondas planas, CDI de Bragg, pticografía, CDI de reflexión, CDI de Fresnel y CDI de escasez.

La pticografía es una técnica estrechamente relacionada con la obtención de imágenes por difracción coherente. En lugar de registrar un único patrón de difracción coherente, se registran varios patrones de difracción (en ocasiones cientos o miles) del mismo objeto. Cada patrón se registra en una zona diferente del objeto, aunque las zonas deben superponerse parcialmente entre sí. La pticografía solo se puede aplicar a muestras que puedan sobrevivir a la irradiación del haz de luz para estas exposiciones múltiples. Sin embargo, tiene la ventaja de que se puede obtener una imagen de un campo de visión amplio. La diversidad traslacional adicional en los datos también significa que el procedimiento de reconstrucción puede ser más rápido y se reducen las ambigüedades en el espacio de la solución.

Véase también

Referencias

  1. ^ abc JM Zuo; I Vartanyants; M Gao; R Zhang; LA Nagahara (2003). "Imágenes de resolución atómica de un nanotubo de carbono a partir de intensidades de difracción". Science . 300 (5624): 1419–1421. Bibcode :2003Sci...300.1419Z. doi :10.1126/science.1083887. PMID  12775837. S2CID  37965247.
  2. ^ abcdefg IA Vartanyants; IK Robinson; JD Onken; MA Pfeifer; GJ Williams; F Pfeiffer; H Metzger; Z Zhong; G Bauer (2005). "Difracción coherente de rayos X a partir de puntos cuánticos". Phys. Rev. B . 71 (24): 245302. arXiv : cond-mat/0408590 . Código Bibliográfico :2005PhRvB..71c5302P. doi :10.1103/PhysRevB.71.245302.
  3. ^ abc EMLD de Jong; G. Mannino; A. Alberti; R. Ruggeri; M. Italia; F. Zontone; Y. Chushkin; AR Pennisi; T. Gregorkiewicz y G. Faraci (24 de mayo de 2016). "Fuerte fotoluminiscencia infrarroja en capas altamente porosas de nanopartículas cristalinas de Si facetadas de gran tamaño". Scientific Reports . 6 : 25664. Bibcode :2016NatSR...625664D. doi :10.1038/srep25664. PMC 4877587 . PMID  27216452. 
  4. ^ abcde M Pfeifer; GJ Williams; IA Vartanyants; R Harder; IK Robinson (2006). "Mapeo tridimensional de un campo de deformación dentro de un nanocristal" (PDF) . Nature Letters . 442 (7098): 63–66. Bibcode :2006Natur.442...63P. doi :10.1038/nature04867. PMID  16823449. S2CID  4428089.
  5. ^ abcdef S. Marchesini; HN Chapman; SP Hau-Riege; RA London; A. Szoke; H. He; MR Howells; H. Padmore; R. Rosen; JCH Spence ; U Weierstall (2003). "Imágenes difractivas de rayos X coherentes: aplicaciones y limitaciones". Optics Express . 11 (19): 2344–53. arXiv : physics/0308064 . Bibcode :2003OExpr..11.2344M. doi :10.1364/OE.11.002344. PMID  19471343. S2CID  36312297.
  6. ^ Taylor, G. (1 de noviembre de 2003). "El problema de las fases". Acta Crystallographica Sección D: Cristalografía biológica . 59 (11): 1881–1890. Bibcode :2003AcCrD..59.1881T. doi : 10.1107/S0907444903017815 . ISSN  0907-4449. PMID  14573942.
  7. ^ D Sayre (1952). "Algunas implicaciones de un teorema debido a Shannon". Acta Crystallogr . 5 (6): 843. Bibcode :1952AcCry...5..843S. doi : 10.1107/s0365110x52002276 .
  8. ^ JR Fienup (1987). "Reconstrucción de un objeto de valor complejo a partir del módulo de su transformada de Fourier utilizando una restricción de soporte". J. Opt. Soc. Am. A . 4 : 118–123. Bibcode :1987JOSAA...4..118Y. doi :10.1364/JOSAA.4.000118.
  9. ^ J Miao; D Sayre; HN Chapman (1998). "Recuperación de fase a partir de la magnitud de la transformada de Fourier de objetos no periódicos". J. Opt. Soc. Am. A . 15 (6): 1662–1669. Código Bibliográfico :1998JOSAA..15.1662M. doi :10.1364/JOSAA.15.001662.
  10. ^ J Miao; P Charalambous; J Kirz; D Sayre (1999). "Extensión de la metodología de la cristalografía de rayos X para permitir la obtención de imágenes de muestras no cristalinas de tamaño micrométrico". Nature . 400 (6742): 342–344. Bibcode :1999Natur.400..342M. doi :10.1038/22498. S2CID  4327928.
  11. ^ abc JCH Spence ; U Weierstall; M Howells (2004). "Coherencia y requisitos de muestreo para imágenes difractivas". Ultramicroscopía . 101 (2–4): 149–152. doi :10.1016/j.ultramic.2004.05.005. PMID  15450660.
  12. ^ ab HN Chapman; A. Barty; S. Marchesini; A. Noy; C. Cui; MR Howells; R. Rosen; H. He; JCH Spence ; U. Weierstall; T. Beetz; C. Jacobsen; D. Shapiro (2006). "Microscopía de difracción de rayos X tridimensional ab initio de alta resolución". J. Opt. Soc. Am. A . 23 (5): 1179–1200. arXiv : physics/0509066 . Código Bibliográfico :2006JOSAA..23.1179C. doi :10.1364/JOSAA.23.001179. PMID  16642197. S2CID  8632057.
  13. ^ S. Marchesini; HN Chapman; A. Barty; C. Cui; MR Howells; JCH Spence ; U. Weierstall; AM Minor (2005). "Aberraciones de fase en microscopía de difracción". Serie de conferencias IPAP . 7 : 380–382. arXiv : physics/0510033 . Código Bibliográfico :2005physics..10033M.
  14. ^ S Marchesini (2008). "Ab Initio Undersampled Phase Retrieval". Microscopía y microanálisis . 15 (Suplemento S2): 742–743. arXiv : 0809.2006 . Código bibliográfico : 2009MiMic..15S.742M. doi : 10.1017/S1431927609099620. S2CID  : 15607793.
  15. ^ Leili Baghaei; Ali Rad; Bing Dai; Diling Zhu; Andreas Scherz; Jun Ye; Piero Pianetta; R. Fabian W. Pease (2008). "Microscopía de difracción de rayos X: reconstrucción con magnitud parcial e información espacial a priori". Journal of Vacuum Science & Technology B: Microelectronics and Nanometer Structures . 26 (6): 2362–2366. Código Bibliográfico :2008JVSTB..26.2362B. doi :10.1116/1.3002487.
  16. ^ Baghaei, Leili; Rad, Ali; Dai, Bing; Pianetta, Piero; Miao, Jianwei; Pease, R. Fabián W. (2009). "Recuperación de fase iterativa utilizando restricciones de dominio wavelet". Revista de ciencia y tecnología del vacío B: microelectrónica y estructuras nanométricas . 27 (6): 3192. Código bibliográfico : 2009JVSTB..27.3192B. doi : 10.1116/1.3258632. S2CID  10278767.
  17. ^ S. Marchesini; H. He; HN Chapman; SP Hau-Riege; A. Noy; MR Howells; U. Weierstall; JCH Spence (2003). "Reconstrucción de imágenes de rayos X a partir de un patrón de difracción únicamente". Physical Review Letters . 68 (14): 140101(R). arXiv : physics/0306174 . Código Bibliográfico :2003PhRvB..68n0101M. doi :10.1103/PhysRevB.68.140101. S2CID  14224319.
  18. ^ IA Vartanyants; IK Robinson (2001). "Efectos de coherencia parcial en la formación de imágenes de cristales pequeños mediante difracción coherente de rayos X". J. Phys.: Condens. Matter . 13 (47): 10593–10611. Bibcode :2001JPCM...1310593V. doi :10.1088/0953-8984/13/47/305. S2CID  250748540.
  19. ^ AA Minkevich; M. Gailhanou; J.-S. Micha; B. Charlet; V. Chamard; O. Thomas (2007). "Inversión del patrón de difracción de un cristal deformado de forma no homogénea utilizando un algoritmo iterativo". Phys. Rev. B . 76 (10): 104106. arXiv : cond-mat/0609162 . Código Bibliográfico :2007PhRvB..76j4106M. doi :10.1103/PhysRevB.76.104106. S2CID  119441851.
  20. ^ AA Minkevich; T. Baumbach; M. Gailhanou; O. Thomas (2008). "Aplicabilidad de un algoritmo de inversión iterativo a los patrones de difracción de cristales deformados de forma no homogénea". Phys. Rev. B . 78 (17): 174110. Bibcode :2008PhRvB..78b4110M. doi :10.1103/PhysRevB.78.174110.
  21. ^ Keith A Nugent (2010). "Métodos coherentes en las ciencias de rayos X". Avances en Física . 59 (4): 1–99. arXiv : 0908.3064 . Bibcode :2010AdPhy..59....1N. doi :10.1080/00018730903270926. S2CID  118519311.
  22. ^ SG Podorov; KM Pavlov; DM Paganin (2007). "Un método de reconstrucción no iterativo para la obtención de imágenes difractivas coherentes, directas e inequívocas". Optics Express . 15 (16): 9954–9962. Bibcode :2007OExpr..15.9954P. doi : 10.1364/OE.15.009954 . PMID  19547345.

Enlaces externos