Las imágenes de rayos X de contraste de fase o imágenes de rayos X sensibles a la fase son un término general para diferentes métodos técnicos que utilizan información sobre los cambios en la fase de un haz de rayos X que pasa a través de un objeto para crear sus imágenes. Las técnicas estándar de imágenes de rayos X, como la radiografía o la tomografía computarizada (TC), se basan en una disminución de la intensidad ( atenuación ) del haz de rayos X al atravesar la muestra , que se puede medir directamente con la ayuda de un detector de rayos X. Sin embargo, en las imágenes de rayos X de contraste de fase, el cambio de fase del haz causado por la muestra no se mide directamente, sino que se transforma en variaciones de intensidad, que luego pueden ser registradas por el detector. [1]
Además de producir imágenes de proyección , la obtención de imágenes por rayos X de contraste de fases, al igual que la transmisión convencional, se puede combinar con técnicas tomográficas para obtener la distribución 3D de la parte real del índice de refracción de la muestra. Cuando se aplica a muestras que constan de átomos con un número atómico bajo Z , las imágenes de rayos X de contraste de fase son más sensibles a las variaciones de densidad en la muestra que las imágenes de rayos X convencionales basadas en transmisión . Esto conduce a imágenes con un mejor contraste de los tejidos blandos . [2]
En los últimos años se han desarrollado diversas técnicas de obtención de imágenes de rayos X con contraste de fase, todas ellas basadas en la observación de patrones de interferencia entre ondas difractadas y no difractadas. [3] Las técnicas más comunes son la interferometría de cristales, imágenes basadas en propagación, imágenes basadas en analizadores, iluminación de bordes e imágenes basadas en rejillas (ver más abajo).
El primero en descubrir los rayos X fue Wilhelm Conrad Röntgen en 1895, donde descubrió que tenían la capacidad de atravesar materiales opacos. Grabó la primera imagen de rayos X, mostrando la mano de su esposa. [4] Le concedieron el primer Premio Nobel de Física en 1901 "en reconocimiento a los extraordinarios servicios que ha prestado con el descubrimiento de los notables rayos que posteriormente recibieron su nombre". [5] Desde entonces, los rayos X se han utilizado como herramienta para determinar con seguridad las estructuras internas de diferentes objetos, aunque durante mucho tiempo la información se obtenía midiendo únicamente la intensidad transmitida de las ondas, y la información de fase no era accesible.
El principio de la obtención de imágenes por contraste de fases fue desarrollado por primera vez por Frits Zernike durante su trabajo con rejillas de difracción y luz visible. [6] [7] La aplicación de sus conocimientos a la microscopía le valió el Premio Nobel de Física en 1953. Desde entonces, la microscopía de contraste de fases ha sido un campo importante de la microscopía óptica .
La transferencia de imágenes de contraste de fases de la luz visible a los rayos X llevó mucho tiempo, debido al lento progreso en la mejora de la calidad de los haces de rayos X y a la inaccesibilidad de las lentes de rayos X. En la década de 1970, se descubrió que la radiación sincrotrón , emitida por partículas cargadas que circulaban en anillos de almacenamiento construidos para experimentos de física nuclear de alta energía, podría haber sido una fuente de rayos X más intensa y versátil que los tubos de rayos X ; [8] esto, combinado con el progreso en el desarrollo de la óptica de rayos X, fue fundamental para el avance de la física de rayos X.
El trabajo pionero sobre la implementación del método de contraste de fases en la física de rayos X fue presentado en 1965 por Ulrich Bonse y Michael Hart, Departamento de Ciencia e Ingeniería de Materiales de la Universidad de Cornell, Nueva York. Presentaron un interferómetro de cristal, fabricado a partir de un monocristal grande y muy perfecto . [9] No menos de 30 años después, los científicos japoneses Atsushi Momose , Tohoru Takeda y sus colaboradores adoptaron esta idea y la refinaron para su aplicación en imágenes biológicas, por ejemplo, aumentando el campo de visión con la ayuda de nuevas configuraciones y fases. técnicas de recuperación . [10] [11] El interferómetro Bonse-Hart proporciona varios órdenes de magnitud de mayor sensibilidad en muestras biológicas que otras técnicas de contraste de fase, pero no puede usar tubos de rayos X convencionales porque los cristales solo aceptan una banda de energía muy estrecha de X-. rayos (Δ E / E ~ 10 −4 ). En 2012, Han Wen y sus colaboradores dieron un paso adelante al reemplazar los cristales con rejillas de fase nanométricas. [12] Las rejillas dividen y dirigen los rayos X en un amplio espectro, eliminando así la restricción en el ancho de banda de la fuente de rayos X. Detectaron curvatura refractiva sub nano radianes de rayos X en muestras biológicas con un interferómetro de rejilla Bonse-Hart. [12]
Al mismo tiempo, surgieron otros dos enfoques para la obtención de imágenes de contraste de fases con el objetivo de superar los problemas de la interferometría de cristales. La técnica de imágenes basada en propagación fue introducida principalmente por el grupo de Anatoly Snigirev holografía de Dennis Gabor en 1948. [14]
en la ESRF (Instalación Europea de Radiación Sincrotrón) en Grenoble, Francia, [13] y se basó en la detección de "franjas de Fresnel" que surgen bajo ciertas condiciones. Circunstancias en la propagación en el espacio libre. La configuración experimental consistió en una configuración en línea de una fuente de rayos X, una muestra y un detector y no requirió ningún elemento óptico. Era conceptualmente idéntico a la configuración del revolucionario trabajo sobreUn enfoque alternativo llamado imágenes basadas en analizadores fue explorado por primera vez en 1995 por Viktor Ingal y Elena Beliaevskaya en el laboratorio de rayos X en San Petersburgo, Rusia, [15] y por Tim Davis y sus colegas en la CSIRO (Organización de Investigación Científica e Industrial de la Commonwealth). ) División de Ciencia y Tecnología de Materiales en Clayton, Australia. [16] Este método utiliza un cristal de Bragg como filtro angular para reflejar solo una pequeña parte del haz que cumple la condición de Bragg en un detector. Una colaboración estadounidense de los equipos de investigación de Dean Chapman, Zhong Zhong y William Thomlinson ha realizado contribuciones importantes al progreso de este método, por ejemplo, la extracción de una señal adicional causada por la dispersión de ángulo ultrapequeño [17] y la primera Imagen de TC realizada con imágenes basadas en analizadores. [18] Alessandro Olivo y sus colaboradores desarrollaron una alternativa a las imágenes basadas en analizadores, que proporciona resultados equivalentes sin requerir el uso de un cristal, en el sincrotrón Elettra en Trieste, Italia. [19] Este método, llamado "iluminación de borde", opera una selección fina en la dirección de los rayos X utilizando el borde físico de los propios píxeles del detector, de ahí el nombre. Más tarde, Olivo, en colaboración con Robert Speller del University College de Londres, adaptó el método para su uso con fuentes de rayos X convencionales, [20] abriendo el camino a la traducción a aplicaciones clínicas y de otro tipo. Peter Munro (también de la UCL) contribuyó sustancialmente al desarrollo del enfoque basado en laboratorio, demostrando que prácticamente no impone requisitos de coherencia [21] y que, a pesar de esto, sigue siendo totalmente cuantitativo. [22]
El último enfoque discutido aquí es la llamada imagen basada en rejilla, que utiliza el efecto Talbot , descubierto por Henry Fox Talbot en 1836. [23] Este efecto de autoimagen crea un patrón de interferencia aguas abajo de una rejilla de difracción . A una distancia determinada, este patrón se parece exactamente a la estructura de la rejilla y es registrado por un detector. La posición del patrón de interferencia se puede alterar colocando un objeto en el haz, que induce un cambio de fase. Este desplazamiento del patrón de interferencia se mide con la ayuda de una segunda rejilla y mediante ciertos métodos de reconstrucción se obtiene información sobre la parte real del índice de refracción. El llamado interferómetro Talbot-Lau se utilizó inicialmente en interferometría atómica , por ejemplo, por John F. Clauser y Shifang Li en 1994. [24] Los primeros interferómetros de rejilla de rayos X que utilizaban fuentes de sincrotrón fueron desarrollados por Christian David y sus colegas del Instituto Paul Scherrer (PSI) en Villingen, Suiza [25] y el grupo de Atsushi Momose de la Universidad de Tokio. [26] En 2005, independientemente uno del otro, tanto el grupo de David como el de Momose incorporaron la tomografía computarizada en la interferometría de rejilla, lo que puede verse como el siguiente hito en el desarrollo de imágenes basadas en rejilla. [27] [28] En 2006, otro gran avance fue la transferencia de la técnica basada en rejillas a tubos de rayos X de laboratorio convencionales por parte de Franz Pfeiffer y sus colaboradores, [29] que amplió bastante el potencial de la técnica para uso clínico. Unos dos años más tarde, el grupo de Franz Pfeiffer también logró extraer una señal suplementaria de sus experimentos; la llamada "señal de campo oscuro" fue causada por la dispersión debido a la microestructura porosa de la muestra y proporcionó "información estructural complementaria y de otro modo inaccesible sobre la muestra en la escala de longitud micrométrica y submicrométrica". [30] Al mismo tiempo, Han Wen y sus compañeros de trabajo de los Institutos Nacionales de Salud de EE. UU. llegaron a una técnica de rejilla mucho más simplificada para obtener la imagen de dispersión (“campo oscuro”). Utilizaron una proyección única de una cuadrícula y un nuevo enfoque para la extracción de señales llamado "análisis de Fourier de un solo disparo". [31] Recientemente, se realizaron muchas investigaciones para mejorar la técnica basada en rejillas: Han Wen y su equipo analizaron huesos de animales y descubrieron que la intensidad de la señal del campo oscuro depende de la orientación de la rejilla y esto se debe a la anisotropía de la estructura ósea. [32]Consiguieron avances significativos hacia las aplicaciones biomédicas al sustituir el escaneo mecánico de las rejillas por el escaneo electrónico de la fuente de rayos X. [33] El campo de TC de contraste de fase basado en rejilla se amplió mediante imágenes tomográficas de la señal de campo oscuro [34] y TC de contraste de fase de resolución temporal. [35] Además, se publicaron los primeros estudios preclínicos que utilizan imágenes de rayos X de contraste de fase basadas en rejillas. Marco Stampanoni y su grupo examinaron el tejido mamario nativo con "mamografía de contraste de fase diferencial", [36] y un equipo dirigido por Dan Stutman investigó cómo utilizar imágenes basadas en rejillas para las pequeñas articulaciones de la mano. [37]
Más recientemente, se produjo un avance significativo en las imágenes basadas en rejillas debido al descubrimiento de un efecto muaré de fase [38] [39] por Wen y colegas. Condujo a una interferometría más allá del rango de autoimagen de Talbot, utilizando únicamente rejillas de fase y fuentes y detectores convencionales. Las rejillas de fase de rayos X se pueden fabricar con períodos muy finos, lo que permite obtener imágenes con dosis bajas de radiación para lograr una alta sensibilidad.
Las imágenes de rayos X convencionales utilizan la caída de intensidad a través de la atenuación causada por un objeto en el haz de rayos X y la radiación se trata como rayos como en la óptica geométrica . Pero cuando los rayos X atraviesan un objeto, no sólo se altera su amplitud sino también su fase. En lugar de simples rayos , los rayos X también pueden considerarse ondas electromagnéticas . Un objeto puede entonces describirse por su índice de refracción complejo (cf. [8] ):
El término δ es la disminución de la parte real del índice de refracción, y la parte imaginaria β describe el índice de absorción o coeficiente de extinción. Tenga en cuenta que, a diferencia de la luz óptica, la parte real del índice de refracción es menor pero cercana a la unidad, esto se debe "al hecho de que el espectro de rayos X generalmente se encuentra en el lado de alta frecuencia de varias resonancias asociadas con la luz". unión de electrones". [8] La velocidad de fase dentro del objeto es mayor que la velocidad de la luz c . Esto conduce a un comportamiento diferente de los rayos X en un medio en comparación con la luz visible (por ejemplo, los ángulos de refracción tienen valores negativos), pero no contradice la ley de la relatividad , "que exige que sólo las señales que transportan información no viajen más rápido que c" . las señales se mueven con la velocidad del grupo , no con la velocidad de fase, y se puede demostrar que la velocidad del grupo es, de hecho, menor que c . [8]
El impacto del índice de refracción en el comportamiento de la onda se puede demostrar con una onda que se propaga en un medio arbitrario con un índice de refracción fijo n . Por razones de simplicidad, aquí se supone una onda plana monocromática sin polarización . La onda se propaga en dirección normal a la superficie del medio, denominada z en este ejemplo (consulte la figura de la derecha). La función de onda escalar en el vacío es
Dentro del medio, el número de onda angular cambia de k a nk . Ahora la ola se puede describir como:
donde δkz es el cambio de fase y e −β kz es un factor de caída exponencial que disminuye la amplitud E 0 de la onda. [8]
En términos más generales, el desplazamiento de fase total del haz que se propaga a una distancia z se puede calcular utilizando la integral
donde λ es la longitud de onda del haz de rayos X incidente. Esta fórmula significa que el cambio de fase es la proyección de la disminución de la parte real del índice de refracción en la dirección de la imagen. Esto cumple con el requisito del principio tomográfico , que establece que "los datos de entrada al algoritmo de reconstrucción deben ser una proyección de una cantidad f que transmita información estructural dentro de una muestra. Luego, se puede obtener un tomograma que mapee el valor f ". [40] En otras palabras, en imágenes de contraste de fase se puede reconstruir un mapa de la parte real del índice de refracción δ(x,y,z) con técnicas estándar como la retroproyección filtrada , que es análoga a la tomografía computarizada de rayos X convencional. donde se puede recuperar un mapa de la parte imaginaria del índice de refracción.
Para obtener información sobre la composición de una muestra, básicamente la distribución de densidad de la muestra, hay que relacionar los valores medidos del índice de refracción con los parámetros intrínsecos de la muestra; dicha relación viene dada por las siguientes fórmulas:
donde ρ a es la densidad del número atómico, σ a la sección transversal de absorción , k la longitud del vector de onda y
donde p la sección transversal de cambio de fase.
Lejos de los bordes de absorción (picos en la sección transversal de absorción debido a la mayor probabilidad de absorción de un fotón que tiene una frecuencia cercana a la frecuencia de resonancia del medio), los efectos de dispersión pueden despreciarse; este es el caso de los elementos ligeros ( número atómico Z <40) que son los componentes del tejido humano y las energías de rayos X superiores a 20 keV, que normalmente se utilizan en imágenes médicas. Suponiendo estas condiciones, la sección transversal de absorción está aproximadamente indicada por
donde 0,02 es una constante dada en granero , la unidad típica de área de sección transversal de interacción de partículas, k la longitud del vector de onda , k 0 la longitud de un vector de onda con una longitud de onda de 1 Angstrom y Z el número atómico . [41] La fórmula válida en estas condiciones para la sección transversal de cambio de fase es:
donde Z es el número atómico , k la longitud del vector de onda y r 0 el radio clásico del electrón .
Esto da como resultado las siguientes expresiones para las dos partes del índice de refracción complejo:
La inserción de valores típicos del tejido humano en las fórmulas dadas anteriormente muestra que δ es generalmente tres órdenes de magnitud mayor que β dentro del rango de diagnóstico de rayos X. Esto implica que el cambio de fase de un haz de rayos X que se propaga a través del tejido puede ser mucho mayor que la pérdida de intensidad, lo que hace que las imágenes de rayos X de contraste de fase sean más sensibles a las variaciones de densidad en el tejido que las imágenes de absorción. [42]
Debido a las proporcionalidades
La ventaja del contraste de fases sobre el contraste de absorción convencional aumenta incluso con el aumento de energía. Además, debido a que la formación de imágenes de contraste de fase no está intrínsecamente ligada a la absorción de rayos X en la muestra, la dosis absorbida puede reducirse potencialmente mediante el uso de energías de rayos X más altas. [29] [42]
Como se mencionó anteriormente, en el caso de la luz visible, la parte real del índice de refracción n puede desviarse fuertemente de la unidad (n del vidrio en luz visible oscila entre 1,5 y 1,8), mientras que la desviación de la unidad para los rayos X en diferentes medios es generalmente del orden orden de 10 −5 . Por tanto, los ángulos de refracción provocados en el límite entre dos medios isotrópicos calculados con la fórmula de Snell también son muy pequeños. La consecuencia de esto es que los ángulos de refracción de los rayos X que pasan a través de una muestra de tejido no pueden detectarse directamente y normalmente se determinan indirectamente mediante la "observación del patrón de interferencia entre ondas difractadas y no difractadas producidas por variaciones espaciales de la parte real del índice de refracción". ". [3]
La interferometría cristalina , a veces también llamada interferometría de rayos X , es el método más antiguo, pero también el más complejo, utilizado para la realización experimental. Consta de tres divisores de haz en geometría Laue alineados paralelos entre sí. (Ver figura a la derecha) El haz incidente, que normalmente es colimado y filtrado por un monocromador (cristal de Bragg) antes, se divide en el primer cristal (S) mediante difracción de Laue en dos haces coherentes, un haz de referencia que permanece inalterado y un haz que atraviesa la muestra. El segundo cristal (T) actúa como espejo de transmisión y hace que los haces converjan entre sí. Los dos haces se encuentran en el plano del tercer cristal (A), que a veces se denomina cristal analizador, y crean un patrón de interferencia cuya forma depende de la diferencia de trayectoria óptica entre los dos haces causada por la muestra. Este patrón de interferencia se detecta con un detector de rayos X detrás del cristal analizador. [9] [43]
Colocando la muestra en una plataforma de rotación y registrando proyecciones desde diferentes ángulos, se puede recuperar la distribución 3D del índice de refracción y, por tanto, las imágenes tomográficas de la muestra. [40] A diferencia de los métodos siguientes, con el interferómetro de cristal se mide la fase en sí y no su alternancia espacial. Para recuperar el cambio de fase de los patrones de interferencia; Se utiliza una técnica llamada paso de fase o barrido de franjas: se introduce un desfasador (con forma de cuña) en el haz de referencia. El desfasador crea franjas de interferencia rectas con intervalos regulares; las llamadas franjas portadoras. Cuando la muestra se coloca en el otro haz, las franjas portadoras se desplazan. El cambio de fase provocado por la muestra corresponde al desplazamiento de las franjas portadoras. Se registran varios patrones de interferencia para diferentes desplazamientos del haz de referencia y, analizándolos, se puede extraer la información de fase módulo 2 π . [40] [43] Esta ambigüedad de la fase se denomina efecto de envoltura de fase y puede eliminarse mediante las llamadas "técnicas de desenvoltura de fase". [44] Estas técnicas se pueden utilizar cuando la relación señal-ruido de la imagen es suficientemente alta y la variación de fase no es demasiado abrupta. [28]
Como alternativa al método de escaneo marginal, se puede utilizar el método de la transformada de Fourier para extraer la información de cambio de fase con un solo interferograma, acortando así el tiempo de exposición, pero esto tiene la desventaja de limitar la resolución espacial por el espaciado de la portadora. flecos. [45]
La interferometría de rayos X se considera el más sensible al cambio de fase de los cuatro métodos y, en consecuencia, proporciona la resolución de densidad más alta en el rango de mg/cm 3 . [28] Pero debido a su alta sensibilidad, las franjas creadas por una muestra con un fuerte cambio de fase pueden volverse irresolubles; Para superar este problema se ha desarrollado recientemente un nuevo enfoque llamado "imagen de rayos X de coherencia-contraste", donde en lugar del cambio de fase, el cambio del grado de coherencia causado por la muestra es relevante para el contraste de la imagen. [46]
Una limitación general de la resolución espacial de este método viene dada por la borrosidad en el cristal del analizador que surge de la refracción dinámica, es decir, la desviación angular del haz debido a la refracción en la muestra se amplifica en el cristal unas diez mil veces, porque La trayectoria del haz dentro del cristal depende en gran medida de su ángulo de incidencia. Este efecto se puede reducir adelgazando el cristal del analizador, por ejemplo con un espesor de analizador de 40 µm se calculó una resolución de aproximadamente 6 µm . Alternativamente, los cristales de Laue pueden sustituirse por cristales de Bragg , de modo que el haz no atraviese el cristal sino que se refleje en la superficie. [47]
Otra limitación del método es el requisito de una estabilidad muy alta de la configuración; la alineación de los cristales debe ser muy precisa y la diferencia de longitud de trayectoria entre los haces debe ser menor que la longitud de onda de los rayos X; Para conseguirlo, el interferómetro suele fabricarse a partir de un único bloque de silicio muy perfecto cortando dos ranuras. Mediante la producción monolítica, la muy importante coherencia espacial de la red entre los tres cristales se puede mantener relativamente bien, pero limita el campo de visión a un tamaño pequeño (por ejemplo, 5 cm x 5 cm para un lingote de 6 pulgadas) y debido a que la muestra es normalmente colocado en una de las trayectorias del haz, el tamaño de la muestra en sí también está limitado por el tamaño del bloque de silicio. [9] [48] Las configuraciones desarrolladas recientemente, que utilizan dos cristales en lugar de uno, amplían considerablemente el campo de visión, pero son aún más sensibles a las inestabilidades mecánicas. [49] [50]
Otra dificultad adicional del interferómetro de cristal es que los cristales de Laue filtran la mayor parte de la radiación entrante, por lo que requieren una alta intensidad del haz o tiempos de exposición muy largos. [51] Esto limita el uso del método a fuentes de rayos X altamente brillantes como los sincrotrones.
De acuerdo con las limitaciones de la configuración, el interferómetro de cristal funciona mejor para obtener imágenes de alta resolución de muestras pequeñas que provocan gradientes de fase pequeños o suaves .
Para tener la sensibilidad superior de la interferometría de cristal Bonse-Hart sin algunas de las limitaciones básicas, los cristales monolíticos han sido reemplazados por rejillas nanométricas de cambio de fase de rayos X. [52] Las primeras rejillas de este tipo tienen períodos de 200 a 400 nanómetros. Pueden dividir haces de rayos X en los amplios espectros de energía de los tubos de rayos X comunes. La principal ventaja de esta técnica es que utiliza la mayoría de los rayos X entrantes que habrían sido filtrados por los cristales. Debido a que sólo se utilizan rejillas de fase, la fabricación de rejillas es menos desafiante que las técnicas que utilizan rejillas de absorción. El primer interferómetro de rejilla Bonse-Hart (gBH) funcionó con una energía fotónica de 22,5 keV y un ancho de banda espectral del 1,5%.
El haz entrante está formado por rendijas de unas pocas decenas de micrómetros, de modo que la longitud de coherencia transversal es mayor que el período de la rejilla. El interferómetro consta de tres rejillas de fase paralelas e igualmente espaciadas y una cámara de rayos X. El haz incidente es difractado por una primera rejilla de periodo 2P en dos haces. Estos se difractan aún más mediante una segunda rejilla de período P en cuatro haces. Dos de los cuatro se fusionan en una tercera red del período 2P. Cada uno es difractado aún más por la tercera rejilla. Se permite que los múltiples haces difractados se propaguen a una distancia suficiente para que los diferentes órdenes de difracción estén separados en la cámara. Existe un par de haces difractados que se copropagan desde la tercera rejilla hasta la cámara. Interfieren entre sí para producir franjas de intensidad si las rejillas están ligeramente desalineadas entre sí. El par central de caminos de difracción siempre tiene la misma longitud independientemente de la energía de los rayos X o del ángulo del haz incidente. Los patrones de interferencia de diferentes energías de fotones y ángulos de incidencia están bloqueados en fase.
El objeto fotografiado se coloca cerca de la rejilla central. Las imágenes de fase absoluta se obtienen si el objeto cruza uno de un par de caminos coherentes. Si los dos caminos pasan a través del objeto en dos ubicaciones que están separadas por una distancia lateral d, entonces se detecta una imagen de diferencia de fase de Φ(r) - Φ(rd). Se realiza un paso de fase de una de las rejillas para recuperar las imágenes de fase. La imagen de diferencia de fase Φ(r) - Φ(rd) se puede integrar para obtener una imagen de cambio de fase del objeto.
Esta técnica logró una sensibilidad sustancialmente mayor que otras técnicas con la excepción del interferómetro de cristal. [12] [53] Una limitación básica de la técnica es la dispersión cromática de la difracción de rejilla, que limita su resolución espacial. Un sistema de mesa con un tubo de rayos X de tungsteno que funcione a 60 kVp tendrá una resolución límite de 60 μm. [12] Otra limitación es que el haz de rayos X se reduce a sólo decenas de micrómetros de ancho. Se ha propuesto una posible solución en forma de imágenes paralelas con múltiples rendijas. [12]
Las imágenes basadas en analizadores (ABI) también se conocen como imágenes mejoradas por difracción , introscopia de dispersión de fase y radiografía de imágenes múltiples [54]. Su configuración consiste en un monocromador (generalmente un cristal simple o doble que también colima el haz) frente a la muestra y un cristal analizador colocado en geometría de Bragg entre la muestra y el detector. (Ver figura a la derecha)
Este cristal analizador actúa como filtro angular de la radiación procedente de la muestra. Cuando estos rayos X inciden en el cristal del analizador, la condición de difracción de Bragg se cumple sólo para un rango muy estrecho de ángulos de incidencia. Cuando los rayos X dispersos o refractados tienen ángulos de incidencia fuera de este rango, no se reflejarán en absoluto y no contribuirán a la señal. Los rayos X refractados dentro de este rango se reflejarán dependiendo del ángulo de incidencia. La dependencia de la intensidad reflejada del ángulo de incidencia se denomina curva de balanceo y es una propiedad intrínseca del sistema de imágenes, es decir, representa la intensidad medida en cada píxel del detector cuando el cristal analizador se "oscila" (ligeramente girado en ángulo). θ) sin ningún objeto presente y, por tanto, puede medirse fácilmente. [54] La aceptación angular típica es de unos pocos microradianes a decenas de microradianes y está relacionada con el ancho total a la mitad del máximo (FWHM) de la curva de balanceo del cristal.
Cuando el analizador está perfectamente alineado con el monocromador y, por lo tanto, colocado en el pico de la curva de oscilación, se obtiene una radiografía de rayos X estándar con contraste mejorado porque no hay borrosidad debido a los fotones dispersos. A veces esto se denomina "contraste de extinción".
Si, por el contrario, el analizador está orientado en un ángulo pequeño (ángulo de desafinación) con respecto al monocromador, los rayos X refractados en la muestra en un ángulo menor se reflejarán menos y los rayos X refractados en un ángulo mayor se reflejarán más. Por tanto, el contraste de la imagen se basa en diferentes ángulos de refracción de la muestra. Para gradientes de fase pequeños, el ángulo de refracción se puede expresar como
donde k es la longitud del vector de onda de la radiación incidente y el segundo término del lado derecho es la primera derivada de la fase en la dirección de difracción. Dado que no se mide la fase en sí, sino la primera derivada del frente de fase, las imágenes basadas en analizadores son menos sensibles a las bajas frecuencias espaciales que la interferometría de cristal, pero más sensibles que el PBI.
A diferencia de los métodos anteriores, las imágenes basadas en analizadores normalmente proporcionan información de fase sólo en la dirección de difracción, pero no son sensibles a las desviaciones angulares en el plano perpendicular al plano de difracción. Esta sensibilidad a un solo componente del gradiente de fase puede generar ambigüedades en la estimación de fase. [55]
Al grabar varias imágenes en diferentes ángulos de desafinación, es decir, en diferentes posiciones de la curva de oscilación, se obtiene un conjunto de datos que permite la recuperación de información cuantitativa de fase diferencial. Existen varios algoritmos para reconstruir información a partir de las curvas de balanceo, algunos de ellos proporcionan una señal adicional. Esta señal proviene de la dispersión de ángulo ultrapequeño por estructuras de muestra de subpíxeles y provoca un ensanchamiento angular del haz y, por lo tanto, un ensanchamiento de la forma de la curva de oscilación. A partir de este contraste de dispersión se puede producir un nuevo tipo de imagen llamada imagen de campo oscuro. [17] [54] [56]
Las imágenes tomográficas con imágenes basadas en analizador se pueden realizar fijando el analizador en un ángulo específico y girando la muestra 360° mientras se adquieren los datos de proyección. Se adquieren varios conjuntos de proyecciones de la misma muestra con diferentes ángulos de desafinación y luego se puede reconstruir una imagen tomográfica. Suponiendo que los cristales están normalmente alineados de manera que la derivada del índice de refracción se mide en la dirección paralela al eje tomográfico, la "imagen CT de refracción" resultante muestra la imagen pura del gradiente fuera del plano.
Para las imágenes basadas en analizadores, los requisitos de estabilidad de los cristales son menos estrictos que para la interferometría de cristales, pero la configuración aún requiere un cristal analizador perfecto que debe controlarse con mucha precisión en cuanto a ángulo y tamaño del cristal analizador y la restricción que impone el haz. necesita ser paralelo también limita el campo de visión. Además, como en la interferometría de cristales, una limitación general para la resolución espacial de este método viene dada por la borrosidad en el cristal analizador debido a los efectos de la difracción dinámica , pero se puede mejorar utilizando difracción de incidencia rasante para el cristal. [55]
Si bien en principio el método requiere radiación monocromática altamente colimada y, por lo tanto, está limitado a una fuente de radiación sincrotrón, recientemente se demostró que el método sigue siendo factible utilizando una fuente de laboratorio con un espectro policromático cuando la curva de oscilación se adapta a la línea espectral K α. radiación del material objetivo. [57]
Debido a su alta sensibilidad a pequeños cambios en el índice de refracción, este método es muy adecuado para obtener imágenes de muestras de tejido blando y ya se implementa en imágenes médicas, especialmente en mamografía para una mejor detección de microcalcificaciones [1] y en estudios de cartílago óseo. [58]
La imagen basada en propagación (PBI) es el nombre más común para esta técnica, pero también se la llama holografía en línea , imagen mejorada por refracción [59] o radiografía de contraste de fase . Esta última denominación deriva de que el montaje experimental de este método es básicamente el mismo que el de la radiografía convencional. Consiste en una disposición en línea de una fuente de rayos X, la muestra y un detector de rayos X y no se requieren otros elementos ópticos. La única diferencia es que el detector no se coloca inmediatamente detrás de la muestra, sino a cierta distancia, por lo que la radiación refractada por la muestra puede interferir con el haz inalterado. [13] Esta configuración simple y los bajos requisitos de estabilidad proporcionan una gran ventaja de este método sobre otros métodos discutidos aquí.
Bajo una iluminación espacialmente coherente y una distancia intermedia entre la muestra y el detector, se crea un patrón de interferencia con "franjas de Fresnel"; es decir, las franjas surgen en la propagación en el espacio libre en el régimen de Fresnel , lo que significa que para la distancia entre el detector y la muestra la aproximación de la fórmula de difracción de Kirchhoff para el campo cercano, es válida la ecuación de difracción de Fresnel . A diferencia de la interferometría de cristales, las franjas de interferencia registradas en PBI no son proporcionales a la fase misma sino a la segunda derivada ( laplaciana ) de la fase del frente de onda. Por tanto, el método es más sensible a cambios bruscos en la disminución del índice de refracción. Esto conduce a un contraste más fuerte que delinea las superficies y los límites estructurales de la muestra ( realce de bordes ) en comparación con un radiograma convencional. [60] [61]
PBI se puede utilizar para mejorar el contraste de una imagen de absorción; en este caso, la información de fase en el plano de la imagen se pierde pero contribuye a la intensidad de la imagen ( mejora del borde de la imagen de atenuación). Sin embargo, también es posible separar la fase y el contraste de atenuación, es decir, reconstruir la distribución de la parte real e imaginaria del índice de refracción por separado. La determinación inequívoca de la fase del frente de onda ( recuperación de fase ) se puede realizar registrando varias imágenes a diferentes distancias detector-muestra y utilizando algoritmos basados en la linealización de la integral de difracción de Fresnel para reconstruir la distribución de fase, pero este enfoque adolece de El ruido amplificado para frecuencias espaciales bajas y, por lo tanto, los componentes que varían lentamente pueden no recuperarse con precisión. Hay varios enfoques más para la recuperación de fases y en [62] [63] se ofrece una buena descripción general sobre ellos.
Las reconstrucciones tomográficas de la distribución 3D del índice de refracción o "Holotomografía" se implementan rotando la muestra y registrando para cada ángulo de proyección una serie de imágenes a diferentes distancias. [64]
Se requiere un detector de alta resolución para resolver las franjas de interferencia, lo que prácticamente limita el campo de visión de esta técnica o requiere mayores distancias de propagación. La resolución espacial alcanzada es relativamente alta en comparación con otros métodos y, puesto que no hay elementos ópticos en el haz, está limitada principalmente por el grado de coherencia espacial del haz. Como se mencionó anteriormente, para la formación de las franjas de Fresnel, la restricción sobre la coherencia espacial de la radiación utilizada es muy estricta, lo que limita el método a fuentes pequeñas o muy distantes, pero a diferencia de la interferometría cristalina y la obtención de imágenes basadas en analizadores, la restricción sobre la coherencia temporal , es decir, la policromaticidad es bastante relajada. [55] En consecuencia, el método no solo se puede utilizar con fuentes de sincrotrón, sino también con fuentes de rayos X de laboratorio policromáticas que proporcionen suficiente coherencia espacial, como los tubos de rayos X de microfoco . [60]
En términos generales, el contraste de la imagen proporcionado por este método es menor que el de otros métodos discutidos aquí, especialmente si las variaciones de densidad en la muestra son pequeñas. Debido a su fuerza para mejorar el contraste en los límites, es muy adecuado para obtener imágenes de muestras de fibra o espuma. [65] Una aplicación muy importante de PBI es el examen de fósiles con radiación sincrotrón, que revela detalles sobre los especímenes paleontológicos que de otro modo serían inaccesibles sin destruir la muestra. [66]
Las imágenes basadas en rejilla (GBI) incluyen la interferometría de corte o interferometría Talbot de rayos X (XTI) y la interferometría policromática de campo lejano (PFI) . [38] Desde que se construyó el primer interferómetro de rejilla de rayos X, que consta de rejillas de dos fases y un cristal analizador [25] , se han desarrollado varias configuraciones ligeramente diferentes para este método; A continuación nos centraremos en el método estándar actual, compuesto por una red de fases y una red de análisis. [26] (Ver figura a la derecha).
La técnica XTI se basa en el efecto Talbot o "fenómeno de autoimagen", que es un efecto de difracción de Fresnel y conduce a la repetición de un frente de onda periódico después de una determinada distancia de propagación, denominada " longitud de Talbot ". Este frente de onda periódico puede generarse mediante la iluminación espacialmente coherente de una estructura periódica, como una rejilla de difracción , y de ser así, la distribución de intensidad del campo de onda en la longitud de Talbot se parece exactamente a la estructura de la rejilla y se denomina autoimagen. [23] También se ha demostrado que se crearán patrones de intensidad en ciertas longitudes fraccionarias de Talbot. A la mitad de la distancia aparece la misma distribución de intensidad, excepto por un desplazamiento lateral de la mitad del período de la rejilla, mientras que a ciertas distancias fraccionarias de Talbot más pequeñas, las autoimágenes tienen períodos fraccionarios y tamaños fraccionarios de los máximos y mínimos de intensidad, que se vuelven visibles en la distribución de intensidad. detrás de la reja, la llamada alfombra Talbot. La longitud de Talbot y las longitudes fraccionarias se pueden calcular conociendo los parámetros de la radiación luminosa y de la rejilla iluminada y así se obtiene la posición exacta de los máximos de intensidad, que deben medirse en GBI. [67] Si bien el efecto Talbot y el interferómetro Talbot fueron descubiertos y estudiados extensamente utilizando luz visible, también se demostró hace varios años para el régimen de rayos X duros. [68]
En GBI, se coloca una muestra antes o detrás de la rejilla de fase (las líneas de la rejilla muestran una absorción insignificante pero un cambio de fase sustancial) y, por lo tanto, el patrón de interferencia del efecto Talbot se modifica mediante absorción, refracción y dispersión en la muestra. Para un objeto de fase con un pequeño gradiente de fase, el haz de rayos X se desvía por
donde k es la longitud del vector de onda de la radiación incidente y el segundo factor del lado derecho es la primera derivada de la fase en la dirección perpendicular a la dirección de propagación y paralela a la alineación de la rejilla. Dado que el desplazamiento transversal de las franjas de interferencia es lineal proporcional al ángulo de desviación, la fase diferencial del frente de onda se mide en GBI, similar a ABI. En otras palabras, las desviaciones angulares se traducen en cambios de intensidad transmitidos localmente. Al realizar mediciones con y sin muestra, se puede recuperar el cambio en la posición del patrón de interferencia causado por la muestra. El período del patrón de interferencia suele estar en el rango de unos pocos micrómetros , lo que sólo puede resolverse convenientemente mediante un detector de muy alta resolución en combinación con una iluminación muy intensa (una fuente que proporcione un flujo muy alto) y, por lo tanto, limita el campo de interferencia. ver significativamente. [69] Esta es la razón por la cual se coloca una segunda rejilla, típicamente una rejilla de absorción, a una longitud fraccionaria de Talbot para analizar el patrón de interferencia. [26]
La rejilla del analizador normalmente tiene el mismo período que las franjas de interferencia y, por lo tanto, transforma la posición de la franja local en una variación de la intensidad de la señal en el detector, que se coloca inmediatamente detrás de la rejilla. Para separar la información de fase de otras contribuciones a la señal, se utiliza una técnica llamada "paso de fase". [27] Una de las rejillas se escanea a lo largo del término de dirección transversal xg ; sobre un período de la rejilla, y para diferentes posiciones de la rejilla se toma una imagen. La señal de intensidad en cada píxel en el plano del detector oscila en función de xg . La oscilación de intensidad registrada se puede representar mediante una serie de Fourier y al registrar y comparar estas oscilaciones de intensidad con o sin la muestra, se puede extraer el cambio de fase diferencial separado y la señal de absorción con respecto a la imagen de referencia. [27] Al igual que en las imágenes basadas en analizadores, también se puede reconstruir una señal adicional proveniente de la dispersión de ángulo ultrapequeño por microestructuras de subpíxeles de la muestra, llamada contraste de campo oscuro. [30] Este método proporciona una alta resolución espacial, pero también requiere largos tiempos de exposición.
Un enfoque alternativo es la recuperación de la fase diferencial mediante el uso de franjas Moiré . Estos se crean como una superposición de la autoimagen de G1 y el patrón de G2 utilizando rejillas con la misma periodicidad e inclinando G2 contra G1 con respecto al eje óptico con un ángulo muy pequeño (<<1). Estas franjas de muaré actúan como franjas portadoras porque tienen un espaciado/período mucho mayor (frecuencia espacial más pequeña) que las franjas de Talbot y, por lo tanto, el gradiente de fase introducido por la muestra puede detectarse como el desplazamiento de las franjas de muaré. [26] Con un análisis de Fourier del patrón Moiré también se puede extraer la señal de absorción y de campo oscuro. [70] Utilizando este enfoque, la resolución espacial es menor que la lograda con la técnica de paso de fase, pero el tiempo total de exposición puede ser mucho más corto, porque se puede recuperar una imagen de fase diferencial con un solo patrón Moiré. [71] La técnica de análisis de Fourier de disparo único se utilizó en las primeras imágenes de dispersión basadas en cuadrículas [31] similar al sensor de frente de onda Shack-Hartmann en óptica, lo que permitió los primeros estudios con animales vivos. [72]
Una técnica para eliminar el escaneo mecánico de la rejilla y aún conservar la máxima resolución espacial es el paso de fase electrónico. [33] Explora el punto fuente del tubo de rayos X con un campo electromagnético. Esto hace que la proyección del objeto se mueva en la dirección opuesta y también provoca un movimiento relativo entre la proyección y las franjas de Moiré. Las imágenes se desplazan digitalmente para realinear las proyecciones. El resultado es que la proyección del objeto es estacionaria, mientras que las franjas de Moiré se mueven sobre él. Esta técnica sintetiza eficazmente el proceso de paso de fase, pero sin los costos y retrasos asociados con los movimientos mecánicos.
Con ambos métodos de extracción de fase, la tomografía es aplicable rotando la muestra alrededor del eje tomográfico, registrando una serie de imágenes con diferentes ángulos de proyección y usando algoritmos de retroproyección para reconstruir las distribuciones tridimensionales de la parte real e imaginaria de la refracción. índice. [27] [71] También se ha demostrado la reconstrucción tomográfica cuantitativa de la señal de campo oscuro para la técnica de paso de fase [34] y, muy recientemente, también para el enfoque del patrón Moiré. [70]
También se ha demostrado que las imágenes de campo oscuro con el interferómetro de rejilla se pueden utilizar para extraer información de orientación de detalles estructurales en el régimen submicrométrico más allá de la resolución espacial del sistema de detección. Mientras que la dispersión de los rayos X en dirección perpendicular a las líneas de rejilla proporciona el contraste del campo oscuro, la dispersión en dirección paralela a las líneas de rejilla sólo produce una imagen borrosa, que no es visible con la baja resolución de la imagen. detector. [31] Esta propiedad física intrínseca de la configuración se utiliza para extraer información de orientación sobre la variación angular del poder de dispersión local de la muestra girando la muestra alrededor del eje óptico de la configuración y recolectando un conjunto de varios campos oscuros. imágenes, cada una de las cuales mide el componente de la dispersión perpendicular a las líneas de la rejilla para esa orientación particular. Esto puede usarse para determinar el ángulo local y el grado de orientación del hueso y podría proporcionar información valiosa para mejorar la investigación y el diagnóstico de enfermedades óseas como la osteoporosis o la osteoartritis . [73] [74]
La configuración estándar, como se muestra en la figura de la derecha, requiere coherencia espacial de la fuente y, en consecuencia, está limitada a fuentes de radiación sincrotrón de alto brillo. Este problema se puede solucionar añadiendo una tercera rejilla cerca de la fuente de rayos X, conocida como interferómetro Talbot-Lau . Esta rejilla de fuente, que suele ser una rejilla de absorción con rendijas de transmisión, crea una "matriz de fuentes individualmente coherentes pero mutuamente incoherentes". Como la rejilla de la fuente puede contener una gran cantidad de aberturas individuales, cada una de las cuales crea una fuente lineal virtual suficientemente coherente, se pueden utilizar de manera eficiente generadores de rayos X estándar con tamaños de fuente de unos pocos milímetros cuadrados y el campo de visión se puede aumentar significativamente. [29]
Dado que la posición de las franjas de interferencia formadas detrás de la rejilla divisora de haz es independiente de la longitud de onda en un amplio rango de energía de la radiación incidente, el interferómetro en configuración de paso de fase todavía se puede utilizar eficientemente con radiación policromática. [27] Para la configuración del patrón Moiré, la restricción de la energía de radiación es un poco más estricta, porque un ancho de banda finito de energía en lugar de radiación monocromática provoca una disminución en la visibilidad de las franjas Moiré y, por lo tanto, en la calidad de la imagen, pero una policromaticidad moderada es todavía permitido. [75] Una gran ventaja del uso de radiación policromática es el acortamiento de los tiempos de exposición y esto se ha aprovechado recientemente mediante el uso de radiación sincrotrón blanca para realizar la primera tomografía de contraste de fase dinámica (resuelta en el tiempo). [35]
Una barrera técnica a superar es la fabricación de rejillas con elevada relación de aspecto y periodos pequeños. La producción de estas rejillas a partir de una oblea de silicio implica técnicas de microfabricación como fotolitografía , grabado anisotrópico en húmedo , galvanoplastia y moldeado . [76] Un proceso de fabricación muy común para rejillas de rayos X es LIGA , que se basa en la litografía de rayos X profunda y la galvanoplastia. Fue desarrollado en la década de 1980 para la fabricación de microestructuras con relaciones de aspecto extremadamente altas por científicos del Instituto Tecnológico de Karlsruhe (KIT) . [77] Otro requisito técnico es la estabilidad y la alineación y el movimiento precisos de las rejillas (normalmente en el rango de algunos nm), pero en comparación con otros métodos, por ejemplo, el interferómetro de cristal, la restricción es fácil de cumplir.
El desafío de la fabricación de rejillas se vio facilitado por el descubrimiento de un efecto muaré de fase [38] que proporciona un interferómetro de rejilla de todas las fases que funciona con fuentes compactas, llamado interferómetro policromático de campo lejano (ver figura a la derecha). Las rejillas de fase son más fáciles de hacer en comparación con las rejillas de fuente y analizador mencionadas anteriormente, ya que la profundidad de la rejilla requerida para provocar un cambio de fase es mucho menor que la necesaria para absorber rayos X. Se han utilizado rejillas de fase de períodos de 200 a 400 nanómetros para mejorar la sensibilidad de fase en generadores de imágenes PFI de mesa. [39] En PFI se utiliza una rejilla de fase para convertir las finas franjas de interferencia en un patrón de intensidad amplio en un plano distal, basado en el efecto muaré de fase . Además de una mayor sensibilidad, otro incentivo para períodos de rejilla más pequeños es que la coherencia lateral de la fuente debe ser de al menos un período de rejilla.
Una desventaja de la configuración GBI estándar es la sensibilidad a un solo componente del gradiente de fase, que es la dirección paralela a las rejillas 1-D. Este problema se ha resuelto registrando imágenes de contraste de fase diferencial de la muestra en ambas direcciones xey girando la muestra (o las rejillas) 90° [78] o mediante el empleo de rejillas bidimensionales. [79]
Al ser una técnica de fase diferencial, la GBI no es tan sensible como la interferometría cristalina a bajas frecuencias espaciales, pero debido a la alta resistencia del método contra las inestabilidades mecánicas, la posibilidad de utilizar detectores con grandes píxeles y un gran campo de visión y, de manera crucial, De importancia, la aplicabilidad a los tubos de rayos X de laboratorio convencionales, la obtención de imágenes basadas en rejillas es una técnica muy prometedora para el diagnóstico médico y la obtención de imágenes de tejidos blandos. Las primeras aplicaciones médicas, como un estudio preclínico de mamografía , muestran un gran potencial para el futuro de esta técnica. [36] Más allá de eso, GBI tiene aplicaciones en un amplio campo de la ciencia de materiales; por ejemplo, podría usarse para mejorar el control de seguridad. [30] [80]
La iluminación de bordes (EI) se desarrolló en el sincrotrón italiano (Elettra) a finales de los años 90, [19] como alternativa al ABI. Se basa en la observación de que, iluminando sólo el borde de los píxeles del detector, se obtiene una alta sensibilidad a los efectos de fase (ver figura).
También en este caso se explota la relación entre el ángulo de refracción de los rayos X y la primera derivada del cambio de fase provocado por el objeto:
Si el haz de rayos X es verticalmente delgado e incide en el borde del detector, la refracción de los rayos X puede cambiar el estado de los rayos X individuales de "detectados" a "no detectados" y viceversa, desempeñando efectivamente el mismo papel que la curva de balanceo del cristal en ABI. Esta analogía con la ABI, ya observada cuando se desarrolló inicialmente el método, [19] se demostró formalmente más recientemente. [81] Efectivamente, se obtiene el mismo efecto: una fina selección angular en la dirección del fotón; sin embargo, mientras que en las imágenes basadas en analizadores el haz debe ser altamente colimado y monocromático, la ausencia del cristal significa que la iluminación de los bordes se puede implementar con haces divergentes y policromáticos, como los generados por un tubo de rayos X de ánodo giratorio convencional. . Esto se hace introduciendo dos máscaras diseñadas oportunamente (a veces denominadas máscaras de “apertura codificada” [20] ), una inmediatamente antes de la muestra y otra en contacto con el detector (ver figura).
El propósito de esta última máscara es simplemente crear regiones insensibles entre píxeles adyacentes, y su uso puede evitarse si se emplea tecnología de detección especializada. De esta manera, la configuración de la iluminación de los bordes se realiza simultáneamente para todas las filas de píxeles de un detector de área. Esta pluralidad de haces individuales significa que, a diferencia de la implementación de sincrotrón discutida anteriormente, no se requiere escaneo de muestra: la muestra se coloca aguas abajo de la máscara de muestra y se obtiene la imagen en un solo disparo (dos si se realiza la recuperación de fase [22] ). Aunque la configuración quizás se parezca superficialmente a la de un interferómetro de rejilla, el mecanismo físico subyacente es diferente. A diferencia de otras técnicas de imágenes de rayos X de contraste de fase, la iluminación de bordes es una técnica incoherente y, de hecho, se demostró que funciona con fuentes incoherentes espacial y temporalmente, sin ninguna apertura o colimación de fuente adicional. [22] [82] Por ejemplo, se utilizan habitualmente puntos focales de 100 μm que son compatibles, por ejemplo, con sistemas de mamografía de diagnóstico. La recuperación de fase cuantitativa también se demostró con fuentes incoherentes (no colimadas), lo que demuestra que en algunos casos se pueden obtener resultados análogos al estándar de oro del sincrotrón. [22] La configuración relativamente simple de iluminación de bordes da como resultado una sensibilidad de fase al menos comparable con otras técnicas de imágenes de rayos X de contraste de fase, [83] da como resultado una serie de ventajas, que incluyen un tiempo de exposición reducido para la misma fuente de energía, dosis de radiación reducida, robustez contra las vibraciones ambientales y acceso más fácil a alta energía de rayos X. [83] [84] [85] [86] Además, dado que su relación de aspecto no es particularmente exigente, las máscaras son baratas, fáciles de fabricar (por ejemplo, no requieren litografía de rayos X) y ya se pueden escalar a áreas grandes. El método se puede ampliar fácilmente a la sensibilidad de fase en dos direcciones, por ejemplo, mediante la realización de aberturas en forma de L para la iluminación simultánea de dos bordes ortogonales en cada píxel del detector. [87] De manera más general, si bien en su implementación más simple los haces coinciden con filas de píxeles individuales (o píxeles), el método es muy flexible y, por ejemplo, se pueden usar detectores dispersos y máscaras asimétricas [88] y compactos [89] y microscopía. Se pueden construir [90] sistemas. Hasta ahora, el método se ha demostrado con éxito en áreas como escaneo de seguridad, [91] imágenes biológicas, [83] [89] ciencia de materiales, [92] paleontología [93] [94] y otras; También se demostró la adaptación al 3D (tomografía computarizada). [93] [95]Además de la traducción simple para su uso con fuentes de rayos X convencionales, existen beneficios sustanciales en la implementación de la iluminación de bordes con radiación sincrotrón coherente, entre los que se encuentran un alto rendimiento a energías de rayos X muy altas [94] y altas resoluciones angulares. [96]
Se han identificado cuatro beneficios potenciales del contraste de fases en el contexto de imágenes médicas: [42]
Una comparación cuantitativa de la mamografía de contraste de fase y de absorción que tuvo en cuenta limitaciones realistas (dosis, geometría y economía de fotones) concluyó que las imágenes de contraste de fase basadas en rejillas (interferometría de Talbot) no muestran una diferencia general de señal a mejora del ruido en relación con el contraste de absorción, pero el rendimiento depende en gran medida de la tarea. [97] [98] Esta comparación aún no se ha realizado para todos los métodos de contraste de fases; sin embargo, las siguientes consideraciones son fundamentales para dicha comparación:
Algunas de las compensaciones se ilustran en la figura de la derecha, que muestra el beneficio del contraste de fase sobre el contraste de absorción para la detección de diferentes objetivos de relevancia en mamografía en función del tamaño del objetivo. [97] Tenga en cuenta que estos resultados no incluyen los beneficios potenciales de la señal de campo oscuro.
Tras estudios preliminares de laboratorio, por ejemplo, en tomografía computarizada [100] y mamografía, [101] las imágenes de contraste de fase están comenzando a aplicarse en aplicaciones médicas reales, como imágenes de los pulmones, [102] imágenes de las extremidades, [103] imágenes intra- obtención de imágenes de muestras operatorias. [104] Las aplicaciones in vivo de imágenes de contraste de fase han sido impulsadas por el estudio pionero de mamografía con radiación sincrotrón realizado en Trieste, Italia. [105]
{{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite book}}
: Mantenimiento CS1: falta el editor de la ubicación ( enlace )