stringtranslate.com

Microscopía de campo de luz

La microscopía de campo de luz ( LFM ) es un método de obtención de imágenes microscópicas tridimensionales (3D) sin escaneo basado en la teoría del campo de luz . Esta técnica permite obtener imágenes volumétricas grandes ([~0,1 a 1 mm] 3 ) en subsegundos (~10 Hz ) con una resolución espacial de ~1 μm en condiciones de dispersión débil y semitransparencia, lo que nunca se ha logrado con otros métodos. Al igual que en la representación tradicional del campo de luz , hay dos pasos para la obtención de imágenes LFM: captura y procesamiento del campo de luz. En la mayoría de las configuraciones, se utiliza una matriz de microlentes para capturar el campo de luz. En cuanto al procesamiento, puede basarse en dos tipos de representaciones de la propagación de la luz: la imagen de la óptica de rayos [1] y la imagen de la óptica de ondas [2] . El Laboratorio de Gráficos Informáticos de la Universidad de Stanford publicó su primer prototipo de LFM en 2006 [1] y ha estado trabajando en la vanguardia desde entonces.

Generación de campo de luz

Parametrización de rayos en la microscopía de campo de luz. (A) Parametrización de campos de luz sin ninguna lente de relevo. El plano del objeto se conjuga con el plano de la matriz de microlentes a través del objetivo , y el plano del objetivo se conjuga con el plano del sensor a través de microlentes: la imagen intermedia de dos puntos está en el plano de la matriz de microlentes, correspondiendo una microlente a un punto; cada subimagen detrás de la microlente correspondiente incorpora una imagen del objetivo. (B) Parametrización de campos de luz con un sistema de relevo. La conjugación entre puntos en el plano focal y mirolentes aún se mantiene; sin embargo, la subimagen detrás de cada microlente solo incorpora una parte del objetivo. En ambos sistemas, un rayo se parametriza como una combinación de una coordenada 2D de la microlente a través de la cual pasa el rayo y una coordenada 2D del píxel de la subimagen en el que incide.

Un campo de luz es una colección de todos los rayos que fluyen a través de un espacio libre, donde cada rayo puede parametrizarse con cuatro variables. [3] En muchos casos, se aplican para la parametrización dos coordenadas 2D, denotadas como y , en dos planos paralelos con los que se intersecan los rayos. En consecuencia, la intensidad del campo de luz 4D puede describirse como una función escalar: , donde es la distancia entre dos planos.

El LFM se puede construir sobre la configuración tradicional de un microscopio de fluorescencia de campo amplio y una cámara CCD estándar o sCMOS . [1] Se genera un campo de luz colocando una matriz de microlentes en el plano de imagen intermedio del objetivo (o el plano focal trasero de una lente de relevo opcional) y se captura además colocando el sensor de la cámara en el plano focal trasero de las microlentes. Como resultado, las coordenadas de las microlentes se conjugan con las del plano del objeto (si se agregan lentes de relevo adicionales, entonces en el plano focal delantero del objetivo) ; las coordenadas de los píxeles detrás de cada microlente se conjugan con las del plano del objetivo . Para uniformidad y conveniencia, llamaremos al plano el plano de enfoque original en este artículo. Correspondientemente, es la distancia focal de las microlentes (es decir, la distancia entre el plano de la matriz de microlentes y el plano del sensor).

Además, las aperturas y la distancia focal de cada lente y las dimensiones del sensor y del conjunto de microlentes deben elegirse adecuadamente para garantizar que no haya superposición ni áreas vacías entre subimágenes adyacentes detrás de las microlentes correspondientes.

Realización a partir de la imagen de óptica de rayos

Esta sección presenta principalmente el trabajo de Levoy et al ., 2006. [1]

Vistas en perspectiva desde diferentes ángulos

Debido a las relaciones conjugadas mencionadas anteriormente, cualquier píxel determinado detrás de una determinada microlente corresponde al rayo que pasa por el punto en dirección . Por lo tanto, al extraer el píxel de todas las subimágenes y unirlas, se obtiene una vista en perspectiva desde un ángulo determinado: . En este escenario, la resolución espacial está determinada por la cantidad de microlentes; la resolución angular está determinada por la cantidad de píxeles detrás de cada microlente.

Vistas tomográficas basadas en reenfoque sintético

Paso 1: Reorientación digital

Reenfoque digital del campo de luz . Supongamos que la imagen original se ha enfocado en el plano que se conjuga con el plano de la matriz de microlentes, por lo que la imagen debe sintetizarse sumando los píxeles detrás de cada microlente para formar un enfoque digital en este plano. Ahora, queremos reenfocar en otro plano cuyo plano conjugado está a α f del plano del sensor mediante la representación de los rayos definidos entre el plano de la matriz de microlentes y el plano del sensor. Para obtener la intensidad de cada punto en el plano de reenfoque, sumamos los rayos cuyas líneas de extensión inversa terminan en este punto. Esta figura es la demostración de un reenfoque sintético unidimensional, y la otra dimensión se puede reenfocar independientemente de la misma manera matemática. Esta figura es una modificación de la Fig. 1 en Ren Ng 2005. [4]

El enfoque sintético utiliza el campo de luz capturado para calcular el enfoque de la fotografía en cualquier sección arbitraria. Simplemente sumando todos los píxeles de cada subimagen detrás de la microlente (equivalente a recolectar toda la radiación proveniente de diferentes ángulos que cae en la misma posición), la imagen se enfoca exactamente en el plano que se conjuga con el plano de la matriz de microlentes:

,

donde es el ángulo entre el rayo y la normal del plano del sensor, y si el origen del sistema de coordenadas de cada subimagen se encuentra en el eje óptico principal de la microlente correspondiente. Ahora, se puede definir una nueva función para absorber el factor de proyección efectivo en la intensidad del campo de luz y obtener la colección de radiancia real de cada píxel: .

Para enfocar algún otro plano además del plano focal frontal del objetivo, por ejemplo, el plano cuyo plano conjugado está alejado del plano del sensor, el plano conjugado se puede mover de a y repararmetrizar su campo de luz de nuevo al original en :

.

De esta forma, la fotografía reenfocada se puede calcular con la siguiente fórmula:

.

En consecuencia, se genera una pila focal para recapitular la imagen 3D instantánea del espacio del objeto. Además, también son posibles de forma sintética planos focales inclinados o incluso curvados. [5] Además, cualquier imagen 2D reconstruida enfocada a una profundidad arbitraria corresponde a una porción 2D de un campo de luz 4D en el dominio de Fourier , donde la complejidad del algoritmo se puede reducir de a . [4]

Paso 2: Medición de la función de dispersión de puntos

Sin embargo, debido a la difracción y al desenfoque, la pila focal difiere de la distribución de intensidad real de los vóxeles , que es lo que realmente se desea. En cambio, es una convolución de y una función de dispersión de puntos (PSF):

Por lo tanto, la forma 3D de la PSF debe medirse para restar su efecto y obtener la intensidad neta de los vóxeles. Esta medición se puede realizar fácilmente colocando una esfera fluorescente en el centro del plano de enfoque original y registrando su campo de luz, en base al cual se determina la forma 3D de la PSF enfocando sintéticamente a una profundidad variable. Dado que la PSF se adquiere con la misma configuración LFM y el mismo procedimiento de reenfoque digital que la pila focal, esta medición refleja correctamente el rango angular de rayos capturados por el objetivo (incluida cualquier caída en la intensidad); por lo tanto, esta PSF sintética está realmente libre de ruido y aberraciones. La forma de la PSF puede considerarse idéntica en todas partes dentro de nuestro campo de visión (FOV) deseado; por lo tanto, se pueden evitar múltiples mediciones.

Paso 3: Deconvolución 3D

En el dominio de Fourier, la intensidad real de los vóxeles tiene una relación muy simple con la pila focal y la PSF:

,

donde es el operador de la transformada de Fourier . Sin embargo, puede que no sea posible resolver directamente la ecuación anterior, dado el hecho de que la apertura es de tamaño limitado, lo que da como resultado que la PSF esté limitada en banda (es decir, su transformada de Fourier tiene ceros). En cambio, un algoritmo iterativo llamado deconvolución iterativa restringida en el dominio espacial es mucho más práctico aquí: [6]

  1. ;
  2. .

Esta idea se basa en un descenso de gradiente restringido: la estimación de se mejora iterativamente calculando la diferencia entre la pila focal real y la pila focal estimada y corrigiendo con la diferencia actual ( está restringida para que no sea negativa).

Fotografía de cortes de Fourier

La fórmula de se puede reescribir adoptando el concepto del Teorema de Proyección-Sección de Fourier. [7] Debido a que el operador de fotografía se puede ver como una cizalladura seguida de una proyección, el resultado debería ser proporcional a una sección 2D dilatada de la transformada de Fourier 4D de un campo de luz. Precisamente, se puede generar una imagen reenfocada a partir del espectro de Fourier 4D de un campo de luz extrayendo una sección 2D, aplicando una transformada 2D inversa y escalando. Antes de la demostración, primero presentamos algunos operadores:

  1. Operador de proyección integral:
  2. Operador de corte:
  3. Fotografía Cambio de base : Sea un operador para un cambio de base de una función de 4 dimensiones tal que , con .
  4. Operador de transformada de Fourier : Sea el operador de transformada de Fourier N-dimensional.

Con estas definiciones, podemos reescribir .

De acuerdo con el teorema generalizado de la rebanada de Fourier, [7] tenemos

,

y por lo tanto el operador de fotografía tiene la forma

.

Según la fórmula, sabemos que una fotografía es la transformada de Fourier 2D inversa de un corte 2D dilatado en la transformada de Fourier 4D del campo de luz.

Fotografía de cortes discretos de Fourier

Si todo lo que tenemos disponible son muestras del campo de luz, en lugar de utilizar el teorema de corte de Fourier para la señal continua mencionado anteriormente, adoptamos el teorema de corte de Fourier discreto, que es una generalización de la transformada de Radon discreta, para calcular la imagen reenfocada. [8]

Supongamos que un campo de luz es periódico con períodos y está definido en el hipercubo . Además, supongamos que hay muestras conocidas del campo de luz , donde y , respectivamente. Entonces, podemos definir mediante interpolación trigonométrica con estos puntos de muestra:

,

dónde

.

Tenga en cuenta que los factores constantes se eliminan para simplificar.

Para calcular su fotografía reenfocada, reemplazamos la integral infinita en la fórmula de con la suma cuyos límites son y . Es decir,

.

Entonces, según indica el teorema de la rebanada de Fourier discreta, podemos representar la fotografía utilizando la rebanada de Fourier:

Realización a partir de la imagen de óptica ondulatoria

Aunque la cámara plenóptica basada en óptica de rayos ha demostrado un rendimiento favorable en el mundo macroscópico, la difracción impone un límite a la reconstrucción de LFM si nos atenemos a la jerga de la óptica de rayos. Por lo tanto, puede resultar mucho más conveniente cambiar a la óptica ondulatoria. (Esta sección presenta principalmente el trabajo de Broxton et al ., 2013. [2] )

Discretización del espacio

El campo de visión de interés se segmenta en vóxeles, cada uno con una etiqueta . De este modo, todo el campo de visión se puede representar de forma discreta con un vector con una dimensión de . De forma similar, un vector representa el plano del sensor, donde cada elemento denota un píxel del sensor. En la condición de propagación incoherente entre diferentes vóxeles, la transmisión del campo de luz desde el espacio del objeto al sensor se puede vincular linealmente mediante una matriz de medición, en la que se incorpora la información de PSF:

En el escenario de la óptica de rayos, se genera una pila focal mediante el enfoque sintético de los rayos y luego se aplica la deconvolución con una PSF sintetizada para disminuir la borrosidad causada por la naturaleza ondulatoria de la luz. En el escenario de la óptica ondulatoria, por otro lado, la matriz de medición (que describe la transmisión del campo de luz) se calcula directamente en función de la propagación de las ondas. A diferencia de los microscopios ópticos de transición cuya forma de PSF es invariante (por ejemplo, Airy Pattern ) con respecto a la posición del emisor, un emisor en cada vóxel genera un patrón único en el sensor de un LFM. En otras palabras, cada columna es distinta. En las siguientes secciones, se discutirá en detalle el cálculo de toda la matriz de medición.

Respuesta al impulso óptico

La respuesta al impulso óptico es la intensidad de un campo eléctrico en una posición 2D en el plano del sensor cuando una fuente puntual isótropa de amplitud unitaria se coloca en una posición 3D en el campo de visión. Hay tres pasos a lo largo de la propagación del campo eléctrico: viajar desde una fuente puntual hasta el plano de la imagen nativa (es decir, el plano del conjunto de microlentes), pasar a través del conjunto de microlentes y propagarse hacia el plano del sensor.

Paso 1: Propagación a través de un objetivo

Para un objetivo con una apertura circular, el frente de onda en el plano de imagen nativo iniciado desde un emisor se puede calcular utilizando la teoría escalar de Debye: [9]

,

donde es la longitud focal del objetivo; es su aumento. es la longitud de onda. es el semiángulo de la apertura numérica ( es el índice de refracción de la muestra). es la función de apodización del microscopio ( para objetivos corregidos por Abbes-seno). es la función de Bessel de orden cero de primer tipo. y son las coordenadas ópticas radiales y axiales normalizadas, respectivamente:

,

¿Dónde está el número de onda?

Paso 2: Enfoque a través del conjunto de microlentes

Cada microlente puede considerarse como una máscara de fase:

,

donde es la longitud focal de las microlentes y es el vector que apunta desde el centro de la microlente a un punto de la microlente. Vale la pena notar que es distinto de cero solo cuando se encuentra en el área de transmisión efectiva de una microlente.

De este modo, la función de transmisión de todo el conjunto de microlentes se puede representar como convolucionada con una función de peine 2D:

,

¿Dónde está el paso (digamos, la dimensión) de las microlentes?

Paso 3: Propagación de campo cercano al sensor

La propagación del frente de onda con la distancia desde el plano de la imagen nativa hasta el plano del sensor se puede calcular con una integral de difracción de Fresnel :

,

¿Dónde está el frente de onda que pasa inmediatamente por el plano de imagen nativo?

Por lo tanto, toda la respuesta del impulso óptico se puede expresar en términos de una convolución:

.

Cálculo de la matriz de medición

Una vez adquirida la respuesta al impulso óptico, cualquier elemento de la matriz de medición se puede calcular como:

,

donde es el área del píxel y es el volumen del vóxel . El filtro de peso se agrega para que coincida con el hecho de que una PSF contribuye más en el centro de un vóxel que en los bordes. La integral de superposición lineal se basa en el supuesto de que los fluoróforos en cada volumen infinitesimal experimentan un proceso de emisión estocástico e incoherente, considerando sus fluctuaciones rápidas y aleatorias.

Resolviendo el problema inverso

La naturaleza ruidosa de las mediciones

Nuevamente, debido al ancho de banda limitado, el ruido de disparo de fotones y la enorme dimensión de la matriz, es imposible resolver directamente el problema inverso como: . En cambio, una relación estocástica entre un campo de luz discreto y el campo de visión se asemeja más a:

,

donde es la fluorescencia de fondo medida antes de la obtención de la imagen; es el ruido de Poisson. Por lo tanto, ahora se convierte en un vector aleatorio con valores distribuidos según Poisson en unidades de fotoelectrones e .

Estimación de máxima verosimilitud

Basado en la idea de maximizar la probabilidad del campo de luz medido dado un campo de visión y un fondo particulares , el esquema de iteración de Richardson-Lucy proporciona un algoritmo de deconvolución 3D efectivo aquí:

.

donde el operador conserva los argumentos diagonales de una matriz y establece sus elementos fuera de la diagonal en cero.

Aplicaciones

Microscopía de campo de luz para imágenes neuronales funcionales

A partir del trabajo inicial en la Universidad de Stanford aplicando microscopía de campo de luz a la obtención de imágenes de calcio en larvas de pez cebra ( Danio Rerio ), [10] varios artículos han aplicado ahora la microscopía de campo de luz a la obtención de imágenes neuronales funcionales, incluyendo la medición de las actividades dinámicas neuronales en todo el cerebro de C. elegans , [11] la obtención de imágenes de todo el cerebro en larvas de pez cebra, [11] [12] la obtención de imágenes de sensores de actividad de voltaje y calcio en todo el cerebro de moscas de la fruta ( Drosophila ) a hasta 200 Hz, [13] y la obtención de imágenes rápidas de volúmenes de 1 mm x 1 mm x 0,75 mm en el hipocampo de ratones que navegan por un entorno virtual. [14] Esta área de aplicación es un área de rápido desarrollo en la intersección de la óptica computacional y la neurociencia. [15]

Véase también

Referencias

  1. ^ abcd Levoy, Marc; Ng, Ren; Adams, Andrew; Footer, Matthew; Horowitz, Mark (2006). "Microscopía de campo de luz". Documentos de ACM SIGGRAPH 2006 sobre - SIGGRAPH '06 . págs. 924–934. doi :10.1145/1179352.1141976. ISBN 978-1595933645.S2CID867959  .​
  2. ^ ab Broxton, Michael; Grosenick, Logan; Yang, Samuel; Cohen, Noy; Andalman, Aaron; Deisseroth, Karl; Levoy, Marc (2013-10-21). "Teoría de la óptica ondulatoria y deconvolución 3-D para el microscopio de campo de luz". Optics Express . 21 (21): 25418–25439. Bibcode :2013OExpr..2125418B. doi :10.1364/OE.21.025418. ISSN  1094-4087. PMC 3867103 . PMID  24150383. 
  3. ^ Levoy, Marc; Hanrahan, Pat (1996). "Representación de campos de luz". Actas de la 23.ª conferencia anual sobre gráficos por ordenador y técnicas interactivas . SIGGRAPH '96. págs. 31–42. doi :10.1145/237170.237199. ISBN 978-0897917469. Número de identificación del sujeto  1363510.
  4. ^ ab Ng, Ren (2005). "Fotografía de cortes de Fourier". Documentos de ACM SIGGRAPH 2005. SIGGRAPH '05. págs. 735–744. CiteSeerX 10.1.1.461.4454 . doi :10.1145/1186822.1073256. ISBN  9781450378253.S2CID 1806641  .
  5. ^ Vaish, V.; Garg, G.; Talvala, E.; Antunez, E.; Wilburn, B.; Horowitz, M.; Levoy, M. (junio de 2005). "Enfoque de apertura sintética utilizando una factorización de deformación transversal de la transformación de visualización". Conferencia de la IEEE Computer Society de 2005 sobre visión artificial y reconocimiento de patrones (CVPR'05) - Talleres . Vol. 3. pág. 129. doi :10.1109/CVPR.2005.537. ISBN 978-0-7695-2372-9.S2CID12143675  .​
  6. ^ Swedlow, Jason R.; Sedat, John W.; Agard, David A. (1996). Jansson, Peter A. (ed.). Deconvolución de imágenes y espectros (2.ª ed.). Orlando, FL, EE. UU.: Academic Press, Inc., págs. 284–309. ISBN 978-0123802224.
  7. ^ ab Ng, R. (2005). Fotografía de cortes de Fourier. En ACM SIGGRAPH 2005 Papers (pp. 735-744).
  8. ^ Nava, FP, Marichal-Hernández, JG, y Rodríguez-Ramos, JM (2008, agosto). The discrete focal stack transform. En 2008 16th European Signal Processing Conference (pp. 1-5). IEEE.
  9. ^ Gu, Min (2000). Teoría avanzada de imágenes ópticas . Springer Series in Optical Sciences. Vol. 75. Bibcode :2000aoit.conf.....G. doi :10.1007/978-3-540-48471-4. ISBN 978-3-662-14272-1.
  10. ^ Grosenick, Logan; Anderson, Todd; Smith, Stephen (28 de junio de 2009). "Selección de fuente elástica para la obtención de imágenes in vivo de conjuntos neuronales". Simposio internacional IEEE de 2009 sobre imágenes biomédicas: de nano a macro . págs. 1263–1266. doi :10.1109/ISBI.2009.5193292. ISBN . 978-1-4244-3931-7. Número de identificación del sujeto  1914757.
  11. ^ ab Prevedel, Robert; Yoon, Young-Gyu; Hoffmann, Maximilian; Pak, Nikita; Wetzstein, Gordon; Kato, Saul; Schrödel, Tina; Raskar, Ramesh; Zimmer, Manuel (18 de mayo de 2014). "Imágenes tridimensionales simultáneas de la actividad neuronal en animales completos mediante microscopía de campo de luz". Nature Methods . 11 (7): 727–730. doi :10.1109/ISBI.2009.5193292. PMC 4100252 . PMID  24836920. 
  12. ^ Cong, Lin; Wang, Zeguan; Chai, Yuming; Cuelga, Wei; Shang, Chunfeng; Yang, Wenbin; Bai, Lu; Du, Jiulin; Wang, Kai (20 de septiembre de 2017). "Imágenes rápidas de todo el cerebro de la actividad neuronal en larvas de pez cebra (Danio rerio) que se comportan libremente". eVida . 6 . doi : 10.7554/eLife.28158 . PMC 5644961 . PMID  28930070. 
  13. ^ Aimon, Sophie; Katsuki, Takeo; Grosenick, Logan; Broxton, Michael; Deisseroth, Karl; Sejnowski, Terrence; Greenspan, Ralph (2017-09-02). "Imágenes rápidas de casi todo el cerebro en Drosophila adulta durante las respuestas a estímulos y comportamiento". PLOS Biology . 17 (2): e2006732. bioRxiv 10.1101/033803 . doi : 10.1371/journal.pbio.2006732 . PMC 6395010 . PMID  30768592.  
  14. ^ Grosenick, Logan; Broxton, Michael; Kim, Christina; Liston, Conor; Poole, Ben; Yang, Samuel; Andalman, Aaron; Scharff, Edward; Cohen, Noy; Yizhar, Ofer; Ramakrishnan, Charu; Ganguli, Surya; Suppes, Patrick; Levoy, Marc; Deisseroth, Karl (1 de mayo de 2017). "Identificación de la dinámica de la actividad celular en grandes volúmenes de tejido en el cerebro de los mamíferos". bioRxiv 10.1101/132688 . doi : 10.1101/132688 .  {{cite journal}}: Requiere citar revista |journal=( ayuda )
  15. ^ "Microscopía de campo de luz en neuroimagen".