Los estimadores de conectividad cerebral [1] representan patrones de enlaces en el cerebro . La conectividad puede considerarse en diferentes niveles de la organización cerebral: desde las neuronas , hasta los conjuntos neuronales y las estructuras cerebrales. La conectividad cerebral involucra diferentes conceptos como: conectividad neuroanatómica o estructural (patrón de enlaces anatómicos), conectividad funcional (generalmente entendida como dependencias estadísticas ) y conectividad efectiva (referida a interacciones causales ). [2]
La conectividad neuroanatómica es inherentemente difícil de definir dado el hecho de que a escala microscópica de las neuronas, las nuevas conexiones sinápticas o la eliminación de las existentes se forman dinámicamente y dependen en gran medida de la función ejecutada, pero pueden considerarse como vías que se extienden sobre regiones del cerebro, que están de acuerdo con el conocimiento anatómico general. La imagen ponderada por difusión (DWI) se puede utilizar para proporcionar dicha información. La distinción entre conectividad funcional y efectiva no siempre es nítida; a veces la conectividad causal o dirigida se denomina conectividad funcional. La conectividad funcional puede definirse como la correlación temporal (en términos de dependencia estadísticamente significativa entre regiones cerebrales distantes) entre la actividad de diferentes conjuntos neuronales, mientras que la conectividad efectiva puede definirse como la influencia directa o indirecta que un sistema neuronal ejerce sobre otro. [3] Algunos estimadores de conectividad cerebral evalúan la conectividad a partir de series temporales de actividad cerebral como la electroencefalografía (EEG), el potencial de campo local (LFP) o los trenes de picos , con un efecto sobre la conectividad dirigida. Estos estimadores se pueden aplicar a datos de fMRI , si las secuencias de imágenes requeridas están disponibles. Entre los estimadores de conectividad, existen medidas lineales y no lineales, bivariadas y multivariadas. Algunos estimadores también indican direccionalidad. Los diferentes métodos de estimación de conectividad varían en su eficacia. [4] [5] [6] Este artículo ofrece una descripción general de estas medidas, con énfasis en los métodos más eficaces.
Los estimadores clásicos de conectividad son la correlación y la coherencia . Las medidas anteriores proporcionan información sobre la direccionalidad de las interacciones en términos de retraso (correlación) o coherencia ( fase ), sin embargo, la información no implica interacción causal. Además, puede ser ambigua, ya que la fase se determina módulo 2π. Tampoco es posible identificarla mediante correlación o coherencia.
Los estimadores no lineales de conectividad más frecuentemente utilizados son la información mutua , la entropía de transferencia , la sincronización generalizada, [7] la medida de continuidad, [8] la probabilidad de sincronización, [9] y la sincronización de fase . [7] La información mutua y la entropía de transferencia se basan en la construcción de histogramas para estimaciones de probabilidad. La medida de continuidad, las sincronizaciones generalizadas y la probabilidad de sincronización son métodos muy similares basados en la reconstrucción del espacio de fase . Entre estas medidas, solo la entropía de transferencia permite la determinación de la direccionalidad. Las medidas no lineales requieren segmentos estacionarios largos de señales, son propensas a errores sistemáticos y, sobre todo, son muy sensibles al ruido. [7] [8] [10] La comparación de los métodos no lineales con la correlación lineal en presencia de ruido revela el peor rendimiento de los estimadores no lineales. [8] En [7] los autores concluyen que debe haber una buena razón para pensar que hay no linealidad en los datos para aplicar métodos no lineales. De hecho, se demostró mediante pruebas de datos sustitutos [ 11] [12] y pronósticos de series temporales [13] que la no linealidad en EEG y LFP es la excepción y no la norma. Por otro lado, los métodos lineales funcionan bastante bien para señales no lineales. [14] Finalmente, los métodos no lineales son bivariados (calculados por pares), lo que tiene serias implicaciones en su desempeño.
En [15] [16] se puede encontrar una comparación del desempeño de los estimadores bivariados y multivariados de conectividad, donde se demostró que en el caso de un sistema interrelacionado de canales, más de dos, los métodos bivariados proporcionan información engañosa, incluso se puede encontrar la inversión de la propagación verdadera. Considere la situación muy común de que la actividad de una fuente dada se mide en electrodos ubicados a diferentes distancias, por lo tanto, diferentes retrasos entre las señales registradas.
Cuando se aplica una medida bivariada, la propagación siempre se obtiene cuando hay un retraso entre canales, [16] lo que da como resultado una gran cantidad de flujos espurios. Cuando tenemos dos o tres fuentes actuando simultáneamente, lo cual es una situación común, obtendremos una estructura densa y desorganizada de conexiones, similar a una estructura aleatoria (en el mejor de los casos, se puede identificar alguna estructura de "mundo pequeño"). Este tipo de patrón se obtiene generalmente en caso de aplicación de medidas bivariadas. De hecho, los patrones de conectividad efectivos producidos por mediciones de EEG o LFP están lejos de la aleatoriedad, cuando se aplican medidas multivariadas adecuadas, como demostraremos a continuación.
La definición comprobable de causalidad fue introducida por Granger . [17] El principio de causalidad de Granger establece que si alguna serie Y ( t ) contiene información en términos pasados que ayuda en la predicción de la serie X ( t ), entonces se dice que Y ( t ) causa X ( t ). El principio de causalidad de Granger se puede expresar en términos del modelo autorregresivo multivariado de dos canales (MVAR). Granger en su trabajo posterior [18] señaló que la determinación de causalidad no es posible cuando el sistema de canales considerados no está completo. Las medidas basadas en el principio de causalidad de Granger son: Índice de causalidad de Granger (GCI), Función de transferencia dirigida (DTF) y Coherencia dirigida parcial (PDC). Estas medidas se definen en el marco del Modelo autorregresivo multivariado. [19] [20]
El modelo AR supone que X ( t )—una muestra de datos en un momento t —puede expresarse como una suma de p valores previos de las muestras del conjunto de k señales ponderadas por los coeficientes del modelo A más un valor aleatorio E ( t ):
El p se denomina orden del modelo. Para un proceso de k canales, X ( t ) y E ( t ) son vectores de tamaño k y los coeficientes A son matrices de tamaño k × k . El orden del modelo se puede determinar mediante criterios desarrollados en el marco de la teoría de la información y los coeficientes del modelo se encuentran mediante la minimización del ruido residual. En el procedimiento se calcula la matriz de correlación entre señales. Mediante la transformación al dominio de la frecuencia obtenemos:
H ( f ) es una matriz de transferencia del sistema, contiene información sobre las relaciones entre las señales y sus características espectrales. H ( f ) no es simétrica, por lo que permite encontrar dependencias causales. El orden del modelo se puede encontrar por medio de criterios desarrollados en el marco de la teoría de la información, [19] por ejemplo el criterio AIC .
El índice de causalidad de Granger que muestra la conducción del canal x por el canal y se define como el logaritmo de la razón de la varianza residual para un canal a la varianza residual del modelo de dos canales: [21] GCI y → x = ln ( e / e 1 ) Esta definición se puede extender al sistema multicanal considerando cómo la inclusión del canal dado cambia las razones de varianza residual. Para cuantificar la influencia dirigida de un canal x j a x i para un proceso autorregresivo de n canales en el dominio del tiempo, consideramos modelos MVAR de n y n −1 dimensiones. Primero, el modelo se ajusta a todo el sistema de n canales, lo que conduce a la varianza residual V i , n (t) = var( E i , n ( t )) para la señal x i . A continuación, se ajusta un modelo MVAR de dimensión n −1 para n −1 canales, excluyendo el canal j , lo que conduce a la varianza residual V i , n −1 (t) = var ( E i , n −1 ( t )). Luego, la causalidad de Granger se define como:
El GCI es menor o igual a 1, ya que la varianza de un sistema n -dimensional es menor que la varianza residual de un sistema n -1-dimensional más pequeño. El GCI( t ) estima las relaciones de causalidad en el dominio del tiempo. Para las señales cerebrales, las características espectrales de las señales son de interés, porque para una tarea dada, el aumento de la propagación en cierta banda de frecuencia puede ir acompañado de la disminución en otra banda de frecuencia. [22] DTF o PDC son los estimadores definidos en el dominio de la frecuencia.
La función de transferencia dirigida (DTF) fue introducida por Kaminski y Blinowska [23] en la forma:
Donde H ij ( f ) es un elemento de una matriz de transferencia del modelo MVAR. La DTF describe la influencia causal del canal j sobre el canal i en la frecuencia f . La ecuación anterior ( 3 ) define una versión normalizada de la DTF, que toma valores de 0 a 1, lo que produce una relación entre la entrada del canal j al canal i y todas las entradas al canal i . La DTF no normalizada que está directamente relacionada con la fuerza de acoplamiento [24] se define como:
La función de transferencia directa (dDTF) no solo muestra flujos directos, sino también flujos en cascada, es decir, en el caso de propagación 1→2→3, también muestra propagación 1→3. Para distinguir los flujos directos de los indirectos, se introdujo la función de transferencia dirigida (dDTF) directa. [25] La dDTF se define como una multiplicación de una DTF modificada por coherencia parcial. La modificación de la DTF se refería a la normalización de la función de tal manera que el denominador fuera independiente de la frecuencia. La dDTF j → i que muestra propagación directa del canal j al i se define como:
Donde C ij ( f ) es coherencia parcial. El dDTF j → i tiene un valor distinto de cero cuando ambas funciones F ij ( f ) y C ij ( f ) son distintas de cero, en cuyo caso existe una relación causal directa entre los canales j → i . Distinguir la transmisión directa de la indirecta es esencial en el caso de señales de electrodos implantados, para las señales de EEG registradas por electrodos del cuero cabelludo no es realmente importante. [15]
La DTF se puede utilizar para la estimación de la propagación en el caso de procesos puntuales, por ejemplo, trenes de picos, o para la estimación de relaciones causales entre trenes de picos y potenciales de campo local. [26]
La coherencia dirigida parcial (PDC) fue definida por Baccala y Sameshima [27] de la siguiente forma:
En la ecuación anterior, A ij ( f ) es un elemento de A ( f ), una transformada de Fourier de los coeficientes del modelo MVAR A ( t ), donde a j ( f ) es la j -ésima columna de A ( f ) y el asterisco denota la operación transpuesta y conjugada compleja. Aunque es una función que opera en el dominio de la frecuencia, la dependencia de A ( f ) de la frecuencia no tiene una correspondencia directa con el espectro de potencia. De la condición de normalización se deduce que PDC toma valores del intervalo [0,1]. PDC solo muestra flujos directos entre canales. A diferencia de DTF, PDC se normaliza para mostrar una relación entre el flujo de salida del canal j al canal i y todos los flujos de salida del canal fuente j , por lo que enfatiza más bien los sumideros, no las fuentes. La normalización de PDC afecta las intensidades de flujo detectadas como se señaló en [28] . Es decir, agregar más variables que están influenciadas por una variable fuente disminuye PDC, aunque la relación entre los procesos fuente y objetivo permanece sin cambios. En otras palabras: el flujo emitido en una dirección será potenciado en comparación con los flujos de la misma intensidad emitidos desde una fuente dada en varias direcciones.
Para tener en cuenta los cambios dinámicos de propagación, se puede aplicar el método de filtrado adaptativo o el método basado en la ventana deslizante a los estimadores de conectividad. Ambos métodos requieren múltiples repeticiones del experimento para obtener resultados estadísticamente satisfactorios y producen resultados similares. [29] Los métodos adaptativos, por ejemplo el filtrado de Kalman, son más exigentes computacionalmente, por lo que se pueden recomendar métodos basados en la ventana deslizante.
En el caso del modelo paramétrico, el número de puntos de datos kN T ( k —número de canales, N T —número de puntos en la ventana de datos) tiene que ser mayor (preferiblemente por orden de magnitud) que el número de parámetros, que en el caso de MVAR es igual a k 2 p ( p —orden del modelo). Para evaluar la dinámica del proceso, se debe aplicar una ventana de datos corta, lo que requiere un aumento del número de puntos de datos, que se puede lograr mediante una repetición del experimento. Un registro no estacionario se puede dividir en ventanas de tiempo más cortas, lo suficientemente cortas como para tratar los datos dentro de una ventana como cuasi estacionarios. La estimación de los coeficientes MVAR se basa en el cálculo de la matriz de correlación entre los canales R ij de las k señales X i del conjunto multivariado, [19] por separado para cada prueba. Los coeficientes del modelo resultantes se basan en la matriz de correlación promediada a lo largo de las pruebas. La matriz de correlación tiene la forma:
El cálculo del promedio se basa en matrices de correlación (el modelo se ajusta de forma independiente para cada ventana de datos corta); los datos no se promedian en el proceso. La elección del tamaño de la ventana siempre es un compromiso entre la calidad del ajuste y la resolución temporal.
Los errores de la SDTF pueden evaluarse mediante el método bootstrap . [30] Este procedimiento corresponde a simulaciones de otras realizaciones del experimento. La varianza del valor de la función se obtiene mediante el cálculo repetido de los resultados para un conjunto seleccionado aleatoriamente (con repeticiones) de los ensayos de datos originales.
La estimación de la conectividad cerebral ha encontrado numerosas y notables aplicaciones, a saber, cuando se investigan los cambios cerebrales asociados con el tratamiento de la psicopatología como la esquizofrenia [31] y la depresión [32] , o después de un daño estructural como en una hemorragia [33] o un tumor. [34] [35] Los métodos aplicados se benefician de un enfoque de parcelación, donde las regiones del cerebro se definen a partir de atlas [36] o datos DWI, [37] y luego se extraen métricas de conectividad para comparar los cambios dentro de las regiones estandarizadas.
En concreto, el DTF ha encontrado múltiples aplicaciones, las primeras relacionadas con: localización de focos epilépticos , [38] estimación de la propagación del EEG en diferentes fases del sueño y la vigilia, [39] determinación de la transmisión entre estructuras cerebrales de un animal durante una prueba de comportamiento. [40]
Se puede observar el desplazamiento de las fuentes hacia el frente en la transición desde la vigilia a las etapas de sueño más profundo. En el sueño profundo, la fuente está sobre el cuerpo calloso , presumiblemente relacionada con la alimentación de la corteza desde las estructuras subcorticales.
Una de las primeras aplicaciones de SDTF fue la determinación de la propagación dinámica durante la ejecución del movimiento de los dedos y su imaginación. [41] [42] Los resultados se correspondieron muy bien con los fenómenos conocidos de sincronización y desincronización relacionada con eventos, como la disminución de la actividad en la banda alfa y beta y el breve aumento de la actividad en la banda gamma durante el movimiento en las áreas correspondientes a la corteza motora primaria, el rebote beta después del movimiento y el llamado efecto envolvente. [43] Especialmente interesante fue la comparación del movimiento real de los dedos y su imaginación. En el caso del movimiento real, se observó la breve ráfaga de propagación gamma desde el electrodo colocado sobre la corteza motora primaria del dedo. En el caso de la imaginación del movimiento, esta propagación comenzó más tarde y se encontró una comunicación cruzada entre diferentes sitios que suprayacentes al área motora y al área motora suplementaria (SMA). (La dinámica de la propagación se puede observar en animaciones [44] ).
Otra aplicación del SDTF se relaciona con la evaluación de la transmisión durante experimentos cognitivos. Los resultados de la Prueba de Atención Continua (CAT) [45] confirmaron la participación de las estructuras prefrontales y frontales en la tarea y respaldaron la hipótesis de una inhibición activa por parte de la pre-SMA y la corteza frontal inferior derecha . Hay disponibles animaciones de propagación durante la prueba CAT. [46]
Los resultados obtenidos mediante SDTF en experimentos que involucraban la memoria de trabajo fueron compatibles con los estudios de fMRI sobre la localización de los sitios activos y proporcionaron información sobre la interacción temporal entre ellos. [47] La animación que ilustra la dinámica de la interacción está disponible. [48]
Tenga en cuenta que se debe tener cuidado para evitar estimaciones de conectividad espurias al utilizar datos de canal de EEG. Artículos recientes [49] [50] destacan que las afirmaciones anteriores [51] de que la DTF y la PDC eran insensibles a la conducción de volumen eran inexactas. De hecho, los resultados de DTF obtenidos para señales registradas del cuero cabelludo se ven afectados en general por la conducción de volumen. Aunque los efectos de la conducción de volumen pueden ser mínimos en situaciones de registro específicas, [52] se debe realizar un preprocesamiento adecuado en los datos del canal (como la identificación de la fuente) antes de estimar la DTF o la PDC.
La existencia de fuentes bien definidas de actividad cerebral relacionadas con condiciones experimentales particulares está bien establecida en experimentos de fMRI, mediante métodos de solución inversa y mediciones intracorticales. Este tipo de estructura determinista de la actividad cerebral debería afectar la conectividad funcional, por lo que la estructura de conectividad aleatoria o apenas distinguible de la aleatoria descrita en algunos trabajos puede considerarse un fenómeno sorprendente. Este tipo de resultados puede explicarse por errores metodológicos: 1) métodos poco robustos de estimación de la conectividad y, aún más importante, 2) aplicación de métodos bivariados. Cuando se aplican medidas robustas multivariadas de conectividad para el análisis de EEG, surge una imagen clara de la conectividad funcional. [22] [23] [38] [39] [40] [41 ] [42 ] [45] [47] [53] [54] [55]
{{cite journal}}
: CS1 maint: DOI inactive as of June 2024 (link)