El enfoque de sistemas dinámicos para la neurociencia es una rama de la biología matemática que utiliza la dinámica no lineal para comprender y modelar el sistema nervioso y sus funciones. En un sistema dinámico, todos los estados posibles se expresan mediante un espacio de fases . [1] Dichos sistemas pueden experimentar bifurcación (un cambio cualitativo en el comportamiento) como una función de sus parámetros de bifurcación y, a menudo, exhiben caos . [2] La neurociencia dinámica describe la dinámica no lineal en muchos niveles del cerebro, desde células neuronales individuales [3] hasta procesos cognitivos , estados de sueño y el comportamiento de las neuronas en simulación neuronal a gran escala. [4]
Las neuronas se han modelado como sistemas no lineales durante décadas, pero los sistemas dinámicos no se limitan a las neuronas. Los sistemas dinámicos pueden surgir de otras formas en el sistema nervioso. Los modelos de especies químicas, como el modelo de Gray-Scott, pueden exhibir dinámicas ricas y caóticas. [5] [6] La comunicación intraneural se ve afectada por interacciones dinámicas entre vías de fluidos extracelulares. [7] La teoría de la información se basa en la termodinámica en el desarrollo de infodinámica que puede involucrar sistemas no lineales, especialmente en lo que respecta al cerebro.
Uno de los primeros modelos de la neurona se basó en modelos matemáticos y físicos: el modelo de integración y disparo , que se desarrolló en 1907. Décadas más tarde, el descubrimiento del axón gigante del calamar llevó a Alan Hodgkin y Andrew Huxley (medio hermano de Aldous Huxley ) a desarrollar el modelo Hodgkin-Huxley de la neurona en 1952. [8] Este modelo se simplificó con el modelo FitzHugh-Nagumo en 1962. [9] En 1981, se había desarrollado el modelo Morris-Lecar para el músculo del percebe.
Estos modelos matemáticos resultaron útiles y todavía se utilizan en el campo de la biofísica , pero un desarrollo de finales del siglo XX impulsó aún más el estudio dinámico de las neuronas: la tecnología informática. El mayor problema con las ecuaciones fisiológicas como las desarrolladas anteriormente es que no eran lineales . Esto hizo que el análisis estándar fuera imposible y cualquier tipo de análisis avanzado incluía una cantidad de posibilidades (casi) infinitas. Las computadoras abrieron muchas puertas para todas las ciencias duras en términos de su capacidad para aproximar soluciones a ecuaciones no lineales. Este es el aspecto de la neurociencia computacional que abarcan los sistemas dinámicos.
En 2007, Eugene Izhikivech escribió un libro de texto canónico llamado Sistemas dinámicos en neurociencia , que ayudó a transformar un tema de investigación oscuro en una línea de estudio académico.
(Se necesita introducción aquí)
La motivación para un enfoque dinámico de la neurociencia surge de un interés en la complejidad física del comportamiento de las neuronas. Como ejemplo, considere la interacción acoplada entre el potencial de membrana de una neurona y la activación de los canales iónicos en toda la neurona. A medida que el potencial de membrana de una neurona aumenta lo suficiente, los canales de la membrana se abren para permitir que entren o salgan más iones. El flujo de iones altera aún más el potencial de membrana, lo que a su vez afecta la activación de los canales iónicos, lo que afecta al potencial de membrana, y así sucesivamente. Esta es a menudo la naturaleza de las ecuaciones no lineales acopladas. Un ejemplo casi sencillo de esto es el modelo de Morris-Lecar:
Para una comprensión más profunda del modelo, véase el artículo de Morris-Lecar [10] . Scholarpedia ofrece un resumen más breve del modelo de Morris-Lecar [11] .
En este artículo, el objetivo es demostrar la base fisiológica de los modelos neuronales dinámicos, por lo que esta discusión solo cubrirá las dos variables de la ecuación:
Lo más importante es que la primera ecuación establece que el cambio de con respecto al tiempo depende tanto de y como de , al igual que el cambio de con respecto al tiempo. y son ambas funciones de . Por lo tanto, tenemos dos funciones acopladas, y .
Los distintos tipos de modelos neuronales utilizan distintos canales, según la fisiología del organismo en cuestión. Por ejemplo, el modelo simplificado bidimensional de Hodgkins-Huxley considera los canales de sodio, mientras que el modelo de Morris-Lecar considera los canales de calcio. Ambos modelos consideran el potasio y la corriente de fuga. Sin embargo, cabe señalar que el modelo de Hodgkins-Huxley es canónicamente cuatridimensional. [12]
Uno de los temas predominantes en la neurobiología clásica es el concepto de un componente digital para las neuronas. Este concepto fue rápidamente absorbido por los científicos informáticos, donde evolucionó hasta convertirse en la función de ponderación simple para redes neuronales artificiales acopladas . Los neurobiólogos denominan umbral al voltaje crítico en el que las neuronas se activan. La crítica dinámica de este concepto digital es que las neuronas no exhiben verdaderamente una activación de todo o nada y, en cambio, deberían considerarse como resonadores. [13]
En los sistemas dinámicos, este tipo de propiedad se conoce como excitabilidad. Un sistema excitable comienza en un punto estable. Imaginemos un lago vacío en la cima de una montaña con una pelota dentro. La pelota está en un punto estable. La gravedad la está empujando hacia abajo, por lo que está fija en el fondo del lago. Si le damos un empujón lo suficientemente fuerte, saldrá del lago y rodará por la ladera de la montaña, ganando impulso y yendo más rápido. Supongamos que formamos un bucle alrededor de la base de la montaña para que la pelota se dispare hacia arriba y regrese al lago (sin fricción de rodadura ni resistencia del aire). Ahora tenemos un sistema que permanece en su estado de reposo (la pelota en el lago) hasta que una perturbación la derriba (rueda colina abajo) pero finalmente regresa a su estado de reposo (de nuevo en el lago). En este ejemplo, la gravedad es la fuerza impulsora y las dimensiones espaciales x (horizontal) e y (vertical) son las variables. En la neurona de Morris Lecar, la fuerza fundamental es electromagnética y y son el nuevo espacio de fases , pero la imagen dinámica es esencialmente la misma. La fuerza electromagnética actúa a lo largo de igual que la gravedad actúa a lo largo de . La forma de la montaña y el bucle de bucle actúan para acoplar las dimensiones y y x entre sí. En la neurona, la naturaleza ya ha decidido cómo se acoplan y , pero la relación es mucho más complicada que en el ejemplo gravitacional.
Esta propiedad de excitabilidad es lo que da a las neuronas la capacidad de transmitirse información entre sí, por lo que es importante para las redes neuronales dinámicas, pero la Morris Lecar también puede funcionar en otro régimen de parámetros donde exhibe un comportamiento oscilatorio, oscilando constantemente en el espacio de fases. Este comportamiento es comparable al de las células marcapasos del corazón, que no dependen de la excitabilidad pero pueden excitar a las neuronas que sí lo hacen.
La dinámica global de una red de neuronas depende al menos de los primeros tres de cuatro atributos:
Hay muchas combinaciones de redes neuronales que pueden modelarse entre las elecciones de estos cuatro atributos que pueden dar como resultado una gama versátil de dinámicas globales.
Las redes neuronales biológicas se pueden modelar eligiendo un modelo neuronal biológico adecuado para describir la fisiología del organismo y términos de acoplamiento adecuados para describir las interacciones físicas entre neuronas (que forman la red). Se deben tener en cuenta otras consideraciones globales, como las condiciones iniciales y los parámetros de cada neurona.
En términos de dinámica no lineal, esto requiere evolucionar el estado del sistema a través de las funciones. Siguiendo el ejemplo de Morris Lecar, las modificaciones a la ecuación serían:
donde ahora tiene el subíndice , lo que indica que es la neurona i-ésima de la red y se ha añadido una función de acoplamiento a la primera ecuación. La función de acoplamiento, D , se elige en función de la red particular que se modela. Los dos candidatos principales son las uniones sinápticas y las uniones gap .
Consulte la página de Scholarpedia para una revisión formal de las redes de atractores. [14]
Si bien las neuronas desempeñan un papel fundamental en la dinámica cerebral, cada vez resulta más evidente para los neurocientíficos que el comportamiento de las neuronas depende en gran medida de su entorno. Pero el entorno no es un simple entorno, y hay mucho que ocurre justo fuera de la membrana de la neurona, en el espacio extracelular. Las neuronas comparten este espacio con las células gliales y el propio espacio extracelular puede contener varios agentes de interacción con las neuronas. [15]
Se ha descubierto que la glía, que antes se consideraba un mero sistema de soporte para las neuronas, desempeña un papel importante en el cerebro. [16] [17] El tema de cómo la interacción entre la neurona y la glía influye en la excitabilidad de las neuronas es una cuestión de dinámica. [18]
Como cualquier otra célula , las neuronas operan en un conjunto indudablemente complejo de reacciones moleculares. Cada célula es una pequeña comunidad de maquinaria molecular ( orgánulos ) que trabajan en tándem y están encerrados en una membrana lipídica. Estos orgánulos se comunican principalmente a través de sustancias químicas como las proteínas G y los neurotransmisores , que consumen ATP para obtener energía. Esta complejidad química es de interés para los estudios fisiológicos de la neurona.
Los enfoques computacionales de la neurociencia teórica a menudo emplean redes neuronales artificiales que simplifican la dinámica de neuronas individuales a favor del examen de dinámicas más globales. Si bien las redes neuronales a menudo se asocian con la inteligencia artificial , también han sido productivas en las ciencias cognitivas. [21] Las redes neuronales artificiales utilizan modelos neuronales simples, pero su dinámica global es capaz de exhibir dinámicas de red tanto de Hopfield como de tipo atractor.
La función de Lyapunov es una técnica no lineal que se utiliza para analizar la estabilidad de las soluciones cero de un sistema de ecuaciones diferenciales. Las redes de Hopfield se diseñaron específicamente de modo que su dinámica subyacente pudiera describirse mediante la función de Lyapunov. La estabilidad en los sistemas biológicos se denomina homeostasis . Las redes de Hopfield, que son de particular interés para las ciencias cognitivas, se han implicado en el papel de la memoria asociativa (memoria desencadenada por señales). [22]