El enfoque de sistemas dinámicos de la neurociencia es una rama de la biología matemática que utiliza dinámicas no lineales para comprender y modelar el sistema nervioso y sus funciones. En un sistema dinámico, todos los estados posibles se expresan mediante un espacio de fase . [1] Dichos sistemas pueden experimentar bifurcación (un cambio cualitativo en el comportamiento) en función de sus parámetros de bifurcación y, a menudo, exhiben caos . [2] La neurociencia dinámica describe la dinámica no lineal en muchos niveles del cerebro, desde células neuronales individuales [3] hasta procesos cognitivos , estados de sueño y el comportamiento de las neuronas en simulación neuronal a gran escala. [4]
Las neuronas se han modelado como sistemas no lineales desde hace décadas, pero los sistemas dinámicos surgen de muchas otras formas en el sistema nervioso. Desde la química, los modelos de especies químicas como el modelo de Gray-Scott exhiben una dinámica rica y caótica. [5] [6] Las interacciones dinámicas entre las vías del líquido extracelular remodelan nuestra visión de la comunicación intraneural. [7] La teoría de la información se basa en la termodinámica en el desarrollo de la infodinámica que puede involucrar sistemas no lineales, especialmente en lo que respecta al cerebro.
Uno de los primeros incidentes conocidos [¿ ortografía? ] en el que se modelaron las neuronas sobre una base matemática y física fue el modelo de integración y disparo desarrollado en 1907. Décadas más tarde, el descubrimiento del axón gigante del calamar finalmente llevó a Alan Hodgkin y Andrew Huxley (medio hermano de Aldous Huxley ) a desarrolló el modelo de Hodgkin-Huxley de la neurona en 1952. [8] Este modelo se simplificó con el modelo de FitzHugh-Nagumo en 1962. [9] En 1981, se había desarrollado el modelo de Morris-Lecar para el músculo de percebe.
Estos modelos matemáticos resultaron útiles y todavía se utilizan en el campo de la biofísica hoy en día, pero un desarrollo de finales del siglo XX impulsó aún más el estudio dinámico de las neuronas: la tecnología informática. El mayor problema con ecuaciones fisiológicas como las desarrolladas anteriormente es que no eran lineales . Esto hizo que el análisis estándar fuera imposible y cualquier tipo de análisis avanzado incluía una cantidad de posibilidades (casi) infinitas. Las computadoras abrieron muchas puertas a todas las ciencias duras en términos de su capacidad para aproximar soluciones a ecuaciones no lineales. Este es el aspecto de la neurociencia computacional que abarcan los sistemas dinámicos.
En 2007, Eugene Izhikivech escribió un libro de texto canónico llamado Sistemas dinámicos en neurociencia , que ayuda a transformar un tema de investigación oscuro en una línea de estudio académico.
(se necesita introducción aquí)
La motivación para un enfoque dinámico de la neurociencia surge del interés en la complejidad física del comportamiento de las neuronas. Como ejemplo, consideremos la interacción acoplada entre el potencial de membrana de una neurona y la activación de los canales iónicos en toda la neurona. A medida que el potencial de membrana de una neurona aumenta lo suficiente, los canales de la membrana se abren para permitir la entrada o salida de más iones. El flujo de iones altera aún más el potencial de membrana, lo que afecta aún más la activación de los canales iónicos, lo que afecta el potencial de membrana, y así sucesivamente. Esta es frecuentemente la naturaleza de las ecuaciones no lineales acopladas. Un ejemplo casi sencillo de esto es el modelo de Morris-Lecar:
Consulte el artículo de Morris-Lecar [10] para obtener una comprensión profunda del modelo. Scholarpedia ofrece un resumen más breve del modelo de Morris Lecar. [11]
En este artículo, el objetivo es demostrar las bases fisiológicas de los modelos dinámicos de neuronas, por lo que esta discusión solo cubrirá las dos variables de la ecuación:
Lo más importante es que la primera ecuación establece que el cambio de con respecto al tiempo depende tanto de como de , al igual que el cambio de con respecto al tiempo. y ambas son funciones de . Entonces tenemos dos funciones acopladas y .
Los diferentes tipos de modelos neuronales utilizan diferentes canales, según la fisiología del organismo involucrado. Por ejemplo, el modelo bidimensional simplificado de Hodgkins-Huxley considera los canales de sodio, mientras que el modelo de Morris-Lecar considera los canales de calcio. Ambos modelos consideran potasio y corriente de fuga. Sin embargo, tenga en cuenta que el modelo de Hodgkins-Huxley es canónicamente de cuatro dimensiones. [12]
Uno de los temas predominantes en la neurobiología clásica es el concepto de componente digital de las neuronas. Este concepto fue rápidamente absorbido por los científicos informáticos y evolucionó hasta convertirse en una función de ponderación simple para redes neuronales artificiales acopladas . Los neurobiólogos llaman umbral al voltaje crítico al que se activan las neuronas. La crítica dinámica a este concepto digital es que las neuronas no exhiben realmente una activación total o nula y, en cambio, deberían considerarse resonadores. [13]
En los sistemas dinámicos, este tipo de propiedad se conoce como excitabilidad. Un sistema excitable comienza en algún punto estable. Imagínese un lago vacío en la cima de una montaña con una pelota dentro. La pelota está en un punto estable. La gravedad lo está jalando hacia abajo, por lo que está fijo en el fondo del lago. Si le damos un empujón lo suficientemente fuerte, saldrá del lago y rodará por la ladera de la montaña, ganando impulso y yendo más rápido. Digamos que formamos un bucle alrededor de la base de la montaña para que la pelota se dispare y regrese al lago (sin fricción de rodadura ni resistencia del aire). Ahora tenemos un sistema que permanece en su estado de reposo (la pelota en el lago) hasta que una perturbación la derriba (rodando colina abajo), pero finalmente regresa a su estado de reposo (de nuevo en el lago). En este ejemplo, la gravedad es la fuerza impulsora y las dimensiones espaciales x (horizontal) e y (vertical) son las variables. En la neurona de Morris Lecar, la fuerza fundamental es electromagnética y son el nuevo espacio de fase , pero la imagen dinámica es esencialmente la misma. La fuerza electromagnética actúa de la misma manera que actúa la gravedad . La forma de la montaña y el bucle de bucle actúan para acoplar las dimensiones y y x entre sí. En la neurona, la naturaleza ya ha decidido cómo y se acoplan, pero la relación es mucho más complicada que en el ejemplo gravitacional.
Esta propiedad de excitabilidad es lo que da a las neuronas la capacidad de transmitir información entre sí, por lo que es importante para las redes neuronales dinámicas, pero Morris Lecar también puede operar en otro régimen de parámetros en el que exhibe un comportamiento oscilatorio, oscilando siempre en el espacio de fase. Este comportamiento es comparable al de las células marcapasos en el corazón, que no dependen de la excitabilidad pero pueden excitar neuronas que sí lo hacen.
La dinámica global de una red de neuronas depende al menos de los primeros tres de cuatro atributos:
Hay muchas combinaciones de redes neuronales que se pueden modelar entre las elecciones de estos cuatro atributos y que pueden dar como resultado una variedad versátil de dinámicas globales.
Las redes neuronales biológicas se pueden modelar eligiendo un modelo de neurona biológica apropiado para describir la fisiología del organismo y términos de acoplamiento apropiados para describir las interacciones físicas entre las neuronas (que forman la red). Se deben tener en cuenta otras consideraciones globales, como las condiciones y parámetros iniciales de cada neurona.
En términos de dinámica no lineal, esto requiere hacer evolucionar el estado del sistema a través de funciones. Siguiendo el ejemplo de Morris Lecar, las modificaciones a la ecuación serían:
donde ahora tiene el subíndice , que indica que es la iésima neurona de la red y se ha agregado una función de acoplamiento a la primera ecuación. La función de acoplamiento, D , se elige en función de la red particular que se está modelando. Los dos candidatos principales son las uniones sinápticas y las uniones en hendidura .
Consulte la página de Scholarpedia para obtener una revisión formal de las redes de atractores. [14]
Si bien las neuronas desempeñan un papel principal en la dinámica cerebral, cada vez está más claro para los neurocientíficos que el comportamiento de las neuronas depende en gran medida de su entorno. Pero el entorno no es un simple fondo, y suceden muchas cosas justo fuera de la membrana neuronal, en el espacio extracelular. Las neuronas comparten este espacio con las células gliales y el propio espacio extracelular puede contener varios agentes de interacción con las neuronas. [15]
Se ha descubierto que la glía, que alguna vez se consideró un mero sistema de soporte para las neuronas, desempeña un papel importante en el cerebro. [16] [17] El tema de cómo la interacción entre la neurona y la glía influye en la excitabilidad de la neurona es una cuestión de dinámica. [18]
Como cualquier otra célula , las neuronas operan mediante un conjunto indudablemente complejo de reacciones moleculares. Cada célula es una pequeña comunidad de maquinaria molecular ( orgánulos ) que trabajan en conjunto y están encerradas en una membrana lipídica. Estos orgánulos se comunican en gran medida a través de sustancias químicas como proteínas G y neurotransmisores , y consumen ATP para obtener energía. Esta complejidad química es de interés para los estudios fisiológicos de la neurona.
Los enfoques computacionales de la neurociencia teórica a menudo emplean redes neuronales artificiales que simplifican la dinámica de neuronas individuales en favor de examinar una dinámica más global. Si bien las redes neuronales suelen asociarse con la inteligencia artificial , también han sido productivas en las ciencias cognitivas. [21] Las redes neuronales artificiales utilizan modelos neuronales simples, pero su dinámica global es capaz de exhibir dinámicas de red tipo Hopfield y Attractor.
La función de Lyapunov es una técnica no lineal utilizada para analizar la estabilidad de las soluciones cero de un sistema de ecuaciones diferenciales. Las redes de Hopfield se diseñaron específicamente de manera que su dinámica subyacente pudiera describirse mediante la función de Lyapunov. La estabilidad en los sistemas biológicos se llama homeostasis . De particular interés para las ciencias cognitivas, las redes de Hopfield han sido implicadas en el papel de la memoria asociativa (memoria activada por señales). [22]