La neurociencia computacional (también conocida como neurociencia teórica o neurociencia matemática ) es una rama de la neurociencia que emplea las matemáticas , la informática , el análisis teórico y las abstracciones del cerebro para comprender los principios que rigen el desarrollo , la estructura , la fisiología y las capacidades cognitivas del sistema nervioso. . [1] [2] [3] [4]
La neurociencia computacional emplea simulaciones computacionales [5] para validar y resolver modelos matemáticos, por lo que puede verse como un subcampo de la neurociencia teórica; sin embargo, los dos campos suelen ser sinónimos. [6] El término neurociencia matemática también se utiliza a veces para enfatizar la naturaleza cuantitativa del campo. [7]
La neurociencia computacional se centra en la descripción de neuronas (y sistemas neuronales ) biológicamente plausibles y su fisiología y dinámica y, por lo tanto, no se ocupa directamente de los modelos biológicamente irreales utilizados en el conexionismo , la teoría del control , la cibernética , la psicología cuantitativa , el aprendizaje automático y las redes neuronales artificiales. , inteligencia artificial y teoría del aprendizaje computacional ; [8] [9] [10] aunque existe inspiración mutua y a veces no existe un límite estricto entre campos, [11] [12] [13] con la abstracción de modelos en neurociencia computacional dependiendo del alcance de la investigación y la granularidad en la que se encuentran las entidades biológicas. analizado.
Los modelos en neurociencia teórica tienen como objetivo capturar las características esenciales del sistema biológico en múltiples escalas espacio-temporales, desde corrientes de membrana y acoplamiento químico a través de oscilaciones de red , arquitectura columnar y topográfica, núcleos, hasta facultades psicológicas como la memoria, aprendizaje y comportamiento. Estos modelos computacionales formulan hipótesis que pueden probarse directamente mediante experimentos biológicos o psicológicos.
El término 'neurociencia computacional' fue introducido por Eric L. Schwartz , quien organizó una conferencia, celebrada en 1985 en Carmel, California , a petición de la Systems Development Foundation para proporcionar un resumen del estado actual de un campo que hasta ese momento Se le conoce con diversos nombres, como modelado neuronal, teoría del cerebro y redes neuronales. Las actas de esta reunión de definición se publicaron en 1990 como el libro Computational Neuroscience . [14] La primera de las reuniones internacionales abiertas anuales centradas en la neurociencia computacional fue organizada por James M. Bower y John Miller en San Francisco, California en 1989. [15] El primer programa educativo de posgrado en neurociencia computacional se organizó como Computational and Doctorado en Sistemas Neuronales. programa en el Instituto de Tecnología de California en 1985.
Las primeras raíces históricas de este campo [16] se remontan al trabajo de personas como Louis Lapicque , Hodgkin & Huxley , Hubel y Wiesel y David Marr . Lapicque introdujo el modelo de integración y activación de la neurona en un artículo fundamental publicado en 1907 [17] , un modelo que sigue siendo popular para los estudios de redes neuronales artificiales debido a su simplicidad (ver una revisión reciente [18] ).
Unos 40 años después, Hodgkin y Huxley desarrollaron la pinza de voltaje y crearon el primer modelo biofísico del potencial de acción . Hubel y Wiesel descubrieron que las neuronas de la corteza visual primaria , la primera área cortical que procesa la información proveniente de la retina , tienen campos receptivos orientados y están organizadas en columnas. [19] El trabajo de David Marr se centró en las interacciones entre neuronas, sugiriendo enfoques computacionales para el estudio de cómo los grupos funcionales de neuronas dentro del hipocampo y la neocorteza interactúan, almacenan, procesan y transmiten información. El modelado computacional de neuronas y dendritas biofísicamente realistas comenzó con el trabajo de Wilfrid Rall , con el primer modelo multicompartimental que utilizaba la teoría de cables .
La investigación en neurociencia computacional se puede clasificar a grandes rasgos en varias líneas de investigación. La mayoría de los neurocientíficos computacionales colaboran estrechamente con los experimentalistas para analizar datos novedosos y sintetizar nuevos modelos de fenómenos biológicos.
Incluso una sola neurona tiene características biofísicas complejas y puede realizar cálculos (por ejemplo, [20] ). El modelo original de Hodgkin y Huxley solo empleaba dos corrientes sensibles al voltaje (los canales iónicos sensibles al voltaje son moléculas de glicoproteína que se extienden a través de la bicapa lipídica, permitiendo que los iones atraviesen bajo ciertas condiciones a través del axolema), el sodio de acción rápida y el potasio rectificador hacia adentro. . Aunque logró predecir el momento y las características cualitativas del potencial de acción, no logró predecir una serie de características importantes como la adaptación y la derivación . Los científicos ahora creen que existe una amplia variedad de corrientes sensibles al voltaje, y las implicaciones de las diferentes dinámicas, modulaciones y sensibilidad de estas corrientes son un tema importante de la neurociencia computacional. [21]
También se están investigando intensamente las funciones computacionales de dendritas complejas . Existe una gran cantidad de literatura sobre cómo interactúan las diferentes corrientes con las propiedades geométricas de las neuronas. [22]
Existen muchos paquetes de software, como GENESIS y NEURON , que permiten un modelado in silico rápido y sistemático de neuronas realistas. Blue Brain , un proyecto fundado por Henry Markram de la École Polytechnique Fédérale de Lausanne , tiene como objetivo construir una simulación biofísicamente detallada de una columna cortical en la supercomputadora Blue Gene .
Modelar la riqueza de propiedades biofísicas en la escala de una sola neurona puede proporcionar mecanismos que sirvan como bloques de construcción para la dinámica de la red. [23] Sin embargo, las descripciones detalladas de las neuronas son computacionalmente costosas y este costo informático puede limitar la realización de investigaciones de redes realistas, donde es necesario simular muchas neuronas. Como resultado, los investigadores que estudian grandes circuitos neuronales normalmente representan cada neurona y hacen sinapsis con un modelo artificialmente simple, ignorando gran parte de los detalles biológicos. Por lo tanto, existe un impulso para producir modelos neuronales simplificados que puedan conservar una fidelidad biológica significativa con una sobrecarga computacional baja. Se han desarrollado algoritmos para producir modelos de neuronas sustitutas simplificados, fieles y de ejecución más rápida a partir de modelos de neuronas detallados y computacionalmente costosos. [24]
Glial cells participate significantly to the regulation of neuronal activity at a cellular but also at a network level. Modeling this interaction allows to clarify the potassium cycle,[25][26] so important for maintaining homeostatis and to prevent epileptic seizures. Modeling reveals the role of glial protrusions that can penetrate in some cases the synaptic cleft to interfere with the synpatic transmission and thus control synaptic communication.[27]
Computational neuroscience aims to address a wide array of questions. How do axons and dendrites form during development? How do axons know where to target and how to reach these targets? How do neurons migrate to the proper position in the central and peripheral systems? How do synapses form? We know from molecular biology that distinct parts of the nervous system release distinct chemical cues, from growth factors to hormones that modulate and influence the growth and development of functional connections between neurons.
Theoretical investigations into the formation and patterning of synaptic connection and morphology are still nascent. One hypothesis that has recently garnered some attention is the minimal wiring hypothesis, which postulates that the formation of axons and dendrites effectively minimizes resource allocation while maintaining maximal information storage.[28]
Early models on sensory processing understood within a theoretical framework are credited to Horace Barlow. Somewhat similar to the minimal wiring hypothesis described in the preceding section, Barlow understood the processing of the early sensory systems to be a form of efficient coding, where the neurons encoded information which minimized the number of spikes. Experimental and computational work have since supported this hypothesis in one form or another. For the example of visual processing, efficient coding is manifested in the forms of efficient spatial coding, color coding, temporal/motion coding, stereo coding, and combinations of them.[29]
Further along the visual pathway, even the efficiently coded visual information is too much for the capacity of the information bottleneck, the visual attentional bottleneck.[30] A subsequent theory, V1 Saliency Hypothesis (V1SH), has been developed on exogenous attentional selection of a fraction of visual input for further processing, guided by a bottom-up saliency map in the primary visual cortex.[31]
La investigación actual en procesamiento sensorial se divide entre un modelado biofísico de diferentes subsistemas y un modelado más teórico de la percepción. Los modelos actuales de percepción han sugerido que el cerebro realiza alguna forma de inferencia bayesiana e integración de diferente información sensorial para generar nuestra percepción del mundo físico. [32] [33]
Se han desarrollado muchos modelos de la forma en que el cerebro controla el movimiento. Esto incluye modelos de procesamiento en el cerebro, como el papel del cerebelo en la corrección de errores, el aprendizaje de habilidades en la corteza motora y los ganglios basales, o el control del reflejo vestíbulo-ocular. Esto también incluye muchos modelos normativos, como los del tipo bayesiano o de control óptimo, que se basan en la idea de que el cerebro resuelve eficientemente sus problemas.
Los modelos anteriores de memoria se basaban principalmente en los postulados del aprendizaje hebbiano . Se han desarrollado modelos biológicamente relevantes, como la red Hopfield, para abordar las propiedades del estilo de memoria asociativo (también conocido como "direccionable por contenido") que ocurre en los sistemas biológicos. Estos intentos se centran principalmente en la formación de la memoria a medio y largo plazo , localizándose en el hipocampo .
Uno de los principales problemas de la memoria neurofisiológica es cómo se mantiene y cambia a través de múltiples escalas de tiempo. Las sinapsis inestables son fáciles de entrenar, pero también son propensas a sufrir alteraciones estocásticas. Las sinapsis estables se olvidan con menor facilidad, pero también son más difíciles de consolidar. Es probable que las herramientas computacionales contribuyan en gran medida a nuestra comprensión de cómo funcionan y cambian las sinapsis en relación con los estímulos externos en las próximas décadas.
Las neuronas biológicas están conectadas entre sí de forma compleja y recurrente. Estas conexiones son, a diferencia de la mayoría de las redes neuronales artificiales , escasas y normalmente específicas. No se sabe cómo se transmite la información a través de redes tan escasamente conectadas, aunque se comprenden con cierto detalle áreas específicas del cerebro, como la corteza visual . [34] También se desconoce cuáles son las funciones computacionales de estos patrones de conectividad específicos, si las hay.
Las interacciones de las neuronas en una red pequeña a menudo pueden reducirse a modelos simples como el modelo de Ising . La mecánica estadística de sistemas tan simples está bien caracterizada teóricamente. Alguna evidencia reciente sugiere que la dinámica de redes neuronales arbitrarias puede reducirse a interacciones por pares. [35] Sin embargo, no se sabe si dicha dinámica descriptiva imparte alguna función computacional importante. Con la aparición de la microscopía de dos fotones y las imágenes de calcio , ahora disponemos de potentes métodos experimentales con los que probar las nuevas teorías sobre las redes neuronales.
En algunos casos, las complejas interacciones entre neuronas inhibidoras y excitadoras se pueden simplificar utilizando la teoría del campo medio , que da lugar al modelo poblacional de redes neuronales. [36] Si bien muchos neuroteóricos prefieren modelos de complejidad reducida, otros argumentan que descubrir relaciones estructurales-funcionales depende de incluir la mayor cantidad posible de estructura neuronal y de red. Los modelos de este tipo suelen construirse en grandes plataformas de simulación como GENESIS o NEURON. Ha habido algunos intentos de proporcionar métodos unificados que unen e integran estos niveles de complejidad. [37]
La atención visual puede describirse como un conjunto de mecanismos que limitan cierto procesamiento a un subconjunto de estímulos entrantes. [38] Los mecanismos de atención dan forma a lo que vemos y sobre lo que podemos actuar. Permiten la selección simultánea de cierta información (preferiblemente relevante) y la inhibición de otra información. Para tener una especificación más concreta del mecanismo subyacente a la atención visual y la vinculación de características, se han propuesto varios modelos computacionales con el objetivo de explicar los hallazgos psicofísicos. En general, todos los modelos postulan la existencia de un mapa de prominencia o prioridad para registrar las áreas potencialmente interesantes de la información retiniana, y un mecanismo de activación para reducir la cantidad de información visual entrante, de modo que los limitados recursos computacionales del cerebro puedan manejarla. . [39] Un ejemplo de teoría que se está probando ampliamente desde el punto de vista conductual y fisiológico es la hipótesis de prominencia V1 de que se crea un mapa de prominencia de abajo hacia arriba en la corteza visual primaria para guiar la atención de forma exógena. [31] La neurociencia computacional proporciona un marco matemático para estudiar los mecanismos implicados en la función cerebral y permite la simulación y predicción completa de síndromes neuropsicológicos.
El modelado computacional de funciones cognitivas superiores ha aparecido recientemente [ ¿cuándo? ] comenzó. Los datos experimentales provienen principalmente de registros unitarios en primates . El lóbulo frontal y el lóbulo parietal funcionan como integradores de información de múltiples modalidades sensoriales. Hay algunas ideas provisionales sobre cómo los circuitos funcionales mutuamente inhibidores simples en estas áreas pueden llevar a cabo cálculos biológicamente relevantes. [40]
El cerebro parece ser capaz de discriminar y adaptarse particularmente bien en determinados contextos. Por ejemplo, los seres humanos parecen tener una enorme capacidad para memorizar y reconocer rostros . Uno de los objetivos clave de la neurociencia computacional es analizar cómo los sistemas biológicos llevan a cabo estos complejos cálculos de manera eficiente y potencialmente replicar estos procesos en la construcción de máquinas inteligentes.
Los principios organizativos a gran escala del cerebro están iluminados por muchos campos, incluidos la biología, la psicología y la práctica clínica. La neurociencia integradora intenta consolidar estas observaciones a través de modelos descriptivos unificados y bases de datos de medidas y registros de comportamiento. Éstas son las bases para algunos modelos cuantitativos de la actividad cerebral a gran escala. [41]
La Comprensión Computacional Representacional de la Mente ( CRUM ) es otro intento de modelar la cognición humana a través de procesos simulados como sistemas adquiridos basados en reglas en la toma de decisiones y la manipulación de representaciones visuales en la toma de decisiones.
Uno de los objetivos finales de la psicología/neurociencia es poder explicar la experiencia cotidiana de la vida consciente. Francis Crick , Giulio Tononi y Christof Koch hicieron algunos intentos de formular marcos coherentes para trabajos futuros en correlatos neuronales de la conciencia (NCC), aunque gran parte del trabajo en este campo sigue siendo especulativo. [42]
La neurociencia clínica computacional es un campo que reúne a expertos en neurociencia, neurología , psiquiatría , ciencias de la decisión y modelado computacional para definir e investigar cuantitativamente problemas en enfermedades neurológicas y psiquiátricas , y para capacitar a científicos y médicos que deseen aplicar estos modelos al diagnóstico y tratamiento. . [43] [44]
La neurociencia computacional predictiva es un campo reciente que combina el procesamiento de señales, la neurociencia, los datos clínicos y el aprendizaje automático para predecir el cerebro durante el coma [45] o la anestesia. [46] Por ejemplo, es posible anticipar estados cerebrales profundos utilizando la señal EEG. Estos estados pueden usarse para anticipar la concentración hipnótica a administrar al paciente.
La psiquiatría computacional es un nuevo campo emergente que reúne a expertos en aprendizaje automático , neurociencia , neurología , psiquiatría y psicología para brindar una comprensión de los trastornos psiquiátricos. [47] [48] [49]
Una computadora/chip neuromórfico es cualquier dispositivo que utiliza neuronas artificiales físicas (hechas de silicio) para realizar cálculos (Ver: computación neuromórfica , red neuronal física ). Una de las ventajas de utilizar un modelo físico de computadora como este es que toma la carga computacional del procesador (en el sentido de que los elementos estructurales y algunos de los funcionales no necesitan ser programados ya que están en hardware). En los últimos tiempos, [50] la tecnología neuromórfica se ha utilizado para construir supercomputadoras que se utilizan en colaboraciones internacionales de neurociencia. Los ejemplos incluyen la supercomputadora SpiNNaker del Human Brain Project y la computadora BrainScaleS. [51]
{{cite journal}}
: CS1 maint: DOI inactive as of January 2024 (link)