stringtranslate.com

Red neuronal (biología)

Micrografía confocal animada que muestra las interconexiones de neuronas espinosas medianas en el cuerpo estriado de un ratón

Una red neuronal , también llamada red neuronal , es una población interconectada de neuronas (que normalmente contiene múltiples circuitos neuronales ). [1] Las redes neuronales biológicas se estudian para comprender la organización y el funcionamiento de los sistemas nerviosos .

Estrechamente relacionadas están las redes neuronales artificiales , modelos de aprendizaje automático inspirados en las redes neuronales biológicas. Consisten en neuronas artificiales , que son funciones matemáticas diseñadas para ser análogas a los mecanismos utilizados por los circuitos neuronales .

Descripción general

Una red neuronal biológica está compuesta por un grupo de neuronas conectadas químicamente o asociadas funcionalmente. [2] Una sola neurona puede estar conectada a muchas otras neuronas y el número total de neuronas y conexiones en una red puede ser extenso. Las conexiones, llamadas sinapsis , generalmente se forman desde los axones hasta las dendritas , aunque son posibles las sinapsis dendrodendríticas [3] y otras conexiones. Además de la señalización eléctrica, existen otras formas de señalización que surgen de la difusión de neurotransmisores .

La inteligencia artificial, el modelado cognitivo y las redes neuronales artificiales son paradigmas de procesamiento de información inspirados en cómo los sistemas neuronales biológicos procesan los datos. La inteligencia artificial y el modelado cognitivo intentan simular algunas propiedades de las redes neuronales biológicas. En el campo de la inteligencia artificial , las redes neuronales artificiales se han aplicado con éxito al reconocimiento de voz , al análisis de imágenes y al control adaptativo , con el fin de construir agentes de software (en ordenadores y videojuegos ) o robots autónomos .

La teoría de las redes neuronales ha servido para identificar mejor cómo funcionan las neuronas del cerebro y proporciona la base para los esfuerzos por crear inteligencia artificial.

Historia

La base teórica preliminar para las redes neuronales contemporáneas fue propuesta de forma independiente por Alexander Bain [4] (1873) y William James [5] (1890). En su trabajo, tanto los pensamientos como la actividad corporal resultaron de interacciones entre neuronas dentro del cerebro.

Simulación por ordenador de la arquitectura ramificada de las dendritas de las neuronas piramidales [6]

Para Bain, [4] cada actividad conducía a la activación de un determinado conjunto de neuronas. Cuando se repitieron las actividades, las conexiones entre esas neuronas se fortalecieron. Según su teoría, esta repetición era la que conducía a la formación de la memoria. La comunidad científica general de la época se mostró escéptica ante la teoría de Bain [4] porque requería lo que parecía ser un número excesivo de conexiones neuronales dentro del cerebro. Ahora es evidente que el cerebro es extremadamente complejo y que el mismo "cableado" cerebral puede manejar múltiples problemas e información.

La teoría de James [5] era similar a la de Bain; [4] sin embargo, sugirió que los recuerdos y las acciones eran el resultado de corrientes eléctricas que fluían entre las neuronas del cerebro. Su modelo, al centrarse en el flujo de corrientes eléctricas, no requería conexiones neuronales individuales para cada recuerdo o acción.

CS Sherrington [7] (1898) realizó experimentos para probar la teoría de James. Hizo pasar corrientes eléctricas por la médula espinal de ratas. Sin embargo, en lugar de demostrar un aumento en la corriente eléctrica como lo proyectó James, Sherrington descubrió que la intensidad de la corriente eléctrica disminuía a medida que las pruebas continuaban con el tiempo. Es importante destacar que este trabajo condujo al descubrimiento del concepto de habituación .

McCulloch y Pitts [8] (1943) también crearon un modelo computacional para redes neuronales basado en matemáticas y algoritmos. Llamaron a este modelo lógica de umbral. Estos primeros modelos allanaron el camino para que la investigación de redes neuronales se dividiera en dos enfoques distintos. Un enfoque se centró en los procesos biológicos del cerebro y el otro en la aplicación de redes neuronales a la inteligencia artificial.

El procesamiento distribuido paralelo de mediados de la década de 1980 se hizo popular con el nombre de conexionismo . El texto de Rumelhart y McClelland [9] (1986) proporcionó una exposición completa sobre el uso del conexionismo en las computadoras para simular procesos neuronales.

Las redes neuronales artificiales, tal como se utilizan en la inteligencia artificial, se han visto tradicionalmente como modelos simplificados de procesamiento neuronal en el cerebro, aunque se debate la relación entre este modelo y la arquitectura biológica del cerebro, ya que no está claro hasta qué punto las redes neuronales artificiales reflejan función del cerebro. [10]

Neurociencia

La neurociencia teórica y computacional es el campo que se ocupa del análisis y modelado computacional de sistemas neuronales biológicos. Dado que los sistemas neuronales están íntimamente relacionados con los procesos cognitivos y el comportamiento, el campo está estrechamente relacionado con el modelado cognitivo y conductual.

El objetivo del campo es crear modelos de sistemas neuronales biológicos para comprender cómo funcionan los sistemas biológicos. Para lograr esta comprensión, los neurocientíficos se esfuerzan por establecer un vínculo entre los procesos biológicos observados (datos), los mecanismos biológicamente plausibles para el procesamiento y el aprendizaje neuronal (modelos de redes neuronales) y la teoría (teoría estadística del aprendizaje y teoría de la información ).

Tipos de modelos

Se utilizan muchos modelos; definidos en diferentes niveles de abstracción y modelando diferentes aspectos de los sistemas neuronales. Van desde modelos del comportamiento a corto plazo de neuronas individuales , pasando por modelos de la dinámica de los circuitos neuronales que surgen de las interacciones entre neuronas individuales, hasta modelos de comportamiento que surgen de módulos neuronales abstractos que representan subsistemas completos. Estos incluyen modelos de la plasticidad a corto y largo plazo de los sistemas neuronales y su relación con el aprendizaje y la memoria, desde la neurona individual hasta el nivel del sistema.

Conectividad

En agosto de 2020, los científicos informaron que las conexiones bidireccionales, o conexiones de retroalimentación adicionales apropiadas, pueden acelerar y mejorar la comunicación entre y dentro de las redes neuronales modulares de la corteza cerebral del cerebro y reducir el umbral para su comunicación exitosa. Demostraron que agregar conexiones de retroalimentación entre un par de resonancia puede respaldar la propagación exitosa de un solo paquete de pulsos por toda la red. [11] [12]

Mejoras recientes

Si bien inicialmente la investigación se había centrado principalmente en las características eléctricas de las neuronas, una parte particularmente importante de la investigación en los últimos años ha sido la exploración del papel de neuromoduladores como la dopamina , la acetilcolina y la serotonina en el comportamiento y el aprendizaje. [ cita necesaria ]

Los modelos biofísicos , como la teoría BCM , han sido importantes para comprender los mecanismos de la plasticidad sináptica y han tenido aplicaciones tanto en informática como en neurociencia. [ cita necesaria ]

Ver también

Referencias

  1. ^ Hopfield, JJ (1982). "Redes neuronales y sistemas físicos con habilidades computacionales colectivas emergentes". Proc. Nacional. Acad. Ciencia. EE.UU . 79 (8): 2554–2558. Código bibliográfico : 1982PNAS...79.2554H. doi : 10.1073/pnas.79.8.2554 . PMC  346238 . PMID  6953413.
  2. ^ Sterratt, D., Graham, B., Gillies, A. y Willshaw, D. Capítulo 9 (2011). Principios del modelado computacional en neurociencia, capítulo 9. Cambridge, Reino Unido: Cambridge University Press.
  3. ^ Arbib, página 666
  4. ^ abcd Bain (1873). Mente y cuerpo: las teorías de su relación . Nueva York: D. Appleton and Company.
  5. ^ ab James (1890). Los principios de la psicología. Nueva York: H. Holt and Company.
  6. ^ Cuntz, Hermann (2010). "Imagen de la edición de biología computacional de PLoS | Vol. 6 (8) de agosto de 2010". PLOS Biología Computacional . 6 (8): ev06.i08. doi : 10.1371/image.pcbi.v06.i08 .
  7. ^ Sherrington, CS (1898). "Experimentos en el examen de la distribución periférica de las fibras de las raíces posteriores de algunos nervios espinales". Actas de la Royal Society de Londres . 190 : 45–186. doi : 10.1098/rstb.1898.0002 .
  8. ^ McCulloch, Warren; Walter Pitts (1943). "Un cálculo lógico de ideas inmanentes a la actividad nerviosa". Boletín de Biofísica Matemática . 5 (4): 115-133. doi :10.1007/BF02478259.
  9. ^ Rumelhart, DE; James McClelland (1986). Procesamiento distribuido paralelo: exploraciones en la microestructura de la cognición . Cambridge: Prensa del MIT.
  10. ^ Russell, Ingrid. "Módulo de Redes Neuronales". Archivado desde el original el 29 de mayo de 2014.
  11. ^ "Los neurocientíficos demuestran cómo mejorar la comunicación entre diferentes regiones del cerebro". medicalxpress.com . Consultado el 6 de septiembre de 2020 .
  12. ^ Rezaei, Hedyeh; Aertsen, anuncio; Kumar, Arvind; Valizadeh, Alireza (10 de agosto de 2020). "Facilitar la propagación de actividad de picos en redes de retroalimentación mediante la inclusión de retroalimentación". PLOS Biología Computacional . 16 (8): e1008033. Código Bib : 2020PLSCB..16E8033R. doi : 10.1371/journal.pcbi.1008033 . ISSN  1553-7358. PMC 7444537 . PMID  32776924. S2CID  221100528.  El texto y las imágenes están disponibles bajo una licencia internacional Creative Commons Attribution 4.0.