En neurociencia y ciencias de la computación , el peso sináptico se refiere a la fuerza o amplitud de una conexión entre dos nodos, que corresponde en biología a la cantidad de influencia que la activación de una neurona tiene sobre otra. El término se utiliza normalmente en la investigación de redes neuronales artificiales y biológicas . [1]
En una red neuronal computacional, un vector o conjunto de entradas y salidas , o neuronas pre y postsinápticas respectivamente, están interconectadas con pesos sinápticos representados por la matriz , donde para una neurona lineal
donde las filas de la matriz sináptica representan el vector de pesos sinápticos para la salida indexada por .
El peso sináptico se modifica mediante una regla de aprendizaje, la más básica de las cuales es la regla de Hebb , que generalmente se enuncia en términos biológicos como
Las neuronas que se activan juntas, se conectan entre sí.
Desde el punto de vista computacional, esto significa que si una señal grande de una de las neuronas de entrada da como resultado una señal grande de una de las neuronas de salida, entonces el peso sináptico entre esas dos neuronas aumentará. Sin embargo, la regla es inestable y normalmente se modifica utilizando variaciones como la regla de Oja , las funciones de base radial o el algoritmo de retropropagación .
En el caso de las redes biológicas, el efecto de los pesos sinápticos no es tan simple como en el caso de las neuronas lineales o el aprendizaje hebbiano . Sin embargo, los modelos biofísicos como la teoría BCM han tenido cierto éxito en la descripción matemática de estas redes.
En el sistema nervioso central de los mamíferos , la transmisión de señales se lleva a cabo mediante redes interconectadas de células nerviosas o neuronas. En el caso de la neurona piramidal básica , la señal de entrada es transportada por el axón , que libera sustancias químicas neurotransmisoras en la sinapsis , que son captadas por las dendritas de la siguiente neurona, que luego pueden generar un potencial de acción análogo a la señal de salida en el caso computacional.
El peso sináptico en este proceso está determinado por varios factores variables:
Los cambios en el peso sináptico que se producen se conocen como plasticidad sináptica , y el proceso que se esconde detrás de los cambios a largo plazo ( potenciación y depresión a largo plazo ) aún no se entiende bien. La regla de aprendizaje original de Hebb se aplicó originalmente a los sistemas biológicos, pero ha tenido que sufrir muchas modificaciones a medida que salían a la luz una serie de problemas teóricos y experimentales.