La teoría de Bienenstock-Cooper-Munro ( BCM ) , modificación sináptica BCM o regla BCM , llamada así por Elie Bienenstock, Leon Cooper y Paul Munro, es una teoría física del aprendizaje en la corteza visual desarrollada en 1981. El modelo BCM propone un umbral deslizante para la inducción de potenciación a largo plazo (LTP) o depresión a largo plazo (LTD), y afirma que la plasticidad sináptica se estabiliza mediante una adaptación dinámica de la actividad postsináptica promediada en el tiempo. Según el modelo BCM, cuando una neurona presináptica se activa, las neuronas postsinápticas tenderán a experimentar LTP si está en un estado de alta actividad (p. ej., se activa a alta frecuencia y/o tiene altas concentraciones internas de calcio), o LTD si está en un estado de menor actividad (p. ej., se activa a baja frecuencia, bajas concentraciones internas de calcio). [1] Esta teoría se utiliza a menudo para explicar cómo las neuronas corticales pueden experimentar tanto LTP como LTD dependiendo de diferentes protocolos de estímulo condicionante aplicados a las neuronas presinápticas (normalmente estimulación de alta frecuencia, o HFS, para LTP, o estimulación de baja frecuencia, LFS, para LTD). [2]
En 1949, Donald Hebb propuso un mecanismo de trabajo para la memoria y la adaptación computacional en el cerebro, ahora llamado aprendizaje hebbiano , o la máxima de que las células que se activan juntas, se conectan entre sí . [3] Esta noción es fundamental en la comprensión moderna del cerebro como una red neuronal y, aunque no es universalmente cierta, sigue siendo una buena primera aproximación respaldada por décadas de evidencia. [3] [4]
Sin embargo, la regla de Hebb tiene problemas, a saber, que no tiene ningún mecanismo para que las conexiones se debiliten ni un límite superior para cuán fuertes pueden volverse. En otras palabras, el modelo es inestable, tanto teórica como computacionalmente. Modificaciones posteriores mejoraron gradualmente la regla de Hebb, normalizándola y permitiendo el deterioro de las sinapsis, donde la falta de actividad o la actividad no sincronizada entre neuronas da como resultado una pérdida de fuerza de la conexión. Nuevas evidencias biológicas llevaron esta actividad a un punto álgido en la década de 1970, cuando los teóricos formalizaron varias aproximaciones en la teoría, como el uso de la frecuencia de disparo en lugar del potencial para determinar la excitación neuronal y el supuesto de una integración sináptica ideal y, más importante, lineal de las señales. Es decir, no hay un comportamiento inesperado en la adición de corrientes de entrada para determinar si una célula se activará o no.
Estas aproximaciones dieron como resultado la forma básica de BCM que se presenta a continuación en 1979, pero el paso final llegó en forma de análisis matemático para demostrar la estabilidad y análisis computacional para demostrar la aplicabilidad, culminando en el artículo de Bienenstock, Cooper y Munro de 1982.
Desde entonces, los experimentos han demostrado evidencia de un comportamiento de BCM tanto en la corteza visual como en el hipocampo , este último desempeña un papel importante en la formación y el almacenamiento de recuerdos. Ambas áreas están bien estudiadas experimentalmente, pero tanto la teoría como los experimentos aún deben establecer un comportamiento sináptico concluyente en otras áreas del cerebro. Se ha propuesto que en el cerebelo , la sinapsis de la fibra paralela a la célula de Purkinje sigue una "regla de BCM inversa", lo que significa que en el momento de la activación de la fibra paralela, una alta concentración de calcio en la célula de Purkinje da como resultado LTD, mientras que una concentración más baja da como resultado LTP. [2] Además, aún debe establecerse la implementación biológica de la plasticidad sináptica en BCM. [5]
La regla básica del BCM toma la forma
dónde:
Este modelo es una forma modificada de la regla de aprendizaje hebbiana , y requiere una elección adecuada de función para evitar los problemas hebbianos de inestabilidad.
Bienenstock et al. [6] reescriben como una función donde es el promedio temporal de . Con esta modificación y descartando el decaimiento uniforme la regla toma la forma vectorial:
Las condiciones para el aprendizaje estable se derivan rigurosamente en BCM, observando que con y con la aproximación de la salida promedio , es suficiente que
o equivalentemente, que el umbral , donde y son constantes positivas fijas. [6]
Cuando se implementa, la teoría a menudo se toma de tal manera que
donde es una constante de tiempo de selectividad.
El modelo tiene desventajas, ya que requiere tanto una potenciación a largo plazo como una depresión a largo plazo , o aumentos y disminuciones en la fuerza sináptica, algo que no se ha observado en todos los sistemas corticales. Además, requiere un umbral de activación variable y depende en gran medida de la estabilidad de los puntos fijos seleccionados y . Sin embargo, la fortaleza del modelo es que incorpora todos estos requisitos a partir de reglas de estabilidad derivadas independientemente, como la normalización y una función de decaimiento con un tiempo proporcional al cuadrado de la salida. [7]
Este ejemplo es un caso particular del trabajo del capítulo “Resultados matemáticos” de Bienenstock et al. [6] , suponiendo y . Con estos valores y decidimos que se cumplen las condiciones de estabilidad dichas en el capítulo anterior.
Supongamos que hay dos neuronas presinápticas que proporcionan entradas y su actividad es un ciclo repetitivo con la mitad del tiempo y el tiempo restante es . El tiempo promedio será el promedio del valor en la primera y la segunda mitad de un ciclo.
Sea el valor inicial de los pesos . En la primera mitad del tiempo y , la suma ponderada es igual a 0,095 y usamos el mismo valor como promedio inicial . Esto significa , , . Al sumar el 10% de la derivada a los pesos obtenemos unos nuevos .
En la siguiente mitad del tiempo, las entradas son y los pesos . Esto significa que , del ciclo completo es 0,075, , , . Si sumamos el 10 % de la derivada a los pesos, obtenemos unos nuevos .
Repitiendo el ciclo anterior obtenemos, después de varios cientos de iteraciones, que la estabilidad se alcanza con , (primera mitad) y (tiempo restante), , , y .
Nótese cómo, como se predijo, el vector de peso final se ha vuelto ortogonal a uno de los patrones de entrada, siendo los valores finales de en ambos intervalos ceros de la función .
La primera confirmación experimental importante de la BCM llegó en 1992 al investigar la LTP y la LTD en el hipocampo . El trabajo experimental de Serena Dudek mostró una concordancia cualitativa con la forma final de la función de activación de la BCM. [8] Este experimento se replicó más tarde en la corteza visual , que la BCM fue diseñada originalmente para modelar. [9] Este trabajo proporcionó más evidencia de la necesidad de una función de umbral variable para la estabilidad en el aprendizaje de tipo Hebbiano (BCM u otros).
La evidencia experimental no ha sido específica para el BCM hasta que Rittenhouse et al. confirmaron la predicción del BCM de modificación de sinapsis en la corteza visual cuando un ojo se cierra selectivamente. Específicamente,
donde describe la variación en la actividad espontánea o el ruido en el ojo cerrado y es el tiempo transcurrido desde el cierre. El experimento estuvo de acuerdo con la forma general de esta predicción y proporcionó una explicación de la dinámica del cierre ocular monocular ( privación monocular ) frente al cierre ocular binocular. [10] Los resultados experimentales están lejos de ser concluyentes, pero hasta ahora han favorecido a la BCM sobre las teorías competitivas de plasticidad.
Si bien el algoritmo de BCM es demasiado complicado para el procesamiento distribuido paralelo a gran escala , se ha utilizado en redes laterales con cierto éxito. [11] Además, algunos algoritmos de aprendizaje de redes computacionales existentes se han adaptado al aprendizaje de BCM. [12]
{{cite book}}
: CS1 maint: location missing publisher (link) CS1 maint: others (link)