stringtranslate.com

Retropropagación recurrente de Almeida-Pineda

La retropropagación recurrente de Almeida-Pineda es una extensión del algoritmo de retropropagación que es aplicable a las redes neuronales recurrentes . Es un tipo de aprendizaje supervisado . Fue descrito de forma un tanto críptica en la tesis de grado de Richard Feynman y redescubierto de forma independiente en el contexto de las redes neuronales artificiales por Fernando Pineda y Luis B. Almeida. [1] [2] [3]

Una red neuronal recurrente para este algoritmo consta de algunas unidades de entrada, algunas unidades de salida y, eventualmente, algunas unidades ocultas.

Para un conjunto dado de estados (de entrada, de destino), la red se entrena para establecerse en un estado de activación estable con las unidades de salida en el estado de destino, en función de un estado de entrada dado fijado en las unidades de entrada.

Referencias

  1. ^ Feynman, Richard P. (agosto de 1939). "Fuerzas en las moléculas". Physical Review . 56 (4). American Physical Society: 340–3. Código Bibliográfico :1939PhRv...56..340F. doi :10.1103/PhysRev.56.340.
  2. ^ Pineda, Fernando (9 de noviembre de 1987). "Generalización de la retropropagación a redes neuronales recurrentes". Physical Review Letters . 19 (59): 2229–32. Bibcode :1987PhRvL..59.2229P. doi :10.1103/PhysRevLett.59.2229. PMID  10035458.
  3. ^ Almeida, Luis B. (junio de 1987). Una regla de aprendizaje para perceptrones asincrónicos con retroalimentación en un entorno combinatorio . Primera Conferencia Internacional sobre Redes Neuronales del IEEE. San Diego, CA, EE. UU., págs. 608–18.