stringtranslate.com

ADALINE

Aprendizaje dentro de una sola capa ADALINE
Foto de una máquina ADALINE, con pesas ajustables manualmente.
Esquema de una sola unidad ADALINE, de la Figura 2 de (Widrow, 1960).

ADALINE ( Adaptive Linear Neuron o posterior Adaptive Linear Element ) es una de las primeras redes neuronales artificiales de una sola capa y el nombre del dispositivo físico que implementó esta red. [1] [2] [3] [4] [5] La red utiliza memistores. Fue desarrollado por el profesor Bernard Widrow y su estudiante de doctorado Ted Hoff en la Universidad de Stanford en 1960. Se basa en el perceptrón . Consta de una función de ponderación, de sesgo y de suma.

La diferencia entre el perceptrón Adaline y el estándar (McCulloch-Pitts) está en cómo aprenden. Los pesos unitarios de Adaline se ajustan para que coincidan con la señal del maestro, antes de aplicar la función Heaviside (ver figura), pero los pesos unitarios del perceptrón estándar se ajustan para que coincidan con la salida correcta, después de aplicar la función Heaviside.

Una red multicapa de unidades ADALINE es MADALINE .

Definición

Adaline es una red neuronal de una sola capa con múltiples nodos donde cada nodo acepta múltiples entradas y genera una salida. Dadas las siguientes variables como:

entonces encontramos que la salida es . Si asumimos además que

entonces la salida se reduce aún más a:

regla de aprendizaje

La regla de aprendizaje utilizada por ADALINE es el algoritmo LMS ("mínimos cuadrados medios"), un caso especial de descenso de gradiente.

Defina las siguientes notaciones:


El algoritmo LMS actualiza los pesos mediante

Esta regla de actualización minimiza el cuadrado del error [6] y, de hecho, es la actualización de descenso de gradiente estocástico para la regresión lineal . [7]

MADALINE

MADALINE (Many ADALINE [8] ) es una arquitectura de red neuronal artificial de tres capas (entrada, oculta, salida), completamente conectada y de retroalimentación para clasificación que utiliza unidades ADALINE en sus capas oculta y de salida, es decir, su función de activación es la función de signo . [9] La red de tres capas utiliza memistores . Se han sugerido tres algoritmos de entrenamiento diferentes para redes MADALINE, que no se pueden aprender mediante retropropagación porque la función de signo no es diferenciable, denominados Regla I, Regla II y Regla III.

A pesar de muchos intentos, nunca lograron entrenar más de una sola capa de pesas en un MADALINE. Esto fue así hasta que Widrow vio el algoritmo de retropropagación en una conferencia de 1982. [10]

Regla 1 de MADALINE (MRI): la primera de ellas se remonta a 1962. [11] Consta de dos capas. La primera capa está formada por unidades ADALINE. Sea la salida de la i-ésima unidad ADALINE . La segunda capa tiene dos unidades. Una es una unidad de voto mayoritario: toma todos los , y si hay más positivos que negativos, entonces la unidad genera +1, y viceversa. Otro es un "asignador de trabajos". Supongamos que el resultado deseado es diferente del resultado votado por la mayoría, digamos que el resultado deseado es -1, entonces el asignador del trabajo calcula el número mínimo de unidades ADALINE que deben cambiar sus resultados de positivo a negativo, luego elige aquellas unidades ADALINE que están más cerca. a ser negativo, y hacerles actualizar sus pesos, según la regla de aprendizaje ADALINE. Se pensó como una forma de "principio de mínima perturbación". [12]

La máquina MADALINE más grande construida tenía 1000 pesas, cada una implementada por un memistor. [12]

Regla 2 de MADALINE (MRII): el segundo algoritmo de entrenamiento mejoró la Regla I y se describió en 1988. [8] El algoritmo de entrenamiento de la Regla II se basa en un principio llamado "perturbación mínima". Continúa recorriendo ejemplos de entrenamiento y luego, para cada ejemplo,:

Regla 3 de MADALINE: la tercera "Regla" se aplica a una red modificada con activaciones sigmoideas en lugar de signum; Más tarde se descubrió que era equivalente a la propagación hacia atrás. [12]

Además, cuando invertir los signos de unidades individuales no lleva el error a cero para un ejemplo particular, el algoritmo de entrenamiento comienza a invertir pares de signos de unidades, luego triples de unidades, etc. [8]

Ver también

Referencias

  1. ^ Anderson, James A.; Rosenfeld, Eduardo (2000). Redes parlantes: una historia oral de las redes neuronales. Prensa del MIT. ISBN 9780262511117.
  2. ^ Youtube: widrowlms: ciencia en acción
  3. ^ 1960: una neurona adaptativa "ADALINE" que utiliza "memistores" químicos
  4. ^ Youtube: widrowlms: el algoritmo LMS y ADALINE. Parte I - El algoritmo LMS
  5. ^ Youtube: widrowlms: el algoritmo LMS y ADALINE. Parte II - ADALINE y memistor ADALINE
  6. ^ "Adaline (lineal adaptativa)" (PDF) . CS 4793: Introducción a las redes neuronales artificiales . Departamento de Ciencias de la Computación, Universidad de Texas en San Antonio.
  7. ^ Avi Pfeffer. "CS181 Conferencia 5: Perceptrones" (PDF) . Universidad Harvard.[ enlace muerto permanente ]
  8. ^ a b C Rodney Winter; Bernard Widrow (1988). REGLA MADALINE II: Un algoritmo de entrenamiento para redes neuronales (PDF) . Conferencia internacional IEEE sobre redes neuronales. págs. 401–408. doi :10.1109/ICNN.1988.23872.
  9. ^ Youtube: widrowlms: Science in Action (se menciona a Madaline al principio y en el minuto 8:46)
  10. ^ Anderson, James A.; Rosenfeld, Edward, eds. (2000). Redes parlantes: una historia oral de las redes neuronales. La prensa del MIT. doi : 10.7551/mitpress/6626.003.0004. ISBN 978-0-262-26715-1.
  11. ^ Viuda, Bernard (1962). "Generalización y almacenamiento de información en redes de neuronas adalinas" (PDF) . Sistemas autoorganizados : 435–461.
  12. ^ abc Viuda, Bernard; Lehr, Michael A. (1990). "30 años de redes neuronales adaptativas: perceptrón, madalina y retropropagación". Actas del IEEE . 78 (9): 1415-1442. doi :10.1109/5.58323. S2CID  195704643.

enlaces externos