La regla de aprendizaje o proceso de aprendizaje de una red neuronal artificial es un método, lógica matemática o algoritmo que mejora el rendimiento y/o el tiempo de entrenamiento de la red. Normalmente, esta regla se aplica repetidamente en la red. Se realiza actualizando los pesos y los niveles de sesgo de una red cuando se simula una red en un entorno de datos específico. [1] Una regla de aprendizaje puede aceptar las condiciones existentes (ponderaciones y sesgos) de la red y comparará el resultado esperado y el resultado real de la red para proporcionar valores nuevos y mejorados para ponderaciones y sesgos. [2] Dependiendo de la complejidad del modelo real que se simula, la regla de aprendizaje de la red puede ser tan simple como una puerta XOR o un error cuadrático medio , o tan compleja como el resultado de un sistema de ecuaciones diferenciales .
La regla de aprendizaje es uno de los factores que decide qué tan rápido o con qué precisión se puede desarrollar la red artificial. Dependiendo del proceso para desarrollar la red existen tres modelos principales de aprendizaje automático:
Muchos de los métodos de aprendizaje en el aprendizaje automático funcionan de manera similar entre sí y se basan entre sí, lo que dificulta clasificarlos en categorías claras. Pero pueden entenderse ampliamente en 4 categorías de métodos de aprendizaje, aunque estas categorías no tienen límites claros y tienden a pertenecer a múltiples categorías de métodos de aprendizaje [3] -
Cabe señalar que, aunque estas reglas de aprendizaje puedan parecer basadas en ideas similares, tienen diferencias sutiles, ya que son una generalización o aplicación de la regla anterior y, por lo tanto, tiene sentido estudiarlas por separado según sus orígenes. e intenciones.
Desarrollado por Donald Hebb en 1949 para describir la activación neuronal biológica. A mediados de la década de 1950 también se aplicó a simulaciones por computadora de redes neuronales.
Donde representa la tasa de aprendizaje, representa la entrada de la neurona i e y es la salida de la neurona. Se ha demostrado que la regla de Hebb en su forma básica es inestable. La regla de Oja y la teoría BCM son otras reglas de aprendizaje construidas además de la regla de Hebb o junto a ella en el estudio de las neuronas biológicas.
La regla de aprendizaje del perceptrón se origina en la suposición hebbiana y fue utilizada por Frank Rosenblatt en su perceptrón en 1958. La red se pasa a la función de activación ( transferencia ) y la salida de la función se utiliza para ajustar los pesos. La señal de aprendizaje es la diferencia entre la respuesta deseada y la respuesta real de una neurona. La función de paso se utiliza a menudo como función de activación y las salidas generalmente están restringidas a -1, 0 o 1.
Los pesos se actualizan con
donde "t" es el valor objetivo y " o" es la salida del perceptrón, y se denomina tasa de aprendizaje.
El algoritmo converge a la clasificación correcta si: [5]
*También debe tenerse en cuenta que un perceptrón de una sola capa con esta regla de aprendizaje es incapaz de trabajar con entradas linealmente no separables y, por lo tanto, el problema XOR no se puede resolver utilizando esta regla sola [6]
Se dice que Seppo Linnainmaa desarrolló en 1970 el algoritmo de retropropagación [7], pero los orígenes del algoritmo se remontan a la década de 1960 con muchos contribuyentes. Es una generalización del algoritmo de mínimos cuadrados medios en el perceptrón lineal y la regla de aprendizaje Delta.
Implementa la búsqueda de descenso de gradiente a través del espacio de posibles pesos de la red, reduciendo iterativamente el error entre los valores objetivo y las salidas de la red.
Similar a la regla de aprendizaje del perceptrón pero con diferente origen. Fue desarrollado para su uso en la red ADALAINE , que se diferencia del Perceptron principalmente en términos de entrenamiento. Las ponderaciones se ajustan de acuerdo con la suma ponderada de las entradas (el neto), mientras que en el perceptrón el signo de la suma ponderada fue útil para determinar la salida ya que el umbral se estableció en 0, -1 o +1. Esto diferencia a ADALINE del perceptrón normal.
La regla delta (DR) es similar a la regla de aprendizaje del perceptrón (PLR), con algunas diferencias:
A veces, sólo cuando Widrow-Hoff se aplica específicamente a objetivos binarios, se la conoce como Regla Delta, pero los términos parecen usarse a menudo indistintamente. La regla delta se considera un caso especial del algoritmo de retropropagación .
La regla delta también se parece mucho al modelo de Rescorla-Wagner bajo el cual se produce el condicionamiento pavloviano. [8]
El aprendizaje competitivo se considera una variante del aprendizaje hebbiano , pero es lo suficientemente especial como para discutirlo por separado. El aprendizaje competitivo funciona aumentando la especialización de cada nodo de la red. Es muy adecuado para encontrar grupos dentro de datos.
Los modelos y algoritmos basados en el principio del aprendizaje competitivo incluyen la cuantificación de vectores y mapas autoorganizados (mapas de Kohonen).
{{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ) Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )