stringtranslate.com

Red neuronal aleatoria

La red neuronal aleatoria ( RNN ) [1] es una representación matemática de una red interconectada de neuronas o células que intercambian señales de picos . Fue inventada por Erol Gelenbe y está vinculada al modelo de red G de redes en cola, así como a los modelos de red reguladora de genes. Cada estado de célula está representado por un entero cuyo valor aumenta cuando la célula recibe un pico excitatorio y disminuye cuando recibe un pico inhibidor. Los picos pueden originarse fuera de la propia red , o pueden provenir de otras células de las redes. Las células cuyo estado excitatorio interno tiene un valor positivo pueden enviar picos de cualquier tipo a otras células de la red de acuerdo con tasas de picos específicas dependientes de la célula. El modelo tiene una solución matemática en estado estable que proporciona la distribución de probabilidad conjunta de la red en términos de las probabilidades individuales de que cada célula esté excitada y sea capaz de enviar picos. El cálculo de esta solución se basa en la resolución de un conjunto de ecuaciones algebraicas no lineales cuyos parámetros están relacionados con las tasas de picos de las células individuales y su conectividad con otras células, así como con las tasas de llegada de picos desde fuera de la red. La RNN es un modelo recurrente, es decir, una red neuronal a la que se le permite tener bucles de retroalimentación complejos. [2]

Krishna Palem et al. demostraron una implementación de redes neuronales aleatorias de alta eficiencia energética utilizando la tecnología CMOS o PCMOS probabilística y demostraron que era entre 226 y 300 veces más eficiente en términos de rendimiento energético del producto. [3]

Las RNN también están relacionadas con las redes neuronales artificiales , que (como la red neuronal aleatoria) tienen algoritmos de aprendizaje basados ​​en gradientes . El algoritmo de aprendizaje para una red neuronal aleatoria de n nodos que incluye bucles de retroalimentación (también es una red neuronal recurrente ) tiene una complejidad computacional O(n^3) (el número de cálculos es proporcional al cubo de n, el número de neuronas). La red neuronal aleatoria también se puede utilizar con otros algoritmos de aprendizaje como el aprendizaje de refuerzo . Se ha demostrado que la RNN es un aproximador universal para funciones acotadas y continuas .

Véase también

Referencias y fuentes

Referencias
  1. ^ Erol Gelenbe. "Redes neuronales aleatorias con señales negativas y positivas y solución en forma de producto". Neural Computation, vol. 1, n.º 4, págs. 502-510, 1989, MIT Press.
  2. ^ Erol Gelenbe. "Aprendizaje en la red neuronal aleatoria recurrente" (PDF) . Neural Computation, vol. 5, n.º 1, págs. 154-164, 1993, MIT Press.
  3. ^ Lakshmi N. Chakrapani; Sentina ES Akgul; Suresh Cheemalavagu; Pinar Korkmaz; Krishna V. Palem; Balasubramanian Seshasayee. "Arquitecturas SOC integradas ultraeficientes basadas en tecnología CMOS probabilística (PCMOS)". Conferencia de pruebas y automatización de diseño en Europa (FECHA), 2006.
Fuentes