Representación matemática de una red interconectada de neuronas o células.
La red neuronal aleatoria ( RNN ) [1] es una representación matemática de una red interconectada de neuronas o células que intercambian señales de picos . Fue inventada por Erol Gelenbe y está vinculada al modelo de red G de redes en cola, así como a los modelos de red reguladora de genes. Cada estado de célula está representado por un entero cuyo valor aumenta cuando la célula recibe un pico excitatorio y disminuye cuando recibe un pico inhibidor. Los picos pueden originarse fuera de la propia red , o pueden provenir de otras células de las redes. Las células cuyo estado excitatorio interno tiene un valor positivo pueden enviar picos de cualquier tipo a otras células de la red de acuerdo con tasas de picos específicas dependientes de la célula. El modelo tiene una solución matemática en estado estable que proporciona la distribución de probabilidad conjunta de la red en términos de las probabilidades individuales de que cada célula esté excitada y sea capaz de enviar picos. El cálculo de esta solución se basa en la resolución de un conjunto de ecuaciones algebraicas no lineales cuyos parámetros están relacionados con las tasas de picos de las células individuales y su conectividad con otras células, así como con las tasas de llegada de picos desde fuera de la red. La RNN es un modelo recurrente, es decir, una red neuronal a la que se le permite tener bucles de retroalimentación complejos. [2]
Krishna Palem et al. demostraron una implementación de redes neuronales aleatorias de alta eficiencia energética utilizando la tecnología CMOS o PCMOS probabilística y demostraron que era entre 226 y 300 veces más eficiente en términos de rendimiento energético del producto. [3]
Las RNN también están relacionadas con las redes neuronales artificiales , que (como la red neuronal aleatoria) tienen algoritmos de aprendizaje basados en gradientes . El algoritmo de aprendizaje para una red neuronal aleatoria de n nodos que incluye bucles de retroalimentación (también es una red neuronal recurrente ) tiene una complejidad computacional O(n^3) (el número de cálculos es proporcional al cubo de n, el número de neuronas). La red neuronal aleatoria también se puede utilizar con otros algoritmos de aprendizaje como el aprendizaje de refuerzo . Se ha demostrado que la RNN es un aproximador universal para funciones acotadas y continuas .
Véase también
Referencias y fuentes
- Referencias
- ^ Erol Gelenbe. "Redes neuronales aleatorias con señales negativas y positivas y solución en forma de producto". Neural Computation, vol. 1, n.º 4, págs. 502-510, 1989, MIT Press.
- ^ Erol Gelenbe. "Aprendizaje en la red neuronal aleatoria recurrente" (PDF) . Neural Computation, vol. 5, n.º 1, págs. 154-164, 1993, MIT Press.
- ^ Lakshmi N. Chakrapani; Sentina ES Akgul; Suresh Cheemalavagu; Pinar Korkmaz; Krishna V. Palem; Balasubramanian Seshasayee. "Arquitecturas SOC integradas ultraeficientes basadas en tecnología CMOS probabilística (PCMOS)". Conferencia de pruebas y automatización de diseño en Europa (FECHA), 2006.
- Fuentes
- E. Gelenbe, Redes neuronales aleatorias con señales negativas y positivas y solución en forma de producto, Neural Computation, vol. 1, no. 4, págs. 502–511, 1989.
- E. Gelenbe, Estabilidad del modelo de red neuronal aleatoria, Neural Computation, vol. 2, no. 2, págs. 239–247, 1990.
- E. Gelenbe, A. Stafylopatis y A. Likas, Operación de memoria asociativa del modelo de red aleatoria, en Proc. Int. Conf. Artificial Neural Networks, Helsinki, págs. 307–312, 1991.
- E. Gelenbe, F. Batty, Cobertura de gráficos de costo mínimo con la red neuronal aleatoria, Computer Science and Operations Research, O. Balci (ed.), Nueva York, Pergamon, págs. 139–147, 1992.
- E. Gelenbe, Aprendizaje en la red neuronal aleatoria recurrente, Neural Computation, vol. 5, no. 1, págs. 154–164, 1993.
- E. Gelenbe, V. Koubi, F. Pekergin, Enfoque de red neuronal aleatoria dinámica para el problema del viajante, Proc. IEEE Symp. Syst., Man, Cybern., págs. 630–635, 1993.
- E. Gelenbe, C. Cramer, M. Sungur, P. Gelenbe "Tráfico y calidad de vídeo en la compresión neuronal adaptativa", Multimedia Systems , 4, 357–369, 1996.
- C. Cramer, E. Gelenbe, H. Bakircioglu Compresión de vídeo de baja tasa de bits con redes neuronales y submuestreo temporal, Actas del IEEE, Vol. 84, No. 10, págs. 1529–1543, octubre de 1996.
- E. Gelenbe, T. Feng, KRR Krishnan Métodos de redes neuronales para imágenes por resonancia magnética volumétrica del cerebro humano, Actas del IEEE, vol. 84, n.º 10, págs. 1488-1496, octubre de 1996.
- E. Gelenbe, A. Ghanwani, V. Srinivasan, "Heurísticas neuronales mejoradas para enrutamiento de multidifusión", IEEE J. Selected Areas in Communications , 15, (2), 147–155, 1997.
- E. Gelenbe, ZH Mao y YD Li, "Aproximación de funciones con la red neuronal aleatoria", IEEE Trans. Neural Networks , 10, (1), enero de 1999. [ página necesaria ]
- E. Gelenbe, JM Fourneau '"Redes neuronales aleatorias con múltiples clases de señales", Neural Computation , 11, 721–731, 1999.
- Ugur Halici "Aprendizaje de refuerzo con expectativa interna para la red neuronal aleatoria", Revista Europea de Investigación Operativa 126 (2): 288–307, 2000.
- Aristidis Likas, Andreas Stafylopatis "Entrenamiento de la red neuronal aleatoria utilizando métodos cuasi-Newton", Revista Europea de Investigación Operativa 126 (2): 331–339, 2000.
- Samir Mohamed, Gerardo Rubino, Martín Varela "Evaluación del rendimiento de voz en tiempo real a través de una red de paquetes: un enfoque basado en redes neuronales aleatorias", Perform. Eval. 57 (2): 141–161, 2004.
- E. Gelenbe, Z.-H. Mao y YD. Li "Aproximación de funciones mediante redes neuronales aleatorias con un número limitado de capas", 'Ecuaciones diferenciales y sistemas dinámicos', 12 (1 y 2), 143–170, enero-abril de 2004.
- Gerardo Rubino, Pierre Tirilly, Martín Varela "Evaluación de la satisfacción de los usuarios en redes de paquetes utilizando redes neuronales aleatorias", ICANN (1) 2006: 303–312, 2006.
- Gülay Öke y Georgios Loukas. Un detector de denegación de servicio basado en la detección de máxima verosimilitud y la red neuronal aleatoria. Computer Journal, 50(6):717–727, noviembre de 2007.
- S. Timotheou. Aprendizaje de mínimos cuadrados no negativos para redes neuronales aleatorias. En Actas de la 18.ª Conferencia internacional sobre redes neuronales artificiales, Praga, República Checa, páginas 195-204, 2008.
- S. Timotheou. Un nuevo método de inicialización de pesos para la red neuronal aleatoria. En el Quinto Simposio Internacional sobre Redes Neuronales (ISNN), Beijing, China, 2008.
- Stelios Timotheou. "La red neuronal aleatoria: una encuesta", Comput. J. 53 (3): 251–267, 2010.
- Pedro Casas, Sandrine Vaton. "Sobre el uso de redes neuronales aleatorias para la estimación de matrices de tráfico en redes IP de gran escala", IWCMC 2010: 326–330, 2010.
- S. Basterrech, G. Rubino, "Red neuronal aleatoria como herramienta de aprendizaje supervisado", Neural Network World, 25(5), 457-499, doi :10.14311/NNW.2015.25.024, 2015.
- S. Basterrech, S. Mohamed, G. Rubino, M. Soliman. "Algoritmos de entrenamiento de Levenberg-Marquardt para redes neuronales aleatorias", Computer Journal, 54 (1), 125–135, 2011.
- Michael Georgiopoulos, Cong Li y Taskin Kocak. "Aprendizaje en la red neuronal aleatoria de avance: una revisión crítica", Evaluación del desempeño, 68 (4): 361–384, 2011.