Las redes neuronales con picos ( SNN ) son redes neuronales artificiales (ANN) que imitan más de cerca a las redes neuronales naturales. [1] Estos modelos aprovechan la sincronización de picos discretos como el principal portador de información. [2]
Aunque anteriormente se creía que el cerebro codificaba la información a través de tasas de picos, que pueden considerarse como la salida variable analógica de una ANN tradicional, [4] la investigación en el campo de la neurobiología ha indicado que el procesamiento de alta velocidad no puede realizarse únicamente a través de un esquema basado en la tasa. Por ejemplo, los humanos pueden realizar una tarea de reconocimiento de imágenes a una tasa que no requiere más de 10 ms de tiempo de procesamiento por neurona a través de las capas sucesivas (desde la retina hasta el lóbulo temporal). Esta ventana de tiempo es demasiado corta para una codificación basada en la tasa. Los tiempos de pico precisos en un pequeño conjunto de neuronas que emiten picos también tienen una mayor capacidad de codificación de información en comparación con un enfoque basado en la tasa. [5]
El modelo de neurona con picos más destacado es el modelo de integración y disparo con fugas . [6] En el modelo de integración y disparo, el nivel de activación momentánea (modelado como una ecuación diferencial ) normalmente se considera el estado de la neurona, y los picos entrantes empujan este valor hacia arriba o hacia abajo, hasta que el estado finalmente decae o, si se alcanza el umbral de disparo, la neurona se dispara. Después del disparo, la variable de estado se restablece a un valor más bajo.
Existen varios métodos de decodificación para interpretar el tren de picos salientes como un número de valor real, basándose en la frecuencia de los picos ( código de tasa ), el tiempo hasta el primer pico después de la estimulación o el intervalo entre picos.
Historia
Muchas redes neuronales artificiales multicapa están completamente conectadas , reciben información de cada neurona de la capa anterior y envían señales a cada neurona de la capa siguiente. Aunque estas redes han logrado avances en muchos campos, son biológicamente inexactas y no imitan el mecanismo de funcionamiento de las neuronas en el cerebro de un ser vivo. [ cita requerida ]
Si bien la noción de una red neuronal artificial de picos se volvió muy popular recién durante el primer cuarto del siglo XXI, [8] [9] [10] existen varios estudios entre 1980 y 1995 que apoyaron el concepto y en los cuales aparecieron los primeros modelos de este tipo de redes neuronales artificiales para simular sistemas de procesamiento de información inteligente no algorítmicos. [11] [12] [13] Sin embargo, la noción misma de la red neuronal de picos como modelo matemático ya había sido trabajada a principios de los años 1970. [14]
Fundamentos
La información en el cerebro se representa como potenciales de acción (picos neuronales), que pueden agruparse en trenes de picos o incluso en ondas coordinadas de actividad cerebral. Una cuestión fundamental de la neurociencia es determinar si las neuronas se comunican mediante un código de ritmo o temporal . [15] La codificación temporal sugiere que una sola neurona que emite picos puede reemplazar a cientos de unidades ocultas en una red neuronal sigmoidea . [1]
Una red neuronal segmentada (SNN) realiza sus cálculos en el dominio continuo, no en el discreto. La idea es que las neuronas no puedan comprobar si se activan en cada iteración de propagación (como sucede en una red perceptrónica multicapa típica ), sino solo cuando sus potenciales de membrana alcanzan un valor determinado. Cuando una neurona se activa, produce una señal que se transmite a las neuronas conectadas, aumentando o disminuyendo su potencial de membrana.
En una red neuronal con picos, el estado actual de una neurona se define como su potencial de membrana (posiblemente modelado como una ecuación diferencial). [16] Un pulso de entrada hace que el potencial de membrana aumente durante un período de tiempo y luego disminuya gradualmente. Se han construido esquemas de codificación para interpretar estas secuencias de pulsos como un número, teniendo en cuenta tanto la frecuencia como el intervalo de pulso. Se puede establecer un modelo de red neuronal basado en el tiempo de generación de pulsos. [17] Al utilizar el tiempo exacto de ocurrencia del pulso, una red neuronal puede emplear más información y ofrecer mejores propiedades de computación. [18]
El enfoque de las redes neuronales artificiales produce una salida continua en lugar de la salida binaria de las redes neuronales artificiales (RNA) tradicionales. Los trenes de pulsos no son fácilmente interpretables, de ahí la necesidad de esquemas de codificación como los anteriores. Sin embargo, una representación de tren de pulsos puede ser más adecuada para procesar datos espaciotemporales (o clasificación continua de datos sensoriales del mundo real). [19] Las redes neuronales artificiales consideran el espacio conectando neuronas solo con neuronas cercanas para que procesen bloques de entrada por separado (similar a las redes neuronales convolucionales que utilizan filtros). Consideran el tiempo codificando la información como trenes de pulsos para no perder información en una codificación binaria. Esto evita la complejidad adicional de una red neuronal recurrente (RNN). Resulta que las neuronas de impulso son unidades computacionales más poderosas que las neuronas artificiales tradicionales. [20]
Las SNN son teóricamente más potentes que las llamadas "redes de segunda generación" definidas en [20] como "[ANN] basadas en unidades computacionales que aplican una función de activación con un conjunto continuo de posibles valores de salida a una suma ponderada (o polinomio) de las entradas; sin embargo, los problemas de entrenamiento de SNN y los requisitos de hardware limitan su uso. Aunque existen métodos de aprendizaje no supervisados inspirados biológicamente, como el aprendizaje hebbiano y STDP , no hay ningún método de entrenamiento supervisado efectivo adecuado para SNN que pueda proporcionar un mejor rendimiento que las redes de segunda generación. [20] La activación basada en picos de SNN no es diferenciable, lo que dificulta el desarrollo de métodos de entrenamiento basados en descenso de gradiente para realizar retropropagación de errores .
Las SNN tienen costos computacionales mucho mayores para simular modelos neuronales realistas que las ANN tradicionales. [21]
Actualmente, existen algunos desafíos al utilizar SNN en los que los investigadores están trabajando activamente. El primer desafío se refiere a la no diferenciabilidad de la no linealidad de picos. Las expresiones para los métodos de aprendizaje hacia adelante y hacia atrás contienen la derivada de la función de activación neuronal que no es diferenciable porque la salida de la neurona es 1 cuando se dispara y 0 en caso contrario. Este comportamiento de todo o nada de la no linealidad de picos binarios impide que los gradientes "fluyan" y hace que las neuronas LIF no sean adecuadas para la optimización basada en gradientes. El segundo desafío se refiere a la implementación del algoritmo de optimización en sí. La BP estándar puede ser costosa en términos de computación, memoria y comunicación y puede ser poco adecuada para las restricciones dictadas por el hardware que la implementa (por ejemplo, una computadora, un cerebro o un dispositivo neuromórfico). [22] Con respecto al primer desafío, existen varios enfoques para resolverlo. Algunos de ellos son:
Recurriendo a reglas de aprendizaje locales de inspiración totalmente biológica para las unidades ocultas
Traducción de NN “basadas en frecuencia” entrenadas convencionalmente a SNN
Suavizar el modelo de red para que sea continuamente diferenciable
definir un SG (gradiente sustituto) como una relajación continua de los gradientes reales
En el desarrollo de las SNN, la incorporación de dinámicas neuronales adicionales como la Adaptación de Frecuencia de Espigas (SFA) en los modelos neuronales marca un avance notable, mejorando tanto la eficiencia como la potencia computacional. [6] [23] Estas neuronas se encuentran entre la complejidad biológica y la complejidad computacional. [24] Originada a partir de conocimientos biológicos, la SFA ofrece importantes beneficios computacionales al reducir el uso de energía mediante una codificación eficiente, [25] especialmente en casos de estímulos repetitivos o intensos. Esta adaptación mejora la claridad de la señal frente al ruido de fondo e introduce una memoria elemental a corto plazo a nivel neuronal, que a su vez, refina la precisión y la eficiencia del procesamiento de la información. [26] Recientemente, este fenómeno se logró principalmente utilizando modelos de neuronas compartimentadas . Las versiones más simples son de modelos neuronales con umbrales adaptativos, una forma indirecta de lograr la SFA. Equipa a las SNN con capacidades de aprendizaje mejoradas, incluso con plasticidad sináptica restringida, y eleva la eficiencia computacional. [27] [28] Esta característica reduce la demanda de capas de red al disminuir la necesidad de procesamiento de picos, reduciendo así la carga computacional y el tiempo de acceso a la memoria, aspectos esenciales de la computación neuronal. Además, las SNN que utilizan neuronas capaces de SFA logran niveles de precisión que rivalizan con los de las redes neuronales artificiales convencionales, incluidas las basadas en modelos de memoria a corto plazo a largo plazo, [29] [30] al mismo tiempo que requieren menos neuronas para tareas computacionales comparables. Esta eficiencia no solo agiliza el flujo de trabajo computacional, sino que también conserva espacio y energía, lo que ofrece un paso pragmático hacia adelante en la aplicación práctica de las SNN para tareas computacionales complejas al tiempo que mantiene un compromiso con la integridad técnica. Redes neuronales de picos profundos de alto rendimiento con 0,3 picos por neurona
Aplicaciones
Las SNN se pueden aplicar en principio a las mismas aplicaciones que las ANN tradicionales. [31] Además, las SNN pueden modelar el sistema nervioso central de organismos biológicos, como un insecto que busca alimento sin conocimiento previo del entorno. [32] Debido a su relativo realismo, se pueden utilizar para estudiar el funcionamiento de circuitos neuronales biológicos . Partiendo de una hipótesis sobre la topología de un circuito neuronal biológico y su función, las grabaciones de este circuito se pueden comparar con la salida de la SNN correspondiente, evaluando la plausibilidad de la hipótesis. Sin embargo, existe una falta de mecanismos de entrenamiento efectivos para las SNN, lo que puede ser inhibidor para algunas aplicaciones, incluidas las tareas de visión por computadora.
A partir de 2019, las SNN están por detrás de las ANN en términos de precisión, pero la brecha está disminuyendo y ha desaparecido en algunas tareas. [33]
Al utilizar SNN para datos basados en imágenes, las imágenes deben convertirse en trenes de picos binarios. [34] Los tipos de codificaciones incluyen: [35]
Codificación temporal; generando un pico por neurona, en el que la latencia del pico es inversamente proporcional a la intensidad del píxel.
Codificación de velocidad: conversión de la intensidad del píxel en un tren de picos, donde el número de picos es proporcional a la intensidad del píxel.
Codificación directa; se utiliza una capa entrenable para generar un valor de punto flotante para cada paso de tiempo. La capa convierte cada píxel en un determinado paso de tiempo en un valor de punto flotante y, a continuación, se utiliza un umbral en los valores de punto flotante generados para elegir cero o uno.
Codificación de fase; codificación de información temporal en patrones de picos basados en un oscilador global.
Codificación en ráfaga; transmitir una ráfaga de picos en un tiempo pequeño, aumentando la confiabilidad de la comunicación sináptica entre neuronas.
Sin embargo, las redes neuronales de punta son muy sensibles a sus parámetros, como el umbral de la membrana, la tasa de decaimiento o la pendiente de la función sigmoidea que se aproxima a la función de escalón de Heavyside para que sea diferenciable. Algunos trabajos realizaron optimizaciones para superar la sensibilidad de la red. [36]
Software
Existe una amplia gama de software de aplicación que puede simular redes neuronales recesivas. Este software se puede clasificar según sus usos:
Simulación de SNN
Estos simulan modelos neuronales complejos con un alto nivel de detalle y precisión. Las redes grandes suelen requerir un procesamiento prolongado. Entre los candidatos se incluyen: [37]
Las futuras arquitecturas neuromórficas [40] comprenderán miles de millones de estas nanosinapsis, que requieren una comprensión clara de los mecanismos físicos responsables de la plasticidad. Se han utilizado sistemas experimentales basados en uniones túnel ferroeléctricas para demostrar que la STDP se puede aprovechar a partir de la conmutación de polarización heterogénea. A través de la combinación de imágenes de sonda de barrido, transporte eléctrico y dinámica molecular a escala atómica, las variaciones de conductancia se pueden modelar mediante la inversión de dominios dominada por la nucleación. Las simulaciones muestran que las matrices de nanosinapsis ferroeléctricas pueden aprender de forma autónoma a reconocer patrones de una manera predecible, abriendo el camino hacia el aprendizaje no supervisado . [41]
Akida es un dispositivo de procesamiento neuronal basado en eventos completamente digital con 1,2 millones de neuronas artificiales y 10 mil millones de sinapsis artificiales desarrollado por BrainChip . Utilizando la posesión basada en eventos, analiza las entradas esenciales en puntos específicos. Los resultados se almacenan en las unidades de memoria del chip.
Neurogrid es una placa que puede simular redes neuronales activas directamente en el hardware. (Universidad de Stanford)
SpiNNaker (Spiking Neural Network Architecture) utiliza procesadores ARM como bloques de construcción de una plataforma de computación masivamente paralela basada en un modelo talamocortical de seis capas . ( Universidad de Manchester ) [42] El sistema SpiNNaker se basa en modelos numéricos que se ejecutan en tiempo real en chips multinúcleo digitales personalizados que utilizan la arquitectura ARM . Proporciona chips digitales personalizados, cada uno con dieciocho núcleos y una RAM local compartida de 128 Mbytes, con un total de más de 1.000.000 de núcleos. [43] Un solo chip puede simular 16.000 neuronas con ocho millones de sinapsis plásticas que se ejecutan en tiempo real. [44]
TrueNorth es un procesador que contiene 5.400 millones de transistores y consume sólo 70 milivatios ; la mayoría de los procesadores de los ordenadores personales contienen alrededor de 1.400 millones de transistores y requieren 35 vatios o más. IBM se refiere al principio de diseño detrás de TrueNorth como computación neuromórfica . Su propósito principal es el reconocimiento de patrones. Si bien los críticos dicen que el chip no es lo suficientemente potente, sus partidarios señalan que esta es sólo la primera generación y que las capacidades de iteraciones mejoradas se harán evidentes. (IBM) [45]
Puntos de referencia
Las capacidades de clasificación de las redes de picos entrenadas según métodos de aprendizaje no supervisado [46] se han probado en los conjuntos de datos de referencia comunes, como los conjuntos de datos Iris, Wisconsin Breast Cancer o Statlog Landsat. [47] [48] Se han utilizado varios enfoques para la codificación de información y el diseño de redes. Por ejemplo, una red de avance de 2 capas para la agrupación y clasificación de datos. Basándose en la idea propuesta en Hopfield (1995), los autores implementaron modelos de campos receptivos locales que combinan las propiedades de las funciones de base radial (RBF) y las neuronas de picos para convertir las señales de entrada (datos clasificados) que tienen una representación de punto flotante en una representación de picos. [49] [50]
^ ab Maass W (1997). "Redes de neuronas activas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi :10.1016/S0893-6080(97)00011-7. ISSN 0893-6080.
^ Auge, Daniel; Hille, Julian; Mueller, Etienne; Knoll, Alois (1 de diciembre de 2021). "Un estudio de técnicas de codificación para el procesamiento de señales en redes neuronales con picos". Neural Processing Letters . 53 (6): 4693–4710. doi : 10.1007/s11063-021-10562-2 . ISSN 1573-773X.
^ Gerstner W, Kistler WM (2002). Modelos de neuronas en pico: neuronas individuales, poblaciones, plasticidad. Cambridge, Reino Unido: Cambridge University Press. ISBN0-511-07817-X.OCLC 57417395 .
^ Wang, Xiangwen; Lin, Xianghong; Dang, Xiaochao (1 de mayo de 2020). "Aprendizaje supervisado en redes neuronales de punta: una revisión de algoritmos y evaluaciones". Redes neuronales . 125 : 258–280. doi :10.1016/j.neunet.2020.02.011. ISSN 0893-6080. PMID 32146356. S2CID 212638634.
^ Taherkhani, Aboozar; Belatreche, Ammar; Li, Yuhua; Cosma, Georgina; Maguire, Liam P.; McGinnity, TM (1 de febrero de 2020). "Una revisión del aprendizaje en redes neuronales de picos biológicamente plausibles". Redes neuronales . 122 : 253–272. doi :10.1016/j.neunet.2019.09.036. ISSN 0893-6080. PMID 31726331. S2CID 207904985.
^ ab Ganguly, Chittotosh; Bezugam, Sai Sukruth; Abs, Elisabeth; Payvand, Melika; Dey, Sounak; Suri, Manan (1 de febrero de 2024). "Adaptación de frecuencia de pico: vinculando modelos neuronales y aplicaciones neuromórficas". Ingeniería de comunicaciones . 3 (1): 22. doi : 10.1038/s44172-024-00165-9 . ISSN 2731-3395. PMC 11053160 .
^ Lee D, Lee G, Kwon D, Lee S, Kim Y, Kim J (junio de 2018). "Flexon: una neurona digital flexible para simulaciones eficientes de redes neuronales con picos". 2018 ACM/IEEE 45th Annual International Symposium on Computer Architecture (ISCA) . págs. 275–288. doi :10.1109/isca.2018.00032. ISBN .978-1-5386-5984-7. Número de identificación del sujeto 50778421.
^ Goodman, DF y Brette, R. (2008). Brian: un simulador para redes neuronales en Python. Frontiers in neuroinformatics, 2, 350.
^ Vreeken, J. (2003). Spiking de redes neuronales, una introducción.
^ Yamazaki, K.; Vo-Ho, VK; Bulsara, D.; Le, N (30 de junio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . PMC 9313413 . PMID 35884670.
^ Ballard, DH (1987, julio). Aprendizaje modular en redes neuronales. En Actas de la sexta conferencia nacional sobre inteligencia artificial, volumen 1 (pp. 279-284).
^ Peretto, P. (1984). Propiedades colectivas de redes neuronales: un enfoque de física estadística. Cibernética biológica, 50(1), 51-62.
^ Kurogi, S. (1987). Un modelo de red neuronal para el reconocimiento de patrones espaciotemporales. Cibernética biológica, 57(1), 103-114.
^ Anderson, JA (1972). Una red neuronal simple que genera una memoria interactiva. Mathematical Biosciences , 14(3-4), 197-220.
^ Gerstner W (2001). "Spiking Neurons". En Maass W, Bishop CM (eds.). Pulsed Neural Networks . MIT Press. ISBN978-0-262-63221-8.
^ Hodgkin, AL; Huxley, AF (28 de agosto de 1952). "Una descripción cuantitativa de la corriente de membrana y su aplicación a la conducción y excitación en el nervio". The Journal of Physiology . 117 (4): 500–544. doi :10.1113/jphysiol.1952.sp004764. ISSN 0022-3751. PMC 1392413 . PMID 12991237.
^ Dan, Yang; Poo, Mu-Ming (julio de 2006). "Plasticidad dependiente del tiempo de pico: de la sinapsis a la percepción". Physiological Reviews . 86 (3): 1033–1048. doi :10.1152/physrev.00030.2005. ISSN 0031-9333. PMID 16816145.
^ Nagornov, Nikolay N.; Lyakhov, Pavel A.; Bergerman, Maxim V.; Kalita, Diana I. (2024). "Tendencias modernas en la mejora de las características técnicas de dispositivos y sistemas para el procesamiento de imágenes digitales". IEEE Access . 12 : 44659–44681. Bibcode :2024IEEEA..1244659N. doi : 10.1109/ACCESS.2024.3381493 . ISSN 2169-3536.
^ Van Wezel M (2020). Una metodología robusta de entrenamiento de redes neuronales modulares de picos para conjuntos de datos de series temporales: con un enfoque en el control de gestos (tesis de maestría en ciencias). Universidad Tecnológica de Delft.
^ abc Maass W (1997). "Redes de neuronas activas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi :10.1016/S0893-6080(97)00011-7.
^ Furber, Steve (agosto de 2016). "Sistemas informáticos neuromórficos a gran escala". Journal of Neural Engineering . 13 (5): 051001. Bibcode :2016JNEng..13e1001F. doi :10.1088/1741-2560/13/5/051001. ISSN 1741-2552. PMID 27529195.
^ Neftci, Emre O.; Mostafa, Hesham; Zenke, Friedemann (2019). "Aprendizaje de gradiente sustituto en redes neuronales de picos: llevar el poder de la optimización basada en gradientes a las redes neuronales de picos". Revista IEEE de procesamiento de señales . 36 (6): 51–63. Bibcode :2019ISPM...36f..51N. doi : 10.1109/msp.2019.2931595 .
^ Salaj, Darjan; Subramoney, Anand; Kraisnikovic, Ceca; Bellec, Guillaume; Legenstein, Robert; Maass, Wolfgang (26 de julio de 2021). O'Leary, Timothy; Behrens, Timothy E; Gutierrez, Gabrielle (eds.). "La adaptación de la frecuencia de picos respalda los cálculos de red en información dispersa temporalmente". eLife . 10 : e65459. doi : 10.7554/eLife.65459 . ISSN 2050-084X. PMC 8313230 . PMID 34310281.
^ Izhikevich, EM (2004). "¿Qué modelo utilizar para neuronas de activación cortical?". IEEE Transactions on Neural Networks . 15 (5): 1063–1070. doi :10.1109/tnn.2004.832719. PMID 15484883. S2CID 7354646 . Consultado el 14 de febrero de 2024 .
^ Adibi, M., McDonald, JS, Clifford, CW y Arabzadeh, E. La adaptación mejora la eficiencia de la codificación neuronal a pesar del aumento de las correlaciones en la variabilidad. J. Neurosci. 33, 2108–2120 (2013)
^ Laughlin, S. (1981). "Un simple procedimiento de codificación mejora la capacidad de información de una neurona". Zeitschrift für Naturforschung C . 36 (9–10): 910–912. ISSN 0341-0382. PMID 7303823.
^ Querlioz, Damien; Bichler, Olivier; Dollfus, Philippe; Gamrat, Christian (2013). "Inmunidad a variaciones de dispositivos en una red neuronal con picos con nanodispositivos memristivos". IEEE Transactions on Nanotechnology . 12 (3): 288–295. Bibcode :2013ITNan..12..288Q. doi :10.1109/TNANO.2013.2250995. S2CID 14416573 . Consultado el 14 de febrero de 2024 .
^ Yamazaki, Kashu; Vo-Ho, Viet-Khoa; Bulsara, Darshan; Le, Ngan (julio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . ISSN 2076-3425. PMC 9313413 . PMID 35884670.
^ Shaban, Ahmed; Bezugam, Sai Sukruth; Suri, Manan (9 de julio de 2021). "Una neurona de umbral adaptativa para redes neuronales de picos recurrentes con implementación de hardware de nanodispositivos". Nature Communications . 12 (1): 4234. Bibcode :2021NatCo..12.4234S. doi :10.1038/s41467-021-24427-8. ISSN 2041-1723. PMC 8270926 . PMID 34244491.
^ Bellec, Guillaume; Salaj, Darjan; Subramoney, Anand; Legenstein, Robert; Maass, Wolfgang (2018-12-25), Memoria a corto y largo plazo y aprendizaje a aprender en redes de neuronas activas , arXiv : 1803.09574
^ Alnajjar F, Murase K (2008). "Una red neuronal con picos similar a la de Aplysia para generar comportamiento adaptativo en robots autónomos". Adaptive Behavior . 14 (5): 306–324. doi :10.1177/1059712308093869. S2CID 16577867.
^ Zhang X, Xu Z, Henriquez C, Ferrari S (diciembre de 2013). "Entrenamiento indirecto basado en picos de un insecto virtual controlado por una red neuronal con picos". 52.ª Conferencia IEEE sobre decisión y control . págs. 6798–6805. CiteSeerX 10.1.1.671.6351 . doi :10.1109/CDC.2013.6760966. ISBN .978-1-4673-5717-3.S2CID13992150 .
^ Tavanaei A, Ghodrati M, Kheradpisheh SR, Masquelier T, Maida A (marzo de 2019). "Aprendizaje profundo en redes neuronales de punta". Redes neuronales . 111 : 47–63. arXiv : 1804.08150 . doi :10.1016/j.neunet.2018.12.002. PMID 30682710. S2CID 5039751.
^ Yamazaki K, Vo-Ho VK, Bulsara D, Le N (junio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . PMC 9313413 . PMID 35884670.
^ Kim Y, Park H, Moitra A, Bhattacharjee A, Venkatesha Y, Panda P (31 de enero de 2022). "Codificación de velocidad o codificación directa: ¿cuál es mejor para redes neuronales con picos precisas, robustas y energéticamente eficientes?". arXiv : 2202.03133 [cs.NE].
^ Ribeiro, Bernardete; Antunes, Francisco; Perdigão, Dylan; Silva, Catarina (5 de agosto de 2024). "Redes neuronales convolucionales de punta que apuntan al aprendizaje y la inferencia en conjuntos de datos altamente desequilibrados". Pattern Recognition Letters . doi :10.1016/j.patrec.2024.08.002.
^ Abbott LF, Nelson SB (noviembre de 2000). "Plasticidad sináptica: domando a la bestia". Nature Neuroscience . 3 (S11): 1178–1183. doi :10.1038/81453. PMID 11127835. S2CID 2048100.
^ Atiya AF, Parlos AG (mayo de 2000). "Nuevos resultados sobre el entrenamiento de redes recurrentes: unificación de los algoritmos y aceleración de la convergencia". IEEE Transactions on Neural Networks . 11 (3): 697–709. doi :10.1109/72.846741. PMID 18249797.
^ Sanaullah S, Koravuna S, Rückert U, Jungeblut T (agosto de 2023). "Evaluación de la clasificación de imágenes basada en redes neuronales de punta utilizando el simulador de tiempo de ejecución RAVSim". Revista internacional de sistemas neuronales . 33 (9): 2350044. doi :10.1142/S0129065723500442. PMID 37604777. S2CID 259445644.
^ Sutton RS, Barto AG (2002) Aprendizaje por refuerzo: una introducción. Bradford Books, MIT Press, Cambridge, MA.
^ Boyn S, Grollier J, Lecerf G, Xu B, Locatelli N, Fusil S, et al. (abril de 2017). "Aprendizaje a través de la dinámica del dominio ferroeléctrico en sinapsis de estado sólido". Nature Communications . 8 : 14736. Bibcode :2017NatCo...814736B. doi :10.1038/ncomms14736. PMC 5382254 . PMID 28368007.
^ Jin X, Furber SB, Woods JV (2008). "Modelado eficiente de redes neuronales con picos en un multiprocesador de chip escalable". Conferencia conjunta internacional IEEE de 2008 sobre redes neuronales (Congreso mundial IEEE sobre inteligencia computacional) . pp. 2812–2819. doi :10.1109/IJCNN.2008.4634194. ISBN .978-1-4244-1820-6.S2CID2103654 .
^ "Hardware: sistemas disponibles". Proyecto Cerebro Humano . Consultado el 10 de mayo de 2020 .
^ Markoff J (8 de agosto de 2014). "Un nuevo chip funciona como un cerebro, dice IBM". The New York Times . p. B1.
^ Ponulak F, Kasiński A (febrero de 2010). "Aprendizaje supervisado en redes neuronales con picos con ReSuMe: aprendizaje de secuencias, clasificación y desplazamiento de picos". Neural Computation . 22 (2): 467–510. doi :10.1162/neco.2009.11-08-901. PMID 19842989. S2CID 12572538.
^ Newman D, Hettich S, Blake C, Merz C (1998). "Repositorio UCI de bases de datos de aprendizaje automático".
^ Bohte S, Kok JN, La Poutré H (2002). "Retropropagación de errores en redes de neuronas activas codificadas temporalmente". Neurocomputing . 48 (1–4): 17–37. doi :10.1016/S0925-2312(01)00658-0.
^ Pfister JP, Toyoizumi T, Barber D, Gerstner W (junio de 2006). "Plasticidad dependiente del momento de la espiga óptima para la activación precisa del potencial de acción en el aprendizaje supervisado". Neural Computation . 18 (6): 1318–1348. arXiv : q-bio/0502037 . Bibcode :2005q.bio.....2037P. doi :10.1162/neco.2006.18.6.1318. PMID 16764506. S2CID 6379045.
^ Bohte SM, La Poutré H, Kok JN (marzo de 2002). "Agrupamiento no supervisado con neuronas activas mediante codificación temporal dispersa y redes RBF multicapa". IEEE Transactions on Neural Networks . 13 (2): 426–435. doi :10.1109/72.991428. PMID 18244443.