stringtranslate.com

Red neuronal con picos

El insecto está controlado por una red neuronal que le permite encontrar un objetivo en un terreno desconocido.

Las redes neuronales con picos ( SNN ) son redes neuronales artificiales (ANN) que imitan más de cerca a las redes neuronales naturales. [1] Estos modelos aprovechan la sincronización de picos discretos como el principal portador de información. [2]

Además del estado neuronal y sináptico , las redes neuronales sinápticas incorporan el concepto de tiempo en su modelo operativo. La idea es que las neuronas de las redes neuronales sinápticas no transmitan información en cada ciclo de propagación (como sucede con las típicas redes perceptrónicas multicapa ), sino que transmitan información solo cuando un potencial de membrana —una cualidad intrínseca de la neurona relacionada con su carga eléctrica de membrana— alcanza un valor específico, llamado umbral. Cuando el potencial de membrana alcanza el umbral, la neurona se activa y genera una señal que viaja a otras neuronas que, a su vez, aumentan o disminuyen sus potenciales en respuesta a esta señal. Un modelo de neurona que se activa en el momento del cruce del umbral también se denomina modelo de neurona en pico . [3]

Aunque anteriormente se creía que el cerebro codificaba la información a través de tasas de picos, que pueden considerarse como la salida variable analógica de una ANN tradicional, [4] la investigación en el campo de la neurobiología ha indicado que el procesamiento de alta velocidad no puede realizarse únicamente a través de un esquema basado en la tasa. Por ejemplo, los humanos pueden realizar una tarea de reconocimiento de imágenes a una tasa que no requiere más de 10 ms de tiempo de procesamiento por neurona a través de las capas sucesivas (desde la retina hasta el lóbulo temporal). Esta ventana de tiempo es demasiado corta para una codificación basada en la tasa. Los tiempos de pico precisos en un pequeño conjunto de neuronas que disparan también tienen una mayor capacidad de codificación de información en comparación con un enfoque basado en la tasa. [5]

El modelo de neurona con picos más destacado es el modelo de integración y disparo con fugas . [6] En el modelo de integración y disparo, el nivel de activación momentánea (modelado como una ecuación diferencial ) normalmente se considera el estado de la neurona, y los picos entrantes empujan este valor hacia arriba o hacia abajo, hasta que el estado finalmente decae o, si se alcanza el umbral de disparo, la neurona se dispara. Después del disparo, la variable de estado se restablece a un valor más bajo.

Existen varios métodos de decodificación para interpretar el tren de picos salientes como un número de valor real, basándose en la frecuencia de los picos ( código de tasa ), el tiempo hasta el primer pico después de la estimulación o el intervalo entre picos.

Historia

Modelo de neurona pulsada
Sinapsis artificiales basadas en FTJ

Muchas redes neuronales artificiales multicapa están completamente conectadas , reciben información de cada neurona de la capa anterior y envían señales a cada neurona de la capa siguiente. Aunque estas redes han logrado avances en muchos campos, son biológicamente inexactas y no imitan el mecanismo de funcionamiento de las neuronas en el cerebro de un ser vivo. [ cita requerida ]

En 1952 se propuso el modelo de Hodgkin-Huxley, de inspiración biológica, de una neurona que emite impulsos. Este modelo describe cómo se inician y propagan los potenciales de acción . La comunicación entre neuronas, que requiere el intercambio de neurotransmisores químicos en el espacio sináptico , se describe en varios modelos, como el modelo de integración y disparo , el modelo de FitzHugh-Nagumo (1961-1962) y el modelo de Hindmarsh-Rose (1984). El modelo de integración y disparo con fugas (o un derivado) se utiliza comúnmente porque es más fácil de calcular que el modelo de Hodgkin-Huxley. [7]

Si bien la noción de una red neuronal artificial de picos se volvió muy popular recién durante el primer cuarto del siglo XXI, [8] [9] [10] existen varios estudios entre 1980 y 1995 que apoyaron el concepto y en los cuales aparecieron los primeros modelos de este tipo de redes neuronales artificiales para simular sistemas de procesamiento de información inteligente no algorítmicos. [11] [12] [13] Sin embargo, la noción misma de la red neuronal de picos como modelo matemático ya había sido trabajada a principios de los años 1970. [14]

Fundamentos

La información en el cerebro se representa como potenciales de acción (picos neuronales), que pueden agruparse en trenes de picos o incluso en ondas coordinadas de actividad cerebral. Una cuestión fundamental de la neurociencia es determinar si las neuronas se comunican mediante un código de frecuencia o temporal . [15] La codificación temporal sugiere que una sola neurona que emite picos puede reemplazar a cientos de unidades ocultas en una red neuronal sigmoidea . [1]

Una red neuronal segmentada (SNN) realiza sus cálculos en el dominio continuo, no en el discreto. La idea es que las neuronas no puedan comprobar si se activan en cada iteración de propagación (como sucede en una red perceptrónica multicapa típica ), sino solo cuando sus potenciales de membrana alcanzan un valor determinado. Cuando una neurona se activa, produce una señal que se transmite a las neuronas conectadas, aumentando o disminuyendo su potencial de membrana.

En una red neuronal con picos, el estado actual de una neurona se define como su potencial de membrana (posiblemente modelado como una ecuación diferencial). [16] Un pulso de entrada hace que el potencial de membrana aumente durante un período de tiempo y luego disminuya gradualmente. Se han construido esquemas de codificación para interpretar estas secuencias de pulsos como un número, teniendo en cuenta tanto la frecuencia como el intervalo de pulso. Se puede establecer un modelo de red neuronal basado en el tiempo de generación de pulsos. [17] Al utilizar el tiempo exacto de ocurrencia del pulso, una red neuronal puede emplear más información y ofrecer mejores propiedades de computación. [18]

El enfoque de las redes neuronales artificiales produce una salida continua en lugar de la salida binaria de las redes neuronales artificiales (RNA) tradicionales. Los trenes de pulsos no son fácilmente interpretables, de ahí la necesidad de esquemas de codificación como los anteriores. Sin embargo, una representación de tren de pulsos puede ser más adecuada para procesar datos espaciotemporales (o clasificación continua de datos sensoriales del mundo real). [19] Las redes neuronales artificiales consideran el espacio conectando neuronas solo con neuronas cercanas para que procesen bloques de entrada por separado (similar a las redes neuronales convolucionales que utilizan filtros). Consideran el tiempo codificando la información como trenes de pulsos para no perder información en una codificación binaria. Esto evita la complejidad adicional de una red neuronal recurrente (RNN). Resulta que las neuronas de impulso son unidades computacionales más poderosas que las neuronas artificiales tradicionales. [20]

Las SNN son teóricamente más potentes que las llamadas "redes de segunda generación" definidas en [20] como "[ANN] basadas en unidades computacionales que aplican una función de activación con un conjunto continuo de posibles valores de salida a una suma ponderada (o polinomio) de las entradas; sin embargo, los problemas de entrenamiento de SNN y los requisitos de hardware limitan su uso. Aunque existen métodos de aprendizaje no supervisados ​​inspirados biológicamente, como el aprendizaje hebbiano y STDP , no hay ningún método de entrenamiento supervisado efectivo adecuado para SNN que pueda proporcionar un mejor rendimiento que las redes de segunda generación. [20] La activación basada en picos de SNN no es diferenciable, lo que dificulta el desarrollo de métodos de entrenamiento basados ​​en descenso de gradiente para realizar retropropagación de errores .

Las SNN tienen costos computacionales mucho mayores para simular modelos neuronales realistas que las ANN tradicionales. [21]

Las redes neuronales acopladas a pulsos (PCNN) suelen confundirse con las SNN. Una PCNN puede considerarse como un tipo de SNN.

Actualmente, existen algunos desafíos al utilizar SNN en los que los investigadores están trabajando activamente. El primer desafío se refiere a la no diferenciabilidad de la no linealidad de picos. Las expresiones para los métodos de aprendizaje hacia adelante y hacia atrás contienen la derivada de la función de activación neuronal que no es diferenciable porque la salida de la neurona es 1 cuando se dispara y 0 en caso contrario. Este comportamiento de todo o nada de la no linealidad de picos binarios impide que los gradientes "fluyan" y hace que las neuronas LIF no sean adecuadas para la optimización basada en gradientes. El segundo desafío se refiere a la implementación del algoritmo de optimización en sí. La BP estándar puede ser costosa en términos de computación, memoria y comunicación y puede ser poco adecuada para las restricciones dictadas por el hardware que la implementa (por ejemplo, una computadora, un cerebro o un dispositivo neuromórfico). [22] Con respecto al primer desafío, existen varios enfoques para resolverlo. Algunos de ellos son:

  1. Recurriendo a reglas de aprendizaje locales de inspiración totalmente biológica para las unidades ocultas
  2. Traducción de NN “basadas en frecuencia” entrenadas convencionalmente a SNN
  3. Suavizar el modelo de red para que sea continuamente diferenciable
  4. definir un SG (gradiente sustituto) como una relajación continua de los gradientes reales

En el desarrollo de las SNN, la incorporación de dinámicas neuronales adicionales como la Adaptación de Frecuencia de Espigas (SFA) en los modelos neuronales marca un avance notable, mejorando tanto la eficiencia como la potencia computacional. [6] [23] Estas neuronas se encuentran entre la complejidad biológica y la complejidad computacional. [24] Originada a partir de conocimientos biológicos, la SFA ofrece importantes beneficios computacionales al reducir el uso de energía mediante una codificación eficiente, [25] especialmente en casos de estímulos repetitivos o intensos. Esta adaptación mejora la claridad de la señal frente al ruido de fondo e introduce una memoria elemental a corto plazo a nivel neuronal, que a su vez, refina la precisión y la eficiencia del procesamiento de la información. [26] Recientemente, este fenómeno se logró principalmente utilizando modelos de neuronas compartimentadas . Las versiones más simples son de modelos neuronales con umbrales adaptativos, una forma indirecta de lograr la SFA. Equipa a las SNN con capacidades de aprendizaje mejoradas, incluso con plasticidad sináptica restringida, y eleva la eficiencia computacional. [27] [28] Esta característica reduce la demanda de capas de red al disminuir la necesidad de procesamiento de picos, reduciendo así la carga computacional y el tiempo de acceso a la memoria, aspectos esenciales de la computación neuronal. Además, las SNN que utilizan neuronas capaces de SFA logran niveles de precisión que rivalizan con los de las redes neuronales artificiales convencionales, incluidas las basadas en modelos de memoria a corto plazo a largo plazo, [29] [30] al mismo tiempo que requieren menos neuronas para tareas computacionales comparables. Esta eficiencia no solo agiliza el flujo de trabajo computacional, sino que también conserva espacio y energía, lo que ofrece un paso pragmático hacia adelante en la aplicación práctica de las SNN para tareas computacionales complejas al tiempo que mantiene un compromiso con la integridad técnica. Redes neuronales de picos profundos de alto rendimiento con 0,3 picos por neurona

Aplicaciones

Las SNN pueden, en principio, aplicarse a las mismas aplicaciones que las ANN tradicionales. [31] Además, las SNN pueden modelar el sistema nervioso central de organismos biológicos, como un insecto que busca alimento sin conocimiento previo del entorno. [32] Debido a su relativo realismo, pueden usarse para estudiar el funcionamiento de circuitos neuronales biológicos . Partiendo de una hipótesis sobre la topología de un circuito neuronal biológico y su función, las grabaciones de este circuito pueden compararse con la salida de la SNN correspondiente, evaluando la plausibilidad de la hipótesis. Sin embargo, existe una falta de mecanismos de entrenamiento efectivos para las SNN, lo que puede ser inhibidor para algunas aplicaciones, incluidas las tareas de visión por computadora.

A partir de 2019, las SNN están por detrás de las ANN en términos de precisión, pero la brecha está disminuyendo y ha desaparecido en algunas tareas. [33]

Al utilizar SNN para datos basados ​​en imágenes, las imágenes deben convertirse en trenes de picos binarios. [34] Los tipos de codificaciones incluyen: [35]

Sin embargo, las redes neuronales Spiking son muy sensibles a sus parámetros, como el umbral de la membrana, la tasa de decaimiento o la pendiente de la función sigmoidea que se aproxima a la función de escalón de Heavyside para que sea diferenciable. Algunos trabajos realizaron optimizaciones para superar la sensibilidad de la red [36] .


Software

Existe una amplia gama de software de aplicación que puede simular redes neuronales recesivas. Este software se puede clasificar según sus usos:

Simulación de SNN

Aprendizaje no supervisado con sinapsis ferroeléctricas

Estos simulan modelos neuronales complejos con un alto nivel de detalle y precisión. Las redes grandes suelen requerir un procesamiento prolongado. Entre los candidatos se incluyen: [37]

Hardware

Predicción del aprendizaje STDP con sinapsis ferroeléctricas
Modelo de enrutamiento de red entre neuronas

Las futuras arquitecturas neuromórficas [40] comprenderán miles de millones de estas nanosinapsis, que requieren una comprensión clara de los mecanismos físicos responsables de la plasticidad. Se han utilizado sistemas experimentales basados ​​en uniones túnel ferroeléctricas para demostrar que la STDP se puede aprovechar a partir de la conmutación de polarización heterogénea. A través de la combinación de imágenes de sonda de barrido, transporte eléctrico y dinámica molecular a escala atómica, las variaciones de conductancia se pueden modelar mediante la inversión de dominios dominada por la nucleación. Las simulaciones muestran que las matrices de nanosinapsis ferroeléctricas pueden aprender de forma autónoma a reconocer patrones de una manera predecible, abriendo el camino hacia el aprendizaje no supervisado . [41]

Aprendizaje no supervisado con sinapsis ferroeléctricas

Puntos de referencia

Las capacidades de clasificación de las redes de picos entrenadas según métodos de aprendizaje no supervisado [46] se han probado en los conjuntos de datos de referencia comunes, como los conjuntos de datos Iris, Wisconsin Breast Cancer o Statlog Landsat. [47] [48] Se han utilizado varios enfoques para la codificación de información y el diseño de redes. Por ejemplo, una red de avance de 2 capas para la agrupación y clasificación de datos. Basándose en la idea propuesta en Hopfield (1995), los autores implementaron modelos de campos receptivos locales que combinan las propiedades de las funciones de base radial (RBF) y las neuronas de picos para convertir las señales de entrada (datos clasificados) que tienen una representación de punto flotante en una representación de picos. [49] [50]

Véase también

Referencias

  1. ^ ab Maass W (1997). "Redes de neuronas activas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi :10.1016/S0893-6080(97)00011-7. ISSN  0893-6080.
  2. ^ Auge, Daniel; Hille, Julian; Mueller, Etienne; Knoll, Alois (1 de diciembre de 2021). "Un estudio de técnicas de codificación para el procesamiento de señales en redes neuronales con picos". Neural Processing Letters . 53 (6): 4693–4710. doi : 10.1007/s11063-021-10562-2 . ISSN  1573-773X.
  3. ^ Gerstner W, Kistler WM (2002). Modelos de neuronas en pico: neuronas individuales, poblaciones, plasticidad. Cambridge, Reino Unido: Cambridge University Press. ISBN 0-511-07817-X.OCLC 57417395  .
  4. ^ Wang, Xiangwen; Lin, Xianghong; Dang, Xiaochao (1 de mayo de 2020). "Aprendizaje supervisado en redes neuronales de punta: una revisión de algoritmos y evaluaciones". Redes neuronales . 125 : 258–280. doi :10.1016/j.neunet.2020.02.011. ISSN  0893-6080. PMID  32146356. S2CID  212638634.
  5. ^ Taherkhani, Aboozar; Belatreche, Ammar; Li, Yuhua; Cosma, Georgina; Maguire, Liam P.; McGinnity, TM (1 de febrero de 2020). "Una revisión del aprendizaje en redes neuronales de picos biológicamente plausibles". Redes neuronales . 122 : 253–272. doi :10.1016/j.neunet.2019.09.036. ISSN  0893-6080. PMID  31726331. S2CID  207904985.
  6. ^ ab Ganguly, Chittotosh; Bezugam, Sai Sukruth; Abs, Elisabeth; Payvand, Melika; Dey, Sounak; Suri, Manan (1 de febrero de 2024). "Adaptación de frecuencia de pico: vinculando modelos neuronales y aplicaciones neuromórficas". Ingeniería de comunicaciones . 3 (1): 22. doi : 10.1038/s44172-024-00165-9 . ISSN  2731-3395. PMC 11053160 . 
  7. ^ Lee D, Lee G, Kwon D, Lee S, Kim Y, Kim J (junio de 2018). "Flexon: una neurona digital flexible para simulaciones eficientes de redes neuronales con picos". 2018 ACM/IEEE 45th Annual International Symposium on Computer Architecture (ISCA) . págs. 275–288. doi :10.1109/isca.2018.00032. ISBN . 978-1-5386-5984-7.S2CID50778421  .​
  8. ^ Goodman, DF y Brette, R. (2008). Brian: un simulador para redes neuronales en Python. Frontiers in neuroinformatics, 2, 350.
  9. ^ Vreeken, J. (2003). Spiking de redes neuronales, una introducción.
  10. ^ Yamazaki, K.; Vo-Ho, VK; Bulsara, D.; Le, N (30 de junio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . PMC 9313413 . PMID  35884670. 
  11. ^ Ballard, DH (julio de 1987). Aprendizaje modular en redes neuronales. En Actas de la sexta conferencia nacional sobre inteligencia artificial, volumen 1 (pp. 279-284).
  12. ^ Peretto, P. (1984). Propiedades colectivas de redes neuronales: un enfoque de física estadística. Cibernética biológica, 50(1), 51-62.
  13. ^ Kurogi, S. (1987). Un modelo de red neuronal para el reconocimiento de patrones espaciotemporales. Cibernética biológica, 57(1), 103-114.
  14. ^ Anderson, JA (1972). Una red neuronal simple que genera una memoria interactiva. Mathematical Biosciences , 14(3-4), 197-220.
  15. ^ Gerstner W (2001). "Spiking Neurons". En Maass W, Bishop CM (eds.). Pulsed Neural Networks . MIT Press. ISBN 978-0-262-63221-8.
  16. ^ Hodgkin, AL; Huxley, AF (28 de agosto de 1952). "Una descripción cuantitativa de la corriente de membrana y su aplicación a la conducción y excitación en el nervio". The Journal of Physiology . 117 (4): 500–544. doi :10.1113/jphysiol.1952.sp004764. ISSN  0022-3751. PMC 1392413 . PMID  12991237. 
  17. ^ Dan, Yang; Poo, Mu-Ming (julio de 2006). "Plasticidad dependiente del tiempo de pico: de la sinapsis a la percepción". Physiological Reviews . 86 (3): 1033–1048. doi :10.1152/physrev.00030.2005. ISSN  0031-9333. PMID  16816145.
  18. ^ Nagornov, Nikolay N.; Lyakhov, Pavel A.; Bergerman, Maxim V.; Kalita, Diana I. (2024). "Tendencias modernas en la mejora de las características técnicas de dispositivos y sistemas para el procesamiento de imágenes digitales". IEEE Access . 12 : 44659–44681. Bibcode :2024IEEEA..1244659N. doi : 10.1109/ACCESS.2024.3381493 . ISSN  2169-3536.
  19. ^ Van Wezel M (2020). Una metodología robusta de entrenamiento de redes neuronales modulares de picos para conjuntos de datos de series temporales: con un enfoque en el control de gestos (tesis de maestría en ciencias). Universidad Tecnológica de Delft.
  20. ^ abc Maass W (1997). "Redes de neuronas activas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659–1671. doi :10.1016/S0893-6080(97)00011-7.
  21. ^ Furber, Steve (agosto de 2016). "Sistemas informáticos neuromórficos a gran escala". Journal of Neural Engineering . 13 (5): 051001. Bibcode :2016JNEng..13e1001F. doi :10.1088/1741-2560/13/5/051001. ISSN  1741-2552. PMID  27529195.
  22. ^ Neftci, Emre O.; Mostafa, Hesham; Zenke, Friedemann (2019). "Aprendizaje de gradiente sustituto en redes neuronales de picos: llevar el poder de la optimización basada en gradientes a las redes neuronales de picos". Revista IEEE de procesamiento de señales . 36 (6): 51–63. Bibcode :2019ISPM...36f..51N. doi : 10.1109/msp.2019.2931595 .
  23. ^ Salaj, Darjan; Subramoney, Anand; Kraisnikovic, Ceca; Bellec, Guillaume; Legenstein, Robert; Maass, Wolfgang (26 de julio de 2021). O'Leary, Timothy; Behrens, Timothy E; Gutierrez, Gabrielle (eds.). "La adaptación de la frecuencia de picos respalda los cálculos de red en información dispersa temporalmente". eLife . 10 : e65459. doi : 10.7554/eLife.65459 . ISSN  2050-084X. PMC 8313230 . PMID  34310281. 
  24. ^ Izhikevich, EM (2004). "¿Qué modelo utilizar para neuronas de activación cortical?". IEEE Transactions on Neural Networks . 15 (5): 1063–1070. doi :10.1109/tnn.2004.832719. PMID  15484883. S2CID  7354646 . Consultado el 14 de febrero de 2024 .
  25. ^ Adibi, M., McDonald, JS, Clifford, CW y Arabzadeh, E. La adaptación mejora la eficiencia de la codificación neuronal a pesar del aumento de las correlaciones en la variabilidad. J. Neurosci. 33, 2108–2120 (2013)
  26. ^ Laughlin, S. (1981). "Un simple procedimiento de codificación mejora la capacidad de información de una neurona". Zeitschrift für Naturforschung C . 36 (9–10): 910–912. ISSN  0341-0382. PMID  7303823.
  27. ^ Querlioz, Damien; Bichler, Olivier; Dollfus, Philippe; Gamrat, Christian (2013). "Inmunidad a variaciones de dispositivos en una red neuronal con picos con nanodispositivos memristivos". IEEE Transactions on Nanotechnology . 12 (3): 288–295. Bibcode :2013ITNan..12..288Q. doi :10.1109/TNANO.2013.2250995. S2CID  14416573 . Consultado el 14 de febrero de 2024 .
  28. ^ Yamazaki, Kashu; Vo-Ho, Viet-Khoa; Bulsara, Darshan; Le, Ngan (julio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . ISSN  2076-3425. PMC 9313413 . PMID  35884670. 
  29. ^ Shaban, Ahmed; Bezugam, Sai Sukruth; Suri, Manan (9 de julio de 2021). "Una neurona de umbral adaptativa para redes neuronales de picos recurrentes con implementación de hardware de nanodispositivos". Nature Communications . 12 (1): 4234. Bibcode :2021NatCo..12.4234S. doi :10.1038/s41467-021-24427-8. ISSN  2041-1723. PMC 8270926 . PMID  34244491. 
  30. ^ Bellec, Guillaume; Salaj, Darjan; Subramoney, Anand; Legenstein, Robert; Maass, Wolfgang (2018-12-25), Memoria a corto y largo plazo y aprendizaje a aprender en redes de neuronas activas , arXiv : 1803.09574
  31. ^ Alnajjar F, Murase K (2008). "Una red neuronal con picos similar a la de Aplysia para generar comportamiento adaptativo en robots autónomos". Adaptive Behavior . 14 (5): 306–324. doi :10.1177/1059712308093869. S2CID  16577867.
  32. ^ Zhang X, Xu Z, Henriquez C, Ferrari S (diciembre de 2013). "Entrenamiento indirecto basado en picos de un insecto virtual controlado por una red neuronal con picos". 52.ª Conferencia IEEE sobre decisión y control . págs. 6798–6805. CiteSeerX 10.1.1.671.6351 . doi :10.1109/CDC.2013.6760966. ISBN .  978-1-4673-5717-3.S2CID13992150  .​
  33. ^ Tavanaei A, Ghodrati M, Kheradpisheh SR, Masquelier T, Maida A (marzo de 2019). "Aprendizaje profundo en redes neuronales de punta". Redes neuronales . 111 : 47–63. arXiv : 1804.08150 . doi :10.1016/j.neunet.2018.12.002. PMID  30682710. S2CID  5039751.
  34. ^ Yamazaki K, Vo-Ho VK, Bulsara D, Le N (junio de 2022). "Redes neuronales de punta y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . PMC 9313413 . PMID  35884670. 
  35. ^ Kim Y, Park H, Moitra A, Bhattacharjee A, Venkatesha Y, Panda P (31 de enero de 2022). "Codificación de velocidad o codificación directa: ¿cuál es mejor para redes neuronales con picos precisas, robustas y energéticamente eficientes?". arXiv : 2202.03133 [cs.NE].
  36. ^ Ribeiro, Bernardete; Antunes, Francisco; Perdigão, Dylan; Silva, Catarina (5 de agosto de 2024). "Redes neuronales convolucionales de punta que apuntan al aprendizaje y la inferencia en conjuntos de datos altamente desequilibrados". Pattern Recognition Letters . doi :10.1016/j.patrec.2024.08.002.
  37. ^ Abbott LF, Nelson SB (noviembre de 2000). "Plasticidad sináptica: domando a la bestia". Nature Neuroscience . 3 (S11): 1178–1183. doi :10.1038/81453. PMID  11127835. S2CID  2048100.
  38. ^ Atiya AF, Parlos AG (mayo de 2000). "Nuevos resultados sobre el entrenamiento de redes recurrentes: unificación de los algoritmos y aceleración de la convergencia". IEEE Transactions on Neural Networks . 11 (3): 697–709. doi :10.1109/72.846741. PMID  18249797.
  39. ^ Sanaullah S, Koravuna S, Rückert U, Jungeblut T (agosto de 2023). "Evaluación de la clasificación de imágenes basada en redes neuronales de punta utilizando el simulador de tiempo de ejecución RAVSim". Revista internacional de sistemas neuronales . 33 (9): 2350044. doi :10.1142/S0129065723500442. PMID  37604777. S2CID  259445644.
  40. ^ Sutton RS, Barto AG (2002) Aprendizaje por refuerzo: una introducción. Bradford Books, MIT Press, Cambridge, MA.
  41. ^ Boyn S, Grollier J, Lecerf G, Xu B, Locatelli N, Fusil S, et al. (abril de 2017). "Aprendizaje a través de la dinámica del dominio ferroeléctrico en sinapsis de estado sólido". Nature Communications . 8 : 14736. Bibcode :2017NatCo...814736B. doi :10.1038/ncomms14736. PMC 5382254 . PMID  28368007. 
  42. ^ Jin X, Furber SB, Woods JV (2008). "Modelado eficiente de redes neuronales con picos en un multiprocesador de chip escalable". Conferencia conjunta internacional IEEE de 2008 sobre redes neuronales (Congreso mundial IEEE sobre inteligencia computacional) . pp. 2812–2819. doi :10.1109/IJCNN.2008.4634194. ISBN . 978-1-4244-1820-6.S2CID2103654  .​
  43. ^ "Computación neuromórfica". Proyecto Cerebro Humano .
  44. ^ "Hardware: sistemas disponibles". Proyecto Cerebro Humano . Consultado el 10 de mayo de 2020 .
  45. ^ Markoff J (8 de agosto de 2014). "Un nuevo chip funciona como un cerebro, dice IBM". The New York Times . p. B1.
  46. ^ Ponulak F, Kasiński A (febrero de 2010). "Aprendizaje supervisado en redes neuronales con picos con ReSuMe: aprendizaje de secuencias, clasificación y desplazamiento de picos". Neural Computation . 22 (2): 467–510. doi :10.1162/neco.2009.11-08-901. PMID  19842989. S2CID  12572538.
  47. ^ Newman D, Hettich S, Blake C, Merz C (1998). "Repositorio UCI de bases de datos de aprendizaje automático".
  48. ^ Bohte S, Kok JN, La Poutré H (2002). "Retropropagación de errores en redes de neuronas activas codificadas temporalmente". Neurocomputing . 48 (1–4): 17–37. doi :10.1016/S0925-2312(01)00658-0.
  49. ^ Pfister JP, Toyoizumi T, Barber D, Gerstner W (junio de 2006). "Plasticidad dependiente del momento de la espiga óptima para la activación precisa del potencial de acción en el aprendizaje supervisado". Neural Computation . 18 (6): 1318–1348. arXiv : q-bio/0502037 . Bibcode :2005q.bio.....2037P. doi :10.1162/neco.2006.18.6.1318. PMID  16764506. S2CID  6379045.
  50. ^ Bohte SM, La Poutré H, Kok JN (marzo de 2002). "Agrupamiento no supervisado con neuronas activas mediante codificación temporal dispersa y redes RBF multicapa". IEEE Transactions on Neural Networks . 13 (2): 426–435. doi :10.1109/72.991428. PMID  18244443.