stringtranslate.com

Red neuronal de picos

El insecto está controlado por una red neuronal para encontrar un objetivo en un terreno desconocido.

Las redes neuronales de picos ( SNN ) son redes neuronales artificiales (ANN) que imitan más de cerca las redes neuronales naturales. [1] Además del estado neuronal y sináptico , los SNN incorporan el concepto de tiempo en su modelo operativo. La idea es que las neuronas del SNN no transmiten información en cada ciclo de propagación (como ocurre con las típicas redes de perceptrones multicapa ), sino que transmiten información sólo cuando se activa el potencial de membrana , una cualidad intrínseca de la neurona relacionada con su conexión eléctrica de membrana . carga: alcanza un valor específico, llamado umbral. Cuando el potencial de membrana alcanza el umbral, la neurona se activa y genera una señal que viaja a otras neuronas que, a su vez, aumentan o disminuyen sus potenciales en respuesta a esta señal. Un modelo de neurona que se activa en el momento de cruzar el umbral también se denomina modelo de neurona de picos . [2]

Aunque anteriormente se creía que el cerebro codificaba información a través de velocidades de pico, que pueden considerarse como la salida variable analógica de una RNA tradicional, [3] la investigación en el campo de la neurobiología ha indicado que el procesamiento de alta velocidad no puede realizarse únicamente a través de una velocidad esquema basado. Por ejemplo, los humanos pueden realizar una tarea de reconocimiento de imágenes a una velocidad que no requiere más de 10 ms de tiempo de procesamiento por neurona a través de las capas sucesivas (desde la retina hasta el lóbulo temporal). Esta ventana de tiempo es demasiado corta para una codificación basada en tasas. Los tiempos precisos de los picos en un pequeño conjunto de neuronas que se disparan también tienen una mayor capacidad de codificación de información en comparación con un enfoque basado en la velocidad. [4]

El modelo de neuronas con picos más destacado es el modelo de integración y disparo con fugas . [5] En el modelo de integración y disparo, el nivel de activación momentáneo (modelado como una ecuación diferencial ) normalmente se considera el estado de la neurona, con picos entrantes que empujan este valor hacia arriba o hacia abajo, hasta que el estado eventualmente decae o— si se alcanza el umbral de activación, la neurona se activa. Después del disparo, la variable de estado se restablece a un valor más bajo.

Existen varios métodos de decodificación para interpretar el tren de picos saliente como un número de valor real, basándose en la frecuencia de los picos ( código de tasa ), el tiempo hasta el primer pico después de la estimulación o el intervalo entre picos.

Historia

Modelo de neurona pulsada
Sinapsis artificiales basadas en FTJ

Muchas redes neuronales artificiales multicapa están completamente conectadas , reciben información de cada neurona en la capa anterior y envían señales a cada neurona en la capa siguiente. Aunque estas redes han logrado avances en muchos campos, son biológicamente inexactas y no imitan el mecanismo de funcionamiento de las neuronas en el cerebro de un ser vivo. [6]

El modelo de Hodgkin-Huxley, de inspiración biológica , de una neurona activada se propuso en 1952. Este modelo describe cómo se inician y propagan los potenciales de acción . La comunicación entre neuronas, que requiere el intercambio de neurotransmisores químicos en la brecha sináptica , se describe en varios modelos, como el modelo de integración y disparo , el modelo de FitzHugh-Nagumo (1961-1962) y el modelo de Hindmarsh-Rose (1984). . El modelo de integración y disparo con fugas (o un derivado) se usa comúnmente porque es más fácil de calcular que el modelo de Hodgkin-Huxley. [7]

apuntalamientos

La información en el cerebro se representa como potenciales de acción (picos neuronales), que pueden agruparse en trenes de picos o incluso ondas coordinadas de actividad cerebral. Una cuestión fundamental de la neurociencia es determinar si las neuronas se comunican mediante un código de velocidad o temporal . [8] La codificación temporal sugiere que una sola neurona con picos puede reemplazar cientos de unidades ocultas en una red neuronal sigmoidea . [1]

Un SNN calcula en el dominio continuo en lugar de en el discreto. La idea es que las neuronas no pueden probar su activación en cada iteración de propagación (como es el caso en una red de perceptrón multicapa típica ), sino sólo cuando sus potenciales de membrana alcanzan un cierto valor. Cuando se activa una neurona, produce una señal que se transmite a las neuronas conectadas, aumentando o disminuyendo su potencial de membrana.

En una red neuronal con picos, el estado actual de una neurona se define como su potencial de membrana (posiblemente modelado como una ecuación diferencial). Un pulso de entrada hace que el potencial de membrana aumente durante un período de tiempo y luego disminuya gradualmente. Se han construido esquemas de codificación para interpretar estas secuencias de pulsos como un número, teniendo en cuenta tanto la frecuencia del pulso como el intervalo del pulso. Se puede establecer un modelo de red neuronal basado en el tiempo de generación de pulsos. Utilizando el momento exacto en que se produce el pulso, una red neuronal puede emplear más información y ofrecer mejores propiedades informáticas.

El enfoque SNN produce una salida continua en lugar de la salida binaria de las redes neuronales artificiales (ANN) tradicionales. Los trenes de impulsos no son fácilmente interpretables, de ahí la necesidad de esquemas de codificación como los anteriores. Sin embargo, una representación de tren de pulsos puede ser más adecuada para procesar datos espaciotemporales (o clasificación continua de datos sensoriales del mundo real). [9] Los SNN consideran el espacio conectando neuronas solo a neuronas cercanas para que procesen los bloques de entrada por separado (similar a CNN que usa filtros). Consideran el tiempo codificando la información como trenes de pulsos para no perder información en una codificación binaria. Esto evita la complejidad adicional de una red neuronal recurrente (RNN). Resulta que las neuronas de impulso son unidades computacionales más poderosas que las neuronas artificiales tradicionales. [10]

Las SNN son teóricamente más poderosas que las llamadas "redes de segunda generación" definidas en [10] como "[ANN] basadas en unidades computacionales que aplican la función de activación con un conjunto continuo de posibles valores de salida a una suma ponderada (o polinomio) de las entradas; sin embargo, los problemas de capacitación de SNN y los requisitos de hardware limitan su uso. Aunque hay métodos de aprendizaje no supervisados ​​de inspiración biológica disponibles, como el aprendizaje hebbiano y STDP , ningún método de capacitación supervisada eficaz es adecuado para SNN que pueda proporcionar un mejor rendimiento que las redes de segunda generación . 10] La activación de SNN basada en picos no es diferenciable, lo que dificulta el desarrollo de métodos de entrenamiento basados ​​en descenso de gradiente para realizar la retropropagación de errores .

Las SNN tienen costos computacionales mucho mayores para simular modelos neuronales realistas que las ANN tradicionales. [11]

Las redes neuronales acopladas por pulsos (PCNN) a menudo se confunden con las SNN. Una PCNN puede verse como una especie de SNN.

Actualmente existen algunos desafíos al usar SNN en los que los investigadores están trabajando activamente. El primer desafío se refiere a la no diferenciabilidad de la no linealidad de los picos. Las expresiones para los métodos de aprendizaje hacia adelante y hacia atrás contienen la derivada de la función de activación neuronal que no es diferenciable porque la salida de la neurona es 1 cuando alcanza un pico y 0 en caso contrario. Este comportamiento de todo o nada de la no linealidad de picos binarios impide que los gradientes "fluyan" y hace que las neuronas LIF no sean adecuadas para la optimización basada en gradientes. El segundo desafío tiene que ver con la implementación del propio algoritmo de optimización. La PA estándar puede ser costosa en términos de computación, memoria y comunicación y puede no adaptarse a las limitaciones dictadas por el hardware que la implementa (p. ej., una computadora, un cerebro o un dispositivo neuromórfico). [12] Respecto al primer desafío, existen varios abordados para superarlo. Algunos de ellos son:

  1. Recurrir a reglas de aprendizaje locales totalmente inspiradas biológicamente para las unidades ocultas.
  2. traducir NN "basados ​​en tasas" entrenados convencionalmente a SNN
  3. suavizar el modelo de red para que sea continuamente diferenciable
  4. definiendo un SG (Surogate Gradient) como una relajación continua de los gradientes reales

En el desarrollo de SNN, la incorporación de dinámicas neuronales adicionales como la Adaptación de frecuencia de picos (SFA) en los modelos neuronales marca un avance notable, ya que mejora tanto la eficiencia como la potencia computacional. [5] [13] Estas neuronas se encuentran entre la complejidad biológica y la complejidad computacional. [14] Originado a partir de conocimientos biológicos, SFA ofrece importantes beneficios computacionales al reducir el uso de energía a través de una codificación eficiente, [15] especialmente en casos de estímulos repetitivos o intensos. Esta adaptación mejora la claridad de la señal frente al ruido de fondo e introduce una memoria elemental a corto plazo a nivel neuronal, que a su vez refina la precisión y eficiencia del procesamiento de la información. [16] Recientemente, este fenómeno se logra principalmente utilizando modelos de neuronas compartimentales. Las versiones más simples son modelos neuronales con umbrales adaptativos, una forma indirecta de lograr SFA, equipa a los SNN con capacidades de aprendizaje mejoradas, incluso con plasticidad sináptica restringida, y eleva la eficiencia computacional. [17] [18] Esta característica disminuye la demanda en las capas de red al disminuir la necesidad de procesamiento de picos, reduciendo así la carga computacional y el tiempo de acceso a la memoria, aspectos esenciales de la computación neuronal. Además, los SNN que utilizan neuronas capaces de SFA alcanzan niveles de precisión que rivalizan con los de las redes neuronales artificiales convencionales, incluidas aquellas basadas en modelos de memoria a corto plazo, [19] [20] y, al mismo tiempo, requieren menos neuronas para tareas computacionales comparables. Esta eficiencia no solo agiliza el flujo de trabajo computacional sino que también conserva espacio y energía, ofreciendo un paso pragmático hacia la aplicación práctica de SNN para tareas informáticas complejas, manteniendo al mismo tiempo un compromiso con la integridad técnica.

Aplicaciones

En principio, las SNN pueden aplicarse a las mismas aplicaciones que las ANN tradicionales. [21] Además, los SNN pueden modelar el sistema nervioso central de organismos biológicos, como un insecto que busca alimento sin conocimiento previo del medio ambiente. [22] Debido a su relativo realismo, pueden usarse para estudiar el funcionamiento de circuitos neuronales biológicos . A partir de una hipótesis sobre la topología de un circuito neuronal biológico y su función, las grabaciones de este circuito se pueden comparar con la salida del SNN correspondiente, evaluando la plausibilidad de la hipótesis. Sin embargo, faltan mecanismos de entrenamiento efectivos para los SNN, lo que puede resultar inhibidor para algunas aplicaciones, incluidas las tareas de visión por computadora.

A partir de 2019, las SNN están por detrás de las ANN en términos de precisión, pero la brecha está disminuyendo y ha desaparecido en algunas tareas. [23]

Cuando utilizamos SNN para datos basados ​​en imágenes, necesitamos convertir imágenes estáticas en codificación de trenes de picos binarios. [24] Tipos de codificaciones: [25]

Software

Una amplia gama de software de aplicación puede simular SNN. Este software se puede clasificar según sus usos:

Simulación SNN

Aprendizaje no supervisado con sinapsis ferroeléctricas.

Estos simulan modelos neuronales complejos con un alto nivel de detalle y precisión. Las redes grandes suelen requerir un procesamiento prolongado. Los candidatos incluyen: [26]

Hardware

Predecir el aprendizaje STDP con sinapsis ferroeléctricas
Modelo de enrutamiento de malla de neurona a neurona

Las arquitecturas neuromórficas futuras [29] comprenderán miles de millones de nanosinapsis de este tipo, que requieren una comprensión clara de los mecanismos físicos responsables de la plasticidad. Se han utilizado sistemas experimentales basados ​​en uniones de túneles ferroeléctricos para demostrar que el STDP se puede aprovechar a partir de una conmutación de polarización heterogénea. Mediante imágenes combinadas de sondas de escaneo, transporte eléctrico y dinámica molecular a escala atómica, las variaciones de conductancia se pueden modelar mediante la inversión de dominios dominada por la nucleación. Las simulaciones muestran que conjuntos de nanosinapsis ferroeléctricas pueden aprender de forma autónoma a reconocer patrones de forma predecible, abriendo el camino hacia el aprendizaje no supervisado . [30]

Aprendizaje no supervisado con sinapsis ferroeléctricas.

Puntos de referencia

Las capacidades de clasificación de las redes de picos entrenadas según métodos de aprendizaje no supervisados ​​[35] se han probado en conjuntos de datos de referencia comunes, como Iris, Wisconsin Breast Cancer o Statlog Landsat. [36] [37] Se han utilizado varios enfoques para la codificación de información y el diseño de redes. Por ejemplo, una red feedforward de 2 capas para agrupación y clasificación de datos. Basándose en la idea propuesta por Hopfield (1995), los autores implementaron modelos de campos receptivos locales que combinan las propiedades de las funciones de base radial (RBF) y neuronas con picos para convertir señales de entrada (datos clasificados) que tienen una representación de punto flotante en una representación con picos. [38] [39]

Ver también

Referencias

  1. ^ ab Maass W (1997). "Redes de neuronas puntiagudas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659-1671. doi :10.1016/S0893-6080(97)00011-7. ISSN  0893-6080.
  2. ^ Gerstner W, Kistler WM (2002). Modelos de neuronas con picos: neuronas individuales, poblaciones, plasticidad. Cambridge, Reino Unido: Cambridge University Press. ISBN 0-511-07817-X. OCLC  57417395.
  3. ^ Wang, Xiangwen; Lin, Xianghong; Maldita sea, Xiaochao (01 de mayo de 2020). "Aprendizaje supervisado en redes neuronales con picos: una revisión de algoritmos y evaluaciones". Redes neuronales . 125 : 258–280. doi :10.1016/j.neunet.2020.02.011. ISSN  0893-6080. PMID  32146356. S2CID  212638634.
  4. ^ Taherkhani, Aboozar; Belatreche, Ammar; Li, Yuhua; Cosma, Georgina; Maguire, Liam P.; McGinnity, TM (01 de febrero de 2020). "Una revisión del aprendizaje en redes neuronales de picos biológicamente plausibles". Redes neuronales . 122 : 253–272. doi :10.1016/j.neunet.2019.09.036. ISSN  0893-6080. PMID  31726331. S2CID  207904985.
  5. ^ ab Ganguly, Chittotosh; Bezugam, Sai Sukruth; Abs, Elisabeth; Payvand, Melika; Dey, Sounak; Suri, Manan (1 de febrero de 2024). "Adaptación de picos de frecuencia: puente entre modelos neuronales y aplicaciones neuromórficas". Ingeniería de Comunicaciones . 3 (1): 1–13. doi : 10.1038/s44172-024-00165-9 . ISSN  2731-3395.
  6. ^ "Spiking Neural Networks, la próxima generación de aprendizaje automático". 16 de julio de 2019.
  7. ^ Lee D, Lee G, Kwon D, Lee S, Kim Y, Kim J (junio de 2018). "Flexon: una neurona digital flexible para simulaciones eficientes de redes neuronales". 2018 ACM/IEEE 45º Simposio Internacional Anual sobre Arquitectura de Computadores (ISCA) . págs. 275–288. doi :10.1109/isca.2018.00032. ISBN 978-1-5386-5984-7. S2CID  50778421.
  8. ^ Gerstner W (2001). "Neuronas puntiagudas". En Maass W, obispo CM (eds.). Redes Neuronales Pulsadas . Prensa del MIT. ISBN 978-0-262-63221-8.
  9. ^ Van Wezel M (2020). Una metodología robusta de entrenamiento de redes neuronales de picos modulares para conjuntos de datos de series de tiempo: con un enfoque en el control de gestos (tesis de Maestría en Ciencias). Universidad Tecnológica de Delft.
  10. ^ abc Maass W (1997). "Redes de neuronas puntiagudas: la tercera generación de modelos de redes neuronales". Redes neuronales . 10 (9): 1659-1671. doi :10.1016/S0893-6080(97)00011-7.
  11. ^ Furber, Steve (agosto de 2016). "Sistemas informáticos neuromórficos a gran escala". Revista de ingeniería neuronal . 13 (5): 051001. Código bibliográfico : 2016JNEng..13e1001F. doi :10.1088/1741-2560/13/5/051001. ISSN  1741-2552. PMID  27529195.
  12. ^ Neftci, Emre O.; Mostafa, Hesham; Zenke, Friedemann (2019). "Aprendizaje de gradiente sustituto en redes neuronales con picos: llevar el poder de la optimización basada en gradientes a las redes neuronales con picos". Revista de procesamiento de señales IEEE . 36 (6): 51–63. Código Bib : 2019 ISPM...36f..51N. doi : 10.1109/msp.2019.2931595 .
  13. ^ Salaj, Darjan; Subramoney, Anand; Kraisnikovic, Ceca; Bellec, Guillaume; Legenstein, Robert; Maass, Wolfgang (26 de julio de 2021). O'Leary, Timothy; Behrens, Timothy E; Gutiérrez, Gabrielle (eds.). "La adaptación de la frecuencia de pico admite cálculos de red sobre información temporalmente dispersa". eVida . 10 : e65459. doi : 10.7554/eLife.65459 . ISSN  2050-084X. PMC 8313230 . PMID  34310281. 
  14. ^ Izhikevich, EM (2004). "¿Qué modelo utilizar para las neuronas corticales que se activan?". Transacciones IEEE en redes neuronales . 15 (5): 1063–1070. doi :10.1109/tnn.2004.832719. PMID  15484883. S2CID  7354646 . Consultado el 14 de febrero de 2024 .
  15. ^ Adibi, M., McDonald, JS, Clifford, CW y Arabzadeh, E. La adaptación mejora la eficiencia de la codificación neuronal a pesar de las crecientes correlaciones en la variabilidad. J. Neurosci. 33, 2108-2120 (2013)
  16. ^ Laughlin, S. (1981). "Un simple procedimiento de codificación mejora la capacidad de información de una neurona". Zeitschrift Fur Naturforschung. Sección C, Biociencias . 36 (9–10): 910–912. ISSN  0341-0382. PMID  7303823.
  17. ^ Querlioz, Damián; Bichler, Olivier; Dollfus, Philippe; Gamrat, cristiano (2013). "Inmunidad a las variaciones de dispositivos en una red neuronal activa con nanodispositivos memristivos". Transacciones IEEE sobre nanotecnología . 12 (3): 288–295. doi :10.1109/TNANO.2013.2250995. S2CID  14416573 . Consultado el 14 de febrero de 2024 .
  18. ^ Yamazaki, Kashu; Vo-Ho, Viet-Khoa; Bulsara, Darshan; Le, Ngan (julio de 2022). "Pulso de redes neuronales y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . ISSN  2076-3425. PMC 9313413 . PMID  35884670. 
  19. ^ Shaban, Ahmed; Bezugam, Sai Sukruth; Suri, Manan (9 de julio de 2021). "Una neurona de umbral adaptativo para redes neuronales de picos recurrentes con implementación de hardware de nanodispositivos". Comunicaciones de la naturaleza . 12 (1): 4234. Código bibliográfico : 2021NatCo..12.4234S. doi :10.1038/s41467-021-24427-8. ISSN  2041-1723. PMC 8270926 . PMID  34244491. 
  20. ^ Bellec, Guillaume; Salaj, Darjan; Subramoney, Anand; Legenstein, Robert; Maass, Wolfgang (25 de diciembre de 2018), Memoria a largo plazo y aprendizaje a aprender en redes de neuronas activas , arXiv : 1803.09574
  21. ^ Alnajjar F, Murase K (2008). "Una red neuronal de picos simple similar a Aplysia para generar comportamiento adaptativo en robots autónomos". Comportamiento adaptativo . 14 (5): 306–324. doi :10.1177/1059712308093869. S2CID  16577867.
  22. ^ Zhang X, Xu Z, Henríquez C, Ferrari S (diciembre de 2013). "Entrenamiento indirecto basado en picos de un insecto virtual controlado por una red neuronal". 52ª Conferencia IEEE sobre Decisión y Control . págs. 6798–6805. CiteSeerX 10.1.1.671.6351 . doi :10.1109/CDC.2013.6760966. ISBN  978-1-4673-5717-3. S2CID  13992150. {{cite book}}: |journal=ignorado ( ayuda )
  23. ^ Tavanaei A, Ghodrati M, Kheradpisheh SR, Masquelier T, Maida A (marzo de 2019). "Aprendizaje profundo en redes neuronales con picos". Redes neuronales . 111 : 47–63. arXiv : 1804.08150 . doi :10.1016/j.neunet.2018.12.002. PMID  30682710. S2CID  5039751.
  24. ^ Yamazaki K, Vo-Ho VK, Bulsara D, Le N (junio de 2022). "Pulso de redes neuronales y sus aplicaciones: una revisión". Ciencias del cerebro . 12 (7): 863. doi : 10.3390/brainsci12070863 . PMC 9313413 . PMID  35884670. 
  25. ^ Kim Y, Park H, Moitra A, Bhattacharjee A, Venkatesha Y, Panda P (31 de enero de 2022). "Codificación de velocidad o codificación directa: ¿cuál es mejor para redes neuronales con picos precisas, robustas y energéticamente eficientes?". arXiv : 2202.03133 [cs.NE].
  26. ^ Abbott LF, Nelson SB (noviembre de 2000). "Plasticidad sináptica: domar a la bestia". Neurociencia de la Naturaleza . 3 (T11): 1178–1183. doi :10.1038/81453. PMID  11127835. S2CID  2048100.
  27. ^ Atiya AF, Parlos AG (mayo de 2000). "Nuevos resultados sobre entrenamiento de redes recurrentes: unificando los algoritmos y acelerando la convergencia". Transacciones IEEE en redes neuronales . 11 (3): 697–709. doi : 10.1109/72.846741. PMID  18249797.
  28. ^ Sanaullah S, Koravuna S, Rückert U, Jungeblut T (agosto de 2023). "Evaluación de la clasificación de imágenes basada en redes neuronales con picos utilizando el simulador de tiempo de ejecución RAVSim". Revista internacional de sistemas neuronales . 33 (9): 2350044. doi : 10.1142/S0129065723500442. PMID  37604777. S2CID  259445644.
  29. ^ Sutton RS, Barto AG (2002) Aprendizaje por refuerzo: introducción. Bradford Books, MIT Press, Cambridge, MA.
  30. ^ Boyn S, Grollier J, Lecerf G, Xu B, Locatelli N, Fusil S, et al. (Abril de 2017). "Aprendizaje a través de la dinámica del dominio ferroeléctrico en sinapsis de estado sólido". Comunicaciones de la naturaleza . 8 : 14736. Código Bib : 2017NatCo...814736B. doi : 10.1038/ncomms14736. PMC 5382254 . PMID  28368007. 
  31. ^ Jin X, Furber SB, Woods JV (2008). "Modelado eficiente de redes neuronales con picos en un multiprocesador de chip escalable". 2008 Conferencia conjunta internacional IEEE sobre redes neuronales (Congreso mundial IEEE sobre inteligencia computacional) . págs. 2812–2819. doi :10.1109/IJCNN.2008.4634194. ISBN 978-1-4244-1820-6. S2CID  2103654.
  32. ^ "Computación neuromórfica". Proyecto Cerebro Humano .
  33. ^ "Hardware: sistemas disponibles". Proyecto Cerebro Humano . Consultado el 10 de mayo de 2020 .
  34. ^ Markoff J (8 de agosto de 2014). "Un nuevo chip funciona como un cerebro, dice IBM". Los New York Times . pag. B1.
  35. ^ Ponulak F, Kasiński A (febrero de 2010). "Aprendizaje supervisado en redes neuronales con picos con ReSuMe: aprendizaje de secuencia, clasificación y cambio de picos". Computación neuronal . 22 (2): 467–510. doi :10.1162/neco.2009.11-08-901. PMID  19842989. S2CID  12572538.
  36. ^ Newman D, Hettich S, Blake C, Merz C (1998). "Repositorio UCI de bases de datos de aprendizaje automático".
  37. ^ Bohte S, Kok JN, La Poutré H (2002). "Error de retropropagación en redes codificadas temporalmente de neuronas activas". Neurocomputación . 48 (1–4): 17–37. doi :10.1016/S0925-2312(01)00658-0.
  38. ^ Pfister JP, Toyoizumi T, Barber D, Gerstner W (junio de 2006). "Plasticidad óptima dependiente del momento del pico para una activación precisa del potencial de acción en el aprendizaje supervisado". Computación neuronal . 18 (6): 1318-1348. arXiv : q-bio/0502037 . Código Bib : 2005q.bio.....2037P. doi :10.1162/neco.2006.18.6.1318. PMID  16764506. S2CID  6379045.
  39. ^ Bohte SM, La Poutré H, Kok JN (marzo de 2002). "Agrupación no supervisada con neuronas activas mediante codificación temporal escasa y redes RBF multicapa". Transacciones IEEE en redes neuronales . 13 (2): 426–435. doi : 10.1109/72.991428. PMID  18244443.