Esta idea ha sido demostrada mediante el uso de distribuciones a priori gaussianas,[3] con lo que se obtiene un modelo de proceso gaussiano con función kernel impulsada por ESN.
Se ha demostrado que esta solución supera a las ESN con conjuntos de pesos entrenables (finitos) en varias pruebas comparativas.
La convergencia no está garantizada debido a fenómenos de inestabilidad y bifurcación.
En neurociencia cognitiva, Peter F. Dominey analizó un proceso relacionado con el modelado del procesamiento de secuencias en el cerebro de los mamíferos, en particular el reconocimiento del habla en el cerebro humano.
El peso de salida puede calcularse por regresión lineal con todos los algoritmos, ya sea que estén en línea o no.
Además, las RNN han demostrado su eficacia en varios ámbitos prácticos, como el procesamiento de lenguaje.
En particular, se han utilizado ampliamente como principio de computación que combina bien con sustratos informáticos no digitales.
Por ejemplo: microchips ópticos, nanoosciladores mecánicos, mezclas de polímeros o incluso miembros blandos artificiales.