stringtranslate.com

Conexionismo

Un modelo conexionista (ANN) de 'segunda ola' con una capa oculta

El conexionismo es el nombre de un enfoque para el estudio de los procesos mentales y la cognición humana que utiliza modelos matemáticos conocidos como redes conexionistas o redes neuronales artificiales. [1] El conexionismo ha tenido muchas "olas" desde sus inicios.

La primera ola apareció en 1943 con Warren Sturgis McCulloch y Walter Pitts, ambos centrados en la comprensión de los circuitos neuronales a través de un enfoque formal y matemático, [2] y Frank Rosenblatt, quien publicó el artículo de 1958 "El perceptrón: un modelo probabilístico para el almacenamiento y la organización de la información en el cerebro" en Psychological Review , mientras trabajaba en el Laboratorio Aeronáutico de Cornell. [3] La primera ola terminó con el libro de 1969 sobre las limitaciones de la idea original del perceptrón, escrito por Marvin Minsky y Seymour Papert , que contribuyó a desalentar a las principales agencias de financiación de los EE. UU. de invertir en investigación conexionista. [4] Con algunas desviaciones notables, la mayoría de la investigación conexionista entró en un período de inactividad hasta mediados de la década de 1980. El término modelo conexionista fue reintroducido en un artículo de 1982 en la revista Cognitive Science por Jerome Feldman y Dana Ballard.

La segunda ola floreció a fines de la década de 1980, después de un libro de 1987 sobre procesamiento distribuido paralelo de James L. McClelland , David E. Rumelhart et al., que introdujo un par de mejoras a la idea simple del perceptrón, como procesadores intermedios (ahora conocidos como " capas ocultas ") junto con unidades de entrada y salida, y utilizó una función de activación sigmoidea en lugar de la antigua función de "todo o nada". Su trabajo se basó en el de John Hopfield , quien fue una figura clave en la investigación de las características matemáticas de las funciones de activación sigmoidea. [3] Desde fines de la década de 1980 hasta mediados de la década de 1990, el conexionismo adquirió un tono casi revolucionario cuando Schneider, [5] Terence Horgan y Tienson plantearon la pregunta de si el conexionismo representaba un cambio fundamental en la psicología y la llamada "buena IA pasada de moda", o GOFAI . [3] Algunas ventajas del enfoque conexionista de segunda ola incluían su aplicabilidad a una amplia gama de funciones, aproximación estructural a neuronas biológicas, bajos requerimientos de estructura innata y capacidad para una degradación elegante . [6] Sus desventajas incluían la dificultad para descifrar cómo las ANN procesan la información o explican la composicionalidad de las representaciones mentales, y una dificultad resultante para explicar los fenómenos a un nivel superior. [7]

La actual (tercera) ola ha estado marcada por avances en el aprendizaje profundo , que han hecho posible la creación de grandes modelos de lenguaje . [3] El éxito de las redes de aprendizaje profundo en la última década ha aumentado enormemente la popularidad de este enfoque, pero la complejidad y la escala de dichas redes ha traído consigo mayores problemas de interpretabilidad . [8]

Principio básico

El principio conexionista central es que los fenómenos mentales pueden describirse mediante redes interconectadas de unidades simples y a menudo uniformes. La forma de las conexiones y las unidades puede variar de un modelo a otro. Por ejemplo, las unidades de la red podrían representar neuronas y las conexiones podrían representar sinapsis , como en el cerebro humano . Este principio se ha visto como una alternativa a GOFAI y las teorías clásicas de la mente basadas en el cálculo simbólico, pero el grado en que ambos enfoques son compatibles ha sido objeto de mucho debate desde su inicio. [8]

Función de activación

Los estados internos de cualquier red cambian con el tiempo debido a que las neuronas envían una señal a una capa sucesiva de neuronas en el caso de una red de propagación hacia delante, o a una capa anterior en el caso de una red recurrente. El descubrimiento de funciones de activación no lineales ha hecho posible la segunda ola del conexionismo.

Memoria y aprendizaje

Las redes neuronales siguen dos principios básicos:

  1. Cualquier estado mental puede describirse como un vector n -dimensional de valores de activación numérica sobre unidades neuronales en una red.
  2. La memoria y el aprendizaje se crean modificando los "pesos" de las conexiones entre unidades neuronales, generalmente representadas como una matriz n × m . Los pesos se ajustan de acuerdo con alguna regla o algoritmo de aprendizaje, como el aprendizaje hebbiano . [9]

La mayor variedad entre los modelos proviene de:

Realismo biológico

El trabajo conexionista en general no necesita ser biológicamente realista. [10] [11] [12] [13] [14] [15] [16] Un área donde se piensa que los modelos conexionistas son biológicamente implausibles es con respecto a las redes de propagación de errores que se necesitan para apoyar el aprendizaje, [17] [18] pero la propagación de errores puede explicar parte de la actividad eléctrica generada biológicamente vista en el cuero cabelludo en potenciales relacionados con eventos como el N400 y P600 , [19] y esto proporciona cierto apoyo biológico para una de las suposiciones clave de los procedimientos de aprendizaje conexionista. Muchos modelos conexionistas recurrentes también incorporan la teoría de sistemas dinámicos . Muchos investigadores, como el conexionista Paul Smolensky , han argumentado que los modelos conexionistas evolucionarán hacia enfoques de sistemas dinámicos no lineales , de alta dimensión y completamente continuos .

Precursores

Los precursores de los principios conexionistas se remontan a los primeros trabajos en psicología , como el de William James . [20] Las teorías psicológicas basadas en el conocimiento sobre el cerebro humano estaban de moda a finales del siglo XIX. Ya en 1869, el neurólogo John Hughlings Jackson defendía sistemas distribuidos de múltiples niveles. Siguiendo esta línea, los Principios de psicología de Herbert Spencer , 3.ª edición (1872), y el Proyecto para una psicología científica de Sigmund Freud (compuesto en 1895) propusieron teorías conexionistas o protoconexionistas. Estas tendían a ser teorías especulativas. Pero a principios del siglo XX, Edward Thorndike escribía sobre el aprendizaje humano que postulaba una red de tipo conexionista. [21]

Las redes de Hopfield tuvieron precursores en el modelo de Ising debido a Wilhelm Lenz (1920) y Ernst Ising (1925), aunque el modelo de Ising concebido por ellos no involucraba el tiempo. Las simulaciones de Monte Carlo del modelo de Ising requirieron la llegada de las computadoras en la década de 1950. [22]

La primera ola

La primera ola comenzó en 1943 con Warren Sturgis McCulloch y Walter Pitts, ambos centrados en comprender los circuitos neuronales a través de un enfoque formal y matemático. McCulloch y Pitts demostraron cómo los sistemas neuronales podían implementar la lógica de primer orden : su artículo clásico "Un cálculo lógico de ideas inmanentes en la actividad nerviosa" (1943) es importante en este desarrollo aquí. Fueron influenciados por el trabajo de Nicolas Rashevsky en la década de 1930 y la lógica simbólica al estilo de Principia Mathematica . [23] [3]

Hebb contribuyó en gran medida a las especulaciones sobre el funcionamiento neuronal y propuso un principio de aprendizaje, el aprendizaje hebbiano . Lashley defendió las representaciones distribuidas como resultado de su fracaso en encontrar algo parecido a un engrama localizado en años de experimentos con lesiones . Friedrich Hayek concibió el modelo de forma independiente, primero en un breve manuscrito inédito en 1920, [24] [25] y luego lo amplió en un libro en 1952. [26]

Las máquinas Perceptron fueron propuestas y construidas por Frank Rosenblatt , quien publicó el artículo de 1958 “El perceptrón: un modelo probabilístico para el almacenamiento y la organización de la información en el cerebro” en Psychological Review , mientras trabajaba en el Laboratorio Aeronáutico de Cornell. Citó a Hebb, Hayek, Uttley y Ashby como influencias principales.

Otra forma de modelo conexionista fue el marco de red relacional desarrollado por el lingüista Sydney Lamb en la década de 1960.

El grupo de investigación dirigido por Widrow buscó empíricamente métodos para entrenar redes ADALINE de dos capas (MADALINE), con un éxito limitado. [27] [28]

En 1965, Alexey Grigorevich Ivakhnenko y Valentin Lapa publicaron un método para entrenar perceptrones multicapa con niveles arbitrarios de pesos entrenables , denominado Método de grupo de manejo de datos . Este método emplea un entrenamiento incremental capa por capa basado en un análisis de regresión , donde las unidades inútiles en capas ocultas se eliminan con la ayuda de un conjunto de validación. [29] [30] [31]

Los primeros perceptrones multicapa entrenados mediante descenso de gradiente estocástico [32] fueron publicados en 1967 por Shun'ichi Amari . [33] En experimentos informáticos realizados por el estudiante de Amari, Saito, un MLP de cinco capas con dos capas modificables aprendió representaciones internas útiles para clasificar clases de patrones no linealmente separables. [30]

En 1972, Shun'ichi Amari produjo un ejemplo temprano de red autoorganizada . [34]

La red neuronal del invierno

Hubo cierto conflicto entre los investigadores de inteligencia artificial sobre para qué eran útiles las redes neuronales. A fines de la década de 1960, hubo una pausa generalizada en la investigación y las publicaciones sobre redes neuronales, "el invierno de las redes neuronales", que duró hasta la década de 1970, durante la cual el campo de la inteligencia artificial se inclinó hacia los métodos simbólicos. La publicación de Perceptrones (1969) se considera típicamente como un catalizador de este evento. [35] [36]

La segunda ola

La segunda ola comenzó a principios de los años 1980. Algunas publicaciones clave incluyeron ( John Hopfield , 1982) [37] que popularizó las redes de Hopfield , el artículo de 1986 que popularizó la retropropagación, [38] y el libro de dos volúmenes de 1987 sobre el Procesamiento Distribuido Paralelo (PDP) por James L. McClelland , David E. Rumelhart et al., que ha introducido un par de mejoras a la idea simple del perceptrón, como procesadores intermedios (conocidos como " capas ocultas " ahora) junto con unidades de entrada y salida y usando la función de activación sigmoidea en lugar de la antigua función "todo o nada".

Hopfield abordó el campo desde la perspectiva de la mecánica estadística, proporcionando algunas formas tempranas de rigor matemático que aumentaron la respetabilidad percibida del campo. [3] Otra serie importante de publicaciones demostró que las redes neuronales son aproximadores de funciones universales , lo que también proporcionó cierta respetabilidad matemática. [39]

Durante esta época aparecieron algunos de los primeros proyectos de demostración populares. NETtalk (1987) aprendió a pronunciar el inglés escrito. Logró un gran éxito y apareció en el programa Today . [40] TD-Gammon (1992) alcanzó el máximo nivel humano en el backgammon . [41]

Debate entre conexionismo y computacionalismo

A medida que el conexionismo se hizo cada vez más popular a finales de la década de 1980, algunos investigadores (entre ellos Jerry Fodor , Steven Pinker y otros) reaccionaron en su contra. Argumentaron que el conexionismo, tal como se estaba desarrollando entonces, amenazaba con borrar de la memoria lo que consideraban el progreso que se estaba logrando en los campos de la ciencia cognitiva y la psicología mediante el enfoque clásico del computacionalismo . El computacionalismo es una forma específica de cognitivismo que sostiene que la actividad mental es computacional , es decir, que la mente opera realizando operaciones puramente formales sobre símbolos, como una máquina de Turing . Algunos investigadores argumentaron que la tendencia en el conexionismo representaba una reversión hacia el asociacionismo y el abandono de la idea de un lenguaje de pensamiento , algo que consideraban erróneo. En contraste, esas mismas tendencias hicieron que el conexionismo fuera atractivo para otros investigadores.

El conexionismo y el computacionalismo no tienen por qué estar reñidos, pero el debate de finales de los años 1980 y principios de los años 1990 condujo a una oposición entre ambos enfoques. A lo largo del debate, algunos investigadores han sostenido que el conexionismo y el computacionalismo son totalmente compatibles, aunque no se ha alcanzado un consenso total sobre esta cuestión. Las diferencias entre ambos enfoques incluyen las siguientes:

A pesar de estas diferencias, algunos teóricos han propuesto que la arquitectura conexionista es simplemente la manera en que los cerebros orgánicos implementan el sistema de manipulación de símbolos. Esto es lógicamente posible, ya que es bien sabido que los modelos conexionistas pueden implementar sistemas de manipulación de símbolos del tipo utilizado en los modelos computacionalistas, [42] como de hecho deben ser capaces si van a explicar la capacidad humana para realizar tareas de manipulación de símbolos. Se han propuesto varios modelos cognitivos que combinan arquitecturas manipuladoras de símbolos y conexionistas. Entre ellos se encuentran la Arquitectura Cognitiva Simbólica/Conexionista Integrada (ICS) de Paul Smolensky . [8] [43] y CLARION (arquitectura cognitiva) de Ron Sun. Pero el debate se basa en si esta manipulación de símbolos forma la base de la cognición en general, por lo que esto no es una posible reivindicación del computacionalismo. No obstante, las descripciones computacionales pueden ser descripciones útiles de alto nivel de la cognición de la lógica, por ejemplo.

El debate se centró en gran medida en argumentos lógicos sobre si las redes conexionistas podían producir la estructura sintáctica observada en este tipo de razonamiento. Esto se logró más tarde, aunque utilizando capacidades de enlace de variables rápidas fuera de las que se suponen de manera estándar en los modelos conexionistas. [42] [44]

Parte del atractivo de las descripciones computacionales es que son relativamente fáciles de interpretar y, por lo tanto, pueden considerarse como una contribución a nuestra comprensión de procesos mentales particulares, mientras que los modelos conexionistas son en general más opacos, en la medida en que pueden describirse solo en términos muy generales (como especificar el algoritmo de aprendizaje, el número de unidades, etc.) o en términos de bajo nivel que no resultan de ayuda. En este sentido, los modelos conexionistas pueden instanciar, y por lo tanto proporcionar evidencia para, una teoría amplia de la cognición (es decir, el conexionismo), sin representar una teoría útil del proceso particular que se está modelando. En este sentido, el debate podría considerarse en cierta medida como un reflejo de una mera diferencia en el nivel de análisis en el que se enmarcan las teorías particulares. Algunos investigadores sugieren que la brecha de análisis es la consecuencia de los mecanismos conexionistas que dan lugar a fenómenos emergentes que pueden describirse en términos computacionales. [45]

En la década de 2000, la popularidad de los sistemas dinámicos en la filosofía de la mente agregó una nueva perspectiva al debate; [46] [47] algunos autores [ ¿cuáles? ] ahora argumentan que cualquier división entre conexionismo y computacionalismo se caracteriza de manera más concluyente como una división entre computacionalismo y sistemas dinámicos .

En 2014, Alex Graves y otros de DeepMind publicaron una serie de artículos que describen una nueva estructura de red neuronal profunda llamada máquina de Turing neuronal [48] capaz de leer símbolos en una cinta y almacenarlos en la memoria. Las redes relacionales, otro módulo de red profunda publicado por DeepMind, pueden crear representaciones similares a objetos y manipularlas para responder preguntas complejas. Las redes relacionales y las máquinas de Turing neuronales son una prueba más de que el conexionismo y el computacionalismo no tienen por qué estar reñidos.

Debate entre simbolismo y conexionismo

El Paradigma Subsimbólico de Smolensky [49] [50] tiene que afrontar el reto de Fodor-Pylyshyn [51] [52] [53] [54] formulado por la teoría clásica de símbolos para una teoría convincente de la cognición en el conexionismo moderno. Para ser una teoría alternativa adecuada de la cognición, el Paradigma Subsimbólico de Smolensky tendría que explicar la existencia de sistematicidad o relaciones sistemáticas en la cognición del lenguaje sin la suposición de que los procesos cognitivos son causalmente sensibles a la estructura constituyente clásica de las representaciones mentales. El paradigma subsimbólico, o el conexionismo en general, tendría por tanto que explicar la existencia de sistematicidad y composicionalidad sin depender de la mera implementación de una arquitectura cognitiva clásica. Este reto implica un dilema: si el Paradigma Subsimbólico no pudiera contribuir en nada a la sistematicidad y composicionalidad de las representaciones mentales, sería insuficiente como base para una teoría alternativa de la cognición. Sin embargo, si la contribución del Paradigma Subsimbólico a la sistematicidad requiere procesos mentales basados ​​en la estructura constituyente clásica de las representaciones mentales, la teoría de la cognición que desarrolla sería, en el mejor de los casos, una arquitectura de implementación del modelo clásico de la teoría de símbolos y, por lo tanto, no una teoría alternativa genuina (conexionista) de la cognición. [55] El modelo clásico del simbolismo se caracteriza por (1) una sintaxis y semántica combinatoria de las representaciones mentales y (2) operaciones mentales como procesos sensibles a la estructura, basados ​​en el principio fundamental de la estructura constituyente sintáctica y semántica de las representaciones mentales tal como se utiliza en el "Lenguaje del Pensamiento (LOT)" de Fodor. [56] [57] Esto se puede utilizar para explicar las siguientes propiedades estrechamente relacionadas de la cognición humana, a saber, su (1) productividad, (2) sistematicidad, (3) composicionalidad y (4) coherencia inferencial. [58]

Este desafío ha sido abordado en el conexionismo moderno, por ejemplo, no sólo por la "Arquitectura cognitiva conexionista/simbólica integrada (ICS)" de Smolensky, [59] [60] sino también por las "Redes oscilatorias" de Werning y Maye. [61] [62] [63] Una descripción general de esto la ofrecen, por ejemplo, Bechtel y Abrahamsen, [64] Marcus [65] y Maurer. [66]

Véase también

Notas

  1. ^ "Enciclopedia de filosofía en Internet". iep.utm.edu . Consultado el 19 de agosto de 2023 .
  2. ^ McCulloch, Warren S.; Pitts, Walter (1943-12-01). "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa". Boletín de biofísica matemática . 5 (4): 115–133. doi :10.1007/BF02478259. ISSN  1522-9602.
  3. ^ abcdef Berkeley, Istvan SN (2019). "El curioso caso del conexionismo". Open Philosophy . 2019 (2): 190–205. doi : 10.1515/opphil-2019-0018 . S2CID  201061823.
  4. ^ Boden, Margaret (2006). La mente como máquina: una historia de la ciencia cognitiva . Oxford: Oxford UP p. 914. ISBN 978-0-262-63268-3.
  5. ^ Schneider, Walter (1987). "Conexionismo: ¿es un cambio de paradigma para la psicología?". Métodos, instrumentos y computadoras de investigación del comportamiento . 19 : 73–83. doi : 10.1515/opphil-2019-0018 . S2CID  201061823.
  6. ^ Marcus, Gary F. (2001). La mente algebraica: integración del conexionismo y la ciencia cognitiva (aprendizaje, desarrollo y cambio conceptual) . Cambridge, Massachusetts: MIT Press. pp. 27–28. ISBN 978-0-262-63268-3.
  7. ^ Smolensky, Paul (1999). "Enfoques conexionistas del lenguaje basados ​​en la gramática". Cognitive Science . 23 (4): 589–613. doi : 10.1207/s15516709cog2304_9 .
  8. ^ abc Garson, James (27 de noviembre de 2018). Zalta, Edward N. (ed.). The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University – vía Stanford Encyclopedia of Philosophy.
  9. ^ Novo, María-Luisa; Alsina, Ángel; Marbán, José-María; Berciano, Ainhoa ​​(2017). "Inteligencia conectiva para la educación matemática infantil". Comunicar (en español). 25 (52): 29–39. doi : 10.3916/c52-2017-03 . hdl : 10272/14085 . ISSN  1134-3478.
  10. ^ "Encephalos Journal". www.encephalos.gr . Consultado el 20 de febrero de 2018 .
  11. ^ Wilson, Elizabeth A. (4 de febrero de 2016). Geografías neuronales: feminismo y la microestructura de la cognición. Routledge. ISBN 978-1-317-95876-5.
  12. ^ Di Paolo, EA (1 de enero de 2003). "Robótica inspirada en los organismos: adaptación homeostática y teleología más allá del circuito sensoriomotor cerrado" (PDF) . Enfoque de sistemas dinámicos para la encarnación y la sociabilidad, Advanced Knowledge International . Universidad de Sussex . S2CID  15349751 . Consultado el 29 de diciembre de 2023 .
  13. ^ Zorzi, Marco; Testolin, Alberto; Stoianov, Ivilin P. (20 de agosto de 2013). "Modelado del lenguaje y la cognición con aprendizaje profundo no supervisado: una descripción general del tutorial". Frontiers in Psychology . 4 : 515. doi : 10.3389/fpsyg.2013.00515 . ISSN  1664-1078. PMC 3747356 . PMID  23970869. 
  14. ^ Tieszen, R. (2011). «Filosofía analítica y continental, ciencia y filosofía global». Comparative Philosophy . 2 (2): 4–22 . Consultado el 29 de diciembre de 2023 .
  15. ^ Browne, A. (1 de enero de 1997). Perspectivas de redes neuronales sobre cognición y robótica adaptativa. CRC Press. ISBN 978-0-7503-0455-9.
  16. ^ Pfeifer, R.; Schreter, Z.; Fogelman-Soulié, F.; Aceros, L. (23 de agosto de 1989). Conexionismo en perspectiva. Elsevier. ISBN 978-0-444-59876-9.
  17. ^ Crick, Francis (enero de 1989). "El reciente entusiasmo por las redes neuronales". Nature . 337 (6203): 129–132. Bibcode :1989Natur.337..129C. doi :10.1038/337129a0. ISSN  1476-4687. PMID  2911347. S2CID  5892527.
  18. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (octubre de 1986). "Aprendizaje de representaciones mediante retropropagación de errores". Nature . 323 (6088): 533–536. Bibcode :1986Natur.323..533R. doi :10.1038/323533a0. ISSN  1476-4687. S2CID  205001834.
  19. ^ Fitz, Hartmut; Chang, Franklin (1 de junio de 2019). "Los ERP del lenguaje reflejan el aprendizaje a través de la propagación de errores de predicción". Psicología cognitiva . 111 : 15–52. doi :10.1016/j.cogpsych.2019.03.002. hdl : 21.11116/0000-0003-474F-6 . ISSN  0010-0285. PMID  30921626. S2CID  85501792.
  20. ^ Anderson, James A.; Rosenfeld, Edward (1989). "Capítulo 1: (1890) William James Psychology (Curso breve) ". Neurocomputing: Foundations of Research . Un libro de Bradford. pág. 1. ISBN 978-0-262-51048-6.
  21. ^ Edward Thorndike (1931) El aprendizaje humano, página 122
  22. ^ Brush, Stephen G. (1967). "Historia del modelo de Lenz-Ising". Reseñas de Física Moderna . 39 (4): 883–893. Bibcode :1967RvMP...39..883B. doi :10.1103/RevModPhys.39.883.
  23. ^ McCulloch, Warren S.; Pitts, Walter (1943-12-01). "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa". Boletín de biofísica matemática . 5 (4): 115–133. doi :10.1007/BF02478259. ISSN  1522-9602.
  24. ^ Hayek, Friedrich A. [1920] 1991. Beiträge zur Theorie der Entwicklung des Bewusstseins [Contribuciones a una teoría sobre cómo se desarrolla la conciencia]. Manuscrito, traducido por Grete Heinz.
  25. ^ Caldwell, Bruce (2004). "Algunas reflexiones sobre El orden sensorial de FA Hayek". Revista de bioeconomía . 6 (3): 239–254. doi :10.1007/s10818-004-5505-9. ISSN  1387-6996. S2CID  144437624.
  26. ^ Hayek, FA (15 de septiembre de 2012). El orden sensorial: una investigación sobre los fundamentos de la psicología teórica (1.ª ed.). The University of Chicago Press.
  27. ^ pp 124-129, Olazarán Rodríguez, José Miguel. Una sociología histórica de la investigación en redes neuronales . Tesis doctoral. Universidad de Edimburgo, 1991.
  28. ^ Widrow, B. (1962) Generalización y almacenamiento de información en redes de "neuronas" ADALINE . En MC Yovits, GT Jacobi y GD Goldstein (Ed.), Self-Organizing Systems-1962 (págs. 435-461). Washington, DC: Spartan Books.
  29. ^ Ivakhnenko, AG; Grigorʹevich Lapa, Valentin (1967). Cibernética y técnicas de previsión. American Elsevier Pub. Co.
  30. ^ por Schmidhuber, Jürgen (2022). "Historia comentada de la IA moderna y el aprendizaje profundo". arXiv : 2212.11279 [cs.NE].
  31. ^ Ivakhnenko, AG (1973). Dispositivos de predicción cibernética. CCM Information Corporation.
  32. ^ Robbins, H. ; Monro, S. (1951). "Un método de aproximación estocástica". Anales de estadística matemática . 22 (3): 400. doi : 10.1214/aoms/1177729586 .
  33. ^ Amari, Shun'ichi (1967). "Una teoría del clasificador de patrones adaptativo". Transacciones IEEE . EC (16): 279–307.
  34. ^ Amari, S.-I. (noviembre de 1972). "Aprendizaje de patrones y secuencias de patrones mediante redes autoorganizadas de elementos umbral". IEEE Transactions on Computers . C-21 (11): 1197–1206. doi :10.1109/TC.1972.223477. ISSN  0018-9340.
  35. ^ Olazaran, Mikel (1993-01-01), "Una historia sociológica de la controversia de las redes neuronales", en Yovits, Marshall C. (ed.), Advances in Computers Volume 37 , vol. 37, Elsevier, págs. 335–425, doi :10.1016/S0065-2458(08)60408-8, ISBN 978-0-12-012137-3, consultado el 7 de agosto de 2024
  36. ^ Olazaran, Mikel (agosto de 1996). "Un estudio sociológico de la historia oficial de la controversia de los perceptrones". Estudios sociales de la ciencia . 26 (3): 611–659. doi :10.1177/030631296026003005. ISSN  0306-3127.
  37. ^ Hopfield, JJ (abril de 1982). "Redes neuronales y sistemas físicos con capacidades computacionales colectivas emergentes". Actas de la Academia Nacional de Ciencias . 79 (8): 2554–2558. Bibcode :1982PNAS...79.2554H. doi : 10.1073/pnas.79.8.2554 . ISSN  0027-8424. PMC 346238 . PMID  6953413. 
  38. ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (octubre de 1986). "Aprendizaje de representaciones mediante retropropagación de errores". Nature . 323 (6088): 533–536. Bibcode :1986Natur.323..533R. doi :10.1038/323533a0. ISSN  1476-4687.
  39. ^ Cybenko, G. (1989-12-01). "Aproximación por superposiciones de una función sigmoidea". Matemáticas de control, señales y sistemas . 2 (4): 303–314. Bibcode :1989MCSS....2..303C. doi :10.1007/BF02551274. ISSN  1435-568X.
  40. ^ Sejnowski, Terrence J. (2018). La revolución del aprendizaje profundo . Cambridge, Massachusetts. Londres, Inglaterra: The MIT Press. ISBN. 978-0-262-03803-4.
  41. ^ Sammut, Claude; Webb, Geoffrey I., eds. (2010), "TD-Gammon", Enciclopedia de aprendizaje automático , Boston, MA: Springer US, págs. 955-956, doi :10.1007/978-0-387-30164-8_813, ISBN 978-0-387-30164-8, consultado el 25 de diciembre de 2023
  42. ^ ab Chang, Franklin (2002). "Simbólicamente hablando: un modelo conexionista de producción de oraciones". Cognitive Science . 26 (5): 609–651. doi : 10.1207/s15516709cog2605_3 . ISSN  1551-6709.
  43. ^ Smolensky, Paul (1990). "Vinculación de variables de productos tensoriales y representación de estructuras simbólicas en sistemas conexionistas" (PDF) . Inteligencia artificial . 46 (1–2): 159–216. doi :10.1016/0004-3702(90)90007-M.
  44. ^ Shastri, Lokendra; Ajjanagadde, Venkat (septiembre de 1993). "De asociaciones simples al razonamiento sistemático: una representación conexionista de reglas, variables y enlaces dinámicos utilizando sincronía temporal". Ciencias del comportamiento y del cerebro . 16 (3): 417–451. doi :10.1017/S0140525X00030910. ISSN  1469-1825. S2CID  14973656.
  45. ^ Ellis, Nick C. (1998). "Emergentismo, conexionismo y aprendizaje de idiomas" (PDF) . Aprendizaje de idiomas . 48 (4): 631–664. doi :10.1111/0023-8333.00063.
  46. ^ Van Gelder, Tim (1998), "La hipótesis dinámica en la ciencia cognitiva", Behavioral and Brain Sciences , 21 (5): 615–28, discusión 629–65, doi :10.1017/S0140525X98001733, PMID  10097022 , consultado el 28 de mayo de 2022
  47. ^ Beer, Randall D. (marzo de 2000). "Enfoques dinámicos de la ciencia cognitiva". Tendencias en ciencias cognitivas . 4 (3): 91–99. doi :10.1016/s1364-6613(99)01440-0. ISSN  1364-6613. PMID  10689343. S2CID  16515284.
  48. ^ Graves, Alex (2014). "Máquinas de Turing neuronales". arXiv : 1410.5401 [cs.NE].
  49. ^ P. Smolensky: Sobre el tratamiento adecuado del conexionismo. En: Behavioral and Brain Sciences. Volumen 11, 1988, págs. 1-74.
  50. ^ P. Smolensky: La estructura constituyente de los estados mentales conexionistas: una respuesta a Fodor y Pylyshyn. En: T. Horgan, J. Tienson (Ed.): Conferencia Spindel 1987: Conexionismo y filosofía de la mente. The Southern Journal of Philosophy. Número especial sobre el conexionismo y los fundamentos de la ciencia cognitiva. Suplemento. Volumen 26, 1988, págs. 137-161.
  51. ^ JA Fodor, ZW Pylyshyn: Conexionismo y arquitectura cognitiva: un análisis crítico. Cognición. Volumen 28, 1988, páginas 12-13, 33-50.
  52. ^ JA Fodor, B. McLaughlin: El conexionismo y el problema de la sistematicidad: por qué la solución de Smolensky no funciona. Cognición. Volumen 35, 1990, págs. 183-184.
  53. ^ B. McLaughlin: La batalla entre el conexionismo y el clasicismo para ganar almas. Philosophical Studies, Volumen 71, 1993, págs. 171-172.
  54. ^ B. McLaughlin: ¿Puede una arquitectura ICS afrontar los retos de sistematicidad y productividad? En: P. Calvo, J. Symons (Ed.): La arquitectura de la cognición. Replanteando el reto de sistematicidad de Fodor y Pylyshyn. MIT Press, Cambridge/MA, Londres, 2014, págs. 31-76.
  55. ^ JA Fodor, B. McLaughlin: El conexionismo y el problema de la sistematicidad: por qué la solución de Smolensky no funciona. Cognición. Volumen 35, 1990, páginas 183-184.
  56. ^ JA Fodor: El lenguaje del pensamiento. Harvester Press, Sussex, 1976, ISBN 0-85527-309-7.
  57. ^ JA Fodor: LOT 2: El lenguaje del pensamiento revisitado. Clarendon Press, Oxford, 2008, ISBN 0-19-954877-3.
  58. ^ JA Fodor, ZW Pylyshyn (1988), págs. 33-48.
  59. ^ P. Smolenky: Respuesta: Estructura constituyente y explicación en una arquitectura cognitiva simbólica/conexionista integrada. En: C. MacDonald, G. MacDonald (Eds.): Conexionismo: Debates sobre la explicación psicológica. Blackwell Publishers. Oxford/Reino Unido, Cambridge/MA. Vol. 2, 1995, págs. 224, 236-239, 242-244, 250-252, 282.
  60. ^ P. Smolensky, G. Legendre: La mente armónica: de la computación neuronal a la gramática teórica de la optimalidad. Vol. 1: Arquitectura cognitiva. Un libro de Bradford, The MIT Press, Cambridge, Londres, 2006a, ISBN 0-262-19526-7, págs. 65-67, 69-71, 74-75, 154-155, 159-202, 209-210, 235-267, 271-342, 513.
  61. ^ M. Werning: Sincronización neuronal, covariación y representación compositiva. En: M. Werning, E. Machery, G. Schurz (Eds.): La composicionalidad del significado y el contenido. Vol. II: Aplicaciones a la lingüística, la psicología y la neurociencia. Ontos Verlag, 2005, págs. 283-312.
  62. ^ M. Werning: Representación compositiva no simbólica y su fundamento neuronal: hacia una semántica emulativa. En: M. Werning, W. Hinzen, E. Machery (Eds.): The Oxford Handbook of Compositionality. Oxford University Press, 2012, págs. 633-654.
  63. ^ A. Maye y M. Werning: Sincronización neuronal: desde la vinculación de características dinámicas hasta las representaciones compositivas. Chaos and Complexity Letters, Volumen 2, páginas 315-325.
  64. ^ Bechtel, W., Abrahamsen, AA Conexionismo y la mente: procesamiento paralelo, dinámica y evolución en redes. 2.ª edición. Blackwell Publishers, Oxford. 2002
  65. ^ GF Marcus: La mente algebraica. Integrando el conexionismo y la ciencia cognitiva. Bradford Book, The MIT Press, Cambridge, 2001, ISBN 0-262-13379-2.
  66. ^ H. Maurer: Ciencia cognitiva: mecanismos de sincronización integradores en las neuroarquitecturas cognitivas del conexionismo moderno. CRC Press, Boca Raton/FL, 2021, ISBN 978-1-351-04352-6. https://doi.org/10.1201/9781351043526

Referencias

Enlaces externos

Escuche este artículo ( 19 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 26 de noviembre de 2011 y no refleja ediciones posteriores. ( 26 de noviembre de 2011 )