stringtranslate.com

Arquitectura cognitiva

Una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instanciación computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional . [1] Estos modelos formalizados se pueden utilizar para refinar aún más las teorías integrales de la cognición y servir como marcos para programas de inteligencia artificial útiles. Las arquitecturas cognitivas exitosas incluyen ACT-R (Control adaptativo del pensamiento – racional) y SOAR . La investigación sobre arquitecturas cognitivas como instanciación de software de teorías cognitivas fue iniciada por Allen Newell en 1990. [2]

El Instituto de Tecnologías Creativas define una arquitectura cognitiva como una " hipótesis sobre las estructuras fijas que forman una mente, ya sea en sistemas naturales o artificiales, y cómo trabajan juntas -en conjunción con el conocimiento y las habilidades incorporadas en la arquitectura- para producir un comportamiento inteligente en una diversidad de entornos complejos". [3]

Historia

Herbert A. Simon , uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su estudiante Ed Feigenbaum , EPAM, proporcionó una posible "arquitectura para la cognición" porque incluía algunos compromisos sobre cómo funcionaba más de un aspecto fundamental de la mente humana (en el caso de EPAM, [4] la memoria humana y el aprendizaje humano ).

John R. Anderson comenzó a investigar sobre la memoria humana a principios de los años 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. [5] Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT . Él y sus estudiantes fueron influenciados por el uso del término "arquitectura cognitiva" de Allen Newell . El laboratorio de Anderson utilizó el término para referirse a la teoría ACT tal como se materializó en una colección de artículos y diseños. (No había una implementación completa de ACT en ese momento).

En 1983, John R. Anderson publicó el trabajo seminal en esta área, titulado The Architecture of Cognition. [6] Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición describió la estructura de las diversas partes de la mente y se comprometió con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también se denominó "arquitecturas cognitivas". Por lo tanto, una arquitectura cognitiva también puede referirse a un modelo para agentes inteligentes . Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos. La mayoría de las veces, estos procesos se basan en la cognición humana, pero otros sistemas inteligentes también pueden ser adecuados. Las arquitecturas cognitivas forman un subconjunto de las arquitecturas de agentes generales . El término "arquitectura" implica un enfoque que intenta modelar no solo el comportamiento, sino también las propiedades estructurales del sistema modelado.

Distinciones

Las arquitecturas cognitivas pueden ser simbólicas , conexionistas o híbridas . [7] Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas , como, por ejemplo, el lenguaje de procesamiento de la información (por ejemplo, Soar basado en la teoría unificada de la cognición , o de manera similar ACT-R ). Muchas de estas arquitecturas se basan en el principio de que la cognición es computacional (véase computacionalismo ). Por el contrario, el procesamiento subsimbólico no especifica tales suposiciones a priori , y se basa únicamente en propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos [ aclaración necesaria ] ). Las arquitecturas híbridas como CLARION combinan ambos tipos de procesamiento. Otra distinción es si la arquitectura es centralizada , con un correlato neuronal de un procesador en su núcleo, o descentralizada (distribuida). La descentralización se ha vuelto popular bajo el nombre de procesamiento distribuido paralelo a mediados de la década de 1980 y conexionismo , siendo un excelente ejemplo la red neuronal . Otra cuestión de diseño es la decisión entre una estructura holística y una atomística , o (más concretamente) modular .

En la IA tradicional , la inteligencia se programa de arriba hacia abajo. Aunque un sistema de este tipo puede estar diseñado para aprender , el programador en última instancia debe imbuirlo con su propia inteligencia. La computación de inspiración biológica , por otro lado, adopta un enfoque más de abajo hacia arriba y descentralizado; las técnicas de inspiración biológica a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera acumular complejidad hasta que el resultado final sea algo notablemente complejo (ver sistemas complejos). Sin embargo, también es discutible que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer, en lugar de sobre la base de observaciones de los mecanismos cerebrales, también estén inspirados biológicamente, aunque de una manera diferente [ cita requerida ] .

Ejemplos notables

Algunas arquitecturas cognitivas conocidas, en orden alfabético:

Véase también

Referencias

  1. ^ Lieto, Antonio (2021). Diseño cognitivo para mentes artificiales . Londres, Reino Unido: Routledge, Taylor & Francis. ISBN 9781138207929.
  2. ^ Newell, Allen. 1990. Teorías unificadas de la cognición. Harvard University Press, Cambridge, Massachusetts.
  3. ^ "Arquitectura cognitiva". Instituto de Tecnologías Creativas. 2024. Consultado el 11 de febrero de 2024 .
  4. ^ "Los documentos de Feigenbaum". Universidad de Stanford . Consultado el 11 de febrero de 2024 .
  5. ^ "El clásico de la cita de esta semana: Anderson JR y Bower G H. Memoria asociativa humana. Washington", en: CC. Nr. 52 24-31 de diciembre de 1979.
  6. ^ John R. Anderson . La arquitectura de la cognición, 1983/2013.
  7. ^ Vernon, David; Metta, Giorgio; Sandini, Giulio (abril de 2007). "Un estudio de los sistemas cognitivos artificiales: implicaciones para el desarrollo autónomo de capacidades mentales en agentes computacionales". IEEE Transactions on Evolutionary Computation . 11 (2): 151–180. doi :10.1109/TEVC.2006.890274. S2CID  9709702.
  8. ^ Douglas Whitney Gage (2004). Mobile robots XVII: 26–28 de octubre de 2004, Filadelfia, Pensilvania, EE. UU . Sociedad de Ingenieros de Instrumentación Fotoóptica. página 35.
  9. ^ Dr. Lars Ludwig (2013). Memoria artificial extendida. Hacia una teoría cognitiva integral de la memoria y la tecnología (pdf) (Tesis). Universidad Técnica de Kaiserslautern . Consultado el 7 de febrero de 2017 .
  10. ^ Novianto, Rony (2014). Arquitectura cognitiva flexible basada en la atención para robots (PDF) (Tesis).
  11. ^ Albus, James S. (agosto de 1979). "Mecanismos de planificación y resolución de problemas en el cerebro". Ciencias biológicas matemáticas . 45 (3–4): 247–293. doi :10.1016/0025-5564(79)90063-4.
  12. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2013). "Jugar a Atari con aprendizaje de refuerzo profundo". arXiv : 1312.5602 [cs.LG].
  13. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2014). "Máquinas neuronales de Turing". arXiv : 1410.5401 [cs.NE].
  14. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; King, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (25 de febrero de 2015). "Control a nivel humano mediante aprendizaje de refuerzo profundo". Nature . 518 (7540): 529–533. Código Bibliográfico :2015Natur.518..529M. doi :10.1038/nature14236. Número de modelo: PMID  25719670. Número de modelo: S2CID  205242740.
  15. ^ "Artículo de DeepMind en Nature y trabajos anteriores relacionados".
  16. ^ Schmidhuber, Jürgen; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85–117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  17. ^ Eliasmith, C.; Stewart, TC; Choo, X.; Bekolay, T.; DeWolf, T.; Tang, Y.; Rasmussen, D. (29 de noviembre de 2012). "Un modelo a gran escala del funcionamiento del cerebro". Science . 338 (6111): 1202–1205. Bibcode :2012Sci...338.1202E. doi :10.1126/science.1225266. PMID  23197532. S2CID  1673514.
  18. ^ Denning, Peter J. "Memoria distribuida dispersa". (1989). URL: https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19920002425.pdf

Enlaces externos