stringtranslate.com

Arquitectura cognitiva

Una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instancia computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional . [1] Estos modelos formalizados se pueden utilizar para perfeccionar aún más las teorías integrales de la cognición y servir como marco para programas útiles de inteligencia artificial. Las arquitecturas cognitivas exitosas incluyen ACT-R (Control Adaptativo del Pensamiento – Racional) y SOAR . La investigación sobre arquitecturas cognitivas como instanciación de software de teorías cognitivas fue iniciada por Allen Newell en 1990. [2]

El Instituto de Tecnologías Creativas define una arquitectura cognitiva como una " hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas naturales o artificiales, y cómo trabajan juntas (junto con el conocimiento y las habilidades incorporadas en la arquitectura) para producir un comportamiento inteligente". en una diversidad de entornos complejos." [3]

Historia

Herbert A. Simon , uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su alumno Ed Feigenbaum , EPAM proporcionó una posible "arquitectura para la cognición" porque incluía algunos compromisos sobre cómo más de un aspecto fundamental de la inteligencia artificial. la mente humana funcionó (en el caso de EPAM, [4] memoria humana y aprendizaje humano ).

John R. Anderson inició una investigación sobre la memoria humana a principios de la década de 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. [5] Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT . Él y sus alumnos fueron influenciados por el uso que Allen Newell hizo del término "arquitectura cognitiva". El laboratorio de Anderson utilizó el término para referirse a la teoría ACT plasmada en una colección de artículos y diseños (no había una implementación completa de ACT en ese momento).

En 1983, John R. Anderson publicó el trabajo fundamental en esta área, titulado La arquitectura de la cognición. [6] Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición esbozó la estructura de las distintas partes de la mente y se comprometió con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también eran "arquitecturas cognitivas". Así, una arquitectura cognitiva también puede referirse a un modelo para agentes inteligentes . Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos. La mayoría de las veces estos procesos se basan en la cognición humana, pero también pueden ser adecuados otros sistemas inteligentes . Las arquitecturas cognitivas forman un subconjunto de arquitecturas de agentes generales . El término "arquitectura" implica un enfoque que intenta modelar no sólo el comportamiento, sino también las propiedades estructurales del sistema modelado.

Distinciones

Las arquitecturas cognitivas pueden ser simbólicas , conexionistas o híbridas . [7] Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas , como, por ejemplo, el Lenguaje de Procesamiento de Información (por ejemplo, Soar basado en la teoría unificada de la cognición , o de manera similar ACT-R ). Muchas de estas arquitecturas se basan en el principio de que la cognición es computacional (ver computacionalismo ). Por el contrario, el procesamiento subsimbólico no especifica tales supuestos a priori , basándose únicamente en las propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos [ se necesita aclaración ] ). Las arquitecturas híbridas como CLARION combinan ambos tipos de procesamiento. Una distinción adicional es si la arquitectura es centralizada , con un correlato neuronal de un procesador en su núcleo, o descentralizada (distribuida). La descentralización se hizo popular con el nombre de procesamiento distribuido paralelo a mediados de la década de 1980 y conexionismo , siendo un excelente ejemplo la red neuronal . Otra cuestión de diseño es también la elección entre estructura holística y atomística o (más concretamente) modular .

En la IA tradicional , la inteligencia se programa de arriba hacia abajo. Aunque un sistema de este tipo puede estar diseñado para aprender , en última instancia el programador debe dotarlo de su propia inteligencia. La informática de inspiración biológica , por otro lado, adopta un enfoque más descentralizado y de abajo hacia arriba ; Las técnicas bioinspiradas a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera ir acumulando complejidad hasta que el resultado final sea algo marcadamente complejo (ver sistemas complejos). Sin embargo, también se puede argumentar que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer, en lugar de observaciones de mecanismos cerebrales, también están inspirados biológicamente, aunque de una manera diferente [ cita requerida ] .

Ejemplos notables

Algunas arquitecturas cognitivas conocidas, en orden alfabético:

Ver también

Referencias

  1. ^ Lieto, Antonio (2021). Diseño cognitivo para mentes artificiales . Londres, Reino Unido: Routledge, Taylor & Francis. ISBN 9781138207929.
  2. ^ Newell, Allen. 1990. Teorías unificadas de la cognición. Prensa de la Universidad de Harvard, Cambridge, Massachusetts.
  3. ^ "Arquitectura cognitiva". Instituto de Tecnologías Creativas. 2024 . Consultado el 11 de febrero de 2024 .
  4. ^ "Los documentos de Feigenbaum". Universidad Stanford . Consultado el 11 de febrero de 2024 .
  5. ^ "Clásico de citas de esta semana: Anderson JR y Bower G H. Memoria asociativa humana. Washington", en: CC. Nro. 52 24 al 31 de diciembre de 1979.
  6. ^ John R.Anderson . La Arquitectura de la Cognición, 1983/2013.
  7. ^ Vernón, David; Metta, Giorgio; Sandini, Giulio (abril de 2007). "Un estudio de sistemas cognitivos artificiales: implicaciones para el desarrollo autónomo de capacidades mentales en agentes computacionales". Transacciones IEEE sobre computación evolutiva . 11 (2): 151–180. doi :10.1109/TEVC.2006.890274. S2CID  9709702.
  8. ^ Douglas Whitney Gage (2004). Robots móviles XVII: 26 a 28 de octubre de 2004, Filadelfia, Pensilvania, EE. UU . Sociedad de Ingenieros de Instrumentación Fotoóptica. página 35.
  9. ^ Dr. Lars Ludwig (2013). Memoria artificial extendida. Hacia una teoría cognitiva integral de la memoria y la tecnología (pdf) (Tesis). Universidad Técnica de Kaiserslautern . Consultado el 7 de febrero de 2017 .
  10. ^ Novianto, Rony (2014). Arquitectura cognitiva flexible basada en la atención para robots (PDF) (Tesis).
  11. ^ Albus, James S. (agosto de 1979). "Mecanismos de planificación y resolución de problemas en el cerebro". Biociencias Matemáticas . 45 (3–4): 247–293. doi :10.1016/0025-5564(79)90063-4.
  12. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2013). "Jugar a Atari con aprendizaje por refuerzo profundo". arXiv : 1312.5602 [cs.LG].
  13. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2014). "Máquinas neuronales de Turing". arXiv : 1410.5401 [cs.NE].
  14. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Rusu, Andrei A.; Venecia, Joel; Bellemare, Marc G.; Tumbas, Alex; Riedmiller, Martín; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; Rey, Helena; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (25 de febrero de 2015). "Control a nivel humano mediante aprendizaje por refuerzo profundo". Naturaleza . 518 (7540): 529–533. Código Bib :2015Natur.518..529M. doi : 10.1038/naturaleza14236. PMID  25719670. S2CID  205242740.
  15. ^ "Artículo sobre la naturaleza de DeepMind y trabajos relacionados anteriores".
  16. ^ Schmidhuber, Jürgen; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85-117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  17. ^ Eliasmith, C.; Stewart, TC; Choo, X.; Bekolay, T.; DeWolf, T.; Tang, Y.; Rasmussen, D. (29 de noviembre de 2012). "Un modelo a gran escala del funcionamiento del cerebro". Ciencia . 338 (6111): 1202–1205. Código Bib : 2012 Ciencia... 338.1202E. doi : 10.1126/ciencia.1225266. PMID  23197532. S2CID  1673514.
  18. ^ Denning, Peter J. "Memoria distribuida escasa". (1989). URL: https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19920002425.pdf

enlaces externos