stringtranslate.com

Arquitectura cognitiva

Una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instancia computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional . [1] Los modelos formalizados se pueden utilizar para perfeccionar aún más una teoría integral de la cognición y como un programa útil de inteligencia artificial. Las arquitecturas cognitivas exitosas incluyen ACT-R (Control Adaptativo del Pensamiento – Racional) y SOAR . La investigación sobre arquitecturas cognitivas como instanciación de software de teorías cognitivas fue iniciada por Allen Newell en 1990. [2]

El Instituto de Tecnologías Creativas define la arquitectura cognitiva como: " hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas naturales o artificiales, y cómo trabajan juntas -en conjunto con el conocimiento y las habilidades incorporadas dentro de la arquitectura- para producir un comportamiento inteligente en una diversidad de entornos complejos." [3]

Historia

Herbert A. Simon , uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su alumno Ed Feigenbaum , EPAM proporcionó una posible "arquitectura para la cognición" porque incluía algunos compromisos sobre cómo más de un aspecto fundamental de la inteligencia artificial. la mente humana funcionó (en el caso de EPAM, [4] memoria humana y aprendizaje humano ).

John R. Anderson inició una investigación sobre la memoria humana a principios de la década de 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. [5] Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT . Él y sus alumnos fueron influenciados por el uso que Allen Newell hizo del término "arquitectura cognitiva". El laboratorio de Anderson utilizó el término para referirse a la teoría ACT plasmada en una colección de artículos y diseños (no había una implementación completa de ACT en ese momento).

En 1983, John R. Anderson publicó el trabajo fundamental en esta área, titulado La arquitectura de la cognición. [6] Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición esbozó la estructura de las distintas partes de la mente y se comprometió con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también fueron "arquitecturas cognitivas". Así, una arquitectura cognitiva también puede referirse a un modelo para agentes inteligentes . Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos, la mayoría de las veces, como una persona, o actúan de manera inteligente bajo alguna definición. Las arquitecturas cognitivas forman un subconjunto de arquitecturas de agentes generales . El término "arquitectura" implica un enfoque que intenta modelar no sólo el comportamiento, sino también las propiedades estructurales del sistema modelado.

Distinciones

Las arquitecturas cognitivas pueden ser simbólicas , conexionistas o híbridas . [7] Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas , como, por ejemplo, el Lenguaje de Procesamiento de Información (por ejemplo, Soar basado en la teoría unificada de la cognición , o de manera similar ACT-R ). Muchas de estas arquitecturas se basan en la analogía de que la mente es como una computadora (ver computacionalismo ). En contraste, el procesamiento subsimbólico no especifica tales reglas a priori y se basa en propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos). Las arquitecturas híbridas combinan ambos tipos de procesamiento (como CLARION ). Una distinción adicional es si la arquitectura está centralizada con un correlato neuronal de un procesador en su núcleo o descentralizada (distribuida). La descentralización se hizo popular con el nombre de procesamiento distribuido paralelo a mediados de la década de 1980 y conexionismo , siendo un excelente ejemplo las redes neuronales . Otra cuestión de diseño es, además, la elección entre una estructura holística y atomística o (más concreta) modular .

En la IA tradicional , la inteligencia a menudo se programa desde arriba: el programador es el creador, crea algo y lo impregna de su inteligencia, aunque muchos sistemas de IA tradicionales también fueron diseñados para aprender (por ejemplo, mejorar su competencia en los juegos o en la resolución de problemas). . La informática de inspiración biológica , por otro lado, adopta a veces un enfoque más descentralizado y de abajo hacia arriba ; Las técnicas bioinspiradas a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera ir acumulando complejidad hasta que el resultado final sea algo marcadamente complejo (ver sistemas complejos). Sin embargo, también se puede argumentar que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer, en lugar de observaciones de mecanismos cerebrales, también están inspirados biológicamente, aunque de manera diferente.

Ejemplos notables

Algunas arquitecturas cognitivas conocidas, en orden alfabético:

Ver también

Referencias

  1. ^ Lieto, Antonio (2021). Diseño cognitivo para mentes artificiales . Londres, Reino Unido: Routledge, Taylor & Francis. ISBN 9781138207929.
  2. ^ Newell, Allen. 1990. Teorías unificadas de la cognición. Prensa de la Universidad de Harvard, Cambridge, Massachusetts.
  3. ^ "Arquitectura cognitiva". Instituto de Tecnologías Creativas. 2024 . Consultado el 11 de febrero de 2024 .
  4. ^ "Los documentos de Feigenbaum". Universidad Stanford . Consultado el 11 de febrero de 2024 .
  5. ^ "Clásico de citas de esta semana: Anderson JR y Bower G H. Memoria asociativa humana. Washington", en: CC. Nro. 52 24 al 31 de diciembre de 1979.
  6. ^ John R.Anderson . La Arquitectura de la Cognición, 1983/2013.
  7. ^ Vernón, David; Metta, Giorgio; Sandini, Giulio (abril de 2007). "Un estudio de sistemas cognitivos artificiales: implicaciones para el desarrollo autónomo de capacidades mentales en agentes computacionales". Transacciones IEEE sobre computación evolutiva . 11 (2): 151–180. doi :10.1109/TEVC.2006.890274. S2CID  9709702.
  8. ^ Douglas Whitney Gage (2004). Robots móviles XVII: 26 a 28 de octubre de 2004, Filadelfia, Pensilvania, EE. UU . Sociedad de Ingenieros de Instrumentación Fotoóptica. página 35.
  9. ^ Novianto, Rony (2014). Arquitectura cognitiva flexible basada en la atención para robots (PDF) (Tesis).
  10. ^ Albus, James S. (agosto de 1979). "Mecanismos de planificación y resolución de problemas en el cerebro". Biociencias Matemáticas . 45 (3–4): 247–293. doi :10.1016/0025-5564(79)90063-4.
  11. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2013). "Jugar a Atari con aprendizaje por refuerzo profundo". arXiv : 1312.5602 [cs.LG].
  12. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2014). "Máquinas neuronales de Turing". arXiv : 1410.5401 [cs.NE].
  13. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Plata, David; Rusu, Andrei A.; Venecia, Joel; Bellemare, Marc G.; Tumbas, Alex; Riedmiller, Martín; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; Rey, Helena; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (25 de febrero de 2015). "Control a nivel humano mediante aprendizaje por refuerzo profundo". Naturaleza . 518 (7540): 529–533. Código Bib :2015Natur.518..529M. doi : 10.1038/naturaleza14236. PMID  25719670. S2CID  205242740.
  14. ^ "Artículo sobre la naturaleza de DeepMind y trabajos relacionados anteriores".
  15. ^ Schmidhuber, Jürgen; Kavukcuoglu, Koray; Plata, David; Tumbas, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martín (2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85-117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  16. ^ Eliasmith, C.; Stewart, TC; Choo, X.; Bekolay, T.; DeWolf, T.; Tang, Y.; Rasmussen, D. (29 de noviembre de 2012). "Un modelo a gran escala del funcionamiento del cerebro". Ciencia . 338 (6111): 1202–1205. Código Bib : 2012 Ciencia... 338.1202E. doi : 10.1126/ciencia.1225266. PMID  23197532. S2CID  1673514.
  17. ^ Denning, Peter J. "Memoria distribuida escasa". (1989). URL: https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19920002425.pdf

enlaces externos