stringtranslate.com

Marco de predicción de la memoria

El marco de predicción de la memoria es una teoría de la función cerebral creada por Jeff Hawkins y descrita en su libro de 2004 Sobre la inteligencia . Esta teoría se refiere al papel de la neocorteza de los mamíferos y sus asociaciones con el hipocampo y el tálamo a la hora de hacer coincidir las entradas sensoriales con los patrones de memoria almacenados y cómo este proceso conduce a predicciones de lo que sucederá en el futuro.

Descripción general

La teoría está motivada por las similitudes observadas entre las estructuras cerebrales (especialmente el tejido neocortical ) que se utilizan para una amplia gama de comportamientos disponibles para los mamíferos. La teoría postula que la disposición física notablemente uniforme del tejido cortical refleja un único principio o algoritmo que subyace a todo el procesamiento de información cortical. Se plantea la hipótesis de que el principio de procesamiento básico es un circuito de retroalimentación/recuerdo que involucra participación tanto cortical como extracortical (esta última del tálamo y el hipocampo en particular).

La teoría básica: reconocimiento y predicción en jerarquías bidireccionales.

El concepto central del marco de predicción de la memoria es que las entradas de abajo hacia arriba se combinan en una jerarquía de reconocimiento y evocan una serie de expectativas de arriba hacia abajo codificadas como potenciaciones. Estas expectativas interactúan con las señales ascendentes para analizar esas entradas y generar predicciones de las entradas esperadas posteriores. Cada nivel de jerarquía recuerda secuencias temporales de patrones de entrada observadas con frecuencia y genera etiquetas o "nombres" para estas secuencias. Cuando una secuencia de entrada coincide con una secuencia memorizada en un nivel determinado de la jerarquía, una etiqueta o 'nombre' se propaga hacia arriba en la jerarquía, eliminando así detalles en niveles superiores y permitiéndoles aprender secuencias de orden superior. Este proceso produce una mayor invariancia en niveles superiores. Los niveles más altos predicen entradas futuras haciendo coincidir secuencias parciales y proyectando sus expectativas a los niveles más bajos. Sin embargo, cuando se produce una discrepancia entre la entrada y las secuencias memorizadas/predichas, se propaga una representación más completa hacia arriba. Esto hace que se activen 'interpretaciones' alternativas en niveles superiores, lo que a su vez genera otras predicciones en niveles inferiores.

Consideremos, por ejemplo, el proceso de la visión . La información ascendente comienza como señales retinianas de bajo nivel (que indican la presencia de elementos visuales simples y contrastes). En niveles más altos de la jerarquía, se extrae información cada vez más significativa sobre la presencia de líneas, regiones , movimientos , etc. Incluso más arriba en la jerarquía, la actividad corresponde a la presencia de objetos específicos y luego a los comportamientos de estos objetos. La información de arriba hacia abajo proporciona detalles sobre los objetos reconocidos y también sobre su comportamiento esperado a medida que avanza el tiempo.

La jerarquía sensorial induce una serie de diferencias entre los distintos niveles. A medida que se asciende en la jerarquía, las representaciones han aumentado:

La relación entre el procesamiento sensorial y motor es un aspecto importante de la teoría básica. Se propone que las áreas motoras de la corteza constan de una jerarquía conductual similar a la jerarquía sensorial, donde los niveles más bajos consisten en órdenes motoras explícitas a la musculatura y los niveles más altos corresponden a prescripciones abstractas (por ejemplo, "cambiar el tamaño del navegador"). Las jerarquías sensorial y motora están estrechamente relacionadas, y el comportamiento da lugar a expectativas sensoriales y percepciones sensoriales que impulsan los procesos motores.

Por último, es importante señalar que todos los recuerdos de la jerarquía cortical deben aprenderse; esta información no está precableada en el cerebro. Por lo tanto, el proceso de extraer esta representación del flujo de entradas y comportamientos se teoriza como un proceso que ocurre continuamente durante la cognición .

Otros terminos

Hawkins tiene una amplia formación como ingeniero eléctrico. Otra forma de describir la teoría (insinuada en su libro) es como una jerarquía de aprendizaje de máquinas de estados estocásticas de avance . Desde este punto de vista, el cerebro se analiza como un problema de codificación, no muy diferente de los códigos de corrección de errores que predicen el futuro. La jerarquía es una jerarquía de abstracción , en la que los estados de las máquinas de nivel superior representan condiciones o eventos más abstractos, y estos estados predisponen a las máquinas de nivel inferior a realizar ciertas transiciones. Las máquinas de nivel inferior modelan dominios limitados de experiencia, o controlan o interpretan sensores o efectores. En realidad, todo el sistema controla el comportamiento del organismo. Dado que la máquina de estados se retroalimenta, el organismo responde a eventos futuros predichos a partir de datos pasados. Dado que es jerárquico, el sistema exhibe flexibilidad de comportamiento, produciendo fácilmente nuevas secuencias de comportamiento en respuesta a nuevos datos sensoriales. Dado que el sistema aprende, el nuevo comportamiento se adapta a las condiciones cambiantes.

Es decir, el propósito evolutivo del cerebro es predecir el futuro, de maneras ciertamente limitadas, para cambiarlo.

Implementación neurofisiológica

Se teoriza que las jerarquías descritas anteriormente ocurren principalmente en la neocorteza de los mamíferos. En particular, se supone que la neocorteza está formada por un gran número de columnas (como también lo supuso Vernon Benjamin Mountcastle a partir de consideraciones anatómicas y teóricas). Cada columna está en sintonía con una característica particular en un nivel determinado de una jerarquía. Recibe entradas de abajo hacia arriba de niveles inferiores y entradas de arriba hacia abajo de niveles superiores. (Otras columnas en el mismo nivel también alimentan una columna determinada y sirven principalmente para inhibir la activación de representaciones exclusivas). Cuando se reconoce una entrada, es decir, se obtiene un acuerdo aceptable entre las fuentes ascendentes y descendentes, se produce una La columna genera resultados que a su vez se propagan a niveles superiores e inferiores.

Corteza

Estos procesos se asignan bien a capas específicas dentro de la corteza de los mamíferos. (Las capas corticales no deben confundirse con diferentes niveles de la jerarquía de procesamiento: todas las capas de una sola columna participan como un elemento en un único nivel jerárquico). La entrada ascendente llega a la capa 4 (L4), desde donde se propaga a L2 y L3 para el reconocimiento del contenido invariante. La activación de arriba hacia abajo llega a L2 y L3 a través de L1 (la capa principalmente axonal que distribuye la activación localmente entre las columnas). L2 y L3 comparan información de abajo hacia arriba y de arriba hacia abajo, y generan los 'nombres' invariantes cuando se logra una coincidencia suficiente, o las señales más variables que ocurren cuando esto falla. Estas señales se propagan hacia arriba en la jerarquía (a través de L5) y también hacia abajo en la jerarquía (a través de L6 y L1).

tálamo

Para dar cuenta del almacenamiento y reconocimiento de secuencias de patrones, se sugiere una combinación de dos procesos. El tálamo inespecífico actúa como una "línea de retardo", es decir, L5 activa esta área del cerebro, que reactiva L1 después de un ligero retraso. Por lo tanto, la salida de una columna genera actividad L1, que coincidirá con la entrada a una columna que es temporalmente posterior dentro de una secuencia. Este ordenamiento temporal opera junto con la identificación de nivel superior de la secuencia, que no cambia en el tiempo; por lo tanto, la activación de la representación de la secuencia hace que los componentes de nivel inferior se predigan uno tras otro. (Además de esta función en la secuenciación, el tálamo también está activo como estación de paso sensorial ; estas funciones aparentemente involucran regiones distintas de esta estructura anatómicamente no uniforme).

Hipocampo

Otra estructura cerebral anatómicamente diversa que se supone que desempeña un papel importante en la cognición jerárquica es el hipocampo . Es bien sabido que el daño a ambos hipocampos perjudica la formación de la memoria declarativa a largo plazo ; Los individuos con tal daño son incapaces de formar nuevos recuerdos de naturaleza episódica, aunque pueden recordar recuerdos anteriores sin dificultades y también pueden aprender nuevas habilidades. En la teoría actual, se piensa que los hipocampos son el nivel superior de la jerarquía cortical; están especializados en retener recuerdos de eventos que se propagan hasta la cima. A medida que tales acontecimientos encajan en patrones predecibles, se vuelven memorizables en niveles inferiores de la jerarquía. (Este movimiento de recuerdos hacia abajo en la jerarquía es, dicho sea de paso, una predicción general de la teoría.) Así, los hipocampos memorizan continuamente acontecimientos "inesperados" (es decir, aquellos no predichos en niveles inferiores); si están dañados, todo el proceso de memorización a través de la jerarquía se ve comprometido.

En 2016, Hawkins planteó la hipótesis de que las columnas corticales no solo capturaban una sensación, sino también la ubicación relativa de esa sensación, en tres dimensiones en lugar de dos ( captura situada ), en relación con lo que la rodeaba. [1] "Cuando el cerebro construye un modelo del mundo, todo tiene una ubicación relativa a todo lo demás" [1] —Jeff Hawkins.

Éxitos explicativos y predicciones.

El marco de predicción de la memoria explica una serie de aspectos psicológicamente destacados de la cognición. Por ejemplo, la capacidad de los expertos en cualquier campo para analizar y recordar sin esfuerzo problemas complejos dentro de su campo es una consecuencia natural de su formación de jerarquías conceptuales cada vez más refinadas. Además, la procesión de la " percepción " a la " comprensión " es fácilmente comprensible como resultado de la coincidencia de expectativas de arriba hacia abajo y de abajo hacia arriba . Los desajustes, por el contrario, generan la exquisita capacidad de la cognición biológica para detectar percepciones y situaciones inesperadas. (Las deficiencias en este sentido son una característica común de los enfoques actuales de la inteligencia artificial).

Además de estas explicaciones subjetivamente satisfactorias, el marco también hace una serie de predicciones comprobables . Por ejemplo, el importante papel que desempeña la predicción en todas las jerarquías sensoriales exige una actividad neuronal anticipatoria en ciertas células de la corteza sensorial. Además, las celdas que "nombran" ciertas invariantes deben permanecer activas durante la presencia de esas invariantes, incluso si las entradas subyacentes cambian. Los patrones previstos de actividad ascendente y descendente (los primeros son más complejos cuando no se cumplen las expectativas) pueden detectarse, por ejemplo, mediante imágenes por resonancia magnética funcional ( fMRI ).

Aunque estas predicciones no son muy específicas de la teoría propuesta, son lo suficientemente inequívocas como para hacer posible la verificación o el rechazo de sus principios centrales. Consulte Sobre inteligencia para obtener detalles sobre las predicciones y hallazgos.

Contribución y limitaciones

Por diseño, la teoría actual se basa en el trabajo de numerosos neurobiólogos, y se puede argumentar que la mayoría de estas ideas ya han sido propuestas por investigadores como Grossberg y Mountcastle . Por otro lado, la novedosa separación del mecanismo conceptual (es decir, procesamiento bidireccional y reconocimiento invariante) de los detalles biológicos (es decir, capas, columnas y estructuras neuronales) sienta las bases para el pensamiento abstracto sobre una amplia gama de procesos cognitivos.

La limitación más significativa de esta teoría es su actual [ ¿cuándo? ] falta de detalle. Por ejemplo, el concepto de invariancia juega un papel crucial; Hawkins postula " células de nombre " para al menos algunas de estas invariantes. (Véase también Conjunto neuronal#Codificación para las neuronas de la abuela que realizan este tipo de función, y neuronas espejo para el punto de vista del sistema somatosensorial .) Pero está lejos de ser obvio cómo desarrollar una definición matemáticamente rigurosa, que lleve la carga conceptual requerida a lo largo de todo el mundo. dominios presentados por Hawkins. De manera similar, una teoría completa requerirá detalles creíbles tanto sobre la dinámica a corto plazo como sobre los procesos de aprendizaje que permitirán que las capas corticales se comporten como se anuncia.

IBM está implementando el modelo de Hawkins. [2]

Modelos de aprendizaje automático

La teoría de la predicción de la memoria afirma que todas las regiones de la neocorteza emplean un algoritmo común. La teoría ha dado lugar a una serie de modelos de software destinados a simular este algoritmo común utilizando una estructura de memoria jerárquica. El año en la lista a continuación indica cuándo se actualizó el modelo por última vez.

Modelos basados ​​en redes bayesianas

Los siguientes modelos utilizan la propagación o revisión de creencias en redes bayesianas conectadas individualmente .

Otros modelos

Ver también

Referencias

  1. ^ ab Metz, Cade (15 de octubre de 2018). "Una nueva visión de cómo pensamos". Los New York Times . págs. B1, B4.Ver: 'Claridad con una taza de café'
  2. ^ Simonita, Tom (8 de abril de 2015). "IBM prueba los controvertidos algoritmos cerebrales del pionero de la informática móvil". Revisión de tecnología del MIT . Consultado el 8 de abril de 2015 .

Otras lecturas

enlaces externos