En neurociencia , la codificación predictiva (también conocida como procesamiento predictivo ) es una teoría de la función cerebral que postula que el cerebro genera y actualiza constantemente un " modelo mental " del entorno. Según la teoría, dicho modelo mental se utiliza para predecir las señales de entrada de los sentidos que luego se comparan con las señales de entrada reales de esos sentidos. La codificación predictiva es miembro de un conjunto más amplio de teorías que siguen la hipótesis del cerebro bayesiano .
Los antecesores teóricos de la codificación predictiva se remontan a 1860 con el concepto de inferencia inconsciente de Helmholtz . [1] La inferencia inconsciente se refiere a la idea de que el cerebro humano completa la información visual para dar sentido a una escena. Por ejemplo, si algo es relativamente más pequeño que otro objeto en el campo visual, el cerebro utiliza esa información como una probable señal de profundidad, de modo que el perceptor en última instancia (e involuntariamente) experimenta profundidad. La comprensión de la percepción como la interacción entre los estímulos sensoriales (de abajo hacia arriba) y el conocimiento conceptual (de arriba hacia abajo) continuó siendo establecida por Jerome Bruner quien, a partir de la década de 1940, estudió las formas en que las necesidades, las motivaciones y las expectativas influyen en la percepción, investigación que llegó a conocerse como psicología de la "Nueva Mirada". En 1981, McClelland y Rumelhart examinaron la interacción entre las características de procesamiento (líneas y contornos) que forman letras, que a su vez forman palabras. [2] Si bien las características sugieren la presencia de una palabra, descubrieron que cuando las letras se encontraban en el contexto de una palabra, las personas podían identificarlas más rápido que cuando se encontraban en una palabra sin contexto semántico. El modelo de procesamiento paralelo de McClelland y Rumelhart describe la percepción como el encuentro de elementos de arriba hacia abajo (conceptuales) y de abajo hacia arriba (sensoriales).
A finales de los años 1990, la idea del procesamiento de arriba hacia abajo y de abajo hacia arriba se tradujo en un modelo computacional de la visión por parte de Rao y Ballard [3] . Su artículo demostró que podría haber un modelo generativo de una escena (procesamiento de arriba hacia abajo), que recibiría retroalimentación a través de señales de error (cuánto variaba la entrada visual con respecto a la predicción), lo que posteriormente conduciría a la actualización de la predicción. El modelo computacional fue capaz de replicar efectos de campo receptivo bien establecidos, así como efectos de campo receptivo extraclásicos menos comprendidos, como la detención final .
En 2004, [4] Rick Grush propuso un modelo de procesamiento perceptivo neuronal según el cual el cerebro genera constantemente predicciones basadas en un modelo generativo (lo que Grush llamó un "emulador"), y compara esa predicción con la entrada sensorial real. La diferencia, o "residuo sensorial", se utilizaría entonces para actualizar el modelo con el fin de producir una estimación más precisa del dominio percibido. Según Grush, las señales de arriba hacia abajo y de abajo hacia arriba se combinarían de una manera sensible al ruido esperado (también conocido como incertidumbre) en la señal de abajo hacia arriba, de modo que en situaciones en las que se sabía que la señal sensorial era menos confiable, la predicción de arriba hacia abajo tendría mayor peso, y viceversa. También se demostró que el marco de emulación era jerárquico, con emuladores específicos de modalidad que proporcionaban expectativas de arriba hacia abajo para las señales sensoriales, así como emuladores de nivel superior que proporcionaban expectativas de las causas distales de esas señales. Grush aplicó la teoría a la percepción visual, las imágenes visuales y motoras, el lenguaje y los fenómenos de la teoría de la mente.
La codificación predictiva se desarrolló inicialmente como un modelo del sistema sensorial , donde el cerebro resuelve el problema de modelar las causas distales de la entrada sensorial a través de una versión de la inferencia bayesiana . Supone que el cerebro mantiene representaciones internas activas de las causas distales, que le permiten predecir las entradas sensoriales. [5] Una comparación entre las predicciones y la entrada sensorial produce una medida de diferencia (por ejemplo, error de predicción, energía libre o sorpresa) que, si es lo suficientemente grande más allá de los niveles de ruido estadístico esperado, hará que el modelo interno se actualice para predecir mejor la entrada sensorial en el futuro.
Si, en cambio, el modelo predice con precisión las señales sensoriales impulsoras, la actividad en los niveles superiores anula la actividad en los niveles inferiores y el modelo interno permanece inalterado. Por lo tanto, la codificación predictiva invierte la visión convencional de la percepción como un proceso principalmente de abajo hacia arriba, lo que sugiere que está en gran medida limitada por predicciones previas, donde las señales del mundo externo solo dan forma a la percepción en la medida en que se propagan hacia arriba en la jerarquía cortical en forma de error de predicción.
Los errores de predicción no solo se pueden utilizar para inferir causas distales, sino también para aprenderlas a través de la plasticidad neuronal . [3] Aquí la idea es que las representaciones aprendidas por las neuronas corticales reflejan las regularidades estadísticas en los datos sensoriales. Esta idea también está presente en muchas otras teorías de aprendizaje neuronal, como la codificación dispersa , con la diferencia central de que en la codificación predictiva no solo se aprenden las conexiones con las entradas sensoriales (es decir, el campo receptivo ), sino también conexiones predictivas de arriba hacia abajo de representaciones de nivel superior. Esto hace que la codificación predictiva sea similar a algunos otros modelos de aprendizaje jerárquico, como las máquinas de Helmholtz y las redes de creencias profundas , que sin embargo emplean diferentes algoritmos de aprendizaje. Por lo tanto, el uso dual de errores de predicción tanto para la inferencia como para el aprendizaje es una de las características definitorias de la codificación predictiva. [6]
La precisión de la información sensorial entrante es su predictibilidad basada en el ruido de la señal y otros factores. Las estimaciones de la precisión son cruciales para minimizar eficazmente el error de predicción, ya que permiten ponderar las entradas sensoriales y las predicciones según su confiabilidad. [7] Por ejemplo, el ruido en la señal visual varía entre el amanecer y el anochecer, de modo que se asigna una mayor confianza condicional a los errores de predicción sensorial a plena luz del día que al anochecer. [8] Se utilizan enfoques similares con éxito en otros algoritmos que realizan inferencia bayesiana , por ejemplo, para el filtrado bayesiano en el filtro Kalman .
También se ha propuesto que dicha ponderación de los errores de predicción en proporción a su precisión estimada es, en esencia, atención [ 9] y que el proceso de dedicar atención puede lograrse neurobiológicamente mediante sistemas activadores reticulares ascendentes (ARAS) que optimizan la “ganancia” de unidades de error de predicción. Sin embargo, también se ha argumentado que la ponderación de precisión solo puede explicar la “atención espacial endógena”, pero no otras formas de atención [10] .
El mismo principio de minimización de errores de predicción se ha utilizado para explicar una conducta en la que las acciones motoras no son órdenes sino predicciones propioceptivas descendentes. En este esquema de inferencia activa , los arcos reflejos clásicos se coordinan para muestrear selectivamente la entrada sensorial de manera que se cumplan mejor las predicciones, minimizando así los errores de predicción propioceptiva. [9] De hecho, Adams et al. (2013) revisan la evidencia que sugiere que esta visión de la codificación predictiva jerárquica en el sistema motor proporciona un marco de principios y neuralmente plausible para explicar la organización agranular de la corteza motora. [11] Esta visión sugiere que "los sistemas perceptual y motor no deben considerarse separados sino como una única máquina de inferencia activa que intenta predecir su entrada sensorial en todos los dominios: visual, auditivo, somatosensorial, interoceptivo y, en el caso del sistema motor, propioceptivo". [11]
Gran parte del trabajo inicial que aplicó un marco de codificación predictiva a los mecanismos neuronales provino del procesamiento sensorial, particularmente en la corteza visual . [3] [12] Estas teorías suponen que la arquitectura cortical se puede dividir en niveles apilados jerárquicamente, que corresponden a diferentes regiones corticales. Se cree que cada nivel alberga (al menos) dos tipos de neuronas: "neuronas de predicción", que tienen como objetivo predecir las entradas de abajo hacia arriba al nivel actual, y "neuronas de error", que señalan la diferencia entre la entrada y la predicción. Se cree que estas neuronas son principalmente neuronas piramidales superficiales y no superficiales , mientras que las interneuronas asumen diferentes funciones. [12]
Dentro de las regiones corticales, hay evidencia de que diferentes capas corticales pueden facilitar la integración de proyecciones de retroalimentación y retroalimentación a través de jerarquías. [12] Por lo tanto, se ha asumido que estas capas corticales son centrales en el cálculo de predicciones y errores de predicción, siendo la unidad básica una columna cortical . [12] [13] Una visión común es que [12] [14]
Sin embargo, hasta el momento no hay consenso sobre cómo el cerebro probablemente implementa la codificación predictiva. Algunas teorías, por ejemplo, proponen que las capas supragranulares contienen no solo neuronas de error, sino también neuronas de predicción. [12] También se sigue debatiendo a través de qué mecanismos las neuronas de error podrían calcular el error de predicción. [15] Dado que los errores de predicción pueden ser tanto negativos como positivos, pero las neuronas biológicas solo pueden mostrar actividad positiva, se requieren esquemas de codificación de errores más complejos. Para evitar este problema, teorías más recientes han propuesto que el cálculo del error podría tener lugar en las dendritas neuronales . [16] [17] La arquitectura neuronal y los cálculos propuestos en estas teorías dendríticas son similares a lo que se ha propuesto en la teoría de la memoria temporal jerárquica de la corteza.
La evidencia empírica de la codificación predictiva es más sólida en el caso del procesamiento perceptual. Ya en 1999, Rao y Ballard propusieron un modelo de procesamiento visual jerárquico en el que el área cortical visual de orden superior envía predicciones hacia abajo y las conexiones de retroalimentación transmiten los errores residuales entre las predicciones y las actividades reales de nivel inferior. [3] Según este modelo, cada nivel de la red del modelo jerárquico (excepto el nivel más bajo, que representa la imagen) intenta predecir las respuestas en el siguiente nivel inferior a través de conexiones de retroalimentación, y la señal de error se utiliza para corregir la estimación de la señal de entrada en cada nivel simultáneamente. [3] Emberson et al. establecieron la modulación de arriba hacia abajo en bebés utilizando un paradigma de omisión audiovisual intermodal, determinando que incluso los cerebros de los bebés tienen expectativas sobre la entrada sensorial futura que se transmite desde las cortezas visuales y son capaces de una retroalimentación basada en expectativas. [18] Los datos de espectroscopia funcional de infrarrojo cercano (fNIRS) mostraron que la corteza occipital infantil respondió a una omisión visual inesperada (sin entrada de información visual) pero no a una omisión visual esperada. Estos resultados establecen que en un sistema de percepción organizado jerárquicamente, las neuronas de orden superior envían predicciones a las neuronas de orden inferior, que a su vez envían de vuelta la señal de error de predicción.
Han existido varios modelos en competencia sobre el papel de la codificación predictiva en la interocepción .
En 2013, Anil Seth propuso que nuestros estados de ánimo subjetivos, también conocidos como emociones, son generados por modelos predictivos que se construyen activamente a partir de evaluaciones interoceptivas causales. [19] En relación con la forma en que atribuimos los estados internos de los demás a las causas, Sasha Ondobaka, James Kilner y Karl Friston (2015) propusieron que el principio de energía libre requiere que el cerebro produzca una serie continua de predicciones con el objetivo de reducir la cantidad de error de predicción que se manifiesta como "energía libre". [20] Estos errores se utilizan luego para modelar la información anticipatoria sobre cuál será el estado del mundo exterior y las atribuciones de las causas de ese estado mundial, incluida la comprensión de las causas del comportamiento de los demás. Esto es especialmente necesario porque, para crear estas atribuciones, nuestros sistemas sensoriales multimodales necesitan predicciones interoceptivas para organizarse. Por lo tanto, Ondobaka postula que la codificación predictiva es clave para comprender los estados internos de otras personas.
En 2015, Lisa Feldman Barrett y W. Kyle Simmons propusieron el modelo de codificación predictiva de interocepción incorporada, un marco que unifica los principios de inferencia activa bayesiana con un marco fisiológico de conexiones corticocorticales. [21] Utilizando este modelo, postularon que las cortezas visceromotoras agranulares son responsables de generar predicciones sobre la interocepción, definiendo así la experiencia de la interocepción.
Contrariamente a la noción inductiva de que las categorías de emoción son biológicamente distintas, Barrett propuso más tarde la teoría de la emoción construida, que es la explicación de que una categoría de emoción biológica se construye sobre la base de una categoría conceptual: la acumulación de instancias que comparten un objetivo. [22] [23] En un modelo de codificación predictiva, Barrett plantea la hipótesis de que, en la interocepción, nuestros cerebros regulan nuestros cuerpos activando "simulaciones corporizadas" (representaciones corporales de la experiencia sensorial) para anticipar lo que nuestros cerebros predicen que el mundo externo nos arrojará sensorialmente y cómo responderemos a ello con la acción. Estas simulaciones se conservan si, en función de las predicciones de nuestro cerebro, nos preparan bien para lo que realmente ocurre posteriormente en el mundo externo, o bien se ajustan ellas y nuestras predicciones para compensar su error en comparación con lo que realmente ocurre en el mundo externo y lo bien preparados que estábamos para ello. Luego, en un proceso de ensayo-error-ajuste, nuestros cuerpos encuentran similitudes en los objetivos entre ciertas simulaciones anticipatorias exitosas y las agrupan bajo categorías conceptuales. Cada vez que surge una nueva experiencia, nuestro cerebro utiliza este historial de ensayo-error-ajuste para hacer coincidir la nueva experiencia con una de las categorías de simulaciones corregidas acumuladas con las que comparte más similitudes. Luego, aplica la simulación corregida de esa categoría a la nueva experiencia con la esperanza de preparar nuestro cuerpo para el resto de la experiencia. Si no es así, la predicción, la simulación y tal vez los límites de la categoría conceptual se revisan con la esperanza de una mayor precisión la próxima vez, y el proceso continúa. Barrett plantea la hipótesis de que, cuando se minimiza el error de predicción para una determinada categoría de simulaciones para experiencias similares a x, lo que resulta es una simulación informada por la corrección que el cuerpo volverá a representar para cada experiencia similar a x, lo que da como resultado una representación corporal completa informada por la corrección de la experiencia sensorial: una emoción. En este sentido, Barrett propone que construimos nuestras emociones porque el marco de categorías conceptuales que nuestro cerebro utiliza para comparar nuevas experiencias y elegir la simulación sensorial predictiva adecuada para activar, se construye sobre la marcha.
Con la creciente popularidad del aprendizaje de representación , la teoría también se ha perseguido y aplicado activamente en el aprendizaje automático y campos relacionados. [24] [25] [26]
Uno de los mayores desafíos para probar la codificación predictiva ha sido la imprecisión de cómo funciona exactamente la minimización del error de predicción. [27] En algunos estudios, el aumento de la señal BOLD se ha interpretado como una señal de error, mientras que en otros indica cambios en la representación de entrada. [27] Una pregunta crucial que debe abordarse es qué constituye exactamente la señal de error y cómo se calcula en cada nivel de procesamiento de la información. [12] Otro desafío que se ha planteado es la manejabilidad computacional de la codificación predictiva. Según Kwisthout y van Rooij, el subcómputo en cada nivel del marco de codificación predictiva esconde potencialmente un problema computacionalmente intratable, lo que equivale a "obstáculos intratables" que los modeladores computacionales aún deben superar. [28]
Las investigaciones futuras podrían centrarse en aclarar el mecanismo neurofisiológico y el modelo computacional de la codificación predictiva. [ ¿según quién? ]