Los enfoques bayesianos de la función cerebral investigan la capacidad del sistema nervioso para operar en situaciones de incertidumbre de una manera cercana al óptimo prescrito por las estadísticas bayesianas . [1] [2] Este término se utiliza en las ciencias del comportamiento y la neurociencia y los estudios asociados con este término a menudo se esfuerzan por explicar las capacidades cognitivas del cerebro basándose en principios estadísticos. Con frecuencia se supone que el sistema nervioso mantiene modelos probabilísticos internos que se actualizan mediante el procesamiento neuronal de información sensorial utilizando métodos que se aproximan a los de la probabilidad bayesiana . [3] [4]
Este campo de estudio tiene sus raíces históricas en numerosas disciplinas, incluido el aprendizaje automático , la psicología experimental y la estadística bayesiana . Ya en la década de 1860, con el trabajo de Hermann Helmholtz en psicología experimental, la capacidad del cerebro para extraer información perceptiva a partir de datos sensoriales se modeló en términos de estimación probabilística. [5] [6] La idea básica es que el sistema nervioso necesita organizar los datos sensoriales en un modelo interno preciso del mundo exterior.
La probabilidad bayesiana ha sido desarrollada por muchos contribuyentes importantes. Pierre-Simon Laplace , Thomas Bayes , Harold Jeffreys , Richard Cox y Edwin Jaynes desarrollaron técnicas y procedimientos matemáticos para tratar la probabilidad como el grado de plausibilidad que podría asignarse a una suposición o hipótesis determinada con base en la evidencia disponible. [7] En 1988, Edwin Jaynes presentó un marco para utilizar la probabilidad bayesiana para modelar procesos mentales. [8] Así, desde el principio se comprendió que el marco estadístico bayesiano tiene el potencial de conducir a conocimientos sobre la función del sistema nervioso.
Esta idea fue retomada en investigaciones sobre aprendizaje no supervisado , en particular el enfoque de Análisis por Síntesis, ramas del aprendizaje automático . [9] [10] En 1983, Geoffrey Hinton y sus colegas propusieron que el cerebro podría verse como una máquina que toma decisiones basadas en las incertidumbres del mundo exterior. [11] Durante la década de 1990, investigadores como Peter Dayan , Geoffrey Hinton y Richard Zemel propusieron que el cerebro representa el conocimiento del mundo en términos de probabilidades e hicieron propuestas específicas para procesos neuronales manejables que podrían manifestarse en una máquina de Helmholtz . [12] [13] [14]
Una amplia gama de estudios interpreta los resultados de experimentos psicofísicos a la luz de modelos perceptivos bayesianos. Muchos aspectos del comportamiento motor y perceptivo humano se pueden modelar con estadísticas bayesianas. Este enfoque, con su énfasis en los resultados conductuales como expresión última del procesamiento de información neuronal, también es conocido por modelar decisiones sensoriales y motoras utilizando la teoría de la decisión bayesiana. Ejemplos son el trabajo de Landy , [15] [16] Jacobs, [17] [18] Jordan, Knill, [19] [20] Kording y Wolpert, [21] [22] y Goldreich. [23] [24] [25]
Muchos estudios teóricos se preguntan cómo el sistema nervioso podría implementar algoritmos bayesianos. Ejemplos de ello son los trabajos de Pouget, Zemel, Deneve, Latham, Hinton y Dayan. George y Hawkins publicaron un artículo que establece un modelo de procesamiento de información cortical llamado memoria temporal jerárquica que se basa en la red bayesiana de cadenas de Markov . Además, relacionan este modelo matemático con el conocimiento existente sobre la arquitectura de la corteza y muestran cómo las neuronas podrían reconocer patrones mediante inferencia bayesiana jerárquica. [26]
Varios estudios electrofisiológicos recientes se centran en la representación de probabilidades en el sistema nervioso. Ejemplos de ello son los trabajos de Shadlen y Schultz.
La codificación predictiva es un esquema neurobiológicamente plausible para inferir las causas de la información sensorial basándose en minimizar el error de predicción. [27] Estos esquemas están relacionados formalmente con el filtrado de Kalman y otros esquemas de actualización bayesianos.
Durante la década de 1990, algunos investigadores como Geoffrey Hinton y Karl Friston comenzaron a examinar el concepto de energía libre como una medida calculable y manejable de la discrepancia entre las características reales del mundo y las representaciones de esas características capturadas por los modelos de redes neuronales. [28] Karl Friston ha intentado recientemente una síntesis [29] , en la que el cerebro bayesiano emerge de un principio general de minimización de energía libre . [30] En este marco, tanto la acción como la percepción se consideran una consecuencia de la supresión de la energía libre, lo que conduce a una inferencia perceptual [31] y activa [32] y a una visión más encarnada (enactiva) del cerebro bayesiano. Utilizando métodos bayesianos variacionales , se puede mostrar cómo los modelos internos del mundo se actualizan mediante información sensorial para minimizar la energía libre o la discrepancia entre la entrada sensorial y las predicciones de esa entrada. Esto puede expresarse (en términos neurobiológicamente plausibles) como codificación predictiva o, más generalmente, filtrado bayesiano.
Según Friston: [33]
"La energía libre considerada aquí representa un límite a la sorpresa inherente a cualquier intercambio con el medio ambiente, bajo expectativas codificadas por su estado o configuración. Un sistema puede minimizar la energía libre cambiando su configuración para cambiar la forma en que toma muestras del medio ambiente, o cambiar sus expectativas. Estos cambios corresponden a la acción y la percepción, respectivamente, y conducen a un intercambio adaptativo con el entorno que es característico de los sistemas biológicos. Este tratamiento implica que el estado y la estructura del sistema codifican un modelo implícito y probabilístico del entorno. " [33]
Esta área de investigación se resumió en términos comprensibles para el profano en un artículo de 2008 en New Scientist que ofrecía una teoría unificadora de la función cerebral. [34] Friston hace las siguientes afirmaciones sobre el poder explicativo de la teoría:
"Este modelo de función cerebral puede explicar una amplia gama de aspectos anatómicos y fisiológicos de los sistemas cerebrales; por ejemplo, el despliegue jerárquico de áreas corticales, arquitecturas recurrentes que utilizan conexiones hacia adelante y hacia atrás y asimetrías funcionales en estas conexiones. En términos de fisiología sináptica, predice la plasticidad asociativa y, para los modelos dinámicos, la plasticidad dependiente del tiempo de pico. En términos de electrofisiología, explica los efectos de campo receptivo clásicos y extraclásicos y los componentes endógenos o de larga latencia de las respuestas corticales evocadas. codifica el error de predicción con el aprendizaje perceptual y explica muchos fenómenos como la supresión de repeticiones, la negatividad de desajuste y el P300 en electroencefalografía, en términos psicofísicos, explica los correlatos conductuales de estos fenómenos fisiológicos, por ejemplo, priming y precedencia global. [33]
"Es bastante fácil demostrar que tanto la inferencia perceptual como el aprendizaje se basan en la minimización de la energía libre o la supresión del error de predicción". [33]