Los enfoques bayesianos para la función cerebral investigan la capacidad del sistema nervioso para operar en situaciones de incertidumbre de una manera cercana al óptimo prescrito por las estadísticas bayesianas . [1] [2] Este término se utiliza en las ciencias del comportamiento y la neurociencia y los estudios asociados con este término a menudo intentan explicar las capacidades cognitivas del cerebro basándose en principios estadísticos. Con frecuencia se supone que el sistema nervioso mantiene modelos probabilísticos internos que se actualizan mediante el procesamiento neuronal de la información sensorial utilizando métodos que se aproximan a los de la probabilidad bayesiana . [3] [4]
Este campo de estudio tiene sus raíces históricas en numerosas disciplinas, entre ellas el aprendizaje automático , la psicología experimental y la estadística bayesiana . Ya en la década de 1860, con el trabajo de Hermann Helmholtz en psicología experimental, la capacidad del cerebro para extraer información perceptiva de los datos sensoriales se modeló en términos de estimación probabilística. [5] [6] La idea básica es que el sistema nervioso necesita organizar los datos sensoriales en un modelo interno preciso del mundo exterior.
La probabilidad bayesiana ha sido desarrollada por muchos contribuyentes importantes. Pierre-Simon Laplace , Thomas Bayes , Harold Jeffreys , Richard Cox y Edwin Jaynes desarrollaron técnicas y procedimientos matemáticos para tratar la probabilidad como el grado de plausibilidad que podría asignarse a una suposición o hipótesis dada en función de la evidencia disponible. [7] En 1988, Edwin Jaynes presentó un marco para usar la probabilidad bayesiana para modelar los procesos mentales. [8] Por lo tanto, se comprendió desde el principio que el marco estadístico bayesiano tiene el potencial de conducir a conocimientos sobre la función del sistema nervioso.
Esta idea fue retomada en la investigación sobre aprendizaje no supervisado , en particular el enfoque de Análisis por Síntesis, ramas del aprendizaje automático . [9] [10] En 1983, Geoffrey Hinton y sus colegas propusieron que el cerebro podría verse como una máquina que toma decisiones basadas en las incertidumbres del mundo exterior. [11] Durante la década de 1990, investigadores como Peter Dayan , Geoffrey Hinton y Richard Zemel propusieron que el cerebro representa el conocimiento del mundo en términos de probabilidades e hicieron propuestas específicas para procesos neuronales manejables que podrían manifestar una máquina de Helmholtz . [12] [13] [14]
Una amplia gama de estudios interpretan los resultados de experimentos psicofísicos a la luz de los modelos perceptuales bayesianos. Muchos aspectos del comportamiento perceptual y motor humano pueden modelarse con estadísticas bayesianas. Este enfoque, con su énfasis en los resultados conductuales como las expresiones últimas del procesamiento de la información neuronal, también es conocido por modelar decisiones sensoriales y motoras utilizando la teoría de decisión bayesiana. Algunos ejemplos son el trabajo de Landy , [15] [16] Jacobs, [17] [18] Jordan, Knill, [19] [20] Kording y Wolpert, [21] [22] y Goldreich. [23] [24] [25]
Muchos estudios teóricos se preguntan cómo el sistema nervioso podría implementar algoritmos bayesianos. Ejemplos de ello son el trabajo de Pouget, Zemel, Deneve, Latham, Hinton y Dayan. George y Hawkins publicaron un artículo que establece un modelo de procesamiento de información cortical llamado memoria temporal jerárquica que se basa en la red bayesiana de cadenas de Markov . Además, mapean este modelo matemático al conocimiento existente sobre la arquitectura de la corteza y muestran cómo las neuronas podrían reconocer patrones mediante inferencia bayesiana jerárquica. [26]
Numerosos estudios electrofisiológicos recientes se centran en la representación de probabilidades en el sistema nervioso. Ejemplos de ello son los trabajos de Shadlen y Schultz.
La codificación predictiva es un esquema neurobiológicamente plausible para inferir las causas de la entrada sensorial basándose en la minimización del error de predicción. [27] Estos esquemas están relacionados formalmente con el filtrado de Kalman y otros esquemas de actualización bayesianos.
Durante la década de 1990, algunos investigadores como Geoffrey Hinton y Karl Friston comenzaron a examinar el concepto de energía libre como una medida calculable y manejable de la discrepancia entre las características reales del mundo y las representaciones de esas características capturadas por los modelos de redes neuronales. [28] Karl Friston ha intentado recientemente una síntesis [29] , en la que el cerebro bayesiano emerge de un principio general de minimización de la energía libre . [30] En este marco, tanto la acción como la percepción se consideran una consecuencia de la supresión de la energía libre, lo que conduce a la inferencia perceptiva [31] y activa [32] y a una visión más encarnada (enactiva) del cerebro bayesiano. Utilizando métodos bayesianos variacionales , se puede demostrar cómo los modelos internos del mundo se actualizan mediante información sensorial para minimizar la energía libre o la discrepancia entre la entrada sensorial y las predicciones de esa entrada. Esto se puede plantear (en términos neurobiológicamente plausibles) como codificación predictiva o, de forma más general, filtrado bayesiano.
Según Friston: [33]
"La energía libre considerada aquí representa un límite a la sorpresa inherente a cualquier intercambio con el entorno, bajo expectativas codificadas por su estado o configuración. Un sistema puede minimizar la energía libre modificando su configuración para cambiar la forma en que muestrea el entorno, o para cambiar sus expectativas. Estos cambios corresponden a la acción y la percepción, respectivamente, y conducen a un intercambio adaptativo con el entorno característico de los sistemas biológicos. Este tratamiento implica que el estado y la estructura del sistema codifican un modelo implícito y probabilístico del entorno." [33]
Esta área de investigación fue resumida en términos comprensibles para el profano en un artículo de 2008 en New Scientist que ofrecía una teoría unificadora de la función cerebral. [34] Friston hace las siguientes afirmaciones sobre el poder explicativo de la teoría:
"Este modelo de la función cerebral puede explicar una amplia gama de aspectos anatómicos y fisiológicos de los sistemas cerebrales; por ejemplo, el despliegue jerárquico de las áreas corticales, las arquitecturas recurrentes que utilizan conexiones hacia delante y hacia atrás y las asimetrías funcionales en estas conexiones. En términos de fisiología sináptica, predice la plasticidad asociativa y, para los modelos dinámicos, la plasticidad dependiente del tiempo de los picos. En términos de electrofisiología, explica los efectos del campo receptivo clásicos y extraclásicos y los componentes de latencia prolongada o endógenos de las respuestas corticales evocadas. Predice la atenuación de las respuestas que codifican el error de predicción con el aprendizaje perceptivo y explica muchos fenómenos como la supresión de la repetición, la negatividad de los desajustes y el P300 en la electroencefalografía. En términos psicofísicos, explica los correlatos conductuales de estos fenómenos fisiológicos, por ejemplo, la preparación y la precedencia global". [33]
"Es bastante fácil demostrar que tanto la inferencia perceptiva como el aprendizaje se basan en la minimización de la energía libre o la supresión del error de predicción". [33]