stringtranslate.com

Codificación neuronal

La codificación neuronal (o representación neuronal ) es un campo de la neurociencia que se ocupa de caracterizar la relación hipotética entre el estímulo y las respuestas neuronales, y la relación entre las actividades eléctricas de las neuronas del conjunto . [1] [2] Basado en la teoría de que la información sensorial y de otro tipo está representada en el cerebro por redes de neuronas , se cree que las neuronas pueden codificar información tanto digital como analógica . [3]

Descripción general

Las neuronas tienen una capacidad poco común entre las células del cuerpo para propagar señales rápidamente a grandes distancias generando pulsos eléctricos característicos llamados potenciales de acción : picos de voltaje que pueden viajar a lo largo de los axones. Las neuronas sensoriales cambian sus actividades disparando secuencias de potenciales de acción en diversos patrones temporales, con la presencia de estímulos sensoriales externos, como la luz , el sonido , el gusto , el olfato y el tacto . La información sobre el estímulo está codificada en este patrón de potenciales de acción y se transmite dentro y alrededor del cerebro. Más allá de esto, las neuronas especializadas, como las de la retina, pueden comunicar más información a través de potenciales graduados . Estos se diferencian de los potenciales de acción porque la información sobre la fuerza de un estímulo se correlaciona directamente con la fuerza de la salida de las neuronas. La señal decae mucho más rápido para los potenciales graduados, lo que requiere distancias interneuronales cortas y una alta densidad neuronal. La ventaja de los potenciales graduados son tasas de información más altas capaces de codificar más estados (es decir, mayor fidelidad) que las neuronas activadas. [4]

Aunque los potenciales de acción pueden variar algo en duración, amplitud y forma, normalmente se tratan como eventos estereotipados idénticos en los estudios de codificación neuronal. Si se ignora la breve duración de un potencial de acción (alrededor de 1 ms), una secuencia de potencial de acción, o tren de picos, puede caracterizarse simplemente por una serie de eventos puntuales de todo o nada en el tiempo. [5] Las longitudes de los intervalos entre picos ( ISI ) entre dos picos sucesivos en un tren de picos a menudo varían, aparentemente de forma aleatoria. [6] El estudio de la codificación neuronal implica medir y caracterizar cómo los atributos del estímulo, como la intensidad de la luz o el sonido, o las acciones motoras, como la dirección del movimiento de un brazo, están representados por potenciales de acción neuronal o picos. Para describir y analizar la activación neuronal, se han aplicado ampliamente métodos estadísticos y métodos de teoría de probabilidad y procesos puntuales estocásticos.

Con el desarrollo de tecnologías de decodificación y grabación neuronal a gran escala, los investigadores han comenzado a descifrar el código neuronal y ya han proporcionado el primer vistazo al código neuronal en tiempo real a medida que la memoria se forma y se recupera en el hipocampo, una región del cerebro conocida por ser central para la formación de la memoria. [7] [8] [9] Los neurocientíficos han iniciado varios proyectos de decodificación cerebral a gran escala. [10] [11]

Codificación y decodificación

El vínculo entre estímulo y respuesta puede estudiarse desde dos puntos de vista opuestos. La codificación neuronal se refiere al mapa que va del estímulo a la respuesta. El objetivo principal es comprender cómo responden las neuronas a una amplia variedad de estímulos y construir modelos que intenten predecir respuestas a otros estímulos. La decodificación neuronal se refiere al mapa inverso, desde la respuesta al estímulo, y el desafío es reconstruir un estímulo, o ciertos aspectos de ese estímulo, a partir de las secuencias de picos que evoca.

Esquemas de codificación hipotéticos

Una secuencia, o "tren", de picos puede contener información basada en diferentes esquemas de codificación. En algunas neuronas, la fuerza con la que responde una pareja postsináptica puede depender únicamente de la "tasa de activación", el número medio de picos por unidad de tiempo (un "código de velocidad"). En el otro extremo, un " código temporal " complejo se basa en la sincronización precisa de picos individuales. Pueden estar vinculados a un estímulo externo, como en el sistema visual [12] y auditivo , o ser generados intrínsecamente por los circuitos neuronales. [13]

Si las neuronas utilizan codificación de velocidad o codificación temporal es un tema de intenso debate dentro de la comunidad de neurociencia, aunque no existe una definición clara de lo que significan estos términos. [14]

Teoría de la autoinformación neuronal para la codificación neuronal de la cognición en tiempo real

Tradicionalmente, el código de velocidad, en el que se promediaban los rásteres de picos de disparo a lo largo de múltiples pruebas para superar la variabilidad de disparo, se propuso como una forma para que los científicos analizaran las propiedades de sintonización de una neurona determinada. Sin embargo, es obvio que el código de velocidad no es lo que el cerebro realmente utiliza para representar cogniciones en tiempo real porque las neuronas descargan picos con enorme variabilidad no sólo entre ensayos dentro de los mismos experimentos sino también en estados de reposo. Esta variabilidad se considera ampliamente como un ruido que a menudo se promedia deliberadamente durante los análisis de datos mediante el método de codificación de tasas (consulte la sección siguiente).

Para resolver este problema fundamental, Joe Z. Tsien ha propuesto recientemente la Teoría de la Autoinformación Neural, que afirma que el intervalo entre picos (ISI), o la duración del silencio entre dos picos contiguos, conlleva una autoinformación que es inversamente proporcional a su variabilidad-probabilidad. Específicamente, los ISI de mayor probabilidad transmiten información mínima porque reflejan el estado fundamental, mientras que los ISI de menor probabilidad transmiten más información, en forma de sorpresas "positivas" o "negativas", lo que significa cambios excitadores o inhibidores desde el estado fundamental, respectivamente. . Estas sorpresas sirven como cuantos de información para construir códigos ternarios de ensamblaje celular coordinados temporalmente que representan cogniciones en tiempo real. [15]

En consecuencia, Tsien ideó un método de decodificación general y descubrió de manera imparcial 15 conjuntos de células subyacentes a diferentes ciclos de sueño, experiencias de memoria de miedo, navegación espacial y comportamientos de discriminación visual de tiempo de reacción en serie de 5 opciones (5CSRT). Su equipo reveló que las sorpresas del ISI generadas por ~20% de las colas sesgadas de distribución gamma del ISI generaron códigos robustos de ensamblaje de células, conforme al "Principio de Pareto" que especifica, para muchos eventos, incluida la comunicación, aproximadamente el 80% de la Los resultados o consecuencias provienen del 20% de los insumos o causas. Estos resultados demuestran que los códigos neuronales en tiempo real surgen del ensamblaje temporal de miembros de la camarilla neuronal a través del principio de autoinformación basado en la variabilidad ISI. [dieciséis]

Otro beneficio importante del principio de codificación de autoinformación neuronal es que dicha información a nivel cognitivo puede acoplarse naturalmente y extenderse a los principios básicos que subyacen a las cascadas bioquímicas intracelulares, el equilibrio energético y la regulación dinámica de los niveles de expresión de proteínas y genes. Como tal, este código de autoinformación basado en la variabilidad es completamente intrínseco a las propias neuronas, sin necesidad de que observadores externos establezcan ningún punto de referencia como se usa típicamente en los modelos de código de velocidad, código de población y código temporal. Además, las sorpresas de ISI coordinadas temporalmente en toda la población celular pueden dar lugar inherentemente a códigos robustos de ensamblaje celular en tiempo real que pueden ser detectados fácilmente por los ensamblajes de camarillas neuronales posteriores.

Vista tradicional: código de tarifa

El modelo de codificación de velocidad de comunicación de activación neuronal establece que a medida que aumenta la intensidad de un estímulo, aumenta la frecuencia o tasa de los potenciales de acción , o "disparo de picos". La codificación de tarifas a veces se denomina codificación de frecuencia.

La codificación de velocidad es un esquema de codificación tradicional, que supone que la mayor parte, si no toda, la información sobre el estímulo está contenida en la velocidad de activación de la neurona. Debido a que la secuencia de potenciales de acción generados por un estímulo determinado varía de un ensayo a otro, las respuestas neuronales suelen tratarse de forma estadística o probabilística. Pueden caracterizarse por tasas de activación, en lugar de secuencias de picos específicas. En la mayoría de los sistemas sensoriales, la tasa de activación aumenta, generalmente de forma no lineal, al aumentar la intensidad del estímulo. [17] Bajo el supuesto de codificación de velocidad, se ignora cualquier información posiblemente codificada en la estructura temporal del tren de púas. En consecuencia, la codificación de tasas es ineficiente pero muy robusta con respecto al ' ruido ' ISI. [6]

Durante la codificación de la velocidad, es muy importante calcular con precisión la velocidad de disparo. De hecho, el término "tasa de activación" tiene algunas definiciones diferentes, que se refieren a diferentes procedimientos de promediación, como un promedio a lo largo del tiempo (tasa como recuento de picos de una sola neurona) o un promedio a lo largo de varias repeticiones (tasa de PSTH) de experimento.

En la codificación de tasas, el aprendizaje se basa en modificaciones del peso sináptico dependientes de la actividad.

La codificación de velocidades fue mostrada originalmente por Edgar Adrian e Yngve Zotterman en 1926. [18] En este sencillo experimento se colgaron diferentes pesos de un músculo . A medida que aumentaba el peso del estímulo, también aumentaba el número de picos registrados por los nervios sensoriales que inervan el músculo. A partir de estos experimentos originales, Adrian y Zotterman concluyeron que los potenciales de acción eran eventos unitarios y que la frecuencia de los eventos, y no la magnitud de los eventos individuales, era la base de la mayor parte de la comunicación interneuronal.

En las décadas siguientes, la medición de las tasas de activación se convirtió en una herramienta estándar para describir las propiedades de todo tipo de neuronas sensoriales o corticales , en parte debido a la relativa facilidad de medir las tasas de forma experimental. Sin embargo, este enfoque ignora toda la información posiblemente contenida en el momento exacto de los picos. Durante los últimos años, cada vez más evidencia experimental ha sugerido que un concepto sencillo de tasa de activación basado en un promedio temporal puede ser demasiado simplista para describir la actividad cerebral. [6]

Tasa de recuento de picos (promedio a lo largo del tiempo)

La tasa de recuento de picos, también conocida como promedio temporal, se obtiene contando el número de picos que aparecen durante una prueba y dividiéndolo por la duración de la prueba. [14] La duración T de la ventana de tiempo la establece el experimentador y depende del tipo de neurona registrada desde y hacia el estímulo. En la práctica, para obtener promedios razonables, deberían ocurrir varios picos dentro de la ventana de tiempo. Los valores típicos son T = 100 ms o T = 500 ms, pero la duración también puede ser mayor o menor (Capítulo 1.5 del libro de texto 'Spiking Neuron Models' [14] ).

La tasa de recuento de picos se puede determinar a partir de una sola prueba, pero a costa de perder toda resolución temporal sobre las variaciones en la respuesta neuronal durante el curso de la prueba. El promedio temporal puede funcionar bien en los casos en que el estímulo es constante o varía lentamente y no requiere una reacción rápida del organismo , y ésta es la situación que suele encontrarse en los protocolos experimentales. Sin embargo, los aportes del mundo real no son estacionarios, sino que a menudo cambian en una rápida escala de tiempo. Por ejemplo, incluso cuando vemos una imagen estática, los humanos realizan movimientos sacádicos , cambios rápidos en la dirección de la mirada. Por lo tanto , la imagen proyectada en los fotorreceptores de la retina cambia cada pocos cientos de milisegundos (Capítulo 1.5 en [14] ).

A pesar de sus deficiencias, el concepto de código de tasa de conteo de picos se usa ampliamente no solo en experimentos, sino también en modelos de redes neuronales . Ha llevado a la idea de que una neurona transforma información sobre una única variable de entrada (la intensidad del estímulo) en una única variable de salida continua (la tasa de activación).

Cada vez hay más pruebas de que en las neuronas de Purkinje , al menos, la información no está codificada simplemente en la activación, sino también en el momento y la duración de los períodos de inactividad y de inactividad. [19] [20] También hay evidencia de las células de la retina de que la información está codificada no solo en la velocidad de disparo sino también en el momento del pico. [21] De manera más general, siempre que se requiere una respuesta rápida de un organismo, una velocidad de disparo definida como un conteo de picos durante unos pocos cientos de milisegundos es simplemente demasiado lenta. [14]

Tasa de disparo dependiente del tiempo (promedio de varias pruebas)

La tasa de disparo dependiente del tiempo se define como el número promedio de picos (promediado durante las pruebas) que aparecen durante un intervalo corto entre los tiempos t y t+Δt, dividido por la duración del intervalo. [14] Funciona tanto para estímulos estacionarios como para estímulos dependientes del tiempo. Para medir experimentalmente la tasa de activación dependiente del tiempo, el experimentador registra desde una neurona mientras la estimula con alguna secuencia de entrada. La misma secuencia de estimulación se repite varias veces y la respuesta neuronal se informa en un histograma de tiempo de estímulo (PSTH). El tiempo t se mide con respecto al inicio de la secuencia de estimulación. El Δt debe ser lo suficientemente grande (normalmente en el rango de uno o unos pocos milisegundos) para que haya un número suficiente de picos dentro del intervalo para obtener una estimación confiable del promedio. El número de apariciones de picos n K (t;t+Δt) sumado en todas las repeticiones del experimento dividido por el número K de repeticiones es una medida de la actividad típica de la neurona entre el tiempo t y t+Δt. Una división adicional por la longitud del intervalo Δt produce una tasa de activación r(t) de la neurona dependiente del tiempo, que es equivalente a la densidad de picos de PSTH (Capítulo 1.5 en [14] ).

Para Δt suficientemente pequeño, r(t)Δt es el número promedio de picos que ocurren entre los tiempos t y t+Δt en múltiples ensayos. Si Δt es pequeño, nunca habrá más de un pico dentro del intervalo entre t y t+Δt en cualquier ensayo determinado. Esto significa que r(t)Δt es también la fracción de ensayos en los que se produjo un pico entre esos momentos. De manera equivalente, r(t)Δt es la probabilidad de que ocurra un pico durante este intervalo de tiempo.

Como procedimiento experimental, la medida de la tasa de activación dependiente del tiempo es un método útil para evaluar la actividad neuronal, en particular en el caso de estímulos dependientes del tiempo. El problema obvio de este enfoque es que no puede ser el esquema de codificación utilizado por las neuronas del cerebro. Las neuronas no pueden esperar a que los estímulos se presenten repetidamente exactamente de la misma manera antes de generar una respuesta. [14]

Sin embargo, la medida experimental de la tasa de activación dependiente del tiempo puede tener sentido si hay grandes poblaciones de neuronas independientes que reciben el mismo estímulo. En lugar de registrar una población de N neuronas en una sola ejecución, experimentalmente es más fácil registrar una sola neurona y promediar N ejecuciones repetidas. Por lo tanto, la codificación de la tasa de activación dependiente del tiempo se basa en la suposición implícita de que siempre hay poblaciones de neuronas.

Codificación temporal

Cuando se descubre que la sincronización precisa de los picos o las fluctuaciones de la tasa de disparo de alta frecuencia transportan información, el código neuronal a menudo se identifica como un código temporal. [14] [22] Varios estudios han encontrado que la resolución temporal del código neuronal está en una escala de tiempo de milisegundos, lo que indica que la sincronización precisa de los picos es un elemento importante en la codificación neuronal. [3] [23] [21] Estos códigos, que se comunican a través del tiempo entre picos, también se conocen como códigos de intervalo entre pulsos y han sido respaldados por estudios recientes. [24]

Las neuronas exhiben fluctuaciones de alta frecuencia en la velocidad de activación que podrían ser ruido o transportar información. Los modelos de codificación de tasas sugieren que estas irregularidades son ruido, mientras que los modelos de codificación temporal sugieren que codifican información. Si el sistema nervioso solo usara códigos de velocidad para transmitir información, una velocidad de activación más consistente y regular habría sido evolutivamente ventajosa, y las neuronas habrían utilizado este código sobre otras opciones menos robustas. [25] La codificación temporal proporciona una explicación alternativa para el "ruido", lo que sugiere que en realidad codifica información y afecta el procesamiento neuronal. Para modelar esta idea, se pueden usar símbolos binarios para marcar los picos: 1 para un pico, 0 para ningún pico La codificación temporal permite que la secuencia 000111000111 signifique algo diferente de 001100110011, aunque la velocidad media de activación es la misma para ambas secuencias, 6 picos/10 ms [26] . Hasta hace poco, los científicos habían puesto mayor énfasis en la codificación de velocidad. una explicación para los patrones de potencial postsinápticos . Sin embargo, las funciones del cerebro son más precisas temporalmente de lo que parece permitir el uso de codificación de frecuencia [21] . En otras palabras, la información esencial podría perderse debido a la incapacidad del código de frecuencia . para capturar toda la información disponible del tren de picos. Además, las respuestas son lo suficientemente diferentes entre estímulos similares (pero no idénticos) para sugerir que los distintos patrones de picos contienen un volumen de información mayor que el que es posible incluir en un código de tasa. [27]

Los códigos temporales (también llamados códigos de picos [14] ) emplean aquellas características de la actividad de picos que no pueden describirse mediante la tasa de disparo. Por ejemplo, tiempo hasta el primer pico después del inicio del estímulo, fase de disparo con respecto a las oscilaciones de fondo, características basadas en el segundo momento estadístico y en momentos superiores de la distribución de probabilidad ISI , aleatoriedad de picos o grupos de picos sincronizados con precisión. ( patrones temporales ) son candidatos a códigos temporales. [28] Como no existe una referencia de tiempo absoluta en el sistema nervioso, la información se transmite en términos del momento relativo de los picos en una población de neuronas (patrones temporales) o con respecto a una oscilación cerebral en curso (fase de disparo). . [3] [6] Una forma en que se decodifican los códigos temporales, en presencia de oscilaciones neuronales , es que los picos que ocurren en fases específicas de un ciclo oscilatorio son más efectivos para despolarizar la neurona postsináptica . [29]

La estructura temporal de un tren de púas o tasa de disparo evocada por un estímulo está determinada tanto por la dinámica del estímulo como por la naturaleza del proceso de codificación neuronal. Los estímulos que cambian rápidamente tienden a generar picos sincronizados con precisión [30] (y tasas de activación que cambian rápidamente en los PSTH) sin importar qué estrategia de codificación neuronal se esté utilizando. La codificación temporal en sentido estricto se refiere a la precisión temporal en la respuesta que no surge únicamente de la dinámica del estímulo, sino que, sin embargo, se relaciona con las propiedades del estímulo. La interacción entre el estímulo y la dinámica de codificación dificulta la identificación de un código temporal.

En la codificación temporal, el aprendizaje puede explicarse mediante modificaciones del retraso sináptico dependientes de la actividad. [31] Las modificaciones pueden depender no sólo de las tasas de picos (codificación de tasas) sino también de los patrones de sincronización de picos (codificación temporal), es decir, pueden ser un caso especial de plasticidad dependiente de la sincronización de picos . [32]

La cuestión de la codificación temporal es distinta e independiente de la cuestión de la codificación de picos independientes. Si cada pico es independiente de todos los demás picos del tren, el carácter temporal del código neuronal está determinado por el comportamiento de la tasa de disparo r(t) dependiente del tiempo. Si r(t) varía lentamente con el tiempo, el código normalmente se llama código de tasa, y si varía rápidamente, el código se llama temporal.

Codificación temporal en sistemas sensoriales.

Para estímulos muy breves, la velocidad máxima de activación de una neurona puede no ser lo suficientemente rápida como para producir más de un pico. Debido a la densidad de información sobre el estímulo abreviado contenido en este único pico, parecería que el momento del pico en sí tendría que transmitir más información que simplemente la frecuencia promedio de los potenciales de acción durante un período de tiempo determinado. Este modelo es especialmente importante para la localización del sonido , que ocurre dentro del cerebro en el orden de milisegundos. El cerebro debe obtener una gran cantidad de información basándose en una respuesta neuronal relativamente corta. Además, si se deben distinguir tasas de activación bajas del orden de diez picos por segundo de una codificación de velocidad arbitrariamente cercana para diferentes estímulos, entonces una neurona que intenta discriminar estos dos estímulos puede necesitar esperar un segundo o más para acumular suficiente información. Esto no es consistente con numerosos organismos que son capaces de discriminar entre estímulos en el marco de tiempo de milisegundos, lo que sugiere que un código de velocidad no es el único modelo en funcionamiento. [26]

Para explicar la rápida codificación de los estímulos visuales, se ha sugerido que las neuronas de la retina codifican información visual en el tiempo de latencia entre el inicio del estímulo y el primer potencial de acción, también llamado latencia hasta el primer pico o tiempo hasta el primer pico. [33] Este tipo de codificación temporal se ha demostrado también en el sistema auditivo y somatosensorial. El principal inconveniente de dicho esquema de codificación es su sensibilidad a las fluctuaciones neuronales intrínsecas. [34] En la corteza visual primaria de los macacos, se encontró que el momento del primer pico en relación con el inicio del estímulo proporciona más información que el intervalo entre picos. Sin embargo, el intervalo entre picos podría usarse para codificar información adicional, lo cual es especialmente importante cuando la tasa de picos alcanza su límite, como en situaciones de alto contraste. Por esta razón, la codificación temporal puede desempeñar un papel en la codificación de bordes definidos en lugar de transiciones graduales. [35]

El sistema gustativo de los mamíferos es útil para estudiar la codificación temporal debido a sus estímulos bastante distintos y las respuestas fácilmente discernibles del organismo. [36] La información codificada temporalmente puede ayudar a un organismo a discriminar entre diferentes sabores de la misma categoría (dulce, amargo, ácido, salado, umami) que provocan respuestas muy similares en términos de recuento de picos. El componente temporal del patrón provocado por cada saborizante puede usarse para determinar su identidad (por ejemplo, la diferencia entre dos saborizantes amargos, como la quinina y el denatonio). De esta manera, en el sistema gustativo se pueden utilizar tanto la codificación de ritmo como la codificación temporal: ritmo para el tipo de sabor básico, temporal para una diferenciación más específica. [37] La ​​investigación sobre el sistema gustativo de los mamíferos ha demostrado que hay una gran cantidad de información presente en los patrones temporales de las poblaciones de neuronas, y esta información es diferente de la que está determinada por los esquemas de codificación de tasas. Grupos de neuronas pueden sincronizarse en respuesta a un estímulo. En estudios relacionados con la porción cortical frontal del cerebro en primates, se encontraron patrones precisos con escalas de tiempo cortas de solo unos pocos milisegundos de duración en pequeñas poblaciones de neuronas que se correlacionaban con ciertos comportamientos de procesamiento de información. Sin embargo, se pudo determinar poca información a partir de los patrones; una teoría posible es que representaban el procesamiento de orden superior que tiene lugar en el cerebro. [27]

Al igual que con el sistema visual, en las células mitrales/ en penachos del bulbo olfatorio de los ratones, la latencia del primer pico en relación con el inicio de una acción de olfateo parecía codificar gran parte de la información sobre un olor. Esta estrategia de utilizar latencia de pico permite una rápida identificación y reacción a un olor. Además, algunas células mitrales/en penachos tienen patrones de activación específicos para determinados olores. Este tipo de información adicional podría ayudar a reconocer un determinado olor, pero no es completamente necesaria, ya que el recuento promedio de picos en el transcurso del olfateo del animal también fue un buen identificador. [38] En la misma línea, los experimentos realizados con el sistema olfativo de conejos mostraron patrones distintos que se correlacionaban con diferentes subconjuntos de odorantes, y se obtuvo un resultado similar en experimentos con el sistema olfativo de langostas. [26]

Aplicaciones de codificación temporal

La especificidad de la codificación temporal requiere una tecnología altamente refinada para medir datos experimentales informativos y confiables. Los avances logrados en optogenética permiten a los neurólogos controlar picos en neuronas individuales, ofreciendo resolución unicelular eléctrica y espacial. Por ejemplo, la luz azul hace que se abra el canal iónico canalrodopsina, activado por la luz , lo que despolariza la célula y produce un pico. Cuando la célula no detecta la luz azul, el canal se cierra y la neurona deja de generar picos. El patrón de los picos coincide con el patrón de los estímulos de luz azul. Al insertar secuencias del gen canalrodopsina en el ADN del ratón, los investigadores pueden controlar los picos y, por tanto, ciertos comportamientos del ratón (por ejemplo, hacer que el ratón gire a la izquierda). [39] Los investigadores, a través de la optogenética, tienen las herramientas para efectuar diferentes códigos temporales en una neurona mientras mantienen la misma tasa media de activación y, por lo tanto, pueden probar si la codificación temporal ocurre o no en circuitos neuronales específicos. [40]

La tecnología optogenética también tiene el potencial de permitir la corrección de anomalías de picos en la raíz de varios trastornos neurológicos y psicológicos. [40] Si las neuronas codifican información en patrones de sincronización de picos individuales, las señales clave podrían perderse al intentar descifrar el código mientras se observan solo las tasas de activación medias. [26] Comprender cualquier aspecto codificado temporalmente del código neuronal y replicar estas secuencias en las neuronas podría permitir un mayor control y tratamiento de trastornos neurológicos como la depresión , la esquizofrenia y la enfermedad de Parkinson . La regulación de los intervalos de picos en células individuales controla con mayor precisión la actividad cerebral que la adición de agentes farmacológicos por vía intravenosa. [39]

Código de fase de disparo

El código de fase de disparo es un esquema de codificación neuronal que combina el código de conteo de picos con una referencia de tiempo basada en oscilaciones . Este tipo de código tiene en cuenta una etiqueta de tiempo para cada pico de acuerdo con una referencia de tiempo basada en la fase de las oscilaciones locales en curso a frecuencias bajas [41] o altas. [42]

Se ha demostrado que las neuronas en algunas áreas sensoriales corticales codifican estímulos naturalistas ricos en términos de sus tiempos de pico en relación con la fase de fluctuaciones oscilatorias de la red en curso, en lugar de solo en términos de su recuento de picos. [41] [43] Las señales de potencial de campo local reflejan oscilaciones de población (red). El código de fase de disparo a menudo se clasifica como un código temporal, aunque la etiqueta de tiempo utilizada para los picos (es decir, la fase de oscilación de la red) es una referencia de tiempo de baja resolución (de grano grueso). Como resultado, a menudo sólo cuatro valores discretos de fase son suficientes para representar todo el contenido de información en este tipo de código con respecto a la fase de oscilaciones en bajas frecuencias. El código de fase de disparo se basa libremente en los fenómenos de precesión de fase observados en las células del hipocampo . Otra característica de este código es que las neuronas se adhieren a un orden preferido de activación entre un grupo de neuronas sensoriales, lo que da como resultado una secuencia de activación. [44]

Se ha demostrado que el código de fase en la corteza visual también implica oscilaciones de alta frecuencia . [44] Dentro de un ciclo de oscilación gamma, cada neurona tiene su propio tiempo de activación relativo preferido. Como resultado, toda una población de neuronas genera una secuencia de activación que tiene una duración de hasta aproximadamente 15 ms. [44]

Codificación de población

La codificación de población es un método para representar estímulos mediante el uso de las actividades conjuntas de varias neuronas. En la codificación de población, cada neurona tiene una distribución de respuestas sobre algún conjunto de entradas, y las respuestas de muchas neuronas pueden combinarse para determinar algún valor sobre las entradas. Desde el punto de vista teórico, la codificación de poblaciones es uno de los pocos problemas matemáticamente bien formulados en neurociencia. Capta las características esenciales de la codificación neuronal y, sin embargo, es lo suficientemente simple para el análisis teórico. [45] Los estudios experimentales han revelado que este paradigma de codificación se utiliza ampliamente en las áreas sensoriales y motoras del cerebro.

Por ejemplo, en el área visual temporal medial (MT), las neuronas están sintonizadas con la dirección del movimiento. [46] En respuesta a un objeto que se mueve en una dirección particular, muchas neuronas en MT se activan con un patrón de actividad en forma de campana y corrompido por ruido en toda la población. La dirección de movimiento del objeto se obtiene de la actividad de la población, para ser inmune a la fluctuación existente en la señal de una sola neurona. Cuando se entrena a los monos para mover un joystick hacia un objetivo iluminado, una sola neurona se disparará en múltiples direcciones del objetivo. Sin embargo, dispara más rápido en una dirección y más lentamente dependiendo de qué tan cerca esté el objetivo de la dirección "preferida" de la neurona. [47] [48] Si cada neurona representa el movimiento en su dirección preferida y se calcula la suma vectorial de todas las neuronas (cada neurona tiene una velocidad de activación y una dirección preferida), la suma apunta en la dirección del movimiento. De esta manera, la población de neuronas codifica la señal del movimiento. [ cita necesaria ] Este código de población en particular se conoce como codificación de vector de población .

Se han obtenido códigos de población de lugar-tiempo, denominados código de respuesta sincronizada localizada promediada (ALSR), para la representación neuronal de estímulos acústicos auditivos. Esto aprovecha tanto el lugar o la sintonización dentro del nervio auditivo, como también el bloqueo de fase dentro de cada fibra nerviosa del nervio auditivo. La primera representación de ALSR fue para vocales de estado estacionario; [49] Las representaciones ALSR de frecuencias de tono y formantes en estímulos complejos y de estado no estacionario se demostraron más tarde para representaciones de tono sonoro, [50] y formantes en sílabas de consonante-vocal. [51] La ventaja de tales representaciones es que las características globales como el tono o los perfiles de transición de formantes se pueden representar como características globales en todo el nervio simultáneamente mediante codificación de velocidad y lugar.

La codificación de poblaciones también tiene otras ventajas, incluida la reducción de la incertidumbre debido a la variabilidad neuronal y la capacidad de representar varios atributos de estímulos diferentes simultáneamente. La codificación de población también es mucho más rápida que la codificación de tasas y puede reflejar cambios en las condiciones del estímulo casi instantáneamente. [52] Las neuronas individuales en una población de este tipo suelen tener selectividades diferentes pero superpuestas, de modo que muchas neuronas, pero no necesariamente todas, responden a un estímulo determinado.

Normalmente, una función de codificación tiene un valor máximo tal que la actividad de la neurona es mayor si el valor perceptivo está cerca del valor máximo y se reduce en consecuencia para valores menos cercanos al valor máximo. [ cita necesaria ] De ello se deduce que el valor percibido real puede reconstruirse a partir del patrón general de actividad en el conjunto de neuronas. La codificación vectorial es un ejemplo de promediado simple. Una técnica matemática más sofisticada para realizar dicha reconstrucción es el método de máxima verosimilitud basado en una distribución multivariada de las respuestas neuronales. Estos modelos pueden asumir independencia, correlaciones de segundo orden, [53] o incluso dependencias más detalladas, como modelos de entropía máxima de orden superior , [54] o cópulas . [55]

Codificación de correlación

El modelo de codificación de correlación de activación neuronal afirma que las correlaciones entre potenciales de acción , o "picos", dentro de un tren de picos pueden contener información adicional más allá de la simple sincronización de los picos. Los primeros trabajos sugirieron que la correlación entre los trenes de púas sólo puede reducir, y nunca aumentar, la información mutua total presente en los dos trenes de púas sobre una característica de estímulo. [56] Sin embargo, más tarde se demostró que esto era incorrecto. La estructura de correlación puede aumentar el contenido de la información si las correlaciones entre el ruido y la señal son de signo opuesto. [57] Las correlaciones también pueden transportar información que no está presente en la tasa de activación promedio de dos pares de neuronas. Un buen ejemplo de esto existe en la corteza auditiva de los titíes anestesiada con pentobarbital, en la que un tono puro provoca un aumento en el número de picos correlacionados, pero no un aumento en la tasa media de activación de pares de neuronas. [58]

Codificación de picos independientes

El modelo de codificación de picos independientes de activación neuronal afirma que cada potencial de acción individual , o "pico", es independiente de los demás dentro del tren de picos . [59] [60]

Codificación de posición

Gráfico de codificación de posición típica

Un código de población típico involucra neuronas con una curva de sintonización gaussiana cuyas medias varían linealmente con la intensidad del estímulo, lo que significa que la neurona responde con mayor fuerza (en términos de picos por segundo) a un estímulo cercano a la media. La intensidad real podría recuperarse como el nivel de estímulo correspondiente a la media de la neurona con mayor respuesta. Sin embargo, el ruido inherente a las respuestas neuronales significa que una función de estimación de máxima verosimilitud es más precisa.

Las respuestas neuronales son ruidosas y poco fiables.

Este tipo de código se utiliza para codificar variables continuas como la posición de las articulaciones, la posición de los ojos, el color o la frecuencia del sonido. Cualquier neurona individual es demasiado ruidosa para codificar fielmente la variable mediante codificación de velocidad, pero una población entera garantiza una mayor fidelidad y precisión. Para una población de curvas de sintonización unimodales, es decir, con un solo pico, la precisión normalmente aumenta linealmente con el número de neuronas. Por lo tanto, para obtener la mitad de precisión, se requiere la mitad de neuronas. Por el contrario, cuando las curvas de sintonización tienen múltiples picos, como en las celdas de la cuadrícula que representan el espacio, la precisión de la población puede escalar exponencialmente con el número de neuronas. Esto reduce en gran medida la cantidad de neuronas necesarias para la misma precisión. [61]

Codificación escasa

El código disperso se produce cuando cada elemento está codificado por la fuerte activación de un conjunto relativamente pequeño de neuronas. Para cada elemento a codificar, se trata de un subconjunto diferente de todas las neuronas disponibles. A diferencia de la codificación con sensores dispersos, la codificación con sensores densos implica que se conoce toda la información de las posibles ubicaciones de los sensores.

Como consecuencia, la escasez puede centrarse en la escasez temporal ("un número relativamente pequeño de períodos de tiempo están activos") o en la escasez de una población de neuronas activadas. En este último caso, esto puede definirse en un período de tiempo como el número de neuronas activadas en relación con el número total de neuronas de la población. Esto parece ser un sello distintivo de los cálculos neuronales, ya que, en comparación con las computadoras tradicionales, la información se distribuye masivamente entre las neuronas. La codificación escasa de imágenes naturales produce filtros orientados en forma de ondas que se asemejan a los campos receptivos de células simples en la corteza visual. [62] La capacidad de códigos dispersos puede aumentar mediante el uso simultáneo de codificación temporal, como se encuentra en el sistema olfativo de la langosta. [63]

Dado un conjunto potencialmente grande de patrones de entrada, los algoritmos de codificación dispersa (por ejemplo, codificador automático disperso ) intentan encontrar automáticamente una pequeña cantidad de patrones representativos que, cuando se combinan en las proporciones correctas, reproducen los patrones de entrada originales. La escasa codificación de la entrada consta entonces de esos patrones representativos. Por ejemplo, un conjunto muy grande de oraciones en inglés puede codificarse mediante una pequeña cantidad de símbolos (es decir, letras, números, puntuación y espacios) combinados en un orden particular para una oración en particular, por lo que una codificación dispersa para el inglés sería aquella símbolos.

Modelo generativo lineal

La mayoría de los modelos de codificación dispersa se basan en el modelo generativo lineal. [64] En este modelo, los símbolos se combinan de forma lineal para aproximar la entrada.

Más formalmente, dado un conjunto k-dimensional de vectores de entrada con números reales , el objetivo de la codificación dispersa es determinar n vectores base k-dimensionales junto con un vector disperso n-dimensional de pesos o coeficientes para cada vector de entrada, de modo que un La combinación lineal de los vectores base con proporciones dadas por los coeficientes da como resultado una aproximación cercana al vector de entrada: . [sesenta y cinco]

Las codificaciones generadas por algoritmos que implementan un modelo generativo lineal se pueden clasificar en codificaciones con escasez suave y aquellas con escasez dura . [64] Estos se refieren a la distribución de coeficientes del vector base para entradas típicas. Una codificación con una dispersión suave tiene una distribución similar a la gaussiana , pero más pico que la gaussiana, con muchos valores cero, algunos valores absolutos pequeños, menos valores absolutos grandes y muy pocos valores absolutos muy grandes. Por tanto, muchos de los vectores básicos están activos. La escasez extrema, por otro lado, indica que hay muchos valores cero, ningún valor absoluto pequeño o casi ninguno , menos valores absolutos grandes y muy pocos valores absolutos muy grandes y, por lo tanto, pocos de los vectores base están activos. Esto resulta atractivo desde una perspectiva metabólica: se utiliza menos energía cuando se activan menos neuronas. [64]

Otra medida de la codificación es si está críticamente completa o sobrecompleta . Si el número de vectores base n es igual a la dimensionalidad k del conjunto de entrada, se dice que la codificación está críticamente completa. En este caso, los cambios suaves en el vector de entrada dan como resultado cambios abruptos en los coeficientes y la codificación no es capaz de manejar con elegancia pequeñas escalas, pequeñas traslaciones o ruido en las entradas. Sin embargo, si el número de vectores base es mayor que la dimensionalidad del conjunto de entrada, la codificación está sobrecompleta . Las codificaciones sobrecompletas se interpolan suavemente entre los vectores de entrada y son robustas ante el ruido de entrada. [66] Se estima que la corteza visual primaria humana está sobrecompleta en un factor de 500, de modo que, por ejemplo, un parche de entrada de 14 x 14 (un espacio de 196 dimensiones) está codificado por aproximadamente 100.000 neuronas. [64]

Otros modelos se basan en búsqueda de coincidencias , un algoritmo de aproximación dispersa que encuentra las proyecciones de "mejor coincidencia" de datos multidimensionales, y aprendizaje de diccionario , un método de aprendizaje de representación que tiene como objetivo encontrar una representación matricial dispersa de los datos de entrada en forma de una matriz lineal. combinación de elementos básicos así como esos elementos básicos mismos. [67] [68] [69]

evidencia biológica

La codificación escasa puede ser una estrategia general de los sistemas neuronales para aumentar la capacidad de la memoria. Para adaptarse a sus entornos, los animales deben aprender qué estímulos están asociados con recompensas o castigos y distinguir estos estímulos reforzados de otros similares pero irrelevantes. Tales tareas requieren implementar memorias asociativas específicas de estímulos en las que sólo unas pocas neuronas de una población responden a un estímulo determinado y cada neurona responde sólo a unos pocos estímulos de todos los estímulos posibles.

El trabajo teórico sobre la memoria distribuida dispersa ha sugerido que la codificación dispersa aumenta la capacidad de la memoria asociativa al reducir la superposición entre representaciones. [70] Experimentalmente, se han observado escasas representaciones de información sensorial en muchos sistemas, incluida la visión, [71] la audición, [72] el tacto, [73] y el olfato. [74] Sin embargo, a pesar de la evidencia acumulada de una codificación dispersa generalizada y de los argumentos teóricos sobre su importancia, ha sido difícil obtener una demostración de que la codificación dispersa mejora la especificidad del estímulo de la memoria asociativa.

En el sistema olfativo de Drosophila , se cree que la escasa codificación de olores por parte de las células de Kenyon del cuerpo del hongo genera una gran cantidad de ubicaciones direccionables con precisión para el almacenamiento de recuerdos de olores específicos. [75] La escasez está controlada por un circuito de retroalimentación negativa entre las células de Kenyon y las neuronas laterales pares anteriores (APL) GABAérgicas . La activación y el bloqueo sistemáticos de cada tramo de este circuito de retroalimentación muestran que las células de Kenyon activan las neuronas APL y las neuronas APL inhiben las células de Kenyon. La interrupción del circuito de retroalimentación de las células de Kenyon-APL disminuye la escasez de respuestas olfativas de las células de Kenyon, aumenta las correlaciones entre olores y evita que las moscas aprendan a discriminar olores similares, pero no diferentes. Estos resultados sugieren que la inhibición de la retroalimentación suprime la actividad de las células de Kenyon para mantener una codificación de olores escasa y descorrelacionada y, por lo tanto, la especificidad del olor de los recuerdos. [76]

Ver también

Referencias

  1. ^ Brown EN, Kass RE, Mitra PP (mayo de 2004). "Análisis de datos de trenes de picos neuronales múltiples: estado del arte y desafíos futuros". Nat. Neurociencias . 7 (5): 456–61. doi :10.1038/nn1228. PMID  15114358. S2CID  562815.
  2. ^ Johnson, KO (junio de 2000). "Codificación neuronal". Neurona . 26 (3): 563–566. doi : 10.1016/S0896-6273(00)81193-9 . ISSN  0896-6273. PMID  10896153.
  3. ^ abc Thorpe, SJ (1990). "Tiempos de llegada de picos: un esquema de codificación altamente eficiente para redes neuronales". En Eckmiller, R.; Hartmann, G.; Hauske, G. (eds.). Procesamiento paralelo en sistemas neuronales y computadoras (PDF) . Holanda del Norte. págs. 91–94. ISBN 978-0-444-88390-2.
  4. ^ Sengupta B, Laughlin SB, Niven JE (2014) Consecuencias de la conversión de potenciales graduados en acción sobre la codificación de información neuronal y la eficiencia energética. PLOS Biología Computacional 10 (1): e1003439. https://doi.org/10.1371/journal.pcbi.1003439
  5. ^ Gerstner, Wulfram ; Kistler, Werner M. (2002). Modelos de neuronas con picos: neuronas individuales, poblaciones, plasticidad. Prensa de la Universidad de Cambridge. ISBN 978-0-521-89079-3.
  6. ^ abcd Stein RB, Gossen ER, Jones KE (mayo de 2005). "Variabilidad neuronal: ¿ruido o parte de la señal?". Nat. Rev. Neurociencias . 6 (5): 389–97. doi :10.1038/nrn1668. PMID  15861181. S2CID  205500218.
  7. ^ El código de memoria. http://www.scientificamerican.com/article/the-memory-code/
  8. ^ Chen, G; Wang, LP; Tsien, JZ (2009). "Rastros de memoria a nivel de población neuronal en el hipocampo del ratón". MÁS UNO . 4 (12): e8256. Código Bib : 2009PLoSO...4.8256C. doi : 10.1371/journal.pone.0008256 . PMC 2788416 . PMID  20016843. 
  9. ^ Zhang, H; Chen, G; Kuang, H; Tsien, JZ (noviembre de 2013). "Mapeo y descifrado de códigos neuronales de engramas de memoria del miedo dependientes del receptor NMDA en el hipocampo". MÁS UNO . 8 (11): e79454. Código Bib : 2013PLoSO...879454Z. doi : 10.1371/journal.pone.0079454 . PMC 3841182 . PMID  24302990. 
  10. ^ Proyecto de decodificación cerebral. http://braindecodingproject.org/
  11. ^ La colaboración de Simons sobre el cerebro global. https://www.simonsfoundation.org/life-sciences/simons-collaboration-global-brain/
  12. ^ Burcas GT y Albright TD Medición de representaciones sensoriales en el cerebro. http://www.vcl.salk.edu/Publications/PDF/Buracas_Albright_1999_TINS.pdf
  13. ^ Gerstner W, Kreiter AK, Markram H, Herz AV (noviembre de 1997). "Códigos neuronales: tasas de disparo y más". Proc. Nacional. Acad. Ciencia. EE.UU . 94 (24): 12740–1. Código bibliográfico : 1997PNAS...9412740G. doi : 10.1073/pnas.94.24.12740 . PMC 34168 . PMID  9398065. 
  14. ^ abcdefghij Gerstner, Wulfram. (2002). Modelos de neuronas con picos: neuronas individuales, poblaciones, plasticidad. Kistler, Werner M., 1969-. Cambridge, Reino Unido: Cambridge University Press. ISBN 0-511-07817-X. OCLC  57417395.
  15. ^ Li, M; Tsien, JZ (2017). "Teoría del código neuronal y la autoinformación neuronal sobre cómo el código de ensamblaje celular surge del tiempo de pico y la variabilidad neuronal". Neurociencias de células frontales . 11 : artículo 236. doi : 10.3389/fncel.2017.00236 . PMC 5582596 . PMID  28912685. 
  16. ^ Li, M; Xie, K; Kuang, H; Liu, J; Wang, D; Fox, GE; Shi, Z; Chen, L; Zhao, F; Mao, Y; Tsien, JZ (2018). "Codificación neuronal de conjuntos de células mediante autoinformación de sincronización de picos". Corteza cerebral . 28 (7): 2563–2576. doi : 10.1093/cercor/bhy081 . PMC 5998964 . PMID  29688285. 
  17. ^ Kandel, E.; Schwartz, J.; Jessel, TM (1991). Principios de la ciencia neuronal (3ª ed.). Elsevier. ISBN 978-0444015624.
  18. ^ Adrian ED, Zotterman Y (1926). "Los impulsos producidos por las terminaciones nerviosas sensoriales: Parte II: La respuesta de un único órgano terminal". J Physiol . 61 (2): 151-171. doi :10.1113/jphysiol.1926.sp002281. PMC 1514782 . PMID  16993780. 
  19. ^ Forrest MD (2014). "La dinámica del calcio intracelular permite que un modelo de neurona de Purkinje realice cálculos de alternancia y ganancia sobre sus entradas". Fronteras en neurociencia computacional . 8 : 86. doi : 10.3389/fncom.2014.00086 . PMC 4138505 . PMID  25191262. 
  20. ^ Forrest MD (diciembre de 2014). "La bomba de sodio-potasio es un elemento de procesamiento de información en la computación cerebral". Fronteras en Fisiología . 5 (472): 472. doi : 10.3389/fphys.2014.00472 . PMC 4274886 . PMID  25566080. 
  21. ^ abcGollisch , T.; Maestro, M. (22 de febrero de 2008). "Codificación neuronal rápida en la retina con latencias de pico relativas". Ciencia . 319 (5866): 1108-1111. Código Bib : 2008 Ciencia... 319.1108G. doi : 10.1126/ciencia.1149639. ISSN  0036-8075. PMID  18292344. S2CID  1032537.
  22. ^ Dayán, Pedro; Abbott, LF (2001). Neurociencia teórica: modelado computacional y matemático de sistemas neuronales. Prensa del Instituto de Tecnología de Massachusetts. ISBN 978-0-262-04199-7.
  23. ^ Colillas DA, Weng C, Jin J, et al. (Septiembre de 2007). "Precisión temporal en el código neuronal y las escalas de tiempo de la visión natural". Naturaleza . 449 (7158): 92–5. Código Bib :2007Natur.449...92B. doi : 10.1038/naturaleza06105. PMID  17805296. S2CID  4402057.
  24. ^ Singh & Levy, "Una neurona piramidal de capa V de consenso puede sostener la codificación de intervalo entre impulsos", PLoS ONE , 2017
  25. ^ J. Leo van Hemmen, TJ Sejnowski. 23 Problemas en neurociencia de sistemas. Universidad de Oxford. Prensa, 2006. p.143-158.
  26. ^ abcd Theunissen, F; Miller, JP (1995). "Codificación temporal en sistemas nerviosos: una definición rigurosa". Revista de neurociencia computacional . 2 (2): 149–162. doi :10.1007/bf00961885. PMID  8521284. S2CID  206786736.
  27. ^ ab Zador, Stevens, Charles, Anthony. "El enigma del cerebro". © Current Biology 1995, Vol 5 No 12 . Consultado el 4 de agosto de 2012 .{{cite web}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  28. ^ Kostal L, Lansky P, Rospars JP (noviembre de 2007). "Codificación neuronal y aleatoriedad". EUR. J. Neurociencias . 26 (10): 2693–701. doi :10.1111/j.1460-9568.2007.05880.x. PMID  18001270. S2CID  15367988.
  29. ^ Gupta, Nitin; Singh, Swikriti Saran; Stopfer, Mark (15 de diciembre de 2016). "Ventanas de integración oscilatoria en neuronas". Comunicaciones de la naturaleza . 7 : 13808. Código Bib : 2016NatCo...713808G. doi : 10.1038/ncomms13808. ISSN  2041-1723. PMC 5171764 . PMID  27976720. 
  30. ^ Jolivet, Renaud; Rauch, Alejandro; Lüscher, Hans-Rudolf; Gerstner, Wulfram (1 de agosto de 2006). "Predecir el momento del pico de las neuronas piramidales neocorticales mediante modelos de umbral simples". Revista de neurociencia computacional . 21 (1): 35–49. doi :10.1007/s10827-006-7074-5. ISSN  1573-6873. PMID  16633938. S2CID  8911457.
  31. ^ Geoffrois, E.; Edeline, JM; Vibert, JF (1994). "Aprendizaje mediante modificaciones de retraso". En Eeckman, Frank H. (ed.). Computación en Neuronas y Sistemas Neurales . Saltador. págs. 133–8. ISBN 978-0-7923-9465-5.
  32. ^ Sjöström, Jesper y Wulfram Gerstner. "Plasticidad dependiente del momento del pico". Plasticidad dependiente del momento del pico 35 (2010).
  33. ^ Gollisch, T.; Meister, M. (22 de febrero de 2008). "Codificación neuronal rápida en la retina con latencias de pico relativas". Ciencia . 319 (5866): 1108-1111. Código Bib : 2008 Ciencia... 319.1108G. doi : 10.1126/ciencia.1149639. PMID  18292344. S2CID  1032537.
  34. ^ Costilla, Gilles; Michèle, Thieullen; Khashayar, Pakdaman (7 de abril de 2010). "Variabilidad intrínseca de la latencia al primer pico". Cibernética biológica . 103 (1): 43–56. doi :10.1007/s00422-010-0384-8. PMID  20372920. S2CID  7121609.
  35. ^ Víctor, Johnathan D (2005). "Métricas del tren de picos". Opinión actual en neurobiología . 15 (5): 585–592. doi :10.1016/j.conb.2005.08.002. PMC 2713191 . PMID  16140522. 
  36. ^ Hallock, Robert M.; Di Lorenzo, Patricia M. (2006). "Codificación temporal en el sistema gustativo". Reseñas de neurociencia y biocomportamiento . 30 (8): 1145-1160. doi :10.1016/j.neubiorev.2006.07.005. PMID  16979239. S2CID  14739301.
  37. ^ Carleton, Alan; Accolla, Ricardo; Simón, Sidney A. (2010). "Codificación en el sistema gustativo de los mamíferos". Tendencias en Neurociencias . 33 (7): 326–334. doi :10.1016/j.tins.2010.04.002. PMC 2902637 . PMID  20493563. 
  38. ^ Wilson, Raquel I (2008). "Mecanismos neuronales y conductuales de la percepción olfativa". Opinión actual en neurobiología . 18 (4): 408–412. doi :10.1016/j.conb.2008.08.015. PMC 2596880 . PMID  18809492. 
  39. ^ ab Karl Diesseroth, Conferencia. "Serie de crecimiento personal: Karl Diesseroth sobre cómo descifrar el código neuronal". Charlas tecnológicas de Google. 21 de noviembre de 2008. https://www.youtube.com/watch?v=5SLdSbp6VjM
  40. ^ ab Han X, Qian X, Stern P, Chuong AS, Boyden ES. "Lesiones informativas: perturbaciones ópticas de la sincronización de los picos y la sincronía neuronal mediante fusiones de genes de opsina microbiana". Cambridge, Massachusetts: MIT Media Lad, 2009.
  41. ^ ab Montemurro, Marcelo A.; Rasch, Malte J.; Murayama, Yusuke; Logotetis, Nikos K.; Panzeri, Stefano (2008). "Codificación de fase de disparo de estímulos visuales naturales en la corteza visual primaria". Biología actual . 18 (5): 375–380. doi : 10.1016/j.cub.2008.02.023 . PMID  18328702.
  42. ^ Fries P, Nikolić D, Singer W (julio de 2007). "El ciclo gamma". Tendencias Neurociencias . 30 (7): 309–16. doi :10.1016/j.tins.2007.05.005. PMID  17555828. S2CID  3070167.
  43. ^ Tiempos de llegada de picos: un esquema de codificación altamente eficiente para redes neuronales Archivado el 15 de febrero de 2012 en Wayback Machine , SJ Thorpe - Procesamiento paralelo en sistemas neuronales, 1990
  44. ^ abc Havenith MN, Yu S, Biederlack J, Chen NH, Singer W, Nikolić D (junio de 2011). "La sincronía hace que las neuronas se activen en secuencia y las propiedades del estímulo determinan quién va por delante". J. Neurociencias . 31 (23): 8570–84. doi : 10.1523/JNEUROSCI.2817-10.2011 . PMC 6623348 . PMID  21653861. 
  45. ^ Wu S, Amari S, Nakahara H (mayo de 2002). "Codificación y decodificación de población en un campo neuronal: un estudio computacional". Computación neuronal . 14 (5): 999–1026. doi :10.1162/089976602753633367. PMID  11972905. S2CID  1122223.
  46. ^ Maunsell JH, Van Essen DC (mayo de 1983). "Propiedades funcionales de las neuronas en el área visual temporal media del mono macaco. I. Selectividad para la dirección, velocidad y orientación del estímulo". J. Neurofisiol . 49 (5): 1127–47. doi :10.1152/junio.1983.49.5.1127. PMID  6864242. S2CID  8708245.
  47. ^ "Introducción a los sistemas sensoriales motores, capítulo 38, página 766" (PDF) . Archivado desde el original (PDF) el 11 de mayo de 2012 . Consultado el 3 de febrero de 2014 .
  48. ^ Ciencia. 26 de septiembre de 1986; 233 (4771): 1416-9
  49. ^ Sachs, Murray B.; Young, Eric D. (noviembre de 1979). "Representación de vocales en estado estacionario en los aspectos temporales de los patrones de descarga de poblaciones de fibras nerviosas auditivas". La Revista de la Sociedad de Acústica de América . 66 (5): 1381-1403. Código bibliográfico : 1979ASAJ...66.1381Y. doi : 10.1121/1.383532. PMID  500976.
  50. ^ Molinero, MI; Sachs, MB (junio de 1984). "Representación del tono de la voz en patrones de descarga de fibras nerviosas auditivas". Investigación de la audición . 14 (3): 257–279. doi :10.1016/0378-5955(84)90054-6. PMID  6480513. S2CID  4704044.
  51. ^ Molinero, MI; Sachs, MB (1983). "Representación de consonantes oclusivas en los patrones de descarga de las fibras del nervio auditivo". La Revista de la Sociedad de Acústica de América . 74 (2): 502–517. Código bibliográfico : 1983ASAJ...74..502M. doi : 10.1121/1.389816. PMID  6619427.
  52. ^ Hubel DH, Wiesel TN (octubre de 1959). "Campos receptivos de neuronas individuales en la corteza estriada del gato". J. Physiol . 148 (3): 574–91. doi : 10.1113/jphysiol.1959.sp006308. PMC 1363130 . PMID  14403679. 
  53. ^ Schneidman, E; Baya, MJ; Segev, R; Bialek, W (2006), "Las correlaciones por pares débiles implican estados de red fuertemente correlacionados en una población neuronal", Nature , 440 (7087): 1007–1012, arXiv : q-bio/0512013 , Bibcode :2006Natur.440.1007S, doi : 10.1038/naturaleza04701, PMC 1785327 , PMID  16625187 
  54. ^ Amari, SL (2001), "Geometría de la información sobre jerarquía de distribuciones de probabilidad", IEEE Transactions on Information Theory , 47 (5): 1701–1711, CiteSeerX 10.1.1.46.5226 , doi :10.1109/18.930911 
  55. ^ Onken, A; Grünewälder, S; Munk, MHJ; Obermayer, K (2009), "Análisis de las dependencias del ruido a corto plazo de los recuentos de picos en la corteza prefrontal de macacos mediante cópulas y la transformación de la linterna", PLOS Comput Biol , 5 (11): e1000577, Bibcode :2009PLSCB...5E0577O, doi : 10.1371/journal.pcbi.1000577 , PMC 2776173 , PMID  19956759 
  56. ^ Johnson, KO (junio de 1980). "Discriminación sensorial: procesos neuronales que preceden a la decisión de discriminación". J Neurofisiol . 43 (6): 1793–815. doi :10.1152/jn.1980.43.6.1793. PMID  7411183.
  57. ^ Panzeri; Schultz; Tréves; Rollos (1999). "Correlaciones y codificación de información en el sistema nervioso". Proc Biol Ciencia . 266 (1423): 1001–12. doi :10.1098/rspb.1999.0736. PMC 1689940 . PMID  10610508. 
  58. ^ Merzenich, MM (junio de 1996). "Representación cortical primaria de sonidos mediante la coordinación del tiempo del potencial de acción". Naturaleza . 381 (6583): 610–3. Código Bib :1996Natur.381..610D. doi :10.1038/381610a0. PMID  8637597. S2CID  4258853.
  59. ^ Dayan P y Abbott LF. Neurociencia teórica: modelado computacional y matemático de sistemas neuronales . Cambridge, Massachusetts: Prensa del MIT; 2001. ISBN 0-262-04199-5 
  60. ^ Rieke F, Warland D, de Ruyter van Steveninck R, Bialek W. Spikes: explorando el código neuronal . Cambridge, Massachusetts: Prensa del MIT; 1999. ISBN 0-262-68108-0 
  61. ^ Mathis A, Herz AV, Stemmler MB (julio de 2012). "La resolución de representaciones neuronales anidadas puede ser exponencial en el número de neuronas". Física. Rev. Lett . 109 (1): 018103. Código bibliográfico : 2012PhRvL.109a8103M. doi : 10.1103/PhysRevLett.109.018103 . PMID  23031134.
  62. ^ Olshausen, Bruno A; Campo, David J (1996). "Aparición de propiedades de campo receptivo de células simples mediante el aprendizaje de un código disperso para imágenes naturales" (PDF) . Naturaleza . 381 (6583): 607–609. Código Bib :1996Natur.381..607O. doi :10.1038/381607a0. PMID  8637596. S2CID  4358477. Archivado desde el original (PDF) el 23 de noviembre de 2015 . Consultado el 29 de marzo de 2016 .
  63. ^ Gupta, N; Stopfer, M (6 de octubre de 2014). "Un canal temporal de información en codificación sensorial escasa". Biología actual . 24 (19): 2247–56. doi :10.1016/j.cub.2014.08.021. PMC 4189991 . PMID  25264257. 
  64. ^ abcd Rehn, Martín; Sommer, Friedrich T. (2007). "Una red que utiliza pocas neuronas activas para codificar la información visual predice las diversas formas de los campos receptivos corticales" (PDF) . Revista de neurociencia computacional . 22 (2): 135-146. doi :10.1007/s10827-006-0003-9. PMID  17053994. S2CID  294586.
  65. ^ Lee, Honglak; Batalla, Alexis; Raina, Rajat; Ng, Andrew Y. (2006). "Algoritmos eficientes de codificación dispersa" (PDF) . Avances en los sistemas de procesamiento de información neuronal .
  66. ^ Olshausen, Bruno A.; Campo, David J. (1997). "Codificación escasa con un conjunto de bases demasiado completo: ¿una estrategia empleada por V1?". Investigación de la visión . 37 (23): 3311–3325. doi : 10.1016/s0042-6989(97)00169-7 . PMID  9425546.
  67. ^ Zhang, Zhifeng; Mallat, Stéphane G.; Davis, Geoffrey M. (julio de 1994). "Descomposiciones adaptativas tiempo-frecuencia". Ingeniería Óptica . 33 (7): 2183–2192. Código Bib : 1994OptEn..33.2183D. doi :10.1117/12.173207. ISSN  1560-2303.
  68. ^ Pati, YC; Rezaífar, R.; Krishnaprasad, PS (noviembre de 1993). "Búsqueda de coincidencia ortogonal: aproximación de funciones recursivas con aplicaciones a la descomposición de ondas". Actas de la 27ª Conferencia de Asilomar sobre señales, sistemas y computadoras . págs. 40–44 vol.1. CiteSeerX 10.1.1.348.5735 . doi :10.1109/ACSSC.1993.342465. ISBN  978-0-8186-4120-6. S2CID  16513805.
  69. ^ Needell, D.; Tropp, JA (1 de mayo de 2009). "CoSaMP: recuperación iterativa de señales de muestras incompletas e inexactas". Análisis Armónico Aplicado y Computacional . 26 (3): 301–321. arXiv : 0803.2392 . doi :10.1016/j.acha.2008.07.002. ISSN  1063-5203. S2CID  1642637.
  70. ^ Kanerva, Pentti. Memoria distribuida escasa. Prensa del MIT, 1988
  71. ^ Vinje, NOSOTROS; Galán, JL (2000). "Codificación escasa y descorrelación en la corteza visual primaria durante la visión natural". Ciencia . 287 (5456): 1273–1276. Código Bib : 2000 Ciencia... 287.1273V. CiteSeerX 10.1.1.456.2467 . doi : 10.1126/ciencia.287.5456.1273. PMID  10678835. 
  72. ^ Hromádka, T; Deweese, señor; Zador, AM (2008). "Escasa representación de sonidos en la corteza auditiva no anestesiada". PLOS Biol . 6 (1): e16. doi : 10.1371/journal.pbio.0060016 . PMC 2214813 . PMID  18232737. 
  73. ^ Ganchillo, S; Poulet, JFA; Kremer, Y; Petersen, CCH (2011). "Mecanismos sinápticos subyacentes a la escasa codificación del tacto activo". Neurona . 69 (6): 1160-1175. doi : 10.1016/j.neuron.2011.02.022 . PMID  21435560.
  74. ^ Ito, yo; Ong, RCY; Ramán, B; Stopfer, M (2008). "Escasa representación de olores y aprendizaje olfativo". Nat Neurosci . 11 (10): 1177-1184. doi :10.1038/nn.2192. PMC 3124899 . PMID  18794840. 
  75. ^ Una memoria escasa es una memoria precisa. Blog de ciencia de Oxford. 28 de febrero de 2014. http://www.ox.ac.uk/news/science-blog/sparse-memory-precise-memory
  76. ^ Lin, Andrew C. y col. "La codificación de olores escasa y descorrelacionada en el cuerpo del hongo mejora la discriminación de olores aprendida". Naturaleza Neurociencia 17.4 (2014): 559-568.

Otras lecturas