stringtranslate.com

Integración multisensorial

La integración multisensorial , también conocida como integración multimodal , es el estudio de cómo la información de las diferentes modalidades sensoriales (como la vista, el oído, el tacto, el olfato, el movimiento propio y el gusto) puede ser integrada por el sistema nervioso . [1] Una representación coherente de objetos que combina modalidades permite a los animales tener experiencias perceptivas significativas. De hecho, la integración multisensorial es central para el comportamiento adaptativo porque permite a los animales percibir un mundo de entidades perceptivas coherentes. [2] La integración multisensorial también se ocupa de cómo las diferentes modalidades sensoriales interactúan entre sí y alteran el procesamiento de las demás.

Introducción general

La percepción multimodal es la forma en que los animales forman una percepción coherente, válida y sólida al procesar estímulos sensoriales de diversas modalidades. Rodeado de múltiples objetos y recibiendo múltiples estímulos sensoriales, el cerebro se enfrenta a la decisión de cómo categorizar los estímulos resultantes de diferentes objetos o eventos en el mundo físico. El sistema nervioso es, por tanto, responsable de si integrar o segregar ciertos grupos de señales. La percepción multimodal ha sido ampliamente estudiada en la ciencia cognitiva, la ciencia del comportamiento y la neurociencia.

Estímulos y modalidades sensoriales

Existen cuatro atributos del estímulo: modalidad, intensidad, ubicación y duración. El neocórtex del cerebro de los mamíferos tiene parcelaciones que procesan principalmente la información sensorial de una modalidad. Por ejemplo, el área visual primaria, V1, o el área somatosensorial primaria , S1. Estas áreas se ocupan principalmente de características de estímulos de bajo nivel, como brillo, orientación, intensidad, etc. Estas áreas tienen amplias conexiones entre sí, así como con áreas de asociación superiores que procesan aún más los estímulos y se cree que integran la información sensorial de varias modalidades. Sin embargo, se ha demostrado que también se producen efectos multisensoriales en las áreas sensoriales primarias. [3]

Problema de encuadernación

La relación entre el problema de la vinculación y la percepción multisensorial puede considerarse como una cuestión –el problema de la vinculación– y su posible solución –la percepción multisensorial–. El problema de la vinculación surgió de preguntas sin respuesta sobre cómo los mamíferos (en particular los primates superiores) generan una percepción unificada y coherente de su entorno a partir de la cacofonía de ondas electromagnéticas , interacciones químicas y fluctuaciones de presión que forman la base física del mundo que nos rodea. Se investigó inicialmente en el dominio visual (color, movimiento, profundidad y forma), luego en el dominio auditivo y, recientemente, en las áreas multisensoriales. Por lo tanto, se puede decir que el problema de la vinculación es central para la percepción multisensorial . [4]

Sin embargo, las consideraciones sobre cómo se forman las representaciones conscientes unificadas no son el foco completo de la investigación de la integración multisensorial. Obviamente, es importante que los sentidos interactúen para maximizar la eficiencia con la que las personas interactúan con el entorno. Para que la experiencia perceptiva y el comportamiento se beneficien de la estimulación simultánea de múltiples modalidades sensoriales, es necesaria la integración de la información de estas modalidades. A continuación, se examinarán algunos de los mecanismos que median este fenómeno y sus efectos posteriores en los procesos cognitivos y conductuales. La percepción se define a menudo como la experiencia consciente de una persona y, por lo tanto, combina las entradas de todos los sentidos relevantes y el conocimiento previo. La percepción también se define y estudia en términos de extracción de características, que está a varios cientos de milisegundos de distancia de la experiencia consciente. A pesar de la existencia de escuelas de psicología de la Gestalt que abogan por un enfoque holístico del funcionamiento del cerebro, [5] [6] los procesos fisiológicos subyacentes a la formación de percepciones y la experiencia consciente han sido muy poco estudiados. Sin embargo, la creciente investigación en neurociencia continúa enriqueciendo nuestra comprensión de los muchos detalles del cerebro, incluidas las estructuras neuronales implicadas en la integración multisensorial, como el colículo superior (SC) [7] y varias estructuras corticales como el giro temporal superior (GT) y las áreas de asociación visual y auditiva. Aunque la estructura y la función del SC son bien conocidas, la corteza y la relación entre sus partes constituyentes son actualmente objeto de mucha investigación. Al mismo tiempo, el reciente impulso a la integración ha permitido la investigación de fenómenos perceptivos como el efecto de ventriloquia , [8] la localización rápida de estímulos y el efecto McGurk ; [9] culminando en una comprensión más completa del cerebro humano y sus funciones.

Historia

Los estudios del procesamiento sensorial en humanos y otros animales se han realizado tradicionalmente de un sentido a la vez, [10] y hasta el día de hoy, numerosas sociedades académicas y revistas se limitan en gran medida a considerar las modalidades sensoriales por separado ( "Investigación de la visión" , "Investigación auditiva", etc.). Sin embargo, también hay una larga y paralela historia de investigación multisensorial. Un ejemplo son los experimentos de Stratton (1896) sobre los efectos somatosensoriales de usar gafas prismáticas que distorsionan la visión. [11] [12] Las interacciones multisensoriales o efectos intermodales en los que la percepción de un estímulo está influenciada por la presencia de otro tipo de estímulo se mencionan desde muy temprano en el pasado. Fueron revisados ​​​​por Hartmann [13] en un libro fundamental donde, entre varias referencias a diferentes tipos de interacciones multisensoriales, se hace referencia al trabajo de Urbantschitsch en 1888 [14] quien informó sobre la mejora de la agudeza visual por estímulos auditivos en sujetos con cerebros dañados. Este efecto también fue encontrado posteriormente en individuos con cerebros no dañados por Krakov [15] y Hartmann [16], así como el hecho de que la agudeza visual podía ser mejorada por otro tipo de estímulos. [16] También es destacable la cantidad de trabajos a principios de los años 30 sobre relaciones intersensoriales en la Unión Soviética, revisados ​​por Londres. [17] Una investigación multisensorial destacable es el extenso y pionero trabajo de Gonzalo [18] a mediados del siglo XX sobre la caracterización de un síndrome multisensorial en pacientes con lesiones corticales parieto-occipitales. En este síndrome, todas las funciones sensoriales están afectadas, y con bilateralidad simétrica, a pesar de ser una lesión unilateral donde las áreas primarias no estaban involucradas. Una característica de este síndrome es la gran permeabilidad a los efectos transmodales entre estímulos visuales, táctiles, auditivos así como al esfuerzo muscular para mejorar la percepción, disminuyendo también los tiempos de reacción. Se encontró que la mejoría por efecto crossmodal era mayor cuanto más débil era el estímulo primario a percibir, y cuanto mayor era la lesión cortical (Vol 1 y 2 de la referencia [18] ). Este autor interpretó estos fenómenos bajo un concepto fisiológico dinámico, y a partir de un modelo basado en gradientes funcionales a través de la corteza y leyes de escalamiento de sistemas dinámicos, destacando así la unidad funcional de la corteza. Según los gradientes corticales funcionales, la especificidad de la corteza se distribuiría en gradación, y la superposición de diferentes gradientes específicos estaría relacionada con interacciones multisensoriales. [19] La investigación multisensorial ha ganado recientemente un enorme interés y popularidad.

Ejemplo de congruencia espacial y estructural

Cuando escuchamos el claxon de un coche , determinaríamos qué coche lo activa en función del coche que vemos que está más cerca del claxon en el espacio. Es un ejemplo de congruencia espacial al combinar estímulos visuales y auditivos. Por otro lado, el sonido y las imágenes de un programa de televisión se integrarían como congruentes estructuralmente al combinar estímulos visuales y auditivos. Sin embargo, si el sonido y las imágenes no encajaran de forma significativa, segregaríamos los dos estímulos. Por lo tanto, la congruencia espacial o estructural proviene no solo de la combinación de los estímulos, sino que también está determinada por nuestra comprensión.

Teorías y enfoques

Dominio visual

La literatura sobre sesgos intermodales espaciales sugiere que la modalidad visual a menudo influye en la información de otros sentidos. [20] Algunas investigaciones indican que la visión domina lo que escuchamos, al variar el grado de congruencia espacial. Esto se conoce como el efecto ventrílocuo. [21] En los casos de integración visual y háptica, los niños menores de 8 años muestran dominio visual cuando se les pide que identifiquen la orientación de los objetos. Sin embargo, el dominio háptico ocurre cuando el factor a identificar es el tamaño del objeto. [22] [23]

Adecuación de la modalidad

Según Welch y Warren (1980), la hipótesis de adecuación de la modalidad establece que la influencia de la percepción en cada modalidad en la integración multisensorial depende de la adecuación de esa modalidad para la tarea dada. Por lo tanto, la visión tiene una mayor influencia en la localización integrada que la audición, y la audición y el tacto tienen una mayor influencia en las estimaciones de tiempo que la visión. [24] [25]

Estudios más recientes perfeccionan esta explicación cualitativa temprana de la integración multisensorial. Alais y Burr (2004) descubrieron que, tras una degradación progresiva de la calidad de un estímulo visual, la percepción de la ubicación espacial de los participantes estaba determinada progresivamente más por una señal auditiva simultánea. [26] Sin embargo, también cambiaron progresivamente la incertidumbre temporal de la señal auditiva; finalmente concluyeron que es la incertidumbre de las modalidades individuales la que determina en qué medida se tiene en cuenta la información de cada modalidad al formar una percepción. [26] Esta conclusión es similar en algunos aspectos a la "regla de la efectividad inversa". El grado en que se produce la integración multisensorial puede variar según la ambigüedad de los estímulos relevantes. En apoyo de esta noción, un estudio reciente muestra que los sentidos débiles, como el olfato, pueden incluso modular la percepción de la información visual siempre que la fiabilidad de las señales visuales se vea adecuadamente comprometida. [27]

Integración bayesiana

La teoría de la integración bayesiana se basa en el hecho de que el cerebro debe manejar una serie de entradas, que varían en fiabilidad. [28] Al manejar estas entradas, debe construir una representación coherente del mundo que corresponda a la realidad. La perspectiva de la integración bayesiana es que el cerebro utiliza una forma de inferencia bayesiana . [29] Esta perspectiva ha sido respaldada por el modelado computacional de dicha inferencia bayesiana a partir de señales hasta una representación coherente, que muestra características similares a la integración en el cerebro. [29]

Combinación de señales frente a modelos de inferencia causal

Con el supuesto de independencia entre las distintas fuentes, el modelo tradicional de combinación de señales es exitoso en la integración de modalidades. Sin embargo, dependiendo de las discrepancias entre modalidades, puede haber diferentes formas de fusión de estímulos: integración, integración parcial y segregación. Para entender completamente los otros dos tipos, tenemos que usar el modelo de inferencia causal sin el supuesto como modelo de combinación de señales. Esta libertad nos da una combinación general de cualquier número de señales y modalidades usando la regla de Bayes para hacer inferencia causal de señales sensoriales. [30]

Los modelos jerárquicos y no jerárquicos

La diferencia entre los dos modelos es que el modelo jerárquico puede hacer inferencias causales explícitas para predecir ciertos estímulos, mientras que el modelo no jerárquico solo puede predecir la probabilidad conjunta de los estímulos. Sin embargo, el modelo jerárquico es en realidad un caso especial de modelo no jerárquico al establecer la probabilidad previa conjunta como un promedio ponderado de la probabilidad previa de las causas comunes e independientes, cada una ponderada por su probabilidad previa. Con base en la correspondencia de estos dos modelos, también podemos decir que el modelo jerárquico es una mezcla modal del modelo no jerárquico.

Independencia de probabilidades y probabilidades previas

En el modelo bayesiano , los valores a priori y la probabilidad generalmente representan las estadísticas del entorno y las representaciones sensoriales. La independencia de los valores a priori y las probabilidades no está asegurada, ya que los valores a priori pueden variar con la probabilidad solo por las representaciones. Sin embargo, Shams ha demostrado la independencia con una serie de control de parámetros en un experimento de percepción multisensorial. [31]

Intencionalidad compartida

El enfoque de la intencionalidad compartida propone la explicación holística de los procesos neurofisiológicos que subyacen a la formación de percepciones y experiencias conscientes. El constructo psicológico de la intencionalidad compartida fue introducido a finales del siglo XX. [32] [33] [34] Michael Tomasello lo desarrolló para explicar la cognición que comienza en la etapa de desarrollo temprana a través de la colaboración inconsciente en díadas madre-hijo. [35] [36] En los últimos veinte años, el conocimiento de esta noción ha evolucionado a través de la observación de la intencionalidad compartida desde diferentes perspectivas, por ejemplo, la psicofisiología , [37] [38] y la neurobiología . [39] Según Igor Val Danilov, la intencionalidad compartida permite a la pareja madre-hijo compartir el estímulo sensorial esencial del problema cognitivo real. [40] La hipótesis de que los procesos neurofisiológicos ocurren durante la intencionalidad compartida explica su complejidad integradora desde los niveles de dinámica neuronal a interpersonal. [41] Esta interacción colaborativa proporciona un aprendizaje ambiental del organismo inmaduro, a partir de la etapa de reflejos del desarrollo, para procesar la organización, identificación e interpretación de la información sensorial en el desarrollo de la percepción. [42] Desde esta perspectiva, la intencionalidad compartida contribuye a la formación de percepciones y experiencias conscientes, resolviendo el problema vinculante , o al menos complementa uno de los mecanismos señalados anteriormente. [43]

Principios

Las contribuciones de Barry Stein, Alex Meredith y sus colegas (por ejemplo, "La fusión de los sentidos", 1993, [44] ) se consideran ampliamente como el trabajo pionero en el campo moderno de la integración multisensorial. A través de un estudio detallado a largo plazo de la neurofisiología del colículo superior, destilaron tres principios generales mediante los cuales se puede describir mejor la integración multisensorial.

Consecuencias perceptivas y conductuales

Hasta principios de este siglo, la literatura científica se rigió por un enfoque unimodal, que permitió una rápida progresión del mapeo neuronal y una mejor comprensión de las estructuras neuronales, pero que, con algunas excepciones, la investigación de la percepción permaneció relativamente estancada. El reciente entusiasmo renovado por la investigación perceptual es indicativo de un cambio sustancial desde el reduccionismo hacia las metodologías gestálticas. La teoría de la Gestalt, dominante a finales del siglo XIX y principios del XX, propugnaba dos principios generales: el «principio de totalidad», según el cual la experiencia consciente debe considerarse globalmente, y el «principio de isomorfismo psicofísico», que afirma que los fenómenos perceptuales están correlacionados con la actividad cerebral. Justo estas ideas ya las aplicó Justo Gonzalo en su trabajo sobre dinámica cerebral, donde se considera una correspondencia sensorio-cerebral en la formulación del «desarrollo del campo sensorial debido a un isomorfismo psicofísico» (pág. 23 de la traducción inglesa de la ref. [19] ). Ambas ideas, el "principio de totalidad" y el "isomorfismo psicofísico", son particularmente relevantes en el clima actual y han impulsado a los investigadores a investigar los beneficios conductuales de la integración multisensorial.

Disminuir la incertidumbre sensorial

Se ha reconocido ampliamente que la incertidumbre en los dominios sensoriales da como resultado una mayor dependencia de la integración multisensorial. [26] Por lo tanto, se deduce que las señales de múltiples modalidades que son sincrónicas tanto temporal como espacialmente se consideran neuronalmente y perceptualmente como emanando de la misma fuente. El grado de sincronía que se requiere para que se produzca esta "unión" se está investigando actualmente en una variedad de enfoques. [50] La función integradora solo se produce hasta un punto más allá del cual el sujeto puede diferenciarlos como dos estímulos opuestos. Al mismo tiempo, se puede extraer una conclusión intermedia significativa de la investigación realizada hasta el momento. Los estímulos multisensoriales que están ligados a un solo percepto, también están ligados a los mismos campos receptivos de las neuronas multisensoriales en el SC y la corteza. [26]

Disminuir el tiempo de reacción

Las respuestas a múltiples estímulos sensoriales simultáneos pueden ser más rápidas que las respuestas a los mismos estímulos presentados de forma aislada. Hershenson (1962) presentó una luz y un tono de forma simultánea y por separado, y pidió a los participantes humanos que respondieran lo más rápidamente posible a ellos. Al variar la asincronía entre los inicios de ambos estímulos, se observó que para ciertos grados de asincronía, los tiempos de reacción disminuyeron. [51] Estos niveles de asincronía fueron bastante pequeños, tal vez reflejando la ventana temporal que existe en las neuronas multisensoriales del SC. Estudios posteriores han analizado los tiempos de reacción de los movimientos oculares sacádicos; [52] y más recientemente correlacionaron estos hallazgos con fenómenos neuronales. [53] En pacientes estudiados por Gonzalo , [18] con lesiones en la corteza parietooccipital, se demostró que la disminución del tiempo de reacción a un estímulo dado mediante la facilitación intersensorial era muy notable.

Efectos de objetivo redundantes

El efecto de objetivo redundante es la observación de que las personas suelen responder más rápido a objetivos dobles (dos objetivos presentados simultáneamente) que a cualquiera de los objetivos presentados por separado. Esta diferencia en latencia se denomina ganancia de redundancia (RG). [54]

En un estudio realizado por Forster, Cavina-Pratesi, Aglioti y Berlucchi (2001), los observadores normales respondieron más rápido a estímulos visuales y táctiles simultáneos que a estímulos visuales o táctiles individuales. El TR a estímulos visuales y táctiles simultáneos también fue más rápido que el TR a estímulos visuales o táctiles duales simultáneos. La ventaja del TR a estímulos visuales y táctiles combinados sobre el TR a los otros tipos de estimulación podría explicarse por la facilitación neuronal intersensorial en lugar de por la suma de probabilidades. Estos efectos pueden atribuirse a la convergencia de entradas táctiles y visuales en centros neuronales que contienen representaciones multisensoriales flexibles de partes del cuerpo. [55]

Ilusiones multisensoriales

Efecto McGurk

Se ha descubierto que dos estímulos bimodales convergentes pueden producir una percepción que no sólo es diferente en magnitud que la suma de sus partes, sino también bastante diferente en calidad. En un estudio clásico denominado efecto McGurk , [56] la producción de fonemas de una persona fue doblada con un vídeo de esa persona diciendo un fonema diferente. [57] El resultado fue la percepción de un tercer fonema diferente. McGurk y MacDonald (1976) explicaron que los fonemas como ba, da, ka, ta, ga y pa se pueden dividir en cuatro grupos, los que se pueden confundir visualmente, es decir (da, ga, ka, ta) y (ba y pa), y los que se pueden confundir audiblemente. Por tanto, cuando ba – voz y ga labios se procesan juntos, la modalidad visual ve ga o da, y la modalidad auditiva oye ba o da, combinándose para formar el percepto da. [56]

Ventriloquia

El ventriloquismo se ha utilizado como evidencia de la hipótesis de adecuación de la modalidad. El efecto del ventriloquismo es la situación en la que la percepción de la ubicación auditiva se desplaza hacia una señal visual. El estudio original que describe este fenómeno fue realizado por Howard y Templeton (1966), después del cual varios estudios han replicado y se han basado en las conclusiones a las que llegaron. [58] En condiciones en las que la señal visual es inequívoca, la captura visual ocurre de manera confiable. Por lo tanto, para probar la influencia del sonido en la ubicación percibida, el estímulo visual debe degradarse progresivamente. [26] Además, dado que los estímulos auditivos están más en sintonía con los cambios temporales, estudios recientes han probado la capacidad de las características temporales para influir en la ubicación espacial de los estímulos visuales. Algunos tipos de EVP ( fenómeno de voz electrónica ), principalmente los que utilizan burbujas de sonido, se consideran un tipo de técnica de ventriloquismo moderna y se reproducen mediante el uso de software sofisticado, computadoras y equipos de sonido.

Ilusión de doble destello

La ilusión del doble destello fue reportada como la primera ilusión que demostró que los estímulos visuales pueden ser alterados cualitativamente por estímulos auditivos. [59] En el paradigma estándar, a los participantes se les presentan combinaciones de uno a cuatro destellos acompañados de cero a cuatro pitidos. Luego se les pidió que dijeran cuántos destellos percibieron. Los participantes percibieron destellos ilusorios cuando hubo más pitidos que destellos. Los estudios de fMRI han demostrado que hay una activación intermodal en áreas visuales tempranas de bajo nivel, que fue cualitativamente similar a la percepción de un destello real. Esto sugiere que la ilusión refleja la percepción subjetiva del destello adicional. [60] Además, los estudios sugieren que el momento de la activación multisensorial en las cortezas unisensoriales es demasiado rápido para ser mediado por una integración de orden superior, lo que sugiere conexiones de retroalimentación o laterales. [61] Un estudio ha revelado el mismo efecto pero de la visión a la audición, así como efectos de fisión en lugar de fusión, aunque el nivel del estímulo auditivo se redujo para hacerlo menos saliente para aquellas ilusiones que afectan la audición. [62]

Ilusión de mano de goma

Diagrama esquemático de la configuración experimental en la tarea de ilusión de la mano de goma.

En la ilusión de la mano de goma (RHI), [63] los participantes humanos ven una mano ficticia que es acariciada con un pincel, mientras sienten una serie de pinceladas idénticas aplicadas a su propia mano, que está oculta a la vista. Si esta información visual y táctil se aplica de manera sincrónica, y si la apariencia visual y la posición de la mano ficticia son similares a la de la propia mano, entonces las personas pueden sentir que los toques en su propia mano provienen de la mano ficticia, e incluso que la mano ficticia es, de alguna manera, su propia mano. [63] Esta es una forma temprana de ilusión de transferencia corporal .

La RHI es una ilusión de visión, tacto y postura ( propiocepción ), pero también se puede inducir una ilusión similar con el tacto y la propiocepción. [64] También se ha descubierto que la ilusión puede no requerir estimulación táctil en absoluto, pero se puede inducir completamente utilizando la mera visión de la mano de goma en una postura congruente con la mano real oculta. [65]

El primer informe de este tipo de ilusión puede haber sido ya en 1937 (Tastevin, 1937). [66] [67] [68]

Ilusión de transferencia corporal

La ilusión de transferencia corporal generalmente implica el uso de dispositivos de realidad virtual para inducir la ilusión en el sujeto de que el cuerpo de otra persona o ser es su propio cuerpo.

Mecanismos neuronales

Áreas subcorticales

Colículo superior

Colículo superior

El colículo superior (SC) o techo óptico (OT) es parte del techo, ubicado en el mesencéfalo, superior al tronco encefálico e inferior al tálamo. Contiene siete capas de materia blanca y gris alternadas, de las cuales las superficiales contienen mapas topográficos del campo visual; y las capas más profundas contienen mapas espaciales superpuestos de las modalidades visual, auditiva y somatosensorial. [69] La estructura recibe aferencias directamente de la retina, así como de varias regiones de la corteza (principalmente el lóbulo occipital), la médula espinal y el colículo inferior. Envía eferencias a la médula espinal, el cerebelo, el tálamo y el lóbulo occipital a través del núcleo geniculado lateral (LGN). La estructura contiene una alta proporción de neuronas multisensoriales y desempeña un papel en el control motor de las conductas de orientación de los ojos, los oídos y la cabeza. [53]

Los campos receptivos de las modalidades somatosensoriales, visuales y auditivas convergen en las capas más profundas para formar un mapa multisensorial bidimensional del mundo externo. Aquí, los objetos que se encuentran frente a nosotros se representan caudalmente y los objetos de la periferia se representan rosteralmente. De manera similar, las ubicaciones en el espacio sensorial superior se representan medialmente y las ubicaciones inferiores se representan lateralmente. [44]

Sin embargo, a diferencia de la simple convergencia, el SC integra información para crear una salida que difiere de la suma de sus entradas. Siguiendo un fenómeno denominado "regla espacial", las neuronas se excitan si los estímulos de múltiples modalidades caen en el mismo campo receptivo o en campos adyacentes, pero se inhiben si los estímulos caen en campos dispares. [70] Las neuronas excitadas pueden entonces proceder a inervar varios músculos y estructuras neuronales para orientar el comportamiento y la atención de un individuo hacia el estímulo. Las neuronas en el SC también se adhieren a la "regla temporal", en la que la estimulación debe ocurrir dentro de una proximidad temporal cercana para excitar a las neuronas. Sin embargo, debido al tiempo de procesamiento variable entre las modalidades y la velocidad relativamente más lenta del sonido a la luz, se ha descubierto que las neuronas pueden excitarse de manera óptima cuando se estimulan con cierto tiempo de diferencia. [71]

Putamen

Se ha demostrado que las neuronas individuales del putamen del macaco tienen respuestas visuales y somatosensoriales estrechamente relacionadas con las de la zona polisensorial de la corteza premotora y el área 7b del lóbulo parietal. [72] [73]

Áreas corticales

Las neuronas multisensoriales existen en una gran cantidad de lugares, a menudo integradas con neuronas unimodales. Recientemente se han descubierto en áreas que antes se creía que eran específicas de una modalidad, como la corteza somatosensorial, así como en grupos en los límites entre los lóbulos cerebrales principales, como el espacio occipitoparietal y el espacio occipitotemporal. [74] [53] [75]

Sin embargo, para que se produzcan tales cambios fisiológicos, debe existir una conectividad continua entre estas estructuras multisensoriales. En general, se acepta que el flujo de información dentro de la corteza sigue una configuración jerárquica. [76] Hubel y Wiesel demostraron que los campos receptivos y, por lo tanto, la función de las estructuras corticales, a medida que se avanza desde V1 a lo largo de las vías visuales, se vuelven cada vez más complejos y especializados. [76] A partir de esto, se postuló que la información fluía hacia afuera en un modo de retroalimentación; los productos finales complejos finalmente se unían para formar un percepto. Sin embargo, a través de fMRI y tecnologías de registro intracraneal, se ha observado que el tiempo de activación de los niveles sucesivos de la jerarquía no se correlaciona con una estructura de retroalimentación. Es decir, se ha observado una activación tardía en la corteza estriada, marcadamente después de la activación de la corteza prefrontal en respuesta al mismo estímulo. [77]

Como complemento, se han encontrado fibras nerviosas aferentes que se proyectan a áreas visuales tempranas como el giro lingual desde finales de las corrientes visuales dorsal (acción) y ventral (percepción), así como desde la corteza de asociación auditiva. [78] También se han observado proyecciones de retroalimentación en la zarigüeya directamente desde la corteza de asociación auditiva a V1. [76] Esta última observación actualmente resalta un punto de controversia dentro de la comunidad neurocientífica. Sadato et al. (2004) concluyeron, en línea con Bernstein et al. (2002), que la corteza auditiva primaria (A1) era funcionalmente distinta de la corteza de asociación auditiva, en el sentido de que carecía de cualquier interacción con la modalidad visual. Por lo tanto, concluyeron que A1 no se vería afectada en absoluto por la plasticidad intermodal . [79] [80] Esto coincide con la afirmación de Jones y Powell (1970) de que las áreas sensoriales primarias están conectadas solo a otras áreas de la misma modalidad. [81]

Por el contrario, la vía auditiva dorsal, que se proyecta desde el lóbulo temporal, se ocupa en gran medida del procesamiento de la información espacial y contiene campos receptivos que están organizados topográficamente. Las fibras de esta región se proyectan directamente a las neuronas que gobiernan los campos receptivos correspondientes en V1. [76] Las consecuencias perceptivas de esto aún no se han reconocido empíricamente. Sin embargo, se puede plantear la hipótesis de que estas proyecciones pueden ser las precursoras de una mayor agudeza y énfasis de los estímulos visuales en áreas relevantes del espacio perceptivo. En consecuencia, este hallazgo rechaza la hipótesis de Jones y Powell (1970) [81] y, por lo tanto, está en conflicto con los hallazgos de Sadato et al. (2004). [79] Una resolución a esta discrepancia incluye la posibilidad de que las áreas sensoriales primarias no se puedan clasificar como un solo grupo y, por lo tanto, pueden ser mucho más diferentes de lo que se pensaba anteriormente.

El síndrome multisensorial con bilateralidad simétrica, caracterizado por Gonzalo y denominado por este autor ‘síndrome central de la corteza’, [18] [19] se originó a partir de una lesión cortical parietooccipital unilateral equidistante de las áreas de proyección visual, táctil y auditiva (la mitad del área 19, la parte anterior del área 18 y la más posterior del área 39, en terminología de Brodmann) que se denominó ‘zona central’. La gradación observada entre síndromes llevó a este autor a proponer un esquema de gradiente funcional en el que la especificidad de la corteza se distribuye con una variación continua, [19] la superposición de los gradientes específicos sería alta o máxima en esa ‘zona central’.

Lóbulo frontal

Área F4 en macacos

Área F5 en macacos [82] [83]

Zona polisensorial de la corteza premotora (ZP) en macacos [84]

Lóbulo occipital

Corteza visual primaria (V1) [85]

Giro lingual en humanos

Complejo occipital lateral (LOC), que incluye el área visual táctil occipital lateral (LOtv) [86]

Lóbulo parietal

Surco intraparietal ventral (VIP) en macacos [82]

Surco intraparietal lateral (LIP) en macacos [82]

Área 7b en macacos [87]

Segunda corteza somatosensorial (SII) [88]

Lóbulo temporal

Corteza auditiva primaria (A1)

Corteza temporal superior (STG/STS/PT) Se sabe que las interacciones intermodales audiovisuales ocurren en la corteza de asociación auditiva que se encuentra directamente debajo de la cisura de Silvio en el lóbulo temporal. [79] Petitto et al. (2000) observaron plasticidad en el giro temporal superior (STG) . [89] Aquí, se encontró que el STG era más activo durante la estimulación en sordos nativos que hablaban señas en comparación con los no oyentes. Al mismo tiempo, investigaciones posteriores han revelado diferencias en la activación del Planum temporale (PT) en respuesta a movimientos no lingüísticos de los labios entre oyentes y sordos; así como una activación progresivamente creciente de la corteza de asociación auditiva a medida que los participantes previamente sordos adquieren experiencia auditiva a través de un implante coclear. [79]

Surco ectosilviano anterior (SEA) en gatos [90] [91] [92]

Surco suprasilviano lateral rostral (rLS) en gatos [91]

Interacciones corticales-subcorticales

La interacción más significativa entre estos dos sistemas (interacciones corticotectales) es la conexión entre el surco ectosilviano anterior (SEA), que se encuentra en la unión de los lóbulos parietal, temporal y frontal, y el SC. El SEA se divide en tres regiones unimodales con neuronas multisensoriales en las uniones entre estas secciones. [93] (Jiang y Stein, 2003). Las neuronas de las regiones unimodales se proyectan a las capas profundas del SC e influyen en el efecto de integración multiplicativa. Es decir, aunque pueden recibir entradas de todas las modalidades de forma normal, el SC no puede mejorar o deprimir el efecto de la estimulación multisensorial sin la entrada del SEA. [93]

Al mismo tiempo, las neuronas multisensoriales del sistema AES, aunque también están conectadas integralmente a las neuronas AES unimodales, no están conectadas directamente al sistema SC. Este patrón de división se refleja en otras áreas de la corteza, lo que da como resultado la observación de que los sistemas multisensoriales cortical y tectal están algo disociados. [94] Stein, London, Wilkinson y Price (1996) analizaron la luminancia percibida de un LED en el contexto de distractores auditivos espacialmente dispares de varios tipos. Un hallazgo significativo fue que un sonido aumentó el brillo percibido de la luz, independientemente de sus ubicaciones espaciales relativas, siempre que la imagen de la luz se proyectara sobre la fóvea. [95] Aquí, la aparente falta de la regla espacial diferencia aún más las neuronas multisensoriales corticales y tectales. Existe poca evidencia empírica para justificar esta dicotomía. Sin embargo, las neuronas corticales que gobiernan la percepción y un sistema subcortical separado que gobierna la acción (comportamiento de orientación) es sinónimo de la hipótesis de la acción de percepción del flujo visual. [96] Es necesaria una mayor investigación en este campo antes de poder hacer afirmaciones sustanciales.

Rutas multisensoriales duales "qué" y "dónde"

Las investigaciones sugieren la existencia de dos rutas multisensoriales para el "qué" y el "dónde". La ruta del "qué" que identifica la identidad de las cosas involucra el área 9 de Brodmann en el giro frontal inferior derecho y el giro frontal medio derecho , el área 13 de Brodmann y el área 45 de Brodmann en la ínsula derecha - área del giro frontal inferior, y el área 13 de Brodmann bilateralmente en la ínsula. La ruta del "dónde" que detecta sus atributos espaciales involucra el área 40 de Brodmann en el lóbulo parietal inferior derecho e izquierdo y el área 7 de Brodmann en el precúneo derecho - lóbulo parietal superior y el área 7 de Brodmann en el lóbulo parietal superior izquierdo. [97]

Desarrollo de operaciones multisensoriales

Teorías del desarrollo

Todas las especies dotadas de múltiples sistemas sensoriales los utilizan de manera integradora para lograr la acción y la percepción. [44] Sin embargo, en la mayoría de las especies, especialmente los mamíferos superiores y los humanos, la capacidad de integración se desarrolla en paralelo con la madurez física y cognitiva. Los niños hasta ciertas edades no muestran patrones de integración maduros. [98] [99] Clásicamente, se han propuesto dos puntos de vista opuestos que son principalmente manifestaciones modernas de la dicotomía nativista/empirista. El punto de vista de la integración (empirista) afirma que al nacer, las modalidades sensoriales no están en absoluto conectadas. Por lo tanto, es solo a través de la exploración activa que pueden ocurrir cambios plásticos en el sistema nervioso para iniciar percepciones y acciones holísticas. Por el contrario, la perspectiva de la diferenciación (nativista) afirma que el sistema nervioso joven está altamente interconectado; y que durante el desarrollo, las modalidades se diferencian gradualmente a medida que se ensayan las conexiones relevantes y se descartan las irrelevantes. [100]

Utilizando el SC como modelo, se puede analizar la naturaleza de esta dicotomía. En el gato recién nacido, las capas profundas del SC contienen sólo neuronas que responden a la modalidad somatosensorial. En el plazo de una semana, comienzan a aparecer las neuronas auditivas, pero no es hasta dos semanas después del nacimiento que aparecen las primeras neuronas multisensoriales. Otros cambios continúan, con la llegada de las neuronas visuales después de tres semanas, hasta que el SC ha alcanzado su estructura completamente madura después de tres a cuatro meses. Al mismo tiempo, en las especies de monos, los recién nacidos están dotados de un complemento significativo de células multisensoriales; sin embargo, al igual que en los gatos, no hay un efecto de integración aparente hasta mucho más tarde. [53] Se cree que este retraso es el resultado del desarrollo relativamente más lento de las estructuras corticales, incluido el AES; que, como se dijo anteriormente, es esencial para la existencia del efecto de integración. [93]

Además, Wallace (2004) descubrió que los gatos criados en un entorno privado de luz tenían campos receptivos visuales severamente subdesarrollados en las capas profundas del SC. [53] Aunque se ha demostrado que el tamaño del campo receptivo disminuye con la madurez, el hallazgo anterior sugiere que la integración en el SC es una función de la experiencia. Sin embargo, la existencia de neuronas multisensoriales visuales, a pesar de una completa falta de experiencia visual, resalta la aparente relevancia de los puntos de vista nativistas. El desarrollo multisensorial en la corteza se ha estudiado en menor medida, sin embargo, se realizó un estudio similar al presentado anteriormente en gatos cuyos nervios ópticos habían sido cortados. Estos gatos mostraron una marcada mejora en su capacidad para localizar estímulos a través de la audición; y en consecuencia también mostraron una mayor conectividad neuronal entre V1 y la corteza auditiva. [76] Tal plasticidad en la primera infancia permite una mayor adaptabilidad y, por lo tanto, un desarrollo más normal en otras áreas para aquellos con un déficit sensorial.

En cambio, tras el período de formación inicial, el SC no parece mostrar ninguna plasticidad neuronal. A pesar de ello, se sabe que en las conductas de orientación existe habituación y sensibilización a largo plazo. Esta aparente plasticidad funcional se ha atribuido a la adaptabilidad del AES. Es decir, aunque las neuronas del SC tienen una magnitud fija de salida por unidad de entrada y, en esencia, operan con una respuesta de todo o nada, el nivel de activación neuronal se puede ajustar con mayor precisión mediante variaciones en la entrada del AES.

Aunque hay evidencia que apoya ambas perspectivas de la dicotomía integración/diferenciación, también existe un conjunto significativo de evidencia que apoya una combinación de factores desde ambos puntos de vista. Por lo tanto, de manera análoga al argumento nativista/empirista más amplio, es evidente que, en lugar de una dicotomía, existe un continuo, de modo que las hipótesis de integración y diferenciación son extremos en cada extremo.

Desarrollo psicofísico de la integración

No se sabe mucho sobre el desarrollo de la capacidad de integrar múltiples estimaciones, como la visión y el tacto. [98] Algunas capacidades multisensoriales están presentes desde la primera infancia, pero no es hasta que los niños tienen ocho años o más que usan múltiples modalidades para reducir la incertidumbre sensorial. [98]

Un estudio demostró que la integración visual y auditiva intermodal está presente desde el primer año de vida. [101] Este estudio midió el tiempo de respuesta para orientarse hacia una fuente. Los bebés de entre 8 y 10 meses mostraron tiempos de respuesta significativamente menores cuando la fuente se presentó a través de información visual y auditiva en comparación con una sola modalidad . Sin embargo, los bebés más pequeños no mostraron tal cambio en los tiempos de respuesta a estas diferentes condiciones. De hecho, los resultados del estudio indican que los niños potencialmente tienen la capacidad de integrar fuentes sensoriales a cualquier edad. Sin embargo, en ciertos casos, por ejemplo, las señales visuales , se evita la integración intermodal. [98]
Otro estudio encontró que la integración intermodal del tacto y la visión para distinguir el tamaño y la orientación está disponible desde al menos los 8 años de edad. [99] Para los grupos de edad de preintegración, un sentido domina dependiendo de la característica discernida (ver dominio visual). [99]

Un estudio que investigó la integración sensorial dentro de una única modalidad ( visión ) descubrió que no se puede establecer hasta los 12 años o más. [98] Este estudio en particular evaluó la integración de las señales de disparidad y textura para resolver la inclinación de la superficie. Aunque los grupos de edad más jóvenes mostraron un rendimiento algo mejor al combinar señales de disparidad y textura en comparación con el uso de solo señales de disparidad o textura, esta diferencia no fue estadísticamente significativa. [98] En los adultos, la integración sensorial puede ser obligatoria, lo que significa que ya no tienen acceso a las fuentes sensoriales individuales. [102]

Reconociendo estas variaciones, se han establecido muchas hipótesis para reflejar por qué estas observaciones dependen de la tarea. Dado que los diferentes sentidos se desarrollan a diferentes ritmos, se ha propuesto que la integración intermodal no aparece hasta que ambas modalidades han alcanzado la madurez. [99] [103] El cuerpo humano experimenta una transformación física significativa a lo largo de la infancia. No solo hay crecimiento en tamaño y estatura (que afecta la altura de visualización), sino que también hay cambios en la distancia interocular y la longitud del globo ocular . Por lo tanto, las señales sensoriales deben reevaluarse constantemente para apreciar estos diversos cambios fisiológicos. [99] Parte del apoyo proviene de estudios animales que exploran la neurobiología detrás de la integración. Los monos adultos tienen conexiones interneuronales profundas dentro del colículo superior que proporcionan una integración visoauditiva fuerte y acelerada. [104] Por el contrario, los animales jóvenes no tienen esta mejora hasta que las propiedades unimodales están completamente desarrolladas. [105] [106]

Además, para racionalizar el dominio sensorial, Gori et al. (2008) defienden que el cerebro utiliza la fuente de información más directa durante la inmadurez sensorial. [99] En este caso, la orientación es principalmente una característica visual. Puede derivarse directamente de la imagen del objeto que se forma en la retina , independientemente de otros factores visuales. De hecho, los datos muestran que una propiedad funcional de las neuronas dentro de las cortezas visuales de los primates es su discernimiento de la orientación. [107] En contraste, los juicios de orientación hápticos se recuperan a través de estimulaciones con patrones colaborativos, evidentemente una fuente indirecta susceptible a interferencias. Del mismo modo, cuando se trata del tamaño, la información háptica que proviene de las posiciones de los dedos es más inmediata. Las percepciones visuales del tamaño, alternativamente, tienen que calcularse utilizando parámetros como la inclinación y la distancia . Considerando esto, el dominio sensorial es un instinto útil para ayudar con la calibración. Durante la inmadurez sensorial, la fuente de información más simple y robusta podría usarse para ajustar la precisión de la fuente alternativa. [99] El trabajo de seguimiento de Gori et al. (2012) mostró que, a todas las edades, las percepciones del tamaño de la visión son casi perfectas cuando se ven objetos dentro del espacio de trabajo háptico (es decir, al alcance de la mano). [108] Sin embargo, aparecieron errores sistemáticos en la percepción cuando el objeto se posicionó más allá de esta zona. [109] Los niños menores de 14 años tienden a subestimar el tamaño del objeto, mientras que los adultos lo sobreestimaron. Sin embargo, si el objeto se devolvió al espacio de trabajo háptico, esos sesgos visuales desaparecieron. [108] Estos resultados respaldan la hipótesis de que la información háptica puede educar las percepciones visuales. Si se utilizan fuentes para la calibración cruzada, por lo tanto, no se pueden combinar (integrar). Mantener el acceso a las estimaciones individuales es una compensación por una mayor plasticidad sobre la precisión, lo que podría ser beneficioso en retrospectiva para el cuerpo en desarrollo. [99] [103]

Alternativamente, Ernst (2008) defiende que la integración eficiente inicialmente se basa en establecer correspondencia: qué señales sensoriales pertenecen juntas. [103] De hecho, los estudios han demostrado que la integración viso-háptica falla en adultos cuando hay una separación espacial percibida , lo que sugiere que la información sensorial proviene de diferentes objetivos. [110] Además, si la separación se puede explicar, por ejemplo, viendo un objeto a través de un espejo , la integración se restablece e incluso puede ser óptima. [111] [112] Ernst (2008) sugiere que los adultos pueden obtener este conocimiento de experiencias previas para determinar rápidamente qué fuentes sensoriales representan el mismo objetivo, pero los niños pequeños podrían ser deficientes en esta área. [103] Una vez que hay un banco suficiente de experiencias, la confianza para integrar correctamente las señales sensoriales se puede introducir en su comportamiento.

Por último, Nardini et al. (2010) recientemente plantearon la hipótesis de que los niños pequeños han optimizado su apreciación sensorial para la velocidad sobre la precisión. [98] Cuando la información se presenta en dos formas, los niños pueden derivar una estimación de la fuente más rápida disponible, ignorando posteriormente la alternativa, incluso si contiene información redundante. Nardini et al. (2010) proporciona evidencia de que las latencias de respuesta de los niños (de 6 años) son significativamente más bajas cuando los estímulos se presentan en condiciones de múltiples señales en lugar de una sola señal. [98] Por el contrario, los adultos no mostraron cambios entre estas condiciones. De hecho, los adultos muestran una fusión obligatoria de señales, por lo tanto, solo pueden aspirar a la máxima precisión. [98] [102] Sin embargo, las latencias medias generales de los niños no fueron más rápidas que las de los adultos, lo que sugiere que la optimización de la velocidad simplemente les permite seguir el ritmo maduro. Considerando la prisa de los eventos del mundo real, esta estrategia puede resultar necesaria para contrarrestar el procesamiento general más lento de los niños y mantener un acoplamiento eficaz entre visión y acción. [113] [114] [115] En última instancia, el sistema sensorial en desarrollo puede adaptarse preferentemente a objetivos diferentes ( velocidad y detección de conflictos sensoriales ), que son típicos del aprendizaje objetivo.

El desarrollo tardío de la integración eficiente también se ha investigado desde el punto de vista computacional. [116] Daee et al. (2014) demostraron que tener una fuente sensorial dominante a una edad temprana, en lugar de integrar todas las fuentes, facilita el desarrollo general de integraciones intermodales.

Aplicaciones

Prótesis

Los diseñadores de prótesis deben considerar cuidadosamente la naturaleza de la alteración de la dimensionalidad de la señalización sensoriomotora desde y hacia el SNC al diseñar dispositivos protésicos. Como se informa en la literatura, la señalización neuronal desde el SNC a los motores está organizada de una manera que las dimensionalidades de las señales aumentan gradualmente a medida que se acerca a los músculos, también llamadas sinergias musculares. Por otro lado, en el mismo principio, pero en orden opuesto, las dimensionalidades de las señales de los receptores sensoriales se integran gradualmente, también llamadas sinergias sensoriales, a medida que se acercan al SNC. Esta formación de señalización similar a una corbata de moño permite que el SNC procese solo información abstracta pero valiosa. Tal proceso reducirá la complejidad de los datos, manejará los ruidos y garantizará al SNC el consumo óptimo de energía. Aunque los dispositivos protésicos disponibles comercialmente actualmente se centran principalmente en implementar el lado motor simplemente utilizando sensores EMG para cambiar entre diferentes estados de activación de la prótesis, trabajos muy limitados han propuesto un sistema para involucrar mediante la integración del lado sensorial. La integración del sentido táctil y la propiocepción se considera esencial para implementar la capacidad de percibir la información del entorno. [117]

Rehabilitación visual

También se ha demostrado que la integración multisensorial mejora la hemianopsia visual. Mediante la presentación repetida de estímulos multisensoriales en el hemicampo ciego, la capacidad de responder a estímulos puramente visuales regresa gradualmente a ese hemicampo de manera central a periférica. Estos beneficios persisten incluso después de que cese el entrenamiento multisensorial explícito. [118]

Véase también

Referencias

  1. ^ Stein, BE.; Stanford, TR.; Rowland, BA. (diciembre de 2009). "La base neural de la integración multisensorial en el mesencéfalo: su organización y maduración". Hear Res . 258 (1–2): 4–15. doi :10.1016/j.heares.2009.03.012. PMC  2787841. PMID  19345256 .
  2. ^ Lewkowicz DJ, Ghazanfar AA (noviembre de 2009). "El surgimiento de sistemas multisensoriales a través del estrechamiento perceptual" (PDF) . Trends Cogn. Sci. (Ed. regular) . 13 (11): 470–8. CiteSeerX 10.1.1.554.4323 . doi :10.1016/j.tics.2009.08.004. PMID  19748305. S2CID  14289579. 
  3. ^ Lemus L, Hernández A, Luna R, Zainos A, Romo R (julio de 2010). "¿Las cortezas sensoriales procesan más de una modalidad sensorial durante los juicios perceptuales?". Neuron . 67 (2): 335–48. doi : 10.1016/j.neuron.2010.06.015 . PMID  20670839. S2CID  16043442.
  4. ^ Zmigrod, S.; Hommel, B. (enero de 2010). "Dinámica temporal de la unión de características unimodales y multimodales" (PDF) . Atten Percept Psychophys . 72 (1): 142–52. doi : 10.3758/APP.72.1.142 . PMID  20045885. S2CID  7055915.
  5. ^ Wagemans, J.; Elder, JH.; Kubovy, M.; Palmer, SE.; Peterson, MA.; Singh, M.; von der Heydt, R. (noviembre de 2012). "Un siglo de psicología de la Gestalt en la percepción visual: I. Agrupamiento perceptual y organización figura-fondo". Psychol Bull . 138 (6): 1172–217. CiteSeerX 10.1.1.452.8394 . doi :10.1037/a0029333. PMC 3482144. PMID  22845751 .  
  6. ^ Wagemans, J.; Feldman, J.; Gepshtein, S.; Kimchi, R.; Pomerantz, JR.; van der Helm, PA.; van Leeuwen, C. (noviembre de 2012). "Un siglo de psicología de la Gestalt en la percepción visual: II. Fundamentos conceptuales y teóricos". Psychol Bull . 138 (6): 1218–52. doi :10.1037/a0029334. PMC 3728284. PMID  22845750 . 
  7. ^ Stein, BE.; Rowland, BA. (2011). "Organización y plasticidad en la integración multisensorial". Mejorar el rendimiento para la acción y la percepción: integración multisensorial, neuroplasticidad y neuroprótesis, parte I. Progreso en la investigación del cerebro. Vol. 191. págs. 145–63. doi :10.1016/B978-0-444-53752-2.00007-2. ISBN 9780444537522. PMC  3245961 . PMID  21741550. {{cite book}}: |journal=ignorado ( ayuda )
  8. ^ Recanzone, GH. (diciembre de 2009). "Interacciones de estímulos auditivos y visuales en el espacio y el tiempo". Hear Res . 258 (1–2): 89–99. doi :10.1016/j.heares.2009.04.009. PMC 2787663. PMID 19393306  . 
  9. ^ Smith, E.; Duede, S.; Hanrahan, S.; Davis, T.; House, P.; Greger, B. (2013). "Ver para creer: las representaciones neuronales de estímulos visuales en la corteza auditiva humana se correlacionan con percepciones auditivas ilusorias". PLOS ONE . ​​8 (9): e73148. Bibcode :2013PLoSO...873148S. doi : 10.1371/journal.pone.0073148 . PMC 3762867 . PMID  24023823. 
  10. ^ Fodor, Jerry A. (1983). Modularidad de la mente: un ensayo sobre psicología de la facultad . Cambridge, Mass.: MIT Press. ISBN 978-0-262-06084-4.OCLC 551957787  .
  11. ^ Stratton, George M. (1896). "Algunos experimentos preliminares sobre la visión sin inversión de la imagen retiniana". Psychological Review . 3 (6): 611–617. doi :10.1037/h0072918.
  12. ^ Stratton, George M. (1897). "Visión sin inversión de la imagen retiniana". Psychological Review . 4 (4): 341–360, 463–481. doi :10.1037/h0075482.
  13. ^ Hartmann, GM (1935). Psicología de la Gestalt . Nueva York: The Ronald Press.
  14. ^ Urbantschitsch, V. (1888). "Über den Einfluss einer Sinneserregung auf die übrigen Sinnesempfindungen". Archivo Pflügers . 42 : 154–182. doi :10.1007/bf01669354. S2CID  42136599.
  15. ^ Kravkov, SV (1930). "Über die Abhängigkeit der Sehschärfe vom Schallreiz". Arco. Oftalmol . 124 (2): 334–338. doi :10.1007/bf01853661. S2CID  30040170.
  16. ^ ab Hartmann, GW (1933). "Cambios en la agudeza visual mediante estimulación simultánea de otros órganos sensoriales". J. Exp. Psychol . 16 (3): 393–407. doi :10.1037/h0074549.
  17. ^ Londres, ID (1954). "Investigación de la interacción sensorial en la Unión Soviética". Psychol. Bull . 51 (6): 531–568. doi :10.1037/h0056730. PMID  13215683.
  18. ^ abcd Gonzalo, J. (1945, 1950, 1952, 2010, 2023). Dinámica Cerebral, Acceso Abierto. Edición facsímil 2010 del vol. 1 1945, vol. 2 1950 (Madrid: Inst. S. Ramón y Cajal, CSIC), Suplemento I 1952 (Trab. Inst. Cajal Invest. Biol.) y 1ª ed. Suplemento II 2010. Red Temática en Tecnologías de Computación Artificial/Natural (RTNAC) y Universidad de Santiago de Compostela (USC). ISBN 978-84-9887-458-7. Brain Dynamics, edición inglesa 2023 (Vols. 1 y 2, Suplementos I y II), I. Gonzalo-Fonrodona (ed.) Editorial CSIC, Acceso Abierto.
  19. ^ abcd Gonzalo, J. (1952). "Las funciones cerebrales humanas según nuevos datos y bases fisiológicas. Una introducción a los estudios de Dinámica Cerebral". Trabajos del Inst. Cajal de Investigaciones Biológicas , XLIV : págs. Se trata del Suplemento I de Brain Dynamics, edición en inglés 2023 (Vols. 1 y 2, Suplementos I y II), I. Gonzalo-Fonrodona (ed.) Editorial CSIC, Acceso Abierto.
  20. ^ Witten, IB.; Knudsen, EI. (Noviembre de 2005). "Por qué ver es creer: fusionando los mundos auditivo y visual". Neuron . 48 (3): 489–96. doi : 10.1016/j.neuron.2005.10.020 . PMID  16269365. S2CID  17244783.
  21. ^ Shams, L.; Beierholm, UR. (septiembre de 2010). "Inferencia causal en la percepción". Trends Cogn Sci . 14 (9): 425–32. doi :10.1016/j.tics.2010.07.001. PMID  20705502. S2CID  7750709.
  22. ^ Gori, M.; Del Viva, M.; Sandini, G.; Burr, DC. (mayo de 2008). "Los niños pequeños no integran la información visual y háptica" (PDF) . Curr Biol . 18 (9): 694–8. doi : 10.1016/j.cub.2008.04.036 . PMID  18450446. S2CID  13899031.
  23. ^ Gori, M.; Sandini, G.; Burr, D. (2012). "Desarrollo de la integración visoauditiva en el espacio y el tiempo". Front Integr Neurosci . 6 : 77. doi : 10.3389/fnint.2012.00077 . PMC 3443931 . PMID  23060759. 
  24. ^ Welch RB, Warren DH (noviembre de 1980). "Respuesta perceptual inmediata a la discrepancia intersensorial". Psychol Bull . 88 (3): 638–67. doi :10.1037/0033-2909.88.3.638. PMID  7003641.
  25. ^ Lederman, Susan J. ; Klatzky, Roberta L. (2004). "Percepción de texturas multisensoriales". En Calvert, Gemma A.; Spence, Charles; Stein, Barry E. (eds.). El manual del procesamiento multisensorial . Cambridge, MA: MIT Press. págs. 107–122. ISBN 978-0-262-03321-3.
  26. ^ abcde Alais D, Burr D (febrero de 2004). "El efecto del ventrílocuo resulta de una integración bimodal casi óptima". Curr. Biol . 14 (3): 257–62. CiteSeerX 10.1.1.220.4159 . doi :10.1016/j.cub.2004.01.029. PMID  14761661. S2CID  3125842. 
  27. ^ Kuang, S.; Zhang, T. (2014). "Direcciones olfativas: la olfacción modula la percepción ambigua del movimiento visual". Scientific Reports . 4 : 5796. Bibcode :2014NatSR...4E5796K. doi :10.1038/srep05796. PMC 4107342 . PMID  25052162. 
  28. ^ Deneve S, Pouget A (2004). "Integración multisensorial bayesiana y vínculos espaciales intermodales" (PDF) . J. Physiol. París . 98 (1–3): 249–58. CiteSeerX 10.1.1.133.7694 . doi :10.1016/j.jphysparis.2004.03.011. PMID  15477036. S2CID  9831111. 
  29. ^ ab Pouget A, Deneve S, Duhamel JR (septiembre de 2002). "Una perspectiva computacional sobre la base neuronal de las representaciones espaciales multisensoriales". Nature Reviews Neuroscience . 3 (9): 741–7. doi :10.1038/nrn914. PMID  12209122. S2CID  1035721.
  30. ^ Vilares, I.; Kording, K. (abril de 2011). "Modelos bayesianos: la estructura del mundo, la incertidumbre, el comportamiento y el cerebro". Anales de la Academia de Ciencias de Nueva York . 1224 (1): 22–39. Bibcode :2011NYASA1224...22V. doi :10.1111/j.1749-6632.2011.05965.x. PMC 3079291 . PMID  21486294. 
  31. ^ Beierholm, UR.; Quartz, SR.; Shams, L. (2009). "Los valores a priori bayesianos se codifican independientemente de las probabilidades en la percepción multisensorial humana". J Vis . 9 (5): 23.1–9. doi : 10.1167/9.5.23 . PMID  19757901.
  32. ^ Gilbert M. (1989). Sobre los hechos sociales. Londres: Routledge .
  33. ^ Searle JR. (1992). El redescubrimiento de la mente. Londres: MIT Press .
  34. ^ Tuomela R. (1995). La importancia de nosotros. SUP. Stanford, CA: Stanford University Press .
  35. ^ Tomasello, M. (1999). Los orígenes culturales de la cognición humana. Cambridge, Massachusetts: Harvard University Press .
  36. ^ Tomasello, M. (2019). Convertirse en humano: una teoría de la ontogenia. Cambridge, Massachusetts: Harvard University Press .
  37. ^ McClung, JS, Placì, S., Bangerter, A., Clément, F. y Bshary, R. (2017). "El lenguaje de la cooperación: la intencionalidad compartida impulsa la variación en la ayuda como función de la pertenencia al grupo". Actas de la Royal Society B: Biological Sciences, 284(1863), 20171682. http://dx.doi.org/10.1098/rspb.2017.1682.
  38. ^ Shteynberg, G., y Galinsky, AD (2011). "Coordinación implícita: compartir objetivos con personas similares intensifica la búsqueda de objetivos". Journal of Experimental Social Psychology, 47(6), 1291-1294., https://doi.org/10.1016/j.jesp. 2011.04.012.
  39. ^ Fishburn, FA, Murty, VP, Hlutkowsky, CO, MacGillivray, CE, Bemis, LM, Murphy, ME, ... y Perlman, SB (2018). "Juntando nuestras cabezas: la sincronización neuronal interpersonal como mecanismo biológico para la intencionalidad compartida". Neurociencia social cognitiva y afectiva, 13(8), 841-849.
  40. ^ Val Danilov I. (2023). "Fundamentos teóricos de la intencionalidad compartida para la neurociencia en el desarrollo de sistemas de bioingeniería". OBM Neurobiology 2023; 7(1): 156; doi:10.21926/obm.neurobiol.2301156
  41. ^ Val Danilov, I. y Mihailova S. (2021). "Agente de coherencia neuronal para la intencionalidad compartida: una hipótesis de los procesos neurobiológicos que ocurren durante la interacción social". OBM Neurobiology 2021;5(4):26; doi:10.21926/obm.neurobiol.2104113
  42. ^ Val Danilov I. (2023). "Oscilaciones de baja frecuencia para el acoplamiento neuronal no local en la intencionalidad compartida antes y después del nacimiento: hacia el origen de la percepción". OBM Neurobiology 2023; 7(4): 192; doi:10.21926/obm.neurobiol.2304192. https://www.lidsen.com/journals/neurobiology/neurobiology-07-04-192
  43. ^ Val Danilov I. (2023). "Modulación de intencionalidad compartida a nivel celular: oscilaciones de baja frecuencia para la coordinación temporal en sistemas de bioingeniería". OBM Neurobiology 2023; 7(4): 185; doi:10.21926/obm.neurobiol.2304185. https://www.lidsen.com/journals/neurobiology/neurobiology-07-04-185
  44. ^ abc Stein, Barry; Meredith, M. Alex (1993). La fusión de los sentidos . Cambridge, Mass.: MIT Press. ISBN 978-0-262-19331-3.OCLC 25869284  .
  45. ^ Meredith, MA.; Stein, BE. (febrero de 1986). "Los factores espaciales determinan la actividad de las neuronas multisensoriales en el colículo superior del gato". Brain Res . 365 (2): 350–4. doi :10.1016/0006-8993(86)91648-3. PMID  3947999. S2CID  12807282.
  46. ^ ab King AJ, Palmer AR (1985). "Integración de la información visual y auditiva en neuronas bimodales en el colículo superior de cobaya". Exp Brain Res . 60 (3): 492–500. doi :10.1007/bf00236934. PMID  4076371. S2CID  25796198.
  47. ^ Meredith, MA.; Nemitz, JW.; Stein, BE. (Oct 1987). "Determinantes de la integración multisensorial en neuronas del colículo superior. I. Factores temporales". J Neurosci . 7 (10): 3215–29. doi :10.1523/JNEUROSCI.07-10-03215.1987. PMC 6569162 . PMID  3668625. 
  48. ^ Meredith MA, Stein BE (julio de 1983). "Interacciones entre entradas sensoriales convergentes en el colículo superior". Science . 221 (4608): 389–91. Bibcode :1983Sci...221..389M. doi :10.1126/science.6867718. PMID  6867718.
  49. ^ Meredith, MA.; Stein, BE. (septiembre de 1986). "La convergencia visual, auditiva y somatosensorial en las células del colículo superior da como resultado la integración multisensorial". J Neurophysiol . 56 (3): 640–62. doi :10.1152/jn.1986.56.3.640. PMID  3537225.
  50. ^ Cervantes Constantino, F.; Sánchez-Costa, T.; Cipriani, GA; Carboni, A. (2023). "La atención visoespacial renueva el procesamiento cortical del sonido en medio de la incertidumbre audiovisual". Psicofisiología . 60 (10): e14329. doi :10.1111/psyp.14329. PMID  37166096. S2CID  258617930.
  51. ^ Hershenson M (marzo de 1962). "El tiempo de reacción como medida de facilitación intersensorial". J Exp Psychol . 63 (3): 289–93. doi :10.1037/h0039516. PMID  13906889.
  52. ^ Hughes, HC.; Reuter-Lorenz, PA.; Nozawa, G.; Fendrich, R. (febrero de 1994). "Interacciones visuales y auditivas en el procesamiento sensoriomotor: movimientos sacádicos frente a respuestas manuales". J Exp Psychol Hum Percept Perform . 20 (1): 131–53. doi :10.1037/0096-1523.20.1.131. PMID  8133219.
  53. ^ abcde Wallace, Mark T. (2004). "El desarrollo de procesos multisensoriales". Procesamiento cognitivo . 5 (2): 69–83. doi :10.1007/s10339-004-0017-z. ISSN  1612-4782. S2CID  16710851.
  54. ^ Ridgway N, Milders M, Sahraie A (mayo de 2008). "Efecto de objetivo redundante y procesamiento de color y luminancia". Exp Brain Res . 187 (1): 153–60. doi :10.1007/s00221-008-1293-0. PMID  18264703. S2CID  23092762.
  55. ^ Forster B, Cavina-Pratesi C, Aglioti SM, Berlucchi G (abril de 2002). "Efecto de objetivo redundante y facilitación intersensorial a partir de interacciones visuales-táctiles en tiempo de reacción simple". Exp Brain Res . 143 (4): 480–7. doi :10.1007/s00221-002-1017-9. PMID  11914794. S2CID  115844.
  56. ^ ab McGurk H, MacDonald J (1976). "Escuchar labios y ver voces". Nature . 264 (5588): 746–8. Código Bibliográfico :1976Natur.264..746M. doi :10.1038/264746a0. PMID  1012311. S2CID  4171157.
  57. ^ Nath, AR.; Beauchamp, MS. (enero de 2012). "Una base neural para las diferencias interindividuales en el efecto McGurk, una ilusión de habla multisensorial". NeuroImage . 59 (1): 781–7. doi :10.1016/j.neuroimage.2011.07.024. PMC 3196040 . PMID  21787869. 
  58. ^ Hairston WD, Wallace MT, Vaughan JW, Stein BE, Norris JL, Schirillo JA (enero de 2003). "La capacidad de localización visual influye en el sesgo intermodal". J Cogn Neurosci . 15 (1): 20–9. doi :10.1162/089892903321107792. PMID  12590840. S2CID  13636325.
  59. ^ Shams L, Kamitani Y, Shimojo S (diciembre de 2000). "Ilusiones. Lo que ves es lo que oyes". Nature . 408 (6814): 788. Bibcode :2000Natur.408..788S. doi : 10.1038/35048669 . PMID  11130706. S2CID  205012107.
  60. ^ Watkins S, Shams L, Josephs O, Rees G (agosto de 2007). "La actividad en el V1 humano sigue la percepción multisensorial". NeuroImage . 37 (2): 572–8. doi :10.1016/j.neuroimage.2007.05.027. PMID  17604652. S2CID  17477883.
  61. ^ Shams L, Iwaki S, Chawla A, Bhattacharya J (abril de 2005). "Modulación temprana de la corteza visual por el sonido: un estudio MEG". Neurosci. Lett . 378 (2): 76–81. doi :10.1016/j.neulet.2004.12.035. PMID  15774261. S2CID  4675944.
  62. ^ Andersen TS, Tiippana K, Sams M (noviembre de 2004). "Factores que influyen en las ilusiones audiovisuales de fisión y fusión". Brain Res Cogn Brain Res . 21 (3): 301–308. doi :10.1016/j.cogbrainres.2004.06.004. PMID  15511646.
  63. ^ ab Botvinick M, Cohen J (febrero de 1998). "Las manos de goma 'sienten' el tacto que los ojos ven" (PDF) . Nature . 391 (6669): 756. Bibcode :1998Natur.391..756B. doi : 10.1038/35784 . PMID  9486643. S2CID  205024516.
  64. ^ Ehrsson HH, Holmes NP, Passingham RE (noviembre de 2005). "Tocar una mano de goma: la sensación de propiedad del cuerpo se asocia con la actividad en áreas cerebrales multisensoriales". J. Neurosci . 25 (45): 10564–73. doi :10.1523/JNEUROSCI.0800-05.2005. PMC 1395356 . PMID  16280594. 
  65. ^ Samad M, Chung A, Shams L (febrero de 2015). "La percepción de la propiedad del cuerpo está impulsada por la inferencia sensorial bayesiana". PLOS ONE . ​​10 (2): e0117178. Bibcode :2015PLoSO..1017178S. doi : 10.1371/journal.pone.0117178 . PMC 4320053 . PMID  25658822. 
  66. ^ Holmes NP, Crozier G, Spence C (junio de 2004). "Cuando los espejos mienten: la "captura visual" de la posición del brazo afecta el rendimiento de alcance" (PDF) . Cogn Affect Behav Neurosci . 4 (2): 193–200. doi :10.3758/CABN.4.2.193. PMC 1314973. PMID  15460925 . 
  67. ^ J. Tastevin (febrero de 1937). "En partant de l'expérience d'Aristote: Les déplacements artificiels des Parties du corps ne sont pas suivis par le sentiment de ces Parties ni par les Sensations qu'on peut y produire" [A partir del experimento de Aristóteles: Los desplazamientos artificiales de las partes del cuerpo no son seguidas por sensaciones en estas partes o por las sensaciones que pueden producirse allí]. L'Encephale  [fr] (en francés). 32 (2): 57–84.   (Resumen en inglés)
  68. ^ J. Tastevin (marzo de 1937). "En parte de la experiencia de Aristote". L'Encephale (en francés). 32 (3): 140-158.
  69. ^ Bergman, Ronald A.; Afifi, Adel K. (2005). Neuroanatomía funcional: texto y atlas . Nueva York: McGraw-Hill. ISBN 978-0-07-140812-7.OCLC 475017241  .
  70. ^ Giard MH, Peronnet F (septiembre de 1999). "Integración auditiva-visual durante el reconocimiento de objetos multimodales en humanos: un estudio conductual y electrofisiológico". J Cogn Neurosci . 11 (5): 473–90. doi :10.1162/089892999563544. PMID  10511637. S2CID  5735865.
  71. ^ Miller LM, D'Esposito M (junio de 2005). "Fusión perceptiva y coincidencia de estímulos en la integración intermodal del habla". J. Neurosci . 25 (25): 5884–93. doi :10.1523/JNEUROSCI.0896-05.2005. PMC 6724802 . PMID  15976077. 
  72. ^ Graziano MS, Gross CG (1993). "Un mapa bimodal del espacio: campos receptivos somatosensoriales en el putamen del macaco con los campos receptivos visuales correspondientes" (PDF) . Exp Brain Res . 97 (1): 96–109. doi :10.1007/BF00228820. PMID  8131835. S2CID  9387557.
  73. ^ Gentile, G.; Petkova, VI.; Ehrsson, HH. (febrero de 2011). "Integración de señales visuales y táctiles de la mano en el cerebro humano: un estudio de FMRI". J Neurophysiol . 105 (2): 910–22. doi :10.1152/jn.00840.2010. PMC 3059180 . PMID  21148091. 
  74. ^ Thesen, T., Vibell, J., Calvert, GA y Osterbauer, R. (2004). Neuroimagen del procesamiento multisensorial en la visión, la audición, el tacto y el olfato. Cognitive Processing, 5, 84-93.
  75. ^ Wallace MT, Ramachandran R, Stein BE (febrero de 2004). "Una visión revisada de la parcelación cortical sensorial". Proc. Natl. Sci. USA . 101 (7): 2167–72. Bibcode :2004PNAS..101.2167W. doi : 10.1073/pnas.0305697101 . PMC 357070 . PMID  14766982. 
  76. ^ abcde Clavagnier S, Falchier A, Kennedy H (junio de 2004). "Proyecciones de retroalimentación a larga distancia al área V1: implicaciones para la integración multisensorial, la conciencia espacial y la conciencia visual" (PDF) . Cogn Affect Behav Neurosci . 4 (2): 117–26. doi : 10.3758/CABN.4.2.117 . PMID  15460918. S2CID  6907281.
  77. ^ Foxe JJ, Simpson GV (enero de 2002). "Flujo de activación desde V1 hasta la corteza frontal en humanos. Un marco para definir el procesamiento visual "temprano". Exp Brain Res . 142 (1): 139–50. doi :10.1007/s00221-001-0906-7. PMID  11797091. S2CID  25506401.
  78. ^ Macaluso E, Frith CD, Driver J (agosto de 2000). "Modulación de la corteza visual humana mediante atención espacial intermodal". Science . 289 (5482): 1206–8. Bibcode :2000Sci...289.1206M. CiteSeerX 10.1.1.420.5403 . doi :10.1126/science.289.5482.1206. PMID  10947990. 
  79. ^ abcd Sadato N, Yamada H, Okada T, et al. (diciembre de 2004). "Plasticidad dependiente de la edad en el surco temporal superior en humanos sordos: un estudio de resonancia magnética funcional". BMC Neurosci . 5 : 56. doi : 10.1186/1471-2202-5-56 . PMC 539237 . PMID  15588277. 
  80. ^ Bernstein LE, Auer ET, Moore JK, Ponton CW, Don M, Singh M (marzo de 2002). "Percepción visual del habla sin activación de la corteza auditiva primaria". NeuroReport . 13 (3): 311–5. doi :10.1097/00001756-200203040-00013. PMID  11930129. S2CID  44484836.
  81. ^ ab Jones EG, Powell TP (1970). "Un estudio anatómico de las vías sensoriales convergentes dentro de la corteza cerebral del mono". Cerebro . 93 (4): 793–820. doi :10.1093/brain/93.4.793. PMID  4992433.
  82. ^ abc Grefkes, C.; Fink, GR. (julio de 2005). "La organización funcional del surco intraparietal en humanos y monos". J Anat . 207 (1): 3–17. doi :10.1111/j.1469-7580.2005.00426.x. PMC 1571496 . PMID  16011542. 
  83. ^ Murata, A.; Fadiga, L.; Fogassi, L.; Gallese, V.; Raos, V.; Rizzolatti, G. (octubre de 1997). "Representación de objetos en la corteza premotora ventral (área F5) del mono". J Neurophysiol . 78 (4): 2226–30. doi :10.1152/jn.1997.78.4.2226. PMID  9325390.
  84. ^ Smiley, JF.; Falchier, A. (diciembre de 2009). "Conexiones multisensoriales de la corteza cerebral auditiva de los monos". Hear Res . 258 (1–2): 37–46. doi :10.1016/j.heares.2009.06.019. PMC 2788085. PMID 19619628  . 
  85. ^ Sharma, J.; Dragoi, V.; Tenenbaum, JB.; Miller, EK.; Sur, M. (junio de 2003). "Las neuronas V1 señalan la adquisición de una representación interna de la ubicación del estímulo". Science . 300 (5626): 1758–63. Bibcode :2003Sci...300.1758S. doi :10.1126/science.1081721. PMID  12805552. S2CID  14716502.
  86. ^ Lacey, S.; Tal, N.; Amedi, A.; Sathian, K. (mayo de 2009). "Un modelo putativo de representación de objetos multisensoriales". Brain Topogr . 21 (3–4): 269–74. doi :10.1007/s10548-009-0087-4. PMC 3156680 . PMID  19330441. 
  87. ^ Neal, JW.; Pearson, RC.; Powell, TP. (julio de 1990). "Las conexiones corticocorticales ipsilaterales del área 7b, PF, en los lóbulos parietal y temporal del mono". Brain Res . 524 (1): 119–32. doi :10.1016/0006-8993(90)90500-B. PMID  1698108. S2CID  24535669.
  88. ^ Eickhoff, SB.; Schleicher, A.; Zilles, K.; Amunts, K. (febrero de 2006). "El opérculo parietal humano. I. Mapeo citoarquitectónico de subdivisiones". Cereb Cortex . 16 (2): 254–67. doi : 10.1093/cercor/bhi105 . PMID  15888607.
  89. ^ Petitto LA, Zatorre RJ, Gauna K, Nikelski EJ, Dostie D, Evans AC (diciembre de 2000). "Actividad cerebral similar al habla en personas profundamente sordas que procesan lenguajes de señas: implicaciones para la base neural del lenguaje humano". Proc. Natl. Sci. USA . 97 (25): 13961–6. doi : 10.1073/pnas.97.25.13961 . PMC 17683 . PMID  11106400. 
  90. ^ Meredith, MA.; Clemo, HR. (Noviembre de 1989). "Proyección cortical auditiva desde el surco ectosilviano anterior (AES de Field) hasta el colículo superior en el gato: un estudio anatómico y electrofisiológico". J Comp Neurol . 289 (4): 687–707. doi :10.1002/cne.902890412. PMID  2592605. S2CID  221577963.
  91. ^ ab Jiang, W.; Wallace, MT.; Jiang, H.; Vaughan, JW.; Stein, BE. (febrero de 2001). "Dos áreas corticales median la integración multisensorial en las neuronas del colículo superior". J Neurophysiol . 85 (2): 506–22. doi :10.1152/jn.2001.85.2.506. PMID  11160489. S2CID  2499047.
  92. ^ Wallace, MT.; Carriere, BN.; Perrault, TJ.; Vaughan, JW.; Stein, BE. (noviembre de 2006). "El desarrollo de la integración multisensorial cortical". Journal of Neuroscience . 26 (46): 11844–9. doi :10.1523/JNEUROSCI.3295-06.2006. PMC 6674880 . PMID  17108157. 
  93. ^ abc Jiang W, Stein BE (octubre de 2003). "La corteza controla la depresión multisensorial en el colículo superior". J. Neurophysiol . 90 (4): 2123–35. doi :10.1152/jn.00369.2003. PMID  14534263.
  94. ^ Wallace MT, Meredith MA, Stein BE (junio de 1993). "Influencias convergentes de las cortezas visual, auditiva y somatosensorial sobre las neuronas de salida del colículo superior". J. Neurophysiol . 69 (6): 1797–809. doi :10.1152/jn.1993.69.6.1797. PMID  8350124.
  95. ^ Stein, Barry E.; Londres, Nancy; Wilkinson, Lee K.; Price, Donald D. (1996). "Mejora de la intensidad visual percibida mediante estímulos auditivos: un análisis psicofísico". Revista de neurociencia cognitiva . 8 (6): 497–506. doi :10.1162/jocn.1996.8.6.497. PMID  23961981. S2CID  43705477.
  96. ^ Goodale MA, Milner AD (enero de 1992). "Vías visuales separadas para la percepción y la acción" (PDF) . Trends Neurosci . 15 (1): 20–5. CiteSeerX 10.1.1.207.6873 . doi :10.1016/0166-2236(92)90344-8. PMID  1374953. S2CID  793980. 
  97. ^ Renier LA, Anurova I, De Volder AG, Carlson S, VanMeter J, Rauschecker JP (septiembre de 2009). "Integración multisensorial de sonidos y estímulos vibrotáctiles en el procesamiento de flujos de "qué" y "dónde"". J. Neurosci . 29 (35): 10950–60. doi :10.1523/JNEUROSCI.0910-09.2009. PMC 3343457 . PMID  19726653. 
  98. ^ abcdefghi Nardini, M; Bedford, R; Mareschal, D (28 de septiembre de 2010). "La fusión de señales visuales no es obligatoria en los niños". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 107 (39): 17041–6. Bibcode :2010PNAS..10717041N. doi : 10.1073/pnas.1001699107 . PMC 2947870 . PMID  20837526. 
  99. ^ abcdefgh Gori, M; Del Viva, M; Sandini, G; Burr, DC (6 de mayo de 2008). "Los niños pequeños no integran la información visual y háptica" (PDF) . Current Biology . 18 (9): 694–8. doi : 10.1016/j.cub.2008.04.036 . PMID  18450446. S2CID  13899031.
  100. ^ Lewkowicz, D; Kraebel, K (2004). Gemma Calvert; Charles Spence; Barry E Stein (eds.). El valor de la redundancia multisensorial en el desarrollo de la percepción intersensorial. Cambridge, Mass: MIT Press, cop. pp. 655–78. ISBN 9780262033213.OCLC 803222288  . {{cite book}}: |work=ignorado ( ayuda )
  101. ^ Neil, PA; Chee-Ruiter, C; Scheier, C; Lewkowicz, DJ; Shimojo, S (septiembre de 2006). "Desarrollo de la integración y percepción espacial multisensorial en humanos". Ciencia del desarrollo . 9 (5): 454–64. doi :10.1111/j.1467-7687.2006.00512.x. PMID  16911447. S2CID  25690976.
  102. ^ ab Hillis, JM; Ernst, MO; Banks, MS; Landy, MS (22 de noviembre de 2002). "Combinación de información sensorial: fusión obligatoria dentro de los sentidos, pero no entre ellos". Science . 298 (5598): 1627–30. Bibcode :2002Sci...298.1627H. CiteSeerX 10.1.1.278.6134 . doi :10.1126/science.1075396. PMID  12446912. S2CID  15607270. 
  103. ^ abcd Ernst, MO (24 de junio de 2008). "Integración multisensorial: un desarrollo tardío". Current Biology . 18 (12): R519–21. doi : 10.1016/j.cub.2008.05.002 . PMID  18579094. S2CID  130911.
  104. ^ Stein, BE; Meredith, MA; Wallace, MT (1993). Capítulo 8 La neurona visualmente sensible y más allá: integración multisensorial en gatos y monos . Progreso en la investigación cerebral. Vol. 95. págs. 79–90. doi :10.1016/s0079-6123(08)60359-3. ISBN 9780444894922. Número de identificación personal  8493355.
  105. ^ Stein, BE; Labos, E; Kruger, L (julio de 1973). "Secuencia de cambios en las propiedades de las neuronas del colículo superior del gatito durante la maduración". Journal of Neurophysiology . 36 (4): 667–79. doi :10.1152/jn.1973.36.4.667. PMID  4713313.
  106. ^ Wallace, MT; Stein, BE (15 de noviembre de 2001). "Respuestas sensoriales y multisensoriales en el colículo superior del mono recién nacido". The Journal of Neuroscience . 21 (22): 8886–94. doi :10.1523/JNEUROSCI.21-22-08886.2001. PMC 6762279 . PMID  11698600. 
  107. ^ Tootell, RB; Hadjikhani, NK; Vanduffel, W; Liu, AK; Mendola, JD; Sereno, MI; Dale, AM (3 de febrero de 1998). "Análisis funcional de la corteza visual primaria (V1) en humanos". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 95 (3): 811–7. Bibcode :1998PNAS...95..811T. doi : 10.1073/pnas.95.3.811 . PMC 33802 . PMID  9448245. 
  108. ^ ab Gori, M; Giuliana, L; Sandini, G; Burr, D (noviembre de 2012). "Percepción visual del tamaño y calibración háptica durante el desarrollo". Ciencias del desarrollo . 15 (6): 854–62. doi :10.1111/j.1467-7687.2012.2012.01183.x. PMID  23106739.
  109. ^ Granrud, CE; Schmechel, TT (noviembre de 2006). "Desarrollo de la constancia del tamaño en niños: una prueba de la hipótesis de sensibilidad del modo proximal". Percepción y psicofísica . 68 (8): 1372–81. doi : 10.3758/bf03193736 . PMID  17378423.
  110. ^ Gepshtein, S; Burge, J; Ernst, MO; Banks, MS (28 de diciembre de 2005). "La combinación de visión y tacto depende de la proximidad espacial". Journal of Vision . 5 (11): 1013–23. doi :10.1167/5.11.7. PMC 2632311 . PMID  16441199. 
  111. ^ Helbig, HB; Ernst, MO (junio de 2007). "Integración óptima de la información sobre la forma de la visión y el tacto". Experimental Brain Research . 179 (4): 595–606. doi :10.1007/s00221-006-0814-y. PMID  17225091. S2CID  12049308.
  112. ^ Helbig, HB; Ernst, MO (2007). "El conocimiento sobre una fuente común puede promover la integración visual-háptica". Percepción . 36 (10): 1523–33. doi :10.1068/p5851. PMID  18265835. S2CID  14884284.
  113. ^ Kail, RV; Ferrer, E (noviembre-diciembre de 2007). "Velocidad de procesamiento en la infancia y la adolescencia: modelos longitudinales para examinar el cambio evolutivo". Desarrollo infantil . 78 (6): 1760–70. doi :10.1111/j.1467-8624.2007.01088.x. PMID  17988319.
  114. ^ Kail, R (mayo de 1991). "Cambios evolutivos en la velocidad de procesamiento durante la infancia y la adolescencia". Psychological Bulletin . 109 (3): 490–501. doi :10.1037/0033-2909.109.3.490. PMID  2062981.
  115. ^ Ballard, DH; Hayhoe, MM; Pook, PK; Rao, RP (diciembre de 1997). "Códigos deícticos para la encarnación de la cognición". The Behavioral and Brain Sciences . 20 (4): 723–42, discusión 743–67. CiteSeerX 10.1.1.49.3813 . doi :10.1017/s0140525x97001611. PMID  10097009. S2CID  1961389. 
  116. ^ Daee, Pedram; Mirian, Maryam S.; Ahmadabadi, Majid Nili (2014). "La maximización de la recompensa justifica la transición de la selección sensorial en la infancia a la integración sensorial en la edad adulta". PLOS ONE . ​​9 (7): e103143. Bibcode :2014PLoSO...9j3143D. doi : 10.1371/journal.pone.0103143 . PMC 4110011 . PMID  25058591. 
  117. ^ Rincon-Gonzalez L, WarrenJ P (2011). "Interacción háptica del tacto y la propiocepción: implicaciones para la neuroprótesis". IEEE Trans. Neural Syst. Rehabil. Eng . 19 (5): 490–500. doi :10.1109/tnsre.2011.2166808. PMID  21984518. S2CID  20575638.
  118. ^ Jiang, Huai; Stein, Barry E.; McHaffie, John G. (29 de mayo de 2015). "El entrenamiento multisensorial revierte los cambios inducidos por lesiones en el mesencéfalo y mejora la hemianopsia". Nature Communications . 6 : 7263. Bibcode :2015NatCo...6.7263J. doi :10.1038/ncomms8263. ISSN  2041-1723. PMC 6193257 . PMID  26021613. 

Lectura adicional

Enlaces externos