stringtranslate.com

Neurociencia de la música

La neurociencia de la música es el estudio científico de los mecanismos cerebrales implicados en los procesos cognitivos que subyacen a la música . Estos comportamientos incluyen escuchar música , interpretar , componer , leer, escribir y actividades complementarias. También se ocupa cada vez más de la base cerebral de la estética y la emoción musicales. Los científicos que trabajan en este campo pueden tener formación en neurociencia cognitiva, neurología , neuroanatomía , psicología , teoría musical , informática y otros campos relevantes.

La neurociencia cognitiva de la música representa una rama importante de la psicología musical y se distingue de campos relacionados, como la musicología cognitiva, por su dependencia de observaciones directas del cerebro y el uso de técnicas de imágenes cerebrales como la resonancia magnética funcional (fMRI) y la tomografía por emisión de positrones (PET).

Elementos de la música

Paso

Los sonidos consisten en ondas de moléculas de aire que vibran a diferentes frecuencias. Estas ondas viajan hasta la membrana basilar en la cóclea del oído interno. Diferentes frecuencias de sonido causarán vibraciones en diferentes lugares de la membrana basilar. Podemos escuchar diferentes tonos porque cada onda de sonido con una frecuencia única está correlacionada con una ubicación diferente a lo largo de la membrana basilar. Esta disposición espacial de los sonidos y sus respectivas frecuencias que se procesan en la membrana basilar se conoce como tonotopía . Cuando las células ciliadas de la membrana basilar se mueven hacia adelante y hacia atrás debido a las ondas sonoras vibrantes, liberan neurotransmisores y hacen que se produzcan potenciales de acción a lo largo del nervio auditivo . El nervio auditivo luego conduce a varias capas de sinapsis en numerosos grupos de neuronas, o núcleos , en el tronco encefálico auditivo . Estos núcleos también están organizados tonotópicamente, y el proceso de lograr esta tonotopía después de la cóclea no se entiende bien. [1] Esta tonotopía en general se mantiene hasta la corteza auditiva primaria en los mamíferos . [2]

Un mecanismo ampliamente postulado para el procesamiento del tono en el sistema auditivo central temprano es el bloqueo de fase y bloqueo de modo de los potenciales de acción a las frecuencias en un estímulo. El bloqueo de fase a las frecuencias del estímulo se ha demostrado en el nervio auditivo, [3] [4] el núcleo coclear , [3] [5] el colículo inferior , [6] y el tálamo auditivo . [7] Al bloquear la fase y el modo de esta manera, se sabe que el tronco encefálico auditivo preserva una buena parte de la información de frecuencia temporal y de paso bajo del sonido original; esto es evidente midiendo la respuesta del tronco encefálico auditivo usando EEG . [8] Esta preservación temporal es una forma de argumentar directamente a favor de la teoría temporal de la percepción del tono y de argumentar indirectamente en contra de la teoría del lugar de la percepción del tono.

La corteza auditiva primaria es una de las principales áreas asociadas con una resolución de tono superior.

La corteza auditiva secundaria derecha tiene una resolución de tono más fina que la izquierda. Hyde, Peretz y Zatorre (2008) utilizaron imágenes por resonancia magnética funcional (fMRI) en su estudio para probar la participación de las regiones corticales auditivas derecha e izquierda en el procesamiento de frecuencia de secuencias melódicas. [9] Además de encontrar una resolución de tono superior en la corteza auditiva secundaria derecha, las áreas específicas que se encontraron involucradas fueron el plano temporal (PT) en la corteza auditiva secundaria y la corteza auditiva primaria en la sección medial del giro de Heschl (HG).

Muchos estudios de neuroimagen han encontrado evidencia de la importancia de las regiones auditivas secundarias derechas en aspectos del procesamiento del tono musical, como la melodía. [10] Muchos de estos estudios, como uno de Patterson, Uppenkamp, ​​Johnsrude y Griffiths (2002), también encuentran evidencia de una jerarquía del procesamiento del tono. Patterson et al. (2002) utilizaron sonidos espectralmente coincidentes que produjeron: sin tono, tono fijo o melodía en un estudio de fMRI y encontraron que todas las condiciones activaron HG y PT. Los sonidos con tono activaron más de estas regiones que los sonidos sin él. Cuando se produjo una melodía, la activación se extendió al giro temporal superior (STG) y al plano polar (PP). Estos resultados respaldan la existencia de una jerarquía de procesamiento del tono.

oído absoluto

Los músicos que poseen oído absoluto pueden identificar el tono de las notas musicales sin referencia externa.

El oído absoluto (PA) se define como la capacidad de identificar el tono de una nota musical o de producir un tono musical en un tono dado sin el uso de un tono de referencia externo. [11] [12] La investigación neurocientífica no ha descubierto un patrón de activación distintivo común para los poseedores de PA. Zatorre, Perry, Beckett, Westbury y Evans (1998) examinaron las bases neuronales del PA utilizando técnicas de imágenes cerebrales funcionales y estructurales. [13] La tomografía por emisión de positrones (PET) se utilizó para medir el flujo sanguíneo cerebral (FSC) en músicos que poseían PA y músicos que carecían de PA. Cuando se presentaron tonos musicales, surgieron patrones similares de aumento del FSC en las áreas corticales auditivas en ambos grupos. Los poseedores de PA y los sujetos sin PA demostraron patrones similares de actividad frontal dorsolateral izquierda cuando realizaron juicios de tono relativo. Sin embargo, en los sujetos sin PA, la activación en la corteza frontal inferior derecha estaba presente, mientras que los poseedores de PA no mostraron tal actividad. Este hallazgo sugiere que los músicos con PA no necesitan acceso a dispositivos de memoria de trabajo para tales tareas. Estos hallazgos implican que no existe un patrón de activación regional específico exclusivo de la PA, sino que la disponibilidad de mecanismos de procesamiento específicos y las demandas de la tarea determinan las áreas neuronales reclutadas.

Melodía

Los estudios sugieren que las personas son capaces de detectar automáticamente una diferencia o anomalía en una melodía , como un tono desafinado que no encaja con su experiencia musical previa. Este procesamiento automático ocurre en la corteza auditiva secundaria. Brattico, Tervaniemi, Naatanen y Peretz (2006) realizaron un estudio de este tipo para determinar si la detección de tonos que no se ajustan a las expectativas de un individuo puede ocurrir automáticamente. [14] Registraron potenciales relacionados con eventos (ERP) en no músicos a medida que se les presentaban melodías desconocidas con un tono desafinado o un tono desafinado mientras los participantes estaban distraídos de los sonidos o prestaban atención a la melodía. Ambas condiciones revelaron una negatividad frontal temprana relacionada con el error independientemente de dónde se dirigiera la atención. Esta negatividad se originó en la corteza auditiva, más precisamente en el lóbulo supratemporal (que corresponde a la corteza auditiva secundaria) con mayor actividad del hemisferio derecho. La respuesta de negatividad fue mayor para el tono desafinado que para el desafinado. Las calificaciones de incongruencia musical fueron más altas para las melodías desafinadas que para las desafinadas. En la condición de atención enfocada, las melodías desafinadas y desafinadas produjeron positividad parietal tardía. Los hallazgos de Brattico et al. (2006) sugieren que hay un procesamiento automático y rápido de las propiedades melódicas en la corteza auditiva secundaria. [14] Los hallazgos de que las incongruencias de tono se detectaron automáticamente, incluso al procesar melodías desconocidas, sugieren que hay una comparación automática de la información entrante con el conocimiento a largo plazo de las propiedades de la escala musical, como las reglas de propiedades musicales influidas culturalmente (progresiones de acordes comunes, patrones de escala, etc.) y las expectativas individuales de cómo debe proceder la melodía.

Ritmo

Las áreas de cinturón y paracinto del hemisferio derecho están involucradas en el procesamiento del ritmo . [15] El ritmo es un patrón fuerte y repetido de movimiento o sonido. Cuando las personas se preparan para marcar un ritmo de intervalos regulares (1:2 o 1:3), se activan la corteza frontal izquierda , la corteza parietal izquierda y el cerebelo derecho . Con ritmos más difíciles, como 1:2.5, se involucran más áreas en la corteza cerebral y el cerebelo. [16] Los registros de EEG también han demostrado una relación entre la actividad eléctrica cerebral y la percepción del ritmo. Snyder y Large (2005) [17] realizaron un estudio que examinó la percepción del ritmo en sujetos humanos y encontraron que la actividad en la banda gamma (20 - 60 Hz) corresponde a los latidos de un ritmo simple. Snyder y Large encontraron dos tipos de actividad gamma: actividad gamma inducida y actividad gamma evocada . La actividad gamma evocada se encontró después del inicio de cada tono en el ritmo; Se encontró que esta actividad estaba sincronizada (los picos y valles estaban directamente relacionados con el inicio exacto del tono) y no aparecía cuando había una brecha (un latido perdido) en el ritmo. La actividad gamma inducida, que no se encontró sincronizada, también se encontró que correspondía con cada latido. Sin embargo, la actividad gamma inducida no disminuyó cuando había una brecha en el ritmo, lo que indica que la actividad gamma inducida posiblemente pueda servir como una especie de metrónomo interno independiente de la entrada auditiva.

Tonalidad

La tonalidad describe las relaciones entre los elementos de la melodía y la armonía : tonos, intervalos , acordes y escalas . Estas relaciones suelen caracterizarse como jerárquicas, de modo que uno de los elementos domina o atrae a otro. Se producen tanto dentro como entre cada tipo de elemento, creando una percepción rica y variable en el tiempo entre los tonos y sus contextos melódicos, armónicos y cromáticos . En un sentido convencional, la tonalidad se refiere solo a los tipos de escala mayor y menor : ejemplos de escalas cuyos elementos son capaces de mantener un conjunto consistente de relaciones funcionales. La relación funcional más importante es la de la nota tónica (la primera nota de una escala) y el acorde tónico (la primera nota de la escala con la tercera y la quinta nota) con el resto de la escala. La tónica es el elemento que tiende a afirmar su dominio y atracción sobre todos los demás, y funciona como el punto último de atracción, descanso y resolución de la escala. [18]

La corteza auditiva derecha está principalmente involucrada en la percepción del tono y partes de la armonía, la melodía y el ritmo. [16] Un estudio de Petr Janata encontró que hay áreas sensibles a la tonalidad en la corteza prefrontal medial , el cerebelo , los surcos temporales superiores de ambos hemisferios y los giros temporales superiores (que tienen un sesgo hacia el hemisferio derecho). [19] Se han demostrado asimetrías hemisféricas en el procesamiento de sonidos disonantes/consonantes. Los estudios ERP han mostrado respuestas evocadas más grandes sobre el área temporal izquierda en respuesta a acordes disonantes, y sobre la derecha, en respuesta a acordes consonantes. [20]

Producción y ejecución musical

Funciones de control del motor

La interpretación musical suele implicar al menos tres funciones de control motor elementales: sincronización, secuenciación y organización espacial de los movimientos motores. La precisión en la sincronización de los movimientos está relacionada con el ritmo musical. El ritmo, el patrón de intervalos temporales dentro de una medida o frase musical , a su vez crea la percepción de pulsos más fuertes y más débiles. [21] La secuenciación y la organización espacial se relacionan con la expresión de notas individuales en un instrumento musical .

Estas funciones y sus mecanismos neuronales se han investigado por separado en muchos estudios, pero se sabe poco sobre su interacción combinada para producir una interpretación musical compleja. [21] El estudio de la música requiere examinarlos juntos.

Momento

Aunque los mecanismos neuronales implicados en el cronometraje del movimiento se han estudiado rigurosamente durante los últimos 20 años, aún hay mucha controversia al respecto. La capacidad de expresar movimientos en tiempo preciso se ha atribuido a un metrónomo neuronal o mecanismo de reloj donde el tiempo se representa a través de oscilaciones o pulsos. [22] [23] [24] [25] También se ha planteado una visión opuesta a este mecanismo de metrónomo, que afirma que es una propiedad emergente de la cinemática del movimiento en sí. [24] [25] [26] La cinemática se define como los parámetros del movimiento a través del espacio sin referencia a fuerzas (por ejemplo, dirección, velocidad y aceleración). [21]

Los estudios de neuroimagen funcional , así como los estudios de pacientes con daño cerebral, han vinculado la sincronización del movimiento a varias regiones corticales y subcorticales, incluido el cerebelo , los ganglios basales y el área motora suplementaria (AMS). [21] Específicamente, los ganglios basales y posiblemente el AMS han sido implicados en la sincronización de intervalos en escalas de tiempo más largas (1 segundo y más), mientras que el cerebelo puede ser más importante para controlar la sincronización motora en escalas de tiempo más cortas (milisegundos). [22] [27] Además, estos resultados indican que la sincronización motora no está controlada por una sola región cerebral, sino por una red de regiones que controlan parámetros específicos del movimiento y que dependen de la escala de tiempo relevante de la secuencia rítmica. [21]

Secuenciación

La secuenciación motora se ha explorado en términos de la ordenación de movimientos individuales, como las secuencias de dedos para pulsar teclas, o la coordinación de subcomponentes de movimientos complejos de múltiples articulaciones. [21] En este proceso están implicadas varias regiones corticales y subcorticales, incluidos los ganglios basales, la AMS y la pre-AMS, el cerebelo y las cortezas premotora y prefrontal, todas involucradas en la producción y aprendizaje de secuencias motoras pero sin evidencia explícita de sus contribuciones específicas o interacciones entre sí. [21] En animales, los estudios neurofisiológicos han demostrado una interacción entre la corteza frontal y los ganglios basales durante el aprendizaje de secuencias de movimiento. [28] Los estudios de neuroimagen humana también han enfatizado la contribución de los ganglios basales para secuencias bien aprendidas. [29]

Se puede decir que el cerebelo es importante para el aprendizaje de secuencias y para la integración de movimientos individuales en secuencias unificadas, [29] [30] [31] [32] [33] mientras que se ha demostrado que la pre-AMS y la AMS están involucradas en la organización o fragmentación de secuencias de movimientos más complejas. [34] [35] Se cree que la fragmentación, definida como la reorganización o reagrupación de secuencias de movimientos en subsecuencias más pequeñas durante la ejecución, facilita la ejecución fluida de movimientos complejos y mejora la memoria motora . [21] Por último, se ha demostrado que la corteza premotora está involucrada en tareas que requieren la producción de secuencias relativamente complejas y puede contribuir a la predicción motora. [36] [37]

Organización espacial

Pocos estudios sobre el control motor complejo han distinguido entre la organización secuencial y espacial, pero las interpretaciones musicales expertas exigen no solo una secuenciación precisa, sino también una organización espacial de los movimientos. Estudios en animales y humanos han establecido la participación de las cortezas parietal , sensoriomotora y premotora en el control de los movimientos, cuando se requiere la integración de información espacial, sensorial y motora. [38] [39] Hasta ahora, pocos estudios han examinado explícitamente el papel del procesamiento espacial en el contexto de las tareas musicales.

Interacciones auditivo-motoras

Interacciones de retroalimentación y de avance

Una interacción auditiva-motora puede definirse de manera general como cualquier interacción o comunicación entre los dos sistemas. Dos clases de interacción auditiva-motora son la "feedforward" y la "feedback". [21] En las interacciones de "feedforward", es el sistema auditivo el que influye predominantemente en la salida motora, a menudo de manera predictiva. [40] Un ejemplo es el fenómeno de tocar el ritmo, donde el oyente anticipa los acentos rítmicos en una pieza musical. Otro ejemplo es el efecto de la música en los trastornos del movimiento: se ha demostrado que los estímulos auditivos rítmicos mejoran la capacidad de caminar en pacientes con enfermedad de Parkinson y accidente cerebrovascular . [41] [42]

Las interacciones de retroalimentación son particularmente relevantes al tocar un instrumento como el violín, o al cantar, donde el tono es variable y debe controlarse continuamente. Si se bloquea la retroalimentación auditiva, los músicos pueden seguir ejecutando piezas bien ensayadas, pero se ven afectados los aspectos expresivos de la interpretación. [43] Cuando la retroalimentación auditiva se manipula experimentalmente mediante retrasos o distorsiones, [44] el rendimiento motor se altera significativamente: la retroalimentación asincrónica altera la sincronización de los eventos, mientras que la alteración de la información del tono altera la selección de acciones apropiadas, pero no su sincronización. Esto sugiere que las interrupciones ocurren porque tanto las acciones como las percepciones dependen de una única representación mental subyacente. [21]

Modelos de interacciones auditivas-motoras

Se han propuesto varios modelos de interacciones auditivas-motoras. El modelo de Hickok y Poeppel [45] , que es específico para el procesamiento del habla, propone que una corriente auditiva ventral asigna los sonidos al significado, mientras que una corriente dorsal asigna los sonidos a representaciones articulatorias. Ellos y otros [46] sugieren que las regiones auditivas posteriores en el límite parietotemporal son partes cruciales de la interfaz auditiva-motora, asignando representaciones auditivas a representaciones motoras del habla y a melodías. [47]

Neuronas espejo/eco e interacciones auditivo-motoras

El sistema de neuronas espejo tiene un papel importante en los modelos neuronales de integración sensomotora. Hay evidencia considerable de que las neuronas responden tanto a las acciones como a la observación acumulada de acciones. Un sistema propuesto para explicar esta comprensión de las acciones es que las representaciones visuales de las acciones se mapean en nuestro propio sistema motor. [48]

Algunas neuronas espejo se activan tanto por la observación de acciones dirigidas a un objetivo como por los sonidos asociados producidos durante la acción. Esto sugiere que la modalidad auditiva puede acceder al sistema motor. [49] [50] Si bien estas interacciones auditivo-motoras se han estudiado principalmente para los procesos del habla y se han centrado en el área de Broca y la vPMC, a partir de 2011, los experimentos han comenzado a arrojar luz sobre cómo estas interacciones son necesarias para la interpretación musical. Los resultados apuntan a una participación más amplia de la dPMC y otras áreas motoras. [21] La literatura ha demostrado una red cortical altamente especializada en el cerebro del músico experto que codifica la relación entre los gestos musicales y sus sonidos correspondientes. Los datos apuntan a la existencia de una red espejo audiomotora que involucra el giro temporal superior derecho, la corteza premotora, las áreas frontal inferior y parietal inferior, entre otras áreas. [51]  

Música y lenguaje

Se ha demostrado que ciertos aspectos del lenguaje y la melodía se procesan en áreas cerebrales funcionales casi idénticas. Brown, Martínez y Parsons (2006) examinaron las similitudes estructurales neurológicas entre la música y el lenguaje. [52] Utilizando la tomografía por emisión de positrones (PET), los hallazgos mostraron que tanto las frases lingüísticas como las melódicas produjeron activación en áreas cerebrales funcionales casi idénticas. Estas áreas incluían la corteza motora primaria , el área motora suplementaria , el área de Broca , la ínsula anterior, las cortezas auditivas primaria y secundaria, el polo temporal, los ganglios basales , el tálamo ventral y el cerebelo posterior . Se encontraron diferencias en las tendencias de lateralización ya que las tareas del lenguaje favorecían el hemisferio izquierdo, pero la mayoría de las activaciones eran bilaterales, lo que producía una superposición significativa entre las modalidades. [52]

Se ha demostrado que los mecanismos de información sintáctica tanto en la música como en el lenguaje se procesan de manera similar en el cerebro. Jentschke, Koelsch, Sallat y Friederici (2008) llevaron a cabo un estudio que investigaba el procesamiento de la música en niños con trastornos específicos del lenguaje (TEL). [53] Los niños con un desarrollo típico del lenguaje (TLD) mostraron patrones de ERP diferentes a los de los niños con TEL, lo que reflejaba sus dificultades para procesar regularidades sintácticas musicales. Las fuertes correlaciones entre la amplitud de la ERAN ( negatividad anterior derecha temprana , una medida específica de ERP) y las habilidades lingüísticas y musicales proporcionan evidencia adicional de la relación del procesamiento sintáctico en la música y el lenguaje. [53]

Sin embargo, la producción de melodía y la producción de habla pueden estar respaldadas por diferentes redes neuronales. Stewart, Walsh, Frith y Rothwell (2001) estudiaron las diferencias entre la producción de habla y la producción de canciones utilizando estimulación magnética transcraneal (TMS). [54] Stewart et al. descubrieron que la TMS aplicada al lóbulo frontal izquierdo altera el habla pero no la melodía, lo que respalda la idea de que están respaldadas por diferentes áreas del cerebro. Los autores sugieren que una razón para la diferencia es que la generación del habla puede localizarse bien, pero los mecanismos subyacentes de la producción melódica no. Alternativamente, también se sugirió que la producción del habla puede ser menos robusta que la producción melódica y, por lo tanto, más susceptible a la interferencia. [54]

El procesamiento del lenguaje es una función más del lado izquierdo del cerebro que del lado derecho, en particular del área de Broca y del área de Wernicke , aunque todavía no está claro el papel que desempeñan ambos lados del cerebro en el procesamiento de diferentes aspectos del lenguaje. La música también es procesada tanto por el lado izquierdo como por el derecho del cerebro. [52] [55] Evidencias recientes sugieren además un procesamiento compartido entre el lenguaje y la música a nivel conceptual. [56] También se ha descubierto que, entre los estudiantes de conservatorio de música, la prevalencia del oído absoluto es mucho mayor para los hablantes de lengua tonal, incluso controlando el origen étnico, lo que demuestra que el lenguaje influye en cómo se perciben los tonos musicales. [57] [58]

Procesamiento de músicos y no músicos

Los pianistas profesionales muestran menos activación cortical para tareas complejas de movimiento de dedos debido a diferencias estructurales en el cerebro.

Diferencias

La estructura cerebral de los músicos y los no músicos es claramente diferente. Gaser y Schlaug (2003) compararon las estructuras cerebrales de músicos profesionales con las de no músicos y descubrieron diferencias en el volumen de materia gris en las regiones cerebrales motora, auditiva y visoespacial. [59] En concreto, se descubrieron correlaciones positivas entre el estatus de músico (profesional, aficionado y no músico) y el volumen de materia gris en las áreas motora primaria y somatosensorial , áreas premotoras , áreas parietales superiores anteriores y en el giro temporal inferior bilateralmente. Esta fuerte asociación entre el estatus de músico y las diferencias de materia gris apoya la noción de que los cerebros de los músicos muestran cambios estructurales dependientes del uso. [60] Debido a las claras diferencias en varias regiones cerebrales, es poco probable que estas diferencias sean innatas, sino más bien debidas a la adquisición a largo plazo y al ensayo repetitivo de habilidades musicales.

Los cerebros de los músicos también muestran diferencias funcionales con respecto a los de los no músicos. Krings, Topper, Foltys, Erberich, Sparing, Willmes y Thron (2000) utilizaron fMRI para estudiar la participación del área cerebral de pianistas profesionales y un grupo de control mientras realizaban movimientos complejos de los dedos. [61] Krings et al. encontraron que los pianistas profesionales mostraron niveles más bajos de activación cortical en áreas motoras del cerebro. Se concluyó que una menor cantidad de neuronas necesitaba ser activada para los pianistas debido a la práctica motora a largo plazo que da como resultado diferentes patrones de activación cortical. Koeneke, Lutz, Wustenberg y Jancke (2004) informaron hallazgos similares en teclistas. [62] Los teclistas expertos y un grupo de control realizaron tareas complejas que involucraban movimientos unimanuales y bimanuales de los dedos. Durante las condiciones de la tarea, tanto los no músicos como los teclistas mostraron fuertes respuestas hemodinámicas en el cerebelo, pero los no músicos mostraron la respuesta más fuerte. Este hallazgo indica que la práctica motora a largo plazo genera diferentes patrones de activación cortical. Esta evidencia respalda datos anteriores que muestran que los músicos necesitan menos neuronas para realizar los mismos movimientos.

Se ha demostrado que los músicos tienen un plano temporal izquierdo significativamente más desarrollado y también han demostrado tener una mayor memoria de palabras. [63] El estudio de Chan controló la edad, el promedio de calificaciones y los años de educación y encontró que cuando se les dio una prueba de memoria de 16 palabras, los músicos promediaron una o dos palabras más que sus contrapartes no musicales.

Similitudes

Los estudios han demostrado que el cerebro humano tiene una habilidad musical implícita. [64] [65] Koelsch, Gunter, Friederici y Schoger (2000) investigaron la influencia del contexto musical precedente, la relevancia de la tarea de acordes inesperados y el grado de probabilidad de violación en el procesamiento musical tanto en músicos como en no músicos. [64] Los hallazgos mostraron que el cerebro humano extrapola involuntariamente expectativas sobre la entrada auditiva inminente. Incluso en los no músicos, las expectativas extrapoladas son consistentes con la teoría musical. La capacidad de procesar información musicalmente apoya la idea de una habilidad musical implícita en el cerebro humano. En un estudio de seguimiento, Koelsch, Schroger y Gunter (2002) investigaron si ERAN y N5 podrían evocarse preatentivamente en no músicos. [65] Los hallazgos mostraron que tanto ERAN como N5 pueden ser provocados incluso en una situación donde el estímulo musical es ignorado por el oyente, lo que indica que hay una musicalidad preatentiva altamente diferenciada en el cerebro humano.

Diferencias de género

Existen pequeñas diferencias neurológicas en cuanto al procesamiento hemisférico entre los cerebros de hombres y mujeres. Koelsch, Maess, Grossmann y Friederici (2003) investigaron el procesamiento musical a través de EEG y ERP y descubrieron diferencias de género. [66] Los hallazgos mostraron que las mujeres procesan la información musical de forma bilateral y los hombres procesan la música con un predominio del hemisferio derecho. Sin embargo, la negatividad temprana de los hombres también estaba presente en el hemisferio izquierdo. Esto indica que los hombres no utilizan exclusivamente el hemisferio derecho para el procesamiento de la información musical. En un estudio de seguimiento, Koelsch, Grossman, Gunter, Hahne, Schroger y Friederici (2003) encontraron que los niños muestran lateralización de la negatividad anterior temprana en el hemisferio izquierdo, pero encontraron un efecto bilateral en las niñas. [67] Esto indica un efecto de desarrollo, ya que la negatividad temprana se lateraliza en el hemisferio derecho en los hombres y en el hemisferio izquierdo en los niños.

Diferencias en la lateralidad

Se ha descubierto que los sujetos zurdos, en particular los que también son ambidiestros, tienen un mejor rendimiento que los diestros en la memoria a corto plazo para el tono. [68] [69] Se planteó la hipótesis de que esta ventaja de la lateralidad se debe al hecho de que los zurdos tienen más duplicación de almacenamiento en los dos hemisferios que los diestros. Otros trabajos han demostrado que existen diferencias pronunciadas entre diestros y zurdos (sobre una base estadística) en cómo se perciben los patrones musicales, cuando los sonidos provienen de diferentes regiones del espacio. Esto se ha encontrado, por ejemplo, en la ilusión de la octava [70] [71] y la ilusión de la escala . [72] [73]

Imágenes musicales

La imaginería musical se refiere a la experiencia de reproducir música imaginándola dentro de la cabeza. [74] Los músicos muestran una capacidad superior para la imaginería musical debido a un entrenamiento musical intenso. [75] Herholz, Lappe, Knief y Pantev (2008) investigaron las diferencias en el procesamiento neuronal de una tarea de imaginería musical en músicos y no músicos. Utilizando magnetoencefalografía (MEG), Herholz et al. examinaron las diferencias en el procesamiento de una tarea de imaginería musical con melodías familiares en músicos y no músicos. Específicamente, el estudio examinó si la negatividad de desajuste (MMN) puede basarse únicamente en la imaginería de sonidos. La tarea implicó que los participantes escucharan el comienzo de una melodía, la continuación de la melodía en su cabeza y finalmente escucharan un tono correcto/incorrecto como continuación de la melodía. La imaginería de estas melodías fue lo suficientemente fuerte como para obtener una respuesta cerebral preatentiva temprana a violaciones imprevistas de las melodías imaginadas en los músicos. Estos resultados indican que se utilizan correlaciones neuronales similares para la imaginación y la percepción de los músicos entrenados. Además, los hallazgos sugieren que la modificación de la negatividad de la falta de correspondencia entre imágenes (iMMN) mediante un entrenamiento musical intenso da como resultado el logro de una capacidad superior para la imaginación y el procesamiento preatencional de la música.

Los procesos perceptivos musicales y la imaginería musical pueden compartir un sustrato neuronal en el cerebro. Un estudio PET realizado por Zatorre, Halpern, Perry, Meyer y Evans (1996) investigó los cambios en el flujo sanguíneo cerebral (FSC) relacionados con la imaginería auditiva y las tareas perceptivas. [76] Estas tareas examinaron la participación de regiones anatómicas particulares, así como las similitudes funcionales entre los procesos perceptivos y la imaginería. Patrones similares de cambios en el FSC proporcionaron evidencia que respalda la noción de que los procesos de imaginería comparten un sustrato neuronal sustancial con los procesos perceptivos relacionados. La actividad neuronal bilateral en la corteza auditiva secundaria se asoció tanto con la percepción como con la imaginación de canciones. Esto implica que dentro de la corteza auditiva secundaria, los procesos subyacen a la impresión fenomenológica de los sonidos imaginados. El área motora suplementaria (AMS) estuvo activa tanto en las tareas de imaginería como de percepción, lo que sugiere que la vocalización encubierta es un elemento de la imaginería musical. Los aumentos del FSC en la corteza polar frontal inferior y el tálamo derecho sugieren que estas regiones pueden estar relacionadas con la recuperación y/o generación de información auditiva de la memoria.

Emoción

La música es capaz de crear una experiencia intensamente placentera que puede ser descrita como "escalofríos". [77] Blood y Zatorre (2001) utilizaron PET para medir los cambios en el flujo sanguíneo cerebral mientras los participantes escuchaban música que sabían que les producía "escalofríos" o cualquier tipo de respuesta emocional intensamente placentera. Encontraron que a medida que estos escalofríos aumentan, se observan muchos cambios en el flujo sanguíneo cerebral en regiones cerebrales como la amígdala , la corteza orbitofrontal , el cuerpo estriado ventral , el mesencéfalo y la corteza prefrontal medial ventral . Muchas de estas áreas parecen estar vinculadas a la recompensa, la motivación, la emoción y la excitación, y también se activan en otras situaciones placenteras. [77] Las respuestas de placer resultantes permiten la liberación de dopamina, serotonina y oxitocina. El núcleo accumbens (una parte del cuerpo estriado ) está involucrado tanto en las emociones relacionadas con la música como en el ritmo.

[78] Según el Instituto Nacional de Salud, los niños y adultos que sufren traumas emocionales han podido beneficiarse del uso de la música de diversas maneras. El uso de la música ha sido esencial para ayudar a los niños que tienen dificultades para concentrarse, para tener ansiedad y para la función cognitiva mediante el uso de la música de manera terapéutica. La musicoterapia también ha ayudado a los niños a lidiar con el autismo, el cáncer pediátrico y el dolor causado por los tratamientos.

Las emociones inducidas por la música activan regiones cerebrales frontales similares en comparación con las emociones provocadas por otros estímulos. [60] Schmidt y Trainor (2001) descubrieron que la valencia (es decir, positiva frente a negativa) de los segmentos musicales se distinguía por los patrones de actividad EEG frontal. [79] Los segmentos musicales alegres y felices se asociaron con aumentos en la actividad EEG frontal izquierda, mientras que los segmentos musicales temerosos y tristes se asociaron con aumentos en la actividad EEG frontal derecha. Además, la intensidad de las emociones se diferenció por el patrón de actividad EEG frontal general. La actividad general de la región frontal aumentó a medida que los estímulos musicales afectivos se volvieron más intensos. [79]

Cuando se tocan melodías desagradables, se activa la corteza cingulada posterior , lo que indica una sensación de conflicto o dolor emocional. [16] También se ha descubierto que el hemisferio derecho está correlacionado con la emoción, que también puede activar áreas de la corteza cingulada en momentos de dolor emocional, específicamente rechazo social (Eisenberger). Esta evidencia, junto con las observaciones, ha llevado a muchos teóricos musicales, filósofos y neurocientíficos a vincular la emoción con la tonalidad. Esto parece casi obvio porque los tonos en la música parecen una caracterización de los tonos en el habla humana, que indican contenido emocional. Las vocales en los fonemas de una canción se alargan para lograr un efecto dramático, y parece como si los tonos musicales fueran simplemente exageraciones de la tonalidad verbal normal.

Memoria

Neuropsicología de la memoria musical

La memoria musical implica tanto sistemas de memoria explícita como implícita. [80] La memoria musical explícita se diferencia además entre episódica (dónde, cuándo y qué de la experiencia musical) y semántica (memoria del conocimiento musical que incluye hechos y conceptos emocionales). La memoria implícita se centra en el "cómo" de la música e implica procesos automáticos como la memoria procedimental y el aprendizaje de habilidades motoras; en otras palabras, habilidades críticas para tocar un instrumento. Samson y Baird (2009) descubrieron que la capacidad de los músicos con enfermedad de Alzheimer para tocar un instrumento (memoria procedimental implícita) puede estar preservada.

Correlatos neuronales de la memoria musical

Un estudio PET que investigó los correlatos neuronales de la memoria semántica musical y episódica encontró patrones de activación distintos. [81] La memoria musical semántica implica la sensación de familiaridad con las canciones. La condición de memoria semántica para la música resultó en una activación bilateral en la corteza frontal medial y orbital, así como en la circunvolución angular izquierda y la región anterior izquierda de las circunvoluciones temporales medias. Estos patrones respaldan la asimetría funcional que favorece al hemisferio izquierdo para la memoria semántica. Las regiones temporal anterior izquierda y frontal inferior que se activaron en la tarea de memoria semántica musical produjeron picos de activación específicamente durante la presentación de material musical, lo que sugiere que estas regiones están funcionalmente especializadas en cierto modo para las representaciones semánticas musicales.

La memoria episódica de la información musical implica la capacidad de recordar el contexto anterior asociado con un fragmento musical. [81] En la condición que invoca la memoria episódica para la música, se encontraron activaciones bilaterales en los giros frontales medio y superior y el precúneo, con activación predominante en el hemisferio derecho. Otros estudios han encontrado que el precúneo se activa en el recuerdo episódico exitoso. [82] Como se activó en la condición de memoria familiar de la memoria episódica, esta activación puede explicarse por el recuerdo exitoso de la melodía.

En lo que respecta a la memoria del tono, parece haber una red cerebral dinámica y distribuida que sustenta los procesos de memoria del tono. Gaab, Gaser, Zaehle, Jancke y Schlaug (2003) examinaron la anatomía funcional de la memoria del tono utilizando imágenes por resonancia magnética funcional (fMRI). [83] Un análisis de las puntuaciones de rendimiento en una tarea de memoria del tono dio como resultado una correlación significativa entre el buen rendimiento de la tarea y el giro supramarginal (SMG), así como el cerebelo dorsolateral. Los hallazgos indican que el cerebelo dorsolateral puede actuar como un procesador de discriminación del tono y el SMG puede actuar como un sitio de almacenamiento de información del tono a corto plazo. Se encontró que el hemisferio izquierdo era más prominente en la tarea de memoria del tono que las regiones del hemisferio derecho.

Efectos terapéuticos de la música sobre la memoria

Se ha demostrado que la enseñanza musical favorece la memoria . Altenmuller et al. estudiaron la diferencia entre la enseñanza musical activa y pasiva y descubrieron que, durante un período de tiempo más largo (pero no corto), los estudiantes que recibían enseñanza activa retenían mucha más información que los que recibían enseñanza pasiva. También se descubrió que los estudiantes que recibían enseñanza activa tenían una mayor activación de la corteza cerebral. Los estudiantes que recibían enseñanza pasiva no estaban perdiendo el tiempo; ellos, junto con el grupo activo, mostraban una mayor actividad del hemisferio izquierdo, lo que es típico en los músicos entrenados. [84]

Las investigaciones sugieren que escuchamos las mismas canciones una y otra vez debido a la nostalgia musical. Un importante estudio, publicado en la revista Memory & Cognition, descubrió que la música permite que la mente evoque recuerdos del pasado, conocidos como memorias autobiográficas evocadas por la música . [85]

Atención

Treder et al. [86] identificaron correlatos neuronales de la atención al escuchar patrones musicales polifónicos simplificados. En un experimento musical extraño, hicieron que los participantes cambiaran su atención selectiva a uno de tres instrumentos diferentes en clips de audio musicales, y cada instrumento tocaba ocasionalmente una o varias notas que se desviaban de un patrón que de otro modo sería repetitivo. Al contrastar los instrumentos atendidos con los no atendidos, el análisis ERP muestra respuestas específicas del sujeto y del instrumento, incluidos los componentes auditivos tempranos y P300. El instrumento atendido se pudo clasificar fuera de línea con alta precisión. Esto indica que la atención prestada a un instrumento particular en la música polifónica se puede inferir a partir del EEG en curso, un hallazgo que es potencialmente relevante para construir interfaces cerebro-computadora basadas en listas de música más ergonómicas. [86]

Desarrollo

Se ha descubierto que los niños de cuatro años que saben tocar tienen una mayor coherencia intrahemisférica en el hemisferio izquierdo. [84] En un estudio realizado por Cowell et al. en 1992 , se ha descubierto que los músicos tienen porciones anteriores del cuerpo calloso más desarrolladas . Esto fue confirmado por un estudio realizado por Schlaug et al. en 1995 que descubrió que los músicos clásicos entre las edades de 21 y 36 tienen cuerpos callosos anteriores significativamente mayores que el control no musical. Schlaug también descubrió que había una fuerte correlación entre la exposición musical antes de los siete años y un gran aumento en el tamaño del cuerpo calloso. [84] Estas fibras unen los hemisferios izquierdo y derecho e indican un aumento de la transmisión entre ambos lados del cerebro. Esto sugiere la fusión entre el procesamiento espacial, emocional y tonal del cerebro derecho y el procesamiento lingüístico del cerebro izquierdo. Esta gran transmisión a través de muchas áreas diferentes del cerebro podría contribuir a la capacidad de la música para ayudar en la función de la memoria.

Discapacidad

Distonía focal de la mano

La distonía focal de la mano es un trastorno del movimiento relacionado con la tarea asociado con actividades ocupacionales que requieren movimientos repetitivos de la mano. [87] La ​​distonía focal de la mano se asocia con un procesamiento anormal en las cortezas premotora y sensoriomotora primaria. Un estudio de fMRI examinó a cinco guitarristas con distonía focal de la mano. [88] El estudio reprodujo la distonía de la mano específica de la tarea haciendo que los guitarristas usaran un mástil de guitarra real dentro del escáner y realizaran un ejercicio de guitarra para desencadenar un movimiento anormal de la mano. Los guitarristas distónicos mostraron una activación significativamente mayor de la corteza sensoriomotora primaria contralateral, así como una subactivación bilateral de las áreas premotoras. Este patrón de activación representa el reclutamiento anormal de las áreas corticales involucradas en el control motor. Incluso en músicos profesionales, la participación generalizada de la región cortical bilateral es necesaria para producir movimientos complejos de la mano, como escalas y arpegios . El cambio anormal de la activación premotora a la sensoriomotora primaria se correlaciona directamente con la distonía de la mano inducida por la guitarra.

Agnosia musical

La agnosia musical , una agnosia auditiva , es un síndrome de deterioro selectivo en el reconocimiento de la música. [89] Dalla Bella y Peretz (1999) examinaron tres casos de agnosia musical: CN, GL e IR. Los tres pacientes sufrieron daño bilateral en la corteza auditiva que resultó en dificultades musicales mientras que la comprensión del habla permaneció intacta. Su deterioro es específico en el reconocimiento de melodías que alguna vez fueron familiares. No reconocen sonidos ambientales ni letras. Peretz (1996) ha estudiado más a fondo la agnosia musical de CN e informa de un deterioro inicial del procesamiento del tono y un procesamiento temporal intacto. [90] CN recuperó más tarde las habilidades de procesamiento del tono, pero permaneció afectado en el reconocimiento de melodías y los juicios de familiaridad.

Las agnosias musicales pueden clasificarse en función del proceso que se ve afectado en el individuo. [91] La agnosia musical aperceptiva implica un deterioro a nivel del análisis perceptivo que implica una incapacidad para codificar correctamente la información musical. La agnosia musical asociativa refleja un sistema de representación alterado que altera el reconocimiento de la música. Muchos de los casos de agnosia musical han sido resultado de una cirugía que afectaba a la arteria cerebral media. Los estudios de pacientes han superado una gran cantidad de evidencia que demuestra que el lado izquierdo del cerebro es más adecuado para mantener representaciones de la memoria a largo plazo de la música y que el lado derecho es importante para controlar el acceso a estas representaciones. Las agnosias musicales asociativas tienden a producirse por un daño en el hemisferio izquierdo, mientras que la agnosia musical aperceptiva refleja un daño en el hemisferio derecho.

Amusia congénita

La amusia congénita , también conocida como sordera tonal , es un término que se utiliza para referirse a problemas musicales de por vida que no son atribuibles a retraso mental, falta de exposición a la música o sordera, o daño cerebral después del nacimiento. [92] Se ha descubierto en estudios de fMRI que los cerebros amusicales tienen menos materia blanca y una corteza más gruesa que los controles en la corteza frontal inferior derecha. Estas diferencias sugieren un desarrollo neuronal anormal en la corteza auditiva y el giro frontal inferior, dos áreas que son importantes en el procesamiento del tono musical.

Los estudios realizados sobre personas con amusia sugieren que en la tonalidad del habla y la tonalidad musical intervienen diferentes procesos . Los amusianos congénitos carecen de la capacidad de distinguir entre tonos y, por lo tanto, no les afectan, por ejemplo, las disonancias o tocar la tecla equivocada en un piano. Tampoco se les puede enseñar a recordar una melodía o a recitar una canción; sin embargo, aún son capaces de escuchar la entonación del habla, por ejemplo, para distinguir entre "Hablas francés" y "¿Hablas francés?" cuando se les habla.

Daño en la amígdala

Los daños a la amígdala pueden afectar el reconocimiento de música aterradora.

Los daños en la amígdala tienen efectos selectivos sobre el reconocimiento de la música. Gosselin, Peretz, Johnsen y Adolphs (2007) estudiaron a SM, un paciente con daño bilateral en la amígdala, pero con el resto del lóbulo temporal intacto, y descubrieron que SM tenía problemas para reconocer música triste y aterradora. [93] La percepción de SM de la música alegre era normal, al igual que su capacidad para usar señales como el tempo para distinguir entre música alegre y triste. Parece que los daños específicos en la amígdala pueden afectar selectivamente el reconocimiento de música aterradora.

Déficit selectivo en la lectura musical

Los daños cerebrales que dejan intactas otras capacidades musicales pueden provocar alteraciones musicales específicas. Cappelletti, Waley-Cohen, Butterworth y Kopelman (2000) estudiaron un caso único de un paciente llamado PKC, un músico profesional que sufrió daños en el lóbulo temporal posterior izquierdo, así como una pequeña lesión occipitotemporal derecha. [94] Después de sufrir daños en estas regiones, PKC sufrió alteraciones selectivas en las áreas de lectura, escritura y comprensión de la notación musical, pero mantuvo otras habilidades musicales. Conservó la capacidad de leer en voz alta letras, palabras, números y símbolos (incluidos los musicales). Sin embargo, PKC no podía leer en voz alta notas musicales en el pentagrama, independientemente de si la tarea implicaba nombrar con la letra convencional o cantando o tocando. Sin embargo, a pesar de este déficit específico, PKC conservó la capacidad de recordar y tocar melodías conocidas y nuevas.

Arritmia auditiva

La arritmia en la modalidad auditiva se define como una alteración del sentido rítmico; e incluye déficits como la incapacidad de interpretar música rítmicamente, la incapacidad de mantener el ritmo de la música y la incapacidad de discriminar entre patrones rítmicos o reproducirlos. [ 95] Un estudio que investigó los elementos de la función rítmica examinó al paciente HJ, que adquirió arritmia después de sufrir un infarto temporoparietal derecho. [95] El daño a esta región dañó el sistema de sincronización central de HJ, que es esencialmente la base de su deterioro rítmico global. HJ no pudo generar pulsos constantes en una tarea de golpeteo. Estos hallazgos sugieren que mantener un ritmo musical depende del funcionamiento de la corteza auditiva temporal derecha.

Referencias

  1. ^ Kandler, Karl; Clause, Amanda; Noh, Jihyun (2009). "Reorganización tonotópica de los circuitos auditivos del tronco encefálico en desarrollo". Nature Neuroscience . 12 (6): 711–7. doi :10.1038/nn.2332. PMC  2780022 . PMID  19471270.
  2. ^ Arlinger, S; Elberling, C; Bak, C; Kofoed, B; Lebech, J; Saermark, K (1982). "Campos magnéticos corticales evocados por deslizamientos de frecuencia de un tono continuo". Electroencefalografía y neurofisiología clínica . 54 (6): 642–53. doi :10.1016/0013-4694(82)90118-3. PMID  6183097.
  3. ^ ab Köppl, Christine (1997). "Sincronización de fase a altas frecuencias en el nervio auditivo y el núcleo coclear magnocelular de la lechuza común, Tyto alba". Revista de neurociencia . 17 (9): 3312–21. doi :10.1523/JNEUROSCI.17-09-03312.1997. PMC 6573645 . PMID  9096164. 
  4. ^ Dreyer, A.; Delgutte, B. (2006). "Fijación de fase de las fibras del nervio auditivo con las envolturas de los sonidos de alta frecuencia: implicaciones para la localización del sonido". Revista de neurofisiología . 96 (5): 2327–41. doi :10.1152/jn.00326.2006. PMC 2013745 . PMID  16807349. 
  5. ^ Laudanski, J.; Coombes, S.; Palmer, AR; Sumner, CJ (2009). "Trenes de picos bloqueados por modo en las respuestas de las neuronas de inicio y de corte del núcleo coclear ventral a estímulos periódicos". Journal of Neurophysiology . 103 (3): 1226–37. doi :10.1152/jn.00070.2009. PMC 2887620 . PMID  20042702. 
  6. ^ Liu, L.-F.; Palmer, AR; Wallace, MN (2006). "Respuestas de sincronización de fase a tonos puros en el colículo inferior". Revista de neurofisiología . 95 (3): 1926–35. doi :10.1152/jn.00497.2005. PMID  16339005.
  7. ^ Wallace, MN; Anderson, LA; Palmer, AR (2007). "Respuestas sincronizadas en fase a tonos puros en el tálamo auditivo". Revista de neurofisiología . 98 (4): 1941–52. doi :10.1152/jn.00697.2007. PMID  17699690. S2CID  10052217.
  8. ^ Skoe, Erika; Kraus, Nina (2010). "Respuesta auditiva del tronco encefálico a sonidos complejos: un tutorial". Ear and Hearing . 31 (3): 302–24. doi :10.1097/AUD.0b013e3181cdb272. PMC 2868335 . PMID  20084007. 
  9. ^ Hyde, Krista L.; Peretz, Isabelle; Zatorre, Robert J. (2008). "Evidencia del papel de la corteza auditiva derecha en la resolución fina del tono". Neuropsychologia . 46 (2): 632–9. doi :10.1016/j.neuropsychologia.2007.09.004. PMID  17959204. S2CID  12414672.
  10. ^ Patterson, Roy D; Uppenkamp, ​​Stefan; Johnsrude, Ingrid S; Griffiths, Timothy D (2002). "El procesamiento de la información temporal de tono y melodía en la corteza auditiva". Neuron . 36 (4): 767–76. doi : 10.1016/S0896-6273(02)01060-7 . PMID  12441063. S2CID  2429799.
  11. ^ Deutsch, D. (2013). "Oído absoluto en D. Deutsch (Ed.)". Psicología de la música, 3.ª edición : 141–182. doi :10.1016/B978-0-12-381460-9.00005-5. ISBN 9780123814609.Documento PDF
  12. ^ Takeuchi, Annie H.; Hulse, Stewart H. (1993). "Oído absoluto". Boletín Psicológico . 113 (2): 345–61. doi :10.1037/0033-2909.113.2.345. PMID  8451339.
  13. ^ Zatorre, Robert J.; Perry, David W.; Beckett, Christine A.; Westbury, Christopher F.; Evans, Alan C. (1998). "Anatomía funcional del procesamiento musical en oyentes con oído absoluto y oído relativo". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 95 (6): 3172–7. Bibcode :1998PNAS...95.3172Z. doi : 10.1073/pnas.95.6.3172 . PMC 19714 . PMID  9501235. 
  14. ^ ab Brattico, Elvira; Tervaniemi, Mari; Näätänen, Risto; Peretz, Isabelle (2006). "Las propiedades de la escala musical se procesan automáticamente en la corteza auditiva humana". Brain Research . 1117 (1): 162–74. doi :10.1016/j.brainres.2006.08.023. PMID  16963000. S2CID  8401429.
  15. ^ "ritmo | Definición de ritmo en inglés según Oxford Dictionaries". Oxford Dictionaries | Inglés . Archivado desde el original el 27 de septiembre de 2016 . Consultado el 31 de mayo de 2019 .
  16. ^ abc Tramo, MJ (2001). "BIOLOGÍA Y MÚSICA: Mejorada: Música de los hemisferios". Science . 291 (5501): 54–6. doi :10.1126/science.10.1126/science.1056899. PMID  11192009. S2CID  132754452.
  17. ^ Snyder, Joel S.; Large, Edward W. (2005). "La actividad de la banda gamma refleja la estructura métrica de las secuencias de tonos rítmicos". Investigación cognitiva del cerebro . 24 (1): 117–26. doi :10.1016/j.cogbrainres.2004.12.014. PMID  15922164.
  18. ^ Krumhansl, Carol (1990). Fundamentos cognitivos del tono musical . Nueva York: Oxford University Press. ISBN 978-0-19-514836-7.[ página necesaria ]
  19. ^ Janata, P.; Birk, JL; Van Horn, JD; Leman, M; Tillmann, B; Bharucha, JJ (2002). "La topografía cortical de las estructuras tonales que subyacen a la música occidental". Science . 298 (5601): 2167–70. Bibcode :2002Sci...298.2167J. doi :10.1126/science.1076262. PMID  12481131. S2CID  3031759.
  20. ^ Proverbio, Alice Mado; Orlandi, Andrea; Pisanu, Francesca (2016). "Procesamiento cerebral de consonancia/disonancia en músicos y controles: una asimetría hemisférica revisitada". Revista Europea de Neurociencia . 44 (6): 2340–2356. doi :10.1111/ejn.13330. ISSN  1460-9568. PMID  27421883. S2CID  3899594.
  21. ^ abcdefghijk Zatorre, RJ; Halpern, AR (2005). "Conciertos mentales: imaginería musical y corteza auditiva". Neuron . 47 (1): 9–12. doi : 10.1016/j.neuron.2005.06.013 . PMID  15996544. S2CID  1613599.
  22. ^ ab Buhusi, CV; Meck, WH (2005). "¿Qué nos motiva? Mecanismos funcionales y neuronales de la sincronización de intervalos". Nature Reviews Neuroscience . 6 (10): 755–765. doi :10.1038/nrn1764. PMID  16163383. S2CID  29616055.
  23. ^ Ivry, RB; Spencer, RM (2004). "La representación neuronal del tiempo". Curr. Opin. Neurobiol . 14 (2): 225–232. doi :10.1016/j.conb.2004.03.013. PMID  15082329. S2CID  10629859.
  24. ^ ab Spencer, RM; Zelaznik, HN; Diedrichson, J.; Ivry, RB (2003). "Ritmo alterado de movimientos discontinuos pero no continuos por lesiones cerebelosas". Science . 300 (5624): 1437–1439. Bibcode :2003Sci...300.1437S. doi :10.1126/science.1083661. PMID  12775842. S2CID  16390014.
  25. ^ ab Wing, AM (2002). "Tiempo voluntario y función cerebral: un enfoque de procesamiento de información". Brain Cogn . 48 (1): 7–30. doi :10.1006/brcg.2001.1301. PMID  11812030. S2CID  5596590.
  26. ^ Mauk, MD; Buonomano, DV (2004). "La base neural del procesamiento temporal". Annu. Rev. Neurosci . 27 : 307–340. doi :10.1146/annurev.neuro.27.070203.144247. PMID  15217335.
  27. ^ Lewis, PA; Miall, RC (2003). "Sistemas distintos para la medición automática y cognitivamente controlada del tiempo: evidencia de neuroimagen". Curr. Opin. Neurobiol . 13 (2): 250–255. doi :10.1016/s0959-4388(03)00036-9. PMID  12744981. S2CID  328258.
  28. ^ Graybiel, AM (2005). "Los ganglios basales: aprender nuevos trucos y disfrutarlos". Curr. Opin. Neurobiol . 15 (6): 638–644. doi :10.1016/j.conb.2005.10.006. PMID  16271465. S2CID  12490490.
  29. ^ ab Doyon, J.; Penhune, VB; Ungerleider, LG (2003). "Contribución diferenciada de los sistemas corticoestriatal y corticocerebeloso al aprendizaje de habilidades motoras". Neuropsychologia . 41 (3): 252–262. doi :10.1016/s0028-3932(02)00158-6. PMID  12457751. S2CID  1855933.
  30. ^ Penhune, VB; Doyon, J. (2005). "Interacción entre el cerebelo y el M1 durante el aprendizaje temprano de secuencias motoras cronometradas". NeuroImage . 26 (3): 801–812. doi :10.1016/j.neuroimage.2005.02.041. PMID  15955490. S2CID  14531779.
  31. ^ Hikosaka, O.; Nakamura, H.; Sakai, K.; Nakahara, H. (2002). "Mecanismos centrales del aprendizaje de habilidades motoras". Curr. Opin. Neurobiol . 12 (2): 217–222. doi :10.1016/s0959-4388(02)00307-0. PMID  12015240. S2CID  12354147.
  32. ^ Thach, WT (1998). "El papel del cerebelo en el aprendizaje de la coordinación del movimiento". Neurobiol. Learn. Mem . 70 (1–2): 177–188. doi :10.1006/nlme.1998.3846. PMID  9753595. S2CID  29972449.
  33. ^ Garraux, G.; et al. (2005). "Áreas cerebrales compartidas pero no conexiones funcionales en el control del orden y el ritmo del movimiento". J. Neurosci . 25 (22): 5290–5297. doi :10.1523/jneurosci.0340-05.2005. PMC 6724991 . PMID  15930376. 
  34. ^ Sakai, K.; Hikosaka, O.; Nakamura, H. (2004). "Aparición del ritmo durante el aprendizaje motor". Trends Cogn. Sci . 8 (12): 547–553. doi :10.1016/j.tics.2004.10.005. PMID  15556024. S2CID  18845950.
  35. ^ Kennerley, SW; Sakai, K.; Rushworth, MF (2004). "Organización de secuencias de acción y el papel de la pre-SMA". J. Neurophysiol . 91 (2): 978–993. doi :10.1152/jn.00651.2003. PMID  14573560. S2CID  7763911.
  36. ^ Janata, P.; Grafton, ST (2003). "El balanceo en el cerebro: sustratos neuronales compartidos para conductas relacionadas con la secuenciación y la música". Nature Neuroscience . 6 (7): 682–687. doi :10.1038/nn1081. PMID  12830159. S2CID  7605155.
  37. ^ Schubotz, RI; von Cramon, DY (2003). "Conceptos anatómicos funcionales de la corteza premotora humana: evidencia de estudios de fMRI y PET". NeuroImage . 20 (Supl. 1): S120–S131. doi :10.1016/j.neuroimage.2003.09.014. PMID  14597305. S2CID  10198110.
  38. ^ Johnson, PB; Ferraina, S.; Bianchi, L.; Caminiti, R. (1996). "Redes corticales para el alcance visual: organización fisiológica y anatómica de las regiones del brazo del lóbulo frontal y parietal. Cereb". Cortex . 6 (2): 102–119. doi : 10.1093/cercor/6.2.102 . PMID  8670643.
  39. ^ Rizzolatti, G.; Luppino, G.; Matelli, M. (1998). "La organización del sistema motor cortical: nuevos conceptos". Electroencephalogr. Clin. Neurophysiol . 106 (4): 283–296. doi :10.1016/s0013-4694(98)00022-4. PMID  9741757.
  40. ^ Large, EW; Palmer, C. (2002). "Percibiendo la regularidad temporal en la música". Cogn Sci . 26 : 1–37. doi : 10.1207/s15516709cog2601_1 .
  41. ^ Thaut, MH; McIntosh, GC; Rice, RR (1997). "Facilitación rítmica del entrenamiento de la marcha en la rehabilitación del ictus hemiparético". J. Neurol. Sci . 151 (2): 207–212. doi :10.1016/s0022-510x(97)00146-9. PMID  9349677. S2CID  2515325.
  42. ^ McIntosh, GC; Brown, SH; Rice, RR; Thaut, MH (1997). "Facilitación auditivo-motora rítmica de los patrones de marcha en pacientes con enfermedad de Parkinson". J. Neurol. Neurosurg. Psychiatry . 62 (1): 22–26. doi :10.1136/jnnp.62.1.22. PMC 486690 . PMID  9010395. 
  43. ^ Repp, BH (1999). "Efectos de la privación de retroalimentación auditiva en la interpretación expresiva del piano". Music Perception . 16 (4): 409–438. doi :10.2307/40285802. JSTOR  40285802.
  44. ^ Pfordresher, PQ; Palmer, C. (2006). "Efectos de escuchar el pasado, el presente o el futuro durante la interpretación musical". Percept. Psychophys . 68 (3): 362–376. doi : 10.3758/bf03193683 . PMID  16900830.
  45. ^ Hickok, G.; Poeppel, D. (2004). "Corrientes dorsales y ventrales: un marco para comprender aspectos de la anatomía funcional del lenguaje". Cognición . 92 (1–2): 67–99. doi :10.1016/j.cognition.2003.10.011. PMID  15037127. S2CID  635860.
  46. ^ Scott, SK y Johnsrude, IS "La organización neuroanatómica y funcional de la percepción del habla". Trends Neurosci . 26, 100–107 (2003)
  47. ^ Hickok, G.; Buchsbaum, B.; Humphries, C.; Muftuler, T. (2003). "Interacción auditiva-motora revelada por fMRI: habla, música y memoria de trabajo en el área SPT". J. Cogn. Neurosci . 15 (5): 673–682. doi :10.1162/089892903322307393. PMID  12965041.
  48. ^ Rizzolatti, G.; Fogassi, L.; Gallese, V. (2001). "Mecanismos neurofisiológicos que subyacen a la comprensión y la imitación de la acción". Nature Reviews Neuroscience . 2 (9): 661–670. doi :10.1038/35090060. PMID  11533734. S2CID  6792943.
  49. ^ Kohler, E.; et al. (2002). "Escuchar sonidos, comprender acciones: representación de la acción en neuronas espejo". Science . 297 (5582): 846–848. Bibcode :2002Sci...297..846K. doi :10.1126/science.1070311. PMID  12161656. S2CID  16923101.
  50. ^ Keysers, C.; et al. (2003). "Neuronas espejo audiovisuales y reconocimiento de acciones. Exp". Brain Res . 153 (4): 628–636. doi :10.1007/s00221-003-1603-5. PMID  12937876. S2CID  7704309.
  51. ^ Mado Proverbio, Alice; Calbi, Marta; Manfredi, Mirella; Zani, Alberto (29 de julio de 2014). "Procesamiento audio-visuomotor en el cerebro del músico: un estudio ERP en violinistas y clarinetistas profesionales". Scientific Reports . 4 : 5866. Bibcode :2014NatSR...4E5866M. doi :10.1038/srep05866. ISSN  2045-2322. PMC 5376193 . PMID  25070060. 
  52. ^ abc Brown, Steven; Martinez, Michael J.; Parsons, Lawrence M. (2006). "Música y lenguaje lado a lado en el cerebro: un estudio PET de la generación de melodías y oraciones". Revista Europea de Neurociencia . 23 (10): 2791–803. doi :10.1111/j.1460-9568.2006.04785.x. PMID  16817882. S2CID  15189129.
  53. ^ ab Jentschke, Sebastian; Koelsch, Stefan; Sallat, Stephan; Friederici, Angela D. (2008). "Los niños con trastorno específico del lenguaje también muestran un deterioro del procesamiento sintáctico-musical". Journal of Cognitive Neuroscience . 20 (11): 1940–51. doi :10.1162/jocn.2008.20135. PMID  18416683. S2CID  6678801.
  54. ^ ab Stewart, Lauren; Walsh, Vincent; Frith, UTA; Rothwell, John (2006). "La estimulación magnética transcraneal produce una interrupción del habla pero no de la canción" (PDF) . Anales de la Academia de Ciencias de Nueva York . 930 (1): 433–5. Bibcode :2001NYASA.930..433S. doi :10.1111/j.1749-6632.2001.tb05762.x. PMID  11458860. S2CID  31971115.
  55. ^ Koelsch, Stefan; Gunter, Thomas C.; v Cramon, D. Yves; Zysset, Stefan; Lohmann, Gabriele; Friederici, Angela D. (2002). "Bach habla: una "red de lenguaje" cortical sirve para el procesamiento de la música". NeuroImage . 17 (2): 956–66. doi : 10.1006/nimg.2002.1154 . hdl : 11858/00-001M-0000-0010-9FF9-6 . PMID  12377169.
  56. ^ Daltrozzo, Jérôme; Schön, Daniele (2009). "Procesamiento conceptual en música revelado por los efectos de N400 en palabras y objetivos musicales". Revista de neurociencia cognitiva . 21 (10): 1882–92. doi :10.1162/jocn.2009.21113. PMID  18823240. S2CID  10848425.
  57. ^ Deutsch, Diana; Henthorn, Trevor; Marvin, Elizabeth; Xu, Hongshuai (2006). "Oído absoluto entre estudiantes de conservatorio estadounidenses y chinos: diferencias de prevalencia y evidencia de un período crítico relacionado con el habla". Revista de la Sociedad Acústica de Estados Unidos . 119 (2): 719–22. Bibcode :2006ASAJ..119..719D. doi :10.1121/1.2151799. PMID  16521731.
  58. ^ Deutsch, Diana; Dooley, Kevin; Henthorn, Trevor; Head, Brian (2009). "Oído absoluto entre estudiantes de un conservatorio de música estadounidense: asociación con la fluidez del lenguaje tonal". Revista de la Sociedad Acústica de Estados Unidos . 125 (4): 2398–403. Bibcode :2009ASAJ..125.2398D. doi :10.1121/1.3081389. PMID  19354413.
  59. ^ Gaser, C; Schlaug, G (2003). "Las estructuras cerebrales difieren entre músicos y no músicos". The Journal of Neuroscience . 23 (27): 9240–5. doi :10.1523/JNEUROSCI.23-27-09240.2003. PMC 6740845 . PMID  14534258. 
  60. ^ ab Croom, Adam M. (2012). "Música, neurociencia y psicología del bienestar: resumen". Frontiers in Psychology . 2 : 393. doi : 10.3389/fpsyg.2011.00393 . PMC 3249389 . PMID  22232614. 
  61. ^ Krings, Timo; Töpper, Rudolf; Foltys, Henrik; Erberich, Stephan; Sparing, Roland; Willmes, Klaus; Thron, Armin (2000). "Patrones de activación cortical durante tareas motoras complejas en pianistas y sujetos de control. Un estudio de resonancia magnética funcional". Neuroscience Letters . 278 (3): 189–93. doi :10.1016/S0304-3940(99)00930-1. PMID  10653025. S2CID  6564482.
  62. ^ Koeneke, Susan; Lutz, Kai; Wüstenberg, Torsten; Jäncke, Lutz (2004). "El entrenamiento a largo plazo afecta el procesamiento cerebeloso en teclistas expertos". NeuroReport . 15 (8): 1279–82. doi :10.1097/01.wnr.0000127463.10147.e7. PMID  15167549. S2CID  14517466.
  63. ^ Chan, Agnes S.; Ho, Yim-Chi; Cheung, Mei-Chun (1998). "El entrenamiento musical mejora la memoria verbal". Nature . 396 (6707): 128. Bibcode :1998Natur.396..128C. doi : 10.1038/24075 . ISSN  1476-4687. PMID  9823892. S2CID  4425221.
  64. ^ ab Koelsch, Stefan; Gunter, Tomas; Friederici, Angela D.; Schröger, Erich (2000). "Índices cerebrales del procesamiento musical: los "no músicos" son musicales". Revista de neurociencia cognitiva . 12 (3): 520–41. doi :10.1162/089892900562183. PMID  10931776. S2CID  6205775.
  65. ^ ab Koelsch, Stefan; Schroger, Erich; Gunter, Thomas C. (2002). "La música importa: musicalidad preatenta del cerebro humano". Psicofisiología . 39 (1): 38–48. doi :10.1111/1469-8986.3910038. hdl : 11858/00-001M-0000-0010-C96E-D . PMID  12206294.
  66. ^ Koelsch, Stefan; Maess, Burkhard; Grossmann, Tobias; Friederici, Angela D. (2003). "Las respuestas eléctricas del cerebro revelan diferencias de género en el procesamiento de la música". NeuroReport . 14 (5): 709–13. doi :10.1097/00001756-200304150-00010. hdl : 11858/00-001M-0000-0010-B017-B . PMID  12692468.
  67. ^ Koelsch, Stefan; Grossmann, Tobias; Gunter, Thomas C.; Hahne, Anja; Schröger, Erich; Friederici, Angela D. (2003). "Los niños procesan la música: las respuestas eléctricas del cerebro revelan competencia musical y diferencias de género". Revista de neurociencia cognitiva . 15 (5): 683–93. doi :10.1162/jocn.2003.15.5.683. hdl : 11858/00-001M-0000-0010-A3D0-1 . PMID  12965042. S2CID  10553168.
  68. ^ Deutsch, D (febrero de 1978). "Memoria de tono: una ventaja para los zurdos". Science . 199 (4328): 559–560. Bibcode :1978Sci...199..559D. doi :10.1126/science.622558. PMID  622558.
  69. ^ Deutsch, Diana (1980). "Lateralidad y memoria para el tono" (PDF) . En Herron, Jeannine (ed.). Neuropsicología de la zurdera . pp. 263–71.
  70. ^ Deutsch, Diana (1974). "Una ilusión auditiva". Nature . 251 (5473): 307–9. Bibcode :1974Natur.251..307D. doi :10.1038/251307a0. PMID  4427654. S2CID  4273134.
  71. ^ Deutsch, Diana (1983). "La ilusión de octava en relación con la lateralidad y el trasfondo familiar de lateralidad". Neuropsychologia . 21 (3): 289–93. doi :10.1016/0028-3932(83)90047-7. PMID  6877583. S2CID  3063526.
  72. ^ Deutsch, Diana (1975). "Escucha de escalas musicales con dos canales". Revista de la Sociedad Acústica de América . 57 (5): 1156–60. Bibcode :1975ASAJ...57.1156D. doi :10.1121/1.380573. PMID  1127169.
  73. ^ Deutsch, D. (1999). "Mecanismos de agrupamiento en la música" (PDF) . En Deutsch, D. (ed.). La psicología de la música (2.ª ed.). pp. 299–348.
  74. ^ Halpern, Andrea R. (2006). "Sustratos cerebrales de la imaginería musical". Anales de la Academia de Ciencias de Nueva York . 930 (1): 179–92. Código Bibliográfico :2001NYASA.930..179H. doi :10.1111/j.1749-6632.2001.tb05733.x. PMID  11458829. S2CID  31277594.
  75. ^ Herholz, Sibylle C.; Lappe, Claudia; Knief, Arne; Pantev, Christo (2008). "Bases neuronales de la imaginería musical y el efecto de la experiencia musical". Revista Europea de Neurociencia . 28 (11): 2352–60. doi :10.1111/j.1460-9568.2008.06515.x. PMID  19046375. S2CID  205513912.
  76. ^ Zatorre, Robert J.; Halpern, Andrea R.; Perry, David W.; Meyer, Ernst; Evans, Alan C. (1996). "Escuchar en el oído de la mente: una investigación PET de imágenes y percepción musical". Revista de neurociencia cognitiva . 8 (1): 29–46. doi :10.1162/jocn.1996.8.1.29. PMID  23972234. S2CID  11312311.
  77. ^ ab Blood, AJ; Zatorre, RJ (2001). "Las respuestas intensamente placenteras a la música se correlacionan con la actividad en las regiones cerebrales implicadas en la recompensa y la emoción". Actas de la Academia Nacional de Ciencias . 98 (20): 11818–11823. Bibcode :2001PNAS...9811818B. doi : 10.1073/pnas.191355898 . PMC 58814 . PMID  11573015. 
  78. ^ Collins, Francis S.; Fleming, Renée; Rutter, Deborah; Iyengar, Sunil; Tottenham, Nim; Patel, Aniruddh D.; Limb, Charles; Johnson, Julene K.; Holochwost, Steven J. (21 de marzo de 2018). "Taller del NIH/Kennedy Center sobre música y cerebro: en busca de armonía". Neuron . 97 (6): 1214–1218. doi :10.1016/j.neuron.2018.02.004. ISSN  0896-6273. PMC 6688399 . PMID  29566791. 
  79. ^ ab Schmidt, Louis A.; Trainor, Laurel J. (2001). "La actividad eléctrica cerebral frontal (EEG) distingue la valencia y la intensidad de las emociones musicales". Cognición y emoción . 15 (4): 487–500. doi :10.1080/02699930126048. S2CID  5557258.
  80. ^ Baird, Amee; Samson, Séverine (2009). "Memoria para la música en la enfermedad de Alzheimer: ¿Inolvidable?". Neuropsychology Review . 19 (1): 85–101. doi :10.1007/s11065-009-9085-2. PMID  19214750. S2CID  14341862.
  81. ^ ab Platel, Hervé; Baron, Jean-Claude ; Desgranges, Béatrice; Bernard, Frédéric; Eustache, Francis (2003). "La memoria semántica y episódica de la música se sustenta en redes neuronales distintas". NeuroImage . 20 (1): 244–56. doi :10.1016/S1053-8119(03)00287-8. PMID  14527585. S2CID  17195548.
  82. ^ Kapur, Shitij; Craik, Fergus IM; Jones, Corey; Brown, Gregory M.; Houle, Sylvain; Tulving, Endel (1995). "Papel funcional de la corteza prefrontal en la recuperación de recuerdos: un estudio PET". NeuroReport . 6 (14): 1880–4. doi :10.1097/00001756-199510020-00014. PMID  8547589. S2CID  21792266.
  83. ^ Gaab, Nadine; Gaser, Christian; Zaehle, Tino; Jancke, Lutz; Schlaug, Gottfried (2003). "Anatomía funcional de la memoria de tono: un estudio fMRI con muestreo temporal disperso". NeuroImage . 19 (4): 1417–26. doi :10.1016/S1053-8119(03)00224-6. PMID  12948699. S2CID  1878442.
  84. ^ abc Burriss, Kathleen Glascott; Strickland, Susan J. (2001). "Revisión de la investigación: la música y el cerebro en el desarrollo infantil". Educación infantil . 78 (2): 100–103. doi :10.1080/00094056.2002.10522714. S2CID  219597861.
  85. ^ Schulkind, Matthew D.; Hennis, Laura Kate; Rubin, David C. (1999-11-01). "Música, emoción y memoria autobiográfica: Están tocando tu canción". Memoria y cognición . 27 (6): 948–955. doi :10.3758/BF03201225. hdl : 10161/10143 . ISSN  1532-5946. PMID  10586571. S2CID  34931829.
  86. ^ ab Treder, Matthias; Purwins, Hendrik; Miklody, Daniel; Sturm, Irene; Blankertz, Benjamin (2014). "Decodificación de la atención auditiva a los instrumentos en música polifónica mediante la clasificación EEG de un solo ensayo" (PDF) . Journal of Neural Engineering . 11 (2): 026009. Bibcode :2014JNEng..11b6009T. doi :10.1088/1741-2560/11/2/026009. PMID  24608228. S2CID  35135614.
  87. ^ Chen, R; Hallett, M ​​(1998). "Distonía focal y trastornos de movimientos repetitivos". Ortopedia clínica e investigación relacionada (351): 102–6. PMID  9646753.
  88. ^ Pujol, J.; Roset-Llobet, J.; Rosinés-Cubells, D.; Deus, J.; Narberhaus, B.; Valls-Solé, J.; Capdevila, A.; Pascual-Leona, A. (2000). "Activación cortical cerebral durante la distonía de la mano inducida por la guitarra estudiada mediante resonancia magnética funcional". NeuroImagen . 12 (3): 257–67. doi :10.1006/nimg.2000.0615. PMID  10944408. S2CID  24205160.
  89. ^ Dalla Bella, Simone; Peretz, Isabelle (1999). "Agnosias musicales: alteraciones selectivas del reconocimiento musical tras daño cerebral". Revista de investigación en nueva música . 28 (3): 209–216. doi :10.1076/jnmr.28.3.209.3108.
  90. ^ Peretz, Isabelle (1996). "¿Podemos perder la memoria para la música? Un caso de agnosia musical en un no músico". Journal of Cognitive Neuroscience . 8 (6): 481–96. doi :10.1162/jocn.1996.8.6.481. PMID  23961980. S2CID  25846736.
  91. ^ Ayotte, J. (2000). "Patrones de agnosia musical asociados con infartos de la arteria cerebral media". Cerebro . 123 (9): 1926–38. doi : 10.1093/brain/123.9.1926 . PMID  10960056.
  92. ^ Peretz, Isabelle (2008). "Trastornos musicales: del comportamiento a los genes". Current Directions in Psychological Science . 17 (5): 329–333. doi :10.1111/j.1467-8721.2008.00600.x. S2CID  15242461.
  93. ^ Gosselin, Nathalie; Peretz, Isabelle; Johnsen, Erica; Adolphs, Ralph (2007). "El daño en la amígdala afecta el reconocimiento de emociones a partir de la música". Neuropsychologia . 45 (2): 236–44. doi :10.1016/j.neuropsychologia.2006.07.012. PMID  16970965. S2CID  14537793.
  94. ^ Cappelletti, M.; Waley-Cohen, H.; Butterworth, B.; Kopelman, M. (2000). "Una pérdida selectiva de la capacidad de leer y escribir música". Neurocase . 6 (4): 321–332. doi :10.1080/13554790008402780. S2CID  144572937.
  95. ^ ab Wilson, Sarah J; Pressing, Jeffrey L; Wales, Roger J (2002). "Modelado de la función rítmica en un músico después de sufrir un accidente cerebrovascular". Neuropsychologia . 40 (8): 1494–505. doi :10.1016/S0028-3932(01)00198-1. PMID  11931954. S2CID  16730354.

Enlaces externos