stringtranslate.com

Edward Chang (neurocirujano)

Edward Chang es un neurocirujano y científico estadounidense. Es catedrático de la Cátedra Joan y Sandy Weill del Departamento de Cirugía Neurológica de la Universidad de California en San Francisco y profesor distinguido Jeanne Robertson.

Chang se especializa en mapeo cerebral operatorio para garantizar la seguridad y eficacia de la cirugía para tratar convulsiones y tumores cerebrales, así como en microneurocirugía para tratar trastornos de los nervios craneales como la neuralgia del trigémino y el espasmo hemifacial. En 2020, Chang fue elegido miembro de la Academia Nacional de Medicina [1] por “descifrar el modelo funcional del habla en la corteza cerebral humana, ser pionero en métodos clínicos avanzados para el mapeo cerebral humano y encabezar una nueva tecnología neuroprotésica translacional para pacientes paralizados”. [2] [3]

Carrera académica

Chang asistió a la escuela de medicina de la UCSF, donde también realizó una beca predoctoral sobre neurofisiología de la corteza auditiva con el profesor Michael Merzenich . Más tarde realizó su residencia en neurocirugía en la UCSF y se formó bajo la tutela del Dr. Mitchel Berger en tumores cerebrales, el Dr. Nicholas Barbaro en epilepsia y el Dr. Michael Lawton en trastornos vasculares. Durante la residencia, realizó una beca posdoctoral sobre neurociencia cognitiva humana con el Dr. Robert Knight en la UC Berkeley. [4]

Chang se unió a la facultad de neurocirugía de la UCSF en 2010 y fue ascendido a jefe de departamento en 2020. [4]

Contribuciones científicas

Chang ha hecho contribuciones fundamentales para comprender el código neuronal del habla y las condiciones neuropsiquiátricas en el cerebro humano. [5]

Chang fue pionero en el uso de registros electrofisiológicos directos de alta densidad de la corteza, lo que le permitió a él y a sus colegas determinar la sintonización selectiva de las neuronas corticales a características acústicas y fonéticas específicas en consonantes y vocales. [6] Su laboratorio descubrió la codificación neuronal de las señales del tono vocal en la entonación prosódica para el inglés y los tonos léxicos en mandarín. [7] El laboratorio de Chang determinó cómo la corteza auditiva detecta puntos de referencia temporales como inicios y bordes acústicos en la señal de la envolvente del habla para extraer sílabas y patrones de estrés, [8] importantes para el ritmo y la inteligibilidad del habla.

Un hallazgo general en su trabajo es que la representación fonológica interna de los sonidos del habla resulta de cálculos auditivos complejos en el STG; incluyendo procesos como adaptación, mejora del contraste, normalización, integración espectral compleja, procesamiento no lineal, predicción y dinámica temporal. [9]

Su laboratorio demostró que el lóbulo temporal superior es fundamental para la percepción consciente del habla. Es decir, no solo es fundamental para detectar los sonidos del habla, sino también para interpretarlos. Por ejemplo, demostraron que la corteza temporal superior puede prestar atención selectiva a una voz cuando hay varias voces presentes [10] y que restaura los sonidos que faltan en las palabras cuando un segmento de fonema se reemplaza por ruido [11] .

Para abordar el flujo de información en el procesamiento auditivo del habla, Chang y sus colegas demostraron que la corteza auditiva primaria puede no ser una entrada crítica para el procesamiento fonológico en el STG. Demostraron que tanto las áreas STG primarias como las no primarias se activan en paralelo, y que la interrupción de la corteza auditiva primaria mediante estimulación eléctrica y ablación no tiene consecuencias significativas en el reconocimiento auditivo de palabras. [12] Por el contrario, la interrupción del STG izquierdo sí afecta el reconocimiento auditivo de palabras. En lugar del procesamiento de retroalimentación serial en el modelo clásico de flujo ventral , proponen un modelo alternativo en el que las entradas pueden ser de origen talámico , el procesamiento auditivo de palabras está mediado por el procesamiento recurrente en el STG, y que las representaciones de palabras surgen de la dinámica de población dependiente del tiempo de las neuronas del STG. [13]

El laboratorio de Chang también estudia la base de la producción del habla, los mecanismos neurobiológicos que gobiernan nuestra forma de hablar. Él y sus colegas han trazado un mapa de cómo las diferentes ubicaciones de la corteza sensoriomotora controlan movimientos específicos del tracto vocal, incluidos los labios, la mandíbula, la lengua y la laringe. [14] Con grabaciones corticales y mapeo de estimulación eléctrica, Chang demostró la existencia de representaciones motoras laríngeas duales en cada hemisferio. [15] Este hallazgo revisó la organización funcional del "homúnculo" de la corteza motora humana, que se mantuvo durante mucho tiempo. La corteza laríngea dorsal es una región que se encarga de controlar el tono de entonación de la voz cuando se habla y, cuando se estimula, puede evocar la vocalización. Se ha propuesto que esta área puede haber sido fundamental para la evolución del habla en los humanos. [16]

Chang ha propuesto que el giro precentral medio es un área importante para la planificación del habla para la articulación, una función que se ha atribuido tradicionalmente al área de Broca en el giro frontal inferior posterior . [17] Esta nueva área cerebral se superpone con la corteza laríngea dorsal y tiene funciones integradoras únicas que incluyen el procesamiento auditivo [18] y la lectura y la ortografía. Demostró que la resección quirúrgica de un tumor en el giro precentral izquierdo puede resultar en apraxia del habla, una condición en la que se afecta la fluidez del habla articulatoria, a pesar de las funciones normales del lenguaje y la fuerza motora orofacial intacta. [19] Por el contrario, las resecciones en el área de Broca pueden causar dificultades para encontrar palabras, pero rara vez resultan en disfluencia de afasia de Broca. [20]

El equipo de Chang aplicó sus descubrimientos sobre el control del habla para desarrollar una nueva tecnología neuroprotésica diseñada para restablecer la comunicación a los pacientes que han perdido la capacidad de hablar. En 2019, demostraron que es posible sintetizar oraciones de habla inteligibles a partir de grabaciones corticales de la actividad cerebral. [21] En 2021, como parte del ensayo clínico BRAVO, el equipo demostró la primera decodificación exitosa de palabras y oraciones completas a partir de la actividad cerebral de un hombre que quedó gravemente paralizado después de un derrame cerebral en el tronco encefálico y no pudo hablar durante más de 15 años. [2] Posteriormente, ampliaron este enfoque para demostrar la primera síntesis y control del habla exitosos sobre un avatar facial digital, así como la decodificación de texto de alto rendimiento y vocabulario amplio. [22] [23]

Chang también ha realizado investigaciones para comprender y tratar afecciones neuropsiquiátricas como la depresión y el dolor crónico . De 2014 a 2019, Chang dirigió un proyecto multiinstitucional en la Iniciativa BRAIN de EE. UU., que se centró en el desarrollo de nueva tecnología de dispositivos médicos para tratar afecciones neuropsiquiátricas refractarias graves. [24] Él y sus colegas desarrollaron nuevos métodos para registrar y estimular con precisión regiones cerebrales focales para aliviar la depresión y la ansiedad, [25] así como métodos para detectar y monitorear los síntomas de depresión a partir de la actividad cerebral. [26]

En 2021, como parte de un ensayo clínico aprobado por la FDA , demostraron la primera aplicación exitosa de estimulación cerebral profunda de circuito cerrado para el tratamiento de la depresión, en la que se aplica una estimulación focal precisa de forma episódica cuando los registros cerebrales detectan estados de depresión. [27] En 2023, Prasad Shirvalkar, neurólogo del dolor de la UCSF, y Chang demostraron los patrones directos de actividad cerebral que predicen el dolor crónico. [28]

Premios

Referencias

  1. ^ "La Academia Nacional de Medicina elige a 100 nuevos miembros". 19 de octubre de 2020.
  2. ^ ab Belluck, Pam (14 de julio de 2021). "Cómo aprovechar el cerebro para ayudar a un hombre paralizado a hablar". The New York Times . ISSN  0362-4331 . Consultado el 22 de julio de 2021 .
  3. ^ Willingham, Emily. "Un nuevo implante cerebral transmite palabras completas a partir de señales neuronales". Scientific American .
  4. ^ ab "Edward Chang, MD, designado presidente del Departamento de Cirugía Neurológica Joan y Sanford I. Weill". Facultad de Medicina de la UCSF . Consultado el 19 de junio de 2023 .
  5. ^ Hernandez, Daniela (2022-09-02). "Cómo las interfaces cerebro-computadora podrían restaurar el habla y ayudar a combatir la depresión". Wall Street Journal . ISSN  0099-9660 . Consultado el 19 de julio de 2023 .
  6. ^ "Los investigadores observan cómo nuestro cerebro convierte los sonidos en palabras". NPR .
  7. ^ "¿En serio? En serio. Cómo nuestro cerebro determina el significado de las palabras en función de cómo se pronuncian". NPR .
  8. ^ "El volumen de las vocales ayuda al cerebro a descomponer el habla en sílabas". NPR .
  9. ^ Bhaya-Grossman, Ilina; Chang, Edward F. (4 de enero de 2022). "Cálculos del habla del giro temporal superior humano". Revista anual de psicología . 73 (1): 79–102. doi :10.1146/annurev-psych-022321-035256. ISSN  0066-4308. PMC 9447996 . PMID  34672685. 
  10. ^ Beck, Melinda (23 de abril de 2012). "Lo que nos enseñan los cócteles". Wall Street Journal . ISSN  0099-9660 . Consultado el 19 de julio de 2023 .
  11. ^ "Tu cerebro llena los huecos de tu audición sin que te des cuenta". New Scientist . Consultado el 19 de julio de 2023 .
  12. ^ "El cerebro procesa el habla en paralelo con otros sonidos".
  13. ^ Bhaya-Grossman, Ilina; Chang, Edward F. (4 de enero de 2022). "Cálculos del habla del giro temporal superior humano". Revista anual de psicología . 73 (1): 79–102. doi :10.1146/annurev-psych-022321-035256. ISSN  0066-4308. PMC 9447996 . PMID  34672685. 
  14. ^ Bouchard, Kristofer E.; Mesgarani, Nima; Johnson, Keith; Chang, Edward F. (2013). "Organización funcional de la corteza sensoriomotora humana para la articulación del habla". Nature . 495 (7441): 327–332. doi :10.1038/nature11911. ISSN  1476-4687. PMC 3606666 . PMID  23426266. 
  15. ^ "Una frase con siete significados desvela un misterio del lenguaje humano". Wired . ISSN  1059-1028.
  16. ^ Jarvis, Erich D. (4 de octubre de 2019). "Evolución del aprendizaje vocal y del lenguaje hablado". Science . 366 (6461): 50–54. doi : 10.1126/science.aax0287 . ISSN  0036-8075.
  17. ^ Silva, Alexander B.; Liu, Jessie R.; Zhao, Lingyun; Levy, Deborah F.; Scott, Terri L.; Chang, Edward F. (9 de noviembre de 2022). "Una disección funcional neuroquirúrgica del giro precentral medio durante la producción del habla". Revista de neurociencia . 42 (45): 8416–8426. doi : 10.1523/JNEUROSCI.1614-22.2022 . ISSN  0270-6474. PMC 9665919 . PMID  36351829. 
  18. ^ Cheung, C.; Hamilton, LS; Johnson, K.; Chang, EF (4 de marzo de 2016). Shinn-Cunningham, Barbara G (ed.). "La representación auditiva de los sonidos del habla en la corteza motora humana". eLife . 5 : e12577. doi : 10.7554/eLife.12577 . ISSN  2050-084X. PMC 4786411 . PMID  26943778. 
  19. ^ Levy, Deborah F.; Silva, Alexander B.; Scott, Terri L.; Liu, Jessie R.; Harper, Sarah; Zhao, Lingyun; Hullett, Patrick W.; Kurteff, Garret; Wilson, Stephen M.; Leonard, Matthew K.; Chang, Edward F. (27 de marzo de 2023). "Apraxia del habla con alexia fonológica y agrafia tras la resección del giro precentral medio izquierdo: caso ilustrativo". Revista de neurocirugía: lecciones de casos . 5 (13). doi : 10.3171/CASE22504 .
  20. ^ Andrews, John P.; Cahn, Nathan; Speidel, Benjamin A.; Chung, Jason E.; Levy, Deborah F.; Wilson, Stephen M.; Berger, Mitchel S.; Chang, Edward F. (5 de agosto de 2022). "Disociación del área de Broca de la afasia de Broca en pacientes sometidos a resecciones neuroquirúrgicas". Revista de neurocirugía . 138 (3): 847–857. doi :10.3171/2022.6.JNS2297. ISSN  1933-0693. PMC 9899289 . PMID  35932264. 
  21. ^ Carey, Benedict (24 de abril de 2019). "Los científicos crean el habla a partir de señales cerebrales". The New York Times . ISSN  0362-4331.
  22. ^ Metzger, Sean L.; Littlejohn, Kaylo T.; Silva, Alexander B.; Moses, David A.; Seaton, Margaret P.; Wang, Ran; Dougherty, Maximilian E.; Liu, Jessie R.; Wu, Peter; Berger, Michael A.; Zhuravleva, Inga; Tu-Chan, Adelyn; Ganguly, Karunesh; Anumanchipalli, Gopala K.; Chang, Edward F. (2023). "Una neuroprótesis de alto rendimiento para la decodificación del habla y el control de avatares". Nature . 620 (7976): 1037–1046. doi :10.1038/s41586-023-06443-4. PMC 10826467 . PMID  37612505. 
  23. ^ "La IA ayuda a un paciente con accidente cerebrovascular a volver a hablar, un hito para la tecnología y la neurociencia".
  24. ^ Reardon, Sara (1 de junio de 2015). "La apuesta del Pentágono por los implantes cerebrales, los miembros biónicos y los exoesqueletos de combate". Nature . 522 (7555): 142–144. doi : 10.1038/522142a . ISSN  1476-4687.
  25. ^ "Investigadores descubren un circuito para la tristeza en el cerebro humano". NPR .
  26. ^ Hernandez, Daniela (10 de septiembre de 2018). "Los datos cerebrales podrían leer los estados de ánimo y tratar potencialmente la depresión". Wall Street Journal . ISSN  0099-9660 . Consultado el 19 de julio de 2023 .
  27. ^ Belluck, Pam (4 de octubre de 2021). «Un 'marcapasos para el cerebro': ningún tratamiento la ayudó con su depresión, hasta este». The New York Times . ISSN  0362-4331 . Consultado el 19 de julio de 2023 .
  28. ^ Runwal, Priyanka (22 de mayo de 2023). "Los científicos encuentran señales cerebrales del dolor crónico". The New York Times . ISSN  0362-4331 . Consultado el 19 de julio de 2023 .
  29. ^ "Se anunciaron los ganadores de los premios NAS 2022".

Enlaces externos