stringtranslate.com

Interpretación musical en red

Una presentación musical en red o presentación musical en red es una interacción en tiempo real a través de una red informática que permite a los músicos en diferentes lugares actuar como si estuvieran en la misma sala. [1] Estas interacciones pueden incluir presentaciones, ensayos, sesiones de improvisación o improvisación y situaciones de aprendizaje como clases magistrales . [2] Los participantes pueden estar conectados mediante "enlaces de audio y video multicanal de alta fidelidad" [3], así como conexiones de datos MIDI [1] y herramientas de software colaborativo especializadas. Si bien no está destinada a reemplazar la presentación en vivo tradicional, la presentación musical en red respalda la interacción musical cuando la copresencia no es posible y permite nuevas formas de expresión musical. [2] También pueden participar miembros de la audiencia remota y posiblemente un director. [3]

Historia

Uno de los primeros ejemplos de un experimento de interpretación musical en red fue la pieza de 1951: “ Paisaje imaginario n.º 4 para doce radios ”, del compositor John Cage . [4] La pieza “utilizaba transistores de radio como instrumento musical. Los transistores estaban interconectados y se influían entre sí”. [4] [5]

A finales de la década de 1970, cuando las computadoras personales se volvieron más disponibles y asequibles, grupos como la Liga de Compositores Automáticos de Música comenzaron a experimentar con la vinculación de múltiples computadoras, instrumentos electrónicos y circuitos analógicos para crear nuevas formas de música. [6]

En la década de 1990 se llevaron a cabo varios experimentos importantes en el ámbito de las interpretaciones en red. En 1993, el Instituto de Ciencias de la Información de la Universidad del Sur de California comenzó a experimentar con interpretaciones musicales en red a través de Internet. [3] The Hub (banda) , que se formó por miembros originales de The League of Automatic Composers, experimentó en 1997 con el envío de datos MIDI a través de Ethernet a ubicaciones distribuidas. [6] Sin embargo, “fue más difícil de lo imaginado depurar todos los problemas de software en cada una de las diferentes máquinas con diferentes sistemas operativos y velocidades de CPU en diferentes ciudades”. [6] En 1998, hubo una actuación de solo audio a tres bandas entre músicos en Varsovia , Helsinki y Oslo denominada “Mélange à trois”. [3] [7] Las primeras actuaciones distribuidas enfrentaron problemas como retraso de red, problemas de sincronización de señales, eco y problemas con la adquisición y reproducción de audio y video no inmersivos. [3]

El desarrollo de Internet de alta velocidad sobre redes troncales aprovisionadas, como Internet2 , hizo posible los enlaces de audio de alta calidad a principios de la década de 2000. [4] Uno de los primeros grupos de investigación en aprovechar el rendimiento mejorado de la red fue el grupo SoundWIRE en el CCRMA de la Universidad de Stanford . [8] A esto pronto le siguieron proyectos como los experimentos de rendimiento inmersivo distribuido, [3] SoundJack, [4] y DIAMOUSES. [2]

Conciencia en la interpretación musical

La conciencia del espacio de trabajo en una situación cara a cara se obtiene a través de la comunicación consecuente, la retroalimentación y la comunicación intencional. [9] Un entorno de interpretación musical tradicional es un ejemplo de colaboración sinérgica y muy estrechamente acoplada en la que los participantes tienen un alto nivel de conciencia del espacio de trabajo. “Cada intérprete no solo debe ser consciente de su propia parte, sino también de las partes de otros músicos. Los gestos, las expresiones faciales y los movimientos corporales de los otros músicos, así como los sonidos emitidos por sus instrumentos [son] pistas sobre los significados e intenciones de los demás”. [10] Las investigaciones han indicado que los músicos también son muy sensibles a la respuesta acústica del entorno en el que están actuando. [3] Idealmente, un sistema de interpretación musical en red facilitaría el alto nivel de conciencia que experimentan los intérpretes en un entorno de interpretación tradicional.

Cuestiones técnicas en la interpretación musical en red

La demanda de ancho de banda, la sensibilidad a la latencia y un requisito estricto de sincronización de la transmisión de audio son los factores que hacen que el rendimiento de música en red sea una aplicación desafiante. [11] Estos factores se describen con más detalle a continuación.

Ancho de banda

La transmisión de audio de alta definición, que se utiliza para hacer que la interpretación musical en red sea lo más realista posible, se considera uno de los usos de las redes actuales que más demanda ancho de banda. [11]

Estado latente

Uno de los principales problemas de las interpretaciones musicales en red es que se introduce latencia en el audio a medida que lo procesa el sistema local de un participante y lo envía a través de la red. Para que la interacción en una interpretación musical en red resulte natural, la latencia generalmente debe mantenerse por debajo de los 30 milisegundos, el límite de la percepción humana. [12] Si hay demasiado retraso en el sistema, la interpretación será muy difícil, ya que los músicos adaptan su interpretación para coordinar la interpretación en función de los sonidos que escuchan creados por otros intérpretes. [1] Sin embargo, las características de la pieza que se está interpretando, los músicos y los tipos de instrumentos utilizados definen en última instancia la tolerancia. [3] Se pueden utilizar señales de sincronización en un sistema de interpretación musical en red que esté diseñado para situaciones de latencia prolongada. [1]

Sincronización de transmisión de audio

Tanto los sistemas finales como las redes deben sincronizar múltiples transmisiones de audio desde ubicaciones separadas para formar una presentación consistente de la música. [11] Este es un problema desafiante para los sistemas actuales.

Objetivos de un sistema de interpretación musical en red

Los objetivos de una actuación musical en red se pueden resumir así:

Investigación actual

SoundWIRE en el CCRMA de la Universidad de Stanford

El grupo de investigación SoundWIRE explora varias áreas de investigación en el uso de redes para la interpretación musical, incluyendo: transmisión de audio multicanal, modelos físicos y acústica virtual, sonificación de la interpretación en red, psicoacústica y práctica de interpretación musical en red. [7] El grupo ha desarrollado un sistema de software, JackTrip, que admite la transmisión de audio multicanal, de alta calidad y sin comprimir para la interpretación musical en red a través de Internet. [7]

El Centro de Investigación de Artes Sónicas

El Sonic Arts Research Centre (SARC) de la Queen's University de Belfast ha sido un actor importante en la realización de actuaciones en red desde 2006 y ha estado activo en el uso de redes como herramientas tanto de colaboración como de actuación. [13] El equipo de redes del SARC está dirigido por el profesor Pedro Rebelo y la doctora Franziska Schroeder con diferentes configuraciones de intérpretes, instrumentos y estrategias de composición. Ha surgido un grupo de artistas e investigadores en torno a este campo de creatividad distribuida en el SARC y esto ha ayudado a crear una base de conocimiento más amplia y un enfoque para las actividades. Como resultado, desde 2007 el SARC cuenta con un equipo dedicado de personal y estudiantes con conocimiento y experiencia en actuaciones en red, a lo que el SARC se refiere como " creatividad distribuida ". [ cita requerida ]

Las presentaciones periódicas, los talleres y las colaboraciones con instituciones como SoundWire, CCRMA Stanford University y RPI [14] , lideradas por la compositora e intérprete Pauline Oliveros , así como con la Universidad de São Paulo, han ayudado a fortalecer esta comunidad emergente de investigadores y profesionales. El campo está relacionado con la investigación sobre la creatividad distribuida . [ cita requerida ]

Experimentos de rendimiento inmersivo distribuido (DIP)

El proyecto Distributed Immersive Performance tiene su sede en el Centro de Sistemas de Medios Integrados de la Universidad del Sur de California. [15] Sus experimentos exploran los desafíos de crear un entorno sin fisuras para la colaboración remota y sincrónica. [3] Los experimentos utilizan audio 3D con localización espacial correcta del sonido, así como vídeo HD o DV proyectado en pantallas panorámicas para crear un espacio virtual inmersivo. [3] Hay sitios de interacción instalados en varias ubicaciones del campus de la Universidad del Sur de California y en varias ubicaciones asociadas, como la New World Symphony en Miami Beach, Florida. [3]

DIAMANTES

El proyecto DIAMOUSES está coordinado por el Laboratorio de Informática Musical de la Institución de Educación Tecnológica de Creta en Hellas. [16] Admite una amplia gama de escenarios de interpretación musical en red con una plataforma personalizable que maneja la transmisión y sincronización de señales de audio y video a través de una red. [2]

Estudio de música inalámbrico (WeMUST)

El equipo A3Lab de la Università Politecnica delle Marche lleva a cabo investigaciones sobre el uso del medio inalámbrico para la creación de redes de audio sin comprimir en el contexto NMP. [17] Se ha documentado una combinación de software de código abierto, plataformas ARM y equipos inalámbricos dedicados, especialmente para uso en exteriores, donde se pueden explorar edificios de importancia histórica o entornos difíciles (por ejemplo, el mar) para la interpretación. Se ha realizado un estreno del sistema con músicos tocando una composición de Stockhausen en diferentes barcos sobre la costa de Ancona, Italia. El proyecto también tiene como objetivo trasladar la informática musical de los ordenadores portátiles a los dispositivos integrados. [18]

Véase también

Referencias

  1. ^ abcd Lazzaro, J.; Wawrzynek, J. (2001). "Actas del 11.º taller internacional sobre compatibilidad de sistemas operativos y redes para audio y vídeo digital - NOSSDAV '01". NOSSDAV '01: Actas del 11.º taller internacional sobre compatibilidad de sistemas operativos y redes para audio y vídeo digital . ACM Press Nueva York, NY, EE. UU. pp. 157–166. doi :10.1145/378344.378367. ISBN 1581133707.
  2. ^ abcd Alexandraki, C.; Koutlemanis, P.; Gasteratos, P.; Valsamakis, N.; Akoumianakis, D.; Milolidakis, G.; Vellis, G.; Kotsalis, D. (2008). "Hacia la implementación de una plataforma genérica para la interpretación musical en red: el enfoque DIAMOUSES". Actas de la Conferencia Internacional de Música por Computadora ICMC 2008 (ICMC 2008) . págs. 251–258.
  3. ^ abcdefghijk Sawchuk, A.; Chew, E.; Zimmermann, R.; Papadopoulos, C.; Kyriakakis, C. (2003). "Actas del taller ACM SIGMM 2003 sobre telepresencia experiencial - ETP '03". ETP '03: Actas del taller ACM SIGMM 2003 sobre telepresencia experiencial . ACM Press Nueva York, NY, EE. UU. pp. 110–120. doi :10.1145/982484.982506. ISBN 1581137753.
  4. ^ abcd Alexander, C; Renaud, A.; Rebelo, P. (2007). "Interpretación musical en red: estado del arte". 30.ª Conferencia Internacional de la AES . Sociedad de Ingeniería de Audio.
  5. ^ Pritchett, J. (1993). La música de John Cage . Cambridge University Press, Cambridge, Reino Unido.
  6. ^ abc Bischoff, J.; Brown, C. "Crossfade" . Consultado el 26 de noviembre de 2009 .
  7. ^ abc "Grupo de investigación SoundWIRE en CCRMA, Universidad de Stanford". Archivado desde el original el 22 de febrero de 2004. Consultado el 23 de noviembre de 2009 .
  8. ^ Chafe, C.; Wilson, S.; Leistikow, R.; Chisholm, D.; Scavone, G. (2000). "Un enfoque simplificado para la música y el sonido de alta calidad sobre IP". Actas de la Conferencia COST G-6 sobre efectos de audio digital (DAFX-00) .
  9. ^ Gutwin, C.; Greenberg, S. (2001). "La importancia de la conciencia para la cognición en equipo en la colaboración distribuida". Informe 2001-696-19 . Departamento de Ciencias de la Computación, Universidad de Calgary, Alberta, Canadá. págs. 1–33.
  10. ^ Malhotra, V. (1981). "El logro social de la música en una orquesta sinfónica: un análisis fenomenológico". Sociología cualitativa . 4 (2): 102–125. doi :10.1007/bf00987214. S2CID  145680081.
  11. ^ abc Gu, X.; Dick, M.; Noyer, U.; Wolf, L. (2004). "Talleres de la Conferencia Global de Telecomunicaciones IEEE, 2004. Talleres Globe Com 2004". Talleres de la Conferencia Global de Telecomunicaciones, 2004. Talleres GlobeCom 2004. IEEE . págs. 176–185. doi :10.1109/GLOCOMW.2004.1417570. ISBN 0-7803-8798-8.
  12. ^ Kurtisi, Z; Gu, X.; Wolf, L. (2006). "Permitir la interpretación musical centrada en la red en redes de área amplia". Comunicaciones de la ACM . 49 (11): 52–54. doi :10.1145/1167838.1167862. S2CID  1245128.
  13. ^ Schroeder, Franziska; Rebelo, Pedro (agosto de 2007). "Addressing the Network: Performative Strategies for Playing Apart". Ponencia presentada en la International Computer Music Conference (ICMC 2007), Dinamarca. : 133–140 . Consultado el 31 de agosto de 2022 .
  14. ^ "Acerca de nosotros: el centro de escucha profunda". Instituto Politécnico Rensselaer . Consultado el 31 de agosto de 2022 .
  15. ^ "Rendimiento inmersivo distribuido" . Consultado el 23 de noviembre de 2009 .
  16. ^ "DIAMOUSES" . Consultado el 22 de noviembre de 2009 .
  17. ^ "A3Lab - Página de investigación WeMUST" . Consultado el 24 de febrero de 2015 .
  18. ^ Gabrielli, L; Bussolotto, M; Squartini, S (2014). "Reducción de la latencia en la transmisión de música en vivo con BeagleBoard xM mediante remuestreo". EDERC 2014, Milán, Italia . IEEE.

Enlaces externos