stringtranslate.com

Música por computadora

La música por computadora es la aplicación de la tecnología informática en la composición musical , para ayudar a los compositores humanos a crear nueva música o para que las computadoras creen música de forma independiente, como con programas de composición algorítmica . Incluye la teoría y la aplicación de tecnologías de software de computadora nuevas y existentes y aspectos básicos de la música, como la síntesis de sonido , el procesamiento de señales digitales , el diseño de sonido , la difusión sónica, la acústica , la ingeniería eléctrica y la psicoacústica . [1] El campo de la música por computadora puede rastrear sus raíces hasta los orígenes de la música electrónica y los primeros experimentos e innovaciones con instrumentos electrónicos a principios del siglo XX. [2]

Historia

CSIRAC , la primera computadora digital de Australia, en exhibición en el Museo de Melbourne

Gran parte del trabajo sobre música por computadora se ha basado en la relación entre la música y las matemáticas , una relación que se ha observado desde que los antiguos griegos describieron la " armonía de las esferas ".

Las melodías musicales fueron generadas por primera vez por la computadora originalmente llamada CSIR Mark 1 (más tarde rebautizada como CSIRAC ) en Australia en 1950. Hubo informes de periódicos de Estados Unidos e Inglaterra (tempranos y recientes) de que las computadoras podrían haber reproducido música antes, pero una investigación exhaustiva ha desacreditado estas historias ya que no hay evidencia que respalde los informes de los periódicos (algunos de los cuales eran especulativos). La investigación ha demostrado que la gente especulaba sobre las computadoras que reproducían música, posiblemente porque las computadoras harían ruidos, [3] pero no hay evidencia de que lo hicieran. [4] [5]

El primer ordenador del mundo capaz de reproducir música fue el CSIR Mark 1 (posteriormente llamado CSIRAC), diseñado y construido por Trevor Pearcey y Maston Beard a finales de los años 1940. El matemático Geoff Hill programó el CSIR Mark 1 para reproducir melodías musicales populares de principios de los años 1950. En 1950, el CSIR Mark 1 se utilizó para reproducir música, el primer uso conocido de un ordenador digital para ese fin. La música nunca se grabó, pero se ha reconstruido con precisión. [6] [7] En 1951, se tocó en público la " Marcha del Coronel Bogey " [8], de la que sólo existe la reconstrucción. Sin embargo, el CSIR Mark 1 reproducía un repertorio estándar y no se utilizó para ampliar el pensamiento musical o la práctica de la composición, como hizo Max Mathews , que es la práctica actual de la música por ordenador.

La primera música que se interpretó en Inglaterra fue una interpretación del Himno Nacional Británico que fue programada por Christopher Strachey en el Ferranti Mark 1 , a finales de 1951. Más tarde ese año, una unidad de transmisión externa de la BBC grabó allí breves extractos de tres piezas : el Himno Nacional, " Baa, Baa, Black Sheep " y " In the Mood "; esta es reconocida como la primera grabación de una computadora para reproducir música ya que la música de CSIRAC nunca se grabó. Esta grabación se puede escuchar en el sitio de la Universidad de Manchester. [9] Los investigadores de la Universidad de Canterbury , Christchurch, deshaceron clics y restauraron esta grabación en 2016 y los resultados se pueden escuchar en SoundCloud . [10] [11] [6]

Otros dos grandes desarrollos de la década de 1950 fueron los orígenes de la síntesis de sonido digital por computadora y de los programas de composición algorítmica más allá de la reproducción mecánica. Entre otros pioneros, los químicos musicales Lejaren Hiller y Leonard Isaacson trabajaron en una serie de experimentos de composición algorítmica entre 1956 y 1959, que se manifestaron en el estreno en 1957 de la Suite Illiac para cuarteto de cuerdas. [12] Max Mathews en Bell Laboratories desarrolló el influyente programa MUSIC I y sus descendientes, popularizando aún más la música por computadora a través de un artículo de 1963 en Science . [13] El primer compositor profesional en trabajar con síntesis digital fue James Tenney , quien creó una serie de piezas sintetizadas digitalmente y/o compuestas algorítmicamente en Bell Labs utilizando el sistema MUSIC III de Mathews, comenzando con Analog #1 (Noise Study) (1961). [14] [15] Después de que Tenney dejó Bell Labs en 1964, fue reemplazado por el compositor Jean-Claude Risset , quien realizó investigaciones sobre la síntesis de timbres instrumentales y compuso Computer Suite from Little Boy (1968).

Los primeros programas de música por ordenador no solían ejecutarse en tiempo real , aunque los primeros experimentos en CSIRAC y Ferranti Mark 1 sí funcionaban en tiempo real . A partir de finales de los años 50, con una programación cada vez más sofisticada, los programas se ejecutaban durante horas o días, en ordenadores multimillonarios, para generar unos pocos minutos de música. [16] [17] Una forma de evitar esto era utilizar un "sistema híbrido" de control digital de un sintetizador analógico y los primeros ejemplos de esto fueron el sistema GROOVE de Max Mathews (1969) y también MUSYS de Peter Zinovieff (1969).

Hasta ahora se ha hecho un uso parcial de la técnica para la investigación musical sobre la sustancia y la forma del sonido (ejemplos convincentes son los de Hiller e Isaacson en Urbana, Illinois, EE.UU.; Iannis Xenakis en París y Pietro Grossi en Florencia, Italia). [18]

En mayo de 1967, los primeros experimentos de música por ordenador en Italia se llevaron a cabo en el estudio S 2F M de Florencia [19] en colaboración con General Electric Information Systems Italy. [20] Grossi utiliza Olivetti-General Electric GE 115 ( Olivetti SpA ) como instrumento de interpretación : se prepararon tres programas para estos experimentos. Los programas fueron escritos por Ferruccio Zulian [21] y utilizados por Pietro Grossi para tocar obras de Bach, Paganini y Webern y para estudiar nuevas estructuras sonoras. [22]

La computadora de programación para el primer sintetizador FM de Yamaha, GS1. CCRMA , Universidad de Stanford.

El trabajo de John Chowning sobre síntesis FM desde los años 1960 hasta los años 1970 permitió una síntesis digital mucho más eficiente, [23] lo que eventualmente condujo al desarrollo del asequible sintetizador digital Yamaha DX7 basado en síntesis FM , lanzado en 1983. [24]

Los sonidos interesantes deben tener una fluidez y una variabilidad que les permita permanecer frescos al oído. En la música por ordenador, este sutil ingrediente se adquiere a un alto coste computacional, tanto en términos de la cantidad de elementos que requieren detalle en una partitura como en la cantidad de trabajo interpretativo que los instrumentos deben producir para plasmar este detalle en el sonido. [25]

En Japón

En Japón, los experimentos con música por computadora se remontan a 1962, cuando el profesor de la Universidad Keio Sekine y el ingeniero de Toshiba Hayashi experimentaron con la computadora TOSBAC  [jp] . Esto dio como resultado una pieza titulada TOSBAC Suite , influenciada por la Suite Illiac . Las composiciones posteriores de música por computadora japonesa incluyen una pieza de Kenjiro Ezaki presentada durante la Expo '70 de Osaka y "Panoramic Sonore" (1974) del crítico musical Akimichi Takeda. Ezaki también publicó un artículo llamado "Música contemporánea y computadoras" en 1970. Desde entonces, la investigación japonesa en música por computadora se ha llevado a cabo en gran medida con fines comerciales en la música popular , aunque algunos de los músicos japoneses más serios utilizaron grandes sistemas informáticos como el Fairlight en la década de 1970. [26]

A finales de la década de 1970, estos sistemas se comercializaron, incluidos sistemas como el Roland MC-8 Microcomposer , donde un sistema basado en microprocesador controla un sintetizador analógico , lanzado en 1978. [26] Además del Yamaha DX7, la llegada de chips digitales económicos y microcomputadoras abrió la puerta a la generación en tiempo real de música por computadora. [24] En la década de 1980, las computadoras personales japonesas como la NEC PC-88 vinieron instaladas con chips de sonido de síntesis FM y presentaban lenguajes de programación de audio como Music Macro Language (MML) e interfaces MIDI , que se usaban con mayor frecuencia para producir música de videojuegos o chiptunes . [26] A principios de la década de 1990, el rendimiento de las computadoras basadas en microprocesadores alcanzó el punto en que se hizo posible la generación en tiempo real de música por computadora utilizando programas y algoritmos más generales. [27]

Insinuaciones

Los avances en potencia informática y software para la manipulación de medios digitales han afectado drásticamente la forma en que se genera e interpreta música por computadora. Las microcomputadoras de la generación actual son lo suficientemente potentes como para realizar síntesis de audio muy sofisticadas utilizando una amplia variedad de algoritmos y enfoques. Los sistemas y enfoques de música por computadora son ahora omnipresentes y están tan firmemente integrados en el proceso de creación de música que casi no les prestamos atención: los sintetizadores basados ​​en computadora, los mezcladores digitales y las unidades de efectos se han vuelto tan comunes que el uso de tecnología digital en lugar de analógica para crear y grabar música es la norma, en lugar de la excepción. [28]

Investigación

Existe una actividad considerable en el campo de la música por ordenador, ya que los investigadores siguen buscando nuevos e interesantes métodos de síntesis, composición e interpretación basados ​​en ordenadores. En todo el mundo hay muchas organizaciones e instituciones dedicadas al estudio y la investigación de la música electrónica y por ordenador , entre las que se incluyen el CCRMA (Centro de Investigación Informática en Música y Acústica, Stanford, EE. UU.), la ICMA (Asociación Internacional de Música por Ordenador), el C4DM (Centro de Música Digital), el IRCAM , el GRAME, la SEAMUS (Sociedad de Música Electroacústica de los Estados Unidos), la CEC (Comunidad Electroacústica Canadiense) y un gran número de instituciones de educación superior en todo el mundo.

Música compuesta e interpretada por computadoras

Más tarde, compositores como Gottfried Michael Koenig e Iannis Xenakis hicieron que los ordenadores generaran los sonidos de la composición, así como la partitura. Koenig produjo programas de composición algorítmica que eran una generalización de su propia práctica de composición serial . Esto no es exactamente similar al trabajo de Xenakis, ya que utilizó abstracciones matemáticas y examinó hasta dónde podía explorarlas musicalmente. El software de Koenig tradujo el cálculo de ecuaciones matemáticas en códigos que representaban la notación musical. Esto se podía convertir en notación musical a mano y luego ser interpretado por intérpretes humanos. Sus programas Project 1 y Project 2 son ejemplos de este tipo de software. Más tarde, extendió el mismo tipo de principios al ámbito de la síntesis, lo que permitió que el ordenador produjera el sonido directamente. SSP es un ejemplo de un programa que realiza este tipo de función. Todos estos programas fueron producidos por Koenig en el Instituto de Sonología de Utrecht en la década de 1970. [29] En la década de 2000, Andranik Tangian desarrolló un algoritmo informático para determinar las estructuras de eventos temporales para cánones rítmicos y fugas rítmicas, que luego se elaboraron "manualmente" en composiciones armónicas Eine kleine Mathmusik I y Eine kleine Mathmusik II interpretadas por computadora; [30] [31] para partituras y grabaciones, consulte. [32]

Puntuaciones generadas por ordenador para el rendimiento de jugadores humanos

Los ordenadores también se han utilizado en un intento de imitar la música de grandes compositores del pasado, como Mozart . Un exponente actual de esta técnica es David Cope , cuyos programas informáticos analizan obras de otros compositores para producir nuevas obras de estilo similar. El programa más conocido de Cope es Emily Howell . [33] [34] [35]

Melomics , un proyecto de investigación de la Universidad de Málaga (España), desarrolló un clúster de composición por ordenador llamado Iamus , que compone piezas complejas con múltiples instrumentos para su edición e interpretación. Desde su creación, Iamus ha compuesto un álbum completo en 2012, también llamado Iamus , que New Scientist describió como "la primera obra importante compuesta por un ordenador e interpretada por una orquesta completa". [36] El grupo también ha desarrollado una API para que los desarrolladores utilicen la tecnología y pone su música a disposición en su sitio web.

Composición algorítmica asistida por ordenador

Diagrama que ilustra la posición del CAAC en relación con otros sistemas de música generativa

La composición algorítmica asistida por computadora (CAAC, pronunciado "sea-ack") es la implementación y el uso de técnicas de composición algorítmica en software. Esta etiqueta se deriva de la combinación de dos etiquetas, cada una demasiado vaga para su uso continuo. La etiqueta de composición asistida por computadora carece de la especificidad de usar algoritmos generativos. La música producida con software de notación o secuenciación podría considerarse fácilmente una composición asistida por computadora. La etiqueta de composición algorítmica es igualmente demasiado amplia, particularmente porque no especifica el uso de una computadora. El término asistida por computadora , en lugar de asistido por computadora, se usa de la misma manera que diseño asistido por computadora . [37]

Improvisación de máquinas

La improvisación con máquinas utiliza algoritmos informáticos para crear improvisaciones a partir de materiales musicales existentes. Esto se hace generalmente mediante una recombinación sofisticada de frases musicales extraídas de música existente, ya sea en vivo o pregrabada. Para lograr una improvisación creíble en un estilo particular, la improvisación con máquinas utiliza algoritmos de aprendizaje automático y de comparación de patrones para analizar ejemplos musicales existentes. Los patrones resultantes se utilizan luego para crear nuevas variaciones "en el estilo" de la música original, desarrollando una noción de reinyección estilística. Esto es diferente de otros métodos de improvisación con computadoras que utilizan la composición algorítmica para generar nueva música sin realizar análisis de ejemplos musicales existentes. [38]

Modelado de estilo estadístico

El modelado de estilos implica la construcción de una representación computacional de la superficie musical que captura características estilísticas importantes de los datos. Se utilizan enfoques estadísticos para capturar las redundancias en términos de diccionarios de patrones o repeticiones, que luego se recombinan para generar nuevos datos musicales. La mezcla de estilos se puede lograr mediante el análisis de una base de datos que contiene múltiples ejemplos musicales en diferentes estilos. La improvisación automática se basa en una larga tradición musical de modelado estadístico que comenzó con la Suite Illiac para cuarteto de cuerdas (1957) de Hiller e Isaacson y los usos de cadenas de Markov y procesos estocásticos de Xenakis . Los métodos modernos incluyen el uso de compresión de datos sin pérdida para análisis incremental, árbol de sufijos de predicción , búsqueda de cadenas y más. [39] La mezcla de estilos es posible mediante la combinación de modelos derivados de varias fuentes musicales, con la primera mezcla de estilos realizada por S. Dubnov en una pieza NTrope Suite utilizando el modelo de fuente conjunta de Jensen-Shannon. [40] Más tarde, el uso del algoritmo de oráculo factorial (básicamente, un oráculo factorial es un autómata de estados finitos construido en tiempo y espacio lineales de manera incremental) [41] fue adoptado para la música por Assayag y Dubnov [42] y se convirtió en la base para varios sistemas que utilizan la reinyección estilística. [43]

Implementaciones

La primera implementación del modelado de estilo estadístico fue el método LZify en Open Music, [44] seguido por el sistema Continuator que implementó la improvisación de máquina interactiva que interpretó el análisis incremental LZ en términos de modelos de Markov y lo utilizó para el modelado de estilo en tiempo real [45] desarrollado por François Pachet en Sony CSL Paris en 2002. [46] [47] La ​​implementación de Matlab de la improvisación de máquina Factor Oracle se puede encontrar como parte de la caja de herramientas Computer Audition . También hay una implementación NTCC de la improvisación de máquina Factor Oracle. [48]

OMax es un entorno de software desarrollado en IRCAM. OMax utiliza OpenMusic y Max. Se basa en investigaciones sobre modelado estilístico realizadas por Gerard Assayag y Shlomo Dubnov y en investigaciones sobre improvisación con la computadora de G. Assayag, M. Chemillier y G. Bloch (también conocidos como los hermanos OMax ) en el grupo de Representaciones Musicales de Ircam. [49] Uno de los problemas en el modelado de señales de audio con factor oracle es la simbolización de características de valores continuos a un alfabeto discreto. Este problema se resolvió en el Variable Markov Oracle (VMO) disponible como implementación de Python, [50] utilizando un criterio de tasa de información para encontrar la representación óptima o más informativa. [51]

Uso de inteligencia artificial

El uso de inteligencia artificial para generar nuevas melodías, [52] cubrir música preexistente, [53] y clonar voces de artistas, es un fenómeno reciente que, según se informa, ha alterado la industria musical . [54]

Codificación en vivo

La codificación en vivo [55] (a veces conocida como "programación interactiva", "programación sobre la marcha" [56] , "programación justo a tiempo") es el nombre que se le da al proceso de escribir software en tiempo real como parte de una actuación. Recientemente se ha explorado como una alternativa más rigurosa a los músicos portátiles que, como los programadores en vivo a menudo sienten, carecen del carisma y el dinamismo de los músicos que actúan en vivo. [57]

Véase también

Referencias

  1. ^ Curtis Roads, The Computer Music Tutorial , Boston: MIT Press, Introducción
  2. ^ Andrew J. Nelson, El sonido de la innovación: Stanford y la revolución de la música por computadora , Boston: MIT Press, Introducción
  3. ^ "Escucha algorítmica 1949-1962 Prácticas auditivas de la computación mainframe temprana". Congreso Mundial AISB/IACAP 2012. Archivado desde el original el 7 de noviembre de 2017. Consultado el 18 de octubre de 2017 .
  4. ^ Doornbusch, Paul (9 de julio de 2017). «MuSA 2017 – Early Computer Music Experiments in Australia, England and the USA» (MuSA 2017: primeros experimentos musicales por ordenador en Australia, Inglaterra y Estados Unidos). Conferencia MuSA . Consultado el 18 de octubre de 2017 .
  5. ^ Doornbusch, Paul (2017). "Experimentos musicales tempranos con ordenador en Australia e Inglaterra". Sonido organizado . 22 (2). Cambridge University Press : 297–307 [11]. doi : 10.1017/S1355771817000206 .
  6. ^ ab Fildes, Jonathan (17 de junio de 2008). «Oldest computer music unveiled» (Desvelada la música de ordenador más antigua). BBC News Online . Consultado el 18 de junio de 2008 .
  7. ^ Doornbusch, Paul (marzo de 2004). "Síntesis de sonido por computadora en 1951: la música de CSIRAC". Computer Music Journal . 28 (1): 11–12. doi : 10.1162/014892604322970616 . S2CID  10593824.
  8. ^ Doornbusch, Paul. "La música de CSIRAC". Facultad de Ingeniería de Melbourne, Departamento de Ciencias de la Computación e Ingeniería de Software. Archivado desde el original el 18 de enero de 2012.
  9. ^ "Medios (Digital 60)". curation.cs.manchester.ac.uk . Consultado el 15 de diciembre de 2023 .
  10. ^ "Se restauró la primera grabación de música generada por computadora, creada por Alan Turing". The Guardian . 26 de septiembre de 2016 . Consultado el 28 de agosto de 2017 .
  11. ^ "Restaurando la primera grabación de música por ordenador – Blog de sonido y visión". Biblioteca Británica . 13 de septiembre de 2016 . Consultado el 28 de agosto de 2017 .
  12. ^ Lejaren Hiller y Leonard Isaacson , Experimental Music: Composition with an Electronic Computer (Nueva York: McGraw-Hill, 1959; reimpreso en Westport, Connecticut: Greenwood Press, 1979). ISBN 0-313-22158-8 . [ página necesaria ] 
  13. ^ Bogdanov, Vladimir (2001). All Music Guide to Electronica: La guía definitiva de la música electrónica . Backbeat Books. pág. 320. ISBN 978-0-87930-628-1. Recuperado el 4 de diciembre de 2013 .
  14. ^ Tenney, James. (1964) 2015. “Experiencias musicales por computadora, 1961-1964”. En From Scratch: Writings in Music Theory. Editado por Larry Polansky, Lauren Pratt, Robert Wannamaker y Michael Winter. Urbana: University of Illinois Press. 97–127.
  15. ^ Wannamaker, Robert, La música de James Tenney, volumen 1: contextos y paradigmas (University of Illinois Press, 2021), 48–82.
  16. ^ Cattermole, Tannith (9 de mayo de 2011). "Un inventor visionario fue pionero en la música por computadora". Gizmag . Consultado el 28 de octubre de 2011. En 1957 , el programa MUSIC permitió que una computadora central IBM 704 reprodujera una composición de 17 segundos de Mathews. En ese entonces, las computadoras eran pesadas, por lo que la síntesis demoraba una hora.
  17. ^ Mathews, Max (1 de noviembre de 1963). "La computadora digital como instrumento musical". Science . 142 (3592): 553–557. Bibcode :1963Sci...142..553M. doi :10.1126/science.142.3592.553. PMID  17738556. La generación de señales de sonido requiere tasas de muestreo muy altas.... Una máquina de alta velocidad como la IBM 7090... puede calcular solo unos 5000 números por segundo... al generar un sonido razonablemente complejo.
  18. ^ Bonomini, Mario; Zammit, Victor; Pusey, Charles D.; De Vecchi, Amedeo; Arduini, Arduino (marzo de 2011). "Uso farmacológico de la l-carnitina en la anemia urémica: ¿se ha explotado todo su potencial?☆". Investigación farmacológica . 63 (3): 157–164. doi :10.1016/j.phrs.2010.11.006. ISSN  1043-6618. PMID  21138768.
  19. ^ Parolini, Giuditta (2016). "La experiencia de Pietro Grossi en música electrónica e informática por Giuditta Parolini". Universidad de Leeds. doi :10.5518/160/27. Archivado desde el original el 18 de junio de 2021 . Consultado el 21 de marzo de 2021 .
  20. ^ Gaburo, Kenneth (primavera de 1985). "El deterioro de un ideal, idealmente deteriorado: reflexiones sobre la 'computadora de inteligencia artificial de Paganini' de Pietro Grossi"". Revista de música informática . 9 (1): 39–44. JSTOR  4617921.
  21. ^ "Música sin músicos pero con científicos, técnicos y empresas informáticas". 2019.
  22. ^ Giomi, Francesco (1995). "La obra del artista italiano Pietro Grossi: de la música electrónica temprana al arte informático". Leonardo . 28 (1): 35–39. doi :10.2307/1576152. JSTOR  1576152. S2CID  191383265.
  23. ^ Dean, Roger T. (2009). Manual de Oxford de música por ordenador . Oxford University Press. pág. 20. ISBN 978-0-19-533161-5.
  24. ^ ab Dean 2009, pág. 1
  25. ^ Loy, D. Gareth (1992). "Notas sobre la implementación de MUSBOX...". En Roads, Curtis (ed.). The Music Machine: Lecturas seleccionadas de 'Computer Music Journal'. MIT Press. pág. 344. ISBN 978-0-262-68078-3.
  26. ^ abc Shimazu, Takehito (1994). "La historia de la música electrónica e informática en Japón: compositores importantes y sus obras". Leonardo Music Journal . 4 . MIT Press : 102–106 [104]. doi :10.2307/1513190. JSTOR  1513190. S2CID  193084745 . Consultado el 9 de julio de 2012 .[ enlace muerto permanente ]
  27. ^ Dean 2009, pp. 4–5: "... en los años 90... la manipulación del sonido digital (utilizando MSP o muchas otras plataformas) se volvió generalizada, fluida y estable".
  28. ^ Doornbusch, Paul. "3: Hardware temprano e ideas tempranas en música por computadora: su desarrollo y sus formas actuales". En Dean (2009), pp. 44–80. doi :10.1093/oxfordhb/9780199792030.013.0003
  29. ^ Berg, Paul (1996). "Abstrayendo el futuro: la búsqueda de construcciones musicales". Computer Music Journal . 20 (3). MIT Press : 24–27 [11]. doi :10.2307/3680818. JSTOR  3680818.
  30. Tangian, Andranik (2003). «Construyendo cánones rítmicos» (PDF) . Perspectivas de la nueva música . 41 (2): 64–92. Archivado desde el original (PDF) el 24 de enero de 2021. Consultado el 16 de enero de 2021 .
  31. ^ Tangian, Andranik (2010). «Construcción de fugas rítmicas (anexo inédito de Construcción de cánones rítmicos )». IRCAM, Seminaire MaMuX, 9 de febrero de 2002, Mosaicos y pavimentos en la música (PDF) . Archivado desde el original (PDF) el 22 de enero de 2021 . Consultado el 16 de enero de 2021 .
  32. ^ Tangiano, Andranik (2002-2003). "Eine kleine Mathmusik I y II". IRCAM, Seminario MaMuX, 9 de febrero de 2002, Mosaïques et pavages dans la musique. Archivado desde el original el 21 de enero de 2021 . Consultado el 16 de enero de 2021 .
  33. ^ Leach, Ben (22 de octubre de 2009). «Emily Howell: el programa informático que compone música clásica». The Daily Telegraph . Consultado el 6 de octubre de 2017 .
  34. ^ Cheng, Jacqui (30 de septiembre de 2009). "Un compositor virtual crea música hermosa y genera controversia". Ars Technica .
  35. ^ Ball, Philip (1 de julio de 2012). «Iamus, el compositor informático de música clásica, en directo desde Málaga». The Guardian . Archivado desde el original el 25 de octubre de 2013. Consultado el 15 de noviembre de 2021 .
  36. ^ "Compositor informático rinde homenaje al centenario de Turing". New Scientist . 5 de julio de 2012.
  37. ^ Christopher Ariza: Un diseño abierto para la composición musical algorítmica asistida por computadora , Universal-Publishers Boca Raton, Florida, 2005, pág. 5
  38. ^ Mauricio Toro, Carlos Agon, Camilo Rueda, Gerard Assayag. "GELISP: Un marco para representar problemas de satisfacción de restricciones musicales y estrategias de búsqueda", Journal of Theoretical and Applied Information Technology 86, no. 2 (2016): 327–331.
  39. ^ Shlomo Dubnov, Gérard Assayag, Olivier Lartillot, Gill Bejerano, "Uso de métodos de aprendizaje automático para el modelado de estilos musicales", Computers , 36 (10), págs. 73–80, octubre de 2003. doi :10.1109/MC.2003.1236474
  40. ^ Dubnov, S. (1999). "Aleatoriedad estilística: sobre la composición de NTrope Suite". Organised Sound , 4(2), 87–92. doi :10.1017/S1355771899002046
  41. ^ Jan Pavelka; Gerard Tel; Miroslav Bartosek, eds. (1999). Factor oracle: una nueva estructura para la comparación de patrones; Actas de SOFSEM'99; Teoría y práctica de la informática. Springer-Verlag, Berlín. pp. 291–306. ISBN 978-3-540-66694-3. Recuperado el 4 de diciembre de 2013. Apuntes de la clase de informática 1725
  42. ^ "Uso de oráculos de factores para la improvisación de máquinas", G. Assayag, S. Dubnov, (septiembre de 2004) Soft Computing 8 (9), 604–610 doi :10.1007/s00500-004-0385-4
  43. ^ "Memex y dúos de compositores: composición asistida por computadora utilizando mezcla de estilos", S. Dubnov, G. Assayag, Open Music Composers Book 2, 53–66
  44. ^ G. Assayag, S. Dubnov, O. Delerue, "Adivinando la mente del compositor: aplicando la predicción universal al estilo musical", en Actas de la Conferencia Internacional de Música por Computadora, Beijing, 1999.
  45. ^ ":: Continuator". Archivado desde el original el 1 de noviembre de 2014 . Consultado el 19 de mayo de 2014 .
  46. ^ Pachet, F., The Continuator: Musical Interaction with Style Archivado el 14 de abril de 2012 en Wayback Machine . En ICMA, editor, Proceedings of ICMC, páginas 211–218, Gotemburgo, Suecia, septiembre de 2002. ICMA.
  47. ^ Pachet, F. Tocando con músicos virtuales: el Continuator en la práctica Archivado el 14 de abril de 2012 en Wayback Machine . IEEE MultiMedia,9(3):77–82 2002.
  48. ^ M. Toro, C. Rueda, C. Agón, G. Assayag. "NTCCRT: Un marco de restricciones concurrentes para la interacción de música en tiempo real y suave". Journal of Theoretical & Applied Information Technology , vol. 82, número 1, págs. 184-193. 2015
  49. ^ "La página del proyecto OMax". omax.ircam.fr . Consultado el 2 de febrero de 2018 .
  50. ^ Síntesis musical guiada con oráculo variable de Markov C Wang, S Dubnov, Décima Conferencia sobre Inteligencia Artificial y Entretenimiento Digital Interactivo, 2014
  51. ^ S Dubnov, G Assayag, A Cont, "Análisis de la tasa de información musical mediante un oráculo de audio", Quinta Conferencia Internacional sobre Computación Semántica del IEEE, 567–557, 2011 doi :10.1109/ICSC.2011.106
  52. ^ "Convierte tus ideas en música con MusicLM". Google . 10 de mayo de 2023 . Consultado el 22 de septiembre de 2023 .
  53. ^ "Elige una voz, cualquier voz: Voicemod lanza la colección "AI Humans" de cambiadores de voz de IA en tiempo real". Tech.eu . 21 de junio de 2023 . Consultado el 22 de septiembre de 2023 .
  54. ^ "'Regúlenlo antes de que todos acabemos': los músicos reaccionan a las canciones con inteligencia artificial que inundan Internet". Sky News . Consultado el 22 de septiembre de 2023 .
  55. ^ Collins, N. ; McLean, A.; Rohrhuber, J.; Ward, A. (2004). "Codificación en vivo en el rendimiento de la computadora portátil". Sonido organizado . 8 (3): 321–330. doi :10.1017/S135577180300030X. S2CID  56413136.
  56. ^ Wang G. y Cook P. (2004) "Programación sobre la marcha: uso del código como instrumento musical expresivo", en Actas de la Conferencia Internacional de 2004 sobre Nuevas Interfaces para la Expresión Musical (NIME) (Nueva York: NIME, 2004).
  57. ^ Collins, Nick (2003). "Música generativa y performance con laptop". Revista de música contemporánea . 22 (4): 67–79. doi :10.1080/0749446032000156919. S2CID  62735944.

Lectura adicional