La música por computadora es la aplicación de la tecnología informática en la composición musical , para ayudar a los compositores humanos a crear nueva música o para que las computadoras creen música de forma independiente, como con programas de composición algorítmica . Incluye la teoría y la aplicación de tecnologías de software informático nuevas y existentes y aspectos básicos de la música, como síntesis de sonido , procesamiento de señales digitales , diseño de sonido , difusión sónica, acústica , ingeniería eléctrica y psicoacústica . [1] El campo de la música por ordenador tiene sus raíces en los orígenes de la música electrónica y en los primeros experimentos e innovaciones con instrumentos electrónicos a principios del siglo XX. [2]
Gran parte del trabajo sobre música por ordenador se ha basado en la relación entre la música y las matemáticas , una relación que se ha observado desde que los antiguos griegos describieron la " armonía de las esferas ".
Las melodías musicales fueron generadas por primera vez por la computadora originalmente llamada CSIR Mark 1 (más tarde rebautizada como CSIRAC ) en Australia en 1950. Hubo informes periodísticos de Estados Unidos e Inglaterra (temprano y recientemente) de que las computadoras pueden haber reproducido música antes, pero una investigación exhaustiva lo ha desacreditado. estas historias ya que no hay evidencia que respalde los informes periodísticos (algunos de los cuales eran especulativos). Las investigaciones han demostrado que la gente especulaba acerca de que las computadoras reprodujeran música, posiblemente porque las computadoras harían ruidos, [3] pero no hay evidencia de que lo hicieran. [4] [5]
La primera computadora del mundo que reprodujo música fue la CSIR Mark 1 (más tarde llamada CSIRAC), que fue diseñada y construida por Trevor Pearcey y Maston Beard a finales de la década de 1940. El matemático Geoff Hill programó el CSIR Mark 1 para reproducir melodías musicales populares de principios de los años cincuenta. En 1950 se utilizó el CSIR Mark 1 para reproducir música, el primer uso conocido de una computadora digital para ese propósito. La música nunca fue grabada, pero ha sido reconstruida con precisión. [6] [7] En 1951 interpretó públicamente la " Marcha del Coronel Bogey " [8] de la que sólo existe la reconstrucción. Sin embargo, el CSIR Mark 1 tocaba un repertorio estándar y no se utilizaba para ampliar el pensamiento musical o la práctica de composición, como lo hizo Max Mathews , que es la práctica actual de música por ordenador.
La primera música que se interpretó en Inglaterra fue una interpretación del Himno Nacional Británico que fue programada por Christopher Strachey en el Ferranti Mark 1 , a fines de 1951. Más tarde ese año, una unidad de transmisión externa de la BBC grabó allí breves extractos de tres piezas. : el Himno Nacional, " Baa, Baa, Oveja Negra ", y " In the Mood "; Esta se reconoce como la primera grabación de una computadora para reproducir música, ya que la música del CSIRAC nunca se grabó. Esta grabación se puede escuchar en el sitio de la Universidad de Manchester. [9] Investigadores de la Universidad de Canterbury , Christchurch, quitaron el clic y restauraron esta grabación en 2016 y los resultados se pueden escuchar en SoundCloud . [10] [11] [6]
Otros dos avances importantes de la década de 1950 fueron los orígenes de la síntesis de sonido digital por computadora y de los programas de composición algorítmica más allá de la reproducción memorística. Entre otros pioneros, los químicos musicales Lejaren Hiller y Leonard Isaacson trabajaron en una serie de experimentos de composición algorítmica de 1956 a 1959, manifestados en el estreno en 1957 de la Suite Illiac para cuarteto de cuerda. [12] Max Mathews en Bell Laboratories desarrolló el influyente programa MUSIC I y sus descendientes, popularizando aún más la música por computadora a través de un artículo de 1963 en Science . [13] El primer compositor profesional que trabajó con síntesis digital fue James Tenney , quien creó una serie de piezas sintetizadas digitalmente y/o algorítmicamente compuestas en Bell Labs utilizando el sistema MUSIC III de Mathews, comenzando con Analog #1 (Estudio de ruido) (1961 ). ). [14] [15] Después de que Tenney dejó Bell Labs en 1964, fue reemplazado por el compositor Jean-Claude Risset , quien realizó una investigación sobre la síntesis de timbres instrumentales y compuso Computer Suite from Little Boy (1968).
Los primeros programas de música por ordenador normalmente no se ejecutaban en tiempo real , aunque los primeros experimentos en CSIRAC y Ferranti Mark 1 sí funcionaban en tiempo real . Desde finales de la década de 1950, con una programación cada vez más sofisticada, los programas se ejecutaban durante horas o días, en computadoras multimillonarias, para generar unos minutos de música. [16] [17] Una forma de evitar esto fue utilizar un 'sistema híbrido' de control digital de un sintetizador analógico y los primeros ejemplos de esto fueron el sistema GROOVE de Max Mathews (1969) y también MUSYS de Peter Zinovieff (1969).
Hasta ahora se ha aprovechado parcialmente su uso para la investigación musical sobre la sustancia y la forma del sonido (ejemplos convincentes son los de Hiller e Isaacson en Urbana, Illinois, EE. UU.; Iannis Xenakis en París y Pietro Grossi en Florencia, Italia). [18]
En mayo de 1967, los primeros experimentos con música por ordenador en Italia fueron llevados a cabo por el estudio S 2F M de Florencia [19] en colaboración con General Electric Information Systems Italia. [20] Grossi utiliza como intérprete el Olivetti-General Electric GE 115 ( Olivetti SpA ) : se prepararon tres programas para estos experimentos. Los programas fueron escritos por Ferruccio Zulian [21] y utilizados por Pietro Grossi para tocar obras de Bach, Paganini y Webern y para estudiar nuevas estructuras sonoras. [22]
El trabajo de John Chowning sobre síntesis FM desde los años 1960 hasta los años 1970 permitió una síntesis digital mucho más eficiente, [23] lo que finalmente condujo al desarrollo del asequible sintetizador digital Yamaha DX7 basado en síntesis FM , lanzado en 1983. [24]
Los sonidos interesantes deben tener una fluidez y variabilidad que les permita permanecer frescos en el oído. En la música por computadora, este ingrediente sutil se compra con un alto costo computacional, tanto en términos del número de elementos que requieren detalle en una partitura como en la cantidad de trabajo interpretativo que los instrumentos deben producir para plasmar este detalle en el sonido. [25]
En Japón, los experimentos con música por ordenador se remontan a 1962, cuando el profesor Sekine de la Universidad de Keio y el ingeniero de Toshiba Hayashi experimentaron con el ordenador TOSBAC [jp] . Esto dio como resultado una pieza titulada TOSBAC Suite , influenciada por la Suite Illiac . Las composiciones musicales japonesas posteriores por computadora incluyen una pieza de Kenjiro Ezaki presentada durante la Expo Osaka '70 y "Panoramic Sonore" (1974) del crítico musical Akimichi Takeda. Ezaki también publicó un artículo titulado "Música contemporánea y computadoras" en 1970. Desde entonces, la investigación japonesa en música por computadora se ha llevado a cabo en gran medida con fines comerciales en la música popular , aunque algunos de los músicos japoneses más serios utilizaron grandes sistemas informáticos como el Fairlight en la década de 1970. [26]
A finales de la década de 1970, estos sistemas se comercializaron, en particular mediante sistemas como el Roland MC-8 Microcomposer , donde un sistema basado en microprocesador controla un sintetizador analógico , lanzado en 1978. [26] Además del Yamaha DX7, la llegada del sistema digital económico Los chips y las microcomputadoras abrieron la puerta a la generación de música por computadora en tiempo real. [24] En la década de 1980, las computadoras personales japonesas, como la NEC PC-88, venían equipadas con chips de sonido de síntesis FM y presentaban lenguajes de programación de audio como Music Macro Language (MML) e interfaces MIDI , que se usaban con mayor frecuencia para producir videojuegos. música o chiptunes . [26] A principios de la década de 1990, el rendimiento de las computadoras basadas en microprocesadores alcanzó el punto en que se hizo posible la generación en tiempo real de música por computadora utilizando programas y algoritmos más generales. [27]
Los avances en la potencia informática y el software para la manipulación de medios digitales han afectado dramáticamente la forma en que se genera e interpreta la música por computadora. Las microcomputadoras de la generación actual son lo suficientemente potentes como para realizar síntesis de audio muy sofisticadas utilizando una amplia variedad de algoritmos y enfoques. Los sistemas y enfoques musicales por computadora son ahora omnipresentes y están tan firmemente arraigados en el proceso de creación musical que difícilmente les damos un segundo pensamiento: los sintetizadores, mezcladores digitales y unidades de efectos basados en computadora se han vuelto tan comunes que el uso de tecnología digital en lugar de analógica La tecnología para crear y grabar música es la norma, más que la excepción. [28]
Existe una actividad considerable en el campo de la música por computadora a medida que los investigadores continúan buscando nuevos e interesantes enfoques de síntesis, composición e interpretación basados en computadora. A lo largo del mundo existen muchas organizaciones e instituciones dedicadas al área de estudio e investigación de la música informática y electrónica , entre ellas el CCRMA (Center of Computer Research in Music and Acoustic, Stanford, USA), ICMA (International Computer Music Association), C4DM ( Center for Digital Music), IRCAM , GRAME, SEAMUS (Sociedad de Música Electroacústica de Estados Unidos), CEC (Comunidad Electroacústica Canadiense), y un gran número de instituciones de educación superior alrededor del mundo.
Más tarde, compositores como Gottfried Michael Koenig e Iannis Xenakis hicieron que las computadoras generaran los sonidos de la composición además de la partitura. Koenig produjo programas de composición algorítmica que eran una generalización de su propia práctica de composición en serie . Esto no es exactamente similar al trabajo de Xenakis, ya que utilizó abstracciones matemáticas y examinó hasta qué punto podía explorarlas musicalmente. El software de Koenig tradujo el cálculo de ecuaciones matemáticas en códigos que representaban la notación musical. Esto podría convertirse manualmente en notación musical y luego ser interpretado por intérpretes humanos. Sus programas Proyecto 1 y Proyecto 2 son ejemplos de este tipo de software. Más tarde, extendió el mismo tipo de principios al ámbito de la síntesis, permitiendo que la computadora produjera el sonido directamente. SSP es un ejemplo de un programa que realiza este tipo de función. Todos estos programas fueron producidos por Koenig en los años 1970 en el Instituto de Sonología de Utrecht . [29] En la década de 2000, Andranik Tangian desarrolló un algoritmo informático para determinar las estructuras de eventos temporales para cánones rítmicos y fugas rítmicas, que luego se elaboraron "manualmente" en composiciones armónicas Eine kleine Mathmusik I y Eine kleine Mathmusik II interpretadas por computadora; [30] [31] para partituras y grabaciones, consulte. [32]
También se han utilizado ordenadores en un intento de imitar la música de grandes compositores del pasado, como Mozart . Un exponente actual de esta técnica es David Cope , cuyos programas informáticos analizan obras de otros compositores para producir nuevas obras en un estilo similar. El programa más conocido de Cope es Emily Howell . [33] [34] [35]
Melomics , un proyecto de investigación de la Universidad de Málaga (España), desarrolló un grupo de composición por computadora llamado Iamus , que compone piezas complejas con múltiples instrumentos para edición e interpretación. Desde sus inicios, Iamus ha compuesto un álbum completo en 2012, también llamado Iamus , que New Scientist describió como "la primera obra importante compuesta por una computadora e interpretada por una orquesta completa". [36] El grupo también ha desarrollado una API para que los desarrolladores utilicen la tecnología y pone su música a disposición en su sitio web.
La composición algorítmica asistida por computadora (CAAC, pronunciada "sea-ack") es la implementación y el uso de técnicas de composición algorítmica en software. Esta etiqueta se deriva de la combinación de dos etiquetas, cada una de las cuales es demasiado vaga para su uso continuo. La etiqueta composición asistida por computadora carece de la especificidad de utilizar algoritmos generativos. La música producida con software de notación o secuenciación podría fácilmente considerarse composición asistida por computadora. La composición algorítmica de la etiqueta también es demasiado amplia, especialmente porque no especifica el uso de una computadora. El término asistido por computadora , en lugar de asistido por computadora, se utiliza de la misma manera que diseño asistido por computadora . [37]
La improvisación automática utiliza algoritmos informáticos para crear improvisaciones sobre materiales musicales existentes. Esto generalmente se hace mediante una recombinación sofisticada de frases musicales extraídas de música existente, ya sea en vivo o pregrabada. Para lograr una improvisación creíble en un estilo particular, la improvisación automática utiliza algoritmos de aprendizaje automático y coincidencia de patrones para analizar ejemplos musicales existentes. Los patrones resultantes se utilizan luego para crear nuevas variaciones "en el estilo" de la música original, desarrollando una noción de reinyección estilística. Esto es diferente de otros métodos de improvisación con computadoras que utilizan composición algorítmica para generar música nueva sin realizar análisis de ejemplos musicales existentes. [38]
El modelado de estilos implica construir una representación computacional de la superficie musical que capture características estilísticas importantes a partir de los datos. Se utilizan enfoques estadísticos para capturar las redundancias en términos de diccionarios de patrones o repeticiones, que luego se recombinan para generar nuevos datos musicales. La mezcla de estilos se puede realizar mediante el análisis de una base de datos que contiene múltiples ejemplos musicales en diferentes estilos. Machine Improvisation se basa en una larga tradición musical de modelado estadístico que comenzó con la Suite Illiac para cuarteto de cuerdas de Hiller e Isaacson (1957) y los usos de Xenakis de las cadenas de Markov y los procesos estocásticos . Los métodos modernos incluyen el uso de compresión de datos sin pérdidas para análisis incremental, árbol de sufijos de predicción , búsqueda de cadenas y más. [39] La mezcla de estilos es posible combinando modelos derivados de varias fuentes musicales, siendo la primera mezcla de estilos realizada por S. Dubnov en una pieza Ntrope Suite utilizando el modelo de fuente conjunta de Jensen-Shannon. [40] Más tarde, Assayag y Dubnov [42] adoptaron para la música el uso del algoritmo del oráculo factorial (básicamente un oráculo factorial es un autómata de estado finito construido en tiempo y espacio lineal de forma incremental) [41] y se convirtió en la base para varios sistemas que utilizan la reinyección estilística. [43]
La primera implementación de modelado de estilo estadístico fue el método LZify en Open Music, [44] seguido por el sistema Continuator que implementó una improvisación de máquina interactiva que interpretó el análisis incremental LZ en términos de modelos de Markov y lo usó para modelado de estilo en tiempo real [45]. desarrollado por François Pachet en Sony CSL Paris en 2002. [46] [47] La implementación en Matlab de la improvisación automática de Factor Oracle se puede encontrar como parte de la caja de herramientas Computer Audition . También hay una implementación NTCC de la improvisación de la máquina Factor Oracle. [48]
OMax es un entorno de software desarrollado en IRCAM. OMax usa OpenMusic y Max. Se basa en investigaciones sobre modelado estilístico realizadas por Gerard Assayag y Shlomo Dubnov y en investigaciones sobre improvisación con ordenador de G. Assayag, M. Chemillier y G. Bloch (también conocidos como los hermanos OMax ) en el grupo Ircam Music Representations. [49] Uno de los problemas al modelar señales de audio con factor Oracle es la simbolización de características desde valores continuos hasta un alfabeto discreto. Este problema se resolvió en el Variable Markov Oracle (VMO) disponible como implementación de Python, [50] utilizando un criterio de tasa de información para encontrar la representación óptima o más informativa. [51]
El uso de inteligencia artificial para generar nuevas melodías, [52] cubrir música preexistente, [53] y clonar voces de artistas, es un fenómeno reciente que, según se ha informado, altera la industria musical . [54]
La codificación en vivo [55] (a veces conocida como 'programación interactiva', 'programación sobre la marcha', [56] 'programación justo a tiempo') es el nombre que se le da al proceso de escribir software en tiempo real como parte de un actuación. Recientemente se ha explorado como una alternativa más rigurosa a los músicos portátiles que, como suelen sentir los programadores en vivo, carecen del carisma y el dinamismo de los músicos que tocan en vivo. [57]
En 1957, el programa MUSIC permitió que una computadora central IBM 704 reprodujera una composición de 17 segundos de Mathews. En aquel entonces, las computadoras eran pesadas, por lo que la síntesis tomaría una hora.
La generación de señales de sonido requiere velocidades de muestreo muy altas.... Una máquina de alta velocidad como la IBM 7090... puede calcular sólo unos 5000 números por segundo... cuando genera un sonido razonablemente complejo.
Apuntes de conferencias sobre informática 1725