stringtranslate.com

Música e inteligencia artificial

La música y la inteligencia artificial (IA) es el desarrollo de programas de software musical que utilizan IA para generar música. [1] Al igual que con las aplicaciones en otros campos, la IA en la música también simula tareas mentales. Una característica destacada es la capacidad de un algoritmo de IA para aprender basándose en datos pasados, como en la tecnología de acompañamiento por computadora, donde la IA es capaz de escuchar a un intérprete humano y realizar un acompañamiento. [2] La inteligencia artificial también impulsa la tecnología de composición interactiva, donde una computadora compone música en respuesta a una presentación en vivo. Hay otras aplicaciones de IA en la música que cubren no solo la composición, producción e interpretación musical, sino también cómo se comercializa y consume la música. También se han desarrollado varios programas de reproducción de música para utilizar el reconocimiento de voz y la tecnología de procesamiento del lenguaje natural para el control de la voz musical. La investigación actual incluye la aplicación de IA en la composición musical , la interpretación , la teoría y el procesamiento de sonido digital .

Erwin Panofsky propuso que en todo arte existen tres niveles de significado: el significado primario, o el tema natural; el significado secundario, o el tema convencional; y el significado terciario, el contenido intrínseco del tema. [3] [4] La música de IA explora el más importante de estos, creando música sin la "intención" que generalmente está detrás de ella, lo que deja a los compositores que escuchan piezas generadas por máquinas sintiéndose inquietos por la falta de significado aparente. [5]

Historia

La inteligencia artificial tiene sus orígenes en la música, con el problema de la transcripción: registrar con precisión una interpretación en notación musical a medida que se toca. El esquema de un "rollo de piano" de Père Engramelle , un modo de registrar automáticamente el tiempo y la duración de las notas de una manera que pudiera transcribirse fácilmente a la notación musical correcta a mano, fue implementado por primera vez por los ingenieros alemanes JF Unger y J. Hohlfield en 1752. [6]

En 1957, el ILLIAC I (Illinois Automatic Computer) produjo la "Suite Illiac para cuarteto de cuerdas", una pieza musical completamente generada por computadora. La computadora fue programada para lograr esto por el compositor Lejaren Hiller y el matemático Leonard Isaacson . [5] : v–vii  En 1960, el investigador ruso Rudolf Zaripov publicó el primer artículo mundial sobre composición musical algorítmica utilizando la computadora Ural-1 . [7]

En 1965, el inventor Ray Kurzweil desarrolló un software capaz de reconocer patrones musicales y sintetizar nuevas composiciones a partir de ellos. La computadora apareció por primera vez en el concurso de preguntas y respuestas I've Got a Secret . [8]

En 1983, el sistema musical Kansei de Yamaha Corporation había ganado impulso y en 1989 se publicó un artículo sobre su desarrollo. El software utilizó técnicas de procesamiento de información musical e inteligencia artificial para resolver esencialmente el problema de transcripción de melodías más simples, aunque las melodías de nivel superior y las complejidades musicales se consideran incluso hoy en día como tareas difíciles de aprendizaje profundo, y la transcripción casi perfecta sigue siendo un tema de investigación. [6] [9]

En 1997, un programa de inteligencia artificial llamado Experimentos en Inteligencia Musical (EMI) pareció superar a un compositor humano en la tarea de componer una pieza musical para imitar el estilo de Bach . [10] EMI luego se convertiría en la base de un algoritmo más sofisticado llamado Emily Howell , llamado así por su creadora.

En 2002, el equipo de investigación musical del Laboratorio de Ciencias Informáticas de Sony en París, dirigido por el compositor y científico francés François Pachet , diseñó el Continuator, un algoritmo excepcionalmente capaz de reanudar una composición después de que un músico en vivo la detuviera. [11]

Emily Howell continuaría realizando avances en inteligencia artificial musical, publicando su primer álbum From Darkness, Light en 2009. [12] Desde entonces, se han publicado muchas más piezas de inteligencia artificial y de diversos grupos.

En 2010, Iamus se convirtió en la primera IA en producir un fragmento de música clásica contemporánea original, en su propio estilo: "Iamus' Opus 1". Ubicado en la Universidad de Málaga (España), el ordenador puede generar una pieza totalmente original en una variedad de estilos musicales. [13] [5] : 468–481  Agosto de 2019, un gran conjunto de datos que consta de 12.197 canciones MIDI, cada una con sus letras y melodías (https://github.com/yy1lab/Lyrics-Conditioned-Neural-Melody-Generation), fue creado para investigar la viabilidad de la generación de melodías neuronales a partir de letras utilizando un método LSTM-GAN condicional profundo.

Con el avance de la IA generativa , han comenzado a surgir modelos capaces de crear composiciones musicales completas (incluidas las letras) a partir de una simple descripción de texto. Dos aplicaciones web notables en este campo son Suno AI , lanzada en diciembre de 2023, y Udio , que le siguió en abril de 2024. [14]

Aplicaciones de software

Arrojar

Desarrollado en la Universidad de Princeton por Ge Wang y Perry Cook, ChucK es un lenguaje multiplataforma basado en texto. [15] Al extraer y clasificar las técnicas teóricas que encuentra en las piezas musicales, el software puede sintetizar piezas completamente nuevas a partir de las técnicas que ha aprendido. [16] La tecnología es utilizada por SLOrk (Stanford Laptop Orchestra) [17] y PLOrk (Princeton Laptop Orchestra).

Tocadiscos

Jukedeck era un sitio web que permitía a las personas usar inteligencia artificial para generar música original libre de regalías para usar en videos. [18] [19] El equipo comenzó a desarrollar la tecnología de generación de música en 2010, [20] formó una empresa en torno a ella en 2012, [21] y lanzó el sitio web públicamente en 2015. [19] La tecnología utilizada fue originalmente un sistema de composición algorítmica basado en reglas , [22] que luego fue reemplazado por redes neuronales artificiales . [18] El sitio web se utilizó para crear más de 1 millón de piezas musicales, y las marcas que lo utilizaron incluyeron Coca-Cola , Google , UKTV y el Museo de Historia Natural de Londres . [23] En 2019, la empresa fue adquirida por ByteDance . [24] [25] [26]

Morfeo

MorpheuS [27] es un proyecto de investigación de Dorien Herremans y Elaine Chew en la Queen Mary University de Londres , financiado por un proyecto Marie Skłodowská-Curie de la UE. El sistema utiliza un enfoque de optimización basado en un algoritmo de búsqueda de vecindad variable para transformar piezas de plantilla existentes en piezas nuevas con un nivel establecido de tensión tonal que cambia dinámicamente a lo largo de la pieza. Este enfoque de optimización permite la integración de una técnica de detección de patrones para reforzar la estructura a largo plazo y los temas recurrentes en la música generada. Las piezas compuestas por MorpheuS se han interpretado en conciertos tanto en Stanford como en Londres.

AIVA

Creado en febrero de 2016 en Luxemburgo , AIVA es un programa que produce bandas sonoras para cualquier tipo de medio. Los algoritmos detrás de AIVA se basan en arquitecturas de aprendizaje profundo [28] AIVA también se ha utilizado para componer una canción de rock llamada On the Edge [29] , así como una melodía pop Love Sick [30] en colaboración con la cantante Taryn Southern [ 31 ] para la creación de su álbum de 2018 "I am AI".

Google Magenta

Clip musical de 20 segundos generado por MusicLM con el mensaje "música electrónica ambiental hipnótica"

El equipo Magenta de Google ha publicado varias aplicaciones musicales de IA y documentos técnicos desde su lanzamiento en 2016. [32] En 2017 lanzaron el algoritmo y el conjunto de datos NSynth , [33] y un instrumento musical de hardware de código abierto , diseñado para facilitar a los músicos el uso del algoritmo. [34] El instrumento fue utilizado por artistas notables como Grimes y YACHT en sus álbumes. [35] [36] En 2018, lanzaron una aplicación de improvisación de piano llamada Piano Genie. A esto le siguió más tarde Magenta Studio, un conjunto de 5 complementos MIDI que permiten a los productores musicales elaborar sobre la música existente en su DAW. [37] En 2023, su equipo de aprendizaje automático publicó un documento técnico en GitHub que describía MusicLM, un generador privado de texto a música que habían desarrollado. [38] [39]

Difusión

Espectrograma generado a partir del mensaje " bossa nova con guitarra eléctrica " ​​(arriba) y el audio resultante después de la conversión (abajo)

Riffusion es una red neuronal , diseñada por Seth Forsgren y Hayk Martiros, que genera música utilizando imágenes de sonido en lugar de audio. [40] Fue creada como un ajuste fino de Stable Diffusion , un modelo de código abierto existente para generar imágenes a partir de indicaciones de texto, en espectrogramas . [40] Esto da como resultado un modelo que utiliza indicaciones de texto para generar archivos de imagen, que pueden pasar por una transformada de Fourier inversa y convertirse en archivos de audio. [41] Si bien estos archivos solo duran unos segundos, el modelo también puede usar el espacio latente entre las salidas para interpolar diferentes archivos juntos. [40] [42] Esto se logra utilizando una funcionalidad del modelo Stable Diffusion conocida como img2img . [43]

La música resultante ha sido descrita como " de otro mundo ", [44] aunque es poco probable que reemplace a la música creada por el hombre. [44] El modelo se puso a disposición el 15 de diciembre de 2022, y el código también está disponible de forma gratuita en GitHub . [41] Es uno de los muchos modelos derivados de Stable Diffusion. [43]

Riffusion se clasifica dentro de un subconjunto de generadores de texto a música con IA. En diciembre de 2022, Mubert [45] utilizó de manera similar Stable Diffusion para convertir texto descriptivo en bucles musicales. En enero de 2023, Google publicó un artículo sobre su propio generador de texto a música llamado MusicLM. [46] [47]

Aplicaciones musicales

La inteligencia artificial tiene la oportunidad de influir en la manera en que los productores crean música al ofrecer repeticiones de una canción que siguen una indicación dada por el creador. Estas indicaciones permiten que la IA siga un determinado estilo que el artista está intentando seguir. [5]

La IA también se ha utilizado en el análisis musical, donde se ha utilizado para la extracción de características, el reconocimiento de patrones y las recomendaciones musicales. [48]

Composición

La inteligencia artificial ha tenido un gran impacto en el sector de la composición, ya que ha influido en las ideas de los compositores y productores y tiene el potencial de hacer que la industria sea más accesible para los recién llegados. Con su desarrollo en la música, ya se ha visto que se utiliza en colaboración con los productores. Los artistas utilizan este software para ayudar a generar ideas y sacar a la luz estilos musicales al incitar a la IA a seguir requisitos específicos que se ajusten a sus necesidades. Los futuros impactos de la tecnología en la composición incluyen la emulación y fusión de estilos, y la revisión y el refinamiento. El desarrollo de este tipo de software puede facilitar el acceso a los recién llegados a la industria de la música. [5] Los productores han utilizado software como ChatGPT para realizar estas tareas, mientras que otros software como Ozone11 se han utilizado para automatizar actividades que consumen mucho tiempo y son complejas, como la masterización . [49]

Derechos de autor

En Estados Unidos, el marco legal actual tiende a aplicar las leyes tradicionales de derechos de autor a la IA, a pesar de sus diferencias con el proceso creativo humano. [50] Sin embargo, las producciones musicales generadas únicamente por IA no reciben protección por derechos de autor. En el compendio de las Prácticas de la Oficina de Derechos de Autor de Estados Unidos , la Oficina de Derechos de Autor ha declarado que no concedería derechos de autor a “obras que carezcan de autoría humana” y “la Oficina no registrará obras producidas por una máquina o un mero proceso mecánico que funcione de forma aleatoria o automática sin ningún aporte creativo o intervención de un autor humano”. [51] En febrero de 2022, la Junta de Revisión de Derechos de Autor rechazó una solicitud de protección por derechos de autor de obras de arte generadas por IA sobre la base de que “carecían de la autoría humana requerida necesaria para sustentar una reclamación por derechos de autor”. [52]

La situación en la Unión Europea (UE) es similar a la de los EE. UU., porque su marco legal también enfatiza el papel de la participación humana en una obra protegida por derechos de autor. [53] Según la Oficina de Propiedad Intelectual de la Unión Europea y la jurisprudencia reciente del Tribunal de Justicia de la Unión Europea , el criterio de originalidad requiere que la obra sea una creación intelectual propia del autor, que refleje la personalidad del autor evidenciada por las elecciones creativas realizadas durante su producción, requiere un nivel distinto de participación humana. [53] El proyecto reCreating Europe, financiado por el programa de investigación e innovación Horizonte 2020 de la Unión Europea, profundiza en los desafíos que plantean los contenidos generados por IA, incluida la música, y sugiere seguridad jurídica y protección equilibrada que fomente la innovación respetando las normas de derechos de autor. [53] El reconocimiento de AIVA marca un alejamiento significativo de las opiniones tradicionales sobre la autoría y los derechos de autor en el ámbito de la composición musical, permitiendo a los artistas de IA ser capaces de lanzar música y ganar regalías. Esta aceptación marca a AIVA como una instancia pionera en la que una IA ha sido formalmente reconocida dentro de la producción musical. [54]

Los recientes avances en inteligencia artificial realizados por grupos como Stability AI , OpenAI y Google han generado una enorme cantidad de demandas por derechos de autor contra la tecnología generativa, incluida la música con inteligencia artificial. Si estas demandas prosperan, los conjuntos de datos de los modelos de aprendizaje automático que sustentan estas tecnologías quedarían restringidos al dominio público. [55]

Deepfakes musicales

Un desarrollo más incipiente de la IA en la música es la aplicación de deepfakes de audio para convertir la letra o el estilo musical de una canción preexistente en la voz o el estilo de otro artista. Esto ha suscitado muchas preocupaciones con respecto a la legalidad de la tecnología, así como a la ética de su empleo, en particular en el contexto de la identidad artística. [56] Además, también ha planteado la cuestión de a quién se atribuye la autoría de estas obras. Como la IA no puede tener autoría propia, la especulación actual sugiere que no habrá una respuesta clara hasta que se dicten más sentencias sobre las tecnologías de aprendizaje automático en su conjunto. [57] Las medidas preventivas más recientes han comenzado a desarrollarse por parte de Google y el grupo Universal Music, que han incorporado regalías y atribución de créditos para permitir que los productores repliquen las voces y los estilos de los artistas. [58]

"Corazón en la manga"

En 2023, un artista conocido como ghostwriter977 creó un deepfake musical llamado " Heart on My Sleeve " que clonó las voces de Drake y The Weeknd  al ingresar una variedad de pistas solo vocales de los respectivos artistas en un algoritmo de aprendizaje profundo, creando un modelo artificial de las voces de cada artista, al que este modelo podría asignarse sobre voces de referencia originales con letras originales. [59] La pista fue presentada para su consideración al Grammy como mejor canción de rap y canción del año. [60]  Se volvió viral y ganó tracción en TikTok y recibió una respuesta positiva de la audiencia, lo que llevó a su lanzamiento oficial en Apple Music , Spotify y YouTube en abril de 2023. [61] Muchos creyeron que la pista estaba completamente compuesta por un software de inteligencia artificial, pero el productor afirmó que la composición, la producción y las voces originales (antes de la conversión) todavía las hizo él. [59] Más tarde sería rescindido de cualquier consideración de los Grammy debido a que no seguía las pautas necesarias para ser considerado para un premio Grammy. [61]  La canción terminaría siendo eliminada de todas las plataformas de música por Universal Music Group . [61] La canción fue un momento decisivo para la clonación de voz por IA, y desde entonces se han creado modelos para cientos, si no miles, de cantantes y raperos populares.

"De donde vino eso"

En 2013, el cantante de música country Randy Travis sufrió un derrame cerebral que lo dejó sin poder cantar. Mientras tanto, el vocalista James Dupré realizó una gira en su nombre, cantando sus canciones para él. Travis y el productor de toda la vida Kyle Lehning lanzaron una nueva canción en mayo de 2024 titulada " Where That Came From ", la primera canción nueva de Travis desde su derrame cerebral. La grabación utiliza tecnología de inteligencia artificial para recrear la voz de Travis, habiendo sido compuesta a partir de más de 40 grabaciones vocales existentes junto con las de Dupré. [62] [63]

Véase también

Referencias

  1. ^ D. Herremans; CH; Chuan, E. Chew (2017). "Una taxonomía funcional de los sistemas de generación musical". Encuestas de computación de la ACM . 50 (5): 69:1–30. arXiv : 1812.04186 . doi :10.1145/3108242. S2CID  3483927.
  2. ^ Dannenberg, Roger. «Inteligencia artificial, aprendizaje automático y comprensión musical» (PDF) . Semantic Scholar . S2CID  17787070. Archivado desde el original (PDF) el 23 de agosto de 2018. Consultado el 23 de agosto de 2018 .
  3. ^ Erwin Panofsky, Estudios de iconología: temas humanísticos en el arte del Renacimiento. Oxford 1939.
  4. ^ Dilly, Heinrich (2020), Arnold, Heinz Ludwig (ed.), "Panofsky, Erwin: Zum Problem der Beschreibung und Inhaltsdeutung von Werken der bildenden Kunst", Kindlers Literatur Lexikon (KLL) (en alemán), Stuttgart: JB Metzler , págs. 1–2, doi :10.1007/978-3-476-05728-0_16027-1, ISBN 978-3-476-05728-0, consultado el 3 de marzo de 2024
  5. ^ abcde Miranda, Eduardo Reck, ed. (2021). "Manual de inteligencia artificial para la música". SpringerLink . doi :10.1007/978-3-030-72116-9. ISBN 978-3-030-72115-2.
  6. ^ ab Roads, Curtis (1985). "Investigación en música e inteligencia artificial". ACM Computing Surveys . 17 (2): 163–190. doi :10.1145/4468.4469 . Consultado el 6 de marzo de 2024 .
  7. ^ Zaripov, Rudolf (1960). "Об алгоритмическом описании процесса сочинения музыки (Sobre la descripción algorítmica del proceso de composición musical)". Actas de la Academia de Ciencias de la URSS . 132 (6).
  8. ^ "Ray Kurzweil". Fundación Nacional de Medallas de Ciencia y Tecnología . Consultado el 10 de septiembre de 2024 .
  9. ^ Katayose, Haruhiro; Inokuchi, Seiji (1989). "El sistema de música Kansei". Diario de música por computadora . 13 (4): 72–77. doi :10.2307/3679555. ISSN  0148-9267. JSTOR  3679555.
  10. ^ Johnson, George (11 de noviembre de 1997). "¿Un Bach no descubierto? No, lo escribió una computadora". The New York Times . Consultado el 29 de abril de 2020 . El Dr. Larson se sintió herido cuando el público concluyó que su pieza (una forma sencilla y atractiva llamada invención en dos partes) fue escrita por la computadora. Pero se sintió un poco apaciguado cuando los oyentes decidieron que la invención compuesta por EMI (pronunciado Emmy ) era Bach genuino.
  11. ^ Pachet, François (septiembre de 2003). "El continuador: interacción musical con el estilo". Revista de investigación en nueva música . 32 (3): 333–341. doi :10.1076/jnmr.32.3.333.16861. hdl : 2027/spo.bbp2372.2002.044 . ISSN  0929-8215.
  12. ^ Lawson, Mark (22 de octubre de 2009). «Esta música artificialmente inteligente puede hablar a nuestras mentes, pero no a nuestras almas». The Guardian . ISSN  0261-3077 . Consultado el 10 de septiembre de 2024 .
  13. ^ "Iamus: ¿es esta la respuesta del siglo XXI a Mozart?". BBC News . 2013-01-02 . Consultado el 2024-09-10 .
  14. ^ Nair, Vandana (11 de abril de 2024). "La carrera de plataformas de música e inteligencia artificial se acelera con Udio". Revista Analytics India . Consultado el 19 de abril de 2024 .
  15. ^ ChucK => Lenguaje de programación de audio sobre la marcha y con tiempos muy marcados. Chuck.cs.princeton.edu. Recuperado el 22 de diciembre de 2010.
  16. ^ Fundamentos del aprendizaje sobre la marcha en el lenguaje de programación ChucK
  17. ^ Driver, Dustin. (26 de marzo de 1999) Pro - Profiles - Stanford Laptop Orchestra (SLOrk), pág. 1. Apple. Consultado el 22 de diciembre de 2010.
  18. ^ ab "De los jingles a los éxitos del pop, la IA es música para algunos oídos". The New York Times . 22 de enero de 2017 . Consultado el 3 de enero de 2023 .
  19. ^ ab "¿Necesitas música para un vídeo? El compositor con inteligencia artificial de Jukedeck crea bandas sonoras personalizadas y económicas". techcrunch.com . 7 de diciembre de 2015 . Consultado el 3 de enero de 2023 .
  20. ^ "¿Qué pasará cuando las máquinas escriban canciones tan bien como tu músico favorito?". motherjones.com . Consultado el 3 de enero de 2023 .
  21. ^ Cookson, Robert (7 de diciembre de 2015). «La computadora de Jukedeck compone música con solo pulsar un botón». Financial Times . Consultado el 3 de enero de 2023 .
  22. ^ "Jukedeck: el software que escribe música por sí mismo, nota por nota". Wired UK . Consultado el 3 de enero de 2023 .
  23. ^ "Robot rock: cómo las estrellas del canto con inteligencia artificial utilizan el aprendizaje automático para escribir armonías". standard.co.uk . Marzo de 2018 . Consultado el 3 de enero de 2023 .
  24. ^ "BYTEDANCE, PROPIETARIO DE TIKTOK, COMPRA LA COMPAÑÍA DE MÚSICA JUKEDECK, CON INTEGRAL DE AI MUSIC". musicbusinessworldwide.com . 23 de julio de 2019 . Consultado el 3 de enero de 2023 .
  25. ^ "A medida que la licencia de música de TikTok supuestamente expira, el propietario ByteDance compra la startup de creación musical con inteligencia artificial JukeDeck". digitalmusicnews.com . 23 de julio de 2019 . Consultado el 3 de enero de 2023 .
  26. ^ "Una aplicación de música generada por IA ahora forma parte del grupo TikTok". sea.mashable.com . 24 de julio de 2019 . Consultado el 3 de enero de 2023 .
  27. ^ D. Herremans; E. Chew (2016). "MorpheuS: Generación automática de música con restricciones de patrones recurrentes y perfiles de tensión". Transacciones IEEE sobre Computación Afectiva . PP(1). arXiv : 1812.04832 . doi :10.1109/TAFFC.2017.2737984. S2CID  54475410.
  28. ^ "Una nueva IA puede escribir música tan bien como un compositor humano". Futurismo . 2017-03-09 . Consultado el 2024-04-19 .
  29. ^ Technologies, Aiva (24 de octubre de 2018). "La creación de música rock generada por IA con AIVA". Medium . Consultado el 19 de abril de 2024 .
  30. ^ Lovesick | Compuesto con Inteligencia Artificial AIVA - Video oficial con letra | Taryn Southern. 2 de mayo de 2018.
  31. ^ Southern, Taryn (10 de mayo de 2018). "Algo-Rhythms: El futuro de la colaboración en álbumes". TechCrunch . Consultado el 19 de abril de 2024 .
  32. ^ "¡Bienvenidos a Magenta!". Magenta . 2016-06-01 . Consultado el 2024-04-19 .
  33. ^ Engel, Jesse; Resnick, Cinjon; Roberts, Adam; Dieleman, Sander; Eck, Douglas; Simonyan, Karen; Norouzi, Mohammad (2017). "Síntesis de audio neuronal de notas musicales con autocodificadores WaveNet". PMLR . arXiv : 1704.01279 .
  34. ^ Open NSynth Super, Google Creative Lab, 13 de febrero de 2023 , consultado el 14 de febrero de 2023
  35. ^ "Artículo de portada: Grimes está lista para interpretar al villano". Crack Magazine . Consultado el 14 de febrero de 2023 .
  36. ^ "Lo que el aprendizaje automático le enseñó a la banda YACHT sobre sí mismos". Los Angeleno . 2019-09-18 . Consultado el 2023-02-14 .
  37. ^ "Magenta Studio". Magenta . Consultado el 19 de abril de 2024 .
  38. ^ "MusicLM". google-research.github.io . 2023 . Consultado el 19 de abril de 2024 .
  39. ^ Sandzer-Bell, Ezra (16 de febrero de 2024). "Las mejores alternativas a MusicLM y MusicFX con tecnología de inteligencia artificial de Google". AudioCipher . Consultado el 19 de abril de 2024 .
  40. ^ abc Coldewey, Devin (15 de diciembre de 2022). "Prueba 'Riffusion', un modelo de IA que compone música visualizándola".
  41. ^ ab Nasi, Michele (15 de diciembre de 2022). "Riffusion: crear rastro de audio con inteligencia artificial". IlSoftware.it .
  42. ^ "Ensayez" Riffusion ", un modelo de IA que compone la música en la visualización". 15 de diciembre de 2022.
  43. ^ ab "文章に沿った楽曲を自動生成してくれるAI「Riffusion」登場、画像生成AI「Difusión estable」ベースで誰でも自由に利用可能". GIGAZINA . 16 de diciembre de 2022.
  44. ^ ab Llano, Eutropio (15 de diciembre de 2022). "El generador de imágenes AI también puede producir música (con resultados de otro mundo)".
  45. ^ "Mubert lanza la interfaz Text-to-Music: una forma completamente nueva de generar música a partir de un único mensaje de texto". 21 de diciembre de 2022.
  46. ^ "MusicLM: Generando música a partir de texto". 26 de enero de 2023.
  47. ^ "Cinco razones por las que la aplicación de conversión de texto a música con inteligencia artificial MusicLM de Google es diferente". 27 de enero de 2023.
  48. ^ Zhang, Yifei (diciembre de 2023). "Utilización del análisis musical computacional y la inteligencia artificial para mejorar la composición musical: exploración del preanálisis y el posanálisis". Revista de zoología avanzada . 44 (S-6): 1377–1390. doi : 10.17762/jaz.v44is6.2470 . S2CID  265936281.
  49. ^ Sunkel, Cameron (16 de diciembre de 2023). "Una nueva investigación revela las principales herramientas de inteligencia artificial que utilizan los productores musicales". EDM.com: las últimas noticias, reseñas y artistas de música electrónica de baile . Consultado el 3 de abril de 2024 .
  50. ^ "El arte creado por IA no puede estar sujeto a derechos de autor, dicen funcionarios estadounidenses: ¿qué significa esto para la música?". MusicTech . Consultado el 27 de octubre de 2022 .
  51. ^ "¿Pueden (y deben) las obras generadas por IA estar protegidas por derechos de autor?". Hypebot . 2022-02-28 . Consultado el 2022-10-27 .
  52. ^ Re: Segunda solicitud de reconsideración por la negativa a registrar una entrada reciente al paraíso (ID de correspondencia 1-3ZPC6C3; SR n.° 1-7100387071) (PDF) (Informe). Junta de Revisión de Derechos de Autor, Oficina de Derechos de Autor de los Estados Unidos . 2022-02-14.
  53. ^ abc Bulayenko, Oleksandr; Quintais, João Pedro; Gervais, Daniel J.; Poort, Joost (28 de febrero de 2022). "Productos musicales de IA: desafíos para el marco legal de derechos de autor". Informe recreando Europa . Consultado el 3 de abril de 2024.
  54. ^ Ahuja, Virendra (11 de junio de 2021). "Inteligencia artificial y derechos de autor: problemas y desafíos". ILI Law Review, edición de invierno de 2020. Consultado el 3 de abril de 2024.
  55. ^ Samuelson, Pamela (14 de julio de 2023). "La IA generativa se encuentra con los derechos de autor". Science . 381 (6654): 158–161. Bibcode :2023Sci...381..158S. doi : 10.1126/science.adi0656 . ISSN  0036-8075. PMID  37440639.
  56. ^ DeepDrake con BTS-GAN y TayloRVC: un análisis exploratorio de deepfakes musicales y plataformas de alojamiento
  57. ^ Inteligencia artificial y clonación de voces deepfake: innovación, derechos de autor y derechos de los artistas
  58. ^ "Google y Universal Music negocian un acuerdo sobre 'deepfakes' de IA". www.ft.com . Consultado el 3 de abril de 2024 .
  59. ^ ab Robinson, Kristin (11 de octubre de 2023). "Ghostwriter, el cerebro detrás de la canción viral de Drake AI, habla por primera vez". Billboard . Consultado el 3 de abril de 2024 .
  60. ^ "La canción deepfake "Heart on My Sleeve" de Drake/The Weeknd fue enviada a los Grammy". The FADER . Consultado el 3 de abril de 2024 .
  61. ^ abc "El deepfake de IA de Drake y The Weeknd no será elegible para un GRAMMY". Mixmag . Consultado el 3 de abril de 2024 .
  62. ^ Marcus K. Dowling (6 de mayo de 2024). "Randy Travis sorprende a la industria musical con la combinación de inteligencia artificial para 'Where That Came From'. Cómo surgió la canción". The Tennesseean . Consultado el 6 de mayo de 2024 .
  63. ^ Maria Sherman (6 de mayo de 2024). "Con la ayuda de la IA, Randy Travis recuperó su voz. Así nació su primera canción después de sufrir un derrame cerebral". AP News . Consultado el 6 de mayo de 2024 .

Lectura adicional

Enlaces externos