La recuperación de información musical ( MIR ) es la ciencia interdisciplinaria de recuperar información de la música . Aquellos involucrados en MIR pueden tener experiencia en musicología académica , psicoacústica , psicología , procesamiento de señales , informática , aprendizaje automático , reconocimiento óptico de música , inteligencia computacional o alguna combinación de estos.
MIR está siendo utilizado por empresas y académicos para categorizar, manipular e incluso crear música.
Uno de los temas de investigación clásicos del MIR es la clasificación de géneros, que consiste en categorizar elementos musicales en uno de los géneros predefinidos, como clásica , jazz , rock , etc. La clasificación de estados de ánimo , clasificación de artistas, identificación de instrumentos y etiquetado de música también son temas populares. .
Ya existen varios sistemas de recomendación de música, pero sorprendentemente pocos se basan en técnicas MIR, en lugar de hacer uso de la similitud entre usuarios o de una laboriosa recopilación de datos. Pandora , por ejemplo, utiliza expertos para etiquetar la música con cualidades particulares como "cantante" o "línea de bajo fuerte". Muchos otros sistemas encuentran usuarios cuyo historial de escucha es similar y les sugieren música no escuchada de sus respectivas colecciones. Las técnicas MIR para la similitud en la música están empezando a formar parte de dichos sistemas.
La separación de fuentes musicales consiste en separar las señales originales de una señal de audio mixta . El reconocimiento de instrumentos consiste en identificar los instrumentos involucrados en la música. Se han desarrollado varios sistemas MIR que pueden separar la música en sus pistas componentes sin acceso a la copia maestra. De esta manera, por ejemplo, se pueden crear pistas de karaoke a partir de pistas de música normales, aunque el proceso aún no es perfecto debido a que las voces ocupan parte del mismo espacio de frecuencia que los otros instrumentos.
La transcripción musical automática es el proceso de convertir una grabación de audio en notación simbólica, como una partitura o un archivo MIDI . [1] Este proceso implica varias tareas de análisis de audio, que pueden incluir detección de tonos múltiples, detección de inicio , estimación de duración, identificación de instrumentos y extracción de información armónica , rítmica o melódica . Esta tarea se vuelve más difícil con mayor número de instrumentos y mayor nivel de polifonía .
La generación automática de música es un objetivo de muchos investigadores del MIR. Se han realizado intentos con éxito limitado en términos de apreciación humana de los resultados.
Las partituras dan una descripción clara y lógica de la música con la que trabajar, pero el acceso a las partituras , ya sean digitales o de otro tipo, suele resultar poco práctico. La música MIDI también se ha utilizado por razones similares, pero algunos datos se pierden en la conversión a MIDI desde cualquier otro formato, a menos que la música se haya escrito teniendo en cuenta los estándares MIDI, lo cual es poco común. Los formatos de audio digital como WAV , mp3 y ogg se utilizan cuando el audio en sí forma parte del análisis. Los formatos con pérdida como mp3 y ogg funcionan bien con el oído humano, pero es posible que falten datos cruciales para el estudio. Además, algunas codificaciones crean artefactos que podrían inducir a error a cualquier analizador automático. A pesar de esto, la ubicuidad del mp3 ha significado que muchas investigaciones en el campo los incluyan como material fuente. Cada vez más, los metadatos extraídos de la web se incorporan en MIR para una comprensión más completa de la música dentro de su contexto cultural, y esto recientemente consiste en el análisis de etiquetas sociales para la música.
El análisis a menudo puede requerir algún resumen, [2] y para la música (como ocurre con muchas otras formas de datos) esto se logra mediante la extracción de características , especialmente cuando se analiza el contenido de audio en sí y se aplica el aprendizaje automático . El objetivo es reducir la gran cantidad de datos a un conjunto manejable de valores para que el aprendizaje pueda realizarse en un plazo de tiempo razonable. Una característica común extraída es el coeficiente cepstral de frecuencia de fusión (MFCC), que es una medida del timbre de una pieza musical . Se pueden emplear otras características para representar la clave , los acordes , las armonías , la melodía , el tono principal , los tiempos por minuto o el ritmo de la pieza. Hay varias herramientas de extracción de funciones de audio disponibles [3] Disponibles aquí