La recuperación de información musical ( MIR ) es la ciencia interdisciplinaria que se encarga de recuperar información de la música . Quienes participan en la MIR pueden tener experiencia en musicología académica , psicoacústica , psicología , procesamiento de señales , informática , aprendizaje automático , reconocimiento óptico de música , inteligencia computacional o alguna combinación de estas.
Las empresas y los académicos utilizan la recuperación de información musical para categorizar, manipular e incluso crear música.
Uno de los temas de investigación clásicos de MIR es la clasificación de género, que consiste en categorizar los elementos musicales en uno de los géneros predefinidos, como clásico , jazz , rock , etc. La clasificación de estados de ánimo , la clasificación de artistas, la identificación de instrumentos y el etiquetado de música también son temas populares.
Ya existen varios sistemas de recomendación de música, pero sorprendentemente pocos se basan en técnicas MIR, en lugar de hacer uso de la similitud entre usuarios o de una laboriosa recopilación de datos. Pandora , por ejemplo, utiliza expertos para etiquetar la música con cualidades particulares como "cantante femenina" o "línea de bajo potente". Muchos otros sistemas encuentran usuarios cuyo historial de escucha es similar y les sugieren música que no han escuchado de sus respectivas colecciones. Las técnicas MIR para la similitud en la música están empezando a formar parte de estos sistemas.
La separación de fuentes musicales consiste en separar las señales originales de una señal de audio mezclada . El reconocimiento de instrumentos consiste en identificar los instrumentos que intervienen en la música. Se han desarrollado varios sistemas MIR que pueden separar la música en sus pistas componentes sin acceso a la copia maestra. De esta manera, por ejemplo, se pueden crear pistas de karaoke a partir de pistas de música normales, aunque el proceso aún no es perfecto debido a que las voces ocupan parte del mismo espacio de frecuencia que los otros instrumentos.
La transcripción automática de música es el proceso de convertir una grabación de audio en notación simbólica, como una partitura o un archivo MIDI . [1] Este proceso implica varias tareas de análisis de audio, que pueden incluir la detección de tonos múltiples, la detección de inicio , la estimación de la duración, la identificación de instrumentos y la extracción de información armónica , rítmica o melódica . Esta tarea se vuelve más difícil con un mayor número de instrumentos y un mayor nivel de polifonía .
La generación automática de música es un objetivo que persiguen muchos investigadores del MIR. Se han hecho intentos con un éxito limitado en cuanto a la apreciación humana de los resultados.
Las partituras ofrecen una descripción clara y lógica de la música con la que se va a trabajar, pero el acceso a partituras , ya sean digitales o de otro tipo, suele ser poco práctico. También se ha utilizado música MIDI por razones similares, pero se pierden algunos datos en la conversión a MIDI desde cualquier otro formato, a menos que la música se haya escrito teniendo en cuenta los estándares MIDI, lo que es poco frecuente. Los formatos de audio digital como WAV , mp3 y ogg se utilizan cuando el audio en sí forma parte del análisis. Los formatos con pérdida como mp3 y ogg funcionan bien con el oído humano, pero pueden perder datos cruciales para el estudio. Además, algunas codificaciones crean artefactos que podrían ser engañosos para cualquier analizador automático. A pesar de esto, la ubicuidad del mp3 ha hecho que muchas investigaciones en este campo los incluyan como material de origen. Cada vez más, los metadatos extraídos de la web se incorporan a MIR para una comprensión más completa de la música dentro de su contexto cultural, y esto consiste recientemente en el análisis de etiquetas sociales para la música.
El análisis a menudo puede requerir algún resumen, [2] y para la música (como con muchas otras formas de datos) esto se logra mediante la extracción de características , especialmente cuando se analiza el contenido de audio en sí y se debe aplicar el aprendizaje automático . El propósito es reducir la gran cantidad de datos a un conjunto manejable de valores para que el aprendizaje se pueda realizar dentro de un marco de tiempo razonable. Una característica común extraída es el Coeficiente Cepstral de Frecuencia Mel (MFCC), que es una medida del timbre de una pieza musical . Se pueden emplear otras características para representar la clave , los acordes , las armonías , la melodía , el tono principal , los pulsos por minuto o el ritmo de la pieza. Hay varias herramientas de extracción de características de audio disponibles [3] Disponible aquí