MIDI ( / ˈm ɪ d i / ; interfaz digital de instrumentos musicales ) es un estándar técnico que describe un protocolo de comunicación , una interfaz digital y conectores eléctricos que conectan una amplia variedad de instrumentos musicales electrónicos , computadoras y dispositivos de audio relacionados para tocar, editar y grabar música. [1]
Un único cable MIDI puede transportar hasta dieciséis canales de datos MIDI, cada uno de los cuales puede enrutarse a un dispositivo independiente. Cada interacción con una tecla, botón, perilla o control deslizante se convierte en un evento MIDI, que especifica instrucciones musicales, como el tono , el tiempo y el volumen de una nota . Una aplicación MIDI común es tocar un teclado MIDI u otro controlador y usarlo para activar un módulo de sonido digital (que contiene sonidos musicales sintetizados) para generar sonidos que el público escucha producidos por un amplificador de teclado . Los datos MIDI se pueden transferir mediante un cable MIDI o USB , o grabarse en un secuenciador o estación de trabajo de audio digital para editarlos o reproducirlos. [2]
También se define un formato de archivo que almacena e intercambia los datos. Las ventajas del MIDI incluyen un tamaño de archivo pequeño , facilidad de modificación y manipulación y una amplia variedad de instrumentos electrónicos y sintetizadores o sonidos muestreados digitalmente . [3] : 4 Una grabación MIDI de una interpretación en un teclado podría sonar como un piano u otro instrumento de teclado; sin embargo, dado que MIDI registra los mensajes y la información sobre sus notas y no los sonidos específicos, esta grabación podría cambiarse a muchos otros sonidos, desde guitarra o flauta sintetizada o sampleada hasta orquesta completa.
Antes del desarrollo del MIDI, los instrumentos musicales electrónicos de diferentes fabricantes generalmente no podían comunicarse entre sí. Esto significaba que un músico no podía, por ejemplo, conectar un teclado Roland a un módulo de sintetizador Yamaha. Con MIDI, cualquier teclado compatible con MIDI (u otro dispositivo controlador) se puede conectar a cualquier otro secuenciador, módulo de sonido, caja de ritmos , sintetizador u computadora compatible con MIDI, incluso si son fabricados por diferentes fabricantes.
La tecnología MIDI fue estandarizada en 1983 por un panel de representantes de la industria musical y es mantenida por la Asociación de Fabricantes MIDI (MMA). Todos los estándares MIDI oficiales son desarrollados y publicados conjuntamente por el MMA de Los Ángeles y el Comité MIDI de la Asociación de la Industria de Electrónica Musical (AMEI) de Tokio. En 2016, MMA estableció la Asociación MIDI (TMA) para apoyar a una comunidad global de personas que trabajan, juegan o crean con MIDI. [4]
A principios de la década de 1980, no existían medios estandarizados para sincronizar instrumentos musicales electrónicos fabricados por diferentes empresas. [5] Los fabricantes tenían sus propios estándares patentados para sincronizar instrumentos, como CV/gate , sincronización DIN y bus de control digital (DCB). [6] Ikutaro Kakehashi , presidente de Roland , sintió que la falta de estandarización estaba limitando el crecimiento de la industria de la música electrónica. [6] En junio de 1981, propuso desarrollar un estándar al fundador de Oberheim Electronics, Tom Oberheim , [5] quien había desarrollado su propia interfaz patentada, el Sistema Oberheim. [7]
Kakehashi sintió que el Sistema Oberheim era demasiado engorroso y habló con Dave Smith , presidente de Sequential Circuits , sobre la creación de una alternativa más simple y económica. [7] Mientras Smith discutía el concepto con empresas estadounidenses, Kakehashi lo discutía con las empresas japonesas Yamaha , Korg y Kawai . [5] Representantes de todas las empresas se reunieron para discutir la idea en octubre. [5] Inicialmente, sólo estaban interesados Sequential Circuits y las empresas japonesas. [8]
Utilizando el DCB de Roland como base, [6] Smith y el ingeniero de Sequential Circuits, Chet Wood, idearon una interfaz universal para permitir la comunicación entre equipos de diferentes fabricantes. Smith y Wood propusieron este estándar en un artículo, Universal Synthesizer Interface, [9] en la feria Audio Engineering Society en octubre de 1981. [10] [11] : 4 El estándar fue discutido y modificado por representantes de Roland, Yamaha, Korg, Kawai y circuitos secuenciales. [5] [12] : 20 Kakehashi favoreció el nombre Universal Musical Interface (UMI), pronunciado tú-yo , [7] pero Smith sintió que esto era "un poco cursi". [13] Sin embargo, le gustó el uso de un instrumento en lugar de un sintetizador y propuso la interfaz digital para instrumentos musicales (MIDI). [13] [11] : 4 Robert Moog , presidente de Moog Music , anunció MIDI en la edición de octubre de 1982 de Keyboard . [14] : 276
En el Winter NAMM Show de 1983 , Smith demostró una conexión MIDI entre los sintetizadores Prophet 600 y Roland JP-6 . La especificación MIDI se publicó en agosto de 1983. [5] El estándar MIDI fue presentado por Kakehashi y Smith, quienes recibieron premios Grammy Técnicos en 2013 por su trabajo. [15] [16] [17] En 1983, se lanzaron los primeros instrumentos con MIDI, el Roland Jupiter-6 y el Prophet 600. En 1983, se lanzó la primera caja de ritmos MIDI , la Roland TR-909 , [18] [19 ] y se lanzó el primer secuenciador MIDI , el Roland MSQ-700. [20]
La Asociación de Fabricantes MIDI (MMA) se formó tras una reunión de "todas las empresas interesadas" en la Exposición NAMM de Verano de 1984 en Chicago. La especificación detallada MIDI 1.0 se publicó en la segunda reunión de la MMA en el Summer NAMM Show de 1985. El estándar siguió evolucionando, añadiendo archivos de canciones estandarizados en 1991 ( General MIDI ) y adaptándose a nuevos estándares de conexión como USB y FireWire . En 2016, se formó la Asociación MIDI para continuar supervisando el estándar. [8] En enero de 2019 se anunció una iniciativa para crear un estándar 2.0. [21] El estándar MIDI 2.0 se presentó en el Winter NAMM Show de 2020. [22]
La BBC citó al MIDI como uno de los primeros ejemplos de tecnología de código abierto . Smith creía que MIDI sólo podría tener éxito si todos los fabricantes lo adoptaran, por lo que "tuvimos que regalarlo". [23]
El atractivo del MIDI se limitó originalmente a músicos profesionales y productores de discos que querían utilizar instrumentos electrónicos en la producción de música popular . El estándar permitió que diferentes instrumentos se comunicaran entre sí y con las computadoras, lo que impulsó una rápida expansión de las ventas y producción de instrumentos electrónicos y software musical. [12] : 21 Esta interoperabilidad permitió que un dispositivo fuera controlado desde otro, lo que redujo la cantidad de hardware que necesitaban los músicos. [24] La introducción del MIDI coincidió con el amanecer de la era de las computadoras personales y la introducción de samplers y sintetizadores digitales . [25] Se atribuye a las posibilidades creativas generadas por la tecnología MIDI el mérito de ayudar a revivir la industria musical en la década de 1980. [26]
MIDI introdujo capacidades que transformaron la forma en que trabajan muchos músicos. La secuenciación MIDI hace posible que un usuario sin conocimientos de notación cree arreglos complejos. [27] Un acto musical con tan solo uno o dos miembros, cada uno de los cuales opera múltiples dispositivos habilitados para MIDI, puede ofrecer una interpretación similar a la de un grupo más grande de músicos. [28] El gasto de contratar músicos externos para un proyecto se puede reducir o eliminar, [2] : 7 y se pueden realizar producciones complejas en un sistema tan pequeño como un sintetizador con teclado y secuenciador integrados.
MIDI también ayudó a establecer la grabación casera . Al realizar la preproducción en un ambiente hogareño, un artista puede reducir los costos de grabación al llegar al estudio de grabación con una canción parcialmente terminada. [2] : 7–8 En 2022, The Guardian escribió que MIDI seguía siendo tan importante para la música como lo era el USB para la informática, y representaba "un sistema de valores crucial de cooperación y beneficio mutuo, prácticamente descartado por las principales empresas tecnológicas de hoy en día". favor de los mercados cautivos". En 2022, el diseño MIDI original de Smith todavía estaba en uso. [29]
MIDI se inventó para que los instrumentos musicales electrónicos o digitales pudieran comunicarse entre sí y para que un instrumento pudiera controlar a otro. Por ejemplo, un secuenciador compatible con MIDI puede activar ritmos producidos por un módulo de sonido de batería . Los sintetizadores analógicos que no tienen componentes digitales y que fueron construidos antes del desarrollo de MIDI pueden equiparse con kits que convierten mensajes MIDI en voltajes de control analógicos. [14] : 277 Cuando se toca una nota en un instrumento MIDI, se genera un mensaje MIDI digital que se puede utilizar para activar una nota en otro instrumento. [2] : 20 La capacidad de control remoto permite reemplazar instrumentos de tamaño completo con módulos de sonido más pequeños y permite a los músicos combinar instrumentos para lograr un sonido más completo o crear combinaciones de sonidos de instrumentos sintetizados, como piano acústico y cuerdas. . [30] MIDI también permite controlar de forma remota otros parámetros del instrumento (volumen, efectos, etc.).
Los sintetizadores y samplers contienen varias herramientas para dar forma a un sonido electrónico o digital. Los filtros ajustan el timbre y las envolventes automatizan la forma en que un sonido evoluciona con el tiempo después de que se activa una nota. [31] La frecuencia de un filtro y el ataque de envolvente (el tiempo que tarda un sonido en alcanzar su nivel máximo), son ejemplos de parámetros de sintetizador , y pueden controlarse de forma remota a través de MIDI. Los dispositivos de efectos tienen diferentes parámetros, como la retroalimentación de retardo o el tiempo de reverberación. Cuando se asigna un número de controlador continuo MIDI (CCN) a uno de estos parámetros, el dispositivo responde a cualquier mensaje que reciba identificado por ese número. Se pueden utilizar controles como perillas, interruptores y pedales para enviar estos mensajes. Se puede guardar un conjunto de parámetros ajustados en la memoria interna de un dispositivo como un parche , y estos parches se pueden seleccionar de forma remota mediante cambios de programa MIDI. [a] [32]
Los eventos MIDI se pueden secuenciar con software de computadora o en estaciones de trabajo musicales con hardware especializado . Muchas estaciones de trabajo de audio digital (DAW) están diseñadas específicamente para funcionar con MIDI como componente integral. Se han desarrollado rollos de piano MIDI en muchos DAW para que los mensajes MIDI grabados se puedan modificar fácilmente. [33] [ se necesita una mejor fuente ] Estas herramientas permiten a los compositores audicionar y editar su trabajo mucho más rápida y eficientemente que las soluciones más antiguas, como la grabación multipista . [ cita necesaria ] Se pueden programar composiciones para MIDI que son imposibles de tocar para intérpretes humanos. [34]
Debido a que una interpretación MIDI es una secuencia de comandos que crean sonido, las grabaciones MIDI se pueden manipular de maneras que las grabaciones de audio no pueden. Es posible cambiar la clave, la instrumentación o el tempo de un arreglo MIDI, [35] : 227 y reordenar sus secciones individuales, [36] o incluso editar notas individuales. La capacidad de componer ideas y escucharlas rápidamente permite a los compositores experimentar. [37] : 175
Los programas de composición algorítmica proporcionan interpretaciones generadas por computadora que pueden usarse como ideas de canciones o acompañamiento. [2] : 122
Algunos compositores pueden aprovechar el conjunto de comandos y parámetros estándar y portátiles en MIDI 1.0 y General MIDI (GM) para compartir archivos de datos musicales entre varios instrumentos electrónicos. Los datos compuestos a través de las grabaciones MIDI secuenciadas pueden guardarse como un archivo MIDI estándar (SMF), distribuirse digitalmente y reproducirse mediante cualquier computadora o instrumento electrónico que también cumpla con los mismos estándares MIDI, GM y SMF. Los archivos de datos MIDI son mucho más pequeños que los archivos de audio grabados correspondientes . [ cita necesaria ]
El mercado de las computadoras personales se estabilizó al mismo tiempo que apareció el MIDI y las computadoras se convirtieron en una opción viable para la producción musical. [14] : 324 En 1983, las computadoras comenzaron a desempeñar un papel en la producción musical convencional. [38] En los años inmediatamente posteriores a la ratificación de la especificación MIDI en 1983, las funciones MIDI se adaptaron a varias de las primeras plataformas informáticas. El Yamaha CX5M introdujo soporte y secuenciación MIDI en un sistema MSX en 1984. [39]
La difusión de MIDI en las computadoras domésticas fue facilitada en gran medida por la MPU-401 de Roland Corporation , lanzada en 1984, como la primera tarjeta de sonido equipada con MIDI , capaz de procesar sonido MIDI [40] y secuenciar. [41] [42] Después de que Roland vendió chips de sonido MPU a otros fabricantes de tarjetas de sonido, [40] estableció una interfaz estándar universal MIDI a PC. [43] La adopción generalizada de MIDI llevó al desarrollo de software MIDI basado en computadora . [38] Poco después, varias plataformas comenzaron a admitir MIDI, incluidas Apple II , Macintosh , Commodore 64 , Amiga , Acorn Archimedes e IBM PC compatibles . [14] : 325–7 El Atari ST de 1985 se envió con puertos MIDI como parte del sistema base.
En 2015, Retro Innovations lanzó la primera interfaz MIDI para un VIC-20 , poniendo las cuatro voces de la computadora a disposición de músicos electrónicos y entusiastas de la informática retro por primera vez. [44] Retro Innovations también fabrica un cartucho de interfaz MIDI para las computadoras Tandy Color Computer y Dragon . [45]
Los músicos de Chiptune también utilizan consolas de juegos retro para componer, producir e interpretar música utilizando interfaces MIDI. Hay interfaces personalizadas disponibles para Nintendo Entertainment System (NES)/Famicom, [46] Game Boy, [47] Game Boy Advance [48] y Sega Genesis (Mega Drive). [49]
Un archivo MIDI no es una grabación de audio. Más bien, es un conjunto de instrucciones (por ejemplo, para el tono o el tempo) y puede utilizar mil veces menos espacio en disco que el audio grabado equivalente. [50] [51] Debido a su pequeño tamaño de archivo, los arreglos MIDI hechos por fans se convirtieron en una forma atractiva de compartir música en línea, antes de la llegada del acceso a Internet de banda ancha y los discos duros de varios gigabytes. [52] El principal inconveniente de esto es la amplia variación en la calidad de las tarjetas de audio de los usuarios y en el audio real contenido como muestras o sonido sintetizado en la tarjeta al que los datos MIDI solo se refieren simbólicamente. Incluso una tarjeta de sonido que contiene sonidos muestreados de alta calidad puede tener una calidad inconsistente de un instrumento muestreado a otro. [50] Las primeras tarjetas de precio económico, como AdLib y Sound Blaster y sus compatibles, utilizaban una versión simplificada de la tecnología de síntesis de modulación de frecuencia (síntesis FM) de Yamaha [53] reproducida a través de conversión digital a digital de baja calidad. Convertidores analógicos. A menudo se suponía que la reproducción de baja fidelidad [50] de estas omnipresentes [53] tarjetas era de alguna manera una propiedad del propio MIDI. Esto creó una percepción de MIDI como audio de baja calidad, mientras que en realidad el MIDI en sí no contiene sonido, [54] y la calidad de su reproducción depende completamente de la calidad del dispositivo que produce el sonido. [35] : 227
El archivo MIDI estándar ( SMF ) es un formato de archivo que proporciona una forma estandarizada para guardar, transportar y abrir secuencias musicales en otros sistemas. El estándar fue desarrollado y mantenido por la MMA y generalmente utiliza una .mid
extensión. [56] El tamaño compacto de estos archivos llevó a su uso generalizado en computadoras, tonos de llamada de teléfonos móviles , creación de páginas web y tarjetas de felicitación musicales. Estos archivos están pensados para uso universal e incluyen información como valores de notas, tiempos y nombres de pistas. Las letras pueden incluirse como metadatos y pueden mostrarse en máquinas de karaoke . [57]
Los SMF se crean como un formato de exportación de secuenciadores de software o estaciones de trabajo de hardware. Organizan mensajes MIDI en una o más pistas paralelas y marcan el tiempo de los eventos para que puedan reproducirse en secuencia. Un encabezado contiene el recuento de pistas del arreglo, el tempo y un indicador de cuál de los tres formatos SMF utiliza el archivo. Un archivo de tipo 0 contiene la interpretación completa, fusionada en una sola pista, mientras que los archivos de tipo 1 pueden contener cualquier número de pistas que se ejecutan de forma sincrónica. Los archivos de tipo 2 rara vez se utilizan [58] y almacenan múltiples arreglos, cada uno de los cuales tiene su propia pista y está diseñado para reproducirse en secuencia.
Microsoft Windows incluye archivos SMF junto con sonidos descargables (DLS) en un contenedor de formato de archivo de intercambio de recursos (RIFF), como archivos RMID con una .rmi
extensión. RIFF-RMID ha quedado obsoleto en favor de los archivos de música extensibles ( XMF ). [59]
La principal ventaja de la computadora personal en un sistema MIDI es que puede cumplir varios propósitos diferentes, dependiendo del software que esté cargado. [2] : 55 La multitarea permite la operación simultánea de programas que pueden compartir datos entre sí. [2] : 65
El software de secuenciación permite manipular datos MIDI grabados utilizando funciones de edición estándar de computadora, como cortar, copiar y pegar y arrastrar y soltar . Se pueden utilizar atajos de teclado para optimizar el flujo de trabajo y, en algunos sistemas, los eventos MIDI pueden invocar funciones de edición. El secuenciador permite configurar cada canal para reproducir un sonido diferente y ofrece una descripción gráfica del arreglo. Se encuentran disponibles una variedad de herramientas de edición, incluida una pantalla de notación o un escritor de partituras que se puede utilizar para crear partes impresas para músicos. Herramientas como bucles , cuantificación , aleatorización y transposición simplifican el proceso de organización.
La creación de ritmos se simplifica y se pueden utilizar plantillas de ritmo para duplicar la sensación rítmica de otra pista. Se puede agregar expresión realista mediante la manipulación de controladores en tiempo real. Se pueden realizar mezclas y sincronizar MIDI con pistas de audio y vídeo grabadas. El trabajo se puede guardar y transportar entre diferentes computadoras o estudios. [60] [61] : 164–6
Los secuenciadores pueden adoptar formas alternativas, como editores de patrones de batería que permiten a los usuarios crear ritmos haciendo clic en cuadrículas de patrones, [2] : 118 y secuenciadores de bucles como ACID Pro , que permiten combinar MIDI con bucles de audio pregrabados cuyos tempos y claves están emparejados entre sí. La secuenciación de listas de señales se utiliza para activar diálogos, efectos de sonido y señales musicales en la producción escénica y televisiva. [2] : 121
Con MIDI, las notas tocadas en un teclado se pueden transcribir automáticamente a partituras . [12] : 213 El software de escritura de partituras normalmente carece de herramientas de secuenciación avanzadas y está optimizado para la creación de una impresión ordenada y profesional diseñada para instrumentistas en vivo. [61] : 157 Estos programas brindan soporte para dinámicas y marcas de expresión, visualización de acordes y letras, y estilos de partitura complejos. [61] : 167 Hay software disponible que puede imprimir partituras en braille . [62]
Los programas de notación incluyen Finale , Encore , Sibelius , MuseScore y Dorico . El software SmartScore puede producir archivos MIDI a partir de partituras escaneadas . [63]
Los editores de parches permiten a los usuarios programar sus equipos a través de la interfaz de la computadora. Estos se volvieron esenciales con la aparición de sintetizadores complejos como el Yamaha FS1R , [64] que contenía varios miles de parámetros programables, pero tenía una interfaz que constaba de quince pequeños botones, cuatro perillas y una pequeña pantalla LCD. [65] Los instrumentos digitales normalmente disuaden a los usuarios de experimentar, debido a su falta de retroalimentación y control directo que proporcionarían los interruptores y perillas, [66] : 393 pero los editores de parches brindan a los propietarios de instrumentos de hardware y dispositivos de efectos la misma funcionalidad de edición que disponible para los usuarios de sintetizadores de software. [67] Algunos editores están diseñados para un instrumento o dispositivo de efectos específico, mientras que otros editores universales admiten una variedad de equipos e idealmente pueden controlar los parámetros de cada dispositivo en una configuración mediante el uso de mensajes exclusivos del sistema. [2] : 129 mensajes exclusivos del sistema utilizan el protocolo MIDI para enviar información sobre los parámetros del sintetizador.
Los bibliotecarios de parches tienen la función especializada de organizar los sonidos en una colección de equipos e intercambiar bancos completos de sonidos entre un instrumento y una computadora. De esta manera, el almacenamiento limitado de parches del dispositivo se ve aumentado por la capacidad de disco mucho mayor de una computadora. [2] : 133 Una vez transferido a la computadora, es posible compartir parches personalizados con otros propietarios del mismo instrumento. [68] Los editores/bibliotecarios universales que combinan las dos funciones alguna vez fueron comunes e incluían Galaxy de Opcode Systems, SoundDiver de eMagic y Unisyn de MOTU. Aunque estos programas más antiguos han sido abandonados en gran medida con la tendencia hacia la síntesis basada en computadora utilizando instrumentos virtuales, varios editores/bibliotecarios siguen disponibles, incluido Coffeeshopped Patch Base, [69] Midi Quest de Sound Quest y varios editores de Sound Tower. Kore de Native Instruments fue un esfuerzo por llevar el concepto de editor/bibliotecario a la era de los instrumentos de software, [70] pero fue abandonado en 2011. [71]
Los programas que pueden generar dinámicamente pistas de acompañamiento se denominan programas de acompañamiento automático . Estos crean un arreglo de banda completa en un estilo que el usuario selecciona y envían el resultado a un dispositivo generador de sonido MIDI para su reproducción. Las pistas generadas se pueden utilizar como herramientas educativas o de práctica, como acompañamiento para presentaciones en vivo o como ayuda para escribir canciones. [72] : 42
Las computadoras pueden usar software para generar sonidos, que luego pasan a través de un convertidor de digital a analógico (DAC) a un amplificador de potencia y un sistema de altavoces. [12] : 213 La cantidad de sonidos que se pueden reproducir simultáneamente (la polifonía ) depende de la potencia de la CPU de la computadora , al igual que la frecuencia de muestreo y la profundidad de bits de reproducción, que afectan directamente la calidad del sonido. [73] Los sintetizadores implementados en software están sujetos a problemas de sincronización que no necesariamente están presentes con los instrumentos de hardware, cuyos sistemas operativos dedicados no están sujetos a interrupciones de tareas en segundo plano como lo están los sistemas operativos de escritorio . Estos problemas de sincronización pueden causar problemas de sincronización y clics y pops cuando se interrumpe la reproducción de la muestra. Los sintetizadores de software también pueden presentar latencia adicional en su generación de sonido. [74]
Las raíces de la síntesis de software se remontan a la década de 1950, cuando Max Mathews de Bell Labs escribió el lenguaje de programación MUSIC-N , que era capaz de generar sonido en tiempo no real. [75] Reality, de Seer Systems de Dave Smith , fue uno de los primeros sintetizadores que se ejecutaba directamente en la CPU de una computadora host. Reality logró una baja latencia mediante una estrecha integración de controladores y, por lo tanto, solo podía ejecutarse en tarjetas de sonido de Creative Labs . [76] [77] Alpha Syntauri de Syntauri Corporation fue otro de los primeros sintetizadores basados en software. Se ejecutó en la computadora Apple IIe y utilizó una combinación de software y hardware de la computadora para producir síntesis aditiva. [78] Algunos sistemas utilizan hardware dedicado para reducir la carga en la CPU host, como con el sistema Kyma de Symbolic Sound Corporation , [75] y los sistemas Creamware / Sonic Core Pulsar/SCOPE, [79] que alimentan todo un estudio de grabación. valor de instrumentos, unidades de efectos y mezcladores . [80] La capacidad de construir arreglos MIDI completos completamente en software de computadora permite al compositor representar un resultado final directamente como un archivo de audio. [30]
Los primeros juegos de PC se distribuían en disquetes y el pequeño tamaño de los archivos MIDI los convertía en un medio viable para proporcionar bandas sonoras. Los juegos de DOS y las primeras eras de Windows normalmente requerían compatibilidad con tarjetas de audio Ad Lib o Sound Blaster . Estas tarjetas utilizaban síntesis FM , que genera sonido mediante la modulación de ondas sinusoidales . John Chowning , el pionero de la técnica, teorizó que la tecnología sería capaz de recrear con precisión cualquier sonido si se usaran suficientes ondas sinusoidales , pero las tarjetas de audio de computadora económicas realizaban síntesis FM con solo dos ondas sinusoidales. Combinado con el audio de 8 bits de las tarjetas, esto dio como resultado un sonido descrito como "artificial" [81] y "primitivo". [82]
Las placas hijas Wavetable que estuvieron disponibles más tarde proporcionaron muestras de audio que podrían usarse en lugar del sonido FM. Eran caros, pero a menudo utilizaban sonidos de respetados instrumentos MIDI como el E-mu Proteus . [82] La industria informática avanzó a mediados de la década de 1990 hacia tarjetas de sonido basadas en tablas de ondas con reproducción de 16 bits, pero estandarizadas en 2 MB de almacenamiento de tabla de ondas, un espacio demasiado pequeño para colocar muestras de buena calidad de 128 instrumentos General MIDI. además de baterías. Para aprovechar al máximo el espacio limitado, algunos fabricantes almacenaron muestras de 12 bits y las ampliaron a 16 bits durante la reproducción. [83]
A pesar de su asociación con dispositivos musicales, MIDI puede controlar cualquier dispositivo electrónico o digital que pueda leer y procesar un comando MIDI. MIDI se ha adoptado como protocolo de control en varias aplicaciones no musicales. MIDI Show Control utiliza comandos MIDI para dirigir los sistemas de iluminación del escenario y activar eventos con señales en producciones teatrales. Los VJ y los tocadiscos lo utilizan para reproducir clips y sincronizar equipos, y los sistemas de grabación lo utilizan para sincronización y automatización . Apple Motion permite el control de los parámetros de animación a través de MIDI. El juego de disparos en primera persona de 1987 MIDI Maze y el juego de rompecabezas de computadora Atari ST de 1990 Oxyd utilizaron MIDI para conectar computadoras en red.
Según el estándar MIDI 1.0 original, los cables terminan en un conector DIN de cinco pines de 180° (DIN 41524). Las aplicaciones típicas utilizan sólo tres de los cinco conductores: un cable a tierra (pin 2) y un par de conductores balanceados (pins 4 y 5) que transportan la señal MIDI como una corriente eléctrica . [84] [72] : 41 Esta configuración de conector solo puede transportar mensajes en una dirección, por lo que es necesario un segundo cable para la comunicación bidireccional. [2] : 13 Algunas aplicaciones patentadas, como los controladores de interruptor de pedal con alimentación fantasma , utilizan pines de repuesto para la transmisión de energía de corriente continua (CC). [85]
Los optoaisladores mantienen los dispositivos MIDI separados eléctricamente de sus conexiones MIDI, lo que evita bucles de tierra [86] : 63 y protege el equipo de picos de voltaje. [14] : 277 No hay capacidad de detección de errores en MIDI, por lo que la longitud máxima del cable se establece en 15 metros (49 pies) para limitar la interferencia . [87]
Para ahorrar espacio, algunos dispositivos MIDI (en particular los más pequeños) comenzaron a utilizar conectores telefónicos TRS de 3,5 mm (también conocidos como conectores minijack de audio). [88] Esto se generalizó lo suficiente como para que la Asociación de Fabricantes de MIDI estandarizara el cableado. [89] El documento de estándares MIDI sobre minijack también recomienda el uso de conectores de 2,5 mm en lugar de 3,5 mm para evitar confusiones con los conectores de audio. [90]
La mayoría de los dispositivos no copian mensajes desde su entrada a su puerto de salida. Un tercer tipo de puerto, el puerto pasante , emite una copia de todo lo recibido en el puerto de entrada, lo que permite reenviar los datos a otro instrumento [14] : 278 en una disposición en cadena . [91] No todos los dispositivos cuentan con puertos pasantes, y los dispositivos que carecen de la capacidad de generar datos MIDI, como unidades de efectos y módulos de sonido, pueden no incluir puertos externos. [66] : 384
Cada dispositivo en una cadena tipo margarita agrega retraso al sistema. Esto se puede evitar utilizando una caja MIDI, que contiene varias salidas que proporcionan una copia exacta de la señal de entrada de la caja. Una fusión MIDI puede combinar la entrada de múltiples dispositivos en una sola secuencia y permite conectar múltiples controladores a un solo dispositivo. Un conmutador MIDI permite cambiar entre múltiples dispositivos y elimina la necesidad de volver a parchear físicamente los cables. Los enrutadores MIDI combinan todas estas funciones. Contienen múltiples entradas y salidas y permiten enrutar cualquier combinación de canales de entrada a cualquier combinación de canales de salida. Las configuraciones de enrutamiento se pueden crear usando software de computadora, almacenarse en la memoria y seleccionarse mediante comandos de cambio de programa MIDI. [2] : 47–50 Esto permite que los dispositivos funcionen como enrutadores MIDI independientes en situaciones donde no hay una computadora presente. [2] : 62–3 [92] Los procesadores de datos MIDI se utilizan para tareas de utilidad y efectos especiales. Estos incluyen filtros MIDI, que eliminan datos MIDI no deseados de la transmisión, y retardos MIDI, efectos que envían una copia repetida de los datos de entrada en un momento determinado. [2] : 51
La función principal de una interfaz MIDI de computadora es sincronizar las comunicaciones entre el dispositivo MIDI y la computadora. [91] Algunas tarjetas de sonido de computadora incluyen un conector MIDI estándar, mientras que otras se conectan por cualquiera de varios medios que incluyen el puerto de juego D-subminiatura DA-15 , USB , FireWire , Ethernet o una conexión propietaria. El uso cada vez mayor de conectores USB en la década de 2000 ha llevado a la disponibilidad de interfaces de datos MIDI a USB que pueden transferir canales MIDI a computadoras equipadas con USB. Algunos controladores de teclado MIDI están equipados con conectores USB y se pueden conectar directamente a computadoras que ejecutan software de música.
La transmisión en serie de MIDI provoca problemas de sincronización. Un mensaje MIDI de tres bytes requiere casi 1 milisegundo para su transmisión. [93] Debido a que MIDI es en serie, solo puede enviar un evento a la vez. Si un evento se envía en dos canales a la vez, el evento en el segundo canal no se puede transmitir hasta que finalice el primero y, por lo tanto, se retrasa 1 ms. Si se envía un evento en todos los canales al mismo tiempo, la transmisión del último canal se retrasa hasta 16 ms. Esto contribuyó al surgimiento de interfaces MIDI con múltiples puertos de entrada y salida, porque la sincronización mejora cuando los eventos se distribuyen entre múltiples puertos en lugar de múltiples canales en el mismo puerto. [74] El término pendiente MIDI se refiere a errores de sincronización audibles que se producen cuando se retrasa la transmisión MIDI. [94]
Hay dos tipos de controladores MIDI: controladores de interpretación que generan notas y se utilizan para interpretar música, [95] y controladores que pueden no enviar notas, pero sí transmitir otros tipos de eventos en tiempo real. Muchos dispositivos son una combinación de los dos tipos.
Los teclados son, con diferencia, el tipo más común de controlador MIDI. [68] MIDI fue diseñado teniendo en cuenta los teclados, y cualquier controlador que no sea un teclado se considera un controlador "alternativo". [96] Esto fue visto como una limitación por los compositores que no estaban interesados en la música basada en teclados, pero el estándar resultó flexible y se introdujo la compatibilidad MIDI con otros tipos de controladores, incluidas guitarras y otros instrumentos de cuerda, controladores de batería y instrumentos de viento. controladores , que emulan la ejecución de baterías e instrumentos de viento, respectivamente, y controladores especializados y experimentales. [12] : 23 Sin embargo, algunas características del teclado para las cuales se diseñó MIDI no capturan completamente las capacidades de otros instrumentos; Jaron Lanier cita la norma como un ejemplo de "bloqueo" tecnológico que inesperadamente limitó lo que era posible expresar. [97] Algunas de estas deficiencias se han abordado en extensiones del protocolo.
Los sintetizadores de software ofrecen gran potencia y versatilidad, pero algunos músicos sienten que la división de la atención entre un teclado MIDI y un teclado y mouse de computadora le quita algo de inmediatez a la experiencia de interpretación. [98] Los dispositivos dedicados al control MIDI en tiempo real brindan un beneficio ergonómico y pueden proporcionar una mayor sensación de conexión con el instrumento que una interfaz a la que se accede a través de una computadora. Los controladores pueden ser dispositivos de uso general diseñados para funcionar con una variedad de equipos o pueden estar diseñados para funcionar con una pieza de software específica. Ejemplos de este último incluyen el controlador APC40 de Akai para Ableton Live y el controlador MS-20ic de Korg, una reproducción del panel de control de su sintetizador analógico MS-20 . El controlador MS-20ic incluye cables de conexión que se pueden utilizar para controlar el enrutamiento de señales en su reproducción virtual del sintetizador MS-20 y también pueden controlar dispositivos de terceros. [99]
Un instrumento MIDI contiene puertos para enviar y recibir señales MIDI, una CPU para procesar esas señales, una interfaz que permite la programación del usuario, circuitos de audio para generar sonido y controladores. El sistema operativo y los sonidos de fábrica suelen almacenarse en una unidad de memoria de sólo lectura (ROM). [2] : 67–70
Un instrumento MIDI también puede ser un módulo independiente (sin un teclado estilo piano) que consta de una caja de resonancia General MIDI (GM, GS y XG), edición integrada, que incluye transposición, selección de instrumentos MIDI y ajuste de volumen, panorama y niveles de reverberación. y otros controladores MIDI. Normalmente, el módulo MIDI incluye una pantalla para que el usuario pueda ver información de la función actualmente seleccionada.
Los sintetizadores pueden emplear cualquiera de una variedad de técnicas de generación de sonido. Pueden incluir un teclado integrado o pueden existir como módulos de sonido que generan sonidos cuando son activados por un controlador externo, como un teclado MIDI. Los módulos de sonido suelen estar diseñados para montarse en un rack de 19 pulgadas . [2] : 70–72 Los fabricantes suelen producir un sintetizador en versiones independientes y montadas en bastidor y, a menudo, ofrecen la versión con teclado en una variedad de tamaños.
Un muestreador puede grabar y digitalizar audio, almacenarlo en una memoria de acceso aleatorio (RAM) y reproducirlo. Los samplers normalmente permiten al usuario editar una muestra y guardarla en un disco duro, aplicarle efectos y darle forma con las mismas herramientas que utilizan los sintetizadores sustractivos . También pueden estar disponibles en forma de teclado o montados en bastidor. [2] : 74–8 Los instrumentos que generan sonidos a través de la reproducción de muestras, pero que no tienen capacidades de grabación, se conocen como " ROMplers ".
Los samplers no se establecieron como instrumentos MIDI viables tan rápido como lo hicieron los sintetizadores, debido al gasto de memoria y potencia de procesamiento en ese momento. [14] : 295 El primer muestreador MIDI de bajo costo fue el Ensoniq Mirage , introducido en 1984. [14] : 304 Los muestreadores MIDI generalmente están limitados por pantallas que son demasiado pequeñas para editar formas de onda muestreadas, aunque algunas se pueden conectar a un monitor de computadora. [14] : 305
Las cajas de ritmos suelen ser dispositivos de reproducción de muestras que se especializan en sonidos de batería y percusión. Por lo general, contienen un secuenciador que permite la creación de patrones de batería y permite organizarlos en una canción. A menudo hay varias salidas de audio, de modo que cada sonido o grupo de sonidos se puede enrutar a una salida independiente. Las voces de batería individuales se pueden reproducir desde otro instrumento MIDI o desde un secuenciador. [2] : 84
La tecnología del secuenciador es anterior al MIDI. Los secuenciadores analógicos utilizan señales CV/Gate para controlar sintetizadores analógicos pre-MIDI. Los secuenciadores MIDI normalmente funcionan mediante funciones de transporte modeladas a partir de las de las pletinas de cinta . Son capaces de grabar interpretaciones MIDI y organizarlas en pistas individuales utilizando un paradigma de grabación multipista . Las estaciones de trabajo musicales combinan teclados controladores con una generación de sonido interna y un secuenciador. Estos se pueden utilizar para crear arreglos completos y reproducirlos utilizando sus propios sonidos internos, y funcionar como estudios de producción musical autónomos. Por lo general, incluyen capacidades de transferencia y almacenamiento de archivos. [2] : 103–4
Algunas unidades de efectos se pueden controlar de forma remota mediante MIDI. Por ejemplo, el Ultra-harmonizer Eventide H3000 permite un control MIDI tan extenso que se puede reproducir como un sintetizador. [14] : 322 El Drum Buddy , una caja de ritmos con formato de pedal , tiene una conexión MIDI para que pueda sincronizar su tempo con un pedal looper o efectos basados en el tiempo como el retardo.
Los mensajes MIDI se componen de bytes de 8 bits transmitidos a 31 250 [b] (±1 %) baudios mediante comunicación en serie asíncrona 8-N-1 , como se describe en la figura. El primer bit de cada byte identifica si el byte es un byte de estado o un byte de datos , y va seguido de siete bits de información. [2] : 13-14
Un enlace MIDI puede transportar dieciséis canales independientes, numerados del 1 al 16. Un dispositivo puede escuchar canales específicos e ignorar mensajes en otros canales ( modo omni apagado ), o puede escuchar todos los canales, ignorando efectivamente la dirección del canal ( omni encendido ).
Un dispositivo polifónico puede hacer sonar varias notas simultáneamente, hasta que se alcance el límite de polifonía del dispositivo, o las notas alcancen el final de su envolvente de caída , o se reciban comandos MIDI explícitos de desactivación de notas . En cambio , un dispositivo que es monofónico finaliza cualquier nota anterior cuando llegan nuevos comandos de activación de notas .
Algunos dispositivos receptores pueden configurarse en las cuatro combinaciones de modos omni apagado/encendido y mono/poli . [2] : 14-18
Un mensaje MIDI es una instrucción que controla algún aspecto del dispositivo receptor. Un mensaje MIDI consta de un byte de estado, que indica el tipo de mensaje, seguido de hasta dos bytes de datos que contienen los parámetros. [35] Los mensajes MIDI pueden ser mensajes de canal enviados solo en uno de los 16 canales y monitoreados solo por dispositivos en ese canal, o mensajes del sistema que reciben todos los dispositivos. Cada dispositivo receptor ignora datos que no son relevantes para su función. [66] : 384 Hay cinco tipos de mensajes: Voz de canal, Modo de canal, Común del sistema, Tiempo real del sistema y Exclusivo del sistema. [101]
Los mensajes de Channel Voice transmiten datos de rendimiento en tiempo real a través de un solo canal. Los ejemplos incluyen mensajes de nota que contienen un número de nota MIDI que especifica el tono de la nota, un valor de velocidad que indica con qué fuerza se tocó la nota y el número de canal; mensajes de nota final que finalizan una nota; mensajes de cambio de programa que cambian el parche de un dispositivo; y cambios de control que permiten el ajuste de los parámetros de un instrumento. Las notas MIDI están numeradas del 0 al 127 asignadas de C −1 a G 9 . Esto se extiende más allá del rango de piano de 88 notas de La 0 a C 8 y corresponde a un rango de frecuencia de 8,175799 a 12543,85 Hz. [C]
Los mensajes System Exclusive ( SysEx ) envían información sobre las funciones de un sintetizador, en lugar de datos de interpretación, como qué notas se están tocando y a qué volumen. Debido a que pueden incluir funcionalidades más allá de lo que proporciona el estándar MIDI, son una razón importante para la flexibilidad y longevidad del estándar MIDI. Los fabricantes los utilizan para crear mensajes propietarios que controlan sus equipos de forma más exhaustiva que las limitaciones de los mensajes MIDI estándar. [14] : 287
La Asociación de Fabricantes de MIDI emite un número de identificación único para las empresas de MIDI. [102] Estos se incluyen en los mensajes SysEx, para garantizar que solo el dispositivo dirigido específicamente responda al mensaje, mientras que todos los demás sepan que deben ignorarlo. Muchos instrumentos también incluyen una configuración de ID SysEx, por lo que un controlador puede direccionar dos dispositivos del mismo modelo de forma independiente. [103]
Los mensajes exclusivos del sistema universal son una clase especial de mensajes SysEx que se utilizan para extensiones de MIDI que no pretenden ser exclusivas de un fabricante. [104]
Los dispositivos normalmente no responden a todos los tipos de mensajes definidos por la especificación MIDI. La tabla de implementación MIDI fue estandarizada por la MMA como una forma para que los usuarios vean qué capacidades específicas tiene un instrumento y cómo responde a los mensajes. [2] : 231 Generalmente se publica un cuadro de implementación MIDI completo como parte de la documentación de los dispositivos MIDI.
La interfaz eléctrica de MIDI 1.0 se basa en un bucle de corriente completamente aislado [100] a lo largo de las líneas roja y azul en el siguiente esquema :
"DIN/TRS" en este esquema indica que se puede utilizar un conector DIN [d] o un conector telefónico TRS [e] . [105] [106]
Para transmitir un 0 lógico y un bit de inicio, el UART [f] del remitente produce un voltaje bajo. Esto da como resultado un flujo de corriente nominal de 5 miliamperios [100] proveniente del suministro de alto voltaje del remitente, [g] que viaja hacia la derecha a lo largo de las líneas rojas a través del cable de par trenzado blindado [ h] y hacia el optoaislador del receptor. La corriente sale del optoaislador y regresa hacia la izquierda a lo largo de las líneas azules hacia el UART del remitente, que absorbe la corriente. [i] Las resistencias R1 y R2 limitan la corriente y son iguales para proporcionar una impedancia equilibrada . El diodo es para protección. [108] Esta corriente enciende el LED [j] del optoaislador y el fototransistor , por lo que el UART del receptor puede leer la señal con la ayuda de la resistencia pull-up R3 al suministro de voltaje del receptor. Si bien los suministros en la especificación original son de 5 voltios , el receptor y el remitente pueden usar diferentes niveles de voltaje.
Para transmitir un 1 lógico, un bit de parada y mientras está inactivo, el UART del remitente produce el mismo alto voltaje que proporciona su suministro de voltaje , lo que resulta en que no haya flujo de corriente. Esto evita el desperdicio de energía cuando está inactivo.
La flexibilidad y la adopción generalizada del MIDI han llevado a muchas mejoras del estándar y han permitido su aplicación para fines más allá de aquellos para los que fue diseñado originalmente.
MIDI permite la selección de los sonidos de un instrumento a través de mensajes de cambio de programa, pero no hay garantía de que dos instrumentos tengan el mismo sonido en una ubicación de programa determinada. [109] El programa #0 puede ser un piano en un instrumento o una flauta en otro. El estándar General MIDI (GM) se estableció en 1991 y proporciona un banco de sonido estandarizado que permite que un archivo MIDI estándar creado en un dispositivo suene similar cuando se reproduce en otro. GM especifica un banco de 128 sonidos organizados en 16 familias de ocho instrumentos relacionados y asigna un número de programa específico a cada instrumento. [110] Cualquier cambio de programa seleccionado selecciona el mismo sonido de instrumento en cualquier instrumento compatible con GM. [111] Los instrumentos de percusión se colocan en el canal 10 y se asigna un valor de nota MIDI específico a cada sonido de percusión.
El estándar GM elimina la variación en el mapeo de notas. Algunos fabricantes no habían estado de acuerdo sobre qué número de nota debería representar el do central, pero GM especifica que la nota número 69 reproduce A440 , lo que a su vez fija el do central como nota número 60.
Los dispositivos compatibles con GM deben ofrecer polifonía de 24 notas. [112] Se requiere que los dispositivos compatibles con GM respondan a la velocidad, el aftertouch y la inflexión del tono, que se establezcan en valores predeterminados especificados al inicio y que admitan ciertos números de controlador, como el pedal de sostenido y los números de parámetros registrados. [113]
Una versión simplificada de GM, llamada GM Lite , se utiliza para dispositivos con potencia de procesamiento limitada. [109] [114]
Rápidamente se formó la opinión general de que el conjunto de sonidos de 128 instrumentos de GM no era lo suficientemente grande. El estándar general de Roland, o Roland GS , incluía sonidos, kits de batería y efectos adicionales, proporcionaba un comando de selección de banco que podía usarse para acceder a ellos y usaba números de parámetros no registrados MIDI (NRPN) para acceder a sus nuevas funciones. El MIDI General Extendido de Yamaha, o Yamaha XG , siguió en 1994. XG también ofrecía sonidos, kits de batería y efectos adicionales, pero usaba controladores estándar en lugar de NRPN para la edición y aumentó la polifonía a 32 voces. Ambos estándares presentan compatibilidad con versiones anteriores de la especificación GM, pero no son compatibles entre sí. [115] Ninguno de los estándares ha sido adoptado más allá de su creador, pero ambos son comúnmente compatibles con títulos de software musical.
Las empresas miembros de AMEI de Japón desarrollaron la especificación General MIDI Nivel 2 en 1999. GM2 mantiene la compatibilidad con GM, pero aumenta la polifonía a 32 voces, estandariza varios números de controlador, como sostenuto y pedal suave ( una corda ), RPN y sistema universal exclusivo. Mensajes, e incorpora el estándar de afinación MIDI. [116] GM2 es la base del mecanismo de selección de instrumentos en Scalable Polyphony MIDI (SP-MIDI), una variante MIDI para dispositivos de baja potencia que permite que la polifonía del dispositivo escale de acuerdo con su potencia de procesamiento. [109]
La mayoría de los sintetizadores MIDI utilizan una afinación de temperamento igual . El estándar de afinación MIDI (MTS), ratificado en 1992, permite afinaciones alternativas. [117] MTS permite microafinaciones que se pueden cargar desde un banco de hasta 128 parches y permite el ajuste en tiempo real de los tonos de las notas. [118] Los fabricantes no están obligados a respaldar la norma. Aquellos que lo hacen no están obligados a implementar todas sus funciones. [117]
Un secuenciador puede controlar un sistema MIDI con su reloj interno, pero cuando un sistema contiene varios secuenciadores, deben sincronizarse con un reloj común. MIDI Time Code (MTC), desarrollado por Digidesign , [119] implementa mensajes SysEx [120] que han sido desarrollados específicamente con fines de temporización y es capaz de traducir hacia y desde el estándar de código de tiempo SMPTE . [14] : 288 El reloj MIDI se basa en el tempo, pero el código de tiempo SMPTE se basa en fotogramas por segundo y es independiente del tempo. El MTC, al igual que el código SMPTE, incluye información de posición y puede ajustarse solo si se pierde un pulso de sincronización. [121] Las interfaces MIDI como el reloj MIDI de Mark of the Unicorn pueden convertir código SMPTE a MTC. [122]
MIDI Machine Control (MMC) consta de un conjunto de comandos SysEx [123] que operan los controles de transporte de los dispositivos de grabación de hardware. MMC permite que un secuenciador envíe comandos Iniciar , Detener y Grabar a una platina de cinta conectada o a un sistema de grabación en disco duro, y adelantar o rebobinar el dispositivo para que comience la reproducción en el mismo punto que el secuenciador. No intervienen datos de sincronización, aunque los dispositivos pueden sincronizarse a través de MTC. [124]
MIDI Show Control (MSC) es un conjunto de comandos SysEx para secuenciar y activar de forma remota dispositivos de control de espectáculos, como iluminación, reproducción de música y sonido, y sistemas de control de movimiento . [126] Las aplicaciones incluyen producciones teatrales, exhibiciones de museos, sistemas de control de estudios de grabación y atracciones de parques de diversiones . [125]
Una solución a los problemas de temporización MIDI es marcar los eventos MIDI con las horas en que se van a reproducir y almacenarlos en un buffer en la interfaz MIDI con anticipación. El envío de datos de antemano reduce la probabilidad de que un pasaje ocupado pueda enviar una gran cantidad de información que abrume el enlace de transmisión. Una vez almacenada en la interfaz, la información ya no está sujeta a problemas de sincronización asociados con la fluctuación del USB y las interrupciones del sistema operativo de la computadora, y puede transmitirse con un alto grado de precisión. [127] La marca de tiempo MIDI solo funciona cuando tanto el hardware como el software lo admiten. MTS de MOTU, AMT de eMagic y Midex 8 de Steinberg tenían implementaciones que eran incompatibles entre sí y requerían que los usuarios poseyeran software y hardware fabricados por la misma empresa para funcionar. [74] La marca de tiempo está integrada en las interfaces FireWire MIDI, [128] Mac OS X Core Audio y Linux ALSA Sequencer.
Una capacidad imprevista de los mensajes SysEx fue su uso para transportar muestras de audio entre instrumentos. Esto llevó al desarrollo del estándar de volcado de muestras (SDS), que estableció un nuevo formato SysEx para la transmisión de muestras. [14] : 287 Posteriormente, el SDS se amplió con un par de comandos que permiten la transmisión de información sobre los puntos del bucle de muestra, sin necesidad de transmitir toda la muestra. [129]
La especificación Downloadable Sounds (DLS), ratificada en 1997, permite a los dispositivos móviles y a las tarjetas de sonido de ordenadores ampliar sus tablas de ondas con conjuntos de sonidos descargables. [130] La especificación DLS Nivel 2 siguió en 2006 y definió una arquitectura de sintetizador estandarizada. El estándar Mobile DLS exige que los bancos DLS se combinen con SP-MIDI, como archivos Mobile XMF independientes. [131]
La expresión polifónica MIDI (MPE) es un método de uso de MIDI que permite ajustar continuamente la inflexión del tono y otras dimensiones del control expresivo para notas individuales. [132] MPE funciona asignando cada nota a su propio canal MIDI para que se puedan aplicar mensajes particulares a cada nota individualmente. [133] [132] Las especificaciones fueron publicadas en noviembre de 2017 por AMEI y en enero de 2018 por MMA. [134] Instrumentos como Continuum Fingerboard , LinnStrument , ROLI Seaboard , Sensel Morph y Eigenharp permiten a los usuarios controlar el tono, el timbre y otros matices de notas individuales dentro de los acordes. [135]
Además de utilizar un bucle de corriente de 31,25 kbit/s a través de un DIN o TRS de 5 pines , los mismos datos se pueden transmitir a través de diferentes transportes de hardware, como USB , IEEE 1394 (también conocido como FireWire ) y Ethernet .
Los miembros de USB-IF desarrollaron en 1999 un estándar para MIDI a través de USB, la "Definición de clase de dispositivo de bus serie universal para dispositivos MIDI". [136] MIDI sobre USB se ha vuelto cada vez más común a medida que otras interfaces que se habían utilizado para conexiones MIDI (serie, joystick, etc.) desaparecieron de las computadoras personales. Los sistemas operativos Linux, Microsoft Windows, Macintosh OS X y Apple iOS incluyen controladores de clase estándar para admitir dispositivos que utilizan la "Definición de clase de dispositivo de bus serie universal para dispositivos MIDI". Algunos fabricantes optan por implementar una interfaz MIDI a través de USB que está diseñada para funcionar de manera diferente a la especificación de clase, utilizando controladores personalizados.
Apple Computer desarrolló la interfaz FireWire durante la década de 1990. Comenzó a aparecer en cámaras de vídeo digitales hacia finales de la década y en modelos Macintosh G3 en 1999. [137] Fue creado para su uso con aplicaciones multimedia. [128] A diferencia de USB, FireWire utiliza controladores inteligentes que pueden gestionar su propia transmisión sin la atención de la CPU principal. [138] Al igual que con los dispositivos MIDI estándar, los dispositivos FireWire pueden comunicarse entre sí sin que haya una computadora presente. [139]
El sintetizador Octave-Plateau Voyetra-8 fue una de las primeras implementaciones MIDI que utilizaba conectores XLR3 en lugar del DIN de 5 pines . Fue lanzado en los años anteriores al MIDI y luego se actualizó con una interfaz MIDI pero manteniendo su conector XLR. [140]
A medida que las configuraciones de estudio basadas en computadora se volvieron comunes, estuvieron disponibles dispositivos MIDI que podían conectarse directamente a una computadora. Por lo general, usaban el conector mini-DIN de 8 pines que Apple usaba para los puertos serie antes de la introducción de los modelos G3 azul y blanco . Las interfaces MIDI destinadas a ser utilizadas como pieza central de un estudio, como el Mark of the Unicorn MIDI Time Piece, fueron posibles gracias a un modo de transmisión "rápido" que podía aprovechar la capacidad de estos puertos serie para operar a 20 veces el estándar. Velocidad midi. [2] : 62–3 [139] Los puertos mini-DIN se incorporaron en algunos instrumentos MIDI de finales de la década de 1990 y permitieron que dichos dispositivos se conectaran directamente a una computadora. [141] Algunos dispositivos se conectan a través del puerto paralelo DB-25 de las PC o mediante el puerto para joystick que se encuentra en muchas tarjetas de sonido de PC. [139]
Yamaha introdujo el protocolo mLAN en 1999. Fue concebido como una red de área local para instrumentos musicales que utilizaban FireWire como transporte y fue diseñado para transportar múltiples canales MIDI junto con audio digital multicanal, transferencias de archivos de datos y código de tiempo. [137] [138] mLan se utilizó en varios productos de Yamaha, en particular consolas de mezclas digitales y el sintetizador Motif , y en productos de terceros como PreSonus FIREstation y Korg Triton Studio . [142] No se han lanzado nuevos productos mLan desde 2007.
La interfaz de dispositivo MIDI SCSI (SMDI) fue utilizada por algunos samplers y grabadores de disco duro en la década de 1990 (por ejemplo, Kurzweil K2000 y Peavey SP Sample Playback Synthesizer [143] ) para un rápido transporte bidireccional de muestras a unidades de disco duro y unidades magneto-ópticas . [144] [145]
Las implementaciones de MIDI en redes informáticas proporcionan capacidades de enrutamiento de red y el canal de gran ancho de banda que pretendían ofrecer las alternativas anteriores al MIDI, como ZIPI . Han existido implementaciones patentadas desde la década de 1980, algunas de las cuales utilizan cables de fibra óptica para la transmisión. [2] : 53–4 La especificación abierta RTP-MIDI del Internet Engineering Task Force ha obtenido el apoyo de la industria. Apple ha admitido este protocolo desde Mac OS X 10.4 en adelante y existe un controlador de Windows basado en la implementación de Apple para Windows XP y versiones más recientes. [146]
Los sistemas para la transmisión MIDI inalámbrica existen desde los años 1980. [2] : 44 Varios transmisores disponibles comercialmente permiten la transmisión inalámbrica de señales MIDI y OSC a través de Wi-Fi y Bluetooth . [147] Los dispositivos iOS pueden funcionar como superficies de control MIDI, utilizando Wi-Fi y OSC. [148] Se puede utilizar una radio XBee para construir un transceptor MIDI inalámbrico como un proyecto de bricolaje. [149] Los dispositivos Android pueden funcionar como superficies de control MIDI completas utilizando varios protocolos diferentes a través de Wi-Fi y Bluetooth . [150]
El estándar MIDI 2.0 se presentó el 17 de enero de 2020 en el Winter NAMM Show en Anaheim, California. Los representantes Yamaha, Roli , Microsoft, Google y la Asociación MIDI presentaron la actualización, [151] que permite la comunicación bidireccional manteniendo la compatibilidad con versiones anteriores. [152]
La investigación sobre el nuevo protocolo comenzó en 2005. [54] [153] [154] Los dispositivos prototipo que muestran conexiones cableadas e inalámbricas se exhibieron de forma privada en NAMM. [153] Se han desarrollado políticas de licencia y certificación de productos, [155] aunque no se anunció una fecha de lanzamiento prevista. [156] La capa física y la capa de transporte propuestas incluían protocolos basados en Ethernet , como RTP MIDI y puente de audio y vídeo / redes sensibles al tiempo , [139] así como transporte basado en el protocolo de datagramas de usuario (UDP). [154]
AMEI y MMA anunciaron que se publicarán las especificaciones completas luego de las pruebas de interoperabilidad de implementaciones de prototipos de los principales fabricantes como Google , Yamaha , Steinberg , Roland , Ableton , Native Instruments y ROLI , entre otros. [21] [134] [157] En enero de 2020, Roland anunció el teclado controlador A-88mkII que admite MIDI 2.0. [158]
MIDI 2.0 incluye la especificación MIDI Capability Inquiry para intercambio de propiedades y perfiles, y el nuevo formato Universal MIDI Packet para transportes de alta velocidad que admite mensajes de voz MIDI 1.0 y MIDI 2.0.
Algunos dispositivos que funcionan con MIDI 1.0 pueden "adaptar" algunas funciones de 2.0. Desde su lanzamiento a principios de enero de 2020 por parte de la Asociación de Fabricantes de MIDI, aún no han aparecido más detalles sobre la nueva actualización. Actualmente existen cinco componentes para MIDI como son; M2-100-U v1.0 Descripción general de la especificación MIDI 2.0, M2-101-UM v1.1 Especificación MIDI-CI, M2-102-U v1.0 Reglas comunes para perfiles MIDI-CI, M2-103-UM v1.0 Reglas comunes para MIDI-CI PE y M2-104-UM v1.0 UMP y especificación de protocolo MIDI 2.0. Otras especificaciones relacionadas con MIDI 2.0 incluyen; permitiendo el uso de 32.000 controladores y mejoras de notas de amplio rango. Estas mejoras se mejoran a través del intercambio de propiedades. [159]
El intercambio de propiedades en MIDI 2.0 utiliza JSON o notación de objetos JavaScript. Esto proporciona un formato legible por humanos para intercambiar conjuntos de datos. Al hacerlo, esto abre una amplia gama de capacidades para MIDI 2.0. JSON permite que cualquier dispositivo conectado, ya sea un teclado, un piano o cualquier otro dispositivo eléctrico, describa lo que está haciendo y lo que puede hacer en lugar de que la persona que lo opera cambie su configuración cada vez que opera un nuevo dispositivo. Por ejemplo, un teclado MIDI que está conectado a un dispositivo iOS con configuraciones MIDI específicas ahora se puede conectar a un dispositivo Windows y no es necesario cambiar su configuración manualmente. Cualquier componente musical utilizado en un dispositivo se conservará y podrá modificarse automáticamente en otro. [159]
La consulta de capacidad MIDI (MIDI-CI) especifica mensajes SysEx universales para implementar perfiles de dispositivos, intercambio de parámetros y negociación de protocolos MIDI. [134] Las especificaciones fueron publicadas en noviembre de 2017 por AMEI y en enero de 2018 por MMA.
El intercambio de parámetros define métodos para consultar las capacidades del dispositivo, como controladores compatibles, nombres de parches, perfiles de instrumentos, configuración del dispositivo y otros metadatos, y para obtener o establecer ajustes de configuración del dispositivo. El intercambio de propiedades utiliza mensajes exclusivos del sistema que transportan datos en formato JSON . Los perfiles definen conjuntos comunes de controladores MIDI para varios tipos de instrumentos, como órganos de barra y sintetizadores analógicos, o para tareas particulares, mejorando la interoperabilidad entre instrumentos de diferentes fabricantes. La negociación de protocolo permite que los dispositivos empleen el protocolo de próxima generación o protocolos específicos del fabricante. [157]
MIDI 2.0 define un nuevo formato de paquete MIDI universal, que contiene mensajes de longitud variable (32, 64, 96 o 128 bits) según el tipo de carga útil. Este nuevo formato de paquete admite un total de 256 canales MIDI, organizados en 16 grupos de 16 canales; cada grupo puede transportar una secuencia de protocolo MIDI 1.0 o una nueva secuencia de protocolo MIDI 2.0, y también puede incluir mensajes del sistema, datos exclusivos del sistema y marcas de tiempo para una representación precisa de varias notas simultáneas. Para simplificar la adopción inicial, a los productos existentes se les permite explícitamente implementar solo mensajes MIDI 1.0. El paquete MIDI universal está diseñado para transporte de alta velocidad, como USB y Ethernet, y no es compatible con las conexiones DIN de 5 pines existentes. [157] Los mensajes System Real-Time y System Common son los mismos que se definen en MIDI 1.0. [157]
A partir de enero de 2019, el borrador de la especificación del nuevo protocolo admite todos los mensajes principales que también existen en MIDI 1.0, pero amplía su precisión y resolución; también define muchos mensajes nuevos de controlador de alta precisión. [157] La especificación define reglas de traducción predeterminadas para convertir entre mensajes de voz de canal MIDI 2.0 y voz de canal MIDI 1.0 que utilizan diferentes resoluciones de datos, así como asignar 256 transmisiones MIDI 2.0 a 16 transmisiones MIDI 1.0. [160] [161]
Los mensajes System Exclusive 8 utilizan un nuevo formato de datos de 8 bits, basado en los mensajes Universal System Exclusive. Los mensajes de conjuntos de datos mixtos están destinados a transferir grandes conjuntos de datos. Los mensajes System Exclusive 7 utilizan el formato de datos de 7 bits anterior. [157]
{{cite web}}
: CS1 maint: multiple names: authors list (link)También se especificó originalmente un Tipo 2, pero nunca se popularizó