stringtranslate.com

MIDI

Logotipo MIDI de la Asociación de Fabricantes MIDI
Ejemplo de música creada en formato MIDI
Varios sintetizadores montados en rack que comparten un único controlador
Con el uso de MIDI, un único controlador (a menudo un teclado musical, como el que se muestra en la imagen) puede reproducir varios instrumentos electrónicos, lo que aumenta la portabilidad y la flexibilidad de las configuraciones en el escenario. Este sistema cabe en un solo rack, pero antes de la llegada del MIDI, habría requerido cuatro instrumentos de teclado de tamaño completo independientes, además de unidades de mezcla y efectos externas .

MIDI ( / ˈmɪd i / ; Interfaz digital de instrumentos musicales ) es un estándar técnico que describe un protocolo de comunicación , una interfaz digital y conectores eléctricos que conectan una amplia variedad de instrumentos musicales electrónicos , computadoras y dispositivos de audio relacionados para reproducir , editar y grabar música. [1]

Un solo cable MIDI puede transportar hasta dieciséis canales de datos MIDI, cada uno de los cuales puede enrutarse a un dispositivo independiente. Cada interacción con una tecla, botón, perilla o deslizador se convierte en un evento MIDI, que especifica instrucciones musicales, como el tono , el tiempo y el volumen de una nota . Una aplicación MIDI común es tocar un teclado MIDI u otro controlador y usarlo para activar un módulo de sonido digital (que contiene sonidos musicales sintetizados) para generar sonidos, que la audiencia escucha producidos por un amplificador de teclado . Los datos MIDI se pueden transferir a través de un cable MIDI o USB , o grabarse en un secuenciador o estación de trabajo de audio digital para editarlos o reproducirlos. [2]

MIDI también define un formato de archivo que almacena e intercambia los datos. Las ventajas de MIDI incluyen un tamaño de archivo pequeño , facilidad de modificación y manipulación y una amplia selección de instrumentos electrónicos y sonidos sintetizados o muestreados digitalmente . [3] : 4  Una grabación MIDI de una interpretación en un teclado podría sonar como un piano u otro instrumento de teclado; sin embargo, dado que MIDI graba los mensajes y la información sobre sus notas y no los sonidos específicos, esta grabación podría cambiarse a muchos otros sonidos, que van desde una guitarra o flauta sintetizada o muestreada hasta una orquesta completa.

Antes del desarrollo del MIDI, los instrumentos musicales electrónicos de distintos fabricantes no podían comunicarse entre sí, por lo que un músico no podía, por ejemplo, conectar un teclado Roland a un módulo sintetizador Yamaha. Con el MIDI, cualquier teclado (u otro dispositivo controlador) compatible con MIDI se puede conectar a cualquier otro secuenciador, módulo de sonido, caja de ritmos , sintetizador u ordenador compatible con MIDI, incluso si son de distintos fabricantes.

La tecnología MIDI fue estandarizada en 1983 por un panel de representantes de la industria musical y es mantenida por la Asociación de Fabricantes MIDI (MMA). Todos los estándares MIDI oficiales son desarrollados y publicados conjuntamente por la MMA en Los Ángeles y el Comité MIDI de la Asociación de la Industria de Electrónica Musical (AMEI) en Tokio. En 2016, la MMA estableció la Asociación MIDI (TMA) para apoyar a una comunidad global de personas que trabajan, tocan o crean con MIDI. [4]

Historia

A principios de la década de 1980, no existían medios estandarizados para sincronizar instrumentos musicales electrónicos fabricados por diferentes compañías. [5] Los fabricantes tenían sus propios estándares propietarios para sincronizar instrumentos, como CV/gate , DIN sync y Digital Control Bus (DCB). [6] Ikutaro Kakehashi , el presidente de Roland , sintió que la falta de estandarización estaba limitando el crecimiento de la industria de la música electrónica. [6] En junio de 1981, propuso desarrollar un estándar al fundador de Oberheim Electronics , Tom Oberheim , [5] quien había desarrollado su propia interfaz propietaria, el Oberheim System. [7]

Kakehashi sintió que el sistema Oberheim era demasiado engorroso y habló con Dave Smith , el presidente de Sequential Circuits , sobre la creación de una alternativa más simple y económica. [7] Mientras Smith discutía el concepto con empresas estadounidenses, Kakehashi lo discutía con las empresas japonesas Yamaha , Korg y Kawai . [5] Los representantes de todas las empresas se reunieron para discutir la idea en octubre. [5] Inicialmente, solo Sequential Circuits y las empresas japonesas estaban interesadas. [8]

Dave Smith (derecha), uno de los creadores de MIDI

Utilizando el DCB de Roland como base, [6] Smith y el ingeniero de circuitos secuenciales Chet Wood idearon una interfaz universal para permitir la comunicación entre equipos de diferentes fabricantes. Smith y Wood propusieron este estándar en un artículo, Universal Synthesizer Interface, [9] en la muestra de la Audio Engineering Society en octubre de 1981. [10] [11] : 4  El estándar fue discutido y modificado por representantes de Roland, Yamaha, Korg, Kawai y Sequential Circuits. [5] [12] : 20  Kakehashi favoreció el nombre Universal Musical Interface (UMI), pronunciado you-me , [7] pero Smith sintió que esto era "un poco cursi". [13] Sin embargo, le gustaba el uso de instrumento en lugar de sintetizador , y propuso la Interfaz Digital de Instrumentos Musicales (MIDI). [13] [11] : 4  Robert Moog , el presidente de Moog Music , anunció MIDI en la edición de octubre de 1982 de Keyboard . [14] : 276 

En el Winter NAMM Show de 1983 , Smith demostró una conexión MIDI entre los sintetizadores Prophet 600 y Roland JP-6 . La especificación MIDI se publicó en agosto de 1983. [5] El estándar MIDI fue presentado por Kakehashi y Smith, quienes recibieron premios Grammy Técnicos en 2013 por su trabajo. [15] [16] [17] En 1983, se lanzaron los primeros instrumentos con MIDI, el Roland Jupiter-6 y el Prophet 600. En 1983, se lanzaron la primera caja de ritmos MIDI , la Roland TR-909 , [18] [19] y el primer secuenciador MIDI , el Roland MSQ-700. [20]

La Asociación de Fabricantes MIDI (MMA) se formó tras una reunión de "todas las empresas interesadas" en el NAMM Show de verano de 1984 en Chicago. La Especificación Detallada MIDI 1.0 se publicó en la segunda reunión de la MMA en el NAMM Show de verano de 1985. El estándar continuó evolucionando, agregando archivos de canciones estandarizados en 1991 ( General MIDI ) y adaptándose a nuevos estándares de conexión como USB y FireWire . En 2016, se formó la Asociación MIDI para continuar supervisando el estándar. [8] En enero de 2019 se anunció una iniciativa para crear un estándar 2.0. [21] El estándar MIDI 2.0 se presentó en el NAMM Show de invierno de 2020. [22]

La BBC citó a MIDI como un ejemplo temprano de tecnología de código abierto . Smith creía que MIDI sólo podría tener éxito si todos los fabricantes lo adoptaban, por lo que "tuvimos que regalarlo". [23]

Impacto

El atractivo de MIDI se limitaba originalmente a los músicos profesionales y productores de discos que querían utilizar instrumentos electrónicos en la producción de música popular . El estándar permitía que diferentes instrumentos se comunicaran entre sí y con las computadoras, y esto estimuló una rápida expansión de las ventas y la producción de instrumentos electrónicos y software musical. [12] : 21  Esta interoperabilidad permitió que un dispositivo se controlara desde otro, lo que redujo la cantidad de hardware que necesitaban los músicos. [24] La introducción de MIDI coincidió con el amanecer de la era de la computadora personal y la introducción de samplers y sintetizadores digitales . [25] Las posibilidades creativas que trajo consigo la tecnología MIDI se atribuyen a ayudar a revivir la industria de la música en la década de 1980. [26]

MIDI introdujo capacidades que transformaron la forma en que trabajan muchos músicos. La secuenciación MIDI permite que un usuario sin habilidades de notación construya arreglos complejos. [27] Un acto musical con tan solo uno o dos miembros, cada uno operando múltiples dispositivos habilitados para MIDI, puede ofrecer una actuación similar a la de un grupo más grande de músicos. [28] El gasto de contratar músicos externos para un proyecto se puede reducir o eliminar, [2] : 7  y se pueden realizar producciones complejas en un sistema tan pequeño como un sintetizador con teclado y secuenciador integrados.

MIDI también ayudó a establecer la grabación en casa . Al realizar la preproducción en un entorno doméstico, un artista puede reducir los costos de grabación al llegar a un estudio de grabación con una canción parcialmente terminada. [2] : 7–8  En 2022, The Guardian escribió que MIDI seguía siendo tan importante para la música como USB para la informática y representaba "un sistema de valores crucial de cooperación y beneficio mutuo, uno que las principales empresas tecnológicas de la actualidad prácticamente han desechado en favor de mercados cautivos". En 2022, el diseño MIDI original de Smith todavía estaba en uso. [29]

Aplicaciones

Control de instrumentos

MIDI se inventó para que los instrumentos musicales electrónicos o digitales pudieran comunicarse entre sí y para que un instrumento pudiera controlar a otro. Por ejemplo, un secuenciador compatible con MIDI puede activar ritmos producidos por un módulo de sonido de batería . Los sintetizadores analógicos que no tienen componentes digitales y fueron construidos antes del desarrollo de MIDI pueden ser equipados con kits que convierten los mensajes MIDI en voltajes de control analógicos. [14] : 277  Cuando se toca una nota en un instrumento MIDI, genera un mensaje MIDI digital que puede usarse para activar una nota en otro instrumento. [2] : 20  La capacidad de control remoto permite reemplazar instrumentos de tamaño completo con módulos de sonido más pequeños y permite a los músicos combinar instrumentos para lograr un sonido más completo o crear combinaciones de sonidos de instrumentos sintetizados, como piano acústico y cuerdas. [30] MIDI también permite controlar de forma remota otros parámetros del instrumento (volumen, efectos, etc.).

Los sintetizadores y samplers contienen varias herramientas para dar forma a un sonido electrónico o digital. Los filtros ajustan el timbre y las envolventes automatizan la forma en que un sonido evoluciona con el tiempo después de que se dispara una nota. [31] La frecuencia de un filtro y el ataque de la envolvente (el tiempo que tarda un sonido en alcanzar su nivel máximo), son ejemplos de parámetros de sintetizador , y se pueden controlar de forma remota a través de MIDI. Los dispositivos de efectos tienen diferentes parámetros, como la retroalimentación de retardo o el tiempo de reverberación. Cuando se asigna un número de controlador continuo MIDI (CCN) a uno de estos parámetros, el dispositivo responde a cualquier mensaje que reciba que se identifique con ese número. Se pueden usar controles como perillas, interruptores y pedales para enviar estos mensajes. Se puede guardar un conjunto de parámetros ajustados en la memoria interna de un dispositivo como un parche , y estos parches se pueden seleccionar de forma remota mediante cambios de programa MIDI. [a] [32]

Composición

Los eventos MIDI se pueden secuenciar con software de computadora o en estaciones de trabajo de música de hardware especializadas . Muchas estaciones de trabajo de audio digital (DAW) están diseñadas específicamente para trabajar con MIDI como un componente integral. Se han desarrollado rollos de piano MIDI en muchas DAW para que los mensajes MIDI grabados se puedan modificar fácilmente. [33] [ mejor fuente necesaria ] Estas herramientas permiten a los compositores audicionar y editar su trabajo mucho más rápido y eficientemente que las soluciones anteriores, como la grabación multipista . [ cita requerida ] Se pueden programar composiciones para MIDI que son imposibles de tocar para los intérpretes humanos. [34]

Dado que una interpretación MIDI es una secuencia de comandos que crean sonido, las grabaciones MIDI se pueden manipular de maneras que no se pueden hacer con las grabaciones de audio. Es posible cambiar la tonalidad, la instrumentación o el tempo de un arreglo MIDI, [35] : 227  y reordenar sus secciones individuales, [36] o incluso editar notas individuales. La capacidad de componer ideas y escucharlas rápidamente permite a los compositores experimentar. [37] : 175 

Los programas de composición algorítmica proporcionan interpretaciones generadas por computadora que pueden usarse como ideas para canciones o acompañamiento. [2] : 122 

Algunos compositores pueden aprovechar el conjunto portátil y estándar de comandos y parámetros de MIDI 1.0 y General MIDI (GM) para compartir archivos de datos musicales entre varios instrumentos electrónicos. Los datos compuestos a través de grabaciones MIDI secuenciadas se pueden guardar como un archivo MIDI estándar (SMF), distribuir digitalmente y reproducir mediante cualquier computadora o instrumento electrónico que también se adhiera a los mismos estándares MIDI, GM y SMF. Los archivos de datos MIDI son mucho más pequeños que los archivos de audio grabados correspondientes . [ cita requerida ]

Uso con ordenadores

El mercado de las computadoras personales se estabilizó al mismo tiempo que apareció el MIDI, y las computadoras se convirtieron en una opción viable para la producción musical. [14] : 324  En 1983, las computadoras comenzaron a desempeñar un papel en la producción musical convencional. [38] En los años inmediatamente posteriores a la ratificación de la especificación MIDI en 1983, las características MIDI se adaptaron a varias plataformas informáticas tempranas. El Yamaha CX5M introdujo el soporte y la secuenciación MIDI en un sistema MSX en 1984. [39]

La difusión de MIDI en ordenadores domésticos fue facilitada en gran medida por la MPU-401 de Roland Corporation , lanzada en 1984, como la primera tarjeta de sonido equipada con MIDI , capaz de procesar sonido MIDI [40] y secuenciarlo. [41] [42] Después de que Roland vendiera chips de sonido MPU a otros fabricantes de tarjetas de sonido, [40] estableció una interfaz MIDI a PC estándar universal. [43] La adopción generalizada de MIDI condujo al desarrollo de software MIDI basado en ordenador. [38] Poco después, varias plataformas comenzaron a soportar MIDI, incluyendo Apple II , Macintosh , Commodore 64 , Amiga , Acorn Archimedes y compatibles con IBM PC . [14] : 325–7  El Atari ST de 1985 se envió con puertos MIDI como parte del sistema base.

En 2015, Retro Innovations lanzó la primera interfaz MIDI para un VIC-20 , poniendo a disposición de músicos electrónicos y entusiastas de la informática retro por primera vez las cuatro voces de la computadora. [44] Retro Innovations también fabrica un cartucho de interfaz MIDI para las computadoras Tandy Color Computer y Dragon . [45]

Los músicos de chiptune también utilizan consolas de juegos retro para componer, producir e interpretar música mediante interfaces MIDI. Hay interfaces personalizadas disponibles para Nintendo Entertainment System (NES)/Famicom, [46] Game Boy, [47] Game Boy Advance [48] y Sega Genesis (Mega Drive). [49]

Archivos de computadora

Los archivos MIDI contienen eventos de sonido, como un dedo tocando una tecla, que pueden visualizarse utilizando software como Synthesia .

Un archivo MIDI no es una grabación de audio, sino un conjunto de instrucciones (por ejemplo, para el tono o el tempo) y puede utilizar mil veces menos espacio en disco que el audio grabado equivalente. [50] [51] Debido a su pequeño tamaño de archivo, los arreglos MIDI hechos por fans se convirtieron en una forma atractiva de compartir música en línea, antes de la llegada del acceso a Internet de banda ancha y los discos duros de varios gigabytes. [52] El principal inconveniente de esto es la amplia variación en la calidad de las tarjetas de audio de los usuarios y en el audio real contenido como muestras o sonido sintetizado en la tarjeta al que los datos MIDI solo hacen referencia simbólicamente. Incluso una tarjeta de sonido que contiene sonidos muestreados de alta calidad puede tener una calidad inconsistente de un instrumento muestreado a otro. [50] Las primeras tarjetas de precio económico, como AdLib y Sound Blaster y sus compatibles, utilizaban una versión simplificada de la tecnología de síntesis de modulación de frecuencia (síntesis FM) de Yamaha [53] reproducida a través de convertidores digital-analógicos de baja calidad. La reproducción de baja fidelidad [50] de estas omnipresentes [53] tarjetas se solía considerar una propiedad del propio MIDI, lo que creó una percepción del MIDI como audio de baja calidad, mientras que en realidad el MIDI en sí no contiene sonido [54] y la calidad de su reproducción depende completamente de la calidad del dispositivo que produce el sonido. [35] : 227 

Archivos estándar

El archivo MIDI estándar ( SMF ) es un formato de archivo que proporciona una forma estandarizada de guardar, transportar y abrir secuencias de música en otros sistemas. El estándar fue desarrollado y es mantenido por la MMA, y generalmente utiliza una .midextensión. [56] El tamaño compacto de estos archivos llevó a su uso generalizado en computadoras, tonos de llamada de teléfonos móviles , creación de páginas web y tarjetas de felicitación musicales. Estos archivos están destinados a un uso universal e incluyen información como valores de notas, tiempo y nombres de pistas. Las letras se pueden incluir como metadatos y se pueden mostrar en máquinas de karaoke . [57]

Los archivos SMF se crean como un formato de exportación de secuenciadores de software o estaciones de trabajo de hardware. Organizan los mensajes MIDI en una o más pistas paralelas y marcan la hora de los eventos para que se puedan reproducir en secuencia. Un encabezado contiene el número de pistas del arreglo, el tempo y un indicador de cuál de los tres formatos SMF utiliza el archivo. Un archivo de tipo 0 contiene la interpretación completa, fusionada en una sola pista, mientras que los archivos de tipo 1 pueden contener cualquier número de pistas que se interpretan de forma sincrónica. Los archivos de tipo 2 rara vez se utilizan [58] y almacenan múltiples arreglos, cada uno con su propia pista y destinado a reproducirse en secuencia.

Archivos RMID

Microsoft Windows agrupa los archivos SMF junto con los sonidos descargables (DLS) en un contenedor de formato de archivo de intercambio de recursos (RIFF), como archivos RMID con una .rmiextensión. RIFF-RMID ha quedado obsoleto en favor de los archivos de música extensibles ( XMF ). [59]

Software

La principal ventaja de la computadora personal en un sistema MIDI es que puede servir para varios propósitos diferentes, dependiendo del software que esté cargado. [2] : 55  La multitarea permite el funcionamiento simultáneo de programas que pueden compartir datos entre sí. [2] : 65 

Secuenciadores

El software de secuenciación permite manipular los datos MIDI grabados mediante funciones de edición informáticas estándar, como cortar, copiar y pegar , y arrastrar y soltar . Se pueden utilizar atajos de teclado para agilizar el flujo de trabajo y, en algunos sistemas, las funciones de edición pueden ser invocadas por eventos MIDI. El secuenciador permite configurar cada canal para reproducir un sonido diferente y ofrece una descripción gráfica del arreglo. Se dispone de una variedad de herramientas de edición, incluida una pantalla de notación o un escritor de partituras que se puede utilizar para crear partes impresas para los músicos. Herramientas como el bucle , la cuantificación , la aleatorización y la transposición simplifican el proceso de arreglo.

La creación de ritmos se simplifica y se pueden usar plantillas de groove para duplicar la sensación rítmica de otra pista. Se puede agregar expresión realista mediante la manipulación de controladores en tiempo real. Se puede realizar la mezcla y sincronizar MIDI con pistas de audio y video grabadas. El trabajo se puede guardar y transportar entre diferentes computadoras o estudios. [60] [61] : 164–6 

Los secuenciadores pueden adoptar formas alternativas, como editores de patrones de batería que permiten a los usuarios crear ritmos haciendo clic en cuadrículas de patrones, [2] : 118  y secuenciadores de bucles como ACID Pro , que permiten combinar MIDI con bucles de audio pregrabados cuyos tempos y claves coinciden entre sí. La secuenciación de listas de referencia se utiliza para activar diálogos, efectos de sonido y pistas musicales en producciones de escenario y transmisión. [2] : 121 

Software de notación

Con MIDI, las notas tocadas en un teclado pueden transcribirse automáticamente a partituras . [12] : 213  El software de escritura de partituras generalmente carece de herramientas de secuenciación avanzadas y está optimizado para la creación de una impresión ordenada y profesional diseñada para instrumentistas en vivo. [61] : 157  Estos programas brindan soporte para marcas de dinámica y expresión, visualización de acordes y letras y estilos de partitura complejos. [61] : 167  Hay software disponible que puede imprimir partituras en braille . [62]

Los programas de notación incluyen Finale , Encore , Sibelius , MuseScore y Dorico . El software SmartScore puede producir archivos MIDI a partir de partituras escaneadas . [63]

Editores y bibliotecarios

Los editores de parches permiten a los usuarios programar sus equipos a través de la interfaz de la computadora. Estos se volvieron esenciales con la aparición de sintetizadores complejos como el Yamaha FS1R , [64] que contenía varios miles de parámetros programables, pero tenía una interfaz que consistía en quince botones diminutos, cuatro perillas y una pequeña pantalla LCD. [65] Los instrumentos digitales generalmente desalientan a los usuarios de la experimentación, debido a su falta de retroalimentación y control directo que proporcionarían los interruptores y las perillas, [66] : 393  pero los editores de parches brindan a los propietarios de instrumentos de hardware y dispositivos de efectos la misma funcionalidad de edición que está disponible para los usuarios de sintetizadores de software. [67] Algunos editores están diseñados para un instrumento o dispositivo de efectos específico, mientras que otros editores universales admiten una variedad de equipos e idealmente pueden controlar los parámetros de cada dispositivo en una configuración mediante el uso de mensajes exclusivos del sistema. [2] : 129  Los mensajes exclusivos del sistema usan el protocolo MIDI para enviar información sobre los parámetros del sintetizador.

Los bibliotecarios de parches tienen la función especializada de organizar los sonidos en una colección de equipos e intercambiar bancos completos de sonidos entre un instrumento y una computadora. De esta manera, el almacenamiento de parches limitado del dispositivo se ve aumentado por la capacidad de disco mucho mayor de una computadora. [2] : 133  Una vez transferidos a la computadora, es posible compartir parches personalizados con otros propietarios del mismo instrumento. [68] Los editores/bibliotecarios universales que combinan las dos funciones alguna vez fueron comunes, e incluían Galaxy de Opcode Systems, SoundDiver de eMagic y Unisyn de MOTU. Aunque estos programas más antiguos han sido abandonados en gran medida con la tendencia hacia la síntesis basada en computadora utilizando instrumentos virtuales, varios editores/bibliotecarios siguen disponibles, incluyendo Patch Base de Coffeeshop, [69] Midi Quest de Sound Quest y varios editores de Sound Tower. Kore de Native Instruments fue un esfuerzo por llevar el concepto de editor/bibliotecario a la era de los instrumentos de software, [70] pero fue abandonado en 2011. [71]

Programas de acompañamiento automático

Los programas que pueden generar pistas de acompañamiento de forma dinámica se denominan programas de acompañamiento automático . Estos crean un arreglo de banda completa en un estilo que el usuario selecciona y envían el resultado a un dispositivo generador de sonido MIDI para su reproducción. Las pistas generadas se pueden utilizar como herramientas educativas o de práctica, como acompañamiento para presentaciones en vivo o como ayuda para la composición de canciones. [72] : 42 

Síntesis y muestreo

Las computadoras pueden usar software para generar sonidos, que luego pasan a través de un convertidor digital a analógico (DAC) a un amplificador de potencia y un sistema de altavoces. [12] : 213  La cantidad de sonidos que se pueden reproducir simultáneamente (la polifonía ) depende de la potencia de la CPU de la computadora , al igual que la frecuencia de muestreo y la profundidad de bits de reproducción, que afectan directamente la calidad del sonido. [73] Los sintetizadores implementados en software están sujetos a problemas de sincronización que no están necesariamente presentes en los instrumentos de hardware, cuyos sistemas operativos dedicados no están sujetos a interrupciones de tareas en segundo plano como lo están los sistemas operativos de escritorio . Estos problemas de sincronización pueden causar problemas de sincronización y clics y estallidos cuando se interrumpe la reproducción de la muestra. Los sintetizadores de software también pueden exhibir latencia adicional en su generación de sonido. [74]

Las raíces de la síntesis de software se remontan a la década de 1950, cuando Max Mathews de Bell Labs escribió el lenguaje de programación MUSIC-N , que era capaz de generar sonido en tiempo no real. [75] Reality, de Seer Systems de Dave Smith, fue uno de los primeros sintetizadores que se ejecutaba directamente en la CPU de un ordenador anfitrión. Reality logró una baja latencia mediante una estrecha integración del controlador y, por lo tanto, solo podía ejecutarse en tarjetas de sonido Creative Labs . [76] [77] Alpha Syntauri de Syntauri Corporation fue otro de los primeros sintetizadores basados ​​en software. Se ejecutaba en el ordenador Apple IIe y utilizaba una combinación de software y el hardware del ordenador para producir síntesis aditiva. [78] Algunos sistemas utilizan hardware dedicado para reducir la carga en la CPU del host, como con el sistema Kyma de Symbolic Sound Corporation , [75] y los sistemas Pulsar/SCOPE de Creamware / Sonic Core , [79] que alimentan los instrumentos, unidades de efectos y mezcladores de un estudio de grabación completo . [80] La capacidad de construir arreglos MIDI completos enteramente en software de computadora permite a un compositor reproducir un resultado final directamente como un archivo de audio. [30]

Música del juego

Los primeros juegos de PC se distribuían en disquetes, y el pequeño tamaño de los archivos MIDI los convertía en un medio viable para proporcionar bandas sonoras. Los juegos de las eras DOS y Windows tempranos normalmente requerían compatibilidad con tarjetas de audio Ad Lib o Sound Blaster . Estas tarjetas usaban síntesis FM , que genera sonido a través de la modulación de ondas sinusoidales . John Chowning , el pionero de la técnica, teorizó que la tecnología sería capaz de recrear con precisión cualquier sonido si se usaban suficientes ondas sinusoidales , pero las tarjetas de audio de computadora económicas realizaban síntesis FM con solo dos ondas sinusoidales. Combinado con el audio de 8 bits de las tarjetas, esto resultó en un sonido descrito como "artificial" [81] y "primitivo". [82]

Las placas hijas de tabla de ondas que estuvieron disponibles posteriormente proporcionaban muestras de audio que podían utilizarse en lugar del sonido FM. Eran caras, pero a menudo utilizaban los sonidos de instrumentos MIDI respetados, como el E-mu Proteus . [82] A mediados de los años 90, la industria informática se inclinó hacia las tarjetas de sonido basadas en tabla de ondas con reproducción de 16 bits, pero estandarizadas en un almacenamiento de tabla de ondas de 2 MB, un espacio demasiado pequeño para que cupieran muestras de buena calidad de 128 instrumentos General MIDI más kits de batería. Para aprovechar al máximo el espacio limitado, algunos fabricantes almacenaron muestras de 12 bits y las ampliaron a 16 bits durante la reproducción. [83]

Otras aplicaciones

A pesar de su asociación con dispositivos musicales, MIDI puede controlar cualquier dispositivo electrónico o digital que pueda leer y procesar un comando MIDI. MIDI se ha adoptado como protocolo de control en varias aplicaciones no musicales. MIDI Show Control utiliza comandos MIDI para dirigir sistemas de iluminación de escenario y para activar eventos programados en producciones teatrales. Los VJ y los turntablistas lo utilizan para programar clips y sincronizar equipos, y los sistemas de grabación lo utilizan para sincronización y automatización . Apple Motion permite el control de parámetros de animación a través de MIDI. El juego de disparos en primera persona de 1987 MIDI Maze y el juego de rompecabezas para computadora Atari ST de 1990 Oxyd utilizaron MIDI para conectar computadoras en red.

Dispositivos

Conectores e interfaz

Conector DIN

Según el estándar MIDI 1.0 original, los cables terminan en un conector DIN de cinco pines de 180° (DIN 41524). Las aplicaciones típicas utilizan solo tres de los cinco conductores: un cable de tierra (pin 2) y un par de conductores balanceados (pines 4 y 5) que transportan la señal MIDI como corriente eléctrica . [84] [72] : 41  Esta configuración de conector solo puede transportar mensajes en una dirección, por lo que es necesario un segundo cable para la comunicación bidireccional. [2] : 13  Algunas aplicaciones propietarias, como los controladores de pedal con alimentación fantasma , utilizan los pines libres para la transmisión de energía de corriente continua (CC). [85]

Los optoaisladores mantienen los dispositivos MIDI separados eléctricamente de sus conexiones MIDI, lo que evita bucles de tierra [86] : 63  y protege el equipo de picos de voltaje. [14] : 277  No hay capacidad de detección de errores en MIDI, por lo que la longitud máxima del cable se establece en 15 metros (49 pies) para limitar la interferencia . [87]

Conector minijack TRS

Para ahorrar espacio, algunos dispositivos MIDI (en particular los más pequeños) comenzaron a utilizar conectores telefónicos TRS de 3,5 mm (también conocidos como conectores de audio minijack). [88] Esto se generalizó lo suficiente como para que la Asociación de Fabricantes MIDI estandarizara el cableado. [89] El documento de estándares MIDI sobre minijack también recomienda el uso de conectores de 2,5 mm en lugar de los de 3,5 mm para evitar confusiones con los conectores de audio. [90]

A través del puerto

La mayoría de los dispositivos no copian mensajes desde su puerto de entrada a su puerto de salida. Un tercer tipo de puerto, el puerto de transferencia , emite una copia de todo lo que se recibe en el puerto de entrada, lo que permite que los datos se envíen a otro instrumento [14] : 278  en una disposición en cadena . [91] No todos los dispositivos cuentan con puertos de transferencia, y los dispositivos que carecen de la capacidad de generar datos MIDI, como unidades de efectos y módulos de sonido, pueden no incluir puertos de salida. [66] : 384 

Dispositivos de gestión

Cada dispositivo en una cadena de margaritas añade retardo al sistema. Esto se puede evitar utilizando un MIDI thru box, que contiene varias salidas que proporcionan una copia exacta de la señal de entrada del box. Un fusionador MIDI puede combinar la entrada de múltiples dispositivos en una sola secuencia y permite que varios controladores se conecten a un solo dispositivo. Un conmutador MIDI permite cambiar entre múltiples dispositivos y elimina la necesidad de volver a conectar físicamente los cables. Los enrutadores MIDI combinan todas estas funciones. Contienen múltiples entradas y salidas, y permiten que cualquier combinación de canales de entrada se enrute a cualquier combinación de canales de salida. Las configuraciones de enrutamiento se pueden crear utilizando software de computadora, almacenar en la memoria y seleccionar mediante comandos de cambio de programa MIDI. [2] : 47–50  Esto permite que los dispositivos funcionen como enrutadores MIDI independientes en situaciones en las que no hay una computadora presente. [2] : 62–3  [92] Los procesadores de datos MIDI se utilizan para tareas de utilidad y efectos especiales. Estos incluyen filtros MIDI, que eliminan datos MIDI no deseados de la transmisión, y retrasos MIDI, efectos que envían una copia repetida de los datos de entrada en un tiempo establecido. [2] : 51 

Interfaces

La función principal de una interfaz MIDI de computadora es sincronizar las comunicaciones entre el dispositivo MIDI y la computadora. [91] Algunas tarjetas de sonido de computadora incluyen un conector MIDI estándar, mientras que otras se conectan por varios medios que incluyen el puerto de juego D-sub DA-15 , USB , FireWire , Ethernet o una conexión propietaria. El uso creciente de conectores USB en la década de 2000 ha llevado a la disponibilidad de interfaces de datos MIDI a USB que pueden transferir canales MIDI a computadoras equipadas con USB. Algunos controladores de teclado MIDI están equipados con conectores USB y se pueden conectar directamente a computadoras que ejecutan software de música.

La transmisión en serie de MIDI genera problemas de sincronización. Un mensaje MIDI de tres bytes requiere casi 1 milisegundo para su transmisión. [93] Debido a que MIDI es serial, solo puede enviar un evento a la vez. Si se envía un evento en dos canales a la vez, el evento en el segundo canal no puede transmitirse hasta que finalice el primero, y por lo tanto se retrasa 1 ms. Si se envía un evento en todos los canales al mismo tiempo, la transmisión del último canal se retrasa hasta 16 ms. Esto contribuyó al surgimiento de interfaces MIDI con múltiples puertos de entrada y salida, porque la sincronización mejora cuando los eventos se distribuyen entre múltiples puertos en lugar de múltiples canales en el mismo puerto. [74] El término MIDI slop se refiere a errores de sincronización audibles que resultan cuando se retrasa la transmisión MIDI. [94]

Controladores

Un controlador MIDI de dos octavas Novation Remote 25
Los controladores MIDI más pequeños son populares debido a su portabilidad. Esta unidad de dos octavas proporciona una variedad de controles para manipular diversos parámetros de diseño de sonido de instrumentos, efectos, mezcladores y dispositivos de grabación independientes o basados ​​en computadora.

Existen dos tipos de controladores MIDI: controladores de interpretación que generan notas y se utilizan para interpretar música [95] y controladores que no pueden enviar notas, pero sí transmitir otros tipos de eventos en tiempo real. Muchos dispositivos son una combinación de los dos tipos.

Los teclados son, con diferencia, el tipo más común de controlador MIDI. [68] MIDI se diseñó teniendo en cuenta los teclados, y cualquier controlador que no sea un teclado se considera un controlador "alternativo". [96] Esto fue visto como una limitación por los compositores que no estaban interesados ​​en la música basada en teclados, pero el estándar demostró ser flexible y se introdujo la compatibilidad MIDI con otros tipos de controladores, incluidas las guitarras y otros instrumentos de cuerda y los controladores de batería y de viento , que emulan la ejecución de la batería y los instrumentos de viento, respectivamente, y controladores especializados y experimentales. [12] : 23  Sin embargo, algunas características de la ejecución del teclado para las que se diseñó MIDI no capturan por completo las capacidades de otros instrumentos; Jaron Lanier cita el estándar como un ejemplo de "bloqueo" tecnológico que inesperadamente limitó lo que era posible expresar. [97] Algunas de estas deficiencias se han abordado en extensiones del protocolo.

Los sintetizadores de software ofrecen gran potencia y versatilidad, pero algunos músicos sienten que la división de la atención entre un teclado MIDI y un teclado y ratón de ordenador le quita algo de inmediatez a la experiencia de interpretación. [98] Los dispositivos dedicados al control MIDI en tiempo real proporcionan un beneficio ergonómico y pueden proporcionar una mayor sensación de conexión con el instrumento que una interfaz a la que se accede a través de un ordenador. Los controladores pueden ser dispositivos de propósito general que están diseñados para funcionar con una variedad de equipos, o pueden estar diseñados para funcionar con un software específico. Ejemplos de estos últimos incluyen el controlador APC40 de Akai para Ableton Live y el controlador MS-20ic de Korg, una reproducción del panel de control de su sintetizador analógico MS-20 . El controlador MS-20ic incluye cables de conexión que se pueden utilizar para controlar el enrutamiento de la señal en su reproducción virtual del sintetizador MS-20 y también puede controlar dispositivos de terceros. [99]

Instrumentos

Un módulo de sonido General MIDI.
Un módulo de sonido que requiere un controlador externo (por ejemplo, un teclado MIDI) para activar sus sonidos. Estos dispositivos son muy portátiles, pero su interfaz de programación limitada requiere herramientas informáticas para acceder cómodamente a sus parámetros de sonido.

Un instrumento MIDI contiene puertos para enviar y recibir señales MIDI, una CPU para procesar esas señales, una interfaz que permite la programación del usuario, circuitos de audio para generar sonido y controladores. El sistema operativo y los sonidos de fábrica suelen almacenarse en una unidad de memoria de solo lectura (ROM). [2] : 67–70 

Un instrumento MIDI también puede ser un módulo independiente (sin un teclado tipo piano) que consta de una tarjeta de sonido General MIDI (GM, GS y XG), edición integrada, que incluye transposición, selección de instrumentos MIDI y ajuste de volumen, panorama, niveles de reverberación y otros controladores MIDI. Normalmente, el módulo MIDI incluye una pantalla, de modo que el usuario puede ver información sobre la función seleccionada actualmente.

Sintetizadores

Los sintetizadores pueden emplear cualquiera de una variedad de técnicas de generación de sonido. Pueden incluir un teclado integrado o pueden existir como módulos de sonido que generan sonidos cuando se activan mediante un controlador externo, como un teclado MIDI. Los módulos de sonido generalmente están diseñados para montarse en un rack de 19 pulgadas . [2] : 70–72  Los fabricantes suelen producir un sintetizador tanto en versiones independientes como montadas en rack, y a menudo ofrecen la versión de teclado en una variedad de tamaños.

Muestreadores

Un sampler puede grabar y digitalizar audio, almacenarlo en una memoria de acceso aleatorio (RAM) y reproducirlo. Los samplers suelen permitir al usuario editar una muestra y guardarla en un disco duro, aplicarle efectos y darle forma con las mismas herramientas que utilizan los sintetizadores sustractivos . También pueden estar disponibles en formato de teclado o montado en rack. [2] : 74–8  Los instrumentos que generan sonidos a través de la reproducción de muestras, pero que no tienen capacidades de grabación, se conocen como " ROMplers ".

Los samplers no se establecieron como instrumentos MIDI viables tan rápidamente como lo hicieron los sintetizadores, debido al gasto de memoria y poder de procesamiento en ese momento. [14] : 295  El primer sampler MIDI de bajo costo fue el Ensoniq Mirage , presentado en 1984. [14] : 304  Los samplers MIDI generalmente están limitados por pantallas que son demasiado pequeñas para usarlas para editar formas de onda muestreadas, aunque algunos se pueden conectar a un monitor de computadora. [14] : 305 

Cajas de ritmos

Las cajas de ritmos son dispositivos de reproducción de muestras que se especializan en sonidos de batería y percusión. Suelen contener un secuenciador que permite crear patrones de batería y organizarlos en una canción. Suelen tener varias salidas de audio, de modo que cada sonido o grupo de sonidos se puede enviar a una salida independiente. Las voces de batería individuales se pueden reproducir desde otro instrumento MIDI o desde un secuenciador. [2] : 84 

Estaciones de trabajo y secuenciadores de hardware

Un controlador MIDI de matriz de botones
El controlador Tenori-on de Yamaha permite crear arreglos "dibujando" en su conjunto de botones iluminados. Los arreglos resultantes se pueden reproducir utilizando sus sonidos internos o fuentes de sonido externas, o bien se pueden grabar en un secuenciador basado en computadora.

La tecnología de secuenciadores es anterior a MIDI. Los secuenciadores analógicos utilizan señales CV/Gate para controlar sintetizadores analógicos pre-MIDI. Los secuenciadores MIDI suelen funcionar con funciones de transporte modeladas a partir de las de las pletinas de cinta . Son capaces de grabar interpretaciones MIDI y organizarlas en pistas individuales utilizando un paradigma de grabación multipista . Las estaciones de trabajo musical combinan teclados controladores con un generador de sonido interno y un secuenciador. Se pueden utilizar para crear arreglos completos y reproducirlos utilizando sus propios sonidos internos, y funcionan como estudios de producción musical autónomos. Suelen incluir capacidades de almacenamiento y transferencia de archivos. [2] : 103–4 

Unidades de efectos

Algunas unidades de efectos se pueden controlar de forma remota a través de MIDI. Por ejemplo, el Ultra-harmonizer Eventide H3000 permite un control MIDI tan amplio que se puede tocar como un sintetizador. [14] : 322  El Drum Buddy , una caja de ritmos con formato de pedal , tiene una conexión MIDI para poder sincronizar su tempo con un pedal looper o efectos basados ​​en el tiempo como el delay.

Especificaciones técnicas

Comunicación serial asíncrona 8-N-1 de dos bytes MIDI. Cada byte de 8 bits está precedido por un bit de inicio y seguido por un bit de parada para fines de enmarcado , para un total de 10 bits. [14] : 286  Por lo tanto, mientras que la  tasa de 31.250 baudios corresponde a 31,25  kbit/s , la tasa de bits neta es de solo 25 kbit/s. Cada byte con su trama utiliza 320  microsegundos . [100]

Los mensajes MIDI están compuestos por bytes de 8 bits transmitidos a 31 250 [b]  (±1 %)  baudios mediante comunicación serial asíncrona 8-N-1 como se describe en la figura. El primer bit de cada byte identifica si el byte es un byte de estado o un byte de datos , y es seguido por siete bits de información. [2] : 13–14 

Un enlace MIDI puede transportar dieciséis canales independientes, numerados del 1 al 16. Un dispositivo puede escuchar canales específicos e ignorar los mensajes de otros canales ( modo omni desactivado ) o puede escuchar todos los canales, ignorando efectivamente la dirección del canal ( modo omni activado ).

Un dispositivo polifónico puede hacer sonar varias notas simultáneamente hasta que se alcanza el límite de polifonía del dispositivo, o las notas llegan al final de su envolvente de decaimiento , o se reciben comandos MIDI explícitos de nota desactivada . Un dispositivo monofónico , en cambio, termina cualquier nota anterior cuando llegan nuevos comandos de nota activada .

Algunos dispositivos receptores pueden configurarse en las cuatro combinaciones de modos omnidireccional apagado/encendido y mono/poli . [2] : 14–18 

Mensajes

Un mensaje MIDI es una instrucción que controla algún aspecto del dispositivo receptor. Un mensaje MIDI consta de un byte de estado, que indica el tipo de mensaje, seguido de hasta dos bytes de datos que contienen los parámetros. [35] Los mensajes MIDI pueden ser mensajes de canal enviados en solo uno de los 16 canales y monitoreados solo por dispositivos en ese canal, o mensajes de sistema que reciben todos los dispositivos. Cada dispositivo receptor ignora los datos que no son relevantes para su función. [66] : 384  Hay cinco tipos de mensajes: Voz de canal, Modo de canal, Común del sistema, Tiempo real del sistema y Exclusivo del sistema. [101]

Los mensajes de voz de canal transmiten datos de interpretación en tiempo real a través de un único canal. Algunos ejemplos incluyen mensajes de nota activada que contienen un número de nota MIDI que especifica el tono de la nota, un valor de velocidad que indica con qué fuerza se tocó la nota y el número de canal; mensajes de nota desactivada que finalizan una nota; mensajes de cambio de programa que cambian el parche de un dispositivo; y cambios de control que permiten ajustar los parámetros de un instrumento. Las notas MIDI están numeradas del 0 al 127 y se asignan desde C −1 hasta G 9 . Esto se extiende más allá del rango de piano de 88 notas desde A 0 hasta C 8 y corresponde a un rango de frecuencia de 8,175799 a 12543,85 Hz. [c]

Mensajes exclusivos del sistema

Los mensajes exclusivos del sistema ( SysEx ) envían información sobre las funciones de un sintetizador, en lugar de datos de rendimiento como qué notas se están reproduciendo y a qué volumen. Dado que pueden incluir funciones que van más allá de las que ofrece el estándar MIDI, son una de las principales razones de la flexibilidad y la longevidad del estándar MIDI. Los fabricantes los utilizan para crear mensajes propietarios que controlan sus equipos de forma más exhaustiva que las limitaciones de los mensajes MIDI estándar. [14] : 287 

La Asociación de Fabricantes MIDI emite un número de identificación único para las empresas MIDI. [102] Estos se incluyen en los mensajes SysEx, para garantizar que solo el dispositivo al que se dirige específicamente responda al mensaje, mientras que todos los demás saben que deben ignorarlo. Muchos instrumentos también incluyen una configuración de ID SysEx, de modo que un controlador puede dirigirse a dos dispositivos del mismo modelo de forma independiente. [103]

Los mensajes exclusivos del sistema universal son una clase especial de mensajes SysEx utilizados para extensiones de MIDI que no están destinadas a ser exclusivas de un fabricante. [104]

Diagrama de implementación

Los dispositivos normalmente no responden a todos los tipos de mensajes definidos por la especificación MIDI. La MMA estandarizó el diagrama de implementación MIDI como una forma de que los usuarios vean qué capacidades específicas tiene un instrumento y cómo responde a los mensajes. [2] : 231  Un diagrama de implementación MIDI completo suele publicarse como parte de la documentación de los dispositivos MIDI.

Especificaciones eléctricas

La interfaz eléctrica de MIDI 1.0 se basa en un bucle de corriente completamente aislado [100] a lo largo de las líneas roja y azul en el siguiente esquema :

Esquema de interconexión MIDI

"DIN / TRS" en este esquema indica que se puede utilizar un conector DIN [d] o un conector telefónico TRS [e] . [105] [106]

Para transmitir un 0 lógico y un bit de inicio, el UART del transmisor [f] produce un voltaje bajo. Esto da como resultado un  flujo de corriente nominal de 5 miliamperios [100] proveniente de la fuente de alto voltaje del transmisor, [g] que viaja hacia la derecha a lo largo de las líneas rojas a través del cable de par trenzado blindado [h] y hacia el optoaislador del receptor. La corriente sale del optoaislador y regresa hacia la izquierda a lo largo de las líneas azules hacia el UART del transmisor, que absorbe la corriente. [i] Las resistencias R1 y R2 limitan la corriente y son iguales para proporcionar una impedancia equilibrada . El diodo es para protección. [108] Esta corriente enciende el LED y el fototransistor del optoaislador [j] , por lo que el UART del receptor puede leer la señal con la ayuda de la resistencia pull-up R3 a la fuente de voltaje del receptor. Si bien las fuentes en la especificación original son de 5  voltios , el receptor y el transmisor pueden usar diferentes niveles de voltaje.

Para transmitir un 1 lógico, un bit de parada y, mientras está inactivo, el UART del transmisor produce el mismo alto voltaje que proporciona su fuente de voltaje , lo que da como resultado que no haya flujo de corriente. Esto evita el desperdicio de energía cuando está inactivo.

Extensiones

La flexibilidad y la adopción generalizada de MIDI han llevado a muchos refinamientos del estándar y han permitido su aplicación a propósitos más allá de aquellos para los que fue originalmente pensado.

MIDI general

Mapa de batería estándar de GM en el teclado
El mapa de teclas de percusión de General MIDI especifica el sonido de percusión que activa una nota determinada. Los números de nota MIDI se muestran entre paréntesis junto a su nota de teclado correspondiente.

MIDI permite la selección de sonidos de un instrumento a través de mensajes de cambio de programa, pero no hay garantía de que dos instrumentos tengan el mismo sonido en una ubicación de programa dada. [109] El programa #0 puede ser un piano en un instrumento o una flauta en otro. El estándar General MIDI (GM) se estableció en 1991 y proporciona un banco de sonidos estandarizado que permite que un archivo MIDI estándar creado en un dispositivo suene similar cuando se reproduce en otro. GM especifica un banco de 128 sonidos organizados en 16 familias de ocho instrumentos relacionados y asigna un número de programa específico a cada instrumento. [110] Cualquier cambio de programa dado selecciona el mismo sonido de instrumento en cualquier instrumento compatible con GM. [111] Los instrumentos de percusión se colocan en el canal 10 y se asigna un valor de nota MIDI específico a cada sonido de percusión.

El estándar GM elimina la variación en la asignación de notas. Algunos fabricantes no se ponían de acuerdo sobre qué número de nota debería representar el Do central, pero GM especifica que la nota número 69 reproduce el A440 , lo que a su vez fija el Do central como la nota número 60.

Los dispositivos compatibles con GM deben ofrecer polifonía de 24 notas. [112] Los dispositivos compatibles con GM deben responder a la velocidad, aftertouch y pitch bend, estar configurados con valores predeterminados específicos al inicio y ser compatibles con ciertos números de controlador, como pedal de sustain y números de parámetros registrados (RPN). [113]

Una versión simplificada de GM, llamada GM Lite , se utiliza para dispositivos con potencia de procesamiento limitada. [109] [114]

GS, XG y GM2

Rápidamente se formó una opinión general de que el conjunto de sonidos de 128 instrumentos del GM no era lo suficientemente grande. El General Standard de Roland, o Roland GS , incluía sonidos, kits de batería y efectos adicionales, proporcionaba un comando de selección de banco que se podía usar para acceder a ellos y usaba números de parámetros no registrados MIDI (NRPN) para acceder a sus nuevas funciones. El General MIDI extendido de Yamaha, o Yamaha XG , siguió en 1994. XG ofrecía de manera similar sonidos, kits de batería y efectos adicionales, pero usaba controladores estándar en lugar de NRPN para la edición y aumentó la polifonía a 32 voces. Ambos estándares cuentan con compatibilidad con versiones anteriores de la especificación GM, pero no son compatibles entre sí. [115] Ninguno de los dos estándares ha sido adoptado más allá de su creador, pero ambos son comúnmente compatibles con títulos de software musical.

Las empresas miembros de la AMEI de Japón desarrollaron la especificación General MIDI Nivel 2 en 1999. GM2 mantiene la compatibilidad con versiones anteriores de GM, pero aumenta la polifonía a 32 voces, estandariza varios números de controlador como para sostenuto y pedal suave ( una corda ), RPN y mensajes exclusivos del sistema universal, e incorpora el estándar de afinación MIDI. [116] GM2 es la base del mecanismo de selección de instrumentos en Scalable Polyphony MIDI (SP-MIDI), una variante MIDI para dispositivos de bajo consumo que permite que la polifonía del dispositivo se escale de acuerdo con su potencia de procesamiento. [109]

Estándar de afinación

La mayoría de los sintetizadores MIDI utilizan una afinación de temperamento igual . El estándar de afinación MIDI (MTS), ratificado en 1992, permite afinaciones alternativas. [117] El MTS permite microafinaciones que se pueden cargar desde un banco de hasta 128 parches y permite el ajuste en tiempo real de los tonos de las notas. [118] Los fabricantes no están obligados a dar soporte al estándar. Aquellos que lo hacen no están obligados a implementar todas sus características. [117]

Código de tiempo

Un secuenciador puede controlar un sistema MIDI con su reloj interno, pero cuando un sistema contiene varios secuenciadores, deben sincronizarse con un reloj común. El código de tiempo MIDI (MTC), desarrollado por Digidesign , [119] implementa mensajes SysEx [120] desarrollados específicamente para fines de sincronización, y puede traducir hacia y desde el estándar de código de tiempo SMPTE . [14] : 288  Las interfaces MIDI como MIDI Timepiece de Mark of the Unicorn pueden convertir código SMPTE a MTC. [121] Mientras que el reloj MIDI se basa en el tempo, el código de tiempo se basa en cuadros y es independiente del tempo. MTC, como el código SMPTE, incluye información de posición y puede recuperarse en caso de una caída . [122]

Control de máquinas

El control de máquina MIDI (MMC) consiste en un conjunto de comandos SysEx [123] que operan los controles de transporte de los dispositivos de grabación de hardware. MMC permite que un secuenciador envíe comandos Start , Stop y Record a una pletina de cinta o un sistema de grabación de disco duro conectado, y que avance o rebobine rápidamente el dispositivo para iniciar la reproducción en el mismo punto que el secuenciador. No intervienen datos de sincronización, aunque los dispositivos pueden sincronizarse a través de MTC. [124]

Mostrar control

Un evento teatral operado por MIDI Show Control
MIDI Show Control se utiliza para programar y sincronizar la iluminación y los efectos para eventos teatrales, como la atracción Waterworld en Universal Studios Hollywood . [125]

MIDI Show Control (MSC) es un conjunto de comandos SysEx para secuenciar y activar de forma remota dispositivos de control de espectáculos, como iluminación, reproducción de música y sonido, y sistemas de control de movimiento . [126] Las aplicaciones incluyen producciones teatrales, exhibiciones en museos, sistemas de control de estudios de grabación y atracciones de parques de diversiones . [125]

Sellado de tiempo

Una solución a los problemas de sincronización MIDI es marcar los eventos MIDI con los tiempos en que se reproducirán, transmitirlos de antemano y almacenarlos en un búfer en el dispositivo receptor. El envío de datos de antemano reduce la probabilidad de que un pasaje concurrido sature el enlace de transmisión. Una vez almacenada en el receptor, la información ya no está sujeta a problemas de sincronización asociados con las interfaces MIDI o USB y se puede reproducir con un alto grado de precisión. [127] El sellado de tiempo MIDI solo funciona cuando tanto el hardware como el software lo admiten. MTS de MOTU, AMT de eMagic y Midex 8 de Steinberg tenían implementaciones que eran incompatibles entre sí y requerían que los usuarios tuvieran software y hardware fabricados por la misma empresa para funcionar. [74] El sellado de tiempo está integrado en las interfaces MIDI FireWire, [128] Mac OS X Core Audio y Linux ALSA Sequencer.

Ejemplo de volcado estándar

Una capacidad imprevista de los mensajes SysEx fue su uso para transportar muestras de audio entre instrumentos. Esto condujo al desarrollo del estándar de volcado de muestras (SDS), que estableció un nuevo formato SysEx para la transmisión de muestras. [14] : 287  SDS se amplió posteriormente con un par de comandos que permiten la transmisión de información sobre puntos de bucle de muestra, sin necesidad de transmitir la muestra completa. [129]

Sonidos descargables

La especificación de Sonidos Descargables (DLS), ratificada en 1997, permite a los dispositivos móviles y a las tarjetas de sonido de ordenador ampliar sus tablas de ondas con conjuntos de sonidos descargables. [130] La especificación DLS Nivel 2 se introdujo en 2006 y definió una arquitectura de sintetizador estandarizada. El estándar Mobile DLS exige que los bancos DLS se combinen con SP-MIDI, como archivos Mobile XMF autónomos. [131]

Expresión polifónica MIDI

MIDI Polyphonic Expression (MPE) es un método de uso de MIDI que permite que el pitch bend y otras dimensiones del control expresivo se ajusten continuamente para notas individuales. [132] MPE funciona asignando cada nota a su propio canal MIDI para que los mensajes del controlador se puedan aplicar a cada nota individualmente. [133] [132] Las especificaciones fueron publicadas en noviembre de 2017 por AMEI y en enero de 2018 por MMA. [134] Instrumentos como Continuum Fingerboard , LinnStrument , ROLI Seaboard , Sensel Morph y Eigenharp permiten a los usuarios controlar el tono, el timbre y otros matices de notas individuales dentro de los acordes. [135]

Transportes de hardware alternativos

Además de utilizar un bucle de corriente de 31,25 kbit/s a través de un conector DIN , los mismos datos se pueden transmitir a través de diferentes transportes de hardware, como USB , FireWire y Ethernet .

USB y FireWire

Los miembros de la USB-IF desarrollaron en 1999 un estándar para MIDI sobre USB, la "Definición de clase de dispositivo de bus serie universal para dispositivos MIDI". [136] MIDI sobre USB se ha vuelto cada vez más común a medida que otras interfaces que se habían utilizado para conexiones MIDI ( tarjeta ISA , puerto de juegos , etc.) desaparecieron de las computadoras personales. Los sistemas operativos Linux, Microsoft Windows, Macintosh OS X y Apple iOS incluyen controladores de clase estándar para admitir dispositivos que utilizan la "Definición de clase de dispositivo de bus serie universal para dispositivos MIDI".

Apple Computer desarrolló la interfaz FireWire durante la década de 1990. Comenzó a aparecer en las cámaras de vídeo digitales hacia finales de la década y en los modelos Macintosh G3 en 1999. [137] Fue creado para su uso con aplicaciones multimedia. [128] A diferencia del USB, FireWire utiliza controladores inteligentes que pueden gestionar su propia transmisión sin la atención de la CPU principal. [138] Al igual que con los dispositivos MIDI estándar, los dispositivos FireWire pueden comunicarse entre sí sin necesidad de una computadora presente. [139]

Conectores XLR

El sintetizador Octave-Plateau Voyetra-8 fue una de las primeras implementaciones MIDI que utilizaba conectores XLR3 en lugar del DIN de 5 pines . Se lanzó en los años previos a MIDI y luego se lo adaptó con una interfaz MIDI, pero mantuvo su conector XLR. [140]

Puerto serie, paralelo y joystick

A medida que las configuraciones de estudio basadas en computadora se hicieron comunes, aparecieron dispositivos MIDI que podían conectarse directamente a una computadora. Estos típicamente usaban el conector mini-DIN de 8 pines que Apple usaba para los puertos seriales antes de la introducción de los modelos Blue & White G3 . Las interfaces MIDI pensadas para usarse como la pieza central de un estudio, como Mark of the Unicorn MIDI Time Piece, fueron posibles gracias a un modo de transmisión "rápido" que podía aprovechar la capacidad de estos puertos seriales para operar a 20 veces la velocidad MIDI estándar. [2] : 62–3  [139] Los puertos mini-DIN se incorporaron a algunos instrumentos MIDI de finales de la década de 1990 y permitieron que dichos dispositivos se conectaran directamente a una computadora. [141] Algunos dispositivos se conectaban a través del puerto paralelo DB-25 de las PC o a través del puerto de joystick DA-15 que se encuentra en muchas tarjetas de sonido de PC. [139]

red LAN móvil

Yamaha introdujo el protocolo mLAN en 1999. Fue concebido como una red de área local para instrumentos musicales que utilizaban FireWire como transporte, y fue diseñado para transportar múltiples canales MIDI junto con audio digital multicanal, transferencias de archivos de datos y código de tiempo. [137] [138] mLan se utilizó en varios productos Yamaha, en particular en las consolas de mezclas digitales y el sintetizador Motif , y en productos de terceros como PreSonus FIREstation y Korg Triton Studio . [142] No se han lanzado nuevos productos mLan desde 2007.

Interfaz de dispositivo MIDI SCSI (SMDI)

La interfaz de dispositivo MIDI SCSI (SMDI) fue utilizada por algunos samplers y grabadores de disco duro en la década de 1990 (por ejemplo, Kurzweil K2000 y Peavey SP Sample Playback Synthesizer [143] ) para el transporte rápido de muestras bidireccionales a unidades de disco duro y unidades magneto-ópticas . [144] [145]

Ethernet e Internet

Las implementaciones de MIDI en redes informáticas proporcionan capacidades de enrutamiento de red y el canal de gran ancho de banda que las alternativas anteriores a MIDI, como ZIPI , pretendían ofrecer. Existen implementaciones propietarias desde la década de 1980, algunas de las cuales utilizan cables de fibra óptica para la transmisión. [2] : 53–4  La especificación abierta RTP-MIDI del Internet Engineering Task Force ha ganado el apoyo de la industria. Apple ha admitido este protocolo desde Mac OS X 10.4 en adelante, y existe un controlador de Windows basado en la implementación de Apple para Windows XP y versiones más nuevas. [146]

Inalámbrico

Los sistemas para transmisión MIDI inalámbrica han estado disponibles desde la década de 1980. [2] : 44  Varios transmisores disponibles comercialmente permiten la transmisión inalámbrica de señales MIDI y OSC a través de Wi-Fi y Bluetooth . [147] Los dispositivos iOS pueden funcionar como superficies de control MIDI, utilizando Wi-Fi y OSC. [148] Se puede utilizar una radio XBee para construir un transceptor MIDI inalámbrico como un proyecto de bricolaje. [149] Los dispositivos Android pueden funcionar como superficies de control MIDI completas utilizando varios protocolos diferentes a través de Wi-Fi y Bluetooth . [150]

MIDI 2.0

El estándar MIDI 2.0 se presentó el 17 de enero de 2020 en el Winter NAMM Show en Anaheim, California. Representantes de Yamaha, Roli , Microsoft, Google y la Asociación MIDI presentaron la actualización, [151] que permite la comunicación bidireccional manteniendo la compatibilidad con versiones anteriores. [152]

La investigación sobre el nuevo protocolo comenzó en 2005. [54] [153] [154] Los dispositivos prototipo que muestran conexiones cableadas e inalámbricas se han mostrado de forma privada en NAMM. [153] Se han desarrollado políticas de licencia y certificación de productos, [155] aunque no se anunció ninguna fecha de lanzamiento proyectada. [156] La capa física y la capa de transporte propuestas incluían protocolos basados ​​en Ethernet como RTP MIDI y Audio Video Bridging / Time-Sensitive Networking , [139] así como transporte basado en el Protocolo de datagramas de usuario (UDP). [154]

AMEI y MMA anunciaron que se publicarán las especificaciones completas luego de las pruebas de interoperabilidad de las implementaciones de prototipos de los principales fabricantes como Google , Yamaha , Steinberg , Roland , Ableton , Native Instruments y ROLI , entre otros. [21] [134] [157] En enero de 2020, Roland anunció el teclado controlador A-88mkII que admite MIDI 2.0. [158]

MIDI 2.0 incluye la especificación MIDI Capability Inquiry para intercambio de propiedades y perfiles, y el nuevo formato Universal MIDI Packet para transportes de alta velocidad que admite mensajes de voz MIDI 1.0 y MIDI 2.0.

Algunos dispositivos que funcionan con MIDI 1.0 pueden "adaptarse" a algunas funciones de la versión 2.0. Desde su lanzamiento a principios de enero de 2020 por parte de la Asociación de Fabricantes MIDI, aún no se han publicado más detalles sobre la nueva actualización. Actualmente, MIDI tiene cinco componentes, como: M2-100-U v1.0 MIDI 2.0 Specification Overview, M2-101-UM v1.1 MIDI-CI Specification, M2-102-U v1.0 Common Rules for MIDI-CI Profiles, M2-103-UM v1.0 Common Rules for MIDI-CI PE y M2-104-UM v1.0 UMP and MIDI 2.0 Protocol Specification. Otras especificaciones relacionadas con MIDI 2.0 incluyen: permitir el uso de 32 000 controladores y mejoras de notas de amplio rango. Estas mejoras se mejoran mediante el intercambio de propiedades. [159]

Intercambio de propiedades

El intercambio de propiedades en MIDI 2.0 utiliza JSON o notación de objetos JavaScript. Esto proporciona un formato legible para el intercambio de conjuntos de datos. Al hacerlo, se abre una amplia gama de capacidades para MIDI 2.0. JSON permite que cualquier dispositivo conectado, ya sea un teclado, un piano o cualquier otro dispositivo eléctrico, describa lo que está haciendo y lo que puede hacer en lugar de que la persona que lo opera cambie su configuración cada vez que opera un nuevo dispositivo. Por ejemplo, un teclado MIDI que está conectado a un dispositivo iOS con configuraciones MIDI específicas ahora se puede conectar a un dispositivo Windows y no es necesario cambiar sus configuraciones manualmente. Cualquier componente musical utilizado en un dispositivo se mantendrá y se puede alterar automáticamente en otro. [159]

Consulta de capacidad MIDI

MIDI Capability Inquiry (MIDI-CI) especifica mensajes SysEx universales para implementar perfiles de dispositivos, intercambio de parámetros y negociación de protocolos MIDI. [134] Las especificaciones fueron publicadas en noviembre de 2017 por AMEI y en enero de 2018 por MMA.

El intercambio de parámetros define métodos para consultar las capacidades del dispositivo, como los controladores compatibles, los nombres de parches, los perfiles de instrumentos, la configuración del dispositivo y otros metadatos, y para obtener o establecer los ajustes de configuración del dispositivo. El intercambio de propiedades utiliza mensajes exclusivos del sistema que llevan datos en formato JSON . Los perfiles definen conjuntos comunes de controladores MIDI para varios tipos de instrumentos, como órganos de barras y sintetizadores analógicos, o para tareas particulares, lo que mejora la interoperabilidad entre instrumentos de diferentes fabricantes. La negociación de protocolos permite que los dispositivos empleen el protocolo de próxima generación o protocolos específicos del fabricante. [157]

Paquete MIDI universal

MIDI 2.0 define un nuevo formato de paquete MIDI universal, que contiene mensajes de longitud variable (32, 64, 96 o 128 bits) según el tipo de carga útil. Este nuevo formato de paquete admite un total de 256 canales MIDI, organizados en 16 grupos de 16 canales; cada grupo puede transportar un flujo de protocolo MIDI 1.0 o un nuevo flujo de protocolo MIDI 2.0, y también puede incluir mensajes del sistema, datos exclusivos del sistema y marcas de tiempo para la representación precisa de varias notas simultáneas. Para simplificar la adopción inicial, se permite explícitamente que los productos existentes solo implementen mensajes MIDI 1.0. El paquete MIDI universal está pensado para el transporte de alta velocidad, como USB y Ethernet, y no es compatible con las conexiones DIN de 5 pines existentes. [157] Los mensajes de tiempo real del sistema y comunes del sistema son los mismos que se definen en MIDI 1.0. [157]

Nuevo protocolo

A partir de enero de 2019, el borrador de especificación del nuevo protocolo admite todos los mensajes principales que también existen en MIDI 1.0, pero amplía su precisión y resolución; también define muchos mensajes de controlador nuevos de alta precisión. [157] La ​​especificación define reglas de traducción predeterminadas para convertir entre mensajes de voz de canal MIDI 2.0 y mensajes de voz de canal MIDI 1.0 que usan una resolución de datos diferente, así como para mapear 256 flujos MIDI 2.0 a 16 flujos MIDI 1.0. [160] [161]

Formatos de transferencia de datos

Los mensajes System Exclusive 8 utilizan un nuevo formato de datos de 8 bits, basado en los mensajes Universal System Exclusive. Los mensajes de conjunto de datos mixtos están pensados ​​para transferir grandes conjuntos de datos. Los mensajes System Exclusive 7 utilizan el formato de datos anterior de 7 bits. [157]

Véase también

Notas

  1. ^ El estándar MIDI permite la selección de 128 programas diferentes, pero los dispositivos pueden proporcionar más organizando sus parches en bancos de 128 programas cada uno y combinando un mensaje de cambio de programa con un mensaje de selección de banco.
  2. ^ Se utiliza la  tasa de 31.250 baudios porque es una división exacta de 1 MHz, [14] : 286  un divisor común de la velocidad de reloj máxima de la mayoría de los primeros microprocesadores .
  3. ^ Suponiendo temperamento igual y 440 Hz A 4
  4. ^ La especificación MIDI 1.0 original exigía el uso de DIN-5. El pin de fuente de corriente o pin activo ("H" en este esquema) corresponde al pin 4 de un DIN de 5 pines. El pin de disipación de corriente o pin frío ("C" en este esquema) corresponde al pin 5 de ese DIN. El pin de protección ("S" en este esquema) corresponde al pin 2 de ese DIN.
  5. ^ Existen tres variantes de cómo utilizar los conectores telefónicos TRS: Tipo A , Tipo B y TS (también conocido como Tipo C o No TRS ). El Tipo A se convirtió en parte del estándar MIDI en 2018. Las asignaciones de pines del Tipo A son: la fuente de corriente o pin activo ("H" en el esquema) es el anillo del TRS, el disipador de corriente o pin frío ("C" en el esquema) es la punta del TRS y el blindaje ("S" en el esquema) es la funda del TRS.
  6. ^ El receptor/transmisor asíncrono universal ( UART ) es un hardware que transporta bytes entre dispositivos digitales. Cuando el MIDI era nuevo, la mayoría de los sintetizadores utilizaban chips UART externos discretos, como el UART 8250 o el 16550 , pero desde entonces los UART se han incorporado a los microcontroladores . [107]
  7. ^ MIDI utiliza nominalmente una fuente de +5 voltios, en cuyo caso las asignaciones de resistencia son R1=R2=R4=220 Ω y R3=280 Ω. Pero es posible cambiar los valores de resistencia para lograr una corriente similar con otras fuentes de voltaje (en particular, para sistemas de 3,3 voltios).
  8. ^ La especificación MIDI prevé un "cable" de tierra y una malla o blindaje de lámina, conectados en el pin Shield, que protegen los dos conductores que llevan la señal en los pines Hot y Cold. Aunque se supone que el cable MIDI debe conectar este pin Shield y la malla o blindaje de lámina a la tierra del chasis, debe hacerlo solo en el puerto de salida MIDI; el puerto de entrada MIDI debe dejar su pin Shield desconectado y aislado. Algunos grandes fabricantes de dispositivos MIDI utilizan conectores DIN de 5 pines modificados solo para entrada MIDI con los conductores metálicos omitidos intencionalmente en las posiciones de los pines 1, 2 y 3 para que se obtenga el máximo aislamiento de voltaje.
  9. ^ A menudo es más fácil utilizar transistores NPN o nMOS para absorber corriente que utilizar transistores PNP o pMOS para generar corriente, porque la movilidad de los electrones es mejor que la de los huecos.
  10. ^ El diseño de referencia original de MIDI utiliza el obsoleto Sharp PC900, pero los diseños modernos utilizan con frecuencia el 6N138. [107] El optoaislador proporciona aislamiento galvánico , por lo que no hay una ruta conductora entre los dos dispositivos MIDI. Por lo tanto, los dispositivos MIDI diseñados correctamente son relativamente inmunes a los bucles de tierra e interferencias similares.

Referencias

  1. ^ Swift, Andrew. (mayo de 1997), "A brief Introduction to MIDI", SURPRISE , Imperial College of Science Technology and Medicine, archivado desde el original el 30 de agosto de 2012 , consultado el 22 de agosto de 2012
  2. ^ abcdefghijklmnopqrstu vwxyz Huber, David Miles (1991). El manual MIDI. Carmel, Indiana: SAMS. ISBN 978-0-672-22757-8.
  3. ^ "¿Qué es MIDI?". Archivado desde el original el 16 de junio de 2016. Consultado el 31 de agosto de 2016 .
  4. ^ samples, Electronic Musician – incluye reseñas de equipos, tutoriales de audio, loops y. "La Asociación MIDI se lanza en NAMM 2016". Archivado desde el original el 14 de octubre de 2016 . Consultado el 31 de agosto de 2016 .{{cite web}}: CS1 maint: varios nombres: lista de autores ( enlace )
  5. ^ abcdef Chadabe, Joel (1 de mayo de 2000). "Parte IV: Las semillas del futuro". Músico electrónico . XVI (5). Penton Media. Archivado desde el original el 28 de septiembre de 2012.
  6. ^ abc Kirn, Peter (2011). El teclado presenta la evolución de la música electrónica de baile. Backbeat Books. ISBN 978-1-61713-446-3Archivado desde el original el 1 de febrero de 2017.
  7. ^ abc "La vida y obra de Ikutaro Kakehashi, el pionero de Roland a quien la música moderna le debe todo". Revista FACT: Noticias musicales, música nueva . 2 de abril de 2017. Archivado desde el original el 3 de abril de 2017. Consultado el 6 de septiembre de 2018 .
  8. ^ ab "Descubiertos documentos MIDI históricos tempranos". www.midi.org . Archivado desde el original el 29 de septiembre de 2020 . Consultado el 18 de enero de 2020 .
  9. ^ Smith, Dave; Wood, Chet (1 de octubre de 1981). «La interfaz de sintetizador universal (USI)» . Audio Engineering Society . Archivado desde el original el 5 de agosto de 2020. Consultado el 18 de enero de 2020 .
  10. ^ "Historia de MIDI: Capítulo 6: Nace MIDI 1980-1983". www.midi.org . Archivado desde el original el 3 de enero de 2023 . Consultado el 3 de enero de 2023 .
  11. ^ de Huber, David Miles (1991). El manual MIDI. Carmel, Indiana: SAMS. ISBN 978-0-672-22757-8.
  12. ^ abcde Holmes, Thom. Música electrónica y experimental: pioneros en tecnología y composición . Nueva York: Routledge, 2003
  13. ^ ab "Dave Smith". KeyboardMag . Archivado desde el original el 20 de octubre de 2018 . Consultado el 20 de octubre de 2018 .
  14. ^ abcdefghijklmno Manning, Peter. Música electrónica y por computadora . 1985. Oxford: Oxford University Press, 1994. Impreso.
  15. ^ «Premio GRAMMY Técnico: Ikutaro Kakehashi y Dave Smith». Archivado desde el original el 22 de agosto de 2016. Consultado el 31 de agosto de 2016 .
  16. ^ "Ikutaro Kakehashi, Dave Smith: aceptación del premio técnico GRAMMY". 9 de febrero de 2013. Archivado desde el original el 9 de diciembre de 2014. Consultado el 31 de agosto de 2016 .
  17. ^ Vail, Mark (2014). El sintetizador . Nueva York: Oxford University Press. pág. 56. ISBN. 978-0-19-539481-8.
  18. ^ Martin Russ (2004). Síntesis y muestreo de sonido. Taylor & Francis. pág. 66. ISBN 0-240-51692-3Archivado desde el original el 26 de octubre de 2017.
  19. ^ Butler, Mark Jonathan (2006). Desbloqueando el ritmo: ritmo, métrica y diseño musical en la música electrónica de baile. Indiana University Press. pág. 64. ISBN 0-2533-4662-2.
  20. ^ "Roland - Empresa - Historia - Historia". Archivado desde el original el 12 de julio de 2017 . Consultado el 17 de mayo de 2017 .
  21. ^ ab "La Asociación de Fabricantes MIDI (MMA) y la Asociación de la Industria de Electrónica Musical (AMEI) anuncian el Prototipado MIDI 2.0™". www.midi.org . Archivado desde el original el 10 de febrero de 2019 . Consultado el 20 de enero de 2019 .
  22. ^ Kopf, Dan (30 de enero de 2020). «Una actualización de un protocolo digital de 37 años podría cambiar profundamente la forma en que suena la música». Quartz . Archivado desde el original el 2 de febrero de 2020. Consultado el 3 de febrero de 2020 .
  23. ^ "Cómo el MIDI cambió el mundo de la música". BBC News . 28 de noviembre de 2012. Archivado desde el original el 27 de abril de 2019 . Consultado el 4 de julio de 2022 .
  24. ^ Paul, Craner (octubre de 1991). "Nueva herramienta para un arte antiguo: la computadora y la música". Computers and the Humanities . 25 (5): 308–309. doi :10.1007/bf00120967. JSTOR  30204425. S2CID  60991034.
  25. ^ Macan, Edward. Rockeando con los clásicos: el rock progresivo inglés y la contracultura . Nueva York: Oxford University Press, 1997. p.191
  26. ^ Shuker, Roy. Entendiendo la música popular . Londres: Routledge, 1994. p.286
  27. ^ Demorest, Steven M. Building Choral Excellence: Teaching Sight Singing in the Choral Rehearsal [Construir la excelencia coral: enseñar a cantar a primera vista en el ensayo coral] . Nueva York: Oxford University Press, 2003. pág. 17.
  28. ^ Pertout, Andrian. Mixdown Monthly Archivado el 4 de mayo de 2012 en Wayback Machine , n.° 26. 26 de junio de 1996. Web. 22 de agosto de 2012
  29. ^ Stokes, William (3 de junio de 2022). «Dave Smith: el genio de los sintetizadores que hizo que los instrumentos del pop funcionaran en armonía». The Guardian . Consultado el 5 de junio de 2022 .
  30. ^ ab Lau, Paul. "¿Por qué seguir usando MIDI?". Archivado el 2 de mayo de 2013 en Wayback Machine . Músico canadiense. Norris-Whitney Communications Inc. 2008.
  31. ^ Sasso, Len (13 de octubre de 2011). "Programación de sonido 101". Músico electrónico . NewBay Media. Archivado desde el original el 17 de marzo de 2012.
  32. ^ Anderton, Craig (mayo de 1995). "MIDI para guitarristas: un curso intensivo sobre control de efectos MIDI". Sound on Sound . Publicaciones SOS. Archivado desde el original el 10 de enero de 2012.
  33. ^ "Estación de trabajo de audio digital: introducción". Archivado desde el original el 10 de enero de 2012.
  34. ^ Forbes, Peter (14 de marzo de 2002). "Las PC alcanzan la nota de escritura". The Guardian . Consultado el 1 de julio de 2022 .
  35. ^ abc Brewster, Stephen. "Salida auditiva no verbal". Manual de interacción hombre-ordenador: fundamentos, tecnologías en evolución y aplicaciones emergentes . Ed. Julie A. Jacko; Andrew Sears. Mahwah: Lawrence Erlbaum Associates, 2003. p.227
  36. ^ Campbell, Drew. ""Click, Click. Audio" Stage Directions . Vol. 16, No. 3. Marzo de 2003.
  37. ^ McCutchan, Ann. La musa que canta: los compositores hablan sobre el proceso creativo . Nueva York: Oxford University Press, 1999. págs. 67-68,72.
  38. ^ ab Russ, Martin (2012). Síntesis y muestreo de sonido. CRC Press . pág. 192. ISBN 978-1-136-12214-9Archivado desde el original el 28 de abril de 2017 . Consultado el 26 de abril de 2017 .
  39. ^ Helen Casabona; David Frederick. Aplicaciones MIDI avanzadas. Alfred Music . pág. 15. ISBN 978-1-4574-3893-6Archivado desde el original el 26 de octubre de 2017.
  40. ^ ab INTERFACES MIDI PARA IBM PC Archivado el 21 de octubre de 2015 en Wayback Machine , Electronic Musician , septiembre de 1990
  41. ^ "Programación del MPU-401". www.piclist.com . Archivado desde el original el 6 de mayo de 2017.
  42. ^ UNIDAD DE PROCESAMIENTO MIDI MPU-401 MANUAL DE REFERENCIA TÉCNICA, Roland Corporation
  43. ^ Peter Manning (2013), Música electrónica y por computadora Archivado el 26 de octubre de 2017 en Wayback Machine , página 319, Oxford University Press
  44. ^ "Cartucho MIDI VIC-20". Innovaciones RETRO . Archivado desde el original el 21 de enero de 2021. Consultado el 28 de febrero de 2021 .
  45. ^ "MIDI Maestro – Innovaciones RETRO". Archivado desde el original el 1 de marzo de 2021 . Consultado el 28 de febrero de 2021 .
  46. ^ "Famimimidi Famicom Version". Catskull Electronics . Archivado desde el original el 18 de enero de 2021 . Consultado el 28 de febrero de 2021 .
  47. ^ "Teensyboy Pro". Catskull Electronics . Archivado desde el original el 18 de enero de 2021. Consultado el 28 de febrero de 2021 .
  48. ^ "Sintetizador MIDI GBA". Catskull Electronics . Archivado desde el original el 1 de marzo de 2021. Consultado el 28 de febrero de 2021 .
  49. ^ "genMDM". Catskull Electronics . Archivado desde el original el 25 de febrero de 2021 . Consultado el 28 de febrero de 2021 .
  50. ^ abc Crawford, Walt. "MIDI y Wave: cómo lidiar con el lenguaje". En línea . Vol. 20, N.º 1. Enero/Febrero 1996
  51. ^ Aboukhadijeh, Feross. (agosto de 2018), Anuncio de BitMidi, archivado del original el 4 de octubre de 2018 , consultado el 18 de noviembre de 2018
  52. ^ "El primer formato de archivo de éxito en Internet no fue el MP3, sino el MIDI". 8 de noviembre de 2019. Archivado desde el original el 4 de diciembre de 2020. Consultado el 12 de octubre de 2020 .
  53. ^ ab Wiffen, Paul. "Synth School, Part 3: Digital Synthesis (FM, PD & VPM) Archivado el 1 de diciembre de 2005 en Wayback Machine ". Sound on Sound, septiembre de 1997. Impreso.
  54. ^ ab Battino, David. Por fin: MIDI 2.0 Archivado el 16 de agosto de 2012 en Wayback Machine . O'Reilly Digital Media Blog. O'Reilly Media, Inc. 6 de octubre de 2005. Web. 22 de agosto de 2012
  55. ^ "midi". Documentación para desarrolladores de Apple: Identificadores de tipo uniforme . Apple Inc . Archivado desde el original el 22 de mayo de 2023 . Consultado el 22 de mayo de 2023 .
  56. ^ "Especificación de archivos MIDI estándar (SMF)". www.midi.org . Archivado desde el original el 23 de octubre de 2019 . Consultado el 23 de octubre de 2019 .
  57. ^ Hass, Jeffrey. "Capítulo tres: Cómo funciona el MIDI 10 Archivado el 7 de junio de 2015 en Wayback Machine ". Escuela de Música Jacobs de la Universidad de Indiana. 2010. Web 13 de agosto de 2012
  58. ^ "Archivos MIDI". midi.org . Asociación de Fabricantes de Música. Archivado desde el original el 22 de agosto de 2012. También se especificó originalmente un Tipo 2, pero nunca se popularizó.
  59. ^ "Formato de archivo MIDI basado en RIFF Archivado el 17 de agosto de 2012 en Wayback Machine ". digitalpreservation.gov . Biblioteca del Congreso. 26 de marzo de 2012. Web. 18 de agosto de 2012
  60. ^ Gellerman, Elizabeth. "El software de edición de audio es música para los oídos de los desarrolladores multimedia". Revista Technical Horizons in Education . Vol. 22, N.º 2. Septiembre de 1994.
  61. ^ abc Desmond, Peter. "Las TIC en el currículo de música en secundaria". Aspectos de la enseñanza de la música en secundaria: perspectivas sobre la práctica . ed. Gary Spruce. Nueva York: RoutledgeFalmer, 2002
  62. ^ Solomon, Karen. "Tienes que sentir la música". Archivado el 16 de agosto de 2009 en Wayback Machine . wired.com . Condé Nast. 27 de febrero de 2000. Web. 13 de agosto de 2012.
  63. ^ Cook, Janet Harniman. "Musitek Midiscan v2.51 Archivado el 10 de enero de 2012 en Wayback Machine ". Sound on Sound . SOS Publications. Diciembre de 1998. Impreso.
  64. ^ Johnson, Derek (marzo de 1999). «Software de edición de Yamaha FS1R». Sound on Sound . Archivado desde el original el 25 de diciembre de 2011.
  65. ^ Johnson, Derek; Poyser, Debbie (diciembre de 1998). "Yamaha FS1R". Sound on Sound . Archivado desde el original el 15 de abril de 2007.
  66. ^ abc Gibbs, Jonathan (Rev. por Peter Howell) "Música electrónica". Práctica de grabación de sonido , 4.ª edición, Ed. John Borwick. Oxford: Oxford University Press, 1996
  67. ^ "Editor universal de Sound Quest MIDI Quest 11". squest.com . Archivado desde el original el 6 de marzo de 2014.
  68. ^ ab "Desktop Music Handbook – MIDI". cakewalk.com . Cakewalk, Inc. 26 de noviembre de 2010. Archivado desde el original el 14 de agosto de 2012.
  69. ^ "Base de parches". Archivado desde el original el 7 de septiembre de 2022 . Consultado el 7 de septiembre de 2022 .
  70. ^ Price, Simon (julio de 2006). «Native Instruments Kore». Soundonsound.com . Sound on Sound. Archivado desde el original el 2 de junio de 2013. Consultado el 27 de noviembre de 2012 .
  71. ^ Ben Rogerson (7 de junio de 2011). «Native Instruments discontinúa Kore». MusicRadar . Archivado desde el original el 7 de septiembre de 2022. Consultado el 7 de septiembre de 2022 .
  72. ^ ab Bozeman, William C. Tecnología educativa: mejores prácticas de las escuelas de Estados Unidos . Larchmont: Eye on Education, 1999.
  73. ^ Lehrman, Paul D. (octubre de 1995). "Síntesis de software: ¿la ola del futuro?". Sound on Sound . SOS Publications. Archivado desde el original el 10 de enero de 2012.
  74. ^ abc Walker, Martin (marzo de 2001). "Identificación y solución de problemas de sincronización de audio y MIDI en PC". Sound on Sound . SOS Publications. Archivado desde el original el 10 de enero de 2012.
  75. ^ ab Miller, Dennis (mayo de 1997). "Síntesis de sonido en una computadora, parte 2". Sound on Sound . SOS Publications. Archivado desde el original el 10 de enero de 2012.
  76. ^ "Ancestros y hitos del MIDI". New Bay Media . Archivado desde el original el 30 de octubre de 2012.
  77. ^ Walker, Martin (noviembre de 1997). "Reality PC". Sound on Sound . SOS Publications. Archivado desde el original el 25 de febrero de 2015.
  78. ^ "Syntauri alphaSyntauri | Vintage Synth Explorer". Archivado desde el original el 7 de septiembre de 2022 . Consultado el 7 de septiembre de 2022 .
  79. ^ Wherry, Mark (junio de 2003). "Creamware SCOPE". Sound on Sound . SOS Publications. Archivado desde el original el 25 de diciembre de 2011.
  80. ^ Anderton, Craig. "Sonic Core SCOPE Xite-1". New Bay Media . Archivado desde el original el 30 de octubre de 2012.
  81. ^ David Nicholson. "HARDWARE". Archivado el 2 de mayo de 2013 en Wayback Machine . The Washington Post. Washingtonpost Newsweek Interactive. 1993
  82. ^ ab Levy, David S. "La tarjeta secundaria WavePower de Aztech mejora la recepción de FM. (Tarjeta complementaria de síntesis de tabla de ondas de Aztech Labs Inc. para tarjetas de sonido Sound Blaster 16 o Sound Galaxy Pro 16) (Revisión de hardware) (Evaluación). Archivado el 2 de mayo de 2013 en Wayback Machine ." Computer Shopper. SX2 Media Labs LLC. 1994.
  83. ^ Labriola, Don. "MIDI masters: wavetable synthesis brings sonic realism to cheap sound cards. (Revisión de ocho tarjetas de sonido de interfaz digital para instrumentos musicales) (incluye artículos relacionados sobre metodología de pruebas, inconvenientes de la tecnología de tabla de ondas, desarrollos futuros de tabla de ondas) (Revisión de hardware) (Evaluación)". Archivado el 2 de mayo de 2013 en Wayback Machine . Computer Shopper. SX2 Media Labs LLC. 1994.
  84. ^ "Especificaciones eléctricas de 5 pines DIN". The MIDI Association . Archivado desde el original el 28 de mayo de 2021. Consultado el 8 de abril de 2021 .
  85. ^ Lockwood, Dave. "TC Electronic G Major Archivado el 20 de marzo de 2012 en Wayback Machine ". Sound on Sound . SOS Publications. Diciembre de 2001. Impreso.
  86. ^ Mornington-West, Allen. "Teoría digital". Práctica de grabación de sonido . 4.ª edición. Ed. John Borwick. Oxford: Oxford University Press, 1996.
  87. ^ "Richmond Sound Design – Preguntas frecuentes Archivado el 5 de enero de 2006 en Wayback Machine ". richmondsounddesign.com . Web. 5 de agosto de 2012.
  88. ^ Kirn, Peter (26 de agosto de 2015). "¿Qué pasaría si utilizáramos cables minijack estéreo para MIDI?". Archivado desde el original el 19 de abril de 2023.
  89. ^ "Especificación para adaptadores TRS adoptada y publicada". www.midi.org . Archivado desde el original el 30 de agosto de 2023 . Consultado el 30 de agosto de 2023 .
  90. ^ "Es oficial: las conexiones minijack ahora son compatibles con MIDI". 21 de agosto de 2018. Archivado desde el original el 24 de julio de 2019 . Consultado el 24 de julio de 2019 .
  91. ^ ab Hass, Jeffrey. "Capítulo tres: Cómo funciona el MIDI 2 Archivado el 17 de junio de 2015 en Wayback Machine ". Escuela de Música Jacobs de la Universidad de Indiana. 2010. Web. 13 de agosto de 2012.
  92. ^ Julian Horsey (10 de septiembre de 2019). «MIDI Router Control Center: una reinvención moderna del enrutador MIDI». Archivado desde el original el 2 de octubre de 2022. Consultado el 10 de mayo de 2022 .
  93. ^ Robinson, Herbie. "Re: core midi time stamping Archivado el 28 de octubre de 2012 en Wayback Machine ". Lista de correo de Apple Coreaudio-api . Apple, Inc. 18 de julio de 2005. 8 de agosto de 2012.
  94. ^ Shirak, Rob. "Mark of the Unicorn Archivado el 23 de marzo de 2014 en Wayback Machine ". emusician.com . New Bay Media. 1 de octubre de 2000. Web. Consultado el 8 de agosto de 2012.
  95. ^ "Instrumentos de interpretación MIDI". Archivado el 18 de noviembre de 2012 en Wayback Machine . Instruments of Change . Vol. 3, N.º 1 (invierno de 1999). Roland Corporation, EE. UU.
  96. ^ "Productos MIDI". Asociación de Fabricantes MIDI. 1 de agosto de 2012. Archivado desde el original el 16 de julio de 2012.
  97. ^ Lanier, Jaron (2011). No eres un gadget . Nueva York: Vintage. ISBN 978-0-307-38997-8.
  98. ^ Preve, Francis. "Dave Smith", en "The 1st Annual Keyboard Hall of Fame". Teclado (EE. UU.). NewBay Media, LLC. Septiembre de 2012. Versión impresa. p. 18
  99. ^ "Korg Legacy Collection". Archivado el 16 de septiembre de 2012 en Wayback Machine . Vintage Synth Explorer . Consultado el 21 de agosto de 2012.
  100. ^ abc MMA. «Especificación eléctrica MIDI DIN» (PDF) . Archivado (PDF) del original el 22 de diciembre de 2015. Consultado el 31 de agosto de 2016 .
  101. ^ Hass, Jeffrey. "Capítulo tres: Cómo funciona el MIDI 3 Archivado el 19 de junio de 2015 en Wayback Machine ". Escuela de Música Jacobs de la Universidad de Indiana. 2010. Web. 13 de agosto de 2012.
  102. ^ "Solicitar ID de SysEx". Asociación de Fabricantes MIDI . Archivado desde el original el 23 de septiembre de 2021. Consultado el 6 de octubre de 2023 .
  103. ^ Hass, Jeffrey. "Capítulo tres: cómo funciona el MIDI 9 Archivado el 7 de junio de 2015 en Wayback Machine ". Escuela de Música Jacobs de la Universidad de Indiana. 2010. Web. 13 de agosto de 2012.
  104. ^ "Mensajes exclusivos del sistema universal MIDI 1.0". Asociación de fabricantes de MIDI . Archivado desde el original el 21 de julio de 2023. Consultado el 6 de octubre de 2023 .
  105. ^ "[Actualizado] Cómo fabricar tus propios cables TRS a MIDI DIN de 5 pines de 3,5 mm mini estéreo". The MIDI Association . Archivado desde el original el 14 de diciembre de 2023. Consultado el 14 de diciembre de 2023 .
  106. ^ "Una guía simplificada de MIDI sobre miniconectores TRS – minimidi.world". minimidi.world . Archivado desde el original el 14 de diciembre de 2023 . Consultado el 14 de diciembre de 2023 .
  107. ^ ab "Tutorial MIDI - SparkFun Learn". SparkFun . Archivado desde el original el 15 de diciembre de 2023 . Consultado el 15 de diciembre de 2023 .
  108. Russ, Martin (1 de enero de 1988). «Practically MIDI (SOS Jan 1988)». Sound on Sound (enero de 1988): 56–59. Archivado desde el original el 14 de diciembre de 2023. Consultado el 14 de diciembre de 2023 .
  109. ^ abc Bello, Juan P. "MIDI: control del sonido Archivado el 20 de noviembre de 2012 en Wayback Machine . nyu.edu . New York University. nd Web. 18 de agosto de 2012
  110. ^ Ialuna, John. "General MIDI (GM) Level 1 Sound Set". Archivos MIDI de Hit Trax . Archivado desde el original el 15 de agosto de 2018. Consultado el 15 de agosto de 2018 .
  111. ^ "Estándar MIDI general Archivado el 20 de enero de 2013 en Wayback Machine ". pgcc.edu . Prince George's Community College. nd Web.
  112. ^ ""General MIDI Standard". www.harfesoft.de. npnd Web". Harfesoft.de. Archivado desde el original el 28 de agosto de 2012. Consultado el 27 de noviembre de 2012 .
  113. ^ Glatt, Jeff. "General MIDI Archivado el 23 de octubre de 2012 en Wayback Machine ". El centro de lavado de cerebro del fanático técnico del MIDI . npnd Web. 17 de agosto de 2012
  114. ^ "General MIDI Lite". www.midi.org . Archivado desde el original el 15 de diciembre de 2023 . Consultado el 15 de diciembre de 2023 .
  115. ^ Nagle, Paul. "Yamaha MU50 y Yamaha CBX-K1 Archivado el 10 de enero de 2012 en Wayback Machine ". Sound on Sound . SOS Publications. Septiembre de 1995. Impreso.
  116. ^ "Acerca de General MIDI Archivado el 3 de enero de 2012 en Wayback Machine ". midi.org . Asociación de Fabricantes MIDI. nd Web. 17 de agosto de 2012
  117. ^ ab "El estándar de afinación MIDI Archivado el 18 de noviembre de 2012 en Wayback Machine . microtonal-synthesis.com . npnd Web. 17 de agosto de 2012
  118. ^ "Mensajes de ajuste MIDI". Asociación de fabricantes de MIDI. 17 de agosto de 2012. Archivado desde el original el 30 de noviembre de 2012.
  119. ^ Glatt, Jeff. "Los comienzos del MIDI Archivado el 1 de mayo de 2012 en Wayback Machine ". El Centro de Lavado de Cerebro del Fanático Técnico del MIDI . npnd Web. 13 de agosto de 2012.
  120. ^ Glatt, Jeff. "Código de tiempo MIDI Archivado el 12 de febrero de 2012 en Wayback Machine ". El centro de lavado de cerebro del fanático técnico del MIDI . npnd Web. 13 de agosto de 2012.
  121. ^ ""Q & A". Sweet Notes. Sweetwater Sound. Verano de 1996. Web". Sweetwater.com. Archivado desde el original el 5 de diciembre de 2012. Consultado el 27 de noviembre de 2012 .
  122. ^ White, Paul. "SMPTE y MTC (código de tiempo MIDI) Archivado el 10 de enero de 2012 en Wayback Machine ". Sound on Sound . SOS Publications. Junio ​​de 1996. Impreso.
  123. ^ Glatt, Jeff. "Control de máquina MIDI (MMC) Archivado el 27 de noviembre de 2012 en Wayback Machine ". El centro de lavado de cerebro del fanático técnico del MIDI . npnd Web.
  124. ^ "Glosario: Control de máquina MIDI (MMC) Archivado el 5 de diciembre de 2012 en Wayback Machine ". sweetwater.com . Sweetwater Sound. nd Web. 15 de agosto de 2012.
  125. ^ ab "Página de noticias archivada el 17 de julio de 2012 en Wayback Machine ". richmondsounddesign.com . Richmond Sound Design, Ltd. 17 de julio de 2012. Web. 17 de agosto de 2012
  126. ^ "Un sistema económico de control de espectáculos MIDI Archivado el 21 de junio de 2012 en Wayback Machine ". Lighting TechNotes . Universidad de Virginia. 25 de octubre de 2004. Web. 17 de agosto de 2012.
  127. ^ "Glosario: MTS (sello de tiempo MIDI) Archivado el 5 de diciembre de 2012 en Wayback Machine ". sweetwater.com . Sweetwater Sound. nd Web. 17 de agosto de 2012
  128. ^ ab Walker, Martin. "La verdad sobre la latencia: Parte 2 Archivado el 25 de diciembre de 2011 en Wayback Machine ". Sound on Sound . SOS Publications. Octubre de 2002. Impreso.
  129. ^ Glatt, Jeff. [1]. El centro de lavado de cerebro del fanático técnico MIDI . npnd Web. 13 de agosto de 2012.
  130. ^ "Massey, Howard. "DLS Overview". midi.org. nd Web. 27 de agosto de 2012". Midi.org. Archivado desde el original el 27 de noviembre de 2012. Consultado el 27 de noviembre de 2012 .
  131. ^ ""DLS 1 Spec". midi.org. nd Web. 27 Aug 2012". Midi.org. Archivado desde el original el 30 de noviembre de 2012. Consultado el 27 de noviembre de 2012 .
  132. ^ ab MIDI Manufacturers Association (enero de 2018). «¡Se adoptó la especificación MIDI Polyphonic Expression (MPE)!». Archivado desde el original el 2 de noviembre de 2017. Consultado el 12 de febrero de 2018 .
  133. ^ Linn, Roger. «Para desarrolladores de generadores de sonido MIDI: cómo agregar capacidad MPE». Archivado desde el original el 17 de septiembre de 2016. Consultado el 8 de septiembre de 2016 .
  134. ^ abc «La Asociación de Fabricantes MIDI (MMA) adopta la especificación MIDI Capability Inquiry (MIDI-CI)». www.midi.org . Archivado desde el original el 23 de enero de 2019 . Consultado el 13 de septiembre de 2018 .
  135. ^ Robair, Gino. "Tres pioneros discuten sobre la expresión polifónica multidimensional". ROLI . Músico electrónico. Archivado desde el original el 11 de enero de 2019. Consultado el 10 de enero de 2019 .
  136. ^ Ashour, Gal, et al. "Definición de clase de dispositivo de bus serie universal para dispositivos MIDI". USB Implementers Forum . Archivado el 26 de abril de 2015 en Wayback Machine . 1 de noviembre de 1999. Consultado el 22 de agosto de 2012.
  137. ^ ab Wiffen, Paul. "Introducción a mLAN, parte 1". Archivado el 2 de enero de 2016 en Wayback Machine . Sound on Sound . SOS Publications. Agosto de 2000.
  138. ^ ab Wiffen, Paul. "Introducción a mLAN, parte 2". Archivado el 10 de enero de 2012 en Wayback Machine . Sound on Sound . SOS Publications. Septiembre de 2000.
  139. ^ abcd "Cables y transportes MIDI Archivado el 4 de noviembre de 2012 en Wayback Machine ". midi.org . Asociación de Fabricantes de Música. nd Web. 27 de agosto de 2012.
  140. ^ Vail, Mark. "Voyetra 8: El sintetizador polifónico analógico original para montaje en rack". Revista Keyboard . Turtle Beach. Archivado desde el original el 30 de junio de 2013. Consultado el 21 de mayo de 2013 .
  141. ^ "Manual del propietario del sintetizador de control CS2x". Yamaha Corporation, 1998.
  142. ^ ""PreSonus FIREstation". presonus.com. npnd Web. 18 Aug 2012". Presonus.com. Archivado desde el original el 31 de diciembre de 2012. Consultado el 27 de noviembre de 2012 .
  143. ^ Trask, Simon (1992). "Sintetizador de reproducción de muestras Peavey SP". Music Technology (agosto de 1992): 52–56. Archivado desde el original el 16 de mayo de 2021.
  144. ^ Walker, Martin (1996). "Integración de samplers y su PC mediante SCSI". Sound on Sound . Archivado desde el original el 22 de diciembre de 2023. Consultado el 22 de diciembre de 2023 .
  145. ^ Sweetwater (23 de abril de 1999). «SMDI». inSync . Archivado desde el original el 5 de octubre de 2015 . Consultado el 22 de diciembre de 2023 .
  146. ^ "rtpMIDI". tobias-erichsen.de . npnd Web. 22 de agosto de 2012 Descarga del controlador RTP-MIDI para Windows Archivado el 16 de agosto de 2012 en Wayback Machine
  147. ^ Kirn, Peter. "La edad de oro de la tecnología inalámbrica: Korg iOS Sync, Android + hardware MIDI. ¿Llega el Bluetooth MIDI? Archivado el 11 de septiembre de 2012 en Wayback Machine ". createdigitalmusic.com . np 25 de marzo de 2011. Web.
  148. ^ ""TouchOSC". hexler.net npnd Web. 20 de agosto de 2012". Hexler.net. Archivado desde el original el 5 de diciembre de 2012. Consultado el 27 de noviembre de 2012 .
  149. ^ "Adaptador XBee: programación inalámbrica de Arduino Archivado el 2 de junio de 2012 en Wayback Machine ". ladyada.net . np 17 de mayo de 2011. Web. 20 de agosto de 2012.
  150. ^ «TouchDAW – Controlador DAW y utilidades MIDI para Android™». Archivado desde el original el 7 de septiembre de 2016 . Consultado el 31 de agosto de 2016 .
  151. ^ "MIDI 2.0 en el NAMM Show 2020". www.midi.org . Archivado desde el original el 10 de abril de 2020 . Consultado el 18 de enero de 2020 .
  152. ^ "ADC 2019 presenta MIDI 2.0 y más". www.midi.org . Consultado el 18 de enero de 2020 .[ enlace muerto permanente ]
  153. ^ ab "Anuncio del protocolo MMA HD Archivado el 14 de mayo de 2011 en Wayback Machine ". midi.org . Asociación de fabricantes de MIDI. nd Web. 22 de agosto de 2012
  154. ^ ab "General Meeting for MIDI Developers by MMA Archivado el 9 de enero de 2012 en Wayback Machine . pro-music-news.com . Pro-Music-News. nd 22 de agosto de 2012
  155. ^ "Noticias: La Asociación de Fabricantes MIDI organizará una sesión de estrategia empresarial sobre la nueva tecnología avanzada de control de instrumentos musicales en el Winter NAMM Show". 17 de enero de 2015. Archivado desde el original el 14 de octubre de 2016 . Consultado el 31 de agosto de 2016 .
  156. ^ "NAMM 2013: Mesa redonda: Pasado, presente y futuro del MIDI". Future Music . 4 de febrero de 2013. Archivado desde el original el 14 de octubre de 2016. Consultado el 31 de agosto de 2016 en YouTube.
  157. ^ abcdef «Detalles sobre MIDI 2.0, MIDI-CI, perfiles e intercambio de propiedades». www.midi.org . Archivado desde el original el 15 de agosto de 2019 . Consultado el 15 de agosto de 2019 .
  158. ^ Deahl, Dani (7 de enero de 2020). «El teclado A-88MKII de Roland es una señal de que MIDI 2.0 está en camino». The Verge . Archivado desde el original el 8 de enero de 2020. Consultado el 9 de enero de 2020 .
  159. ^ ab «Detalles sobre MIDI 2.0™, MIDI-CI, perfiles e intercambio de propiedades». The MIDI Association . Archivado desde el original el 21 de septiembre de 2022. Consultado el 21 de septiembre de 2022 .
  160. ^ "Mike Kent, Florian Bomers y Brett Porter: Introducción a MIDI 2.0 - YouTube". www.youtube.com . Archivado desde el original el 11 de diciembre de 2021.
  161. ^ "Arne Scheffler y Janne Roeper - Soporte de MIDI2 y MIDI-CI en instrumentos VST3 - YouTube". www.youtube.com . Archivado desde el original el 11 de diciembre de 2021.

Enlaces externos