Le processus de création musicale a beaucoup changé au cours des 50 dernières années, la technologie musicale étant passée d’une réalité analogique à numérique. Alors que les partitions, les tablatures de guitare ou une notation encore plus simple sont utilisées par les interprètes jouant d’instruments acoustiques ou électriques, le midi offre désormais un langage similaire pour les appareils numériques afin de jouer la musique que nous créons sans avoir besoin d’un interprète en direct. Cet article retrace l’histoire du midi, de ses origines 1.0 aux innovations avant-gardistes 2.0, en soulignant les façons dont cette technologie révolutionnaire a changé la musique en cours de route.
MIDI, abréviation de Music Instrument Digital Interface et souvent écrit « midi », est une norme de communication qui a été créée à l’origine pour que les technologies musicales numériques aient un moyen commun de communiquer entre elles. L’année dernière, après plus de trente ans de domination du midi sur la production musicale numérique, le MIDI 2.0 a été annoncé à la grande joie des artistes du monde entier. En prévision d’une autre révolution du midi, revenons sur la raison pour laquelle le midi a été créé et examinons l’impact qu’il a eu sur le monde de la musique depuis son lancement.
Le problème : le matériel devient de plus en plus difficile à interconnecter
Avant l’invention du midi au début des années 1980, les synthétiseurs numériques transféraient les informations en utilisant différentes normes de l’entreprise. Cela avait du sens, car cela permettait à des entreprises comme Oberheim, Yamaha et Roland d’évincer leurs concurrents en rendant leurs produits incompatibles avec les autres produits concurrents. Les créateurs de musique, qui achetaient généralement leur matériel auprès d’une multitude de fabricants différents, ont donc dû faire face seuls à la question de plus en plus complexe de la compatibilité.
La solution : un langage commun pour améliorer la communication entre les appareils
En réponse à ce problème, des personnes comme Ikutaro Kakehashi de Roland et Dave Smith de Sequential Circuits ont fait pression pour une norme de communication industrielle. Au départ, le concept de midi a été fortement critiqué. Les concepteurs étaient sceptiques quant aux limites du format midi, les entreprises protégeaient leurs écosystèmes de produits fermés, et les musiciens craignaient pour leur avenir à mesure que les applications musicales du format midi devenaient plus claires. En fin de compte, les fabricants de matériel informatique ont convenu que le midi serait bénéfique pour leur marché commun. Lors du salon d’hiver 1983 de la National Association of Music Merchants (NAMM), un synthétiseur Roland Jupiter 6 a parlé avec un synthétiseur Prophet 600 de Sequential Circuits, ce qui a permis au midi de se faire connaître du public.
Alors, qu’est-ce que c’est exactement le MIDI ?
Il serait peut-être plus facile de commencer avec le fait que le MIDI n’est pas de l’audio. Les fichiers MIDI transmettent des informations, plutôt que de générer ou d’enregistrer un morceau d’audio. De cette façon, les données MIDI ressemblent davantage à des partitions de musique, qu’un ordinateur ou un autre appareil qui lit les données MIDI peut ensuite jouer. L’un des grands avantages du MIDI est que cette interprétation peut être modifiée, les instruments, la hauteur et les arrangements peuvent tous être facilement ajustés.
Le MIDI comporte trois éléments principaux : Les messages MIDI (ou protocole MIDI), les transports physiques et les formats de fichiers. Le protocole MIDI est ce qui décrit les informations à partager, en utilisant différents types de messages standardisés comme Note Off ou On. Les messages MIDI peuvent être divisés en deux grosses catégories : les messages de canaux (channel messages) et les messages système (system messages), en fonction de l’endroit où ils envoient des informations. Les transports physiques sont les supports qui transportent ces messages, y compris le MIDI à 5 broches, l’USB, le FireWire, l’Ethernet, le WiFi (LAN) et le Bluetooth. Les formats de fichier MIDI standard (Standard MIDI File, SMF) utilisent généralement une extension *.mid. Le chargement d’un fichier MIDI standard dans une station de travail audionumérique permet à l’utilisateur d’ajuster l’interprétation du fichier. Comme ils ne doivent pas stocker de données audio, les fichiers MIDI ont généralement une taille inférieure à celle des formats de fichier tels que *.mp4 ou *.wav.
L’impact du midi sur la musique
1983 – Communication entre les instruments
Les premières démonstrations de la capacité du midi ont consisté à faire jouer des notes sur un synthétiseur, les informations du midi étant envoyées et jouées par un autre synthétiseur. La vidéo ci-dessous présente le co-créateur de midi, Dave Smith, qui parle de la conception et des premiers temps de midi.
1984 – Innovation en matière de flux de travail
Les instruments compatibles avec le système Midi ont rapidement été rejoints par les ordinateurs. Cela a permis une innovation révolutionnaire dans le flux de production musicale : les maquettes midi. Les partitions musicales pouvaient désormais être traduites en format midi, envoyées par un séquenceur et jouées par différents synthés en utilisant des répliques approximatives des sons souhaités. Grâce aux maquettes midi, les compositeurs pouvaient désormais faire des démonstrations et modifier leurs partitions à moindre coût, ce qui retardait la nécessité d’engager des musiciens professionnels jusqu’à ce que la partition soit parfaite. Regardez le légendaire compositeur Hans Zimmer parler de son processus de composition basé sur les maquettes midi en utilisant Cubase.
1985 – Innovation des instruments
La numérisation des instruments traditionnels avait commencé dans les années 1970, mais la norme midi a permis d’inventer de nouveaux instruments, tant virtuels que physiques, qui interprètent et jouent les instructions midi de manière inédite. Les 15 dernières années ont vu une explosion du développement des contrôleurs midi, des fabricants établis aux nouvelles startups et même aux bricoleurs qui ont transformé les contrôleurs de jeux vidéo en instruments basés sur la norme midi.
1986 – Numérisation de la production musicale
Au moment même où le midi était introduit, les ordinateurs personnels devenaient de plus en plus puissants et populaires aussi. Les ordinateurs personnels des années 1980, comme l’Apple IIe, l’Atari ST et le Commodore 64, étaient tous compatibles avec le format midi. Les éditeurs de logiciels complétant le flux de travail midi, appelés Digital Audio Workstations (DAW), ont également évolué dans les années 1990 et au-delà, avec des produits précurseurs notables tels que Sound Tools (1989), Studio Vision (1990), Pro Tools (1991) et Cubase Audio Mac (1992). Le Midi est polyvalent et peut prendre en charge un large éventail d’applications de protocole, y compris, mais sans s’y limiter, d’autres instruments, des lumières et des machines à fumée. De nombreux DAW utilisent également des interfaces hautement visuelles, ce qui signifie que le midi est un moyen facile de commencer à faire des arrangements musicaux avec peu ou pas de formation formelle en théorie musicale.
Jetez un coup d’œil à cette démonstration de 1986 de la « musique MIDI », qui utilisait un ordinateur compatible avec le midi et un ancien DAW pour envoyer des informations à un synthé, qui manipulait ensuite et produisait de l’audio. C’était avant que les instruments virtuels ne permettent à l’ensemble du processus de création musicale et de manipulation audio de fonctionner dans un cadre virtuel.
MIDI 2.0 : À quoi s’attendre
Les protocoles midi original proposé dans les années 1980 ont été légèrement modifiés au fil des ans, mais l’annonce de la mise en place du MIDI 2.0 en 2019 représente véritablement une nouvelle phase passionnante de l’histoire du midi. Google, imitone, Native Instruments, Roland, et bien d’autres encore ont tous contribué au développement continu du 2.0. Parmi les développements à venir, on peut citer :
Nouveaux équipements
Les nouveaux instruments midi 2.0 comme le clavier A-88MKII de Roland vont transmettre des informations entre eux, plutôt que de ne transmettre des informations que dans un seul sens. Ils reviendront également au MIDI 1.0 lorsque cela sera nécessaire pour que d’autres appareils plus anciens ne soient pas rendus obsolètes.
Amélioration des messages et des délais
Les messages MIDI 1.0 sont généralement sur 7 bits. En MIDI 2.0, la vélocité est de 16 bits, tandis que les 128 messages de « control change », les 16 384 contrôleurs enregistrés, les contrôleurs assignables, la pression polyphonique des canaux, et le pitch bend sont tous de 32 bits. Le MIDI 2.0 résoudra également les problèmes connus de précision et de synchronisation en introduisant des » tampons temporels » (« jitter timestamps ») pour améliorer la précision du timing. Ces changements permettront de concevoir des appareils plus sophistiqués.
Une conception avant-gardiste
Des « profils » faciles à transférer, qui stockent les configurations des appareils, pourraient contribuer à réduire le temps nécessaire pour mapper un appareil MIDI unique, tout en améliorant l’efficacité du flux de travail. Ces profils peuvent également être connectés à des « échanges de propriétés » (property exchanges) qui aident l’utilisateur MIDI à se familiariser rapidement avec son appareil. Les profils et les échanges de propriétés reflètent les priorités des développeurs pour que le MIDI 2.0 soit une extension avant-gardiste du MIDI 1.0.
MIDI, abréviation de Music Instrument Digital Interface et souvent écrit « midi », est une norme de communication qui a été créée à l’origine pour que les technologies musicales numériques aient un moyen commun de communiquer entre elles. L’année dernière, après plus de trente ans de domination du midi sur la production musicale numérique, le MIDI 2.0 a été annoncé à la grande joie des artistes du monde entier. En prévision d’une autre révolution du midi, revenons sur la raison pour laquelle le midi a été créé et examinons l’impact qu’il a eu sur le monde de la musique depuis son lancement.
Le problème : le matériel devient de plus en plus difficile à interconnecter
Avant l’invention du midi au début des années 1980, les synthétiseurs numériques transféraient les informations en utilisant différentes normes de l’entreprise. Cela avait du sens, car cela permettait à des entreprises comme Oberheim, Yamaha et Roland d’évincer leurs concurrents en rendant leurs produits incompatibles avec les autres produits concurrents. Les créateurs de musique, qui achetaient généralement leur matériel auprès d’une multitude de fabricants différents, ont donc dû faire face seuls à la question de plus en plus complexe de la compatibilité.
La solution : un langage commun pour améliorer la communication entre les appareils
En réponse à ce problème, des personnes comme Ikutaro Kakehashi de Roland et Dave Smith de Sequential Circuits ont fait pression pour une norme de communication industrielle. Au départ, le concept de midi a été fortement critiqué. Les concepteurs étaient sceptiques quant aux limites du format midi, les entreprises protégeaient leurs écosystèmes de produits fermés, et les musiciens craignaient pour leur avenir à mesure que les applications musicales du format midi devenaient plus claires. En fin de compte, les fabricants de matériel informatique ont convenu que le midi serait bénéfique pour leur marché commun. Lors du salon d’hiver 1983 de la National Association of Music Merchants (NAMM), un synthétiseur Roland Jupiter 6 a parlé avec un synthétiseur Prophet 600 de Sequential Circuits, ce qui a permis au midi de se faire connaître du public.
Alors, qu’est-ce que c’est exactement le MIDI ?
Il serait peut-être plus facile de commencer avec le fait que le MIDI n’est pas de l’audio. Les fichiers MIDI transmettent des informations, plutôt que de générer ou d’enregistrer un morceau d’audio. De cette façon, les données MIDI ressemblent davantage à des partitions de musique, qu’un ordinateur ou un autre appareil qui lit les données MIDI peut ensuite jouer. L’un des grands avantages du MIDI est que cette interprétation peut être modifiée, les instruments, la hauteur et les arrangements peuvent tous être facilement ajustés.
Le MIDI comporte trois éléments principaux : Les messages MIDI (ou protocole MIDI), les transports physiques et les formats de fichiers. Le protocole MIDI est ce qui décrit les informations à partager, en utilisant différents types de messages standardisés comme Note Off ou On. Les messages MIDI peuvent être divisés en deux grosses catégories : les messages de canaux (channel messages) et les messages système (system messages), en fonction de l’endroit où ils envoient des informations. Les transports physiques sont les supports qui transportent ces messages, y compris le MIDI à 5 broches, l’USB, le Firewire, l’Ethernet, le WiFi (LAN) et le Bluetooth. Les formats de fichier MIDI standard (Standard MIDI File, SMF) utilisent généralement une extension *.mid. Le chargement d’un fichier MIDI standard dans une station de travail audionumérique permet à l’utilisateur d’ajuster l’interprétation du fichier. Comme ils ne doivent pas stocker de données audio, les fichiers MIDI ont généralement une taille inférieure à celle des formats de fichier tels que *.mp4 ou *.wav.
L’impact du midi sur la musique
1983 – Communication entre les instruments
Les premières démonstrations de la capacité du midi ont consisté à faire jouer des notes sur un synthétiseur, les informations du midi étant envoyées et jouées par un autre synthétiseur. La vidéo ci-dessous présente le co-créateur de midi, Dave Smith, qui parle de la conception et des premiers temps de midi.
1984 – Innovation en matière de flux de travail
Les instruments compatibles avec le système Midi ont rapidement été rejoints par les ordinateurs. Cela a permis une innovation révolutionnaire dans le flux de production musicale : les maquettes midi. Les partitions musicales pouvaient désormais être traduites en format midi, envoyées par un séquenceur et jouées par différents synthés en utilisant des répliques approximatives des sons souhaités. Grâce aux maquettes midi, les compositeurs pouvaient désormais faire des démonstrations et modifier leurs partitions à moindre coût, ce qui retardait la nécessité d’engager des musiciens professionnels jusqu’à ce que la partition soit parfaite. Regardez le légendaire compositeur Hans Zimmer parler de son processus de composition basé sur les maquettes midi en utilisant Cubase.
1985 – Innovation des instruments
La numérisation des instruments traditionnels avait commencé dans les années 1970, mais la norme midi a permis d’inventer de nouveaux instruments, tant virtuels que physiques, qui interprètent et jouent les instructions midi de manière inédite. Les 15 dernières années ont vu une explosion du développement des contrôleurs midi, des fabricants établis aux nouvelles startups et même aux bricoleurs qui ont transformé les contrôleurs de jeux vidéo en instruments basés sur la norme midi.
1986 – Numérisation de la production musicale
Au moment même où le midi était introduit, les ordinateurs personnels devenaient de plus en plus puissants et populaires aussi. Les ordinateurs personnels des années 1980, comme l’Apple IIe, l’Atari ST et le Commodore 64, étaient tous compatibles avec le format midi. Les éditeurs de logiciels complétant le flux de travail midi, appelés Digital Audio Workstations (DAW), ont également évolué dans les années 1990 et au-delà, avec des produits précurseurs notables tels que Sound Tools (1989), Studio Vision (1990), Pro Tools (1991) et Cubase Audio Mac (1992). Le Midi est polyvalent et peut prendre en charge un large éventail d’applications de protocole, y compris, mais sans s’y limiter, d’autres instruments, des lumières et des machines à fumée. De nombreux DAW utilisent également des interfaces hautement visuelles, ce qui signifie que le midi est un moyen facile de commencer à faire des arrangements musicaux avec peu ou pas de formation formelle en théorie musicale.
Jetez un coup d’œil à cette démonstration de 1986 de la « musique MIDI », qui utilisait un ordinateur compatible avec le midi et un ancien DAW pour envoyer des informations à un synthé, qui manipulait ensuite et produisait de l’audio. C’était avant que les instruments virtuels ne permettent à l’ensemble du processus de création musicale et de manipulation audio de fonctionner dans un cadre virtuel.
MIDI 2.0 : À quoi s’attendre
Les protocoles midi originaux proposés dans les années 1980 ont été légèrement modifiés au fil des ans, mais l’annonce de la mise en place du MIDI 2.0 en 2019 représente véritablement une nouvelle phase passionnante de l’histoire du midi. Google, imitone, Native Instruments, Roland, et bien d’autres encore ont tous contribué au développement continu du 2.0. Parmi les développements à venir, on peut citer:
Nouveaux équipements
Les nouveaux instruments midi 2.0 comme le clavier A-88MKII de Roland vont transmettre des informations entre eux, plutôt que de ne transmettre des informations que dans un seul sens. Ils reviendront également au MIDI 1.0 lorsque cela sera nécessaire pour que d’autres appareils plus anciens ne soient pas rendus obsolètes.
Amélioration des messages et des délais
Les messages MIDI 1.0 sont généralement sur 7 bits. En MIDI 2.0, la vélocité est de 16 bits, tandis que les 128 messages de « control change », les 16 384 contrôleurs enregistrés, les contrôleurs assignables, la pression polyphonique des canaux, et le pitch bend sont tous de 32 bits. Le MIDI 2.0 résoudra également les problèmes connus de précision et de synchronisation en introduisant des » tampons temporels » (« jitter timestamps ») pour améliorer la précision du timing. Ces changements permettront de concevoir des appareils plus sophistiqués.
Une conception avant-gardiste
Des « profils » faciles à transférer, qui stockent les configurations des appareils, pourraient contribuer à réduire le temps nécessaire pour mapper un appareil MIDI unique, tout en améliorant l’efficacité du flux de travail. Ces profils peuvent également être connectés à des « échanges de propriétés » (property exchanges) qui aident l’utilisateur MIDI à se familiariser rapidement avec son appareil. Les profils et les échanges de propriétés reflètent les priorités des développeurs pour que le MIDI 2.0 soit une extension avant-gardiste du MIDI 1.0.