Aller au contenu principal

Roland (Unternehmen)


Roland (Unternehmen)


Roland (jap. ローランド株式会社, Rōrando Kabushiki-gaisha, engl. Roland Corporation) ist ein japanischer Hersteller von elektronischen Musikinstrumenten, Studiotechnik und Software. Außerdem werden Plotter und Schneideplotter produziert. Die Musical Instrument Division zeichnet für 58,6 % der Gesamterlöse verantwortlich. Das an der Tokioter Börse gelistete Unternehmen wurde von Ikutarō Kakehashi in Osaka am 18. April 1972 mit 33 Millionen Yen gegründet. Heute betreibt Roland Fabriken in Japan, den Vereinigten Staaten, Italien und Taiwan. Seit April 2018 befindet sich die deutsche Niederlassung in Rüsselsheim. Die schweizerische Niederlassung befindet sich in Itingen BL.

Der Name Roland wurde gewählt, da das Unternehmen einen Namen suchte, der in möglichst vielen Ländern phonetisch gleich klingen und leicht zu merken sein sollte.

Die ersten Produkte, die Roland auf den Markt brachte, waren die Rhythmusmaschinen TR33, TR55 und TR77. Die Geräte wurden gemeinsam mit dem Orgelhersteller Hammond entwickelt. 1974 erschien das RE-201 Space Echo, ein analoger Echo-Effekt, der von Bands wie Can oder Radiohead bis heute verwendet wird. Roland hatte unter anderem mit den Geräten TR-808 (1981), TB-303 (1982) und TR-909 (1983) einen massiven Einfluss auf die Techno-/Elektro-Szene. Speziell die TB-303 war zur Zeit ihres Erscheinens ein Misserfolg. Der spartanische Basssynthesizer klang deutlich synthetisch und konnte seinen eigentlichen Zweck, die Simulation eines echten Basses, nicht erfüllen. Erst als Ende der 1980er- bis Anfang der 1990er-Jahre die Techno-Szene aufkeimte, avancierte die TB-303 zum Kult-Gerät. In der Acid-Musik wurden sogar fast ausschließlich diese Geräte verwendet. Während der 303-Hype Ende der 1990er-Jahre etwas abflachte, sind die Sounds der TR-808 und TR-909 auch heute bei elektronischer Musik präsent.

Mitte der 1970er-Jahre schuf Roland mit dem Jazz Chorus JC-120 einen legendären Gitarrenverstärker für unverzerrte Sounds, die mit einem hochwertigen eingebauten Chorus-Effekt versehen werden konnten. 1987 erschien der Digitalsynthesizer D-50, welcher in kurzer Zeit Kultstatus erreichte. Er wurde von Roland wegen anhaltender Popularität zum 30-jährigen Jubiläum seines Erscheinens als tastaturlose Version D-05 sowie als VST-Plugin neu aufgelegt. 1996 begründete Roland durch die MC-303 die Geräteklasse der Grooveboxen (eine Mischung aus Sequenzer und Synthesizer). Der Fantom G teilt sich mit dem Yamaha Motif XF und dem Korg Kronos den Markt der Spitzen-Keyboard-Music-Workstations. Die Synthesizer aus den Jupiter- und Juno-Reihen, der SH-101 und andere Geräte zählen zu den Klassikern in ihren Bereichen. Mit den JV-Synthesizern setzte Roland in den 1990er-Jahren zeitweise die Standards im Bereich der Sample-ROM-Synthesizer. Der 2003 erschienene V-Synth vereint hochwertige Samples, Granularsynthese sowie flexible Filter und Modulatoren in einem Gerät. Im Jahr 2004 wurde mit dem V-Accordion das erste vollelektronische Akkordeon vorgestellt.

Am 31. März 2009 beschäftigte Roland weltweit 2.708 Mitarbeiter und erzielte einen Gesamtumsatz von über 1 Mrd. US-Dollar. 2010 gehörten 2.699 Mitarbeiter dem Unternehmen an, 2013 3.060. 2014 waren es 2.945 Mitarbeiter. Im März 2022 löste der Brite Gordon Raison als CEO und repräsentativer Direktor den bisherigen Präsidenten Jun-ichi Miki ab, der seit 2013 im Amt gewesen war. Gordon hatte ab 2013 die europäischen Aktivitäten von Roland geleitet.

Im September 2022 wurde der US-amerikanische Hersteller von Schlagzeugen und Zubehör Drum Workshop (inklusive der Marken DW Drums, Pacific Drums and Percussion, Slingerland und Latin Percussion) übernommen.

Roland ist nach wie vor ein bedeutender Hersteller von Musik-Equipment, speziell im elektronischen Sektor. Darunter befinden sich Synthesizer, Digitalpianos, elektronische Akkordeons, elektronisches Schlagzeug, Gitarrensynthesizer und Gitarrenverstärker.

Weitere Marken, unter denen Roland auftritt, sind:

  • Boss (preiswertere Produktvariationen, Gitarreneffektpedale, Effektgeräte, Rhythmuscomputer)
  • Edirol by Roland (Audiorekorder und Videorekorder)
  • Rodgers (digitale Kirchen- und Konzertorgeln sowie Digital-/Pfeifen-Kombinationsorgeln)
  • Roland Digital Group (Roland DG, Plotter und Folienschneidplotter)
  • RSS by Roland (Commercial Audio Equipment)
  • RSG (Roland Systems Group)
  • Musical Instrument Digital Interface (MIDI)
  • Roland Corporation Roland Corporation
  • Financial Results | IR Library | IR | Roland Corporation. Abgerufen am 12. November 2023. 
  • Roland Axial – Synthesizer Sound Libraries
  • Vintage Synth Explorer: Roland – Liste älterer Roland-Instrumente (englisch)
  • Roland-Museum – Listen nahezu aller Roland- und Boss-Geräte
  • Roland Zone – umfangreiche Linkliste zu Ressourcen für Roland- und Boss-Instrumente (englisch)

Text submitted to CC-BY-SA license. Source: Roland (Unternehmen) by Wikipedia (Historical)


Roland TB-303


Roland TB-303


Die TB-303 ist ein analoger Synthesizer des japanischen Unternehmens Roland, der 1981 auf den Markt kam. Mit seinem charakteristischen Klang hat das Gerät die Musikrichtungen Acid House und Acid Techno maßgeblich geprägt und ist auf dem Gebrauchtmarkt inzwischen zu einer Rarität mit Kultstatus geworden.

Die TB-303 ist ein monophoner Analogsynthesizer. Die Klangsynthese beschränkt sich auf einen Oszillator mit zwei Wellenformen (Sägezahn und Rechteck) als Klangquelle, eine modulierende AD-Hüllkurve sowie einen Tiefpassfilter (VCF) mit einstellbarer Resonanz. Die Einstellungen des Filters und der Hüllkurve lassen sich in Echtzeit durch Drehpotentiometer verändern und die Klangfarbe so variieren. Beim Filter handelt sich um eine Variation der Moog-Kaskade mit einer Flankensteilheit von nominell 18 dB und rechnerisch 24 dB je Oktave. Es arbeitet mit Dioden als Ersatz für die Transistoren und besitzt eine zusätzliche Hüllkurve. Auf diesem Filter beruht, neben der äußerst charakteristischen Verzerrung, in der Hauptsache der Klangcharakter dieses Synthesizers.

Da aus Kostengründen darauf verzichtet wurde, einzeln selektierte Bauteile niedriger Toleranz zu verwenden, klingen die einzelnen TB-303-Modelle untereinander nicht genau gleich.

Der integrierte Stepsequenzer kann für jeden Schritt einzeln darauf programmiert werden, den Ton zu halten und die Tonhöhe nicht augenblicklich, sondern als Portamento hörbar langsamer an die programmierte anzunähern (Slide). Aufgrund der billigen Verarbeitung der Tasten neigen diese zum Prellen, so dass es bei altgedienten Geräten oft schwer vorhersagbar ist, wie viele Töne man mit einem Tastendruck eingibt.

Mit einem passenden Kabel (DIN-Sync) kann das Gerät mit den Drumcomputern von Rolands TR-Reihe synchronisiert werden. Einen MIDI-Anschluss besitzt das Gerät nicht.

Das Gerät erschien 1981 gleichzeitig mit der Roland TR-606, einem ebenfalls mittels Stepsequenzer programmierbaren Drumcomputer im verwandten Design, der seinerseits ein Nachfolger der legendären Roland TR-808 ist. In Deutschland kam das Gerät 1982 auf den Markt. Der Listenpreis betrug 395 US-Dollar, in Deutschland 730 DM. Entwickelt wurde es von Tadao Kikumoto, der später auch die Roland TR-909 entwarf.

Das „TB“ im Namen steht für „Transistor Bassline“ und verrät den ursprünglichen Verwendungszweck des Geräts, das als Ersatz für einen den Musiker begleitenden E-Bassisten gedacht war. Der Synthesizer war ursprünglich für Sologitarristen konzipiert, um diesen mit der Kombination von TB-303 und TR-606 eine kostengünstige Schlagzeug- und Bass-Begleitung zu ermöglichen. Aufgrund seines unnatürlichen Klanges war das Gerät bei der eigentlichen Zielgruppe jedoch nicht erfolgreich, und die Produktion wurde bereits 1984 wieder eingestellt.

1985 entdeckte der in Chicago lebende Musiker DJ Pierre der Gruppe Phuture, Nathan Jones, dass sich mit der TB-303 durch „extreme“ Einstellungen entgegen dem ursprünglichen Verwendungszweck ein neuartiges, futuristisch anmutendes Zwitschern, Kreischen und Blubbern erzeugen ließ. 1987 brachte er mit Acid Tracks ein 12-minütiges, minimalistisches Stück heraus, das zu weiten Teilen auf diesem an Säure (engl. „acid“) erinnernden Klang der TB-303 basierte. Der „Acid-Sound“ beruhte unter anderem auf der Selbstoszillation des Filters, also einer hoch eingestellten Resonanz.

Acid Tracks, das bereits vor der offiziellen Veröffentlichung auf dem House-Label Trax Records einige Male im Chicagoer Warehouse gespielt wurde, avancierte sofort zum Hit in der noch jungen House-Szene und sorgte für eine ganze Welle an ähnlichen Tracks, die meist in Kombination mit Drumcomputern wie der TR-808, der TR-606, der TR-909 oder der TR-707 produziert wurden. So begründete Acid Tracks einen neuen, eigenständigen und einflussreichen Musikstil, den Acid House, aus dem sich später auch der schnellere und härtere Acid Techno entwickelte.

Auch heute noch wird der Klang der TB-303 gerne für Produktionen von Techno, House, Goatrance und anderen Stilen der elektronischen Tanzmusik eingesetzt.

Als das für den „Acid-Sound“ verantwortliche Gerät wurde die TB-303 im Laufe der Jahre immer begehrter. Durch die begrenzte Verfügbarkeit des nur kurze Zeit produzierten Gerätes und die wachsende Nachfrage stieg der Preis auf dem Gebrauchtmarkt enorm. Auch die Versorgung mit Ersatzteilen wurde im Lauf der Zeit immer knapper; laut Roland Deutschland sind weltweit bis auf ein paar mechanische Kleinteile keinerlei Ersatzteile mehr verfügbar. Im Zuge des RE-303-Projektes, einem technisch quasi identischen 1:1 DIY-Nachbau, hat sich die Ersatzteillage jedoch zwischenzeitlich deutlich entspannt. So sind ursprünglich nicht mehr beschaffbare Bauteile wie bspw. der BA662 wieder als Nachbau verfügbar. Einwandfreie Gebrauchtgeräte erreichen heute das bis zu Zehnfache ihres ursprünglichen Verkaufspreises; unbenutzte Geräte in ihrer Originalverpackung sind extrem seltene Sammlerware.

Mit der TB-3 Touch Bassline brachte Roland im Jahr 2014 einen offiziellen Nachfolger der TB-303 auf den Markt. Das Gerät modelliert mit Hilfe einer „Analog Circuit Behaviour“ genannten Technologie das Schaltungs- und damit das Klangverhalten der TB-303 auf digitalem Wege in einem FPGA und bietet einige über das Originalgerät hinausgehenden Effekte und Einstellmöglichkeiten, wird jedoch anders als das ursprüngliche Gerät über einen Touchscreen bedient.

2016 erschien im Rahmen der Boutique-Serie die Roland TB-03, die sich im Gegensatz zur TB-3 auch optisch am Originalgerät orientiert.

Der Accent Envelope wurde bei der TB-3 und der TB-03 nicht modelliert. Anstatt einen Accent Envelope zu triggern, findet lediglich eine statische Modulation statt. In der Folge unterscheidet sich die Transkription einer gegebenen TB-303-Sequenz vom Original: Um dem Klangverhalten näher zu kommen, sind hinter Schritten mit aktivem Accent jeweils zusätzliche Accents zu setzen.

Mit der ML-303 von Acidcode sowie der x0xb0x von Adafruit wurde versucht, technisch identische Klone der TB-303 herzustellen, wobei die ML-303 in der Version 5 und 6 im Idealfall komplett mit Originalbauteilen aus Restbeständen aufgebaut war. Sogar die Position der einzelnen Bauteile auf der Platine entspricht dem Original. Damit kommt man dem Sound der echten TB-303 sehr nahe. Die x0xb0x hat wiederum den Vorteil, dass die Klangerzeugung komplett analog ist. Auch hier sind die Bauteile die gleichen wie seinerzeit in der TB-303: 2SC2291- und 2SC1583-Transistoren, 2SC536F- und 2SA733P- bzw. 2SA733AP-Transistoren. Diese Bauteile werden von Bastlern aus Restbeständen in aller Welt aufgekauft, um möglichst viele der begehrten x0xb0xen bauen zu können. Die x0xb0x ist Freie Hardware und wird unter der MIT-Lizenz veröffentlicht.

Daneben existieren bis heute zahlreiche Nachbauten, welche die hohe Nachfrage nach der 303 zu erschwinglichen Preisen zu befriedigen versuchen. Beispiele dafür sind die Bassline von Acidlab, der Analogic TT-303 Bass Bot Synthesizer von Cyclone oder die im Jahr 2019 erschienene TD-3 von Behringer in mehreren Versionen.

Aufgrund einiger spezieller Eigenarten der in den ursprünglichen Geräten verwendeten elektronischen Bauteile (insbesondere ihrer zum Teil erheblichen Fertigungstoleranzen) ist der Sound einer „echten“ TB-303 mit neuer Technik jedoch nur schwer nachzuahmen. Da aktuelle Vergleichstypen dieser Bauteile „nur“ mit erheblich besseren Eigenschaften erhältlich sind, ist es schwierig, eine TB-303 klanggetreu nachzubauen. Zudem beeinflussen sich verschiedene Bauteile der ursprünglichen TB-303 gegenseitig, was sich ebenfalls nicht ohne Weiteres reproduzieren lässt. Der MB-33 von MAM beispielsweise arbeitet zwar mit einem originalgetreuen Nachbau der Klangerzeugungseinheit, doch die fehlenden Originalbauteile erzeugen einen eher sterilen, „zu“ sauberen Klang. Im Jahr 2015 stellte Din Sync jedoch das RE-303-Projekt vor, welches eine Replik der TB-303 darstellt. Es handelt sich um ein reines DIY-Projekt und es sind für den originalgetreuen Nachbau einige Komponenten aus alten Lagerbeständen („New Old Stock“) erforderlich. Der praktisch unmöglich zu beschaffende BA-662 OTA IC wurde durch diskrete Komponenten nachgebaut. Das Gerät ist bei Bestückung mit entsprechenden Komponenten klanglich nicht vom Original zu unterscheiden. Ein weiteres Gerät, welches das Layout der Originalplatine der TB-303 übernommen hat, um das Original klanglich exakt nachzubilden, ist die Avalon Bassline von Abstrakt Instruments. Dieser Synthesizer verfügt über einige Erweiterungen, welche sich jedoch auf einer unabhängigen Platine befinden. Die Platine der TB-303 wurde inklusive der Stromversorgung separat ausgeführt, um den Einfluss von Leckströmen auf den Klang originalgetreu zu reproduzieren. Da die Versorgung mit den erforderlichen raren Bauteilen nicht mehr gegeben ist, wurde angekündigt, dass nach einer letzten Produktionsserie im Jahre 2022 keine weiteren Exemplare der Avalon Bassline mehr produziert werden.

Im Laufe der Zeit wurden zahlreiche Software-Emulatoren entwickelt, um die Klangerzeugung der 303 am Computer zu imitieren (z. B. Propellerheads ReBirth RB-338 oder Audiorealisms Bassline). Auch von Roland selbst gibt es inzwischen einen Emulator als Plugin. Aufgrund der begrenzten Rechenzeit sind jedoch Analogschaltungen mit einer Komplexität der TB-303 auch mit modernsten CPUs nicht in allen Details nachzustellen. Das Hauptproblem bei der Emulation ist die digitale Simulation einer aus der Analogtechnik bekannten Verzerrung. Insbesondere dieses Phänomen gilt als sehr schwierig digital zu emulieren, weswegen viele Kenner des originalen Sounds glauben, einen Klon oder Emulator allein schon daran erkennen zu können. Abhilfe schaffen hier echte analoge Verzerrer, die hinter den analogen Ausgang des digitalen Klangerzeugers eingemischt werden. Man erzielt sogar mit einem bewusst übersteuerten Eingangsverstärker in einem analogen Mischpultkanal meist ein viel besseres Ergebnis als mit den meisten Emulatoren.

  • www.TB303.ch – Homepage zum Thema TB-303 mit Bedienungsanleitung
  • Rebirth – Kostenloser Software-Emulator der Firma Propellerheads für Windows und Mac OS
  • Schaltplan der TB-303
  • acidvoice.com – Alles über TB-303 und deren Nachbauten, incl. Hörvergleichen
  • Testbericht der originalen TB-303 bei soundandrecording.de
  • Testbericht des Nachfolgemodells Roland TR-03 bei Beat.de

Text submitted to CC-BY-SA license. Source: Roland TB-303 by Wikipedia (Historical)


Roland TR-808


Roland TR-808


Die TR-808 – oder genauer: der „TR-808 Rhythm Composer“ – ist ein analoger Drumcomputer des japanischen Unternehmens Roland, der im Jahr 1980 auf den Markt kam.

Die TR-808 genießt in der Geschichte der elektronischen Tanzmusik einen kaum vergleichbaren Kultstatus. Ihr eher künstlicher und weicher, aber vor allem im Bassbereich sehr druckvoller Klang war u. a. prägend für den frühen Hip-Hop und Electro einschließlich des Miami Bass, aber auch für House und Acid House. Gelegentlich wurde sie auch in der Popmusik eingesetzt und ist beispielsweise auf vielen Phil-Collins- und Genesis-Aufnahmen zu hören. Einer der größten Hits, in denen die 808 exponiert eingesetzt wird, ist Marvin Gayes Sexual Healing (1982). Auf Whitney Houstons I Wanna Dance with Somebody (Who Loves Me) (1987) ist die charakteristische Cowbell zu hören; der Song beginnt mit einem mehrfach wiederholten Pattern der 808.

Die TR-808 bietet folgende Klänge: Bassdrum, Snare, Low/Mid/Hi Toms, bzw. Congas, Rimshot, Claves, Handclap oder Maracas, Cowbell, Cymbal (Crash-Becken), Open und Closed Hi-Hat. Außerdem verfügt sie über einen ausgereiften Step-Sequenzer mit Lauflichtprogrammierung und Accent-Funktion. Die Klangerzeugung erfolgt wie bei den meisten analogen Synthesizern durch subtraktive Synthese.

Bei der Bassdrum können Klang (Tone) und Länge (Decay) verändert werden. Dies geschieht mittels Tiefpass-Filter und Bridged T-network-Oszillator. Beim Attack handelt es sich um einen CV-Pulsgenerator, der dem Audiosignal beigemischt wird. Die typische Abflachung des Decay direkt nach dem Attack wirkt wie eine Kompression.

Die Snare Drum besteht aus einem stimmbaren Grundton (Tone) und einem regelbaren Rauschanteil (Snappy). Die Low, Mid und Hi Toms bzw. Congas lassen sich jeweils in der Tonhöhe stimmen (Tuning). Das Becken (Cymbal) kann spektral (Tone) und in der Länge (Decay) angepasst werden. Für die Hi-Hats wird die Summe sechs stark gegeneinander verstimmter Oszillatoren über einen Hochpass gefiltert. Die Open Hi-Hat lässt sich in der Länge (Decay) einstellen.

Für die Instrumente stehen 13 Ausgänge zur Verfügung. An zwei als Master Out bezeichneten Ausgängen liegt die über die Level-Regler monophon abmischbare Summe an, einmal mit hohem, einmal mit niedrigem Pegel. Daneben lassen sich die Instrumente über Einzelausgänge abgreifen, wobei ein Stecker in der Einzelausgangsbuchse das Instrument aus der Summe nimmt. Sechs Ausgänge sind fest mit Instrumenten vorbelegt (Bassdrum, Snare, Cowbell, Cymbal, Closed und Open Hi-Hat). Fünf Ausgänge sind über Schalter auf der Geräteoberseite alternativ zu belegen (Low Tom/Low Conga, Mid Tom/Mid Conga und High Tom/High Conga, Rimshot/Claves sowie Clap/Maracas).

Eine Synchronisation ist über die von Roland entwickelte SYNC-Buchse in beide Richtungen möglich. Zum Betrieb in einer MIDI-Umgebung ist ein externer Midi-to-Sync-Konverter oder der Einbau einer MIDI-Schnittstelle nötig. Cowbell, Clap und Accent stehen zusätzlich als programmierbare Trigger zur Verfügung. Damit lassen sich analoge Synthesizer, die nach Roland-Norm (also mit CV/Gate) arbeiten, aber auch Arpeggiatoren oder Sequenzer ansteuern.

1983 kam mit der TR-909 der Nachfolger der TR-808 auf den Markt, der einen wesentlich härteren und raueren Klang aufwies. Während die Sounds der 808 ein überaus hohes Frequenzspektrum bieten, die Bassdrum entsprechend tiefgelegt werden kann und die Hi-Hats gewöhnlich sehr hoch liegen, zeichnet sich die 909 durch ein eher mittenbetontes Sounddesign aus. Sie hat insbesondere im House und Techno weite Verbreitung gefunden. Anders als die 808 verfügt die 909 über eine MIDI-Schnittstelle und einen fünfstufigen Shuffle-Modus. Ähnliche (und ähnlich einflussreiche) Roland-Drumcomputer mit jeweils eigenen Klangcharakteristika sind die TR-606 (1982) – auch als „the poor man’s 808“ bezeichnet – und die TR-707 (1985), die unter anderem den Klang des frühen House maßgeblich geprägt hat.

2014 brachte Roland die TR-8 auf den Markt, eine Kombination aus 808 und 909. Mit der Klangerweiterung 7X7-TR8 bietet sie zusätzlich auch noch die Sounds der 606, der 707 und 727 (eines Seitenmodells der 707 mit lateinamerikanischen Klängen). Die Klangerzeugung ist im Unterschied zu den Originalmaschinen digital, emuliert jedoch die originalen Schaltungen und damit auch das Klangverhalten der alten Geräte („Analog Circuit Behaviour“). 2018 erschien das überarbeitete Modell TR-8S, das neben anderen Verbesserungen nun auch die Möglichkeit bereitstellt, Samples abzuspielen.

2015 erschien im Rahmen von Rolands Boutique-Serie eine (optisch und in Hinsicht auf Klang und Bedienung) nahezu identische Nachbildung der 808 unter dem Namen TR-08.

Obwohl gesampelte TR-808-Klänge heute leicht erhältlich sind, ist die originale TR-808 noch sehr gefragt und die Preise für Gebrauchtgeräte sind entsprechend hoch. Deshalb wurden im Laufe der Jahre verschiedene Nachbauten und Software-Emulationen der 808 entwickelt.

Das Unternehmen Propellerhead brachte im Jahr 1996 die Software-Emulation ReBirth RB-338 auf den Markt, bei der zwei Roland TB-303 mit einer 808 kombiniert wurden.

Die Novation Drumstation bietet die Sounds der beiden Klassiker TR-808/909 mit vollständig digitaler Klangerzeugung, ohne Stepsequenzer und mit mangelhaftem Timing.

Das Unternehmen Acidlab bietet mit der Miami einen Nachbau mit vollanaloger Klangerzeugung.

Weitere Nachbau-Projekte mit Sequenzer und analoger Klangerzeuger sind die MB-808 von ucapps und der Yocto von e-licktronic. Die letzten beiden Projekte richten sich jedoch ausschließlich an die DIY-Gemeinde und werden nicht kommerziell als Fertiggerät an Endkunden vertrieben.

Behringer brachte 2019 den RD-8 auf den Markt, der dem TR-808 nicht nur klanglich, sondern auch optisch ähnelt. Die markanten farbigen Tasten des Originals sind jedoch beim RD-8 in umgekehrter Reihenfolge angeordnet, und der RD-8 hat im Vergleich zum TR-808 einige Zusatzfunktionen sowie eine 4-stellige 7-Segmentanzeige.

Die TR-808 war ein wesentlicher Bestandteil der Hip-Hop-Kultur und -Revolution in den 1980er-Jahren, wurde aber auch von Musikern aus allen Genres, einschließlich R&B, Rock und Pop, verwendet, die das ikonische Gerät nutzten, um einige ihrer größten Hits zum Leben zu erwecken. Marvin Gaye bescherte die TR-808 mit Sexual Healing seinen ersten Hit, und von da an begannen immer mehr Musiker mit ihr zu experimentieren, wie z. B. Kanye West, der ein ganzes Album (808s & Heartbreak) mit der TR-808 produzierte.

Für moderne Hip-Hop oder Trap-Musik spielt die TR-808 eine sehr wichtige Rolle. Dort hört man immer tiefe perkussive Bässe, die durch die Kick-Drum einer TR-808 mit langem Decay entstehen.

  • Die britische Elektronikband 808 State benannte sich 1988 nach der Roland TR-808.
  • Ricardo Villalobos veröffentlichte 2003 zu Ehren der TR-808 auf dem Label Lo-Fi Stereo einen Track mit dem Titel 808 The Bassqueen.
  • Der Rapper Kanye West veröffentlichte 2008 das Album 808s & Heartbreak.
  • Die Band Deichkind erwähnt die TR-808 im Song So ’ne Musik mit der Textzeile „Wir drücken die ganze Nacht auf die 808.“
  • Der Rapper Ufo361 nannte sein Soloalbum 808.
  • Der Schweizer Musiker und Produzent Toctone veröffentlichte den Titel Boom Di Dum zum 40. Geburtstag des TR-808.
  • Der Rapper SSIO veröffentlichte 2016 auf seinem Album 0.9 den Song Pibissstrahlen auf 808 Bässe (feat. Haftbefehl)

TR-808 | Operation Manual. Roland Corporation, 1980 (englisch, roland.com [PDF]). 

  • Eintrag im Roland-Museum
  • Audiotool – Online-Emulation einer TB-303, TR-808 und TR-909
  • Testbericht zur originalen TR-808 bei Amazona.de
  • Testbericht zur Roland TR-08 bei Bonedo.de
  • Testbericht zur Roland TR-8 bei Amazona.de
  • Testbericht zur Roland Tr-8S bei Amazona.de
  • Vorstellung der TR-808 von RetroSound auf Youtube
  • Klassische Drum Patterns für die Roland TR-808

Text submitted to CC-BY-SA license. Source: Roland TR-808 by Wikipedia (Historical)






Text submitted to CC-BY-SA license. Source: by Wikipedia (Historical)


Roland Juno-60


Roland Juno-60


Der Roland Juno-60 ist ein analoger Synthesizer des japanischen Unternehmens Roland Corporation. Er wurde von 1982 bis 1984 angeboten und verfügte als erstes Roland-Instrument über Digitally Controlled Oscillators (DCOs), dt. digital gesteuerte Oszillatoren, die eine verbesserte Frequenzstabilität boten. Der Juno-60 fand umfassende Verwendung im Synthpop der 1980er-Jahre.

Ende der 1970er-Jahre begann sich abzuzeichnen, dass die aufkommende Digitaltechnik auch in der Entwicklung neuer Synthesizer Einzug halten würde. Mit dem Fairlight CMI und Synclavier waren bereits zwei umfangreiche Systeme auf dem Markt, die sich der FM-Synthese zur Klangerzeugung bedienten und dadurch unter anderem ein deutlich umfangreicheres Tonspektrum sowie verbesserte Stimmstabilität boten. Roland verfügte jedoch über keine entsprechende Technologie – der von CEO Ikutarō Kakehashi angestrebte Kauf der Exklusivrechte an der von John Chowning entwickelten, einfachen FM-Synthese scheiterte zugunsten des Konkurrenten Yamaha Corporation.

Als Reaktion darauf konstruierte Roland mit dem Juno-6 einen eher traditionellen Synthesizer, nutzte jedoch zur Klangerzeugung erstmals die selbst entwickelten digital gesteuerten Oszillatoren (DCOs). Durch die im Gegensatz zu vorangegangenen Synthesizern nun digital gesteuerte Stimmung entfiel das große Problem der Stimmstabilität insbesondere bei Liveauftritten bzw. Transport des Instruments fast vollständig, nur die Feinabstimmung musste jedoch auch weiterhin manuell vorgenommen werden. Nur wenige Monate später erschien mit dem Juno-60 eine verbesserte Variante, die einen Patchspeicher hinzufügte, wodurch insgesamt 56 frei konfigurierbare Presets abgespeichert werden konnten. Dies vereinfachte den Gebrauch insbesondere live weiterhin, da das zeitaufwendige Einstellen der einzelnen Parameter beim Klangwechsel entfiel. Außerdem wurde das von Roland entwickelte Digital-Control-Bus-System eingebaut, dass jedoch nur von einigen Roland-Geräten unterstützt wurde und einfache, mit den Grundfunktionen von MIDI vergleichbare Funktionalität bot.

Der Juno-60 wurde bis Februar 1984 produziert, als Nachfolger erschien direkt im Anschluss der Roland Juno-106.

Der Juno-60 ist mit einer 61-tastigen Klaviatur ausgestattet und deckt insgesamt fünf Oktaven ab. Zudem kann durch einen Kippschalter eine Oktavierung der Klaviatur um je eine Oktave nach oben oder nach unten vorgenommen werden, was ein noch umfangreicheres Klangspektrum ermöglicht. Es steht zudem ein konfigurierbarer Arpeggiator zur Verfügung, der auch extern über Steuerspannung synchronisiert werden kann.

Bei der Ausstattung handelt es sich um ein typisches Beispiel für Synthesizer der frühen 1980er-Jahre. Die Oszillatorsteuerung (Sägezahnschwingung und Rechteckschwingung mit Sub-Oszillator und Rauschgenerator), Filtersteuerung (Hochpassfilter und Tiefpassfilter mit LFO), Verstärker und ADSR-Hüllkurvengenerator sind von rechts nach links auf der Stirnseite angeordnet.

Die Steuerung für den Patchspeicher befindet sich ganz rechts, es stehen insgesamt 56 Patches zur Verfügung, die frei konfiguriert werden können. Zudem besteht die Möglichkeit, Patches auf eine handelsübliche Kompaktkassette auszulagern und später wieder einzuspielen.

Auf der Rückseite befinden sich sowohl Ausgänge für Mono- als auch Stereoton. Die Signalstärke ist in drei Stufen regulierbar. Zudem ist ein Kopfhöreranschluss vorhanden. Der Master Pitch des Gerätes kann ebenfalls dort durch einen Drehregler reguliert werden.

Das E-Piano verfügt über einen vollständigen Hüllkurvengenerator, bei dem alle vier ADSR-Teile stufenlos reguliert werden können. Zudem ist ein Chorus-Effekt mit zwei auswählbaren Stufen verbaut. Der Anschluss eines Sustain-Pedals ist ebenfalls möglich. Es steht außerdem ein Pitch-Bender zur Verfügung, dessen Intensivität und Umfang reguliert werden können.

Insbesondere im Synthpop der 1980er-Jahre sowie im entstehenden Chicago House gehörte der Juno-60 für viele Musiker zum Standardrepertoire und ist auf vielen einschlägigen Produktionen aus dieser Zeit zu hören. Prominente Nutzer des Juno-60 waren unter anderem John Foxx, a-ha, Billy Idol, A Flock Of Seagulls, Eurythmics und Berlin sowie Wham! und Cyndi Lauper. In der Gegenwart setzen Künstler wie The Weeknd und Metronomy den Juno-60 in ihren Kompositionen ein.

Im Frühjahr 2021 veröffentlichte Roland offiziell eine digitale Nachbildung des Juno-60 im Format Virtual Studio Technology (VST). Bereits vorher erschien eine Nachbildung des Juno-6 mit erweiterten Funktionen von Arturia. Roland bot außerdem mit dem JU-06A ein auf Digitaltechnik basierendes, in Haptik wie Funktionalität teilweise verändertes Remake an.

  • Umfassende Informationen zum Juno-60 (auf Deutsch)
  • Bildersammlung zum Instrument (auf Englisch)
  • Originalanleitung des Juno-60 (auf Deutsch)
  • Vorstellung und Demonstration des Juno-60 auf YouTube (auf Englisch)

Text submitted to CC-BY-SA license. Source: Roland Juno-60 by Wikipedia (Historical)


Roland Juno-106


Roland Juno-106


Der Roland Juno-106 ist ein polyphoner digital-analog-Hybrid Synthesizer der von der Firma Roland in den Jahren 1984 bis 1988 produziert wurde. Der Juno-106 verfügt über digital gesteuerte Oszillatoren, digitale Hüllkurvengeneratoren, analoge Filter und einen analogen Signalweg. Die Tastatur verfügt über 61 Tasten und 5 Oktaven. Nach wie vor soll der Juno-106 in Musikproduktionsstudios zu finden sein, für Live-Auftritte von Bands genutzt werden und es gibt eine Reihe von Software-Emulationen für dieses Modell.

Der Juno-106 wurde von zahlreichen Musikern verwendet, z. B.: 808 State, Alien Sex Fiend, Apollo 440, Autechre, Cabaret Voltaire, Chemical Brothers, Daft Punk, D.A.V.E. The Drummer, Depeche Mode, Fatboy Slim, Frankie Goes to Hollywood, Laurent Garnier, Philip Glass, Human League, Incognito, Inner City, Infected Mushroom, Jean-Michel Jarre, Kenny Larkin, Leftfield, Sean Lennon, George Michael, Moby, William Orbit, Pet Shop Boys, The Prodigy, Kevin Saunderson, Eurythmics, Shamen, Tangerine Dream, Underworld, Vangelis, Joanna Newsom und Teddy Park.


Text submitted to CC-BY-SA license. Source: Roland Juno-106 by Wikipedia (Historical)


Ikutarō Kakehashi


Ikutarō Kakehashi


Ikutarō Kakehashi (jap. 梯郁太郎, Kakehashi Ikutarō, * 7. Februar 1930 in Osaka; † 1. April 2017) war ein japanischer Unternehmer. Er war Gründer des Unternehmens Roland Corporation, eines Herstellers von elektronischen Musikinstrumenten, Tontechnik und Software.

Während der 1950er Jahre reparierte er elektronische Orgeln und entwickelte neue Prototypen. 1954 eröffnete Kakehashi ein Geschäft für Radiogeräte, entwarf aber weiterhin elektronische Orgeln. 1957 fing er an, diese zu verkaufen, was 1960 aufgrund der enormen Nachfrage schließlich zur Gründung von Ace Electronic Industries Inc. führte. 1964, sein Produktangebot hatte er inzwischen um Gitarrenverstärker erweitert, stellte Kakehashi die Produkte in den Vereinigten Staaten vor. Im Jahr 1968 kam es zu einer Zusammenarbeit mit der Hammond International Company, aus der im selben Jahr Hammond Japan hervorging.

Kakehashi entschloss sich 1972, Ace Industries zu verlassen, um Roland zu gründen. Bis 1995 war er dort Präsident, ehe er, von Tadao Kikumoto abgelöst, Aufsichtsratsvorsitzender wurde. 2013 schied er bei Roland aus.

2014 gründete er das Unternehmen Atelier Vision Corporation.

  • Ikutarō Kakehashi, Robert Olsen: Mein Leben für die Musik. ISBN 3-932275-45-4
  • Lifetime-Achievement-Award Mr. Ikutaro Kakehashi (Memento vom 7. Februar 2012 im Internet Archive) (englisch)

Text submitted to CC-BY-SA license. Source: Ikutarō Kakehashi by Wikipedia (Historical)


MIDI


MIDI


Musical Instrument Digital Interface (englisch für „digitale Schnittstelle für Musikinstrumente“), kurz MIDI, ist ein Industriestandard für den Austausch musikalischer Steuerinformationen zwischen elektronischen Instrumenten, wie z. B. Keyboards oder Synthesizern. Dieser Standard umfasst sowohl die Beschaffenheit der erforderlichen Hardware als auch das Kommunikationsprotokoll für die zu übermittelnden Daten. MIDI 1.0 wurde im August 1982 eingeführt und ist inzwischen mehrmals erweitert worden. Entwickelt wurde MIDI von Dave Smith in Kooperation mit Ikutaro Kakehashi von der Roland Corporation, wofür beide im Jahr 2013 mit dem technischen Grammy ausgezeichnet wurden.

Das MIDI-Protokoll wurde ursprünglich zur Kommunikation von Synthesizern unterschiedlicher Hersteller entwickelt. Der eigentliche Sinn war, von einer Tastatur eines Synthesizers aus weitere Synthesizer anzusteuern. Davor konnten Synthesizer nur analog und mit großem Verkabelungsaufwand verbunden werden.

Zu der damaligen Zeit hatten die Synthesizer nur wenige Stimmen, d. h., sie konnten meist nur 4–8 Töne gleichzeitig erzeugen. Trotz einer gewissen Soundauswahl konnte kein Gerät mehr als einen Sound gleichzeitig erzeugen. Wollte man also zwei oder mehr Sounds mit einem Tastendruck spielen, musste man zwei Geräte mit einer Tastatur verkoppeln. So konnte man unterschiedliche Sounds übereinanderlegen, um z. B. einen „dickeren“ Synthesizerstreicherklang zu bekommen oder Synthesizerstreicher mit Synthesizerbläsern zu kombinieren.

Das war nun mit der Verbindung über ein einzelnes MIDI-Kabel möglich, indem der MIDI-Out des Hauptgerätes mit dem MIDI-In des angesteuerten Gerätes per 5-poligem MIDI-Kabel verbunden wurde (wobei nur zwei Pole genutzt werden). Da die Audiosignale der verschiedenen Synthesizer keine MIDI-Steuerdaten sind, müssen diese über zusätzliche Leitungen einem Mischpult zugeführt werden.

MIDI trennte auch gleichzeitig die Tastatur eines Synthesizers von seiner Klangerzeugung, was natürlich die Einsatzmöglichkeiten eines Instrumentes massiv erhöhte: Denn so war es auch möglich, eine Tastatur aufzuteilen (zu splitten) und die Tastaturbereiche auf verschiedene Synthesizer zu verteilen. So konnte der Keyboarder z. B. mit dem linken Tastaturbereich einen Streicherklang mit einem angesteuerten Synthesizer und mit der rechten Hand einen Solo-Synthesizerklang mit dem lokalen Gerät spielen.

Schnell wurde die MIDI-Schnittstelle für fast jede Art an elektronischen Musikinstrumenten adaptiert, so z. B. für Expandermodule, Sampler, Drumcomputer, Effektgeräte (Hall, Echo, Equalizer usw.), Hardware-Sequencer (Aufnahme- und Abspielgeräte für MIDI-Daten), Computer, Controller (wie Masterkeyboards, Drum-Pads, Masterkeyboardcontroller, Standard-MIDI-File-Player, Fader-Boxen, später auch für Sound- und Audiokarten usw.), nicht zuletzt auch – zweckentfremdet – zur Steuerung von Lichteffekten für Bühnen (MIDI Show Control).

Der Einsatz von Computern in der Tonstudiotechnik gab MIDI einen weiteren Schub. So konnte der wenig versierte Keyboarder mit Hilfe eines Hardwaresequencers bzw. des Computers und eines Sequencerprogrammes komplexe, schwierige oder gar manuell unspielbare Musikstücke erstellen, weil er die MIDI-Daten im Sequencer verändern und korrigieren konnte. Weil die MIDI-Datensätze verschiedene Informationen enthalten, kann zum Beispiel der Sound auch nach einer Aufnahme im Sequencer beliebig ausgetauscht werden. Das ergab völlig neue Möglichkeiten – auch für versierte Musiker – und hat Auswirkungen auf die Produktionsweise von Musik bis heute:

Komposition, Arrangement und Notensatz wurden durch die Verbindung von MIDI-fähigem Keyboard und Computer erheblich vereinfacht. Variationen von Stimmen und Songabläufen sind sehr schnell realisierbar und bleiben jederzeit änderbar. Diese Zeitersparnis ist u. a. bei Studioproduktionen ein wichtiger Faktor. Der Komponist greift oft zwar auf das Hilfsmittel Computer zurück und editiert sein Konzept direkt über Software, viele Stimmen werden jedoch nach wie vor über eine Klaviertastatur bzw. ein Masterkeyboard eingespielt.

Mit speziellen Wandler-Geräten kann man auch aus den Tönen beliebiger akustischer Instrumente wie Gitarre oder Saxophon MIDI-Daten erzeugen. Dabei muss neben der Tonhöhe oft auch ein komplexes Klangmuster ermittelt werden, was, abhängig vom Instrument und der Spielweise, bald an Grenzen stößt. Bei einer Gitarre muss z. B. berücksichtigt werden, wenn Bundwechsel oder Ziehen einer Saite im Spiel ist.

In den 2000er Jahren, als der Speicher in Mobiltelefonen noch knapp war, benutzte man das MIDI-Format zunächst auch für Klingeltöne.

Spielt man auf einem Keyboard eine Taste, werden digitale Informationen über Tonhöhe und Anschlagstärke am MIDI-Ausgang des Keyboards ausgegeben und lassen sich an den MIDI-Eingang eines Computers übermitteln oder zur Steuerung der Klangerzeuger in elektronischen Instrumenten und Soundkarten verwenden. Solche Befehle sind beispielsweise Note-on („Taste für Note x wurde gedrückt“) und Note-off („Taste für Note x wurde wieder losgelassen“).

Ein vollständiger 3-Byte-Datensatz für einen Spielbefehl für eine Note könnte beispielsweise wie folgt aussehen:

  1. Byte: Note ein auf MIDI-Kanal 1
  2. Byte: Note C3
  3. Byte: Anschlagstärke 103

Diesen Ton spielt ein angesteuerter Klangerzeuger so lange, bis dieser den 3-Byte-Befehl mit einem Note aus-Byte anstelle des Note ein-Byte empfängt. Welchen Sound der Klangerzeuger spielt, wird entweder zuvor am Klangerzeuger oder mit weiteren MIDI-Befehlen vor dem Spielbefehl für die Note eingestellt.

Ein Computer kann diese Informationen aufzeichnen, abspeichern und in verschiedenen Editoren visualisieren, eingeben und manipulieren. Üblich sind hierbei folgende Editoren:

  • ein Listeneditor, in dem MIDI-Daten direkt editiert werden;
  • der (wohl am meisten verwendete) Piano-Roll-Editor, der eine Klaviertastatur mit einem Zeitverlauf darstellen kann;
  • ein Noteneditor, der die Notenschrift auch auf dem Bildschirm sichtbar macht.

Gleichzeitig oder auch später können die aufgezeichneten Daten an ein MIDI-Instrument zurückgesendet werden.

Neben den musikalischen Befehlen können weitere Datenpakete zur Steuerung des Zielgerätes genutzt werden, so etwa Program-Change-Befehle zur Auswahl eines seiner meist vielen hundert Klangspektren. Viele Klangerzeuger wie Synthesizer, Expander und andere verstehen Befehle, mit denen ihre interne Klangerzeugung direkt beeinflusst werden kann, um so aus einer Reihe einfacher Grundschwingungsformen komplexe, individuelle Klänge zu erzeugen.

Inzwischen nutzen neben elektronischen Instrumenten auch zahlreiche andere Geräte wie beispielsweise (digitale) Mischpulte und Mehrspuraufzeichnungsgeräte das MIDI-Protokoll, um darüber Steuerinformationen auszutauschen. Anstatt MIDI-Datenpakete zur Übertragung von Notenbefehlen zu nutzen, können die Daten hier beispielsweise zum Fernbedienen sämtlicher Mischpultfunktionen (Fader, Muteschalter, Panorama etc.) oder zur Steuerung der Laufwerksfunktionen eines Recorders (Play, Stopp, Vor-/Rückspulen) verwendet werden.

MIDI verwendet ein unidirektionales Protokoll zur seriellen Datenübertragung ohne Datenflusskontrolle. Die Übertragungsgeschwindigkeit beträgt 31250 Bit/s (exakt 32 µs pro Bit). Zu jedem Byte, bestehend aus 8 Bit, kommt ein Start- sowie ein Stopp-Bit, sodass die komplette Übertragung eines Datensatzes bestehend aus 30 Bits 960 µs dauert. Bis auf das Fehlen des Parity-Bits entspricht es damit dem Protokoll bei PC-UARTs.

Im Unterschied zu pegelgesteuerten Schnittstellen wird bei MIDI jedoch eine 5-mA-Stromschleife verwendet. Durch den Optokoppler in der Empfangsleitung ergibt sich eine galvanische Trennung der einzelnen MIDI-Geräte untereinander, die Masseleitung (und Kabelabschirmung) darf an der MIDI-In-Schnittstelle nicht angeschlossen werden, um Masseschleifen zu vermeiden.

Physisch sind die Anschlüsse nach klassischer Spezifikation als fünfpolige DIN-Buchsen (DIN 5/180° – früher Diodenbuchse/-stecker) realisiert. Die Pins 4 und 5 werden zur Signalisierung verwendet. Für Pin 2 der Ausgangsbuchsen (MIDI-Out und MIDI-Thru) ist eine Masseverbindung spezifiziert. Auf diesen Pin soll die Abschirmung des Kabels aufgelegt werden. Gemäß der MIDI-Spezifikation ist Pin 4 über einen 220-Ohm-Widerstand mit +5 V verbunden. Zur Datenübertragung wird Pin 5 über 220 Ohm mit 0 V verbunden. Ist am anderen Ende ein MIDI-In-Port angeschlossen (nochmals 220 Ohm in Reihe mit dem Optokoppler), fließt ein Strom über die Leitung, dieser Zustand ist als logische „0“ definiert. Wird Pin 5 nicht verbunden, fließt kein Strom, was als logische „1“ gilt und auch den Ruhezustand darstellt.

Laut einer nachträglichen Erweiterung der MIDI-Spezifikation sind nun auch MIDI-Ausgänge möglich, die auf einer 3,3 V-Versorgungsspannung beruhen. In diesem Fall werden Serienwiderstände von 33 Ohm und 10 Ohm an Pin 4 bzw. an Pin 5 eingesetzt.

Bei manchen Systemen (z. B. bei der MIDI-Interface-Karte „Roland MPU-401 AT“ als ISA-Karte) sind die Anschlüsse auch als 6-polige Mini-DIN-Buchsen ausgelegt. In solchen Fällen hilft ein Anschlussadapter, der baugleich zu einem Tastaturadapter „Mini-DIN-Stecker zu DIN-Buchse“ (PS/2 auf AT) ist.

Am 26. Juli 2018 wurde die Spezifikation auf 2,5-mm- und 3,5-mm-Klinkenstecker erweitert. Die dreipolige Form solcher Stecker bietet sich an, da auch von den fünf Pins der üblichen DIN-Buchse lediglich drei zur Signalübertragung genutzt werden. Die kleinere Bauform einer Klinkenbuchse erlaubt somit den spezifikationsgerechten Einbau von MIDI-Schnittstellen auch in besonders flache Geräte.

Es existieren drei verschiedene Arten von MIDI-Anschlüssen, MIDI-In, MIDI-Out und MIDI-Thru.

  • MIDI-In wird von einem Gerät zum Empfang verwendet.
  • MIDI-Out wird zum Senden verwendet.
  • MIDI-Thru schickt am MIDI-In empfangene Signale unbearbeitet weiter.

MIDI arbeitet nach dem Master-Slave-Prinzip. Will man mit einem Keyboard einen Synthesizer steuern, verbindet man die MIDI-Out-Buchse des Keyboards (Master) mit der MIDI-In-Buchse des Synthesizers (Slave). Sollen mit einem Keyboard (Master) zwei Soundmodule als Slave A und B angesteuert werden, verbindet man die MIDI-Out-Buchse des Masters mit der MIDI-In-Buchse des Slave A sowie die MIDI-Thru-Buchse des Slave A mit der MIDI-In-Buchse des Slave B.

Ein häufig anzutreffendes Szenario ist der Einsatz eines Computers mit entsprechender Sequenzer-Software sowie der Anschluss eines Keyboards oder elektronischen Pianos zum Einspielen der Noten und mehreren Synthesizern zur Klangerzeugung. Dabei wird üblicherweise die MIDI-Out-Buchse des Keyboards mit der MIDI-In-Buchse des Computers verbunden, die MIDI-Out-Buchse des Computers mit den MIDI-In-Buchsen der Synthesizer, ggf. verkettet über die MIDI-Thru-Buchsen. Zu beachten ist, dass sich dabei die unvermeidlichen Verzögerungen im MIDI-Datenstrom summieren und damit zu Timingfehlern führen können. Eine sternförmige MIDI-Verkabelung, bei der das Master-Keyboard seine Daten an einen zentralen Verteiler (MIDI-Patchbay) sendet, an dem alle weiteren MIDI-Geräte angeschlossen sind, beseitigt solche Probleme.

Ein Masterkeyboard erzeugt Noteninformationen im MIDI-Format und dient ausschließlich der Steuerung von Expandern, Software-Synthesizern oder zur Aufzeichnung der Tastenbewegung beim Einspielen von Musik in Sequenzer. Es enthält keine eigene Klangerzeugung. Die Klangsteuerung an den Geräten kann über gerätespezifische Steuerfunktionen wie Bankumschaltung geschehen.

Dem gegenüber stehen die reinen MIDI-Controller. Dabei handelt es sich um Geräte ohne Tastatur, die lediglich Knöpfe, Schiebe- und Drehregler besitzen, mit denen eingehende Daten modifiziert oder dem Datenstrom neue Daten auf anderen Kanälen hinzugefügt werden. Sie werden zwischen ein Masterkeyboard und einen Empfänger oder parallel dazu geschaltet.

Es gibt auch MIDI-Geräte, die zur Erzeugung von Noteninformationen sogenannte Pads verwenden. Dabei handelt es sich um größere, meist quadratische Knöpfe, die zudem wie Keyboard-Tasten oft die Anschlagdynamik aufnehmen. Sie werden üblicherweise für Percussions oder zum Abspielen von Samples genutzt.

Heute werden oft kombinierte Eingabegeräte verwendet, die sowohl Noten- als auch umfangreiche Kontrollfunktionen ausüben können. Einige erzeugen reine MIDI-Informationen, andere sind zusätzlich oder alleinig an den PC anschließbar. DJ-Controller besitzen ebenfalls Knöpfe, Regler und (nicht anschlagdynamische) Pads, deren Informationen sie oft per MIDI-kompatiblem Treiber weitergeben, wodurch sie als MIDI-Controller genutzt werden können.

Für viele akustische Musikinstrumente existieren Tonaufnehmer zur Erzeugung von MIDI-Signalen (z. B. Guitar-to-MIDI-Converter, Piano-Aufsetzer etc.) Hier wird die akustische Schwingung durch ein Mikrofon aufgenommen und in eine MIDI-Tonhöhe umgerechnet, indem ein Grundton ermittelt und Controllerwerte zur Modulation desselben erzeugt werden. Damit sind Töne variierender Tonhöhe (Vibrato) erzeugbar. Einige dieser Systeme eignen sich auch zum Aufnehmen des menschlichen Gesangs. So können komplexe Stimmverläufe wie blue notes und Phrasierungen z. B. durch Pfeifen auf das Notenpapier gebracht werden.

Eine Reihe von Instrumenten existieren heute als reine MIDI-Geräte, bei denen die Tonerzeugung ausschließlich mit einem Expander möglich ist. Beispiele dafür sind MIDI-Geigen, MIDI-Gitarren, Blaswandler und das MIDI-Schlagzeug.

Um mit einem Computer über MIDI zu kommunizieren, muss ein Signal-Konverter zwischengeschaltet werden, der gewöhnlich als MIDI-Interface bezeichnet wird. Er übersetzt die Spannungspegel und sorgt für eine galvanische Entkopplung. Im Prinzip kann jede serielle Datenübertragungs-Schnittstelle eines Computers mit einem geeigneten MIDI-Interface für die MIDI-Übertragung genutzt werden, sofern es auf das MIDI-typische Protokoll eingestellt werden kann.

Eine Pionierrolle spielte der Commodore 64, auf dem insbesondere die deutschen Softwareautoren Gerhard Lengeling und Karl Steinberg ihre ersten Sequenzer programmierten, die für die Namen C-LAB, Emagic und Steinberg stehen.

Der kommerzielle Durchbruch für MIDI als Plattform für professionelle Musikproduktion ist eng mit dem Atari ST verbunden, da dieser standardmäßig mit einer MIDI-Schnittstelle ausgeliefert wurde. Die Entwicklung wichtiger MIDI-Programme wie Cubase (Steinberg) oder Notator (Lengeling) begann auf dem Atari ST.

Auf dem Commodore Amiga prägte die Softwarefirma Blue Ribbon Inc. mit Bars & Pipes Professional ein neues Sequenzer-Software-Prinzip, das durch seine frei programmierbare Plugin-Schnittstelle in seinen Funktionen fast beliebig erweiterbar ist. Die meisten MIDI-Interfaces für den Commodore Amiga wurden als Adapter für die serielle Schnittstelle angeboten und sind mit einem MIDI-In, einem MIDI-Thru und meistens drei MIDI-Out ausgestattet. Es gibt sowohl synchrone als auch asynchrone MIDI-Interfaces. Bei einem asynchronen MIDI-Interface sind die verschiedenen MIDI-Out-Schnittstellen unabhängig voneinander ansteuerbar. Bei drei MIDI-Out-Schnittstellen gibt es also 48 MIDI-Kanäle (3×16).

Hier handelte es sich ursprünglich um eine 8-Bit-ISA-Steckkarte des Herstellers Roland. Viele für MS-DOS-PCs erhältliche Computerspiele zwischen 1988 und 1995 unterstützen diese MIDI-Schnittstelle zur Ansteuerung von Klangerzeugern wie z. B. der internen Roland LAPC-I oder dem externen MT-32. Andere Hersteller wie bspw. Creative Labs unterstützten den MPU-401-Modus nur eingeschränkt im sogenannten Dumb-Mode (UART), während der Intelligent-Mode, der genaues Timing durch Hardwareunterstützung garantierte, nur von Rolands eigenen Produkten beherrscht wurde.

Die standardmäßigen DIN-Buchsen für MIDI sind zu groß, um direkt in die Rückplatte einer PC-Steckkarte eingebaut zu werden. Lange Zeit war die übliche Vorgehensweise, die MIDI-Signale, die an einem kombinierten Game-/MIDI-Anschluss entsprechender Soundkarten verfügbar waren, über einen Adapter (siehe MIDI-Anschlüsse) auf die Standard-MIDI-Schnittstelle umzusetzen. Ältere PC-Soundkarten, ausgehend vom Sound Blaster, haben einen Anschluss geprägt, bei dem sich Game-Interface und MIDI-Interface eine 15-polige D-Sub-Buchse teilen und der heute immer noch in billigeren, nicht professionellen MIDI-Interfaces in PCs vertreten ist. Die Soundkarte braucht dabei nur zwei digitale, serielle Leitungen ohne Datenflusskontrolle zur Verfügung zu stellen (MIDI verwendet keine Datenflusskontrolle). Bei dieser Art der Hardware-Implementierung ist ein Teil des MIDI-Interfaces in einen externen, oft separat zu erwerbenden Teil verlegt, der meist in dem dickeren Stecker eines Kabels vergossen ausgeführt ist. Motherboards, die Sound-, MIDI- und Game-Controller on-Board haben, haben diese kombinierte Game-/MIDI-Anschlussbuchse übernommen. Dem entsprechen Sound-, Game- und MIDI-Chipsätze, die diese Funktionalitäten teilweise oder ganz gemeinsam integrieren. Das Vorhandensein einer 15-poligen D-Sub-Buchse an sich erlaubt jedoch noch keinen Rückschluss darauf, ob ein MIDI-Interface vorhanden ist oder, falls vorhanden, von welcher Qualität es ist.

Softwareseitig war die Hardware meistens MPU-401-kompatibel. Vorher waren auch MIDI-Interfaces für die serielle (COM) und parallele (Druckerport) Schnittstelle im Gebrauch. Professionelle MIDI-Geräte für PCs benutzen oft proprietäre (herstellerspezifische) Buchsen zwischen Steckkarte und dem externen Gerät. Inzwischen gibt es jedoch viele MIDI-Interface-Geräte mit USB, FireWire (mLAN) und LAN.

Ein Expander ist ein externer Klangerzeuger ohne eigene Tastatur. Er empfängt Noten ausschließlich per MIDI. Nur Parameter, die sich am Expander einstellen lassen, werden zurück übertragen und können aufgezeichnet werden. Teilweise werden die Umschaltbefehle, die mit den Tasten am Gerät erzeugt werden, ebenfalls gesendet und aufgezeichnet.

Ein Expandermodul erweitert die Möglichkeiten eines Tastatur-Synthesizers oder Keyboards. Wie ihre Pendants mit Tastatur können Expander viele Formen der Klangerzeugung zur Verfügung stellen. Wegen ihres geringen Platzbedarfs sind sie von ihrer Bedeutung her mindestens ebenso relevant wie die Tastaturversionen für die Entwicklung und Verbreitung von MIDI.

Die Expandertechnik bietet die Möglichkeit, in relativ kleinen Geräten eine Vielfalt von Klängen zu erzeugen. Ohne sie hätte sich MIDI sicher weniger schnell und weniger weit verbreitet, denn andere Verfahren verbieten sich vielerorts wegen ihres Platzbedarfs und ihrer Kosten.

Die Klangerzeugungsverfahren von Expandermodulen kann man in zwei Grundklassen aufteilen:

  1. samplebasierte Klangerzeugermodule;
  2. Synthesizermodule

Diese Klangerzeuger stellen eine Vielzahl unterschiedlicher Grundklänge (Multisamples) zur Verfügung, die einfach abgespielt werden. Sie dienen dazu, einen Grundvorrat an Imitationsklängen natürlicher Instrumente bereitzustellen. Deshalb waren diese Geräte von Anfang an mit mindestens 16 Stimmen und mit mindestens 6 Klangfarben (Timbres) ausgestattet. Dank dieser Multitimbralität können mehrere unterschiedliche Klänge auf unterschiedlichen MIDI-Kanälen abgerufen werden. In der Anfangszeit war dies nur mit wenigen Geräten möglich.

Diese Klangerzeugerklasse war zum Beginn der Expanderzeit am weitesten verbreitet. Beispiele sind Roland U-110 und Roland U-220. Etwas später bekamen diese Geräte einfache Bearbeitungsfunktionen, also einfache Filter. Dadurch wurden sie jedoch nicht zu ausgewachsenen Synthesizern, denn diese Filter dienten mehr zur Klangverfeinerung als zur echten Neuschaffung von Klängen. Ein Beispiel ist der Korg M1r.

Sampler stellen keine Klänge zur Verfügung, sondern können diese aufnehmen und abspielen. Meist werden Samples aus einer Sound-Library in das Gerät geladen. Mit Samplern kann der Benutzer eigene Multisamples erstellen und so eine aufwändig zusammengestellte Instrumentenimitation schaffen. Sampler können auch Bearbeitungsfunktionen wie Loops bereitstellen. Sampler lassen neuartige Spielweisen für Musiker zu, beispielsweise das Verwenden von Drum-Loops und One-Shot-Effektsounds innerhalb einer Keymap, das heißt einer Tastaturzusammenstellung von verschiedenen Samples.

Die Samplertechnik hat die moderne Musik maßgeblich geprägt. Musikstile wie Hip-Hop wären ohne Sampler nicht vorstellbar. Einen großen Einfluss hat diese Technik auch auf die Filmmusik. Gute Orchesterimitationen sind bis heute nur mit aufwändiger Samplingtechnik möglich.

Sampler wurden und werden auch im Live-Betrieb oft verwendet, beispielsweise um die Klangeigenschaften eines echten Schlagzeugs durch Samples zu erweitern, oder um Chöre oder Backing-Vocals bei kleinen Bandbesetzungen bereitzustellen. Die Chorsamples drückt ein Keyboarder mit einer Taste ab, oder der Schlagzeuger löst sie mit einem E-Pad per MIDI-Befehl aus.

Fast alle weitverbreiteten Sampler wurden nur als Expanderversionen ausgeführt. Ein bekanntes Beispiel ist die Akai-S-Serie.

Es gibt eine Vielzahl von samplebasierten Synthesetechniken:

  • Die LA-Synthese ist ein von der Firma Roland entwickeltes Syntheseverfahren. Sie trennt Klänge auf in Transienten und Flächenklänge, die dann mit einem digitalen Filter bearbeitet werden. Über die verschiedenen Zusammenstellungen dieser Klänge können neue Klänge erzeugt werden. Ab dem D-50 und seinem Expandermodel D-550 basieren viele Modelle der Firma bis heute auf diesem Klangerzeugungsverfahren.
  • Die Firma Yamaha hingegen integrierte Samples in ihr FM-Verfahren, in dem ROM- und RAM-Samples Wellenformen bereitstellen.
  • Korg hatte mit der Wavestation ein Gerät, das Samples rhythmisch abspielen konnte.
  • Bei Geräten der Firmen Waldorf und Ensoniq gab es das Wavetable-Verfahren, bei dem einzelne Zyklen von Samples durchlaufen werden und so neue Klänge erzeugt werden.
  • Kurzweil entwickelte mit der VAST-Synthese ein Verfahren, mit dem Samples über aufwändige DSP-Funktionen extrem ummoduliert werden und damit verfremdet werden, sodass das Ausgangssample nicht mehr zu erkennen ist.

Jede Klangerzeugung hat einen eigenen Charakter. Eine Auswahl an Geräten mit Tastatur live oder im Tonstudio bereitzustellen, ist aus Platzgründen oft nicht möglich, weshalb hier meist Expander zum Einsatz kommen.

Diese Geräteklasse ist ähnlich umfassend, wie die der samplebasierten Synthesizer, wobei die Klangerzeugung rein synthetisch geschieht. Sie reicht von modularen, analogen Schrankwänden, beispielsweise von Doepfer, bis hin zu digitalen Kleinstmodulen in Halbzollgröße.

Viel verwendete Syntheseverfahren sind (kleine Auswahl):

  • analoge Synthese mit analogen Oszillatoren und Filtern (Roland MKS 80)
  • analoge Synthese mit digital kontrollierten Oszillatoren und analogen Filtern (Oberheim Matrix6)
  • FM-Synthese (Yamaha DX7/TX802)
  • additiven Synthese (Kawai K5000R)
  • virtuellen Syntheseverfahren aller Art:

Virtuelle Simulationen sind die modernste Art der Synthese, sie bilden akustische, mechanische, elektrische und elektronische Bauweisen der Instrumente nach, weshalb sich ihre Bedienung an den baulichen Eigenheiten orientiert und deshalb völlig verschieden ist von den klassischen Syntheseverfahren. Ein Beispiel wäre das virtuelle Öffnen des Flügeldeckels, was einen mechanischen Vorgang widerspiegelt. Für einen Filter hingegen gibt es keinen echten Gegenpart, er bleibt ein elektronischer Vorgang, der von der Charakteristik der elektronischen Schaltung abhängt.

Beispiele für virtuelle Synthese sind „virtuell-analoge“ Synthesizer, „virtual Strings“ für Gitarren-, Bassgitarren- und Streichinstrument-Simulationen; „virtual Brass“ für Blasinstrument-Simulationen, diverse Orgel-, Piano- und E-Piano-Simulationen für mechanische und elektromechanische Instrumente.

Unterschiedliche Synthesetechniken erfordern unterschiedliche Bearbeitungsweisen. Mittlerweile sind viele Expandermodule mit Steuerelementen wie Reglern, Fadern und Schaltern ausgestattet, die MIDI-Signale senden können. So können beispielsweise Regelverläufe eines Filters vom Regler eines Expandermoduls an einen Sequenzer zur Aufzeichnung gesendet werden. Ihre MIDI-Noten-Befehle können sie durch den Sequenzer oder von einer Tastatur erhalten. Viele dieser Geräte sind daher je nach Situation Sender, Empfänger oder beides gleichzeitig.

Expandermodule werden normalerweise in genormter 19-Zoll-Bauweise hergestellt. Es gab und gibt immer wieder Ausnahmen. In den Anfangszeiten von MIDI gab es noch häufiger Geräte, die nicht dieser Norm entsprachen.

Der Hardware-Sequenzer dient der Aufzeichnung der MIDI-Daten und dem Arrangement eines Musikstückes. MIDI-Sequenzer erlauben das Programmieren, die Aufzeichnung sowie die Wiedergabe von aufgezeichneten oder programmierten MIDI-Informationen wie Notenwerten, Anschlagsstärke oder weiteren Steuerungsbefehlen wie z. B. Modulation. Für den Live-Einsatz erfreuen sich auch die in Keyboards oder Groove-Boxes integrierten Sequenzer großer Beliebtheit. Eine Kombination aus Klangerzeuger und Synthesizer, Masterkeyboard und Hardware-Sequenzer wird als Workstation bezeichnet.

Softwaresequenzer haben im Bereich der Komposition große Bedeutung, da sie über die Standardfunktionen (Programmieren, Aufzeichnen, Abspielen) hinaus auch weitere Bearbeitungsmöglichkeiten in grafischer Form bieten (nachträgliches Editieren, Quantisierung usw.) und heutzutage nicht nur MIDI-, sondern auch Audiomaterial verarbeiten können. Diese Kombination aus Audio- und MIDI-Bearbeitung auf einem PC nennt man DAW (Digital Audio Workstation).

Die heute überwiegend verwendeten Sequenzerprogramme sind alle als Digital Audio Workstation anzusprechen. Beispiele sind das bereits erwähnte Cubase von Steinberg (seit 2004 zu Yamaha gehörig) für Mac (OSX) und Windows-PC und sein Pendant Logic, das, inzwischen von Apple aufgekauft, nur noch für Apple Macintosh bezogen werden kann. Ferner gibt es Rosegarden und MusE auf unixartigen Plattformen und einige weitere Lösungen wie Sonar, Ableton Live, REAPER, Renoise oder auch Reason.

Zahlreiche digitale Effektgeräte und Mischpulte sind heute ebenfalls über MIDI-Controller-Befehle steuerbar. Auf diese Weise können Aktivitäten am Pult mit einem Sequenzer oder einem PC aufgezeichnet werden, um z. B. einen Livemix nachzubearbeiten oder komplizierte Aktionen zu automatisieren. Auch sind Standardmischungen für bestimmte Aufnahmesituationen speicherbar. Größere Pulte der FOH sowie Monitormischpulte sind auf diese Weise durch Musiker fernsteuerbar.

Das Protokoll wurde 1981 von Dave Smith für die Audio Engineering Society entwickelt und von der MIDI Manufacturers Association erstmals 1983 auf der NAMM-Show in Anaheim, USA, vorgestellt. Der MIDI-Standard wird von der MMA (MIDI Manufacturers Association) festgelegt.

Der folgende Abschnitt erfordert das Verständnis des Hexadezimalsystems. Ein Byte ist aus zwei Hexadezimalziffern zwischen 0 und 15 aufgebaut, wobei die Zahlen ab 10 mit A bis F notiert werden. Eine 2-stellige Hex-Zahl besitzt damit einen Zahlenbereich von 0 bis 255.

Die meisten MIDI-Befehle enthalten neben ihrer Befehlskennung und den Befehlsdaten auch eine Kanalnummer. Die Kanalnummer ist 4 Bit groß, so dass sich 24, also 16 Kanäle ansteuern lassen. Jeder Kanal steuert ein spezielles Instrument, auch „Programm“ genannt.

Das Statusbyte ist das erste Byte eines Befehls. Außerdem enthält das Statusbyte den betreffenden MIDI-Kanal n. Dieser reicht von 0 bis 15. In vielen Programmen wird bei der Darstellung der Kanalnummer die tatsächliche Kanalnummer um 1 erhöht dargestellt, also von 1 bis 16 statt von 0 bis 15. Die folgenden Bytes sind Datenbytes. Um einen unterbrochenen Datenstrom jederzeit korrekt wieder aufnehmen zu können beginnt ein Statusbyte stets mit einer 1 und ein Datenbyte mit einer 0. So liegen die Statusbytes im Bereich 8016 (1000 00002) bis FF16 (1111 11112) und die Datenbytes zwischen 0016 (0000 00002) und 7F16 (0111 11112). Kommt anstelle eines erwarteten Statusbyte ein Datenbyte, dann gilt das letzte Statusbyte als wiederholt und das aktuelle Datenbyte zählt zu dessen Daten (Running Status).

Zweck eines MIDI-Controllers (Continuous Controller = CC, vordefinierter, festgelegter Controller) ist es, dem Anwender für sein Instrument die typischen Spielhilfen bereitstellen zu können, so z. B. dem Klavierspieler ein Haltepedal (CC064) oder dem Orgelspieler einen Lautstärkeregler (CC007 bzw. CC011) und einen Leslie-Geschwindigkeitsumschalter (z. B. CC004, CC006).

Dem Synthesizerspieler beispielsweise stehen eine ganze Reihe weiterer Beeinflussungsmöglichkeiten für sein Spiel zur Verfügung, z. B. ein Modulationsrad (CC001), Pitch-Bending-Hebel, diverse Pedale und Fußschalter, weitere Schiebe- und Druckregler und -schalter, Blaswandler (CC002) oder Steuerungen per Licht für die Hände. Es gibt sogar – externe – Steuerungen für das Gehirn (Brain-to-Midi).

So kann eine gute Haptik und Kontrolle bei der Beeinflussung seiner Spielweise ein ausdrucksstarkes Spielen ermöglichen. Dazu haben die Spielhilfen meist mechanisch bewegliche Elemente, die der Benutzer bedienen kann. Diese Bewegung wird in Nachrichten (Controllerdaten) übersetzt und an die Geräte sowie Klangerzeuger weitergegeben. Sie arbeiten somit ähnlich wie Gamecontroller. Teilweise sind die Spielhilfen per MIDI-Protokoll an bestimmte Controllerbefehle gebunden, wobei meist sowohl die Spielhilfen beim Sender (z. B. Tastatur) wie auch beim Empfänger (Expandermodul, Plugin) frei auf andere Controller(befehle) umgeändert werden können (z. B. Modulationsrad als Lautstärkeregler).

Erst in neuerer Zeit nutzt man Controller verstärkt auch, indem die ursprüngliche Semantik ignoriert wird. Dem jeweiligen Befehl werden ganz andere Funktionen zugeordnet als im MIDI-Protokoll vorgesehen. Das ist häufig der Fall, wenn die Musikbearbeitung ausschließlich auf einem Computer durchgeführt wird. Insbesondere bei DJ-Programmen sind angepasste Controller sehr verbreitet. Hier wird zum Beispiel mit dem MIDI-Signal ein Dialog zur Songauswahl geöffnet, oder Funktionen wie Start, Stopp werden steuerbar. Auf der anderen Seite können Anzeigeelemente in Controllern bedient werden. Der semantisch mit der Tonhöhe belegte MIDI-Befehl kann so beispielsweise die Länge einer Wiederholungsschleife codieren. Gerade hier ist die Controllerhaptik wichtig, da sich mit der Maus am Computer die erforderliche Reaktionszeit und Feinfühligkeit zum Beispiel bei der Synchronisierung des Beats zweier Songs nicht erreichen lässt. Dem proprietären Charakter dieser Anwendungsart kann durch freie Belegbarkeit der MIDI-Befehle sowohl im Programm als auch im Controller begegnet werden, was allerdings noch lange nicht die Regel ist.

Klassische Anwendungen der MIDI-Controller halten sich hingegen streng an die Semantik des Protokolls. Diese haben im Bereich der Musikerzeugung größere Bedeutung, da sich mit ihnen auf einfache Art und Weise gerätespezifische Klangparameter des aktuellen Instruments steuern lassen. Unterschiedliche Geräte sind dabei untereinander austauschbar.

Die Controller senden auf einem bestimmten Kanal mit einer bestimmten Controllernummer einen bestimmten Wert. Einfache Controller können Werte von 0 bis 127 annehmen, was jedoch bei Tonhöhenänderungen sehr schnell zu unschönen treppenhaft-sprunghaften Tonhöhenveränderungen führt. Daher lassen sich die Controller 0–31 mit einem sogenannten LSB-Controller 32–63 koppeln, um so eine wesentlich höhere Auflösung zu erhalten. In der Praxis wird diese Technik jedoch selten angewandt, da eine Auflösung der Lautstärke beispielsweise in 128 Schritten ausreichend ist.

Schalter wie beispielsweise das Haltepedal Nummer 64 können zwar theoretisch Werte zwischen 0 und 127 senden, da ein Schalter allerdings nur zwei Werte annehmen kann, werden üblicherweise Werte von 0 bis 63 als „aus“ und Werte von 64 bis 127 als „ein“ interpretiert.

Wird ein programmierbares Steuergerät verwendet, so sind Kenntnisse der Controllernummern und was diese üblicherweise steuern von großem Nutzen. Die wichtigsten Controller sind in der nachfolgenden Tabelle zusammengestellt. Das erste Byte eines Controllerbefehles lautet immer Bn16, wobei n die Kanalnummer angibt und vv für den Wert, den der zu steuernde Klangparameter annehmen soll, steht.

Die allgemeinen (RPN – Registered Parameter Number) und die herstellerspezifischen (NRPN – Non Registered Parameter Number) Controller dienen dazu, Parameter zu steuern, die im normalen Controller-Bereich keinen Platz gefunden haben. Es können Parameter mit einem Index zwischen 0 und 16383 verändert werden. Zum Setzen der Indizes dienen die Controller

  • RPN-MSB (6516)
  • RPN-LSB (6416)
  • NRPN-MSB (6316)
  • NRPN-LSB (6216)

Es wird also zunächst der Index des Controllers gesetzt – dazu wird erst das MSB und anschließend das LSB der gewünschten Controllernummer in jeweils drei Bytes übermittelt. Anschließend gibt es zwei Möglichkeiten:

  • Entweder die Übertragung des neuen Werts, den der gerade indizierte Controller annehmen soll. Dazu wird nun der Controller „Data Entry“ (0616) und der gewünschte Wert (0…127) übermittelt. Wird auf Empfängerseite ein Wert mit hoher Präzision (14 Bit) erwartet, kann Controller 38 (2616) mit den niedrigeren sieben Bits des Zielwerts folgen.
  • Stattdessen kann auch die Anweisung folgen, den aktuellen Wert um eins zu erhöhen oder zu erniedrigen: Dazu wird der Controller „Data Increment“ (6016) oder „Data Decrement“ (6116) übertragen. Aus syntaktischen Gründen muss auch hier ein drittes Byte folgen (0…127), dessen Wert aber vom Empfänger ignoriert wird. (siehe Tabelle).

Systemexklusive Meldungen (SysEx) sind Bestandteil des MIDI-Übertragungsprotokolls.

Während die übrigen MIDI-Befehle weitgehend als ein Standard festgelegt sind, wurde speziell durch die systemexklusiven Meldungen sichergestellt, dass die Hersteller von Hard- und Software auch Informationen übertragen können, die im MIDI-Protokoll nicht vorgesehen sind. So kann zum Beispiel der Speicherinhalt eines Gerätes zur Datensicherung an einen Rechner gesendet werden. Auch können Modellbezeichnungen zwischen den Geräten ausgetauscht werden. Das MIDI-Protokoll garantiert, dass systemexklusive Meldungen nicht durch andere Befehle unterbrochen werden. Daher werden systemexklusive Meldungen in Pausen übertragen, so dass es zu keinen unschönen Aussetzern oder Verzögerungen kommen kann.

Eine systemexklusive Meldung beginnt mit F016 und endet mit F716. Das zweite Byte ist die Herstellerkennung, die von der MIDI Manufacturers Association vergeben wird und weltweit eindeutig ist. Ist das zweite Byte gleich 0016, identifizieren die beiden folgenden Bytes den Gerätehersteller. Die Herstellerkennung ermöglicht den Geräten eine Filterung, was den entsprechenden Geräten die Interpretation der Meldungen ermöglicht. Zwischen der Herstellerkennung und dem Schlusszeichen folgen beliebig viele Datenbytes, die aber nur Werte zwischen 0016 und 7F16 enthalten können und so nur einen 7-Bit-Zeichensatz ermöglichen. In der Regel werden zu Beginn zuerst einige Bytes gesendet, die festlegen, für welches Gerät die Nachrichten bestimmt sind. Die Bedeutung legt der entsprechende Hersteller fest.

Beispiele:

  • F0 41 … F7
  • F0 00 20 33 … F7

Ein Kritikpunkt an MIDI ist, dass die Controller in der Regel nur monophon übertragen werden, also auf alle gespielten Noten eines Programms gleich wirken (Ausnahme: der selten anzutreffende polyphone Aftertouch).

Um größere Expressivität erreichen zu können, wurde 2017 MPE als abwärtskompatible Erweiterung des MIDI-Standards definiert. Unter MPE erhält jede Note einen eigenen MIDI-Kanal zugewiesen, sodass auch die Noten eines gespielten Akkords unabhängig voneinander moduliert werden können.

MPE wird von Geräten wie dem Roli Seaboard oder dem Linnstrument verwendet, die neben der Anschlagsdynamik und dem Druck auf die Taste (Aftertouch) auch Bewegungen der Finger auf der X- und Y-Achse auswerten.

siehe Hauptartikel MIDI Polyphonic Expression

Synchronisation ist immer dann nötig, wenn zwei oder mehrere MIDI- bzw. Audiogeräte zu einem System zusammengeschlossen werden müssen. Dazu gibt es zwei MIDI-Protokolle:
Die ältere und tendenziell unpräzisere MC (MIDI-Clock), die auf das Grundtempo eines Songs referenziert und eher für den musikalischen Einsatz vorgesehen ist, und den neueren MTC (MIDI-Time-Code), der auf ein absolutes Zeitsystem referenziert und für Aufnahmesysteme relevant ist.

Jeder Systemverbund hat genau einen Master, alle anderen Geräte sind Slaves, die dem Master folgen müssen.

Wenn alle Geräte Daten senden sollen, muss eine mehrkanalige Verbindung hergestellt werden, siehe MIDI-Ring.

Synchronisation ist in vielen Bereichen notwendig. Dabei kann man zwei grundsätzlich verschiedene Einsatzzwecke feststellen, aus denen sich diverse Mischformen ergeben:

Hier werden verschiedene Aufnahme-, Wiedergabe- und Bearbeitungssysteme zu einer Systemeinheit verbunden. Sie sollen also gleichzeitig und synchron starten, stoppen und mitlaufen und natürlich auch nicht während des Musikstücks auseinanderlaufen, was passieren würde, wenn man die einzelnen Systeme manuell gleichzeitig starten würde. Genau das übernimmt der MTC und verhindert derartige Probleme.

Einige Synchronisationsbeispiele aus der Praxis (MTC):

  • Zwei DAWs (Digital Audio Workstation) werden zu einem Verbund zusammengeschaltet.
  • Eine DAW muss mit einem Hardware-Sequencer zusammengeschaltet werden.
  • Eine DAW muss mit einer Drum-Machine zusammengeschaltet werden.
  • Eine Bandmaschine muss mit einer DAW zusammengeschaltet werden.
  • Eine Bandmaschine, ein Sequencer und ein Harddiskrecorder müssen zusammengeschaltet werden.
  • Eine Bandmaschine oder eine DAW müssen für eine Mischung mit einem Mischpult mit eigenem Automationssystem zusammengeschaltet werden.
  • Sonderanwendung: Mehrere Computer sollen Daten über die MIDI-Schnittstelle austauschen siehe MIDI-MAZE,

Bei (analogen) Bandmaschinen muss vor einer Aufnahme der Timecode auf das Band aufgespielt werden. Dabei wird ein SMPTE-Timecode auf die letzte Spur (8-Spur auf Spur 8, 16-Spur auf Spur 16 usw.) der Maschine aufgenommen, der von einem SMPTE-Generator erzeugt wird. Ein SMPTE-Code stört durch Übersprechen danebenliegende Kanäle, weshalb man auf die Außenspur ausweicht, um neben der SMPTE-Code-Spur nur noch eine weitere Spur für Aufnahmen zu verlieren.

Aus dem aufgenommenen SMPTE-Code „liest“ ein SMPTE-Reader das Signal aus und wandelt es in MTC, das von den daran angeschlossenen Geräten gelesen werden kann.

Da nur professionelle Maschinen aufwändige Synchronisatoren besitzen, sind meist die Bandmaschinen MTC-Master über den SMPTE-Code, denen alle anderen Systeme folgen müssen. Ein weiterer Grund ist, dass selbst professionelle Bandmaschinen immer eine Spulzeit haben, weshalb es selten einen Sinn ergibt, beispielsweise eine DAW als Master einzusetzen.

Je nach Art des SMPTE-Codes kann es durchaus einen Sinn ergeben, bei Überspielungen von Bandmaterial auch den alten Timecode vom Band mit als Audiosignal aufzunehmen, um Rechendifferenzen zu minimieren. Manchmal aber ist der Timecode bei alten Bändern so schlecht, dass eine Synchronisation nicht möglich ist, so dass alle Spuren mit einem Mal aufgenommen werden müssen. Den Timecode kann man nachträglich mit spezieller Software bzw. Geräten reparieren und wieder nutzbar machen.

Hier werden Sequencer und Synthesizer bzw. Effektgeräte miteinander gleichgeschaltet, um musikalisch wichtige Ereignisse auszulösen.

Einige Synchronisierungs-Beispiele aus der Praxis (MC):

  • Ein Delay soll genau auf den Rhythmus eines Musikstückes gesetzt werden, um ein musikalisches Echo für ein Soloinstrument bereitzustellen. Hierzu muss das Effektgerät natürlich MC verarbeiten können. Besonders wenn sich das Tempo des Stückes ändert, ist das nur auf diese Weise möglich, weil das manuell nicht umsetzbar wäre.
  • Ein Flächensound eines Synthesizers soll rhythmisiert („zerhackt“) werden.
    • Entweder ein MIDI-Gate wird so angesteuert, dass es im Rhythmus des Musikstückes öffnet und schließt,
    • oder die MC wird zur Synchronisation der Lautstärkenmodulation im Synthesizer genutzt.
  • Ein Sound eines Synthesizers soll im Rhythmus eines Musikstückes im Panorama wandern.
  • Ein Sound eines Synthesizers soll im Rhythmus eines Musikstückes den Filter öffnen und schließen.

Die Möglichkeiten für den Einsatz von MC ist nur begrenzt durch die technischen Möglichkeiten der angeschlossenen Geräte.

  • MIDI-Clock (MC)

Die MIDI-Clock basiert auf Takt- und Notenebene. Die Einheit ist ein Tick, ein 96tel eines Schlages (bei vielen Liedern Viertelnote). Die Dichte, mit der die Clock-Informationen gesendet werden, ergibt sich daher aus der gewählten BPM-Einstellung des Liedes. Folgende Messages sind möglich:

  1. F216 Noten Position innerhalb eines Liedes 0–16383 (zwei Datenbytes)
  2. F316 Liedauswahl 0–127 (ein Datenbyte)
  3. F816 wird (während des Abspielens) 24-mal je Viertelnote gesendet
  4. FA16 Start
  5. FB16 Von der aktuellen Position aus fortsetzen
  6. FC16 Stopp

Durch diese Signale starten alle Sequenzer gleichzeitig, folgen dem gegebenen Tempo und stoppen auch wieder gleichzeitig.

  • Song Position Pointer (SPP)

Während MC im Grunde lediglich Clock-Ticks sendet, ist SPP dafür zuständig, die Position im Song zu übermitteln. Er wird jede Sechzehntelnote übertragen und ist auf maximal 1024 Takte beschränkt.

Die relativ grobe Unterteilung von SPP-Befehlen dient zur groben Gleichschaltung von Geräten, während die exakte Gleichschaltung per MC erfolgt.

Angeschlossene Geräte können so auch im Stopp-Modus eines Sequenzers erkennen, an welcher Stelle in einem Musikstück sie sich befinden. Außerdem können sie bei bestimmten Songpositionen Funktionen ausführen, z. B. dass Drumcomputer vorprogrammierte Wiederholungen auslösen.

Der MIDI timecode (MTC) ist eine Umsetzung des SMPTE-Timecodes auf das MIDI-Format. Im Gegensatz zur MIDI-Clock ist der MTC eine reine Zeitinformation, eine Umrechnung auf Lied, Position innerhalb des Liedes und Abspieltempo muss durch die Software erfolgen.

Bei größeren Sprüngen der Position sendet der Master die absolute Position innerhalb einer SysEx-Message

F0 7F 7F 01 01 hh mm ss ff F7
  1. F016 SysEx Message Beginn
  2. 7F16 Dieser Herstellercode zeigt an, dass es eine universelle Realtime Message ist
  3. 7F16 Diese Kanalnummer zeigt eine Broadcast-Message an
  4. 0116 bezeichnet die Message als MIDI-Timecode
  5. 0116 zeigt eine volle, absolute timecode-message an
  6. hh setzt sich zusammen aus SMPTE-Rate und Stunden in der Form 0rrhhhhh2
    1. hhhhh2 Stunden von 0–23
    2. rr=002 24 Bilder/s (Film)
    3. rr=012 25 Bilder/s (PAL-Video)
    4. rr=102 29,97 Bilder/s (drop frame timecode NTSC-Video)
    5. rr=112 30 Bilder/s (non drop timecode NTSC-Video)
  7. mm Minuten von 00–59
  8. ss Sekunden 00–59
  9. ff Einzelbild 00-nn, abhängig von der Frame-Rate
  10. F716 SysEx Message Ende

Während des Abspielens werden nur Short-Messages gesendet

F1 xx

Das Byte xx ist in der Bit-Darstellung am besten verständlich

  1. 0000 000y2 Frame Zähler low Nibble
  2. 0001 yyyy2 Frame Zähler high Nibble
  3. 0010 00yy2 Sekunden Zähler low Nibble
  4. 0011 yyyy2 Sekunden Zähler high Nibble
  5. 0100 00yy2 Minuten Zähler low Nibble
  6. 0101 yyyy2 Minuten Zähler high Nibble
  7. 0110 0rry2 Stunden Zähler low Nibble + Framerate s o.
  8. 0111 yyyy2 Stunden Zähler high Nibble

Bei Rücklauf des Bandes kommen die Messages allerdings in umgekehrter Reihenfolge.

MIDI ist an sich ein Übertragungsformat, mit dem in angenäherter Echtzeit Befehle zwischen digitalen Musikinstrumenten ausgetauscht werden. Es hat sich aber sehr bald als sinnvoll erwiesen, solche Befehle auch in Dateien zu speichern. Für das Abspielen einer solchen MIDI-Datei gemäß den angegebenen Zeiten in den MIDI-Befehlen ist dann eine eigene Software nötig.

MIDI-Dateien können über die Echtzeit-MIDI-Befehle hinaus noch weitere Informationen enthalten, die mit sogenannten Meta-Events codiert werden. Das erste Byte eines Meta-Events ist immer FF, die folgenden Bytes enthalten spezifische Befehle und Daten. Einer der wichtigsten Meta-Events ist der Lyrics-Event FF 05, mit dem Liedtext in einer MIDI-Datei abgespeichert werden kann. Meta-Events werden beim Abspielen nicht an verbundene Instrumente gesendet, sie können aber von der abspielenden Software interpretiert werden. Ein typisches Beispiel ist die Anzeige des Liedtextes für Karaoke-Aufführungen.

Für das Speichern von MIDI-Befehlen in Standard-MIDI-Files (kurz: SMF) gibt es drei Dateiformate:

  • SMF 0 – Beim Format 0 sind alle MIDI-Kanäle in einer Spur zusammengefasst. Dieses Format wird auch von Klingeltönen für Handys genutzt und kann mit gängigen Sequenzerprogrammen in das Format 1 konvertiert werden.
  • SMF 1 – Im Format 1 hat jeder Kanal seine eigene Spur und optional einen eigenen Namen. Verschiedene Stimmen und Instrumente können so besser identifiziert werden.
  • SMF 2 – Im Format 2 besteht jede Spur (Track) aus unabhängigen Einheiten. Im Gegensatz zu SMF 1 können also mehrere Spuren dieselbe MIDI-Kanal-Nummer haben.

Die standardisierte Dateiendung für MIDI-Dateien ist .mid. Daneben finden noch .kar Verwendung. Diese sogenannten Karaoke-Dateien enthalten zudem den gesamten Liedtext. Das Dateiformat der Noteninformationen ist jedoch exakt dasselbe wie bei .mid. Viele Programme erkennen Dateien mit der Endung .kar jedoch nicht als MIDI-Dateien, daher müssen diese Dateien in der Praxis oft umbenannt werden. Windows unterscheidet die Dateien, so dass erkennbar bleibt, dass es sich um eine Karaoke-Datei handelt. Die Datei kann trotzdem sowohl mit Karaoke-fähiger Software als auch mit normalen „Playern“ abgespielt werden. Microsoft benutzt im Weiteren die Endung .rmi für sogenannte RIFF-RMID-Dateien. Bei diesen ist eine reguläre MIDI-Datei in einen RIFF-Container verpackt. RIFF-RMID ist kein offizieller MMA- oder AMEI-MIDI-Standard. Für Dateien, die MIDI-SysEx-Daten enthalten, wird .syx verwendet. Meist sind das Presets für Sounds von Synthesizern oder gerätespezifische Kommandos.

Da MIDI im Wesentlichen ein Datenprotokoll zur Steuerung von elektronischen Musikinstrumenten darstellt, ist es prinzipiell unerheblich, über welche Hardware die Daten übertragen werden. Um eine kostengünstige, plattformübergreifende und vor allem schnelle Anbindung externer MIDI-Interfaces an einen Rechner zu erreichen, statten immer mehr Hersteller ihre Geräte neben den klassischen MIDI-Anschlüssen mit USB- oder FireWire-Anschluss (IEEE1394) aus. Dabei werden die MIDI-Befehle über USB bzw. FireWire getunnelt. Auf diese Art lassen sich mehrere virtuelle MIDI-Verbindungen realisieren, wodurch die Begrenzung auf 16 pro Verbindung praktisch keine Rolle mehr spielt. Diese Art von MIDI-Interfaces stellt die im Vergleich zum PC-Gameport deutlich zuverlässigere Variante zum Anschluss von MIDI-Geräten an den Rechner dar, da die verwendeten Treiber von den Herstellern dieser verhältnismäßig teuren Geräte zumeist auf Timinggenauigkeit hin optimiert werden. Für den professionellen Einsatz werden Interfaces mit vier bis acht einzeln adressierbaren Out-Ports verwendet, mit denen Timingprobleme deutlich vermindert werden können (vgl. auch folgender Absatz).

Beim Anschluss mehrerer gleicher Geräte (z. B. Keyboards) über USB werden die gleichlautenden Gerätebezeichnungen über eine Nummernvergabe differenziert. Bei Änderung der USB-Belegung wird diese Nummerierung neu durchgeführt, was zur Folge haben kann, dass die Geräte nicht mehr gefunden werden und einer Software z. B. neu zugeordnet werden müssen.

Das USB-MIDI-Protokoll erweitert das herkömmliche MIDI-Protokoll. Die Midi-Signale werden immer in 32-Bit-Paketen übertragen. Das untere Nibble des ersten Bytes enthält die Code-Index-Nummer, die für die MIDI-Kommandos 8..E dem im MIDI-Statusbyte kodierten Befehl entspricht. Das obere Nibble bestimmt die Kabelnummer (0..15), die einem sogenannten „Jack“ entspricht, max. 16 pro USB-Endpoint. Über jeden Jack können gemäß MIDI-Standard jeweils wieder 16 Kanäle übertragen werden. Die folgenden drei Bytes entsprechen dem MIDI-Standard, längere MIDI-Kommandos wie SysEx werden durch Code-Index 4 eingeleitet und fortgesetzt (weitere 3 Bytes) und abschließend je nach Anzahl der Restbytes (1, 2, 3 Bytes) durch Code-Index 5..7 beendet.

Für USB-Geräte existiert eine USB-Geräteklasse. USB-MIDI-Geräte, die als USB class-compliant oder treiberlos beworben werden, benötigen keine Treiber des Geräteherstellers. Der stattdessen verwendete Standardtreiber des Betriebssystems hat unter Windows jedoch einen Fehler, durch den jede virtuelle MIDI-Verbindung von höchstens einer Anwendung gleichzeitig verwendet werden kann. Gerätespezifische Treiber haben diese Einschränkung üblicherweise nicht. Für UWP-Anwendungen stellt Microsoft eine alternative API bereit.

Dem Trend hin zur drahtlosen Datenübertragung folgend werden auch Geräte angeboten, mit denen sich MIDI-Daten per Funk übertragen lassen. Die Geräte benutzen in der Regel Übertragungsfrequenzen im ISM-Band und senden bei Übertragungsfehlern ein „ALL NOTES OFF“, um hängende Töne zu vermeiden. Laut Herstellerangaben haben diese Geräte eine Reichweite von 10 bis 80 Metern.

Für Bluetooth-Low-Energy existiert ein Profil zur Übertragung von MIDI.

Seit einiger Zeit gibt es eine Reihe von virtuellen Gerätetreibern, die es erlauben, MIDI-Daten über IP-basierte Netzwerke zu übermitteln. Während die meisten dieser Produkte auf proprietärer Basis die MIDI-Daten per TCP oder UDP über das Netzwerk übertragen, gibt es mittlerweile auch einen RFC für eine genormte Übertragung von MIDI-Daten über Netzwerke auf Basis des RTP-Protokolls: RFC 4695. Es gibt mehrere Open-Source-Implementierungen dieses Standards und auch das Apple-Netzwerk-MIDI von Mac OS X Tiger und iOS 4.2 basiert auf dieser Spezifikation. Es existiert auch ein Windows RTP-MIDI Treiber, welcher auf Windows XP bis Windows 7 (32-Bit und 64-Bit) läuft und kompatibel zur Apple-Implementation ist.

Es gab Bemühungen, den von Yamaha entwickelten mLAN-Standard als Verknüpfung von MIDI- und Audiodaten auf der Basis von FireWire zu etablieren. Dies konnte sich jedoch nicht durchsetzen und wurde inzwischen eingestellt. Eine weitere Option ist die Übertragung von MIDI-Daten über S/PDIF-Schnittstellen sowie über Audiosignale.

Bevor MIDI entstand, war digitale Audioaufzeichnung noch extrem teuer und damit wenigen Produktionen vorbehalten. Somit eröffnete das technisch nicht sehr aufwendige MIDI mit seiner enormen Leistungsfähigkeit mittels Aufzeichnung reiner Steuersignale Anfang der 1980er Jahre einer breiten Masse von Musikschaffenden plötzlich neue Horizonte. Dank MIDI können auch Amateurmusiker mit entsprechenden Kenntnissen komplexere musikalische Strukturen kreieren. Beispielsweise können Streicher und Bläser synthetisch imitiert werden, während man Schlagzeug, Gitarre und Gesang über Audiospuren einspielt.

MIDI-Signale enthalten lediglich Steuerdaten. Digitale „Audiosignale“ hingegen sind ein kontinuierlicher binärer Datenstrom, entstanden durch die sehr schnelle Abtastung (Digitalisierung) analoger Schwingungen einer Audioquelle (Mikrofon oder elektronisches Instrument). Sie haben eine konstant hohe Datenrate und können nach erfolgter Digital-Analog-Wandlung über ein Verstärker-Lautsprecher-System hörbar gemacht werden. MIDI-Daten fallen nur an, wenn z. B. Tasten auf einem Keyboard gedrückt oder losgelassen werden. So entstehen bei MIDI ungleich geringere Datenmengen. Aufgezeichnete MIDI-Signale können leicht im Nachhinein an einen anderen Klangerzeuger gesendet werden. Auch besteht die Möglichkeit, eingespielte MIDI-Daten im Nachhinein beliebig zu editieren, um etwa falsche Töne auf die richtige Tonhöhe oder Abspielposition zu bringen oder ihre Dynamik anzupassen. All diese Veränderungen der Originaleinspielung kosten im Vergleich zur Nachbearbeitung von digitalen Audioaufzeichnungen sehr wenig Rechenaufwand und sind mit allen heute verfügbaren Sequenzerprogrammen möglich.

Da für das Auslösen eines Tons bis zu 3 Bytes übertragen werden müssen, was 0,960 ms in Anspruch nimmt, kann es bei mehreren Events, die eigentlich gleichzeitig gesendet werden müssen, zu Verzögerungen bei einigen Geräten kommen, die auch hörbar werden. Dabei spielt auch die zufällige Sortierung der Noten eine Rolle, welche die effektiv erklingenden Notenlängen im Geräte beeinflusst.

Eine deutlich hörbare, durch MIDI verursachte Verzögerung tritt in den folgenden Beispielszenarien auf:

  1. In Verbindung mit der Verwendung von System-Exclusive-Daten: Dieser Message-Typ belegt weit mehr als die typischen drei Bytes (1 Statusbyte und 2 Databytes).
  2. Intensive Verwendung von Pitch-Bending oder ähnlichen Controllern, z. B. Ausdrucks-Controllern
  3. Bei der Verkettung mehrerer Hardware-Klangerzeuger über MIDI-Out oder Software-gepufferte MIDI-Thru-Verbindungen: Hier entsteht jeweils eine weitere Verzögerung von mindestens einem Byte.

Bei Studioarbeit werden mehrere Gegenmaßnahmen ergriffen:

  1. Vermeidung der genannten Belastungen
  2. Verteilung der MIDI-Daten auf mehrere parallele Ausgänge eines oder mehrerer MIDI-Interfaces.
  3. Besonders zeitkritische Synchronisierungsdaten wie MTC oder MIDI-Clock werden auf eigenen MIDI-Verbindungen übertragen.
  4. „Vorziehen“ des MIDI-Signalflusses: Man spielt Teile der MIDI-Daten etwas vorgezogen ab.
  5. Nutzung von Funktionen im Sequenzer, um redundante MIDI-Daten auszufiltern.

Bei Live-Anwendungen sind diese Maßnahmen allerdings oft nicht möglich. Ein Masterkeyboard hat üblicherweise nur ein MIDI-Out, das heißt, alles, was dort an Noten und Controllern ausgelöst wird, muss über diese eine Schnittstelle übertragen werden.

Nur, wenn ausschließlich Notenwerte in schneller Folge übertragen werden und anstatt des expliziten Note-Off-Kommandos ein Note-On-Kommando mit Anschlagsdynamikwert 0 verwendet wird, kann in der Übertragung auf das Senden des Statusbytes verzichtet werden (Running Status). Damit sinkt die zu übertragende Datenmenge für diesen Block allerdings nur um 1/3.

Neben der ungleichmäßigen Zeitverzögerung kommt es auch zu einer Quantisierung der MIDI-Zeiten: Die Präzision einer MIDI-Sequenz ist meistens auf 1/96 einer Viertelnote definiert (siehe MIDI Clock), in einigen Fällen können Sequenzer und Programme eine höhere Genauigkeit erreichen, realisiert sind heute durchaus Teilungen von 240 und 480. Bei der Verwendung von Plugins besteht je nach Anwendungsprogramm die Möglichkeit, die Quantisierung völlig aufzuheben und dann nachzuquantisieren. Entscheidend sind hier die PPQN (pulses per quarter note), die das Gerät verarbeiten kann. Das bedeutet daher auch, dass die kleinste reproduzierbare Timingschwankung mitunter vom Songtempo abhängig ist. In einem Lied mit 120 bpm im Vierteltakt beträgt dieser Wert z. B. 5,21 Millisekunden. Damit sind weiche Tempoänderungen bzw. bestimmte Spieltechniken, wie laid back oder pushed, nicht präzise einspielbar.

Je nach verwendetem Protokoll und Anzahl der zu übermittelnden Daten ergeben sich unterschiedlich große Verzögerungszeiten: Die Übertragung von einer typischen MIDI-Information bestehend aus 3 Werten ist beim Standard-MIDI mit unter 1 ms immer noch schneller, als die typische Latenz, die am USB-Bus beobachtbar ist. Diese liegt im günstigsten Fall bei 1–2 ms, kann aber auch bis zu 50 ms betragen. Dabei spielt auch die Hardware der Chips und das Betriebssystem eine Rolle. Bei der Benutzung eines to-host-interface und serieller Schnittstelle, sind bei 230kbps sogar zwischen 10 und 30 Noten noch schneller übertragbar, als mit USB 1.0. Damit werden bei sofortiger Ausführung auch bei einem beidhändig gegriffenen Akkord alle Noten kurz genug hintereinander übertragen, was für eine subjektive Gleichzeitigkeit ausreicht. USB 2.0 und 3.0 bringen hier leider keine Verbesserungen, sondern haben sogar oft noch höhere Latenzen. Erst ab 30–100 Noteninformationen, wie sie bei einem Auftakt in einem stark instrumentierten Werk vorkommen, ist USB in Summe schneller, weil es die höhere Bandbreite aufweist, hätte allerdings in Abhängigkeit der Paketgrößen immer noch eine nicht reproduzierbare Latenz und damit Jitter. Daher ist USB weniger für das Live-Spiel und mehr für die Produktion von Musik aus der DAW heraus geeignet.

Alle analogen und kontinuierlichen Aspekte wie die Anschlagdynamik, das Verhalten des Klangs während des Drückens (after touch) und nach dem Loslassen der Taste sowie die Echtzeitmodifikationen der Amplitude, der Frequenz etc. sind in den 128 Stufen des MIDI-Formats aufgelöst. Das schafft unweigerlich eine verfälschende Vergröberung des manuellen Spiels schon bei der Aufnahme und verhindert eine stufenlose Änderung, was vor allem bei der Lautstärke und dem Spieltempo problematisch ist. Zwar werden in vielen modernen Keyboards, Klangerzeugern und Synthesizern die ankommenden Controllerwerte geglättet und sanft auf neue Werte übergegangen, dennoch hat damit der Musiker nur eine eingeschränkte Kontrolle über den Klang.

Viele elektronische Instrumente verfügen bei der Tonerzeugung nur über begrenzte Abstufungen in Tonhöhe oder Lautstärke. Selbst bei der Steuerung von künstlichen Klangparametern bei Synthesizern, wie z. B. der Cutoff-Frequenz eines Filters, macht sich diese „Stufigkeit“ teilweise hörbar bemerkbar.

Auch Instrumente mit scheinbar festen Tonhöhen wie Flöten oder Klaviere besitzen eine gewisse Varianz in der Tonhöhe während des Spiels, die bei Blasinstrumenten vom Luftstrom und bei Saiteninstrumenten vom Anschlag und der Momentanlautstärke sowie allerlei Resonanzeffekten abhängt. Die während eines komplexen Tonverlaufes existierenden Schwankungen der Tonparameter Amplitude und Phase sind nur sehr grob von MIDI-Hard- und Software nachzubilden bzw. zu erzeugen. Bei anschlagsdynamischen Instrumenten macht sich dieses besonders bemerkbar (Bösendorfer 290SE). Auch Vibrato und Blue-Note-Technik kann nur begrenzt abgebildet werden.

Dieses Problem kann nur durch die Nutzung zweier aufeinander folgender MIDI-Controller umgangen werden, was den zeitlichen Rahmen weiter einschränkt. Ein anderes Beispiel für die Benutzung zweier verknüpfter Controller ist der Bank Select-Befehl (MIDI CC 0 und 32 des General-MIDI-Standards), der es erlaubt, bis zu 128 Bänken zu adressieren. Jede Bank kann wiederum Subbänke (max. 128) enthalten. Auf diese Weise können theoretisch 16384 Soundbänke, jede einzelne mit 128 Klängen, realisiert werden. Spezielle Klangbibliotheken bieten deshalb verschiedene Artikulationen und Spielweisen akustischer Instrumente an, um diesen Nachteil zu umgehen.

Schwer wiegen die Einschränkungen musikalischer Art: MIDI wurde für die Steuerung von Synthesizern konzipiert, die Töne gemäß einer gleichstufigen Stimmung wiedergeben. Für andere Stimmungen oder Skalen, die nicht zwölfstufig sind, müssen die Notendaten entweder per Controller im Sequenzer künstlich modifiziert oder in den Endgeräten uminterpretiert werden. Viele hochwertige Keyboards verfügen inzwischen über eine entsprechende Einstellmöglichkeit. Allerdings ist innerhalb eines musikalischen Werks damit nur eine Stimmung nutzbar. Für komplexere Ansprüche an Stimmungen gibt es spezielle Software (sog. Mikrotuner), die eine MIDI-Schnittstelle (z. B. USB-MIDI-Adapter) und einen Rechner voraussetzt. Die erhöhte Latenz erschwert damit unter Umständen das präzise live-Zusammenspiel.

Von Yamaha gibt es mit XG-MIDI eine Erweiterung, die genau wie Rolands GS-MIDI Verbesserungen in der Kompatibilität von Standard-MIDI-Files bringt, allerdings nicht über ein proprietäres System hinaus gedieh. Als Quasi-Standard durchgesetzt hat sich lediglich GM (General MIDI). Beide Standards nutzen das normale MIDI-System ohne Änderungen an der MIDI-Hardware oder dem Protokoll.

Um die Schwächen des ersten MIDI-Standards zu beheben, haben die im Branchenverband MMA organisierten Hersteller die Spezifikation für einen neuen MIDI-Standard erarbeitet. Er soll folgende Eckdaten aufweisen:

  • Bidirektionale Kommunikation
  • Geräte informieren sich via „Capability Inquiry“-Nachrichten gegenseitig über ihre Fähigkeiten und passen Konfiguration aneinander an
  • Höhere Anschlagsdynamik mit 16 Bit
  • Mehr CC-Controller-Typen: 128 CC-Controller, 16.384 vordefinierte Controller (vergleichbar RPN), 16.384 nutzerdefinierbare Controller (vergleichbar NRPN) – jeweils mit 32 Bit Auflösung
  • 32-Bit-Auflösung für alle Controller: CC, Channel und Polyphonic Aftertouch, Pitch Bend
  • Verbessertes Timing und Synchronisation

MIDI 2.0 ist abwärtskompatibel, d. h. herkömmliche MIDI-Geräte sollen weiter angebunden werden können, ohne allerdings die erweiterten Möglichkeiten von MIDI 2.0 zu nutzen. Daher soll die Hardware-Verbindung über DIN-Buchse bestehen bleiben. Neben der USB-Verbindungen über 2.0 wird auch die USB 3.x spezifiziert und das USB-MIDI-Protokoll erweitert.

Der neue Standard wurde von der MIDI Manufacturers Association auf der US-Musikmesse NAMM im Januar 2020 einstimmig verabschiedet.

Erste Geräte sollten 2020 den Markt erreichen; so stellte Roland auf der NAMM 2020 ein MIDI-2.0-fähiges Masterkeyboard vor.

In Zusammenarbeit mit der Association of Musical Electronics Industry (AMEI) und Microsoft wurde eine Open Source API für MIDI 2.0 unter die MIT-Lizenz erstellt, die für alle Betriebssysteme entsprechend den Lizenzbedingungen benutzt werden kann.

Im Juni 2023 wurde ein Update der MIDI 2.0 Spezifikation durchgeführt, die kleinere Ungereimtheiten der vorherigen Version beseitigten.

Der Linux-Kernel unterstützt MIDI 2.0 ab Kernel-Version 6.5.

  • Paul Théberge: „Democracy and Its Discontents: The MIDI Specification“. In: OneTwoThreeFour 9/1990: S. 12–34.
  • Christian Braut: Das MIDI-Buch. Sybex, Düsseldorf u. a. 1993, ISBN 3-8155-7023-9. 
  • Bernd Enders, Wolfgang Klemme: Das MIDI- und SOUND-Buch zum ATARI ST. MIDI-Grundlagen, MIDI-Befehle, Programmierung des Soundchips, Steuerung von MIDI-Instrumenten. Alles über professionelle Musiksoftware, MIDI-Programmtools, Umrechnungstabellen. Markt & Technik Verlag AG, Haar bei München 1988, ISBN 3-89090-528-5. 
  • Erol Ergün: Cubase SX/SL in der Praxis. Die neue Generation der MIDI/Audio-Musikproduktion. Einstieg, Profi-Tipps und Strategien für die Musikproduktion mit Steinberg Cubase SX/SL. 3., aktualisierte und erweiterte Auflage. PPV, Presse-Project-Verlags-GmbH, Bergkirchen 2005, ISBN 3-937841-22-9. 
  • Rob Young: Arbeiten mit MIDI-Files – Der Weg zu professionell klingenden Sequenzer-Songs. Carstensen, ISBN 978-3-910098-34-3. 
  • MIDI Manufacturers Association
  • MIDI Messages
  • Die komplette MIDI-1.0-Detail-Spezifikation von 1996 und Erweiterungen. midi.org
  • Der Midi-Guide. unseretollepage.de
  • Deutschsprachige Seite zur MIDI-Spezifikation
  • USB-MIDI-Spezifikation für Entwickler. (PDF; 180 kB) usb.org (englisch)
  • RFC 4695 – RTP Payload Format for MIDI. November 2006 (RTP-MIDI-Spezifikation, englisch).
  • MIDI-Klaviatur, Frequenzen, Notennamen und Notennummern. (private Seite)

Text submitted to CC-BY-SA license. Source: MIDI by Wikipedia (Historical)


Tadao Kikumoto


Tadao Kikumoto


Tadao Kikumoto (jap. 菊本忠男, Kikumoto Tadao) ist ein ehemaliger Präsident der Roland Corporation.

Vorher war er Leiter der Produktentwicklung und entwarf den analogen Synthesizer Roland TB-303 und den Drumcomputer Roland TR-909 und trug maßgeblich zur Entwicklung von Rolands erstem digitalen Synthesizer Roland D-50 bei.


Text submitted to CC-BY-SA license. Source: Tadao Kikumoto by Wikipedia (Historical)






Text submitted to CC-BY-SA license. Source: by Wikipedia (Historical)