Feature
3
12.03.2021

Die Geschichte der elektronischen Musik #15

Die 1980er Jahre - Teil 3

Die digitale Revolution

Willkommen beim dritten Teil über die 1980er. „Drei Teile für die 1980er Jahre!?“, fragt der Redakteur in meinem Kopf. „Ja, waren die 1980er Jahre denn so toll??“ Na, ob sie so toll waren weiß ich nicht, aber es war das Jahrzehnt eines Oberheim OB-Xa, OB-8 & Matrix 12, eines Sequential Circuits Pro One, eines Moog Memorymoog, eines Roland Jupiter-8, Juno-60 und 303, 808 und 909, eines Fairlight CMI, eines  PPG Wave, eines NED Synclavier ...

Ja, das ist bereits eine ganze Menge! Aber da war doch noch was Anderes in den 1980er Jahren, was war denn da? Ah, genau, der Yamaha DX7. Und der E-mu Emulator und die Ensoniq Geräte. Und die Akai Sampler! Die Kurzweil K-Serie und die Erfindung der Workstations. Die Casios! Der Roland D-50!! Und der Korg M1, der meistverkaufte Synthesizer aller Zeiten. Der Waldorf Microwave. Und die Yamaha SY-Reihe. Und die Rompler, ach du liebes bisschen, nennen wir sie mal Brückentechnologie. Das ist ja unfassbar, so viele epochemachenden Instrumente in nur einem Jahrzehnt! Ja, was war denn da los?? Na, die digitale Revolution war los und hat durch die 1980er Jahre gefegt wie sonst nichts anderes. Das hat natürlich nicht direkt im Jahr 1990 wieder aufgehört, aber der große Schwung neuer Synthesemethoden und Technologien, das war alles komprimiert in einer erstaunlich kurzen Zeitspanne.

Also Ehre wem Ehre gebührt: Hier kommt der dritte und letzte Teil über die 1980er Jahre und Vorhang auf für DX7, M1, D-50 und Co.

Die digitale Revolution. Aber wieso gerade jetzt?

1983 erschien mit dem Yamaha DX7 ein Synthesizer der die Welt veränderte wie vorher nur der Moog Minimoog. Was war passiert? Die digitale Revolution war passiert und sie ermöglichte zweierlei: Zum einen die Entwicklung ganz neuer Synthesearten und zum anderen die Entwicklung von Geräten mit massenmarkttauglichen Preisen. Wir erinnern uns: Schon Don Buchla hatte Computer in seinen Instrumenten eingesetzt, die analogen Synths wurden speicherbar durch den Einzug einer digitalen Ebene und die FM Synthese wurde schon ab Mitte der 1970er Jahre im Synclavier von NED eingesetzt. Die Ideen waren also da, aber die Technik war immer noch aufwändig und teuer. Das änderte sich mit einem weiteren Entwicklungssprung in der MOSFET Fertigung, von der wir schon gesprochen haben. Die sogenannte very-large-scale integration von Bauteilen auf einem Chip ermöglichte es ab Anfang der 1980er Jahre über 20.000 Transistoren auf einem Chip zu verbauen und das hatte ganz praktische Auswirkungen für den giggenden Musiker. Denn während der erste FM Synth den Yamaha auf den Markt brachte, der GS1 von 1980, noch fünfzig Chips benötigte, benötigte der DX7 von 1983 derer nur noch ganze zwei. 

„Ah ja,“ höre ich sagen, „Das ist ja toll. Und was hat das jetzt mit mir zu tun?“ – „Viel, denn den GS1 für 33.000 DM kannst du dir nicht leisten, den DX7 für 4.000 Mark schon.“ –  „Jaha! Aber der GS1, der ist ja auch eine ganz andere Nummer, das sind ja quasi zwei DX7 in einem Gehäuse!“ – „Das stimmt, aber 1987 erschien ja dann schon der DX7 II und was ist der DX7 II? Genau, zwei DX7 in einem Gehäuse. Für 4.750 Mark übrigens.“ Innerhalb weniger Jahre ergab sich also durch diesen Technologiesprung eine immense Kostenreduktion, die ganz praktische Auswirkungen hatte und aus der FM Synthese nur für die Eliten wurde eine FM Synthese für das gemeine Volk. Und diese Entwicklung gab es ja nicht nur bei der FM Synthese sondern galt ganz allgemein und so wurden die 1980er Jahre ein unglaublich kreatives Jahrzehnt im Synthesizerbau und nicht nur dort. Ich sage nur: Casio Uhren mit Taschenrechner, Biorhythmus und Space Invaders. Der Weg war endlich frei für elektronische Klanggestaltung abseits der subtraktiven Synthese. Und die wollen wir uns jetzt einmal anschauen.

Frequenzmodulationssynthese (FM)

Bleiben wir doch gleich mal bei der FM Synthese. Das Prinzip der Frequenzmodulation war ja schon lange bekannt und wurde millionenfach in Radios eingesetzt. Dass man die Freqenzmodulation aber auch musikalisch verwenden konnte, entdeckte der Komponist John Chowning im Jahr 1967, als er im Stanford Artificial Intelligence Laboratory nach Synthesemethoden abseits der analogen Synthese suchte. 1971 konnte er damit Orgel- und Bläserklänge so überzeugend produzieren, dass die Universität Stanford die FM Klangsynthese patentierte. Chowning stellte seine Erfindung erstmal amerikanischen Herstellern vor, stieß aber bei Hammond und Wurlitzer auf taube Ohren. 1973 erschien dann ein Artikel im ‚Journal of the Audio Engineering Society‘, den offensichtlich auch die Ingenieure von Yamaha lasen.

Yamaha, deren Elektro-Musikabteilung einen Fuß auf den amerikanischen Markt bekommen wollte, schickte einen ihrer Chefingenieure zu Chowning und im Gegensatz zu seinen amerikanischen Kollegen begriff der innerhalb von zehn Minuten, was er da vor sich hatte. Yamaha lizensierte die Technologie zunächst für ein Jahr, um das kommerzielle Potential auszuloten und besaß dann ab 1975 das exklusive Recht auf die Verwendung der FM Synthese. Und der Rest ist Geschichte: 1980 erschien der 90 kg schwere GS1 und 1983 dann der DX7, der erste digitale Synthesizer für den Massenmarkt.

Jetzt versetzen wir uns mal in das Jahr 1983. Wie sah 1983 das Leben eines Keyboarders aus? Brauchte man einen Klaviersound, benötigte man ein Klavier oder ein E-Piano. Wenn man einen Orgelsound wollte, brauchte man eine E-Orgel. Wenn man Streicher wollte, war eine String Machine angesagt, und dann brauchte es ja überhaupt noch einen Synthesizer für die Leads und vielleicht wollte man ja auch noch Bläsersounds haben, dann brauchte es einen polyphonen Synth und am besten war dafür der Prophet-5 geeignet, auch kein Schnäppchen. Das war nicht nur eine ungeheure Investition, das war auch eine ungeheure Schlepperei. Und alle diese Geräte wollten ja auch überhaupt erst einmal programmiert werden und auch auf der Bühne schnell umprogrammiert werden wollen. Kein Wunder, dass früher auf Konzerten so viel zwischen den Stücken geredet wurde: Der Drummer wischte sich den Schweiß aus der Stirn, der Gitarrist schaute sich nach den Mädchen um, die Sängerin erzählte irgendwelche Geschichten und alle warteten auf das Zeichen des Keyboarders, dass er fertig ist für den nächsten Song. Was der Bassist derweil gemacht hat? Das wird für immer ein Rätsel bleiben, es hat ja keiner hingeschaut.

Und dann kam der DX7 mit seiner FM Synthese und er konnte Klaviersounds, er konnte Orgelsounds, er konnte Bläser, er konnte Strings, er konnte so reine Glocken spielen wie man sie noch nie gehört hat und er konnte das 32-stimmig und das auch noch ausdrucksstark, wie man in unzähligen Power-Ballads hören kann. 32 Sounds sind direkt über die Oberfläche verfügbar, das ist bis heute eine Seltenheit. Dazu weitere Sounds auf einer kleinen, einfach zu bedienenden Cartridge, auch hier musste man nur auf ein Knöpfchen drücken und zack, ging das Konzert weiter. Und das alles in einem Gerät, das man sich unter den Arm klemmen konnte und für einen Bruchteil des Preises, den man für den vorher benötigten Gerätepark ausgeben musste – oder überhaupt für auch nur einen der polyphonen analogen Synthesizer. Es war ein geradezu grotesker Entwicklungssprung und kein Wunder, dass jeder Hersteller auf diesen Zug aufspringen wollte und überall, wo noch sich noch ein Plätzchen finden ließ, der Schriftzug „digital“ aufgedruckt wurde.

Unangefochtener König der Power Ballade: das DX7 E-Piano

Dabei darf nicht übersehen werden, was für eine Meisterleistung die Entwickler von Yamaha mit dem DX7 hingelegt haben, denn der DX7 hat mit einem subtraktiven Synthesizer so viel zu tun wie Donald Trump mit dem Dalai Lama. Es musste ein völlig neues Bedienungskonzept entwickelt werden. Die 168 Parameter des DX7 sind ja überhaupt nicht mit mechanischen Reglern zu bewältigen, und das ist nicht nur eine Kostenfrage, sondern auch einfach eine Frage des User Interfaces: 168 Regler sind einfach unübersichtlich und so entwickelte sich ein neues Paradigma in der Synthesizerbedienung: Es gibt nicht mehr einen Regler pro Parameter, sondern einen globalen Regler für alle Parameter, die dazu vorher angewählt werden müssen.

Das ganze Gerät war so neu, dass in den ersten Anleitungen dazu erst einmal erklärt wurde, was eigentlich Hard- und Software ist und wie viele Bits in einem Byte stecken. Und wo wir von Bits und Bytes sprechen: Der Speicherplatz in den frühen Geräten war so begrenzt, dass nur ein Viertel der benötigten Sinuskurve tatsächlich im Speicher lag, die anderen drei Viertel wurden einfach davon abgeleitet. Und nicht zuletzt wurde in der Entwicklung auf die weniger rechenintensive Phasenmodulation umgestellt, eine Tatsache, die zum gepflegten Insiderwissen gehört und in jedem Gespräch über Synthesizer unbedingt in den ersten fünf Minuten erwähnt werden muss, wenn man nicht als völlig ahnungslos erscheinen will. Der Autor hat sich übrigens im Verlauf der Erarbeitung dieses Artikels bemüht, den Unterschied zwischen FM und PM zu verstehen. Aber Scheitern gehört zum Leben. Und es ist bis heute so geblieben: Überall, wo FM drauf steht ist PM drin, allein schon, weil man die über 20.000 für den DX7 erstellten Sounds integrieren will.

Yamaha ließ sich auch hardwareseitig mit einer hervorragenden Tastatur und vielen Anschlussmöglichkeiten nicht lumpen und hat mit dem DX7 einfach neue Standards gesetzt. Wenn Yamaha eine Sache falsch gemacht hat, so waren das die ersten Anleitungen, die wirklich schlecht gemacht waren und einen auch heute noch ratlos stehen lassen. Es brauchte einige Jahre, bis die ersten vernünftigen Anleitungen erschienen aber bis dahin war es schon geschehen und es hat sich ein ganz neuer Markt entwickelt, der bis heute reiche Früchte trägt, nämlich der Beruf des Soundentwicklers. Die Wirkung des DX7 auf die Synthesizerkultur – man kann sie gar nicht unterschätzen.

Der umwerfende Erfolg des DX7 wurde von Yamaha natürlich weidlich genutzt und die nächsten zehn Jahre erschienen schier unzählige DX-Varianten. Erweitert wurde das Konzept um das Jahr 1990 mit der SY-Reihe, bei der die FM Synthese durch Samples erweitert wurde. Laut Yamaha wurden schlussendlich 420.000 FM Geräte verkauft und die Lizenzgebühren bescherten der Stanford University über 20 Millionen Dollar. Und wer sich jetzt fragt, wieso NED auf dem Synclavier FM-Synthese verbauen konnte: Sie hatten sie von Yamaha lizensiert. Aber der FM Synthese erging es irgendwann wie den analogen Sauriern: Man hatte sich zunächst einmal satt gehört und der DX E-Piano Sound und Lately Bass wurden Klänge non grata. Untergegangen ist die FM Synthese aber nie und lebte viele Jahre vor allem im FM7 und FM8 von Native Instruments und den Workstations von Yamaha und anderen weiter. Und hardwareseitig gibt es mit dem Yamaha Reface DX und dem Korg Opsix ja auch wieder frisches Material.

Phase Distortion Synthese (PD)

Nachdem Yamaha so hervorragend vorgelegt hatte, mussten sich die anderen Firmen etwas einfallen lassen. Auftritt Casio mit der Phase Distortion Synthese (PD), die später zur Interactive Phase Distortion (iPD) aufgebohrt wurde. Jetzt hört sich PD ja schon ganz ähnlich an wie PM, aber tatsächlich ist PM näher an FM als PD an PM und bei iPD gibt es ja dann auch echte FM, die es bei PM gar nicht gab, und um die Gemeinsamkeiten und Unterschiede in den Synthesearten zu verstehen, muss man eine ziemlich dicke Nuss knacken. Wie auch immer, 1985 erschien der erste Synthesizer der CZ Reihe mit dem eindrücklichen Slogan Satte Power für `ne „müde Mark“ was beides stimmte, denn die Casio Synthesizer waren gut und günstig. Nach diesem Erfolg erschienen 1988 die Nachfolgemodelle mit dem Kürzel VZ, die auch von der Firma Hohner aus Trossingen vermarktet wurden, aber da war der FM/PM/PD-Hype schon fast wieder vorbei und die Phasenverzerrungssynthese auch schon wieder verschwunden. Sie lebt heute als iPad App weiter.

Additive Synthese

Im Gegensatz zur subtraktiven Synthese, bei der von einem obertonreichen Klang zumeist mit einem Tiefpassfilter wie mit einem Rasenmäher Frequenzen abgeschnitten werden, baut die additive Synthese aus den kleinsten Bestandteilen den Sinustönen den Klang überhaupt erst auf. Und wo bei der subtraktiven Synthese oft zwei Hüllkurven reichen – eine für die Lautstärke und eine für den Filter – werden bei der additiven Synthese je eine Hüllkurve pro Sinustongenerator benötigt, und das können schon mal 32 oder bei Basstönen 64 sein. Und wie bei der FM Synthese müssen diese Sinustongeneratoren zum einen absolut stimmstabil und auch echte Sinuskurven sein, was auf analoge Weise recht schwierig zu bewerkstelligen ist. Es ist also nachher eine recht mühselige Angelegenheit und ohne Computerunterstützung ein ziemliches Unterfangen. Und deshalb gab es auch so gut wie keine Hardwaresynthesizer, die sich an diese Methode gewagt haben. Der Fairlight CMI konnte das, der unglaubliche Technos Axcel Resynthesizer aus Québec (1987-1990) war ein teurer Synth und ansonsten gab es von Kawai den K5 von 1987 und der K5000 von 1996. Der Rest ist Software.

Mit Touchscreen in den 1980ern: Der Technos Axcel

Wavetables, Wavesequencing, Transwaves & Vector Synthesis

So, jetzt sind wir an einem schwierigen Punkt angelangt, denn diese Begriffe werden oft zusammen in einen Topf geschmissen – wir machen es gerade auch – dabei sind vor allem die klanglichen Unterschiede enorm. Wir versuchen ganz schnell, ein wenig Licht ins Dunkle zu bringen: Vector Synthesis haben wir schon beim Sequential Circuits Prophet VS kennen gelernt. Vektorsynthese ist die Steuerung eines Audiomixers durch einen Joystick und man kann sich darüber streiten, ob das überhaupt eine veritable Synthesemethode ist oder halt einfach nur ein Audiomischer. Welche Signale in den Audiomixer kommen, ob das nun analoge Oszillatoren, Wavetables oder Samples sind, ist dabei egal, theoretisch könnte es ja auch Steuerspannung sein. Einen Synth mit Vektorsynthese kann man leicht am verbauten Joystick erkennen. Abgesehen vom Urvater Prophet VS sind hier noch diverse Yamahas zu nennen und dazu die Korg Wavestation, die Workstations der Korg Kronos-Serie und aktuell der Korg Wavestate. Was Wavetables angeht ist es ein Kreuz: Es gibt wohl zu keinem Begriff so viele Missverständnisse und falsche Erklärungen wie hier. Da werden additive Synthese und Wavetables zusammen geschmissen, da taucht in der Werbung für Soundkarten auf einmal der Begriff Wavetables auf, da wird oft genug auch Additive Synthese zitiert und mancher forscht eifrig, welcher Begriff wann zu erst für welche Funktion verwendet wurde als wäre das eine Antwort. Das Problem fängt nämlich schon viel früher beim Begriff „Wavetable“ an, der für mindestens diese verschiedenen Dinge verwendet wird:

  • für eine einzelne Wellenform (single-cycle)
  • für eine kurze Abfolge von Wellenformen, quasi ein Minisample
  • für eine längere Abfolge von z.B. 128 Wellenformen, die mit dem Klang einer Flöte anfängt und dem Quaken eines Breitmaulfroschs aufhört
  • für einen Katalog von Klängen, deren Abfolge man selber zusammenstellt

Und dann gibt es ja auch noch den Unterschied zwischen einem Wavetable und der Wavetable Synthese an sich und diese beiden Begriffe werden auch oft synonym verwendet. So ist es kein Wunder, wenn es allerorten Streit und Diskussion gibt, denn jeder, der diese Begriffe verwendet, muss erst einmal definieren, was er oder sie genau damit meint. Aber alle lassen sich lieber erschießen, als von ihrer Meinung abzulassen, wofür ist das Internet denn da. Wenn wir aber danach gehen, dass Wavetable Synthese das ist, was Wolfgang Palm Ende der 1970er Jahre erfunden hat, so sprechen wir vom „Durchfahren“ oder scannen durch verschiedene Wellenformen: Wir fangen also mit der ersten Wellenform an und fahren dann ziemlich schnell durch eine bestimmte Anzahl verschiedener Wellenformen hindurch und können so Klänge schaffen, die man anders nicht hinbekommt. Wie hört sich das an? Hier zwei Beispiele dafür:

Dieses Prinzip kann man erweitern, indem man Loops einbaut, zwischen den Wellenformen interpoliert, damit die Übergänge weicher werden oder mehrere von diesen Klangverläufen gleichzeitig ablaufen lässt. Hier ein Beispiel von der Korg Wavestation aus 1990 in der erweiterten Version von 1991 als Wavestation EX:

Und noch drastischer lässt sich das alles ändern, wenn man völlig verschiedene Klänge verwendet, die Tonhöhen ändert und unterschiedliche zeitliche Verläufe schafft, was dann sehr schnell zu rhythmischen oder auch polyrhythmischen Strukturen führt. Amerikanische Krimiserien der 1990er, irgendjemand?

Wie ikonisch der Sound der Wavestation ist, kann man auch an diesen drei Presets der aktuellen Korg Wavestate hören. Ladies and Gentlemen, the sound of wavesequencing:

Das sind schon unerhörte Klänge und man muss sich von der Vorstellung verabschieden, dass eine Taste einen bestimmten Klang, eine bestimmte Hüllkurve oder sogar auch nur eine bestimmte Tonhöhe hat. Und das nur zur Erinnerung: Wir sind im Jahr 1990, gerade einmal fünf Jahre nach der Vorstellung des Oberheim Matrix 12. Der Unterschied könnte nicht größer sein. Die Korg Wavestation war der Traum der Sounddesigner und Filmkomponisten. „Irre“, wie man damals gesagt hat, allerdings war es auch irre kompliziert, die Klänge auf dem Gerät zu erstellen. Wer will, kann sich ja mal den Player’s Guide und den Reference Guide auf den Seiten von Korg zu Gemüte führen: Es gibt aber Schöneres im Leben.

Kommen wir schließlich zu Ensoniq und den Transwaves. Den Transwaves nähern wir uns am besten von einer ganz anderen Seite, nämlich von der Granularsynthese her. Bei der Granularsynthese werden Klänge in winzig kleine Abschnitte unterteilt, ähnlich wie eine Wurst, die in Scheiben geschnitten wird. Oder wie beim Visible Human Project hier:

Diese Klangscheibchen in der Granularsynthese sind wirklich sehr klein oder besser gesagt kurz. Üblicherweise sind sie zwischen 10 und 50 Millisekunden lang. In dieser kurzen Zeit passiert in einem typischen Klang so wenig, dass man ihn problemlos loopen kann und dann einen stehenden (statischen) Klang erhält. So kann man also einen Klang, der sich normalerweise in der Zeit verändert, anhalten und das hört sich dann tatsächlich ganz ähnlich an wie ein single-cycle Wavetable. Aber man kann mit dem so in Scheibchen geschnittenen Klang natürlich auch ganz anderes machen und ihn zum Beispiel rückwärts abspielen oder völlig anders wieder zusammensetzen. Bei Ensoniq hat man sich darauf verlegt, nicht nur ganz kurze, also tatsächlich granulare Scheibchen zu verwenden, sondern Samples beliebiger Längen, weswegen wir auf Ensoniq selber gleich noch einmal unten bei der Sampling Technik zu sprechen kommen werden.

Transwaves, Wavetable Synthese und Wavesequencing haben also alle die Eigenschaft, Klänge vor- und rückwärts abspielen zu können. Die Herangehensweisen und die klanglichen Ergebnisse sind allerdings doch ziemlich anders, von noch recht knarzenden Flächen beim PPG bis zu hochglanzpolierten Sequenzen in der Wavestation, die eigentlich schon ein ganzer Song sind. Und so ganz genau kann man die Sachen nicht abgrenzen: Ist der DSI Evolver, bei dem ich mit einem Sequenzer durch verschiedene Wavetables fahren kann, schon ein Wavetable Synthesizer oder nur ein Synthesizer mit Wavetables? Müssen die aufeinander folgenden Wellenformen irgendwie etwas miteinander zu tun haben und ein großes ganzes ergeben? Müssen die Wellenformen als trigonometrische Tabelle vorliegen oder kann es auch ein PCM Sample sein? Das sind tiefe philosophische Fragen und wir gehen weiter zum Sampling und allem was dazu gehört.

Sampling / S&S (Samples & Synthesis) / LA-Synthesis (Linear Arithmetic Synthesis)

Nachdem wir schon die PCM Samples erwähnt haben, kommen wir zum Sampling, was uns in der letzten Folge bei den Synclaviers, dem Fairlight und dem PPG Waves natürlich schon begegnet ist. Die 1980er Jahre sind geprägt davon, dass die neue Technik immer günstiger und somit auch in der technischen Qualität immer besser wird. Eine Beschreibung der Entwicklung der unterschiedlichen Geräte eines Herstellers würde also vor allem bedeuten, dass die Sampledauer, die Bitrate, die kHz und die Speicherung (von Diskette zu Harddrive) besser und besser werden, was von heute aus gesehen doch recht langweilig ist.

Vorreiter der nicht mehr ganz so teuren Geräte waren E-mu mit dem Emulator von 1981, richtig Erfolg hatten sie dann aber mit dem Emulator II von 1984. Die Technik wurde dann in allen möglichen Geräten eingesetzt: In Drummachines, in Rackgeräte, in Keyboards und schließlich auch in Romplern, die Samples nur noch abspielen, aber nicht selber aufnehmen können. Das war eine Technik, die auch für Soundkartenhersteller interessant war und so wurde E-mu, nach einer langen Geschichte als Hersteller modularer, analoger Synthesizer, Mitentwickler von SSM Chips, Erfinder der digitalen Keyboards und schließlich frühe Entwickler der Sampletechnologie an Creative Labs verkauft und entwickelte fortan für den Computerbereich. Und damit sind sie nicht die einzigen, denn die ganze blühende Sample Hardware endetet am Ende in Software. Nicht vergessen darf man hier die Akai S-Reihe, deren Sampler so gut wie in jedem Studio ihren Platz fanden. Akai sind ja vor allem als Hersteller von HiFi-Geräten bekannt, entwickelten mit der Akai Professional Sparte aber ab 1984 auch Geräte für den Musikmarkt. Darunter fällt auch der analoge achtstimmige AX80, bekannt sind sie aber natürlich bis heute für die Sampler und davon abgeleitet die von Roger Linn entwickelten MPCs mit ihren ikonischen Triggerpads. Die erste MPC, die MPC 60, erschien 1988 und bis heute werden in schöner Regelmäßigkeit neue MPCs auf den Markt gebracht. Akai insgesamt ging aber den Weg wie so viele unserer geliebten Firmen, nämlich pleite. HiFi- und Professional Sparte gehören heute anderen Inhabern, aber die MPC lebt!

Auch wenn E-mu günstiger war als Fairlight, billig waren die Emulatoren noch lange nicht und in diese Lücke stieß die amerikanische Firma Ensoniq, die in den 1980er Jahren bis in die frühen 90er mit ihren Synthesizern große Erfolge feiern konnte. 1985, im gleichen Jahr wie der Oberheim Matrix 12, den wir uns als Referenz erkoren haben, erschien der Ensoniq Mirage, achtstimmig, 8-bittig und mit 6,5 Sekunden Samplingdauer ausgestattet. Editiert wurden die Samples mit hexadezimalem Code, also wohl wahrscheinlich von überhaupt niemandem. Aber dafür gab es ja Disketten von Fremdherstellern und so entstand der riesige Markt der Samplelibraries, wie wir ihn heute noch kennen.

Im Unterschied zu den Studiogeräten von Akai verlegte sich Ensoniq auf die Herstellung von Geräten für die Bühne. So steht die Abkürzung EPS im Ensoniq EPS von 1988 für Ensoniq Performance Sampler. Der EPS war ein 20-stimmiger, achtfach multitimbraler Synthesizer mit sechsstufigen Hüllkurven, polyphonem Aftertouch und einem achtspurigen Sequenzer und er klingt toll, wenn man nicht gerade die Originalklänge spielt. 

Aber Ensoniq hatte Qualitätsprobleme und die Presets ihrer Synthesizer blieben auch in den 1990er Jahren irgendwie in den 1980er Jahren hängen. Mit dem Fizmo von 1998 war Schluss und wie E-mu wurde auch Ensoniq von Creative aufgekauft, die dann auch relativ schnell den Namen und den Support fallen ließen.

Jetzt wollen wir aber noch einmal einen ganz anderen Blick auf das Sampling werden, und dabei ist die Rede von naturnahen Klängen. Synthesizer wurden ja schon immer damit beworben, dass man mit ihnen nicht nur neue Klänge erschaffen kann sondern vor allem auch alle schon vorhandenen Klänge nachmachen kann. Es war schon immer der Wunsch da, neben neuen Klängen auch Flöte, Geige und Klarinette spielen zu können und in den alten Patchbüchern zum Minimoog oder dem Arp Odyssey nehmen Einstellungen, die akustische Instrumente nachmachen, den größten Teil der Sounds ein. Und das war in den 1980er Jahren noch nicht viel anders und jeder (digitale) Synth der auf den Markt kam wurde darauf abgeklopft, ob sich denn die Geigen wie Geigen anhören oder was noch wichtiger war: Ob sich das Klavier anhörte wie ein Klavier. Ein naturgetreuer Klaviersound war viele Jahre der Lackmustest für jedes neue Gerät und tatsächlich hat es ja noch bis in die 2000 Jahre gedauert, bis man das schließlich erreicht hat. 

Und weil man mit analogen Oszillatoren und subtraktiver Synthese nun überhaupt keinen überzeugenden Klavierklang hinbekommt, lag alle Hoffnung natürlich auf der Samplingtechnik, denn logisch, was hört sich an wie ein Klavier? Genau, ein aufgenommenes Klavier. Das Problem dabei: Ein Klavierton ist lang und der Speicherplatz teuer. Und so kam man auf die Idee, nur den charakteristischsten Teil des Klangs akustischer Instrumente in den Speicher zu legen, und das ist regelmäßig der Anfang: Das Aufprallen des Klavierhammers auf die Saiten, das Aufschlagen des Drumsticks auf das Becken, das Anblasen von Flöte, Trompete und Saxophon oder das Anzupfen der Gitarre. Den zweiten Teil hat man dann mit herkömmlichen Mitteln erzeugt und bekannt ist das Prinzip unter dem Namen „Sound & Synthesis“. Noch bekannter vielleicht aber unter der von Roland mit dem Roland D-50 eingeführten Bezeichnung LA-Synthesis, was für „linear arithmetic synthesis“ steht. 1987 war Roland mit dieser Methode, anstelle von herkömmlichen analogen oder digitalen Oszillatoren Samples einzusetzen, ganz vorne dabei und der D-50 ging weg wie warme Semmeln. Damals eine Sensation ist LA-Synthese von heute aus betrachtet nicht mehr so eine große Nummer und besitzt weder den Status der alten analogen Schlachtrösser noch den rauen Charme der frühen digitalen Geräte wie der Yamaha DX7 MK1. Aber was nicht ist, kann ja noch werden und vielleicht ist ja der folgende Workshop der Einstieg in die Wiederentdeckung von S&S (Samples & Synthesis): 

Die Entstehung der Workstation

Nachdem wir eben von der langen Jagd nach dem perfekten Klaviersound gesprochen haben müssen wir jetzt auch den Namen erwähnen, der viele Jahre für perfekten Klaviersound stand: Kurzweil. Ray Kurzweil. Ray Kurzweil ist eine so große Nummer, dass man gar nicht so richtig weiß wo man anfangen soll. Er ist Erfinder, Vordenker, Gründer mehrerer Firmen und Entwicklungschef bei Google. Er ist 21-facher Ehrendoktor, wurde von drei US-Präsidenten ausgezeichnet und hat fünf Bestseller geschrieben. Apples Siri? Kurzweil. Der Flachbettscanner? Kurzweil. Sprechende Maschinen? Kurzweil. Texterkennung? Kurzweil. 

Ja, und zwischendurch hat er dann auch noch den perfekten Klavierklang der 1980er Jahre geschaffen. Auf die Idee ist er bei einem Besuch bei Stevie Wonder gekommen, der ihn gefragt hatte, ob er nicht seine in den 1970er Jahren entwickelte Text-to-Speech Computermaschine auch auf die Musik anwenden könnte. Das war 1982 und 1984 stand der Kurzweil K250 auf Stevie Wonders Tisch, so schnell kann das gehen. 88er Tastatur mit Velocity und 87(!) Splits, 341 Presets, 96 gesampelte Instrumente, Spezifikationen ähnlich oder höher wie bei Synclavier und Fairlight, sechs Layers, 31 Samples gleichzeitig, 24 LFOs, Effekte, ein Multitrack Sequencer mit 12.000 Noten Speicher, Anschluss für Apple Computer und MIDI. Noch Fragen? Ach so, ja: 36.000 DM. Das entscheidende aber: Der Kurzweil K250 war ein Instrument, das man einschaltete und dann sofort darauf spielen konnte. Da mussten nicht erst Disketten herausgesucht und eingelesen werden, das Ding hat sofort geklungen und es hat so natürlich nach Bläsern, Geigen und Klavier geklungen wie vorher noch nie etwas Anderes. Eingeschaltet wird der K250 übrigens am Kasten für das Haltepedal, weil dort auch das Netzteil verbaut ist und so nicht einstreut. Auch das ein Hinweis auf welche kreative Lösungen ein genialer Kopf kommen kann.

Kurzweil K250 aus 1984

In der anderen Hälfte der Popsongs seiner Zeit zu hören: Der Korg M1

Zur Legende wurde der K250 nie, aber er war etwas anderes, nämlich vielleicht die erste Workstation überhaupt. So richtig kann man das nicht sagen, denn der Begriff Workstation ist – wir kennen das inzwischen schon – nicht so richtig definiert. Vielleicht geht es am ehesten darum, dass man an einer Workstation einen kompletten Song produzieren kann, mit allen Instrumenten samt Drummachine und Effekten und allem drum und dran. Allgemeinen gilt aber der Korg M1 von 1988 – mit 250.000 verkauften Einheiten als der bislang meistverkaufte Synthesizer überhaupt – als erste Workstation überhaupt, aber so richtig festnageln kann man das nicht.

Der Ensoniq ESQ1 konnte die meisten Sachen schon davor und natürlich konnte man auch mit Synclavier und Kollegen komplette Songs machen. Aber wie dem auch sei, Kurzweil, Korg, Yamaha und Roland nahmen das Konzept auf und stellen bis heute diese Allrounder her, die vor allem zwei Dinge auszeichnen: Eine äußerst flexible Soundmaschine, die viele verschiedene Synthesearten ermöglicht und die Zwitternatur, dass sich das Gerät zum einen für die Studioproduktion eignet, seinen Dienst aber genauso gut auf der Bühne verrichtet. Workstations sind unglaubliche Geräte mit enormen Möglichkeiten, die aber als die Arbeitspferde unter den Synthesizern oft ein bisschen ein Nischendasein fristen und nicht den Glamour eines analogen oder digitalen Retrosynthesizers haben. Vielleicht hilft die umfassende Marktübersicht über aktuelle Workstations, diese Instrumente entsprechend zu würdigen:

Schlussbemerkung

Schlussbemerkung

Na, wenn das mal kein Ritt war. Da geht es jahrzehntelang um Oszillatoren, Filter, monophon und polyphon und auf einmal explodiert das alles und man weiß noch nicht einmal, ob bei Tastendruck ein Ton oder Sequenz gespielt wird. Das war schon eine echte Revolution die in den 1980er Jahren stattfand: Neue Möglichkeiten, neue Klänge, neue Herangehensweisen. Aber mit den Möglichkeiten wurde es auch komplexer und weniger direkt zugänglich. Die neuen Geräte waren im Kern natürlich Computer, allerdings kam man an diesen Computer nur durch das Nadelöhr eines winzigen schwarz-weiß Bildschirms und einer begrenzten Anzahl an Reglern heran. Korg Wavestation und Bedienungsfreundlichkeit sind zwei sich diametral entgegengesetzte Konzepte und so wurden viele der Geräte als reine Preset-Abspielgeräte genutzt. Und das ist kein Wunder, denn wer nach Feierabend noch gemütlich eine Runde Synthesizer spielen will, mag zunächst einmal Musik machen und nicht programmieren. Und so sind die meisten der Geräte eher ferne Geliebte als echte Bettgenossen geblieben und schon Anfang der 1990er Jahre hörte man es schon wieder leise läuten, dass analoge Synthesizer auch was Schönes sind. Zumal man sich auch ein bisschen an den superbrillianten Klängen sattgehört hatte, die sich auf den ersten Blick hyperreal anhören, nach einer Weile aber doch etwas leblos klingen. Denn nachher steckte die Technik und die Wandler und alles andere halt doch noch in den Kinderschuhen. Aber die digitalen Konzepte der 1980er Jahre sind natürlich nicht verschwunden, sondern sind bis heute die Grundlage der modernen Studioproduktion. Sie sind bloß in den Computer gewandert und um den und dessen Software wird es in der nächsten Folge gehen.

Verwandte Artikel

User Kommentare