Feature
3
08.09.2016

Die Geschichte der elektronischen Musik #8

1951-1968: Die Erfindung der Computermusik

Von CSIRAC bis MUSIC

Nachdem wir in den letzten beiden Teilen unserer Geschichte der elektronischen Musik die elektromechanischen Tasteninstrumente (Fender Rhodes, Wurlitzer und Hohner) sowie die “analogen Sampleplayer” (Chamberlin, Mellotron und Optigan) behandelt haben, erwartet der eine oder andere vielleicht, dass dieses Mal doch endlich die analogen Synthesizer das Thema sein müssten. Und wir sind auch schon fast so weit, aber vorher müssen wir erst noch einen Blick auf das werfen, was direkt zuvor geschah. Und es mag überraschen, aber das ist tatsächlich die digitale Klangerzeugung mit und auf Computern, die damals natürlich noch unglaublich groß, teuer und selten waren.

Wenn wir mal kurz in die Geschichte der Computer gehen, dann sehen wir, dass schon die Griechen in der Antike eine mechanische Rechenmaschine entwickelten. Der "Mechanismus von Antikythera" war eine astronomische Uhr, die einiges mehr konnte als vergleichbare Apparate aus dem Mittelalter und der frühen Neuzeit in Europa. Im Mittelalter entstanden vor allem im arabischen Raum mechanische Rechengeräte, die zumeist ebenfalls für astronomische Zwecke benutzt wurden. In der Neuzeit wurden dann einige weitere mechanische Geräte entwickelt, die alle bestimmte Funktionen erfüllten: Zeitansage, Gezeiten-Vorhersage, Trigonometrie, aber auch so Kuriositäten wie ein Automat, der schreiben konnte. Im Gegensatz dazu ist das Besondere an einem Computer, wie wir ihn heute kennen, dass er eine Universalmaschine ist, die theoretisch alles berechnen kann, sofern man sie mit den entsprechenden Anweisungen füttert. Und hier kommen Charles Babbage und Ada Lovelace ins Spiel: Babbage erfand zwei der wegweisenden Maschinen – die "difference engine no. 1" (1823) und die "analytical engine" (1833) – und Ada Lovelace schrieb die ersten Computerprogramme dafür. Allerdings hat die Sache einen Haken: Mit rein mechanischen Bauteilen lässt sich so etwas nur sehr schwer realisieren und keine der beiden Maschinen wurden von Babbitt auch wirklich fertig gebaut.

Das änderte sich erst mit der Erfindung der Elektronenröhre, also genau dem Ding, das heute noch in Gitarrenverstärkern seinen Dienst verrichtet. Damit konnte z.B. Konrad Zuse in den 1940er Jahren seine ersten digitalen Computer bauen, die allerdings noch elektromechanische Maschinen waren. Diese riesigen Apparate mit Dutzenden von mechanischen Schaltern (Relais) wurden bald von rein elektronischen Geräten abgelöst, die zwar noch genauso groß waren, aber keine mechanischen Bauteile mehr benötigten. Und einer dieser frühen Computer war es dann auch, der 1951 die ersten Melodien spielte. 

1951: CSIRAC

Dieser Computer stand in Australien und hörte auf den den schönen Namen CSIRAC: Council of Scientific and Industrial Research Automatic Computer. Er war noch ein richtiger Röhrencomputer ohne Transistoren, aber er war Australiens erster digitaler Computer. An diesen Computer war ein Lautsprecher angeschlossen, der die Programmierer über das Ende von Rechenoperationen informieren sollte. Aber wie zum Beweis, dass so ein Computer eben tatsächlich wirklich alles kann, programmierte einer der Angestellten in seiner Freizeit kleine Melodien, die der Computer dann ab 1951 durch seinen liebevoll "Hooter" genannten Lautsprecher abspielte. Dabei handelte es sich aber nicht um Originalkompositionen, sondern um Melodien wie "Colonel Bogey" und "Auld Lang Syne". Leider gibt es keine Aufnahmen davon, aber Zeitgenossen verglichen der Sound der CSIRAC mit dem Klang eines abtauenden Kühlschranks. Wir würden heute vielleicht eher an Chiptunes denken, aber vielleicht sind die Rekonstruktionen der Aufnahmen auch nicht so richtig gut. Auf www.doornbusch.net/CSIRAC/ könnt ihr euch einen Eindruck verschaffen.

Nachdem die Australier auf der ersten Australian Computer Conference ihren musizierenden Computer vorgestellt hatten, wollten die Kollegen an der Universität von Manchester ihren Computer auch zum Musik machen animieren. Das ging dann auch, denn in dem Ferranti Mark 1 Computer der Universität gab es praktischerweise auch schon einen "Hoot" Befehl, und so kommen die ersten Aufnahmen eines Computers also aus Manchester. Und auch hier mit zweifelhaftem Geschmack, denn gespielt wurde "Baa Baa Black Sheep", "In the Mood" und natürlich "God save the Queen".

Algorithmische Kompositionen

Bisher waren das natürlich alles nur mehr oder weniger ernsthafte Versuche um zu schauen, was man mit einem Computer so alles machen kann. Ein wichtiges Jahr ist dabei das Jahr 1957, denn in diesem Jahr wurden zum ersten Mal von einem Computer digitale Klänge gespielt, wurde das erste Computermusikprogramm geschrieben, wurde der erste programmierbare Synthesizer an das Columbia-Princeton Electronic Music Center geliefert und errechnete ein Computer zum ersten Mal Noten für eine algorithmische Komposition.

Eine algorithmische Komposition ist ganz allgemein eine Komposition, die nach bestimmten Regeln hergestellt wird. Das trifft aber auf ziemlich viele Kompositionen zu, weshalb man damit normalerweise Computer-gestützte Kompositionen meint, die dann entweder gleich vom Computer selbst oder aber von Menschen gespielt werden. Die ILLIAC Suite von 1957 – erstellt auf dem ILLIAC I Computer der University of Illinois in Urbana-Champaign – gilt dabei als erste Komposition, bei der die Noten des Stückes von einem Computer errechnet wurden. Gespielt wird das Stück übrigens von einem Streichquartett. Ein ganz ähnliches Beispiel gibt es aus Japan mit der TOSBAC Suite (die, genau, auf dem TOSBAC Computer errechnet wurde). Und bald fingen die Komponisten auch selber an zu programmieren. Yannis Xenakis zum Beispiel schrieb Musik mit Mitteln der Wahrscheinlichkeitstheorie und benutzte dafür FORTRAN, die erste höhere Programmiersprache. FORTRAN lieferte ihm die Zahlen, die er dann von Hand als Noten aufschrieb. Ein Beispiel dafür ist das Stück ST/48 von 1962 für 48 Instrumentalisten. Und je leistungsfähiger Computer werden, desto anspruchsvoller werden die Anwendungen. Heute gibt es viele Beispiele für computergestützte Kompositionen: Die Software Band in the Box zum Beispiel kann autonom Stücke in populären Stilen schreiben, die sich häufig verblüffend gut anhören. Weiterhin gibt es einige Leute, die sich Computerprogramme schreiben, mit denen sie dann zusammen improvisieren, und auch manche Live Coder kontrollieren den Computer nur noch auf einer Meta-Ebene und lassen ihn selber "Ideen" generieren.

RCA und das Columbia-Princeton Electronic Music Center

Einen ähnlichen Ansatz verfolgte in der Mitte der 1950er Jahre die Radio Corporation of America, kurz RCA. RCA war damals einer der beherrschenden Unterhaltungskonzerne und besaß gleich mehrere Plattenlabel. Hier entstand die Idee, dass man einen Computer doch dazu verwenden könnte, die Melodien der erfolgreichsten Hits analysieren zu lassen und dass der gleiche Computer dann als Ergebnis gleich den nächsten Hit ausspucken würde. So bestechend die Idee war, funktioniert hat sie natürlich nicht und so wurde der Computer weitergereicht, und zwar an das Columbia-Princeton Electronic Music Center.

Das Columbia-Princeton Electronic Music Center wurde Anfang der 1950er Jahre als gemeinsames elektronisches Studio der Universitäten Columbia und Princeton in New York gegründet. Ursprünglich genauso wie die Studios in Paris und Köln (siehe Die Geschichte der elektronischen Musik #5) mit Tonbandmusik beschäftigt, erhielt es 1957 den ersten Computer, den Radio Corporation of America (RCA) Synthesizer Mark I und 1959 schon die zweite Version davon, den RCA Mark II Sound Synthesizer. Die beiden Computer waren die ersten programmierbaren Synthesizer überhaupt und füllten einen ganzen Raum. Technisch funktionierte der liebevoll "Victor" genannte RCA Mark II Synthesizer so, dass der Computer für die Steuerspannungen zum Beispiel für algorithmische Komposition benutzt wurde, die Klangerzeugung aber analog war. So besaß der Mark II selbst 24 Röhrenoszillatoren, war aber gleichzeitig über diverse Schnittstellen mit weiteren Klangerzeugern verbunden. Diese Klangerzeuger waren teils von der Universität selber entwickelt, mit der Zeit kamen dann aber auch andere Module von Buchla, Serge und Moog dazu. Tatsächlich machte der junge Robert Moog an der Columbia University eine Ausbildung zum Elektrotechniker und baute Oszillatoren und Hüllkurven für den RCA II.

Leider war "Victor" eine ziemlich umständliche Maschine. Sie vereinte viele Techniken von damals und heute auf kuriose Weise. So konnte man auf dem Victor auf komplizierte Art auf mit Schellack beschichteten Schallplatten erstaunliche 216 Spuren aufnehmen, gleichzeitig wurde er aber über Lochkarten programmiert. Alles in allem war die Arbeit damit ziemlich mühsam und er ging wohl auch oft kaputt. Trotzdem wurde Musik mit ihm komponiert und man kann sie zum Beispiel auf der 1961 erschienenen LP mit dem simplen Titel "Columbia-Princeton Electronic Music Center" hören. Und auch wenn die Arbeit an ihm lästig war, so war er doch Vorbild und Vorläufer für viele weitere Systeme und im Prinzip für jedes Setup, in dem ein digitaler Sequenzer an analogen Klangerzeugern hängt. In den 1950/60er Jahren ging das eben nur mit riesigen Mainframe-Computern, wie 1965/1966 an der University of Toronto mit der Verbindung eines IBM 1620 und zwei Moog-Oszillatoren, in London bei EMS von Peter Zinovieff, der zwei PDP-8 Computer als Sequenzer verwendete und ein Höhepunkt war sicher das GROOVE System von Max Mathews. GROOVE ist dabei das schöne Akronym für den erheblich nerdigeren Namen "Generated Real-time Output Operations on Voltage-controlled Equipment". GROOVE bestand von 1970-1978 und besaß einen Bildschirm, ein Keyboard und auch schon Joysticks!

Max Mathews und MUSIC

Überhaupt ist Max Mathews eine absolut bahnbrechende Persönlichkeit, denn er war es, der 1957 mit MUSIC I das erste Computermusikprogramm geschrieben und damit die ersten digitalen Klänge in einem Computer erzeugt hat. Tatsächlich war die digitale Bild- und Tonübertragung schon erfunden und wurde in der Telegraphie oder im SIGSALY System verwendet (Geschichte der elektronischen Musik #4). 1924 wurde mit dem Nyquist-Shannon-Abtasttheorem (besser bekannt als Nyquist-Frequenz, obwohl Nyquist damit überhaupt nichts zu tun hatte) noch ein weiterer Grundstein gelegt. Und um 1950 wurde schließlich die Pulse Code Modulation (PCM), wie sie noch heute aus jedem Keyboard tönt, erfunden. Die digitale Musik ist also in der Tat älter als die analogen Synthesizer, wie wir sie heute kennen, auch wenn es einzelne Klangerzeuger wie den analogen Oszillator natürlich schon gab.

Mathews war an den Bell Labs angestellt, einem Forschungslabor, das damals wie heute eine der führenden Forschungseinrichtungen überhaupt ist. Das hört sich jetzt großartig an, aber an den Bell Labs wurde unter anderem der Tonfilm, der Transistor, der Laser, die Programmiersprachen Unix, C und C++, das Qualitätsmanagement, die Radioastronomie, der Vocoder, die Solid-State-Elektronik und anscheinend auch beinahe alles andere erfunden was wir heute so benutzen. Den ersten Nobelpreis gab es 1937, den bislang letzten 2014. Für die Erfindung der digitalen Musikproduktion gab es allerdings leider keinen, aber das liegt wahrscheinlich daran, dass man es unter dem ganzen anderen Gerümpel einfach vergessen hat.

Wie auch immer, Max Mathews war, nach allem was man hört, der Nerd schlechthin und hatte sich in den Kopf gesetzt, mit einem Computer Musik zu machen. Gefördert wurde er dabei von seinem Chef, der ihm erlaubte, nachts mit dem großen und wahnsinnig teuren IBM 704 seine Versuche zu machen. Und man musste ein Nerd sein, denn zum einen brauchte der Computer 20 Minuten Rechenzeit, um überhaupt einen Klang von einer Sekunde zu errechnen. Zum anderen musste man dann mit dem vom IBM 704 ausgegebenen Magnetband eineinhalb Stunden durch New York City zu einem anderen Gebäude fahren, das einen Digital-Analog-Wandler besaß und wo man das Ganze dann überhaupt erst anhören konnte. Und zuletzt gab es auch noch keine höheren Programmiersprachen – alle Programme wurden in Maschinensprache geschrieben und liefen nur auf diesem einen Computer. Nichtsdestotrotz setzte sich Max Mathews hin und schrieb mit MUSIC I ein Musikprogramm. MUSIC I konnte nicht richtig viel: Es war monophon, kannte nur die Sägezahnschwingung und alles, was man kontrollieren konnte, waren Lautstärke, Frequenz und Tonhöhe. Heraus kam damit als erste Komposition digitaler Musik überhaupt das 20 Sekunden lange Stück "In the Silver Scale", das mit alternativen Stimmungen experimentierte.

Nach diesem erfolgreichen Versuch folgte 1958 das vierstimmige MUSIC II, das auch verschiedene Klangfarben erzeugen konnte. 1960 wurde mit MUSIC III, dass auf einem IBM 7090 lief, das modulare Konzept eingeführt, das bis heute Basis fast aller Computermusiksoftware ist: Kleine Makros, die verschiedene Funktionen beinhalteten (ähnlich wie Module analoger Modularsynthesizer), konnten beliebig miteinander verbunden werden. 1961 wurde dann auch an der Sprachsynthese gearbeitet und das von einem Computer "gesungene" Stück "Daisy Bell" wurde durch den Film "2001 - Odyssee im Weltraum" bekannt.

1962 wurde von den Bell Labs die erste Schallplatte mit Stücken, die auf MUSIC I-III komponiert wurden, herausgegeben. Der Titel der Platte lautet folgerichtig "Music from Mathematics". In MUSIC IV von 1963 wurde dann das digitale Filter eingeführt und nach und nach wurden Ableitungen der Software auch in anderen Studios der USA eingesetzt: MUSIC IVB und IVBF in Princeton und MUSIC IVF in Chicago, wobei das F für FORTRAN steht. Mit der Entwicklung der Programmiersprache FORTRAN war es überhaupt erst möglich, die Programme von einem Computer auf den anderen zu übertragen und nicht für jeden Computer auf der Maschinensprachenebene alles neu zu schreiben.

Ab 1965 benutzte Max Mathews ein neu entwickeltes Gerät zur Bildschirmeingabe und schrieb prompt ein Programm namens Graphic 1, mit dem grafische Elemente Einzug in die Musikinformatik hielten. Ganz ähnlich wie auf dem späteren Fairlight CMI konnte man mit einem Lichtgriffel auf einem Monitor schreiben, auch wenn man auf diese Art noch keine Wellenformen eingeben konnte. In MUSIC V von 1968 implementierte Matthews dann selbst FORTRAN und fortan wurde das Open-source-Programm weltweit verwendet. MUSIC V konnte über einen Analog-Digital-Konvertierer (ADC) schon analoge Sounds speichern, ließ sich aber aufgrund der geringen Leistung der damaligen Computer noch immer nicht live, also in Echtzeit, spielen.

Mit MUSIC V war für Max Mathews die Zeit der Synthesesoftware vorbei und er interessierte sich im Folgenden wieder mehr für Echtzeitcontroller und Echtzeitsysteme wie den oben angesprochenen GROOVE. Von 1974 bis 1980 war er Berater am neugegründeten Pariser Studio IRCAM, wo später Max und schließlich Max/MSP geschrieben werden sollten, die im übrigen nach ihm benannt sind. Am IRCAM wurde übrigens 1988 das erste interaktive Stück mit Echtzeitsynthese gespielt. Bis die Musik in handelsübliche Computer Einzug hielt, dauerte es dann immer noch ein bisschen.

MUSIC N, wie MUSIC I-V und seine Ableitungen zusammenfassend genannt werden, war nicht nur bahnbrechend als erstes Programm zur digitalen Musikerzeugung, sondern legte auch viele Paradigmen fest, die man heute noch in vieler Musik-Software findet, wie zum Beispiel die Verwendung von Makros, die ähnlich wie analoge modulare Synthesizer miteinander verbunden werden können. Vor allem beeindruckt aber auch die Zähigkeit, mit der man aus den damaligen riesigen Computern ein paar Sekunden Musik heraus quetschte. Vielleicht wird daran auch deutlich, wie anspruchsvoll das Errechnen von Klängen auf Computern ist, das heute scheinbar so mühelos abläuft. Größter Nachteil war sicherlich, dass man mit den Computern damals noch nicht live spielen konnte. Und hier kommen zwei Leute ins Spiel, die unabhängig voneinander die analogen Synthesizer von heute entwickelt haben: Robert Moog und Don Buchla und ihre unterschiedlichen East- und West-Coast-Philosophien zu der Frage, was für ein Instrument ein Synthesizer eigentlich ist. Und darum geht es beim nächsten Mal.

Verwandte Artikel

User Kommentare