Feature
2
02.05.2019

Wie sehen Musikproduktion und -konsum in der Zukunft aus?

Aufschlussreiches Gespräch mit Mark Ethier, CEO von iZotope

iZotope und die gesamte Musikwelt unter der Lupe

– Wie wird Musikproduktion in zehn, zwanzig, fünfzig Jahren aussehen?

"Wir werden das fortschreitende Aufbrechen von Strukturen erleben." 

Mark, danke, dass Du Zeit für uns hast! Du bist als CEO von iZotope ein Mensch, der viel auf die heutige Musikproduktion und natürlich soweit es geht in die Zukunft blicken musst. Besonders darüber würde ich gerne mit Dir sprechen. Wenn Du magst, erzähl' uns doch zunächst einmal etwas über Dich und wie es zu iZotope gekommen ist – iZotope ist ja zu einem wichtigen Player im Bereich der Musikproduktion herangewachsen. Bekannter noch als „iZotope“ ist ja euer erfolgreichstes Produkt, die Mastering-Software Ozone.

Nun ja, ich finde es auch immer spannend, welchen Weg Leute in unserer Industrie genommen haben, bis sie dort sind, wo sie aktuell stehen. Und es gibt ja so gut wie immer irgend eine Verbindung zur Musik – manchmal sehr überraschend! Bei mir war das auch so. Als ich das Unternehmen gegründet habe, war ich unter anderem auf dem MIT, ich habe zwei Degrees gemacht, Computer Science und Musik/Komposition. Und dann habe ich ein Praktikum bei Cakewalk gemacht! Da habe ich dann erst gedacht: „Warte mal, ich kann Musik und Technologie quasi gleichzeitig machen?“

Das war so um 1999 herum. Ich wollte eigentlich Filmmusik machen, hatte viele Synthesizer und so, war aber nie im Studio gewesen. Auf die Idee, Musik auch wirklich aufzunehmen, bin ich nie wirklich gekommen. Dann ergab sich irgendwann die Gelegenheit, dass ein Sinfonieorchester eine meiner Kompositionen spielt! Ich bin dann einfach in ein Musikgeschäft gelaufen, um etwas Equipment dafür auszuleihen. Ok, jetzt kommt der etwas peinliche Teil, aber was soll's: Ich hatte 50 Dollar. Sie haben mit einen DAT-Recorder gegeben, einen kleinen Mixer – und zwei Shure SM57 (lacht) …um ein großes Orchester in einer Philharmonie aufzunehmen! Ich muss wohl nicht erklären, wie das geklungen hat. Und da fing ich eigentlich erst an, mir Gedanken zu machen, warum meine Aufnahme so viel schlechter klang als die, die ich von CDs kannte. Daraufhin habe ich mich mit Restauration, Mastering und dergleichen auseinandergesetzt. Ohne jemals zuvor ein Album gemastert zu haben oder mit analogen Prozessoren gearbeitet zu haben, ist mit Kumpels vom MIT quasi die erste Vorversion von Ozone entwickelt worden – schlichtweg aus dem Bedürfnis heraus! Wir waren Musiker mit Wünschen, Vorstellungen, Notwendigkeiten… und wir haben programmieren gelernt!  

Nichts motiviert dich mehr, als wenn du Kohle für Essen und Wohnen benötigst.“ 

„Vinyl“ war unser erstes Freeware-Produkt im Sommer 2001. Das haben dann auf einmal tausende, zehntausende Leute heruntergeladen. Da haben wir dann gedacht „Hey, wenn wir unsere Abschlüsse in ein paar Monaten in der Tasche haben, dann erstellen wir einfach ein Kaufprodukt!“ Das haben wir echt deswegen gemacht, weil wir Geld für Essen und Miete brauchten. Ich weiß jetzt: Nichts motiviert dich mehr, als wenn du Kohle für Essen und Wohnen benötigst.

Das Mastering-Tool iZotope Ozone ist daraufhin ständig gewachsen. Recht schnell haben Profis gemerkt, dass Ozone sich einfach bedienen lässt und gute Soundergebnisse liefert.

Also kurz: 2001 haben ein paar College-Kids in ihrer Bude Software für sich selbst geschrieben und 2013 stehen sie dann auf einmal da und bekommen einen Emmy (!) für die Software RX, weil sie dadurch die Vorgehensweise in der  TV-Produktionen in den USA umgekrempelt haben.  

Das ist echt eine schöne und auch klassische Erfolgsgeschichte, oder? Ich sage es ja immer wieder: Wozu so ein SM57 alles gut ist, hihi!

Aber wie ging es dann weiter?

Wir haben um diese Zeit herum verstanden, dass die Welt sich weiter verändert. Alles wird digitaler, alles stärker Cloud-basiert. In der Audiowelt sahen wir uns dann am Zug und wollten Maschinelles Lernen stärker hineinbringen, was zu iZotope Neutron und letztlich auch Spire geführt hat.

Das finde ich interessant, gerade, weil viele Menschen denken, dass in der Audiowelt die meiste Entwicklung von der Industrie ausgeht. Dabei ist es zu einem großen Teil doch der Konsument, der Dinge so wirklich in Gang setzt, oder?

Ja, genau.

Musikmachen wird in jedem Fall technisch deutlich simpler und dadurch deutlich kreativer.“

Wir sind ja schon ein weites Stück gegangen. Von Livemusikaufnahmen auf Stereo-Magnetband über große Analogmischer und Mehrspur-DAWs bis hin zu sehr intelligenten In-The-Box-Musikproduktionssystemen. Was glaubst Du, wo sind wir wohl in zehn, zwanzig oder vielleicht sogar fünfzig Jahren?

Oooh! Das ist ein wirklich sehr interessantes Thema. Mann, da könnte ich eine Menge zu erzählen! Vielleicht fange ich damit an zu erklären, wie es meiner Meinung nach wahrscheinlich nicht sein wird:

Einige Leute denken, dass in der Zukunft wirklich jeder Musik produzieren wird, weil es noch einfacher möglich sein wird. Aber ich denke, dass das nur Leute tun werden, die auch wirklich einen großen Drang dazu verspüren, etwas Künslerisches herzustellen.

Aber da haben wir schon den wesentlichen Punkt: Musikmachen wird in jedem Fall technisch deutlich simpler und dadurch deutlich kreativer. Und das ist noch ein weiter Weg! Sogar heute noch staune ich, wieviel Zeit und Energie dafür aufgewendet werden muss, weil Leute über Samplerates und Bittiefen nachdenken müssen.  

Ich möchte gar nicht wissen, wie viele tollte Songideen oder "goldene", magische Momente der Menschheit dadurch verloren gegangen sind, dass erst jemand mit der Technik kämpfen musste und es danach vergessen hat oder nicht mehr mit der nötigen Frische festhalten konnte…

Total. Ich bin der Meinung, dass solche Technikfragen irrelevant sein sollten. Als Musiker und Produzent soll ich mich heute noch mit Attack- und Releasezeiten eines Kompressors auseinandersetzen müssen? Nick, ich sehe, du hast einen Saab-Aufkleber auf deinem Laptop. Autos sind ein gutes Beispiel, lass uns das benutzen. Das ist doch etwa so, als sollte ich beim Autofahren plötzlich bestimmen, wie sich das Luft-Benzin-Gemisch verändern soll oder sowas? Wozu? Ein Auto soll mich von A nach B bringen. Und die Idee hinter dem selbstfahrenden Auto ist ja schließlich, dass du Zeit für andere Dinge bekommst und dich nicht mehr mit diesem Firlefanz auseinandersetzen musst. Und auf dem gleichen Weg kann man vielleicht nicht das Rad, aber immerhin das Auto neu erfinden. Du brauchst dann keinen Fahrersitz, kein Lenkrad, keine Scheibenwischer, kein Auf- und Abblendlicht. Dein Radio ändert sich! Du kannst Videos schauen, statt nur was zu hören. Du kannst an einem Tisch sitzen, deinem Mitfahrer gegenüber! Und diese Gedanken kann man auf Audio übertragen. Wenn Du in zehn oder zwanzig Jahren in ein Auto steigst, wird es auf jeden Fall deutlich anders sein als heute, weil man nicht an den alten Konzepten festhalten muss. Wir müssen auch in der Musikproduktion umdenken und alte Konzepte und Workflows über Bord werfen.  

Das Plug-in-Konzept ist eigentlich veraltet: Wir brauchen Zugriff auf alle Spuren zu jedem Zeitpunkt!“

Was passiert in die Richtung bislang?

Im Grunde wenig! Ein kleines Beispiel: In der analogen Audiowelt musst du, um einen Effekt zu benutzen, Kabel nehmen, dein Signal routen, auf einer Patchbay verbinden und wieder zurückführen. Das Absurde: Audio-Plug-ins funktionieren prinzipiell noch genau so! Man hat Zugriff auf einen einzelnen Audiotrack, das Konzept ist weiter „Streaming“, also wie dereinst vom der analogen Bandmaschine. Das Plug-in-Konzept ist eigentlich veraltet. Neue, innovative Workflows benötigen aber Zugriff auf die gesamte Session. Also alle Spuren zu jedem Zeitpunkt. Mit iZotope Neutron gehen wir ja schon diesen Weg: „Bitte packe das Neutron-Plug-in in jede einzelne Spur und spiele dem System die Audios einmal komplett vor.“

Ein Autor von uns hat in einem Artikel zu „Studiomythen“ genau das Thema aufgegriffen. Er hat ganz recht, wenn er behauptet, dass DAWs heute immer noch versuchen, etwas zu sein, was sie überhaupt nicht sind und auch gar nicht sein müssen, nämlich ein analoges Tonstudio!

Ja, ganz schön naiv irgendwie.  

Und was die Entwicklung von DAWs und dergleichen angeht, habe ich mich ja gefreut, als Anfang der 2000er plötzlich Ableton Live dieses starre Zeitkonzept aufgebrochen haben. Ich dachte ja „Hurra, jetz geht es los mit den abgefahrenen Entwicklungen“. Aber Pustekuchen: Immer noch alles so gut wie linear, Zeit auf der x- und Spuren auf der y-Achse, Signalfluss wie ein analoges Pult mit Multitrack-Maschine und Siderack.

Ich habe beobachtet, dass Menschen, die nicht so sehr in einer bestimmten Technologie verwurzelt sind, einen viel einfacheren und klareren Zugang zu Vorgängen haben und Technik anders sehen. Bei der Entwicklung von Spire haben wir gedacht: Wie können wir ganz ohne den Ballast von Traditionen an den Workflow herangehen?

 

…also so, wie Anfänger oder ganz besonders Kinder an manche Dinge herangehen, also Personen, die diesen ursprünglichen, alten Kram gar nicht kennen?

Exakt! Nimm etwas wie den „Visual Mixer“: Wer es nicht anders kennt, würde sagen: „Na klar, eine Fläche zwischen den Lautsprechern, vorne, hinten, links und rechts, wie sonst sollte man das lösen?“

 

…mit einem Panorama- bzw. Balance-Potentiometer, einem Aux-Send und einem Reverb, ist doch klar, hehe.

Haha, genau! Und sich durch ewige Menüs klicken und so… 

 

Ja, also in einem Mix haben wir ja im Wesentlichen vorne, hinten, links und rechts. Links-rechts ist einfach zu realisieren, obwohl auch das ja anders, „schöner“ und intelligenter geht, nämlich in Kombination mit Klangfarben- und Laufzeitunterschieden [siehe Artikel: Pan ohne Panorama-Poti]. Und vorne-hinten… da kommt Reverb ins Spiel. Und wenn ich jetzt richtig rate, würde ich mal behaupten, dass die Newsmeldung, dass iZotope die Firma Exponential Audio gekauft hat, durchaus in diese Richtung geht. Ein gewisser Michael Carnes [ehemals bei Lexicon tätig] spielt da doch bestimmt eine Rolle, oder? Ich kann mir nicht vorstellen, dass iZotope als neues Produkt das vierhundertste Hall-Plug-in des Planeten auf den Markt wirft…

Hehe, ganz richtig! Ich sage Leuten auch immer, dass es gar nicht so schwer ist, unsere Firmenstrategie zu erraten. Wir wollen einfach alles nur intuitiver gestalten! Und wenn man sich vorstellt, dass man als Alien auf die Erde kommt und die zur Verfügung stehende Technologie nutzen will, um ein Ziel zu erreichen… klar, dann würde man Reverberation-Technologie benutzen, um die Positionierung von Signalen im Mix zu gestalten. Und es geht eben auch um die Tiefenwahrnehmung in Verbindung mit dem Frequenzspektrum und der Dynamik! Das ist für uns alles nicht einfach, aber wir versuchen immer mehr, den Vorgang des Mixings zu simplifizieren. Dazu gehört auch, Dinge neu und verständlich zu visualisieren. Wenn wir RX7und die Spektraldarstellung beispielsweise Leuten zeigen, die sonst nur mit Waveforms arbeiten, dann passieren echt interessante Dinge, weil sie plötzlich diesen Mehrwert erkennen.

 

Auch so eine Sache: Als ich angefangen habe, auf Schwingungsformdarstellungen in Computermonitoren zu starren, weit über zwanzig Jahre her, da dachte ich, das würde sich sicher noch ganz toll weiterentwickeln in den Computerprogrammen – hat es aber nicht. Das sieht immer noch fast überall so aus wie damals in der Digital-Audio-Antike. Ein paar Ansätze habe ich mal gesehen, aber wenn man jetzt mal Avid, Steinberg, Apple und die anderen DAW- Hersteller dazu fragen würde, bekäme man wahrscheinlich eine ähnliche Antwort wie von manchen deutschen Autoherstellern zu bestimmten Themen. Vielleicht sind diese „Riesen“ sogar bald in vergleichbaren Positionen, weil sie an ihren alten Konzepten festhalten, wer weiß.

Wir experimentieren sehr, sehr viel bei iZotope. Und da gibt es schon heute Technologien, von den der User kaum etwas mitbekommt. Öffnet man beispielsweise eine Stand-alone-Version von Ozone, wird eine automatische Segmentierung des geladenen Tracks vorgenommen, wodurch die Struktur klarer dargestellt wird und letztlich die Bearbeitung vereinfacht wird. Aber auch da wird noch viel kommen, nicht nur was, das dafür sorgen wird, dass wir nicht nur auf dämliche Wellenformen gucken.

Die Verbindung von Mixing und Virtueller Realität wird es nicht geben.“

– Lest weiter auf Seite 2 des Gesprächs!

1 / 2
.

Verwandte Artikel

User Kommentare