Wie sehen Musikproduktion und -konsum in der Zukunft aus?

– Wie wird Musikproduktion in zehn, zwanzig, fünfzig Jahren aussehen?

“Wir werden das fortschreitende Aufbrechen von Strukturen erleben.” 

Mark Ethier, CEO von iZotope, im Gespräch (Hintergrundbild: Shutterstock / vs148)
Mark Ethier, CEO von iZotope, im Gespräch (Hintergrundbild: Shutterstock / vs148)

Mark, danke, dass Du Zeit für uns hast! Du bist als CEO von iZotope ein Mensch, der viel auf die heutige Musikproduktion und natürlich soweit es geht in die Zukunft blicken musst. Besonders darüber würde ich gerne mit Dir sprechen. Wenn Du magst, erzähl’ uns doch zunächst einmal etwas über Dich und wie es zu iZotope gekommen ist – iZotope ist ja zu einem wichtigen Player im Bereich der Musikproduktion herangewachsen. Bekannter noch als „iZotope“ ist ja euer erfolgreichstes Produkt, die Mastering-Software Ozone.

Nun ja, ich finde es auch immer spannend, welchen Weg Leute in unserer Industrie genommen haben, bis sie dort sind, wo sie aktuell stehen. Und es gibt ja so gut wie immer irgend eine Verbindung zur Musik – manchmal sehr überraschend! Bei mir war das auch so. Als ich das Unternehmen gegründet habe, war ich unter anderem auf dem MIT, ich habe zwei Degrees gemacht, Computer Science und Musik/Komposition. Und dann habe ich ein Praktikum bei Cakewalk gemacht! Da habe ich dann erst gedacht: „Warte mal, ich kann Musik und Technologie quasi gleichzeitig machen?“
Das war so um 1999 herum. Ich wollte eigentlich Filmmusik machen, hatte viele Synthesizer und so, war aber nie im Studio gewesen. Auf die Idee, Musik auch wirklich aufzunehmen, bin ich nie wirklich gekommen. Dann ergab sich irgendwann die Gelegenheit, dass ein Sinfonieorchester eine meiner Kompositionen spielt! Ich bin dann einfach in ein Musikgeschäft gelaufen, um etwas Equipment dafür auszuleihen. Ok, jetzt kommt der etwas peinliche Teil, aber was soll’s: Ich hatte 50 Dollar. Sie haben mit einen DAT-Recorder gegeben, einen kleinen Mixer – und zwei Shure SM57 (lacht) …um ein großes Orchester in einer Philharmonie aufzunehmen! Ich muss wohl nicht erklären, wie das geklungen hat. Und da fing ich eigentlich erst an, mir Gedanken zu machen, warum meine Aufnahme so viel schlechter klang als die, die ich von CDs kannte. Daraufhin habe ich mich mit Restauration, Mastering und dergleichen auseinandergesetzt. Ohne jemals zuvor ein Album gemastert zu haben oder mit analogen Prozessoren gearbeitet zu haben, ist mit Kumpels vom MIT quasi die erste Vorversion von Ozone entwickelt worden – schlichtweg aus dem Bedürfnis heraus! Wir waren Musiker mit Wünschen, Vorstellungen, Notwendigkeiten… und wir haben programmieren gelernt!  

Nichts motiviert dich mehr, als wenn du Kohle für Essen und Wohnen benötigst.“ 

„Vinyl“ war unser erstes Freeware-Produkt im Sommer 2001. Das haben dann auf einmal tausende, zehntausende Leute heruntergeladen. Da haben wir dann gedacht „Hey, wenn wir unsere Abschlüsse in ein paar Monaten in der Tasche haben, dann erstellen wir einfach ein Kaufprodukt!“ Das haben wir echt deswegen gemacht, weil wir Geld für Essen und Miete brauchten. Ich weiß jetzt: Nichts motiviert dich mehr, als wenn du Kohle für Essen und Wohnen benötigst.
Das Mastering-Tool iZotope Ozone ist daraufhin ständig gewachsen. Recht schnell haben Profis gemerkt, dass Ozone sich einfach bedienen lässt und gute Soundergebnisse liefert.
Also kurz: 2001 haben ein paar College-Kids in ihrer Bude Software für sich selbst geschrieben und 2013 stehen sie dann auf einmal da und bekommen einen Emmy (!) für die Software RX, weil sie dadurch die Vorgehensweise in der  TV-Produktionen in den USA umgekrempelt haben.  

Das ist echt eine schöne und auch klassische Erfolgsgeschichte, oder? Ich sage es ja immer wieder: Wozu so ein SM57 alles gut ist, hihi!
Aber wie ging es dann weiter?
Wir haben um diese Zeit herum verstanden, dass die Welt sich weiter verändert. Alles wird digitaler, alles stärker Cloud-basiert. In der Audiowelt sahen wir uns dann am Zug und wollten Maschinelles Lernen stärker hineinbringen, was zu iZotope Neutron und letztlich auch Spiregeführt hat.

Das finde ich interessant, gerade, weil viele Menschen denken, dass in der Audiowelt die meiste Entwicklung von der Industrie ausgeht. Dabei ist es zu einem großen Teil doch der Konsument, der Dinge so wirklich in Gang setzt, oder?
Ja, genau.

iZotope Spire: Der Kassettenrekorder dieses Jahrtausends – mit entsprechenden Fähigkeiten.
iZotope Spire: Der Kassettenrekorder dieses Jahrtausends – mit entsprechenden Fähigkeiten.

Musikmachen wird in jedem Fall technisch deutlich simpler und dadurch deutlich kreativer.“

Wir sind ja schon ein weites Stück gegangen. Von Livemusikaufnahmen auf Stereo-Magnetband über große Analogmischer und Mehrspur-DAWs bis hin zu sehr intelligenten In-The-Box-Musikproduktionssystemen. Was glaubst Du, wo sind wir wohl in zehn, zwanzig oder vielleicht sogar fünfzig Jahren?
Oooh! Das ist ein wirklich sehr interessantes Thema. Mann, da könnte ich eine Menge zu erzählen! Vielleicht fange ich damit an zu erklären, wie es meiner Meinung nach wahrscheinlich nicht sein wird:
Einige Leute denken, dass in der Zukunft wirklich jeder Musik produzieren wird, weil es noch einfacher möglich sein wird. Aber ich denke, dass das nur Leute tun werden, die auch wirklich einen großen Drang dazu verspüren, etwas Künslerisches herzustellen.
Aber da haben wir schon den wesentlichen Punkt: Musikmachen wird in jedem Fall technisch deutlich simpler und dadurch deutlich kreativer. Und das ist noch ein weiter Weg! Sogar heute noch staune ich, wieviel Zeit und Energie dafür aufgewendet werden muss, weil Leute über Samplerates und Bittiefen nachdenken müssen.  

Ich möchte gar nicht wissen, wie viele tolle Songideen oder “goldene”, magische Momente der Menschheit dadurch verloren gegangen sind, dass erst jemand mit der Technik kämpfen musste und es danach vergessen hat oder nicht mehr mit der nötigen Frische festhalten konnte…
Total. Ich bin der Meinung, dass solche Technikfragen irrelevant sein sollten. Als Musiker und Produzent soll ich mich heute noch mit Attack- und Releasezeiten eines Kompressors auseinandersetzen müssen? Nick, ich sehe, du hast einen Saab-Aufkleber auf deinem Laptop. Autos sind ein gutes Beispiel, lass uns das benutzen. Das ist doch etwa so, als sollte ich beim Autofahren plötzlich bestimmen, wie sich das Luft-Benzin-Gemisch verändern soll oder sowas? Wozu? Ein Auto soll mich von A nach B bringen. Und die Idee hinter dem selbstfahrenden Auto ist ja schließlich, dass du Zeit für andere Dinge bekommst und dich nicht mehr mit diesem Firlefanz auseinandersetzen musst. Und auf dem gleichen Weg kann man vielleicht nicht das Rad, aber immerhin das Auto neu erfinden. Du brauchst dann keinen Fahrersitz, kein Lenkrad, keine Scheibenwischer, kein Auf- und Abblendlicht. Dein Radio ändert sich! Du kannst Videos schauen, statt nur was zu hören. Du kannst an einem Tisch sitzen, deinem Mitfahrer gegenüber! Und diese Gedanken kann man auf Audio übertragen. Wenn Du in zehn oder zwanzig Jahren in ein Auto steigst, wird es auf jeden Fall deutlich anders sein als heute, weil man nicht an den alten Konzepten festhalten muss. Wir müssen auch in der Musikproduktion umdenken und alte Konzepte und Workflows über Bord werfen.  

Das Plug-in-Konzept ist eigentlich veraltet: Wir brauchen Zugriff auf alle Spuren zu jedem Zeitpunkt!“

Was passiert in die Richtung bislang?
Im Grunde wenig! Ein kleines Beispiel: In der analogen Audiowelt musst du, um einen Effekt zu benutzen, Kabel nehmen, dein Signal routen, auf einer Patchbay verbinden und wieder zurückführen. Das Absurde: Audio-Plug-ins funktionieren prinzipiell noch genau so! Man hat Zugriff auf einen einzelnen Audiotrack, das Konzept ist weiter „Streaming“, also wie dereinst vom der analogen Bandmaschine. Das Plug-in-Konzept ist eigentlich veraltet. Neue, innovative Workflows benötigen aber Zugriff auf die gesamte Session. Also alle Spuren zu jedem Zeitpunkt. Mit iZotope Neutron gehen wir ja schon diesen Weg: „Bitte packe das Neutron-Plug-in in jede einzelne Spur und spiele dem System die Audios einmal komplett vor.“

iZotope Neutron
iZotope Neutron

Ein Autor von uns hat in einem Artikel zu „Studiomythen“ genau das Thema aufgegriffen. Er hat ganz recht, wenn er behauptet, dass DAWs heute immer noch versuchen, etwas zu sein, was sie überhaupt nicht sind und auch gar nicht sein müssen, nämlich ein analoges Tonstudio!
Ja, ganz schön naiv irgendwie.  

Und was die Entwicklung von DAWs und dergleichen angeht, habe ich mich ja gefreut, als Anfang der 2000er plötzlich Ableton Live dieses starre Zeitkonzept aufgebrochen haben. Ich dachte ja „Hurra, jetz geht es los mit den abgefahrenen Entwicklungen“. Aber Pustekuchen: Immer noch alles so gut wie linear, Zeit auf der x- und Spuren auf der y-Achse, Signalfluss wie ein analoges Pult mit Multitrack-Maschine und Siderack.
Ich habe beobachtet, dass Menschen, die nicht so sehr in einer bestimmten Technologie verwurzelt sind, einen viel einfacheren und klareren Zugang zu Vorgängen haben und Technik anders sehen. Bei der Entwicklung von Spire haben wir gedacht: Wie können wir ganz ohne den Ballast von Traditionen an den Workflow herangehen?

…also so, wie Anfänger oder ganz besonders Kinder an manche Dinge herangehen, also Personen, die diesen ursprünglichen, alten Kram gar nicht kennen?
Exakt! Nimm etwas wie den „Visual Mixer“: Wer es nicht anders kennt, würde sagen: „Na klar, eine Fläche zwischen den Lautsprechern, vorne, hinten, links und rechts, wie sonst sollte man das lösen?“

…mit einem Panorama- bzw. Balance-Potentiometer, einem Aux-Send und einem Reverb, ist doch klar, hehe.
Haha, genau! Und sich durch ewige Menüs klicken und so… 

Ja, also in einem Mix haben wir ja im Wesentlichen vorne, hinten, links und rechts. Links-rechts ist einfach zu realisieren, obwohl auch das ja anders, „schöner“ und intelligenter geht, nämlich in Kombination mit Klangfarben- und Laufzeitunterschieden [siehe Artikel: Pan ohne Panorama-Poti]. Und vorne-hinten… da kommt Reverb ins Spiel. Und wenn ich jetzt richtig rate, würde ich mal behaupten, dass die Newsmeldung, dass iZotope die Firma Exponential Audio gekauft hat, durchaus in diese Richtung geht. Ein gewisser Michael Carnes [ehemals bei Lexicon tätig] spielt da doch bestimmt eine Rolle, oder? Ich kann mir nicht vorstellen, dass iZotope als neues Produkt das vierhundertste Hall-Plug-in des Planeten auf den Markt wirft…
Hehe, ganz richtig! Ich sage Leuten auch immer, dass es gar nicht so schwer ist, unsere Firmenstrategie zu erraten. Wir wollen einfach alles nur intuitiver gestalten! Und wenn man sich vorstellt, dass man als Alien auf die Erde kommt und die zur Verfügung stehende Technologie nutzen will, um ein Ziel zu erreichen… klar, dann würde man Reverberation-Technologie benutzen, um die Positionierung von Signalen im Mix zu gestalten. Und es geht eben auch um die Tiefenwahrnehmung in Verbindung mit dem Frequenzspektrum und der Dynamik! Das ist für uns alles nicht einfach, aber wir versuchen immer mehr, den Vorgang des Mixings zu simplifizieren. Dazu gehört auch, Dinge neu und verständlich zu visualisieren. Wenn wir RX7 und die Spektraldarstellung beispielsweise Leuten zeigen, die sonst nur mit Waveforms arbeiten, dann passieren echt interessante Dinge, weil sie plötzlich diesen Mehrwert erkennen.

Auch so eine Sache: Als ich angefangen habe, auf Schwingungsformdarstellungen in Computermonitoren zu starren, weit über zwanzig Jahre her, da dachte ich, das würde sich sicher noch ganz toll weiterentwickeln in den Computerprogrammen – hat es aber nicht. Das sieht immer noch fast überall so aus wie damals in der Digital-Audio-Antike. Ein paar Ansätze habe ich mal gesehen, aber wenn man jetzt mal Avid, Steinberg, Apple und die anderen DAW- Hersteller dazu fragen würde, bekäme man wahrscheinlich eine ähnliche Antwort wie von manchen deutschen Autoherstellern zu bestimmten Themen. Vielleicht sind diese „Riesen“ sogar bald in vergleichbaren Positionen, weil sie an ihren alten Konzepten festhalten, wer weiß.
Wir experimentieren sehr, sehr viel bei iZotope. Und da gibt es schon heute Technologien, von den der User kaum etwas mitbekommt. Öffnet man beispielsweise eine Stand-alone-Version von Ozone, wird eine automatische Segmentierung des geladenen Tracks vorgenommen, wodurch die Struktur klarer dargestellt wird und letztlich die Bearbeitung vereinfacht wird. Aber auch da wird noch viel kommen, nicht nur was, das dafür sorgen wird, dass wir nicht nur auf dämliche Wellenformen gucken.

Die Verbindung von Mixing und Virtueller Realität wird es nicht geben.“

– Lest weiter auf Seite 2 des Gesprächs!

Die Verbindung von Mixing und Virtueller Realität wird es nicht geben.“

Mark, was ist deine Einschätzung, was Immersion und wirkliches „Multimedia“ angeht? Musik ist ja eigentlich immer noch rein auditiv, ab und zu mal mit einem winzigen Cover oder Youtube-Musikvideo geschmückt. Es gibt ja Technologien, die nicht nur für den Musikkonsum, sondern auch für die Produktion interessant sind, Augmented Reality beispielsweise. Es gibt ja zum Beispiel eine experimentelle Mixing-Oberfläche, bei der man mit VR-Brille Signale positionieren kann.
Vielleicht ist das der Punkt, an dem man mich in zwanzig Jahren auslachen wird, weil ich so verdammt falsch lag. Aber heute glaube ich nicht, dass es die Verbindung von Mixing und Virtueller Realität so geben wird. Der Hauptgrund ist: Es ist einfach anstrengend! Ich meine, überlege alleine, wenn Du einen Song ein paar Mal hörst und daran arbeitest… halte mal deine Arme eine Stunde lang so vor dir, wie man es bei diesen VR-Spielen machen muss. Und Videospiel-Firmen haben da schon viel zu untersucht, die kümmern sich um immersive Umgebungen ja nicht erst seit gestern. Als Kreativitätstool oder so: ja, als Arbeitswerkzeuge: nein.
Meiner Ansicht nach wird es in der Zukunft eher so sein, dass wir das fortschreitende Aufbrechen von Strukturen erleben. Mixing und Mastering beispielsweise als getrennte Vorgänge, bedingt durch unterschiedliche Spezialisierungen von Personal, unterschiedliche Arbeitswerkzeuge und dergleichen… hier glaube ich, dass es in Zukunft vermehrt ineinanderfließen wird. Lass es mich mal genauer darstellen: Information ist der Schlüssel. So zum Beispiel: Wenn ich im Filmton weiß, wie etwas eingesetzt werden wird, aber auch, welches Mikrofon genutzt wurde, dann kann schneller und automatisiert entschieden werden, was wie eingestellt werden muss. Manchmal ist dann beispielsweise ein stärkeres Rauschen tolerierbar, einfach weil das sowieso von anderen Signalen maskiert werden wird im Mix. Mixing wird sicher deutlich „intelligenter“ und Grenzen werden weiter durchbrochen, aber dass wir eine Multimedia-Umwelt bei der Musikproduktion haben werden, das sehe ich nicht. 

Früher war Musikproduktion so, dass man mit einem „statischen“ Stück Musik aus dem Studio gegangen ist, welches dann kopiert wurde. Fertig. Und ich glaube, da wird sich einiges tun. Gaming zeigt ja schon, dass Dynamik anstatt Statik/Linearität das Ding ist. Dort wird Musik ja jetzt schon on-the-fly Musik quasi erstellt, spontan und dynamisch auf das Geschehen im Spielverlauf reagierend! Ich bin mir sicher, dass Vieles interaktiver wird. Dunkin’ Donuts in den USA beispielsweise nutzen für ihre Werbung sehr genaue Lokalisationsdaten und nutzen maßgeschneiderte Inhalte. Dadurch wirkt die ausgespielte Werbung für die betreffende Person sehr persönlich.  

Wird irgendwann wohl niemand übrig sein, der auf diese Art den All-Buttons-Mode aktiviert? Wahrscheinlich nicht. Die Frage ist eher, wie viele es sein werden.
Wird irgendwann wohl niemand übrig sein, der auf diese Art den All-Buttons-Mode aktiviert? Wahrscheinlich nicht. Die Frage ist eher, wie viele es sein werden.

Wie kommt iZotope da ins Spiel?
Für das Videogame Forza Motorsport wurde unser Produkt „Trash“ benutzt. Sie hatten aber gar nicht den Speicherplatz, die notwendigen Autogeräusche unterzubringen. Dadurch wurde es notwendig, Teile unseres Programms in die Engine aufzunehmen, um on-the-fly diese Sound zu generieren.
Und wenn man bedenkt, dass viel Musik über neuere Formate konsumiert wird, die viele „Stats“, also statistische Daten zurück liefern… Wenn man das Feedback bekommt, kann man beispielsweise feststellen, dass bei einem Song sehr viele Leute nach sagen wir 45 Sekunden aussteigen. Dann kann ich aufgrund der Daten ja hingehen und das Stück umschneiden und verbessert anbieten.  

„Wir Menschen sind manchmal doch ziemlich faul.“

Wenn man die Idee von „Dynamisierung“ und „Ineinanderfließen“ von Musik mal weiterdenkt, ist dann nicht auch die Grenze von Musikproduktion und Musikkonsum im Begriff des Aufweichens? Ich könnte mir vorstellen, dass beispielsweise ein paar Leute rumsitzen, einen Song hören und sagen „He, Siri/Alexa/Wer auch immer, mach den Song doch mal ein wenig tanzbarer! … nee, nicht so, bisschen mehr so Dubstep-mäßig! Und bitte übersetze diesen Song ins Ungarische“. Und vielleicht geht das ja irgendwann auch ohne Sprechen, je nach Mensch-Maschine-Interface. Man kann ja schließlich mit Gedankensteuerung einen E-Rolli steuern, dann werden solche Dinge in Zukunft doch auch möglich sein. Oder spinne ich da jetzt rum?
Das sind ein paar sehr interessante Fragen und Aufgaben, die sich eben auch rund um den Menschen, um „Human Nature“ drehen. Es gibt eine Menge Firmen, die auf diesem Gebiet experimentieren – und wir sind tatsächlich eine davon! In den Mitte-2000er-Jahren haben wir eine Reihe iPhone-Apps herausgebracht, die iDrum hießen. Mit Depeche Mode, Wu-Tang Clan, Underworld, Ministry of Sound und so. Das waren interaktive Apps, bei der die User einige Kontrollmöglichkeiten über einen Song hatten und das einfach und spielerisch umsetzen konnten. Die Künstler waren total begeistert von der Idee, weil sie darin eine Weiterentwicklung ihrer Kunst gesehen haben, eine neue Möglichkeit, ein neues Tätigkeitsfeld. Aber die Konsumenten? Naja, wir haben ungefähr eine halbe Million Downloads gehabt. Es gab also das Zeichen, dass manche Leute das ganz cool fanden. Aber da sind wir wieder bei der „Human Nature“: Hey, wir Menschen sind manchmal doch ziemlich faul! Solche Interaktion wird schon ein „Thing“, aber im Wesentlichen geht es um „Convenience“. Und die meisten Leute sagen: „Hey Alexa, spiel mal Tom Petty.“ Sie kümmern sich dann nicht darum, welches Album, welcher Song. Da ist es ein weiter Weg zu dem, was du gerade gesagt hast. Diesen Wunsch wird es sicher geben, aber ich glaube nicht, dass das viele Menschen sein werden, die so denken. Das wird höchstens eine Nische sein. Die Frage ist nicht, wollen die Leute das, die so etwas künstlerisch produzieren können, sondern nutzt es der Konsument am Ende. Ich glaube, wir werden es hauptsächlich mit dem anderen Extrem zu tun haben. Also ich gehe in einen Raum, meine Vitalfunktionen und Gesichtsausdrücke werden analysiert und Alexa oder sonstwer sagt „Oh, er ist gut gelaunt. Ich spiele ihm ein paar Happy-Songs.“ – ohne dass ich was dazu sagen muss.
Technologisch ist das ja alles problemlos heute schon möglich.
Oh ja, total!

Viele Musikkonsumenten hören ja heute eher Stations und Playlists. Aber es gibt ja auch eine – wie es mir vorkommt durchaus signifikante – Gruppe an Menschen, die genau gegenteilig sind. Ich selber liebe beisielsweise Vinyl, liebe die Auswahl aus Mikrofonen, das Drehen am 1176 und dergleichen. Um den Vergleich noch einmal zu bemühen: Es wird auch im Zeitalter selbstfahrender Autos doch immer noch solche geben, die einen Morgan Threewheeler oder einen Caterham 7 kaufen, also unfassbar simple Autos, die aber eben Spaß machen.
Gut, das gibt es alles auch, aber iZotope geht eben einfach den Weg, Sachen zu hinterfragen, neu zu denken, anders anzupacken und fortschrittlich zu sein. Aber tatsächlich, ich muss zugeben, auch ich habe einen Plattenspieler und ich genieße das auch. Es bringt dich näher an die Musik, du musst dich bewusst entscheiden, die Platte zu kaufen, sie aufzulegen, sie umzudrehen… klar!
Das sind natürlich wieder diese Traditionen und Gewohnheiten. Kinder beispielsweise finden es oft unverständlich, diesen total komplizierten Weg zu wählen, wenn man doch einem Sprachassistenten befehlen kann, diesen Song zu spielen. Zwei Sekunden Warten statt zu recherchieren, die Platte zu kaufen und so weiter.
Stimmt. Man wird sehen, was wirklich in Zyklen wiederkehrt, was verschwindet oder sich komplett durchsetzt.  

Man kann den Leuten ja auch einfach die Programmiersprache C++ geben und schauen, was sie dann geschafft bekommen.“

Mark, lass uns aber noch einmal über die „Convenience“ beim Musikmachen sprechen. Tehnologie soll beim intuitiven Kreativitätsprozess ja nicht im Wege stehen, du hast vorhin das Beispiel mit Samplerate und Bittiefe genannt. Ich sehe aber durchaus Probleme im Übergang zwischen einfacher Nutzbarkeit und dem professionellen Anspruch und letztlich auch dem Ergebnis. Wer mit einfachen Tools produziert, der kann dann ja oft nicht technisch einen Schritt weitergehen und eben doch „deeper“ eine Veränderung machen. Und ich habe die Befürchtung, dass dann auch das Interesse an technischen Zusammenhängen geringer wird.
Naja, Software ermöglicht ja eigentlich zumindest theoretisch sehr tiefe Einflussnahme. Und andersherum: In der Analogwelt gibt es oft begrenzte Spuren und so simple Geräte wie einen LA-2A. Und diese Restriktion kann ein Kreativitätsbooster sein! Nehmen wir das Sonett als Gedichtsform: ein sehr starrer Rahmen, in dem man sich bewegen muss. Das ist meist besser, als sich in tausenden und hunderttausenden Möglichkeiten zu verlieren und auf der Stelle zu treten.
Und ich kenne natürlich die Meinungen, dass gesagt wird, wir hätten Ozone hergestellt mit den Presets, weshalb nun jeder glaubt, ein kleiner Mastering-Engineer sein zu können. Aber es gibt eben auch die andere Seite, denn jetzt versteht jeder viel einfacher, was Mastering für ein schwieriger Prozess ist, der Respekt für diese Arbeit wächst dadurch natürlich. Und es geht selbstverständlich nicht nur um Werkzeuge, es geht immer auch um Können und Geschmack!
Klar, wir versuchen, eine einfache Möglichkeit anzubieten und es dann zu ermöglichen, auch tiefer zu gehen. Wir reden tatsächlich eine Menge darüber, welche Parameter wir in einem Produkt zur Verfügung stellen und welche nicht. Ich meine, ein Extrem wäre es ja, den Leuten einfach C++ zu geben, also die Programmiersprache, mit der wir unsere Software basteln. Damit ist dann ja wirklich alles möglich… aber man könnte dann schauen, was damit dann überhaupt geschafft wird. (lacht)

Ja, und das andere Extrem wäre, zukünftig einfach ein Device in einen Raum zu stellen, „Record“ zu rufen, irgendwas zu spielen und nachher „Bitte veröffentlichen!“ zu sagen. Alles, also winkelabhängiges Erkennen der einzelnen Instrumente, Schneiden, Pitchen, Rhythmisieren, Arrangieren, Mixen, Mastern, Uploaden, Bebildern, Benennen, Bewerben und dergleichen passiert vollautomatisch.
Genau, das wäre das andere Extrem.

Mark, vielen Dank für die Zeit und die vielen interessanten Ein- und Aussichten!

Das Gespräch haben wir auf Englisch im März 2019 in Frankfurt geführt. 

Hot or Not
?
Mark Ethier, CEO von iZotope, im Gespräch (Hintergrundbild: Shutterstock / vs148)

Wie heiß findest Du diesen Artikel?

Kommentieren
Schreibe den ersten Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Bonedo YouTube
  • iZotope Ozone 12 Bass Control Demo (no talking)
  • LD Systems ICOA Pro Series - All you need to know!
  • Watch THIS if you use analog gear! Everything you need to know about the Freqport FreqInOut FO1