ANZEIGE

Wie sehen Musikproduktion und -konsum in der Zukunft aus?

Die Verbindung von Mixing und Virtueller Realität wird es nicht geben.“

Mark, was ist deine Einschätzung, was Immersion und wirkliches „Multimedia“ angeht? Musik ist ja eigentlich immer noch rein auditiv, ab und zu mal mit einem winzigen Cover oder Youtube-Musikvideo geschmückt. Es gibt ja Technologien, die nicht nur für den Musikkonsum, sondern auch für die Produktion interessant sind, Augmented Reality beispielsweise. Es gibt ja zum Beispiel eine experimentelle Mixing-Oberfläche, bei der man mit VR-Brille Signale positionieren kann.
Vielleicht ist das der Punkt, an dem man mich in zwanzig Jahren auslachen wird, weil ich so verdammt falsch lag. Aber heute glaube ich nicht, dass es die Verbindung von Mixing und Virtueller Realität so geben wird. Der Hauptgrund ist: Es ist einfach anstrengend! Ich meine, überlege alleine, wenn Du einen Song ein paar Mal hörst und daran arbeitest… halte mal deine Arme eine Stunde lang so vor dir, wie man es bei diesen VR-Spielen machen muss. Und Videospiel-Firmen haben da schon viel zu untersucht, die kümmern sich um immersive Umgebungen ja nicht erst seit gestern. Als Kreativitätstool oder so: ja, als Arbeitswerkzeuge: nein.
Meiner Ansicht nach wird es in der Zukunft eher so sein, dass wir das fortschreitende Aufbrechen von Strukturen erleben. Mixing und Mastering beispielsweise als getrennte Vorgänge, bedingt durch unterschiedliche Spezialisierungen von Personal, unterschiedliche Arbeitswerkzeuge und dergleichen… hier glaube ich, dass es in Zukunft vermehrt ineinanderfließen wird. Lass es mich mal genauer darstellen: Information ist der Schlüssel. So zum Beispiel: Wenn ich im Filmton weiß, wie etwas eingesetzt werden wird, aber auch, welches Mikrofon genutzt wurde, dann kann schneller und automatisiert entschieden werden, was wie eingestellt werden muss. Manchmal ist dann beispielsweise ein stärkeres Rauschen tolerierbar, einfach weil das sowieso von anderen Signalen maskiert werden wird im Mix. Mixing wird sicher deutlich „intelligenter“ und Grenzen werden weiter durchbrochen, aber dass wir eine Multimedia-Umwelt bei der Musikproduktion haben werden, das sehe ich nicht. 

Früher war Musikproduktion so, dass man mit einem „statischen“ Stück Musik aus dem Studio gegangen ist, welches dann kopiert wurde. Fertig. Und ich glaube, da wird sich einiges tun. Gaming zeigt ja schon, dass Dynamik anstatt Statik/Linearität das Ding ist. Dort wird Musik ja jetzt schon on-the-fly Musik quasi erstellt, spontan und dynamisch auf das Geschehen im Spielverlauf reagierend! Ich bin mir sicher, dass Vieles interaktiver wird. Dunkin’ Donuts in den USA beispielsweise nutzen für ihre Werbung sehr genaue Lokalisationsdaten und nutzen maßgeschneiderte Inhalte. Dadurch wirkt die ausgespielte Werbung für die betreffende Person sehr persönlich.  

Wird irgendwann wohl niemand übrig sein, der auf diese Art den All-Buttons-Mode aktiviert? Wahrscheinlich nicht. Die Frage ist eher, wie viele es sein werden.
Wird irgendwann wohl niemand übrig sein, der auf diese Art den All-Buttons-Mode aktiviert? Wahrscheinlich nicht. Die Frage ist eher, wie viele es sein werden.

Wie kommt iZotope da ins Spiel?
Für das Videogame Forza Motorsport wurde unser Produkt „Trash“ benutzt. Sie hatten aber gar nicht den Speicherplatz, die notwendigen Autogeräusche unterzubringen. Dadurch wurde es notwendig, Teile unseres Programms in die Engine aufzunehmen, um on-the-fly diese Sound zu generieren.
Und wenn man bedenkt, dass viel Musik über neuere Formate konsumiert wird, die viele „Stats“, also statistische Daten zurück liefern… Wenn man das Feedback bekommt, kann man beispielsweise feststellen, dass bei einem Song sehr viele Leute nach sagen wir 45 Sekunden aussteigen. Dann kann ich aufgrund der Daten ja hingehen und das Stück umschneiden und verbessert anbieten.  

„Wir Menschen sind manchmal doch ziemlich faul.“

Wenn man die Idee von „Dynamisierung“ und „Ineinanderfließen“ von Musik mal weiterdenkt, ist dann nicht auch die Grenze von Musikproduktion und Musikkonsum im Begriff des Aufweichens? Ich könnte mir vorstellen, dass beispielsweise ein paar Leute rumsitzen, einen Song hören und sagen „He, Siri/Alexa/Wer auch immer, mach den Song doch mal ein wenig tanzbarer! … nee, nicht so, bisschen mehr so Dubstep-mäßig! Und bitte übersetze diesen Song ins Ungarische“. Und vielleicht geht das ja irgendwann auch ohne Sprechen, je nach Mensch-Maschine-Interface. Man kann ja schließlich mit Gedankensteuerung einen E-Rolli steuern, dann werden solche Dinge in Zukunft doch auch möglich sein. Oder spinne ich da jetzt rum?
Das sind ein paar sehr interessante Fragen und Aufgaben, die sich eben auch rund um den Menschen, um „Human Nature“ drehen. Es gibt eine Menge Firmen, die auf diesem Gebiet experimentieren – und wir sind tatsächlich eine davon! In den Mitte-2000er-Jahren haben wir eine Reihe iPhone-Apps herausgebracht, die iDrum hießen. Mit Depeche Mode, Wu-Tang Clan, Underworld, Ministry of Sound und so. Das waren interaktive Apps, bei der die User einige Kontrollmöglichkeiten über einen Song hatten und das einfach und spielerisch umsetzen konnten. Die Künstler waren total begeistert von der Idee, weil sie darin eine Weiterentwicklung ihrer Kunst gesehen haben, eine neue Möglichkeit, ein neues Tätigkeitsfeld. Aber die Konsumenten? Naja, wir haben ungefähr eine halbe Million Downloads gehabt. Es gab also das Zeichen, dass manche Leute das ganz cool fanden. Aber da sind wir wieder bei der „Human Nature“: Hey, wir Menschen sind manchmal doch ziemlich faul! Solche Interaktion wird schon ein „Thing“, aber im Wesentlichen geht es um „Convenience“. Und die meisten Leute sagen: „Hey Alexa, spiel mal Tom Petty.“ Sie kümmern sich dann nicht darum, welches Album, welcher Song. Da ist es ein weiter Weg zu dem, was du gerade gesagt hast. Diesen Wunsch wird es sicher geben, aber ich glaube nicht, dass das viele Menschen sein werden, die so denken. Das wird höchstens eine Nische sein. Die Frage ist nicht, wollen die Leute das, die so etwas künstlerisch produzieren können, sondern nutzt es der Konsument am Ende. Ich glaube, wir werden es hauptsächlich mit dem anderen Extrem zu tun haben. Also ich gehe in einen Raum, meine Vitalfunktionen und Gesichtsausdrücke werden analysiert und Alexa oder sonstwer sagt „Oh, er ist gut gelaunt. Ich spiele ihm ein paar Happy-Songs.“ – ohne dass ich was dazu sagen muss.
Technologisch ist das ja alles problemlos heute schon möglich.
Oh ja, total!

Viele Musikkonsumenten hören ja heute eher Stations und Playlists. Aber es gibt ja auch eine – wie es mir vorkommt durchaus signifikante – Gruppe an Menschen, die genau gegenteilig sind. Ich selber liebe beisielsweise Vinyl, liebe die Auswahl aus Mikrofonen, das Drehen am 1176 und dergleichen. Um den Vergleich noch einmal zu bemühen: Es wird auch im Zeitalter selbstfahrender Autos doch immer noch solche geben, die einen Morgan Threewheeler oder einen Caterham 7 kaufen, also unfassbar simple Autos, die aber eben Spaß machen.
Gut, das gibt es alles auch, aber iZotope geht eben einfach den Weg, Sachen zu hinterfragen, neu zu denken, anders anzupacken und fortschrittlich zu sein. Aber tatsächlich, ich muss zugeben, auch ich habe einen Plattenspieler und ich genieße das auch. Es bringt dich näher an die Musik, du musst dich bewusst entscheiden, die Platte zu kaufen, sie aufzulegen, sie umzudrehen… klar!
Das sind natürlich wieder diese Traditionen und Gewohnheiten. Kinder beispielsweise finden es oft unverständlich, diesen total komplizierten Weg zu wählen, wenn man doch einem Sprachassistenten befehlen kann, diesen Song zu spielen. Zwei Sekunden Warten statt zu recherchieren, die Platte zu kaufen und so weiter.
Stimmt. Man wird sehen, was wirklich in Zyklen wiederkehrt, was verschwindet oder sich komplett durchsetzt.  

Man kann den Leuten ja auch einfach die Programmiersprache C++ geben und schauen, was sie dann geschafft bekommen.“

Mark, lass uns aber noch einmal über die „Convenience“ beim Musikmachen sprechen. Tehnologie soll beim intuitiven Kreativitätsprozess ja nicht im Wege stehen, du hast vorhin das Beispiel mit Samplerate und Bittiefe genannt. Ich sehe aber durchaus Probleme im Übergang zwischen einfacher Nutzbarkeit und dem professionellen Anspruch und letztlich auch dem Ergebnis. Wer mit einfachen Tools produziert, der kann dann ja oft nicht technisch einen Schritt weitergehen und eben doch „deeper“ eine Veränderung machen. Und ich habe die Befürchtung, dass dann auch das Interesse an technischen Zusammenhängen geringer wird.
Naja, Software ermöglicht ja eigentlich zumindest theoretisch sehr tiefe Einflussnahme. Und andersherum: In der Analogwelt gibt es oft begrenzte Spuren und so simple Geräte wie einen LA-2A. Und diese Restriktion kann ein Kreativitätsbooster sein! Nehmen wir das Sonett als Gedichtsform: ein sehr starrer Rahmen, in dem man sich bewegen muss. Das ist meist besser, als sich in tausenden und hunderttausenden Möglichkeiten zu verlieren und auf der Stelle zu treten.
Und ich kenne natürlich die Meinungen, dass gesagt wird, wir hätten Ozone hergestellt mit den Presets, weshalb nun jeder glaubt, ein kleiner Mastering-Engineer sein zu können. Aber es gibt eben auch die andere Seite, denn jetzt versteht jeder viel einfacher, was Mastering für ein schwieriger Prozess ist, der Respekt für diese Arbeit wächst dadurch natürlich. Und es geht selbstverständlich nicht nur um Werkzeuge, es geht immer auch um Können und Geschmack!
Klar, wir versuchen, eine einfache Möglichkeit anzubieten und es dann zu ermöglichen, auch tiefer zu gehen. Wir reden tatsächlich eine Menge darüber, welche Parameter wir in einem Produkt zur Verfügung stellen und welche nicht. Ich meine, ein Extrem wäre es ja, den Leuten einfach C++ zu geben, also die Programmiersprache, mit der wir unsere Software basteln. Damit ist dann ja wirklich alles möglich… aber man könnte dann schauen, was damit dann überhaupt geschafft wird. (lacht)

Ja, und das andere Extrem wäre, zukünftig einfach ein Device in einen Raum zu stellen, „Record“ zu rufen, irgendwas zu spielen und nachher „Bitte veröffentlichen!“ zu sagen. Alles, also winkelabhängiges Erkennen der einzelnen Instrumente, Schneiden, Pitchen, Rhythmisieren, Arrangieren, Mixen, Mastern, Uploaden, Bebildern, Benennen, Bewerben und dergleichen passiert vollautomatisch.
Genau, das wäre das andere Extrem.

Mark, vielen Dank für die Zeit und die vielen interessanten Ein- und Aussichten!

Das Gespräch haben wir auf Englisch im März 2019 in Frankfurt geführt. 

Hot or Not
?
Mark Ethier, CEO von iZotope, im Gespräch (Hintergrundbild: Shutterstock / vs148)

Wie heiß findest Du diesen Artikel?

Kommentieren
Schreibe den ersten Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.