Serie_Interview
Feature
3
03.02.2017

Software Synthesizer und Analog Modeling: Hinter den Kulissen

Interview mit Urs Heckmann von u-he

Januar 2017 in Berlin Charlottenburg. An einer schönen Gründerzeitvilla zwischen Kurfürstendamm und Kantstraße gelegen steht "Heckmann" auf der Klingel. Hier befindet sich im ersten Stock eines der Büros von u-he, der Softwaresynthesizerschmiede von Urs Heckmann. Was früher eine typische Berliner Altbauwohnung war – Holzdielen, hohe Decken und große Fenster – ist jetzt ein warm anmutendes, aber gleichzeitig hochtechnologisiertes Büro, in dem fast ausschließlich junge Männer hinter großen Bildschirmen an ihren Tastaturen sitzen.

Der Chef is(s)t noch in der Küche und so werde ich herum geführt. Alle sind sehr freundlich und sehr beschäftigt. Sofort fallen die vielen alten Synthesizerschätzchen auf, die überall herumstehen. Hier findet sich (fast) alles, was das Liebhaberherz höher schlagen lässt: Wasp, Sequential Circuits, alte Moogs, alte Rolands, ein Polivoks... ein veritables Synthesizermuseum. Wieviele davon wohl darauf warten, in eine Audio Unit bzw. ein VST Instrument verwandelt zu werden? Auch ein Eurorack-System darf hier natürlich nicht fehlen.

Inzwischen ist Urs Heckmann soweit. Hochgewachsen, bezopft, mit 3-Tage-Bart und Schnodderschnauze erweist er sich als gleichzeitig rede- als auch erklärfreudiger Interviewpartner. Das passt zur Philosophie seiner Firma: Kaum ein Hersteller von Synthesizern ist so präsent und im direkten Kontakt mit seinen Kunden wie u-he, die ihre nächsten Produkte nicht mit geheimnisvoll-nichtssagenden Videos teasern, sondern im Gegenteil lange öffentliche Betaphasen und Abstimmungen über die gewünschten Filter veranstalten. Wir setzen uns also an den Holztisch im Besprechungszimmer und los geht es.

bonedo: Urs Heckmann, deine Instrumente haben den Ruf, mit zum Besten zu gehören, was man mit Software machen kann. Wolltest du schon immer Instrumentenbauer werden?

Urs Heckmann: Im Grunde genommen schon, ja. Eigentlich wollte ich Musiker werden, aber ich hatte keinen Bock zu üben. Das hat also nicht so hingehauen, aber ich hatte als Jugendlicher natürlich einen Commodore C64, und da ist ja ein Synthesizerchip eingebaut gewesen. Dafür habe ich einen Sequenzer geschrieben, und die Idee, dass ich gerne mal einen Synthesizer bauen möchte war schon damals vorhanden.

bonedo: Einen Sequenzer zu schreiben war also deine Art, Musik zu machen?

Urs Heckmann: Ja, genau. Diese Engine wurde dann auch schon für ein paar Videospiele verwendet.

bonedo: Wie hast du es denn schon als Jugendlicher geschafft, deine Software zu verkaufen?

Urs Heckmann: An sich habe ich den Sequenzer eher für mich selber geschrieben und dachte vielleicht, dass ich ihn an eine dieser Zeitschriften schicken könnte, die damals die Codes zum Abtippen abdruckten. Aber ich hatte einen Kumpel, der selber Videospiele geschrieben hat. Der war etwas älter und wollte das beruflich machen und hat nach dem Sequenzer gefragt. Und so habe ich dann für drei Jahre Arbeit großartige 800 Mark verdient. So um 1986 oder 1987 traten dann auch andere an mich heran und für ein Spiel durfte ich dann die Titelmelodie komponieren, das war dann schon ganz cool. Für mich war damals aber trotzdem klar, dass ich damit auf Dauer nicht so richtig glücklich würde. Und dann war das Thema C64 ja auch vorbei und die 800 Mark für den Amiga konnte ich mir nicht leisten, so dass das erst einmal ruhte. Dann habe ich Industriedesign studiert, was sicherlich auch durch Axel Hartmann inspiriert war, der ja damals schon Synthesizer gestaltet hat. 15 Jahre später, als ich am Ende meines Studiums war, ist das dann alles wieder aufgekommen. 

bonedo: Jetzt könnte man ja meinen, dass Industriedesign und DSP-Programmierung nicht so sehr viel miteinander zu tun haben. Wo ist denn da die Verbindung?

Urs Heckmann: Nun, Plugin-Programmierung ist ja nicht nur DSP-Programmierung. Ich entwickle ja Synthesizer, die es noch nicht gibt. Im Grunde genommen ist das klassisches Industriedesign: Man überlegt sich, was es noch nicht gibt, oder man hat sich vielleicht auch etwas Neues ausgedacht. Bei mir waren das zum Beispiel die neue Synthesemethode bei Zebra oder die Idee eines modularen FM-Synthesizers bei Bazille. Dann überlegt man sich, wie das Produkt aussehen soll und welche Schritte man dafür tun muss. Und dann entwickelt man als Industriedesigner ja nicht nur das Design, sondern eben auch eine Story und Nutzungsszenarien, und das ist bei der Softwareprogrammierung eigentlich genau das gleiche. Wenn man dann gut ist, macht man sich auch gleich Gedanken über die Herstellung und die Kosten und am Ende hat man einen Ordner voller Papier und dann geht das in die Produktion. Nur dass es bei mir halt Software ist, und die ist dann eben schon fertig.

bonedo: So wie du das beschreibst, ist die Entwicklung von der Einzelperson zum Chef einer kleinen Firma ein ganz natürlicher Vorgang für dich gewesen. Als alleiniger Entwickler hast du alles selber gemacht und jetzt lagerst du nach und nach Teile der Produktion an andere Personen aus.

Urs Heckmann: Klar, ja. Also am Anfang musste ich schon vieles erst selber lernen, vor allem die Entwicklung und die Grafik. Programmieren konnte ich schon als Kind, Musik hat mich immer interessiert, und das dann mit Industriedesign zu verknüpfen, das war die ursprüngliche Idee. Letztlich ist es aber natürlich immer so, dass man bestimmte Sachen sehr gut und andere Sachen nicht so gut kann, und dann holt man sich die richtigen Leute dazu. Synthesizer haben mich schon immer interessiert, aber direkt nach dem Studium konnte ich mir keine Plugins leisten, die waren damals nämlich noch erheblich teurer als heute. Und da hat es mich gereizt zu schauen, ob ich solche Plugins nicht auch selber programmieren könnte. Bei den ersten Sachen habe ich ja auch nur irgendwelche angelesenen DSP-Sachen ausprobiert und dazu eine Grafik gemacht. Die sind ja auch nie veröffentlicht worden, sofern sie überhaupt fertig geworden sind.

bonedo: Es gibt ja Leute, die werden erfolgreich mit dem, was sie tun, und bedauern dann später, dass sie eigentlich gar nicht mehr das machen, was sie eigentlich machen wollten – also in deinem Fall Synthesizer programmieren – sondern nur noch mit der Leitung einer Firma beschäftigt sind. Wie ist das bei dir?

Urs Heckmann: Ja, ich habe jetzt 15 Angestellte, da geht natürlich schon viel Zeit für anderes drauf. Aber andererseits habe ich die ja alle angestellt, damit ich mich auf die Sahnehäubchen konzentrieren kann. Das Grafikdesign übernimmt zum Beispiel jetzt jemand, der da viel mehr Liebe zum Detail hineinstecken kann, als ich das jemals könnte. Aber die analogen Filteremulationen, die schreibe ich immer noch selber. Und beim Design des User Interface, das bei uns eine sehr große Rolle spielt und ein extrem langwieriger Prozess ist, da habe ich auch eine ziemlich klare Meinung und da sage ich schon, was ich gerne haben möchte. Wir wollen hier halt auch auf einem sehr hohen Niveau agieren.

bonedo: Wo siehst du denn das Besondere an deinen Instrumenten?

Urs Heckmann: Ja, also das Interaction Design ist extrem wichtig. Bei Zebra ist es zum Beispiel so, dass das Design einige Leute erstmal etwas abschreckt, weil es kompliziert aussieht. Tatsächlich macht es aber eine komplexe Engine sehr zugänglich. Das funktioniert dadurch, dass der Prozess des Sounddesigns in Zebra als eine Kette von Dingen, an denen man gerade arbeitet, angesehen wird. Und deshalb hat man dort viele interaktive Elemente. Wenn man zum Beispiel gerade den Grundsound definiert und an den Oszillatoren und den Wellenformen sitzt, dann setzt einem das User Interface genau die Sachen vor, die man dazu braucht, und zwar alles. Die anderen Sachen, die man gerade nicht braucht, sind quasi ausgeblendet. Das ist eigentlich recht einfach zu realisieren, aber bis man zu dieser Struktur kommt, hat man einen ziemlich komplexen Denkprozess durchlaufen. Neuerdings gibt es viele Synthesizer, die ähnliche Features haben wie Zebra, aber die versuchen meist, das User Interface einfacher zu machen um die Komplexität etwas zu verschleiern. So möchten sie die Engine zugänglicher machen. Dann hat man halt acht Oszillatoren, kann aber immer nur einen sehen. Oder man hat 37 Filter und kann auch wieder nur einen sehen. Aber wenn man das so einschränkt, nur weil es eben sauber und einfach aussieht, dann ist das nicht vorteilhaft für das Sounddesign. Ein Sounddesigner muss im dem Moment, wo er an einer bestimmten Sache arbeitet, alle Module, die dafür benötigt werden, auch gleichzeitig sehen können. Das ist das, was Zebra leistet. Und das ist uns schon extrem wichtig, was aber natürlich noch lange nicht heißt, dass der Klang für uns weniger wichtig wäre. 

bonedo: Ich erinnere mich, dass du in einem Interview gesagt hast, dass es bei deinen Oszillatoren und Filtern kein „Voodoo“ gäbe. Das hat sich so ein bisschen angehört, als würdest du dich wundern wenn die Leute sagen, dass deine Synthesizer sich besser anhören als andere Software.

Urs Heckmann: Dazu stehe ich auch. Voodoo gibt’s nicht, aber sagen wir es mal so: Man kann natürlich auch vieles falsch machen. Und es ist tatsächlich so, dass einige Sachen, die besonders gut ankommen, quasi Schulbuch-mäßig entstanden sind. Da sagt man sich also, ja, was ist der Stand der Dinge und wie müsste es funktionieren, und dann implementiert man das so, wie es funktionieren müsste und dann funktioniert es auch. Da sitzt man nicht noch lange daran, zu feilen und etwas neu zu erfinden oder noch irgendwo eine Nuance oder ein Detail herauszuarbeiten. Da wundert man sich dann also schon manchmal, denn wenn unsere Instrumente so toll sind, dann heißt das ja im Umkehrschluss, dass andere nicht so toll sind. Und dann fragt man sich, ob die vielleicht einfach nur Wert darauf gelegt haben, dass ein Plugin wenig CPU verbraucht oder ob sie es vielleicht einfach nicht besser gewusst haben. Es gibt schon auch einige Synthesizer auf dem Markt, wo man sich denkt, dass das offensichtlich ein Anfänger programmiert haben muss. Zum Beispiel, wenn man ganz offensichtlich digitale Artefakte hört, die man eigentlich nicht hören will. Aber wenn man ein riesiges Marketingbudget hat und neue Begriffe erfindet oder behauptet, eine neue Syntheseform erfunden zu haben, die es vielleicht schon seit Jahren gibt, dann verkauft sich das eben trotzdem. Und das finde ich immer affig. Bei uns ist es so, dass wir sagen, ok, wir kochen auch nur mit Wasser, aber wir geben uns Mühe.

bonedo: Wo wir jetzt schon beim Programmieren sind, lass uns doch an dieser Stelle ein bisschen in die Tiefe gehen. Ist es richtig, dass eure Software auf Physical Modeling basiert?

Urs Heckmann: Jein. Womit wir zurzeit sehr erfolgreich sind, ist Analog Modeling, also die Emulierung analoger Schaltkreise. Bei Physical Modeling modelliert man die physikalischen Gegebenheiten, also zum Beispiel eine Klaviersaite. Die Regeln sind bei beiden Verfahren die gleichen, aber für mich sind das zwei verschiedene Dinge. Was Physical Modeling angeht, da haben wir gerade ein Forschungsprojekt mit einem Drumsynthesizer, das wir gerade noch einmal komplett neu aufrollen. Das ist eine sehr komplexe Angelegenheit, tatsächlich macht das bei uns aber jemand anderes und nicht ich.

bonedo: Analog Modeling ist doch im Grunde das gleiche wie diese Computerprogramme, mit denen man elektrische Schaltkreise simulieren kann. Jetzt habe ich gelesen, dass das in Echtzeit immer noch gar nicht geht, weil es zu viel Rechenleistung kostet. Wie sieht das aus?

Urs Heckmann: Ja, das ist tatsächlich so nicht machbar. Man muss es so sehen: Bei einem Simulationsprogramm, wie du es eben angesprochen hast, also so etwas wie SPICE, da wird jedes Bauteil in eine Matrix eingetragen. Wenn man zum Beispiel von zehn Bauteilen ausgeht, dann ist diese Matrix so um die 15x15 Einträge groß. Und bei dem, was wir machen, dem sogenannten Newton-Raphson-Verfahren, da muss man diese Matrix invertieren. Allein schon das Invertieren dauert so lange, dass man das gar nicht in Echtzeit machen kann. Jetzt kann man aber hergehen und Bauteile bündeln und zum Beispiel aus drei Widerständen in einer Reihe eine einzelnes Element machen. Wir schaffen es bei den Filtern immer, das auf zwei bis fünf Einträge herunter zu rechnen. Und zwei bis fünf Einträge ist machbar, erst ab sechs wird das Invertieren schon total kompliziert. Vier Einträge sind total super und für einen typischen Vierpolfilter in klassischen Synthies, da reichen vier Einträge. Manchmal braucht man ein bisschen mehr und manchmal muss man eben auch ein bisschen tricksen. Das heißt konkret, dass man zum Beispiel nicht jeden klitzekleinen Effekt, den so ein Transistor drauf hat, auch tatsächlich programmiert, denn das geht einfach im Grundrauschen unter, das hört keiner.

bonedo: Kann man denn dann davon ausgehen, dass das, was Korg „Component Modeling Technology“ nennt und Roland „Analog Circuit Behaviour“, oder zum Beispiel auch die Oszillatoren, die Dave Smith in seinem Hybridsynth Pro 2 verbaut, dass das also im Prinzip alles das gleiche ist?

Urs Heckmann: Also das kann ich nicht sagen, ich kenne ja nicht deren Quelltext. Mit dem Entwicklerteam von der Korg Legacy Collection war ich ganz gut befreundet und wir haben bei Messen oder so auch mal ein bisschen über's Eingemachte gequatscht, und die haben im Grunde genommen so etwas ähnliches gemacht. Die sind halt von den tatsächlichen Widerstandswerten und den tatsächlichen Ladungen und all sowas ausgegangen. Aber sie haben damals, wenn ich das richtig verstanden habe, noch nicht dieses rekursive Verfahren wie das Newton-Raphson-Verfahren angewendet und für das, was wir jetzt "zero delay feedback" nennen, dazu waren die Rechner damals auch noch nicht schnell genug. Zero delay feedback, wo man keine künstlichen Verzögerungen mehr einbaut, machen wohl alle ungefähr gleich; da kann ich mir nicht vorstellen, dass da irgendwie geschummelt wird. Aber es gibt natürlich auch noch andere Verfahren, wie man diese Näherungen berechnen kann, da geht man dann halt nicht mit den selben Gleichungen ran wie in der Elektrotechnik. Wir benutzen halt die klassischen Gleichungen wie das Ohmsche Gesetz oder das Kirchhoffsche Gesetz.

bonedo: Wie würde das denn aussehen, wenn man es nicht mit Analog Modelling macht?

Urs Heckmann: Das ist das, was es bisher immer gab: abstrakte Filtertypen. Bei abstrakten Filtertypen geht man nicht von einzelnen Widerstandswerten, sondern zum Beispiel von Frequenzantworten aus. Da überlegt man sich, wie der Frequenzgang eines Filters aussehen soll, und dann arbeitet man mit Feedbackschleifen, Feedforwards und mit Delays, die ein Sample lang sind. Grob gesagt mischt man ein verzögertes Signal zu dem Originalsignal dazu und dann verzögert man auch wieder das gemischte Signal und mischt es wieder zurück, so dass man ein Feedback hat. Da gibt es schon seit Ewigkeiten Standardformeln, mit denen man berechnet, welche Faktoren man wie gewichtet, um welchen Frequenzgang zu bekommen. Das hat dann rein gar nichts mehr mit der Struktur der Schaltung zu tun und es gibt in diesen Formeln keine Entsprechungen mehr für diesen Widerstand und den Transistor und für dieses Teil hier und das Kabel da. Das ist dann eben nicht mehr Analog Modeling, sondern das, was man im klassischen Sinne digitale Filter nennt. Das ist das, was man in DSP halt immer gemacht hat. Wir nennen das „direct form filter“, also „direct form 1“ und „direct form 2“ und so weiter. Der wesentliche Vorteil der analogen Modellierung ist, dass man eben die entsprechenden Schaltungsteile hat, also direkt mit Widerständen und Transistoren arbeitet. Die digitalen Filter sind sehr theoretische, abstrakte Gebilde, und es ist extrem schwer, mit digitalen Filtern die Verzerrung so einzubauen, dass es wie ein analoger Synthesizer klingt. Bei einem Analog-Modeling-Filter gibt es diesen Transistor und jenen Op-Amp und die verzerren eben so und so und dann baut man halt die Verzerrung dort entsprechend ein. 

bonedo: Du hast vorhin gesagt, dass Zebra neu entwickelte Oszillatoren hat. Bei einem Großteil deiner Synthesizer benutzt du aber VCOs und DCOs, was doch erst einmal interessant ist, denn da könnte man sich ja fragen, wieso du mit dem Computer Dinge machst, die es doch eigentlich schon gibt. Du könntest doch auch etwas ganz anderes machen, also Dinge, die der Computer besonders gut kann: additive Synthese, Resynthese, stochastische Oszillatoren...

Urs Heckmann: Also, einen stochastischen Oszillator haben wir tatsächlich schon mal gemacht. Wir hatten einen Praktikanten, der wollte einen Tongenerator – Oszillator wäre vielleicht das falsche Wort gewesen – auf der Basis von Markov-Reihen machen. Der Tongenerator hat also durch stochastische Auswertung neue Töne generiert und die klangen auch völlig anders als das, was man vorher eingegeben hat. Das hat sich allerdings als nicht besonders beherrschbar erwiesen.

bonedo: Man könnte aber doch trotzdem fragen, wieso du mit dem Computer Sachen baust, die es doch eigentlich schon gibt.

Urs Heckmann: Bei diesen Emulationen ist es halt einfach so, dass mich das erst einmal persönlich fasziniert. Als wir mit DIVA angefangen haben, gab es zwar schon 100.000 Emulationen, aber der Stand der Technik war halt eigentlich ein anderer mit dieser Zero-delay-feedback-Geschichte. Da haben wir gesagt, das probieren wir jetzt einfach mal aus. Damals hat Hans Zimmer mir gesagt, dass für ihn Zebra immer noch der beste Synthesizer ist, dass aber die Einzelmodule von Creamware, heute Sonic Core, für ihn besser klängen. Und ob es helfen würde, wenn er uns seinen Minimoog schicken würde. Ja, und dann hat er uns seinen Minimoog geschickt und wir haben geschaut, wie der so klingt, und der hat eben dann doch anders geklungen als die ganzen Emulationen. Und das war genau die Zeit, in der angefangen wurde, über die Zero-delay-feedback-Sache zu diskutieren und so haben wir angefangen, die Schaltkreise des Minimoog damit zu emulieren. Außerdem hatte ich zu der Zeit auch schon angefangen, analoge Synthesizer zu sammeln. Ich hatte dann einen Juno-60 und später einen Jupiter-8 und gleichzeitig fanden wir heraus, wir man gut klingende analoge Filter und Oszillatoren baut. Die gab es zwar vorher auch schon, aber unserer Meinung eben noch nie so gut in Software.

bonedo: Aber du sagst doch, dass du eigentlich nach dem Textbuch gehst?

Urs Heckmann: Jaaaa…. da nicht! Bei den analogen Emulationen nicht. Kein Voodoo ist es bei den Sachen wie Zebra oder so. Aber ja, auch bei den analogen Emulationen benutzen wir Sachen, die man kennen kann oder eigentlich auch kennen müsste. Und es ist jetzt nicht so, dass wir irgendwas erfunden haben, das nicht in irgendeiner Art und Weise nicht vorher schon mal irgendwo aufgeschrieben war. SPICE, also die oben erwähnte Software zur Simulation von elektrischen Schaltungen, gibt es schon seit 1973. Die Prinzipien sind also schon lange klar. Wir haben halt unsere mathematischen Hausaufgaben gemacht und brauchen bloß eine kleine Matrix.

bonedo: Also kann man generell sagen, dass man schon lange weiß, wie es geht, und es liegt eigentlich nur an der Rechnerleistung. Und heute, wo man noch nicht die ganze Matrix berechnen kann, geht es vor allem darum, wie man die Vereinfachungen am besten hinbekommt?

Urs Heckmann: Ja, im Prinzip stimmt das, aber dazu muss man noch eines sagen: Das, was da so in einer Simulation passiert und das, was in der Realität passiert, ist auch noch ein bisschen was anderes. Wenn man eine Emulation von einem Synthesizer macht, dann muss man schon auch das Original da haben. Ich kann dir viele Beispiele nennen von Plugins, die so aussehen und auch so heißen wie ein analoger Synthesizer, wo ich mir aber sicher bin, dass derjenige, der das gemacht hat, dieses Teil nicht hatte. Da stimmen einfach zu viele Details nicht. Mit Repro-1 sind wir jetzt auf einem Level gelandet, der schon ziemlich extrem ist und wo es langsam wirklich schwierig wird, noch irgendwelche Unterschiede festzustellen – abgesehen davon, dass das Original billige Knöpfe hatte. Und das mussten wir empirisch machen, das geben die Modelle wie SPICE nicht her. Wir haben hier eine ganze Armada von Messinstrumenten, also Oszilloskope, Signalgeneratoren und solche Sachen. Und damit haben wir genau ausgemessen, welchen Einfluss die Elemente untereinander ausüben und welche Effekte man dadurch erwarten könnte. Und auch, welche davon messbar und hörbar sind und welche man vernachlässigen kann. Man weiß ja, wieviel Prozent Toleranz die Widerstände haben, die da verbaut wurden, und man weiß auch aus den Patenten und den diversen Schriften, dass zum Beispiel die Steuerspannung für den Cutoff – eigentlich ist es ja ein Steuerstrom – dass der auch auf's Signal übertragen wird. Und wenn du jetzt beim Repro-1 mit einem Oszillator die Filterfrequenz modulierst, den Oszillator im Mixer aber eigentlich stumm geschaltet hast, dann hörst du den Oszillator halt trotzdem ins Signal bleeden. Für solche Dinge mussten wir das Gerät eben aufschrauben und ausmessen, allein mit dem Modell kommt man da nicht weit genug.

bonedo: Physical Modeling, Analog Modeling, FM und was es da alles gibt, das wurde ja alles ursprünglich im universitären Bereich entwickelt und da wird ja auch heute noch geforscht. Lest ihr denn da aktiv die neuesten Ergebnisse?

Urs Heckmann: Also vielleicht ein paar von uns, aber mich interessiert es nicht. Mein Eindruck gerade von den Sachen, die du genannt hast ist der, dass man auf Biegen und Brechen versucht, die Sachen kompliziert darzustellen. Das sind so Rechtfertigungsergüsse, wo man einen sehr sehr sehr sehr einfachen Sachverhalt nimmt und dann ein Formelkonstrukt erfindet und das dann auf mehrere Webseiten verteilt, um es möglichst kompliziert aussehen zu lassen. Da könnten wir zum Beispiel noch einmal auf die digitalen Filter zurück gehen, die natürlich dort auch erforscht und propagiert werden. Wir benutzen inzwischen ein einfaches Modell, das aus zwei Widerständen, zwei Kondensatoren und einem idealen Op-Amp besteht. Das ist ein ganz einfaches Ding mit gerade einmal zwei Zeilen Formeln. Damit bekommen wir genau dieselben Filter hin – und damit meine ich absolut dieselben, also mathematisch identischen Filter – als die mit einem Konstrukt, wo die Berechnung der Filterfrequenz und der Typen nochmal zwei Zeilen Code sind. Was dort verwendet wird, das sind abstrakte Modelle mit einer S-Plane, und die S-Plane wird übertragen auf die Z-Plane, weil die Z-Plane einen unit circuit hat, und dafür gibt es dann Formeln... das ist ein dermaßen abstraktes und schwer fassbares Gebilde, also für mich persönlich ist das schwer fassbar, da kriegst du die Krise. Ich habe früher diese digitalen Filter benutzt, und wenn wir die jetzt durch unsere neuen Filter ersetze, dann zeigen unsere internen Tests jedes Mal, wenn wir die Software kompilieren, dass das Ergebnis absolut identisch ist. Wir haben also ein identisches Ergebnis mit einem so viel einfacheren Rechenweg, dass es einfach weh tut. 

bonedo: Jetzt hast du ja letztes Jahr über fünf verschiedene Filter abstimmen lassen. Du hast also fünf verschiedene Filter für den Repro-1 vorgestellt – also eurer Emulation des Sequential Circuits Pro One – und die Leute konnten auf KVR, Gearslutz und Sequencer.de abstimmen, welches für sie das Modell ist, das am analogsten klingt. Und natürlich hat jeder seine Meinung mit Hauen und Stechen verteidigt und war der Überzeugung, dass nur seine Auswahl die einzig echt analog und original klingende ist. Aber wenn man sich die Ergebnisse ansieht, dann gab es keinen echten Gewinner, weil sich die „Gemeinde“ nicht auf einen Sieger einigen konnte. Lässt dich das den Glauben an die Menschheit ein bisschen verlieren?

Urs Heckmann: Nein. Also, was man schon gemerkt hat, war, dass die Leute den Cracks folgen. Wenn jemand der hoch angesehen ist, für ein bestimmtes Modell gestimmt hat, dann sind viele diesem Urteil gefolgt und haben dann auch so gestimmt. Aber es gab ein Metaergebnis, das jenseits dessen war, was die Leute bevorzugen oder nicht bevorzugen, und dieses Ergebnis war, dass es tatsächlich hörbare Unterschiede gibt und dass die Leute tatsächlich auch qualifizieren konnten. Es gab also Leute, die gesagt haben, ja, bei dem Filter passiert das und das und bei diesem Filter passiert das und das. Das war auch schon ein Ergebnis. Der Filter, der übrigens am häufigsten bevorzugt wurde, war derjenige, der prinzipbedingt der lauteste ist und demzufolge auch am meisten verzerrt.

bonedo: Was ist denn schwieriger zu emulieren, Filter oder Oszillatoren?

Urs Heckmann: Also, bei den Filtern ist die Mathematik insgesamt komplizierter, aber da kann man sagen, dass man extrem nah am analogen Modell dran sein kann. Bei den Oszillatoren ist das noch anders. Problematisch ist hier die Entladung des Kondensators, die zu diesen „Überschwingern“ führt, wie man sie zum Beispiel auch auf einem Oszilloskop beobachten kann. Dieses Problem könnte man nur durch 200faches Oversampling lösen, aber das kostet zuviel CPU. Da müssen wir tatsächlich in die Trickkiste greifen und diese Unregelmäßigkeiten anders simulieren.

bonedo: Das ist also vielleicht etwas, was man mit stärkeren Rechnern in der Zukunft noch besser machen kann. Werfen wir doch mal einen Blick in die Zukunft: Wohin siehst du Entwicklung gehen?

Urs Heckmann: In 20 Jahren sitzt das, was man jetzt als Rechner vor sich stehen hat, auf einem USB Stick. Das funktioniert dann so, dass du dir deinen Controller mit einem 3D-Drucker einfach ausdruckst und da hinein den USB Stick steckst und Poff! hast du deinen Synthie. Und tatsächlich glaube ich, dass es das schon früher geben wird. Klar, man wird nicht darum herum kommen, Platinen herzustellen, aber auch das kostet heute nicht mehr die Welt. Sobald du dir eine Platine ausdenken, durchrechnen und durchmessen kannst, kannst du dir auch einen Prototypen machen lassen. Und zwei Wochen später kriegst du 1000 Stück davon geliefert. Das kostet dann pro Stück vielleicht 10 bis maximal 30 Euro. Dann macht man da noch eine Logistik darum herum, das sind noch einmal 50 Euro, dazu kommt die Händlermarge – die Wahrnehmung, dass Hardware unheimlich viel teurer als Software ist, ist also totaler Quatsch. Aber für uns ist er halt praktisch, Software zu machen, weil wir sie über das Internet verticken können.

bonedo: Wo wir gerade bei Preisen und Margen sind: Bei Musikstreamingdiensten bekommt man fast alle Musik der Welt für zehn Euro im Monat. Ist das bei Software auch denkbar?

Urs Heckmann: Ich sehe diese ganze Entwicklung zu Clouddiensten und Abonnements recht skeptisch. Ich muss hier jeden Monat eine ziemlich gewaltige Summe aufbringen, um 15 Leute zu bezahlen. Wir könnten uns nicht vorstellen, von einem Tag auf den nächsten alle Produkte in ein Abonnement zu überführen. Wenn wir dann für ein Jahr nur die Hälfte Umsatz machen, dann müsste ich acht Leute entlassen.

bonedo: Aber ich will ja für die 10 Euro im Monat nicht nur die Produkte von u-he, sondern auch die von Adobe, Apple und Microsoft.

Urs Heckmann: [lacht] Ja ja, viel Spaß. Da muss es ja irgendwen geben, der ausrechnet, wer wieviel bekommt. Das ist alles irgendwie… Mein ganzer Bekanntenkreis besteht fast nur aus Musikern, und die verdienen daran nichts. Du kannst noch so berühmt sein, bei Streaming kommt nichts rüber. Da gibt’s vielleicht zwei, drei Bands, die davon leben könnten. Bands wie Radiohead können ja sogar davon leben, dass sie ein Album umsonst heraus geben, aber für „normale“ Musiker“ bringt das alles nichts.

bonedo: Letzte Frage: Arturia hat auch mit Software angefangen, hat dann Controller gemacht und jetzt machen sie Hardware Synthesizer. Was sind eure Pläne?

Urs Heckmann: Also, für mich wäre das naheliegendste, einen Controller zu machen. Wir haben schon mal mit Arduino als Referenzimplementation einen Prototypen für Diva gebaut. Das haben wir im alten Büro in der Küche gebaut und das hat auch alles funktioniert, aber da haben wir so eine Sauerei gemacht, das ging gar nicht. Am ehesten wäre aber ein Controller denkbar.

bonedo: Urs Heckmann, vielen Dank für das Interview!

Verwandte Artikel

User Kommentare