ANZEIGE

Impulse Responses und Gitarrenboxen

Was für professionelle Produzenten, aber auch für Projektstudiobesitzer schon ein alter Hut ist, findet im Laufe der letzten Jahre immer mehr den Weg von den Studioräumen auf die Bühnen und auch in das Live-Equipment von Gitarristen. Die Rede ist von Impulsantworten, auch “Faltungen”, Impulse Responses oder schlichtweg IRs genannt. In den heiligen Studiohallen kam diese Technologie zuerst in Form des Faltungs-Halls zum Einsatz, doch spätestens, seit es Amp-Softwarelösungen wie den Peavey Revalver oder das Native Instruments Guitar Rig gibt, war es auch möglich, IRs von Gitarrenlautsprechern in der DAW einzusetzen. Der nächste Schritt war abzusehen: Faltungen in Live-Equipment! Und schon bald fand man diese digitale Lösung in Produkten wie dem Axe-FX, Kemper, Mooer Radar, Line 6 Helix oder Avid Headrush.

1806_Impulse_Responses_Gitarrenboxen_1260x756_v01b


Was sich genau dahinter verbirgt, wie Faltungen entstehen und was es zu beachten gilt, soll hier aufgezeigt werden. Dazu besuche ich Markus Hohmann, den Gründer des deutschen IR-Anbieters cabIR.eu, der auf seiner Website unzählige Faltungspakete von diversen Gitarrenboxen-Modellen zum Download anbietet und etwas Licht in das Technikdunkel bringt.

Fotostrecke: 2 Bilder Markus Hohmann

Was ist eine IR?

Ganz untechnisch gesprochen handelt es sich bei einer Impulsantwort um das Festhalten der Differenz zwischen einem Eingangs- und Ausgangssignal. Am Anfang steht ein Signal, mit dem man ein System anregt, sprich, ein Impuls. Früher war das noch ein Pistolenschuss, mittlerweile setzt man auf die sogenannte Sinus-Sweep-Methode, da diese ein besseres Signal-to-Noise-Ratio (SNR) oder Signal-Rausch-Abstand liefert und alle Frequenzen besser und gleichmäßiger abbildet. Dazu nimmt man ein sinusförmiges Audiosignal, das den Frequenzbereich von 20 Hz bis 20 kHz durchläuft und so dafür sorgt, dass alle Frequenzen in der gleichen Lautstärke und in der gleichen Zeitdauer aufgezeichnet werden können.

Audio Samples
0:00
Sound File vom Sinussweep

Dieses Signal wird nun durch das Objekt geschickt, das man “capturen” bzw. falten will, in unserem Fall die Gitarrenbox. Das nächste Glied in der Kette ist das Mikrofon, das in einer bestimmten Position platziert ist und die Antwort des Impulses festhält.
Nun besitzt man zwei Files:
1. Das Eingangssignal, ein absolut linearer Sinus-Sweep durch alle Frequenzen.
2. Die Antwort, die vom Mikrofon durch die Box aufgenommen wurde. In letzterer sind ebenfalls alle Frequenzen abgebildet, aber die Lautstärken der Einzelfrequenzen sind nicht mehr gleich laut. Das liegt daran, dass der Gitarrenlautsprecher erst ab 50 – 60 Hz langsam anfängt zu arbeiten und seinen Peak, je nach Speaker, bei ca. 90 – 100 Hz hat. Das heißt, dass alles unterhalb dieser Schwelle im Verhältnis zum Eingangssignal leiser aufgenommen wird, wohingegen andere Frequenzen lauter wiedergegeben werden.
Vergleicht man nun in einem rechnerischen Prozess das Eingangs- mit dem Ausgangssignal, bleibt die Differenz der beiden Signale übrig, die Impulsantwort. Diese können nur lineare Ereignisse festhalten und keine Non-Linearitäten, also keine Events, die in der Zeit ihren Sound verändern.

Video: Guitar Cabinet Impule Respones Comparison (Sound Demo)

Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen

Sie sehen gerade einen Platzhalterinhalt von Youtube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Das Interview:

Was ist der Unterschied zwischen z.B. einem Faltungshall und einer Speaker-Faltung?
Technisch gesehen ist das der gleiche Vorgang, nur dass bei Reverbs ein längerer Zeitraum festgehalten wird, also mehrere Sekunden. Das heißt, die IRs benötigen mehr CPU-Berechnung bei der Nutzung, da mehr Information auf der Zeitachse (= Nachhallzeit des Raums) verarbeitet bzw. abgebildet werden muss. Man schießt das Messsignal über ein lineares System in den Raum, also neutrale Studiomonitore, und nimmt diese über die gesamte Nachhallzeit des Raumes ab. Die wichtigsten Kennziffern sind die Frequenzkurve und die Zeit. In der Zeit werden nur lineare Ereignisse festgehalten und der Hall ist linear, er verändert nicht seine Klangfarbe, sondern wird nur leiser.
Übrigens ist EQ- und Tone-Matching ebenfalls der gleiche Vorgang wie das Falten: Das Input-Signal wird vom Output-Signal abgeglichen, also immer eine Dual FFT (Dual Fast Fourier Transformation)
Was ist der Unterschied zwischen einer analogen Speakersimulation und einer Faltung?
Bei der analogen Variante wird quasi der Filter und das EQing durch analoge Bauteile generiert, das bedeutet aber auch, dass nur eine begrenzte Anzahl von Frequenzbändern bearbeitet werden kann. Es wird versucht, den Grundcharakter der Gitarrenbox nachzuahmen, und da diese eben nicht linear, also Full-Range Flat-Response (FRFR) ist, gibt sie unterschiedliche Frequenzen entweder lauter oder leiser wieder. Das Cabinet wirkt wie ein physischer Equalizer, der die Frequenzkurve, die vom Amp kommt, extremst beeinflusst und ganz grob gesehen erst Frequenzen ab ca. 100 Hz voll wiedergibt. Darunter funktioniert es wie ein Low-Cut- oder Low-Shelf-Filter. Oberhalb von +/- 3 – 5 kHz wirkt es vergleichbar einem Hi-Cut bzw. Hi-Shelf-Filter. Das wäre quasi schon eine sehr einfache Speakersimulation, wobei die meisten auch noch Filter im Mittenband haben und irgendwo zwischen 500 und 2000 Hz eine Delle einbauen. Die meisten arbeiten mit drei bis elf Bändern, wie beispielsweise die Rivera.
Eine IR könnte man sich nun wie einen EQ mit theoretisch unendlich vielen Bändern vorstellen, je nach Resolution und Länge der IR, die eine Box dadurch viel akkurater abbildet. Der Unterschied ist also nicht einfach nur analog vs. digital, sondern eine IR hat eine unendlich viel feinere Frequenzrasterung als das analog in einem EQ realisierbar wäre. Demnach wirkt eine Cab IR, von Raumklang-Eigenschaften abgesehen, im Prinzip auch nur wie ein EQ.

Typisches EQ Diagramm eines Speakers
Typisches EQ Diagramm eines Speakers

Was zeichnet die Qualität einer IR aus bzw. was sind die entscheidenden Parameter?
Zum einen ist das natürlich der handwerkliche Aspekt, also wie und unter welchen Bedingungen die IR erstellt wurde, wobei hier auch geschmackliche Komponenten mitspielen. Andere Aspekte sind ganz handfeste Parameter wie Abtastrate und Bit-Tiefe. Die Bit-Tiefe ist eigentlich nicht sonderlich wichtig, da wir keine Dynamik in der Faltung haben. Entscheidend ist hingegen die Auflösung, da ich ja primär Frequenzen gut darstellen will.
Bei einem Line 6 Helix beispielsweise wird mit 48 KHz gearbeitet und es können IRs mit 2048 Samples geladen werden. Das bedeutet 2048 Samples geteilt durch 48.000 Abtastungen pro Sekunde, was 42,67 ms ergibt. Das ist dann die Time-Domain, die Länge meiner IR. Je länger, desto feiner ist die Auflösung bzw. technisch inkorrekt, aber bildlich gut vorstellbar gesprochen: Desto feiner sind meine EQ-Bänder gerastert.
Bei 2048 Samples könnte man sich also einen EQ mit 2048 Bändern vorstellen, der die Frequenzkurve äußerst realitätsnah darstellen würde. Die Sample-Rate in Verbindung mit der Sample-Länge bestimmt also, wie fein und damit realitätsgetreu der Klang der mikrofonierten Box als IR festgehalten wird.
Wie verhält es sich mit dem Raum, in dem ich die Faltung aufnehme?
Wenn ich eine IR aufnehme, tue ich das ja nicht im absoluten Vakuum, sondern immer in einer Umgebung mit bestimmten Raumanteilen, bestimmter Nachhallzeit und Bedämpfung bestimmter Frequenzen.
Das wirft die Frage auf: Was bedeutet es, wenn ich in einer Impulse Response gezwungen bin, eine gewisse Zeitlänge zu inkludieren? Bei 2048 Samples habe ich 43 ms und ich nehme auch die Erstreflektionen der Räume mit dem Amp-Mike auf. Der Schall hat bekanntlich eine Geschwindigkeit von ca. 30 cm pro ms, das heißt, wenn die IR eine Laufzeit von 43 ms hat, erhalte ich 43 x 30 cm, also ca. 13 m Schalllaufzeit, die zwangsweise mit in der IR inkludiert ist.
Bei langer Sample-Auflösung habe ich also den Raum mit eingeschlossen. Bei Reverbs will ich das ja, bei Cab IRs eigentlich nicht. Auch hier landen wir bei der philosophischen Frage, ob ich die Auswirkungen des Raums mit in die IR einschließen will, wie es ja auch in der Praxis, beispielsweise einer Studioproduktion, zwangsläufig der Fall ist? Oder versuche ich in möglichst schalltoter Umgebung ausschließlich den Sound der Box, des Speakers, des Mikrofons und dessen Position zum Speaker aufzuzeichnen?
Wenn ich das Paradigma fahre, nur die Cab mit Mike abzubilden, dann sollte kein Raumanteil dabei sein. Das führt natürlich zu Kontroversen. Die einen sagen: Ich will die Realität abbilden und der Raum gehört dazu. Dann bedeutet das allerdings auch, dass ich längere Sample-Zeiten benötige und damit auch zum Beispiel durch Abstrahlung vom Boden die Bassfrequenzen und mehr “Bumms” im Lowend-Bereich erhalte, denn der Boden ist ja die nächste Fläche zum Mikrofon.
Normalerweise wird im Studio auch viel close miking verwendet, bei dem das Lautstärkeverhältnis zwischen Direktsignal zu reflektiertem Signal von Wänden viel krasser ist als bei einem Raumhall, bei dem die Lautstärke der Reflexion manchmal genauso laut sein kann wie das Direktsignal.
Also: Je näher das Mikrofon an einer lauten Gitarrenbox steht, desto weniger wichtig wird der Raum, der in Relation viel leiser ist. Dennoch ist er da, denn die Nachhallzeit ändert sich nicht, sie ist nur leiser!

Markus Hohmann im Marshall-Museum

Du bietest bei cabIR.eu in deinen IRs Sample-Längen von 170 ms und 500 ms an. Warum diese beiden Größen?
Wenn ich über die Nachhallzeit hinausgehen und Raum- und Ambience-IRs machen würde, die mehr als 170 ms Länge haben, würden diese in den Hardware-Systemen von z.B. dem AXE FX radikal bei 170 ms abgeschnitten, was dann ähnlich einem Gated Reverb klingen würde.
Bei 500 ms habe ich die Möglichkeit, die komplette IR darzustellen, was immer dann sinnvoll ist, wenn der Raum gut klingt, wie z.B. bei den IRs vom Marshall-Museum. In Hardware IR-Playern kann man die jedoch nicht voll verwenden, da sie systembedingt immer eher abschneiden. Allerdings funktioniert das in manchen Convolution Host Plug Ins.
Bei den 170 ms IRs fade ich den Nachhall bei 170 ms aus, um nicht den harten Beschneidungs-Cut in den Hardwareplayern zu erhalten.
Man sollte das aber auch nicht überbewerten! In einem akustisch guten Raum habe ich spätestens bei Close Miking oft schon unter 120 ms RT60, das Signal wird also um 60db leiser und ist in der Praxis schon nicht mehr wahrnehmbar. Interessant werden längere Zeiten erst, wenn ich Ambient- und Raummikrofonierungen abbilden will, in der Praxis – egal ob studio oder live – kommt aber zu 99% eher close miking vor.
Der Mooer Radar ist ja mittlerweile bei einer Länge von 1024 ms, das Helix bei 2048 usw. Normalerweise sind die Zeiten so gewählt, dass keine Raum IRs von einem Cabinet wiedergeben werden können. Der Grund ist schlichtweg der, dass Faltung viel Prozessorpower benötigen, um in Realtime umgesetzt zu werden, und Latenz will man ja beim Spiel nicht. Je kürzer die Files, desto weniger Prozessorleistung benötige ich.
Bei vielen Software-Plugins wie dem Guitar Rig und Revalver kommt auch IR-Technologie zum Einsatz, und auch hier wird schon eher abgeschnitten, da die 1024 Samples ausreichen. Den Klangunterschied zwischen 512 und 1024 Samples würde man am ehesten im Bassbereich wahrnehmen, denn Bassfrequenzen sind langwelliger. Wenn man bei manchen frühen IR-Playern hier etwas Lowend vermisst, könnte das daran liegen, allerdings reden wir hier von einem Frequenzbereich, der sowohl im Studio als auch live ohnehin vom Tontechniker gecuttet werden würde.
Man verwendet zur Übertragung des Inputfiles auf den Speaker meistens Transistorendstufen. Was ist hierfür der Grund?
Vereinfacht ausgedrückt: Gitarren-Röhrenverstärker haben einen niedrigen Dämpfungsfaktor, das heißt, Röhrenendstufen reagieren auf den Stromrückfluss der Box, die eine reaktive Last darstellt. Es entsteht eine nicht lineare Impedanzkurve, die sich klanglich auf das Inputsignal, also den Sine-Sweep, auswirkt. Einfach ausgedrückt: Der Röhrenverstärker gibt nicht mehr den Sine-Sweep unverändert an die Box ab, sondern die Eigenresonanzfrequenz der Box wird extrem überhöht und auch im Presence-Bereich tut sich einiges.
Das sind die beiden Parameter, die man bei Röhrenverstärker mit Presence oder Resonance oder Deepswitch regulieren würde. Das negative Feedback des Amps korreliert mit dem Voltage-Feedback der Box. Je weiter ich den Amp aufreiße, desto weniger kommt die Impedanzkurve im Rückfluss wieder an und dann flacht die Kurve tonal ab.
Diesen Effekt habe ich auch, wenn ich bei einem Röhrenverstärker den Masterregler aufdrehe. Das Signal wird dann mittiger und man nimmt die Bässe weniger wahr. Im Ergebnis würde ich beim Abgleich von Input- und Outputsignal bei der IR-Erstellung nun auch diesen Eigenklang des Röhrenamps mit in die IR inkludieren. Die Frage ist nun wieder: Will man das?
Wenn das Ziel ist, realitätsgetreu “silent recording” zu betreiben, dann stellt es sich so dar: Realer Röhrenamp an eine resistive Last und von da in den Convolution Host, egal ob Soft- oder Hardware. Die resistive Last verursacht eine flache Impedanzkurve, im Gegensatz zu der reaktiven Last, die eine Gitarrenbox verursacht. In diesem Fall macht es Sinn, die Impedanzkurve mit in die IR einzuschließen, um im A/B-Vergleich zwischen mikrofonierter Box und der IR davon auf möglichst identische Ergebnisse zu kommen.
Nutze ich hingegen einen Modeller, sollte dieser schon in der Ampsimulation diese Klangbeeinflussungen berücksichtigen. Ebenso würde die Nutzung einer reaktiven Last eine non-lineare Impedanzkurve generieren. In diesen Fällen darf der Einfluss des Röhrenamps nicht mit in der IR inkludiert sein, will ich das Ergebnis mit dem Klang des real mikrofonierten Amps identisch haben.
Für cabIR.eu IR-Bibliotheken nutze ich mittlerweile ausschließlich eine hochwertige Transistorendstufe. Sie ermöglicht ein besseres Signal-to-Noise-Ratio (SNR), nimmt aber die Möglichkeit, auch IRs zu produzieren, die das Röhren-Endstufenverhalten berücksichtigen. Da 99% der Anwendungsfälle mittlerweile sowieso in Verbindung mit Modellern und/oder Verstärkern stehen, die mit einer reaktiven Last betrieben werden, setze ich inzwischen zugunsten des besseren SNR auf eine hochwertige Transistorendstufe, die mein Input-Signal verstärkt. Zwar hat auch diese keinen unendlich hohen Dämpfungsfaktor, beeinflusst also auch – mehr messbar als hörbar – das Signal, aber ich kann bei der IR-Erstellung diese Einflüsse mathematisch herausfiltern, womit der selbst nur noch theoretische Einfluss der Endstufe faktisch auf Null reduziert wird. Ich nenne das “Flat-Amp-voicing”: Die IRs enthalten nur noch den Content aus Box, Lautsprecher, Mikrofon, Mikrofonpositionierung, und um präzise zu sein, natürlich den akustisch optimierten Raum, in dem meine Shootings stattfinden.
In der folgenden Grafik seht ihr eine gerade rote Linie, die eine idealisierte, lineare Endstufe aufzeigt, darüber in Blau den Unterschied zur nichtlinearen Impedanzkurve einer Röhrenendstufe. Die beiden Graphen darüber zeigen, welche Auswirkungen die Verwendung dieser unterschiedlichen Endstufen auf die IR hätte:

Unterschied Transistor vs. Röhrenendstufe
Unterschied Transistor vs. Röhrenendstufe

Variiert das Speaker-Verhalten bei unterschiedlichen Lautstärken und kann das dann überhaupt in einer IR eingefangen werden?
Ein häufiger Kritikpunkt ist: “Das IR-Konzept ist noch unstimmig, denn Speaker klingen unterschiedlich, wenn sie mit verschiedenen Lautstärken bespielt werden! Nur ein aufgerissener Amp klingt geil!”
Hier entgegne ich aber: Es ist nicht der Speaker, der anders klingt, sondern der Amp bzw. die Endstufe, die je nach frequenzabhängigem Output (Thema Impedanzkurve, reaktive Last) anders reagiert.
Hinzu kommt der Fletcher-Munson (psychoakustisches Phänomen, das den Höreindruck in Abhängigkeit von Lautstärke beschreibt). Solange die Membran intakt ist und keine Partikularschwingungen erzeugt, ist der Speaker eben sehr wohl ein lineares System, es sei denn, man übersteuert die Box außerhalb ihrer Spezifikationen, und das habe ich auch in Messungen bestätigen können. Das würde ja auch bedeuten, dass Musik auf einer HiFi-Anlage oder über Studiomonitore anders klingen würden, wenn man sie unterschiedlich laut bespielt, und so ist es ja nicht.
Wie wird die ideale Position der Mikrofonierung des Cabs bestimmt, wenn ich die IR machen will?
Die unterscheidet sich deutlich von der Herangehensweise, die live oder im Studio üblich ist. Ein Live-Techniker kann das auf “Sicht” und durch Erfahrungswerte machen, wobei der dann am Mischpult oft noch mit dem EQ arbeitet. Im Studio wird hingegen nach Gehör eingestellt und man rückt die Mikrofone, bis das gewünschte Ergebnis erzielt wurde. Es fällt oft der Begriff Sweetspot. Für mich ist das die subjektive Mikrofonposition, welche die vorhandene Klangkette vom Spieler über die Gitarre, Pickup, Verstärker, dessen Einstellungen, bis zur Gitarrenbox so komplimentiert, dass der subjektiv bestmögliche Sound entsteht. Und der kann unterschiedlich sein und muss im Kontext einer Band womöglich angepasst werden. Das ist immer eine subjektive Entscheidung, die auch immer vom Player und Equipment abhängig ist und je nach Amp und gewünschtem Sound würde ich auch unterschiedlich mikrofonieren.
Wenn ich hingegen eine IR schieße, habe ich eine vollkommen andere Ausgangssituation, ich kenne nämlich die Klangkette des Users nicht und weiß auch nicht, wie es für den Player am Ende klingen soll, das bedeutet, dass auch seine Präferenzen unbekannt sind.
Wenn ich nun ausgehend von meiner Klangkette mikrofonieren würde, heißt das noch lange nicht, dass es auch mit der Klangkette eines Dritten “perfekt” klingen müsste, denn das Mikrofon wirkt ja quasi wie ein EQ und du wirst bei einem Marshall Plexi mit Treble-Booster und einer Strat mit Steg-Singlecoil mit dem Mike vermutlich nicht direkt in den Cone gehen, sondern eher versuchen, das Signal etwas abzumildern und es Off Axis platzieren.
Ich brauche also eine andere Systematik, um nicht unter subjektiven Bedingungen eine IR zu generieren. Aus diesem Grund bestimme ich die Position weder optisch noch über das Gehör, sondern messe sie aus. Ich schaue mir die Frequenzkurven in Realtime an und ermittle so meine Punkte. In den Frequenzkurven sehe ich dann aufgrund von Erfahrungswerten, wo nach objektiven Gesichtspunkten optimale Positionen liegen. Grundlegend muss ich mir also objektive Kriterien suchen, da ich mich nicht an subjektive anlehnen kann.
Gute IR-Libraries haben dennoch natürlich mehrere Mikrofonpositionen zur Auswahl und ich biete in meinen cabIR.eu IR-Bibliotheken auch diverse Mix-IRs an, die Mischungen aus unterschiedlichen Mikrofonen und/oder Positionen abbilden. Manche sind dabei so komplex, wie man es in einer Studiosituation gar nicht nachstellen könnte. Diese sind extrem balanciert, “phasige”, verschmierende Effekte sind absolut minimiert und sie funktionieren generell meist sehr, sehr gut.
Was fängt eine Cab IR dann alles ein?
Das ist im Prinzip das Cabinet mit Speakern, das Mikrofon, die Position und bei Close Mike Positionen mit möglichst minimalen Rauminformationen. Mit der Solid-State-Endstufe ist man dann weitestgehend linear, wobei ich sogar diesen Anteil noch mathematisch rausrechne, damit ich, wie gesagt, den idealen, nämlich absolut linearen Verstärker habe.
Wie verhält es sich mit dem Sound von Mikrofonvorverstärkern in IRs? Im Studio kann es doch einen Unterschied machen, ob ich jetzt einen API oder Chandler Mike Pre verwende.
Die Frage ist natürlich: Was macht denn so ein Preamp? Zum einen färben sie und können auch das Signal über die Eingangs- und Ausgangstrafos komprimieren, je nach Gain. Beim Kemper wird in einem Profil natürlich der Mike-Preamp mitgeprofilt. Im AXE FX kann man sich z.B. eine Preamp-Simulation selbst erstellen.
Da ich ausschließlich die Box und Mikrofonposition in meinen IRs haben will, also möglichst authentisch den Klang transportieren will, den ein Mikrofon von einer Box einfängt, arbeite ich ausschließlich mit einem hochwertigen, klangneutralen Preamp. Hier rechne ich übrigens ebenfalls selbst die noch theoretischen Non-Linearitäten des verwendeten Preamps mathematisch raus. Also auch hier: Null Einfluss des Preamps auf das Klangergebnis der IR. Ich lege auf saubere Signalwege sehr großen Wert.
Die Frage ist, will man den Preamp mit aufnehmen oder nicht? Für mich und cabIR.eu gilt, wir wollen es nicht, auch aus folgendem Grund: Wenn ich den Preamp mit aufnehme, hat der Nutzer wieder eine unbekannte Variable mehr im Signalweg. Ist das, was ich höre, nun das Cabinet, der Amp, das EQing, der Mikrofon-Preamp, Beeinflussungen der Endstufe?
Meine IRs sollen so rein wie möglich sein, ohne Endstufe und ohne Preamp, also nur das, was das Mikrofon hört, das vor der Gitarrenbox platziert ist. Meine IRs sollten den Test bestehen: Wenn ich die Box mit bestimmter Mikrofonierung in bestimmter Position in einem bestimmten Raum live aufnehme und vergleiche die Aufnahme mit der IR, sollen diese identisch klingen. Ich will also eine IR, die es ermöglicht, maximal authentisch das zu reproduzieren, was die originäre Klangkette produziert. Priorität eins ist Authentizität im Vergleich zur Realität. Nicht mehr, nicht weniger. Das ist immer der Grundgedanke hinter jeder cabIR.eu IR. Preamps verdichten und sind eben nicht linear.
Impulse Responses können, wie erwähnt, keine Non-Linearitäten festhalten, sondern nur ein lineares Ereignis in der Zeit. Ich kann also keine Verzerrung (Klirrfaktoren) in der Zeit festhalten und auch nicht unterschiedliches Kompressionsverhalten je nach Lautstärke. Solange Teile der Kette non-lineare Events erzeugen, kann die Impulse-Response-Technik das nicht abbilden, sondern nur Frequenz-Beeinflussungen, lineare Ereignisse in der Zeit. Das spricht alles gegen ein Mitfalten der Mic-Preamps.
Wie entsteht dann die Klangbildung bei digitalen Gitarrenamps, sein das AXE FX, Helix oder Kemper?
Bei Modellern wie dem AXE FX wird die non-lineare Komponente, also der Amp selbst, digital im Amp-Block nachgebildet und die lineare Komponente, also die statische Frequenzkurve, wie der abgemikte Speaker durch IR-Technologie. Beim Kemper hast Du dein Profil, das durch die komplette Klangkette erzeugt wurde und wohl durch die Messsignale auch die non-linearen Eigenschaften des Amps adaptiert, aber ein Teil des Sounds ist natürlich auf Basis von IRs, denn man kann ja auch Faltungen reinladen.
Was sind für dich Empfehlungen für IR-Plugins, als “Cab Loader” oder Convolution Hosts – sowohl als Freeware als auch erwerbbare?
Im Freeware-Bereich empfehle ich den LePou “Le Cab 2.0” Hier kann man bis zu sechs IRs mischen, allerdings werden momentan nur 32bit-Systeme unterstützt. Alternativ gibts noch den Ignite “NadIr”, hier gehen nur 2 IRs simultan, aber diverse Auflösungen sind möglich, Ansonsten gibt es wirklich unzählige Freeware-Lösungen. Käuflich ist z.B. das FAS Cab Lab mit bis zu acht IRs und man sieht in Realtime den Graphen der Frequenzkurven. Das Cab Lab ist als Standalone und als Plug-In erhältlich. Normalerweise hat aber auch jede DAW irgendwelche IR-Loader on board.
Wie löst man Phasenprobleme, wenn man mehrere IRs gleichzeitig laden will und wenn diese unterschiedliche Laufzeiten haben?
Zuerst muss man schauen, ob die überhaupt unterschiedliche Laufzeiten haben. Ich biete bei den cabIR.eu Bibliotheken immer beide Möglichkeiten an: time alignte “MPT” IRs und “RAW” IRs, die die authentischen Laufzeitinformationen enthalten. Mit dem MPT, also “minimal phase transform”, beginnen die IRs gleich mit dem ersten Sample, man entfernt das Predelay und macht die Phase platt, flapsig gesagt. Mischt man diese IRs, sind sie immer 100% in Phase.
Ich biete allerdings auch sogenannte “RAW-IRs” an, bei der ich die Laufzeit zwischen Membran und Mikrofon, die manchmal bis zu ca. 20 cm entfernt sein können, inkludiert habe. Man muss sich vorstellen, 30 cm sind 1 ms bei 48 kHz, also 48 Samples, das wären bei 20 cm Mikrofonabstand dann 32 Samples, und da hört man definitiv Phasenprobleme, wenn man sie mit einem Close Mike mixt, das vielleicht direkt am Grill “klebt” und nur wenige Samples pre-delay hat.
Manche IR-Loader haben jedoch auch einen Delay-Regler, mit dem man die Differenzen ausgleichen kann und die IRs in Phase regelt.
MPTs kann man also ohne Phasenprobleme mischen. Die RAWs sind die authentischeren Files, die man aber auch untereinander mischen kann, dadurch entstehen manchmal auch leichte Kammfilter-Effekte, die sich häufig in Höhenauslöschungen bemerkbar machen. Die Höhen werden dadurch manchmal etwas runder und seidiger, die Ergebnisse werden aber auch phasiger und weniger direkt, dafür können sie viel “Charakter” im Sound machen. Letztendlich können zwei Mikrofone aufgrund der Eigenschaften der Gitarrenbox bzw. des konischen Speakers ohnehin in der realen Welt nie wirklich 100%ig in Phase sein.

Diagramm: Unterschied MTP-RAW
Diagramm: Unterschied MTP-RAW

In deinen IR-Paketen sind ja viele verschiedene Faltungen pro Gitarrenbox. Hast du eine gewisse Ordnerstruktur und wie sieht die aus?
Zuerst gibt es den “Overview” oder “Quickstart”-Ordner mit 10 – 12 IRs, der ein Rundumschlag aller Folder ist, um das Paket kennenzulernen. Darin befindet sich die FOCUS_CAB bzw. CAB_MULTI IR und ich rate den Usern, immer damit anzufangen. Diese repräsentiert die Gitarrenbox am balanciertesten und in Gänze, da sie ein Mix unterschiedlicher Mikrofone, Positionen und aller Speaker ist, die das Cabinet bietet.
Ein weiterer Ordner ist der “Mix Classics”. Hier habe ich bestimmte klassische Mikrofonkombinationen gemischt, wie z.B. ein dynamisches Shure SM57 mit einem Royer 121 Bändchenmikrofon oder einem Großkondensator wie dem Neumann U87, aber auch Mischungen aus “rear”- und “front”-Cabinet-Positionen – bei offenen Combos wie einem Fender Vibrolux beispielsweise eine interessante Alternative.
Der “Focus”-Folder bietet sehr ausgeglichene, balancierte Mixe eines oder aller Speaker der Box mit den verschiedenen Mikrofonen. Das ist mein persönlicher “to go”-Ordner. Das Mix-Paradigma, das hier Anwendung findet, ist quasi die Quintessenz aus meinen Erfahrungen, die sich ansammeln, wenn man sich mit dem Thema Cabinet-Mikrofonierung und IRs-Produzieren beschäftigt.
Und natürlich gibt es noch die Einzelmikrofonierungen in den MPT und RAW SINGLE-MICS Ordnern mit allen Mikrofonen von allen Speakern, die das Cabinet hat. Selbst, wenn derselbe Speakertyp gleichen Baujahres 4 x in einer 4 x 12″ Box verbaut ist, so klingen doch alle – mal mehr, mal weniger – unterschiedlich. Und da ich die guten “Stücke” möglichst umfassend in all ihren Facetten abbilden will, “schieße” ich IRs von jedem einzelnen Lautsprecher. Für die Nerds, die selbst mischen wollen oder schlicht ein einzelnes Mikrofon bevorzugen, so wie man es live von der Bühne her kennt.
Die Kunst ist auch, die Packs so aufzubauen, dass sie nutzerfreundlich sind. Darum gibts auch User Guides als PDF dazu, die man auch auf cabIR.eu einsehen kann. Das Paket muss übersichtlich bleiben, damit man sich nicht durch zig Faltungen durchwühlen muss, aber dennoch genug Handlungsspielraum zulassen, dass jeder seinen Sound finden kann. Die User Guides und die Ordnerstrukturen helfen, zielstrebig die IR anzusteuern und zu finden, die das subjektiv beste Ergebnis garantiert. Es geht also nicht darum, alle IRs solcher Sammlungen durchhören zu müssen, sondern zielstrebig das Komplement zu finden, das die ganze Signalkette bestens vom Sound her komplettiert!
Markus, vielen Dank für das Gespräch!

cabIR.eu hat euch ein kleines Gratisprobepaket an Impulse Responses, basierend auf einer ’71er Marshall™ 2069 Gitarrenbox mit Celestion™ G12H30 “pulsonic cone” Speakern von 1971 hier zum Download bereitgestellt:

Soundfiles mit diversen Cab-IRs:

Fender Stratocaster in Marshall Plexi über 4×12″ Cabinet, basierend auf einer `71er Marshall™ 2069 Gitarrenbox mit Celestion™ G12H30 “pulsonic cone” Speakern von 1971.

IR Mix 1
IR Mix 1
Audio Samples
0:00
IR Mix 1
IR Mix 2
IR Mix 2
Audio Samples
0:00
IR Mix 2
IR Mix 3
IR Mix 3
Audio Samples
0:00
IR Mix 3

Fender Telecaster über Vox AC 30 über Cabinet, basierend auf einem VOX™ AC30 /6 TB Combo Verstärker mit Vox™ Alnico Blue 8 Ohm Speakern.

SM57
SM57
Audio Samples
0:00
SM57
Neumann U67
Neumann U67
Audio Samples
0:00
Neumann U67
AKG414
AKG414
Audio Samples
0:00
AKG414

Gibson Les Paul über Fender Tweed über Cabinet, basierend auf einem Fender™ Tweed Deluxe Clone mit 1×12″ Jensen™ P12R Alnico 8 Ohm Speaker.

  • FE-TWEED_P12R Gitarrenbox IR-Bibliothek
SM57
SM57
Audio Samples
0:00
SM57
AKG414
AKG414
Audio Samples
0:00
AKG414
Neumann U67
Neumann U67
Audio Samples
0:00
Neumann U67

Die Cab IRs von Markus Hohmann findet ihr hier:

Hier die erwähnten Convolution Hosts:

Hot or Not
?
1806_Impulse_Responses_Gitarrenboxen_1260x756_v01b Bild

Wie heiß findest Du diesen Artikel?

Kommentieren
Profilbild von Sian

Sian sagt:

#1 - 01.11.2022 um 11:27 Uhr

0

Kann man IRs eigentlich selber einstellen? Wenn IRs nichts anderes sind als ein EQ mit 2024 Reglern, dann könnte man doch selber dran schrauben anstatt sich durch gewaltig grosse IR Bibliotheken durchzuhören?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Bonedo YouTube
  • What's the difference between the Keeley Muse Driver and the Boss Blues Driver BD-2? #shorts
  • What's the difference between the Keeley Muse Driver and the Boss Blues Driver BD-2? - Comparison
  • Flatpicking Fun on the Lakewood Black Sheep 70th Anniversary #shorts