Basics – Mastering #2

Im ersten Teil unseres Mastering-Features haben wir euch gezeigt, welche Standard-Aufgaben das Mastering hat und wie wir als Mixing-Engineer dem Mastering-Engineer zuarbeiten können. Er soll ja aus unseren Produktionen das Beste herausholen können und nicht damit beschäftigt sein, seine teure Arbeitszeit mit dem Ausbügeln von vermeidbaren Fehlern zu vergeuden.

Mit den im ersten Teil vorgestellten Möglichkeiten kann zwar ein Großteil der notwendigen Bearbeitungen vorgenommen werden, doch für bestimmte Reparaturen und zum Erreichen moderner, konkurrenzfähiger Top-Level-Produktionen sind tiefere Anwendungen und teilweise auch spezialisierte Werkzeuge vonnöten. 

Watchmaker
A watchmaker or repair man in action, viewing very closely a swiss watch.

Dynamik 2.0

Die nächste Stufe: Spezialanwendungen von Dynamikbearbeitung
Die technische Notwendigkeit und den kreative Nutzen einer eingeschränkten Dynamik haben wir schon behandelt. Kurze Erinnerung: Durch das Verringern des ursprünglichen Unterschieds zwischen geringen und hohen Pegeln mit einem Kompressor kann sichergestellt werden, dass leise Passagen nicht im Rauschen des Tonträgers oder in Umgebungsgeräuschen (z.B. beim Autofahren) untergehen. Die Verdichtung sorgt des Weiteren für eine dadurch mögliche Anhebung des RMS-(“Durchschnitts”-)Pegels, was ein wichtiger Schritt im leider vorhandenen Kampf um die lauteste Produktion ist. Ausserdem lässt sich mit einem Kompressor der Klangcharakter (“Färbung”, “Regelvorgang”) beeinflussen. Beginnen wir mit einigen Sonderfällen der Dynamikbearbeitung:

Upside-Down – Der “umgekehrte” Kompressor namens Expander
 “Kompression” bedeutet “Verdichtung”, “Expansion” genau das Gegenteil. Zwar ist es – wie soeben beschrieben – das vorrangige Ziel, eine Produktion zu verdichten, doch dies bleibt natürlich auch den Mixing-Engineers nicht verborgen. Teilweise werden im Mastering “vorgemasterte” Produktionen angeliefert, die sich dann als zu stark oder unpassend komprimiert erweisen. Vielleicht sind einzelne Stücke für sich genommen in Ordnung, müssten in ihrer Aufgabe auf dem Album jedoch eine höhere Dynamik und damit mehr “Luft” haben. Möglicherweise sagen die (Zeit-)Parameter dem Mastering-Engineer nicht zu. Ausserdem sind Einzelsignale und Busse ebenfalls oft so stark komprimiert, dass keine starke zusätzliche Kompression mehr notwendig ist. Mit einem Expander kann im Gegenteil zum Kompressor die Dynamik mit ähnlichen Parametern erweitert werden. Bei zu starkem Limiting im Mix (auch in den einzelnen Kanälen) ist jedoch jeder Expander machtlos. Ein klares Plädoyer dafür, die im ersten Teil aufgelisteten Mixing-Tipps zu befolgen!
Ihr erkennt in der ersten Grafik: Zwei Pegelpunkte auf der roten Linie sind auf der IN-Achse viel weiter auseinander als auf der OUT-Achse. Die Dynamik wird eingeschränkt (also komprimiert). Beim Expander ist das genau anders herum!

Fotostrecke: 2 Bilder Das ist ein normaler Kompressor: Oberhalb des Thresholds wird mit eingestellter Ratio das Signal verdichtet.

“Chaining” – Warum nur einer, wenn man auch drei nehmen kann?
Mit einem Kompressor steht dem Engineer im Masteringstudio ein wichtiges Tool zur Verfügung, welches aber dennoch zu eingeschränkt für eine bestimmte Anwendung sein kann. Schliesslich legt er einen Threshold fest, über dessen Pegel das Eingangssignal komprimiert wird. Zwar gibt es “Soft Knee”-Funktionen, die dafür sorgen können, dass die Überschreitung dieses Punktes nicht so auffällig ist, doch mit folgender Lösung ist er weitaus flexibler: Er schaltet einfach mehrere Geräte hintereinander! Dadurch ist es etwa möglich, den ersten Kompressor in der Kette mit geringem Threshold, geringer Ratio und “langsamen” Regelzeiten zu fahren, den nachfolgenden mit etwas höherem Threshold, höherer Ratio und mittelschnellen Zeiten und den dritten mit entsprechend extremeren Werten. Dies sorgt dafür, dass das erste Dynamiksystem dieser Kette das Signal stetig, aber gering verdichtet, das zweite etwas höher und nicht mehr so häufig. Der dritte im Bunde arbeitet bei Korrekter Einstellung fast nur noch auf den kurzzeitig “herausstechenden” Signalen – dies sind im Regelfall die Drums. Als Sahnehäubchen könnte ein Kompressor mit sehr hohem Threshold, sehr hoher Ratio und extrem kurzen Regelzeiten eingesetzt werden. Richtig: Ein Limiter.
Durch die vielen unterschiedlichen Parameter, die nun geregelt werden können, ist recht gut möglich, Schlagzeug und andere Signale getrennt voneinander zu “behandeln”. Allerdings ist es nicht einfach, die Kontrolle zu behandeln, da jede noch so kleine Änderung eine Veränderung des Eingangslevels der Nachfolgenden Geräte bedeutet. Ausserdem steigen Probleme durch Nebengeräusche wie Rauschen. Auch digitale Artefakte addieren sich und das Spektrum ändert sich durch die vielen Geräte. Zudem kann die Fülle an Regelvorgängen das Signal “unruhig” werden lassen. Ein guter Kompromiss ist daher die Verwendung eines “langsamen” Kompressors, eines “schnelleren” Kompressors und eines Limiters. Theoretisch sind auch weitaus längere Ketten als mit vier Dynamikgeräten möglich, jedoch findet man sie aus oben genannten Gründen in der Praxis kaum.

Grafik03_1.1f

Sidechaining – “Seitenketten”?
Wie? Was? Nun, dieser vielleicht irreführende Begriff bezeichnet etwas, was auch dem ambitionierten Mixing-Engineer bekannt sein sollte: Bei den Dynamikgeräten, wie sie üblicherweise eingesetzt werden, ist der Pegel des Eingangssignals für die Regelvorgänge verantwortlich. Ist etwa bei einem Kompressor der Threshold überschritten, wird komprimiert. Auf die Frequenzempfindlichkeit des menschlichen Gehörs nimmt diese Schaltung  natürlich keine Rücksicht, deshalb haben energiereiche Signale einen höheren Einfluss auf die Kompression als solche mit weniger Energie. In den meisten Mischungen ist es demnach ein Instrument, das die Kompression steuert: Die Bassdrum. Nicht, dass das schlecht wäre, bei vielen Hip-Hop-Mischungen ist es fast schon notwendig, dass die Bassdrum der “Boss” ist und alle anderen Instrumente durch den “Einschlag” ein Stück nach unten gezogen werden. Möchte man genau das nicht, kann man zum Beispiel einen Shelf-Equalizer in den Sidechainweg schalten, der das Signal, das die Kompression steuert, im Bassbereich ein wenig abschwächt. Das mag sich auf den ersten Blick unspektakulär anhören, ist es aber nicht: Wenn etwa eine Snare zu bissig ist, wird man erst einmal versuchen, sie mit dem EQ zu behandeln. Das Problem dabei ist, dass man in diesen Frequenzbereichen immer auch Bestandteile anderer Signale verändert, obwohl diese vielleicht ganz ok sind. Gitarren und Stimme können klanglich schnell auch unter moderaten Einstellungen leiden. Vor allem ist die Snare ein Signal, welches im Vergleich zu vielen anderen nur recht selten stattfindet, der EQ arbeitet aber konstant. Er würde also zwischendurch Veränderungen vornehmen, wo gar keine notwendig sind. Zwar gibt es auch dafür weitere Speziallösungen (so genannte Dynamic EQs), doch könnte man ja einen Kompressor-Sidechain und den Threshold mit einem Bandpassfilter so einstellen, dass das Gerät in erster Linie auf die Snare reagiert. Ergebnis: Nur, wenn die Snare geschlagen wird, verringert der Kompressor kurzzeitig das Level! Auch im Recording und Mixing findet so etwas Anwendung. In erster Linie werden die scharfen “S”-Laute mit einem De-Esser entfernt, der oftmals den gleichen Systemaufbau hat. Übrigens kann auch der Einsatz eines De-Essers für die Stimme im Mastering sinnvoll sein. Einerseits aus klanglichen Gründen, aber auch, weil dieses Kurze Signal Headroom benötigt. Werden diese harten Konsonanten im Pegel verringert, kann ein anschliessender Limiter besser arbeiten.

Grafik04_1.0f

In der oberen Reihe sieht man einen “normal” arbeitenden Kompressor. Das Key-Signal wird aus dem zu bearbeitenden Signal gewonnen. In der mittleren Reihe wird “external Keying” vorgenommen: Die Vocals können beispielsweise den Gitarrenbus keyen, die Bassdrum den Bass und so weiter. Im unteren Beispiel sehen wir einen Sidechain-EQ. Es sind aber noch viele weitere Varianten möglich, etwa ein kurzes Delay im Bearbeitungsweg (nicht im Key): Damit kann das Dynamikgerät quasi “in die Zukunft schauen” und vor Eintreffen des Signals schon den Pegel ändern!

Parallel? – “New York”-Compression auf der Summe
Ein Nachteil vor allem starker Kompression kann sein, dass Signale stark “zusammengedrückt” klingen. Dies liegt vor allem daran, dass bei der Kompression mit kurzen Attackzeiten die Einschwingphase verändert. Diese wird aber von unserem Gehör genau analysiert. Um Probleme damit zu umgehen, kann man einen Teil des Signals unkomprimiert lassen, also parallel zum Komprimierten verwenden. Natürlich erreicht man dadurch nicht eine so geringe Dynamik wie mit der Insert-Kompression, aber dafür gelingt sie technischer, weniger auffällig und transparenter. Die auch “New York” genannte Kompressionsform ist oftmals einen Versuch wert!

Grafik05_1.0f

Hier erkennt man, wie einfach eine derartige Dynamikbearbeitung ist. Das lässt sich auch einfach im Pult oder der DAW realisieren. In der Grafik haben wir aus Gründen der Übersichtlichkeit das Keysignal nicht mit eingezeichnet.

Multiband – Wenn ein Band nicht ausreicht
Modernes Mastering kann fast nicht ohne: Damit Material eine hohe Gesamtdichte und damit eine höhere mögliche Lautheit erzielen kann, wird die Energie in einzelnen Frequenzbereichen jeweils vergrößert. Dazu zerteilen Multibandgeräte das Spektrum mit Filtern. Die einzelnen Signale werden anschliessend in “normale” Kompressoren geführt und anschliessend wieder zusammengemischt. Praktisch dabei: Durch das Make-Up-Gain der einzelnen Kompressionseinheiten kann man sich manchmal das ein- oder andere EQ-Band sparen. Schön ist an dieser Kompressionsform unter anderem, dass damit der Bassbereich mit Bass und Bassdrum getrennt von den spektral hörergelegenen Signalen bearbeitet werden kann. Dies “verbindet” bei geschicktem Einsatz diese beiden Signale. Mit schmalen Bändern können zudem auch Reparaturen wie eine herausstechende Snare einfacher bearbeitet werden. Es gibt allerdings auch deutliche Nachteile: Das gesamte Signal läuft durch Filter. Diese erzeugen einige Artefakte, die zu bedenken sind, darunter so genanntes Ripple und Phasenverschiebungen. Beim anschliessenden Zusammenmischen ändert sich definitiv etwas am Sound, selten zum Vorteil. Mit der Anzahl Bänder steigt diese Problematik, daher wird das Signal im Regelfall in nicht mehr als drei Bänder unterteilt. Das obere Band wird oft nicht sehr stark komprimiert, da dies schnell zu einem unnatürlichen Sound führt. Ausserdem würden Störgeräusche durch das Make-Up “hochgezogen”. Die Eingriffsmöglichkeiten in das Material steigen zwar, allerdings wird die Kontrolle über die Regelvorgänge zunehmend schwieriger. Unterschiedliche Attack- und Release-Zeiten können zudem für unruhige Pegelbewegungen im Material sorgen. Auf dem Markt gibt es dedizierte Multibandkompressoren als Hard- oder Software.

Grafik06_1.0f

Dynamic EQ – Der exotische Zwitter
Noch recht selten eingesetzt werden spezielle Equalizer, deren Bänder erst dann arbeiten, wenn in einem Frequenzband ein eingestellter Threshold über- oder unterschritten wird. Damit liesse sich dem vorhin beschriebenen Snareproblem besonders gut zu Leibe rücken: Der EQ senkt bestimmte Bereiche nur dann ab, wenn das Instrument tatsächlich gespielt wird. Ihr ahnt schon, dass man es schnell mit einer Fülle von Parametern zu tun hat. Neben Center- oder Grenzfrequenz, Gain und Bandwidth oder Steilheit sind Thresholds, Hysterese, Attack und Release denkbar. Ausserdem sagt ja niemand, dass die Detektorfrequenz unbedingt gleich der Bearbeitungsfrequenz sein muss. Bei einer zu schwammigen Bassdrum liesse sich die Bearbeitung dadurch zeitlich steuern, dass im Subbass bei ca. 40 Hz festgestellt wird, ob sie gespielt wird, die Bearbeitung erhöht dann aber den Attack bei 1,5 kHz! Ein klarer Vorteil gegenüber dem Multibandkompressor: Das Komplettsignal wird hier nicht ständig durch Filter geschickt. Das Prinzip ist im Übrigen keine Neuerung. Frühere, einfache analoge Rauschunterdrückungen arbeiteten nach einem ähnlichen Prinzip: Über den Gesamtpegel des Signals wird damit ein Tiefpassfilter in der Frequenz gesteuert. “Laut” bedeutet meistens “höhenreich”, dadurch wird in leiseren Passagen und zwischen Schlägen das eher hochfrequente Bandrauschen von Tapedecks verringert.

Grafik07_1.0f

Das Grundprinzip ist so einfach wie genial: Erst, wenn in einem gewissen Frequenzbereich ein Threshold überschritten wurde, arbeitet das EQ-Band. Manchmal kann sogar der Detektor-Threshold in einem anderen Frequenzbereich liegen als das EQ-Band!

Psychoakustiklimiter – Der ultimative Lautmacher
Klappern gehört zum Handwerk! Musik, der wir nicht abgeneigt gegenüberstehen, wird subjektiv als “besser” empfunden, wenn sie lauter ist als etwas Vergleichbares. Und das alte Werbegrundgesetz AIDA (“Attention, Interest, Desire, Action”), nach dem Werbung in erster Linie auffällig sein muss, um überhaupt wahrgenommen zu werden, gilt auch im Musikbusiness. Daher wird von Mastering-Engineers häufig eine möglichst laute Produktion verlangt. Eine hohe Energiedichte ist ein wichtiger Baustein dieses Gebildes, daher werden (Multiband-)Kompressoren und Limiter eingesetzt. Selbst mit Equalizern kann im Sinne der Lautheit gearbeitet werden. Wie das geht? Nun, unser Gehör ist kein Messmikrofon, sondern für verschiedene Frequenzen unterschiedlich empfindlich. Im Bass- und Höhenbereich sind wir weniger empfindlich als in dem Bereich, in dem unsere Sprache stattfindet. Wer also viel Energie für den Subbass “ausgibt”, verringert die Lautheit. Natürlich möchte man aber oft beides: Laut und bassig genug.
Die Hersteller von Psychoakustiklimitern erzählen verständlicherweise nicht gerne von den Vorgängen unter der Haube, doch läuft es im Grunde auf Folgendes hinaus: Das Signal wird mit vielen Filtern in gehörangepasste Bänder unterteilt. Diese “Kritischen Bänder” werden vom menschlichen Gehör zur Erkennung der Lautheit analysiert. Werden genau diese Bänder in ihrer Energie maximiert, können wir einen äußerst lauten Eindruck bekommen. Die Lautheitsunterschiede beim Bypassen derartiger Systeme sind erstaunlich! Zudem wird nach Beobachtungen deutlich, dass viele Systeme die Fähigkeit unseres Gehörs zum “Fundamental Tracking” ausnutzen. Da Grundtöne ja tieffrequenter sind als ihre Obertöne, “verbrauchen” sie auch mehr Energie. Eine Verstärkung der Obertöne ermöglicht aber die Rücknahme der Energie des Grundtons, ohne dass sich der Klang ändert. Dies geht deshalb, weil unser Gehör den fehlenden Grundton für uns wieder hervorzaubert: Er wird errechnet und wir hören ihn tatsächlich, obwohl er gar nicht mehr da ist!
Eine weitere Möglichkeit der Erzeugung von Lautheit ist verhältnismäßig einfach: Verzerrung! Je verzerrter ein Signal ist, desto lauter wirkt es. Einen ähnlichen Zusammenhang können wir bei der menschlichen Stimme wahrnehmen. Wenn eine Person im Fernseher laut schreit, schreit sie doch auch dann noch, wenn wir den Fernseher leiser drehen. Oder flüstert sie dann auf einmal? Psychoakustiklimiter verzerren ebenfalls, je nach Gain und Release allerdings auch schnell ungewünscht. Hier muss der Mastering-Engineer verdammt vorsichtig sein, denn in der Schlacht um die lauteste Produktion ist der erste Verletzte häufig die Klangqualität. Ausserdem sind starke Verzerrungen und das Abwälzen der Aufgabe zur Grundton-Rekonstruktion auf den Hörer langfristig anstrengend: Der Konsument schaltet die Musik schneller einfach mal aus. Und das kann ja wohl kaum das Ziel einer Musikproduktion sein. Lautmachen ist einfach, die Kunst ist es, die Gratwanderung zwischen den beiden unvereinbaren Ansprüchen der hohen Lautheit und einer transparenten, ausgewogenen Produktion hinzubekommen. 
Intersample Peak Limiter
Nach landläufiger Überzeugung kann ein digital dargestelltes Signal, das keine Samples von 0 dBFS aufweist, nicht übersteuern, ausser es war vorher schon verzerrt. Das erscheint logisch, denn es ist ja noch genug Headroom da; das Signal wird durch die digitale Obergrenze nicht beschnitten. Allerdings kann es zwischen (ja genau: zwischen) zwei Samples durchaus Verzerrungen geben, allerdings erst nach der Rückwandlung in die analoge Welt. Wie das sein kann, erklärt sich dadurch, dass man sowohl das Spektrum als auch die Zeit betrachtet:

Klassisches Beispiel: Die Originalpressung von Red Hot Chili Peppers'
Klassisches Beispiel: Die Originalpressung von Red Hot Chili Peppers’ “Californication” klickte auf manchen Systemen fröhlich herum.

Haben zwei aufeinanderfolgende Samples beispielsweise –0,1 dB und die jeweils davor und dahinter liegenden Samples einen weitaus geringeren Wert von – sagen wir –51,2 dB –, dann bedeutet das, dass es innerhalb kürzester Zeit einen enormen Pegelanstieg gibt. Ein derart steilflankiger Transient ist nur mit Hilfe sehr hoher Frequenzen möglich (Wenn man versuchen würde, diesen Anstieg durch die Addition verschiedener Sinusschwingungen zu erreichen, würde klar, dass viele Schwingungen “kurz”, also hochfrequent sein müssen.). Ein übliches Audiosystem filtert aber bei der Nyquist-Frequenz von meist 22 kHz. Das Problem ist: Auch in jedem DA-Wandler befindet sich ebenfalls ein solches Tiefpassfilter! Dadurch werden die Flanken abgeschwächt. Eine derartige “Ecke” wie im Digitalsignal ist dann nicht mehr möglich, der Anstieg verläuft also flacher und “schießt” bis weit über die 0 dBFS hinaus. Dadurch können nach der DA-Rückwandlung analoge (!) Verzerrungen entstehen, die je nach Wiedergabegerät unterschiedlich stark ausfallen können. Diese Zusammenhänge sind so gut wie unabhängig von der sonstigen Qualität und dem Preis für ein Gerät! Es kann also passieren, dass eine CD auf einem 2000-Euro-CD-Player ungenießbar klingt, auf dem Billo-Gerät vom Kaffeverkäufer aber ganz passabel (naja, zumindest ohne ISP-Verzerrungen…). Es gibt zwei Lösungen für dieses Problem: Entweder setzt man einen speziellen, teuren Intersample-Peak-Limiter ein, der derartige Gefahrenstellen intelligent aufsucht und beseitigt, oder man versucht eben nicht, noch das letzte Quentchen Lautheit aus einer Produktion zu pressen. Ein offline berechneter Maximalwert von “nur” -0,3 dB schützt im Regelfall ausreichend vor den gefürchteten Störgeräuschen!

Intersample Peaks: Digital alles in Ordnung, in der analogen Domäne kann es aber clippen!
Intersample Peaks: Digital alles in Ordnung, in der analogen Domäne kann es aber clippen!

MS

Das Zauberwerkzeug
Der Final Mix wird im Regelfall in Stereo angeliefert. Kanalinformation für links, Kanalinformation für rechts, fertig. Wenn ein Signal auf beiden Kanälen mit identischem Pegel und gleicher Phasenlage vorhanden ist, orten wir es in der “Phantommitte”. Bassdrum, Bass, Main Vocals und Snare werden üblicherweise in die Mitte gepannt. Um ein Signal dort zu bearbeiten, müsste man also L und R gleichermaßen verändern und verändert also den ganzen Mix. Muss man eben doch nicht! Im Mastering kann man sich eines Tricks behelfen: Mit einer Matrix kann man aus den beiden Kanälen L und R so genannte M und S errechnen. M steht dabei für “Mitte”, S für “Seite”. Der Zusammenhang ist genauso wenig kompliziert wie der Vorgang. 

Fotostrecke: 3 Bilder Aus jedem LR-Signal lässt sich MS gewinnen (und umgekehrt!).

Das Mittensignal sind diejenigen Anteile des Stereosignals, die links und rechts identisch sind, sich also im Stereopanorama genau in der Mitte befinden. Das Seitensignal hingegen besteht aus dem Unterschied zwischen links und rechts. Als kleine Formeln ausgedrückt werden die Bezeichnungen “Summen-” und “Differenzsignal” deutlich (vereinfacht!):
L + R = M
L – R = S
Umgekehrt ist
M + S = L und
M – S = R (eigentlich 2L und 2R, das kann aber hier vernachlässigt werden, es handelt sich dabei ja nur um den Pegel). Diese Technik wird gerne bei der Stereo-Mikrofonierung benutzt, weil man nach der Aufzeichnung der Aufnahmebereich gewählt werden kann! Das Hin- und Hermatritzieren mit LR- oder MS-Signalen funktioniert im Übrigen absolut verlustfrei. Diese Matritzen lassen sich einfach analog und digital herstellen, es gibt allerdings auch Geräte und Plug-Ins, die eine Eingangs- und Ausgangs-Matrix bieten.

Das M- und das S-Signal lassen sich nun separat bearbeiten. Soll etwa die Präsenz im Hauptgesang erhöht werden, weil er “zu tief” in den Mix hineingearbeitet wurde, kann man ausschliesslich den M-EQ benutzten. Damit verhindert man, dass zum Beispiel die oft auseinandergepannten Gitarren- und Becken-Signale mitbearbeitet werden – denn das ist ja oft nicht gewünscht. Es gibt haufenweise Anwendungen für die MS-Technik: Die Becken zu spitz? Kein Problem, dann wird eben das S-Signal bearbeitet! Die Snare zu scharf? Ok, ein Kompressor mit Sidechain-EQ auf das M-Signal! Das Material kann nicht auf Vinyl gepresst werden, weil die Bässe zu sehr unkorreliert sind? Dann muss ein Hochpassfilter oder Lo-Shelf für das Differenzsignal her!

mögliche Bearbeitungskette im Mastering
mögliche Bearbeitungskette im Mastering

Ein weiteres Problem “normaler” LR-Bearbeitung ist die Summenkompression, die ja durch den “Link-Schalter” immer auf das gesamte Stereobild gleichermassen wirkt. “Offenen” Signalen wie manchen Ohverhead-Mikrofonierungen, Flächen und vor allem Räumen tut eine harte Kompression allerdings oft nicht sonderlich gut, sie werden “zerquetscht”. Um dieses Problem zu umgehen, kann das M-Signal stark komprimiert werden, das S-Signal nur leicht oder gar nicht. Dadurch bleibt bei großer Verdichtung die Transparenz erhalten. Das M-Signal ist in den meisten Mischungen weitaus hochpegliger als das S-Signal, da vor allem Hauptsignale (darunter tieffrequente, ergo energiereiche Signale wie Bass und Bassdrum) üblicherweise in die Mitte gesetzt werden. Durch dieses Vorgehen sind viele professionelle Produktionen so erstaunlich dicht, dabei aber gleichzeitig transparent! Ein weiterer Vorteil der MS-Technik ist, dass nicht zwangsläufig teure Mastering-Stereogeräte benutzt werden müssen. Zwei Monogeräte tun es auch! Ausserdem können diese dann auch sehr unterschiedlich sein, etwa ein “Dickmacher”-Röhrenkompressor für die Mitte und ein “sauberer” Kompressor für das filigrane Seitensignal. Ausserdem kann mit MS ganz nebenbei noch eine weitere Sache geregelt werden: Durch die Veränderung des Zumischanteils des S-Signals kann die Breite der Stereobasis eingeengt oder verbreitert werden. Toll übrigens, wenn man das automatisiert und das Signal an einer Stelle im Song regelrecht “aufgeht”…

Exotischeres

De-Noiser und Co. – Entstördienste für die Soundqualität
Unerwünschte Signalanteile lassen sich als “Störgeräusche” bezeichnen. Einige davon lassen sich in einer Produktion manchmal nicht vermeiden, andere fallen gar nicht erst auf. Aufgaben des Mastering-Engineers ist es, diese Geräusche zu erkennen und abzuwägen, ob eine Korrektur möglich oder sinnvoll ist. Häufig leidet das Material, wenn Störgeräusche entfernt werden. Der Klassiker unter den Störgeräuschen ist das Rauschen, welches aber in den letzten Jahren durch gestiegene Gerätequalität und den Verzicht auf Bandmaschinen kein großes Problem mehr darstellt. Um dennoch eventuell vorhandenes Rauschen mit einem störenden Level und Spektrum zu verringern, kommen De-Noiser zum Einsatz. Dies sind hochspezialisierte Systeme, die in erster Linie mit “Fingerprints” des Rauschens arbeiten. Dazu muss ihnen das reine Rauschen einmal zur Analyse “vorgespielt” werden können. Nicht zuletzt deswegen sollte zum Mastering angeliefertes Material vor und hinter dem Song genug “Fleisch” haben. Oft reicht eine Sekunde. Im Grunde wäre es auch möglich, intelligente Algorithmen nach aperiodischen Signalanteilen suchen zu lassen, also solchen, die keine definierte Tonhöhe aufweisen. Allerdings ist dabei problematisch, dass Geräuschanteile ein fester Bestandteil aller natürlichen Klänge sind: Musik ohne ihre Anstreich-, Anblas- und Anschlaggeräusche etwa klingt sehr unnatürlich. Und auf stark aperiodische Signale wie Snare oder Konsonanten der menschlichen Stimme wollen wir garantiert nicht verzichten wollen.

Ein vor allem durch Editingvorgänge aber auch fehlerhafte (Digital-)Geräte entstehendes Störsignal ist der Knackser. Um diese zu erkennen, müssen Monitorsysteme innerhalb kürzester Zeit enorme Pegelzuwächse in Schall umsetzen – sonst werden sie nicht gehört. Oft kann man sie in der Schwingungsform einer DAW sehen, aber wer sucht schon die oft mehreren tausend Spurminuten einer Album-Produktion danach ab? Selbst für Pegelmesser sind manche dieser Spikes viel zu schnell: Bei einer üblichen Integrationszeit eines PPMs von zehn Millisekunden ist die kurze Signalspitze schon längst wieder vorbei, bevor das Peak-Programme-Meter überhaupt etwas mitbekommen hat. In Mastering-Suiten stehen häufig Monitoranlagen, die Clicks auch wirklich übertragen, der Engineer hat die Möglichkeit, die entsprechenden Samples entweder in der Schwingungsformdarstellung wegzuzeichnen, oder einen speziellen De-Clicker einzusetzen. 

Ähnliche Geräte werden für die weiteren Störgeräusche angewendet. Neben De-Hummer (“Entbrummer”) und De-Crackler (“Entknisterer”) gibt es tatsächlich auch De-Distorter und De-Reverberator. Allerdings kann man ab einem gewissen Level dieser Bearbeitung kaum noch von Mastering sprechen, sondern vielmehr vom absoluten Spezialbereich der Audio-Restauration, die es unter anderem ermöglicht, fast verrottete Analogbänder verrauschter Aufnahmen wieder so aufzupäppeln, dass eine für den Konsumenten annehmbare Qualität entsteht. Ein genereller Nachteil aller derartiger Bearbeitungen: Es ist wirklich verdammt zeitaufwändig und so richtig ekelhaft teuer!

Verbrechensbekämpfung mit der Tontechnik
Hier sind ausnahmsweise keine mikroskopisch kleinen Wanzen gemeint: Der Bereich der “forensischen Tontechnik” befasst sich mit dem technischen Aufarbeiten von Signalen, wie zum Beispiel bei Erpressungsanrufen. Es können aus dem Material zum Beispiel Stimmanalysen angefertigt werden, die Rückschlüsse auf den Körperbau zulassen und etwa bei einem Erpressungs- oder Drohanruf vor Gericht eingesetzt werden können. Ausserdem können aus dem Material Hinweise auf einen Aufenthaltsort extrahiert werden. Dazu werden Glockenschläge von Kirchtürmen, der Telefontyp, Gleisgeräusche etc. im Hintergrund freigestellt und analysiert.

Re-Taping, Re-Miking und “Färber” – Wir brauchen Dreck!
Manchen Produktionen fehlt einfach das gewisse Etwas. Oftmals ist es der “Schmutz”, den wir von vielen Produktionen kennen, der ihnen fehlt. Bandmaschinen, alte (Röhren-)Geräte, analoge Mischpulte und viele weitere Geräte mehr verändern die Signale oft sehr stark, fügen Harmonische hinzu (“lineare Verzerrungen”), verändern den Frequenzgang stark und verändern das Zeitverhalten und die Dynamik von Klängen. Extrem ist das bei Bandmaschinen: Die Signale werden vor der Aufzeichnung und nach der Wiedergabe stark gefiltert, werden moduliert, je nach Recording-Level leicht bis stark verzerrt und komprimiert. Manchen Signalen (vor allem Bass, Stimme, Gitarren, Becken) tut das richtig gut. Heutige Produktionen werden durch den Verzicht auf (teure) externe Hardware oftmals zu klinisch. Es gibt zwar Plug-Ins, um dem zu begegnen, doch ist immer nur das “Original so original wie das Original”. Daher gibt es eine ganze Reihe Systeme, die sich auf das Hinzufügen dieses “Schmutzes” spezialisiert haben, unter ihnen viele Röhrengeräte. Manche Mastering-Studios nutzen keine analogen oder digitalen Prozessoren, um Bandmaschinenartefakte nachzuahmen, sondern leisten sich eine große Bandmaschine. Auf bis zu zweizölligem Band wird dann ein Re-Taping mit dem Mix durchgeführt! Auch Re-Miking, also das Ausgeben über Lautsprecher und erneute Mikrofonieren ist manchmal sinnvoll, allerdings wird in einem solchen Fall das erzeugte Signal nur leicht zugemischt.

Reverb – Flexibles Multifuntions-Tool im Mastering
Richtig gelesen: Auch im Mastering werden Nachhallgeräte eingesetzt! Auch wenn es auf den ersten Blick merkwürdig erscheint: Es kann sinnvoll sein, einen Gesamtraum zu schaffen, um einen Mix mit etwas sperrigen Signalen “zusammenzubringen”, Löcher im Stereobild zu füllen oder einfach eine gewisse Atmosphäre zu schaffen. Allerdings muss der Engineer dabei äusserst behutsam sein, denn vor allem Rauminformationen werden von unserem Wahrnehmungsapparat schnell “weggerechnet”, was zu übertriebenem Einsatz und somit zu einem zu indirekten Klang führen kann. Raumeindrücke entstehen beim Hörer bekanntermaßen durch die ersten Rückwürfe der Begrenzungsflächen wie Decke, Boden und Wände. Diese ER (“Early Reflections”) werden von unserem Gehör analysiert, eine Nachhallfahne, die das Signal vermatschen könnte, ist gar nicht zwingend notwendig. Andersherum kann ein reines Reverb-Tail ohne Erstreflektionen für eine interessante Form von Verdichtung sorgen. Im Grunde generiert das Reverb Signale, die durch Verzögerung und Filterung des Eingangssignals entstehen. Dadurch erhält man zusätzlichen, signalabhängigen und mit vielen Parametern regelbaren “Füllstoff”, den ein Dynamikgerät nicht erzeugen kann, denn er muss mit dem Vorhandenen arbeiten. Man kann dem Hauptkompressor mit der Erstellung eines Reverb-Tails quasi “zuarbeiten”.
Ausserdem kann ein Hallgerät zum Retter zu kurzer Recordings oder Bounces sein, denn oft wird zum Beispiel der komplette Ausklang eines Becken nicht ganz abgewartet und fehlt dann! Auch Fade-Outs können mit dem Reverb unterstützt werden, denn schliesslich lassen sich auch Positionen von Signalen im Raum beeinflussen (und automatisieren!).

Stem Mixing – Noch ein Zwitter!
In Teil 1 wurde es schon angesprochen: Eine grundlegende Schwierigkeit beim Mischen ist die diffizile Angelegenheit, den Gesang zu leveln. Schnell verschwindet er zu stark in den Instrumenten, schnell wirkt er “aufgeklebt”. Das Ganze ist erschwerenderweise kein statischer Vorgang, sondern dynamisch. Sicher ist es einfacher, stark komprimierte Signale zu positionieren, doch im Regelfall ist das Fahren mittels Fader notwendig (Nebenbei bemerkt: Deswegen sind die an Mischpulten so groß und in Reichweite…). Da man sich jedoch zu schnell in eine Mischung “hineinhört”, zu subjektiv empfindet und die menschliche Stimme sowieso vom Gehör äusserst genau untersucht wird, ist die Entscheidung, ob die Positionierung jetzt ok ist oder nicht, oft nicht möglich. Dazu gesellen sich noch musikrichtungsabhängige Fragen, ausserdem werden in Deutschland traditionsgemäß die Stimmen oft sehr weit nach vorne gemischt (Was das soll, eine böse Metalband mit absolut schlagermäßig vorne stehenden Vocals zu mischen, muss mir unbedingt mal irgendjemand erklären. Entsprechende Mails bitte an die Redaktion…). Aus gutem Grund werden also häufig Vocals-Up- und Vocals-Down-Mixes angefertigt, aus denen der Mastering-Engineer dann auswählen kann. Manchmal jedoch akzeptiert (oder sogar verlangt) er zwei separate Mixes: den Mix ohne Vocals als Stereofile und umgekehrt die Vocals als LR-File ohne Instrumentals. Damit kann er dann einfacher arbeiten. Das oft sinnvolle “Cross-Keying”, also das gegenseitige Side-Chaining von Vocals und Mix kann dann bequem im Mastering durchgeführt werden.

Noch einen Schritt weiter geht das Stem-Mixing oder auch Stem-Mastering. An der Problematik mit der Begriffsfindung erkennt ihr, dass es sich hier um ein Zwischending aus Mastering und Mixing handelt. Das Mastering übernimmt hier an einer früheren Stelle der Produktion: Viele Mixing-Engineers legen Signalgruppen auf Busse, die sie dann abschliessend bearbeiten und leveln. Oft sind das in Stereokonfiguration Drums, Gitarren und Bass, Vocals und Keyboards/Synthesizer/Specials. Werden diese “Stems” separat ausgespielt und ins Mastering gegeben, ist es (eventuell mit zusätzlichem MS!) deutlich einfacher, Reparaturen auszuführen oder sogar Mixes, die von verschiedenen Engineers und vielleicht in unterschiedlichen Regieräumen durchgeführt wurden, für ein Album anzugleichen. Stems sollten im Übrigen immer auf Unity (also Nullstellung der Fader) zusammengemischt den Mix ergeben, wie er geplant war. Natürlich ist diese Art von Mastering zeitaufwändig (und damit “kostenintensiv”) und kann nicht immer in jedem Studio angeboten werden.

Fazit

Na, wer hätte das gedacht: Es ist doch ganz schön viel, was im Mastering mit einem schnöden LR-Mix alles angestellt werden kann, oder? Allerdings ist mit den hier beschriebenen Vorgängen immer noch nicht alles getan: Schliesslich muss ein Album zusammengeführt werden und technisch zur Vervielfältigung vorbereitet werden. Wenn ihr euch fragt, was es da zu tun gibt, möchte ich euch auf den noch folgenden dritten Teil dieser Reihe verweisen. Denn dort erfahrt ihr unter anderem, was am Zusammenstellen eines Albums so kompliziert sein kann und warum wir zwar mal eben mit dem Rechner eine Audio-CD brennen können, aber im “richtigen” Mastering eine Menge mehr möglich und notwendig ist!

Hot or Not
?
A watchmaker or repair man in action, viewing very closely a swiss watch.

Wie heiß findest Du diesen Artikel?

Kommentieren
Profilbild von Marcus

Marcus sagt:

#1 - 25.09.2013 um 02:30 Uhr

0

Du sprichst da für mich zwar jetzt nichts Neues an, ist aber dennoch ein gut zusammenfügter Artikel.Viele denken sicher das hier Soundbeispiele fehlen, was aber Quark ist.
Da jeder Musiktitel individuell ist und vondaher eine spezielle Bearbeitung benötigt.Von der Summenbearbeitung mal abgesehen, lässt sich das hintereinander schalten von Kompressoren, nicht nur auf der Summe anwenden.LG,Marcus

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Bonedo YouTube
  • iZotope Ozone 12 Bass Control Demo (no talking)
  • LD Systems ICOA Pro Series - All you need to know!
  • Watch THIS if you use analog gear! Everything you need to know about the Freqport FreqInOut FO1