Tobias Bigger

Ein paar Gedanken zu OSS

Nein, nicht um den CIA-Vorläufer geht es hier, sondern um das sog. –> „Optimale Stereo-Signal“.

Die AB-Aufnahmetechnik setzt bekanntlich zwei Omni-Mikrofone in bestimmtem Abstand nebeneinander, entweder parallel oder –wegen der auch bei Omnis in höheren Frequenzen gegebenen Richtwirkung– angewinkelt.
Die OSS-Technik, für die insbesondere der Schweizer Tonmeister Jürg Jecklin steht, geht einen Schritt weiter als AB und positioniert einen Trennkörper zwischen die beiden Mikrofone. Dieser ist insbesondere in Gestalt der „Jecklin-Scheibe“ bekannt: Die Scheibe ist auf Vor- und Rückseite mit Schaumstoff beklebt und hatte in ihrer früher propagierten Form einen Durchmesser von 30 cm, bei einem Abstand der Mikrofone zueinander von 16,5 cm.

Jecklin-Scheibe

Die inzwischen erfolgte Revision des Konzeptes sieht einen Mikrofonabstand von 36 cm bei Scheibendurchmesser von 35 cm vor.

Die Idee eines Trennkörpers hat ihre Wurzel im Blick auf den Kopf des Hörers, wie der ursprüngliche Mikrofonabstand von 16,5 cm schon vermuten lässt. Der Kopf trennt linkes und rechtes Ohr, was zwischen linkem und rechtem „Kanal“ neben dem Laufzeitunterschied zu Intensitätsdifferenzen und unterschiedlichen Frequenzgangfärbungen führt. Letztere beiden Aspekte kann AB ohne Trennkörper nicht oder nur hinsichtlich partieller Intensitätsunterschiede realisieren, nämlich nur in den höheren Frequenzbereichen, in denen auch omnidirektionale Mikrofone Richtwirkung bekommen.

Ich habe ab 1997 einige Zeit lang mit einer Jecklin-Scheibe aufgenommen, mich dann aber anderen Verfahren zugewendet, was u.a. in grundlegender Kritik am OSS-Verfahren motiviert war.
Solche Kritik ist vielfach zu finden, meist mit dem Ergebnis, dass OSS für den Kopfhörer-Hörer tauglich sei, aber ungeeignet für den Lautsprecher-Hörer. Zusätzlich zu dieser grundlegenden Ablehnung wird Detailkritik vorgebracht, vor allem bzgl. des für Seitenschall entstehenden Kammfilters am Mikrofon der betreffenden Seite, resultierend aus der trotz Schaumstoffauflage noch gegebenen Reflektion des von der Seite auftreffenden Schalls durch die Scheibe.

Grund für meine Überlegungen hier sind durchgreifende Zweifel, die mir in letzter Zeit an der fundamental-theoretischen Ablehnung des Trennkörperkonzeptes kamen.

Soweit es um die erwähnte theoretische Fundierung von OSS mit dem Argument des menschlichen Kopfes geht, stimme ich allerdings unverändert der Kritik zu:
Den Trennkörper mit der Imitation der Verhältnisse rund um den Kopf zu begründen, ist für den Lautsprecher-Hörer von vornherein unsinnig. Denn beim Lautsprecher-Hören ist der Hörer mit seinem eigenen Kopf im Schallfeld präsent. Warum sollen also die Wirkungen dieses Kopfes bereits bei der Aufnahme per Trennkörper antizipiert, also noch ein zweites Mal simuliert werden?
Der gedankliche Fehler bei der Begründung von OSS mit Verweis auf den menschlichen Kopf liegt schlicht darin, die Mikrofone mit der Position des Hörers zu identifizieren, nur weil sie bei der Aufnahme (ganz wie ein imaginärer Hörer) vor der Schallquelle stehen. Beim Lautsprecherhören sollen die Mikrofonsignale nicht die Signale am Kopf des Hörers abbilden, sondern die Signale an der Schallquelle. Denn was die Mikros „hören“, geht später nicht direkt ins Ohr des Hörers, sondern in die Lautsprecher, steht also stellvertretend für die vor dem Hörer befindliche Schallquelle.
Um die Simulierung dieser Schallquelle muss sich demnach eine über Lautsprecher abzuspielende Aufnahme bemühen. Der Kopf und seine Wirkung auf das Schallfeld kann hingegen getrost dem Hörer überlassen bleiben, der vor den Lautsprechern sitzt; der bringt seinen Kopf schon selber mit…

Mit dem menschlichen Kopf sollte man daher nicht zugunsten von OSS argumentieren. Aber dieser Fehler im Grundgedanken bedeutet nicht, dass man den Trennkörper nicht anders begründen könnte, und auch nicht, dass das praktische Ergebnis der OSS-Aufnahme schlecht sein muss.
Von der Theorie her kommt man nämlich bei den Verfahren OHNE Trennkörper keineswegs korrekt hin, mit der Kanaltrennung bzw. dem Übersprechen von links nach rechts. Wo man bei OSS nach der vorher dargestellten Kritik auf den ersten Blick von zuviel der Trennung zwischen den Kanälen ausgehen könnte, ist es in Wirklichkeit bei den anderen Verfahren zuwenig.
Die Verfahren ohne Trennkörper lassen zwar beim Lautsprecherhören richtigerweise den menschlichen Kopf nur einmal in die Kalkulation hinein, nämlich in Gestalt des Hörers vor den Lautsprechern. Aber sie sind theoretisch problematisch in der Repräsentation der Schallquelle. Warum? Weil sie in der aufnahmeseitigen Erfassung der Schallquelle bereits ein Übersprechen zwischen links und rechts drin haben, das beim Original in dieser Weise gar nicht stattfindet. Schall sowohl von links als auch rechts wird jeweils bereits als Direktschall immer von beiden Mikrofonen erfasst. Das bedeutet, dass die mit den Mikrofonsignalen gespeisten Lautsprecher auch solche Signale wiedergeben, die dort unter dem Aspekt der Simulation der Schallquelle eigentlich nicht hingehören: Von der linken Box kommen auch Signale, die an der Schallquelle (nur) von rechts kamen, und von der rechten Box entsprechend umgekehrt.
Die trennkörperlosen Verfahren sind also theoretisch für die Lautsprecher-Wiedergabe inkorrekt, indem sie der Schallquelle ein Übersprechen zwischen linker und rechter Seite „unterjubeln“, das an der realen Schallquelle gar nicht stattgefunden hat, sondern erst am Kopf des Hörers passiert wäre (wenn dieser vor der Schallquelle gesessen hätte). Bei der Lautsprecherwiedergabe findet dann am Kopf des Hörers nochmal ein Übersprechen statt.
Einmal zuviel, so könnte man sagen.

Wendet man in der Betrachtung des OSS-Verfahrens den Blick weg vom irrelevanten Kopf des Hörers und hin zur Schallquelle, so wird deutlich, dass diese durch OSS theoretisch besser erfasst wird als durch die anderen Verfahren. Dort, bei der Schallquelle, liegt die theoretische „Richtigkeit“ des Trennkörpers: Was von der Schallquelle her von links kommt, wird dem –durch das rechte Mikrofon gespeisten– rechten Lautsprecherkanal bei OSS richtigerweise stärker „vorenthalten“ als bei den Verfahren ohne Trennkörper; dies einfach deshalb, weil das rechte Mikrofon von den linksseitigen Schallquellensignalen stärker abgeschottet ist als ohne Trennkörper. Und spiegelbildlich ebenso für die von rechts kommenden Schallquellensignale…

Die theoretische Analyse spricht folglich keineswegs grundlegend gegen Lautsprecherwiedergabe von OSS-Aufnahmen, sondern im Gegenteil.
Niemand wird nun aber deswegen kategorisch gegen die Verfahren ohne Trennkörper opponieren, bringen diese doch in der Praxis trotz der soeben nachgewiesenen theoretischen Problematik sehr ansprechende Ergebnisse.

Sinn dieser Überlegungen ist es also allein, den Weg frei zu machen für eine Offenheit gegenüber den praktischen Ergebnissen von OSS. Es sollten nicht grundlegende Überlegungen sein, die entscheiden, sondern allein die konkrete Anwendung und ihr Resultat.

Dann wird übrigens auch der Weg frei, umgekehrt die angebliche OSS-Tauglichkeit für Kopfhörerwiedergabe zu hinterfragen. Mit Kopfhörern fehlt das beim Lautsprecher-Hörer am Kopf stattfindende Übersprechen zwischen links und rechts. Hier ist somit gerade das bei der Aufnahme erfolgende stärkere Übersprechen der Verfahren ohne Trennkörper hochwillkommen, also derjenige Aspekt, der bei Lautsprecher-Wiedergabe als quasi doppeltes Übersprechen theoretisch falsch ist.
OSS trennt demgegenüber bei Kopfhörern zuviel: Die Schallquelle wird schon bei ihrer Aufnahme infolge der Scheibe stärker links/rechts-getrennt, und im Gegensatz zu einem hypothetisch vor der Schallquelle sitzenden Hörer gibt es dann beim Kopfhörer-Hören nochmal –und sogar vollständige– Links/Rechts-Trennung.
Wer mit Kopfhörern arbeitet, weiss, dass man dort nicht um bestmögliche Trennung der Kanäle verlegen ist, sondern um das Gegenteil: Die Wiedergabe soll möglichst von den Seiten oder vom Inneren des Kopfes virtuell nach vorn, vor den Hörer, verlagert werden. Hierum bemühen sich entsprechende Software-Plugins oder hardwareseitig bestimmte Kopfhörerverstärker-Schaltungen, die alle einen Crossfeed praktizieren, d.h. künstliches Übersprechen zwischen links und rechts einführen.
Sogar das aufnahmeseitige Übersprechen der trennkörperlosen Verfahren reicht also fürs Kopfhörer-Hören offenbar nicht aus, sondern muss künstlich ergänzt werden. OSS mit seiner stärkeren Trennung ist daher alles andere als besonders kopfhörer-geeignet, sondern erschwert im Gegenteil die Situation des kopfhörerbedingten Mangels an Übersprechen noch zusätzlich.

Fazit: In der Theorie ist OSS entgegen manchen Stellungnahmen nicht lautsprecher-untauglich und kopfhörer-affin. Sondern eher umgekehrt.

Der Rest ist Praxis, und hier ist der eingangs erwähnte Kammfilter beim Seitenschall viel interessanter als irgendwelche Grundsatzdiskussionen. Die Kammfilterproblematik ist ein wesentliches Argument, wenn der Hauptanwendungsbereich für OSS mitunter in Aufnahmen von Raumatmosphäre oder Raumhall gesehen wird. Denn je weiter entfernt man sich von der Schallquelle befindet, desto weniger relevant wird der „kammfilter-gefährdete“ seitliche Schall.
Je näher man umgekehrt an die Schallquelle heran möchte, desto mehr sollte man sich um den Kammfilter kümmern. Dies ist aber kein Ding der Unmöglichkeit. Ein Vorteil des OSS-Konzeptes ist seine Variabilität in der konkreten Faktur des Trennkörpers.
Abhängig vom Material der Scheibe und der Art und Dicke des aufliegenden Schaumstoffes, liesse sich das Kammfilter-Problem sicher entschärfen. Hilfreich mag dabei die Überlegung sein, dass das Scheibenmaterial nicht notwendig zugleich der Träger von Mikrofonhalterungen (Clips) sein muss, wie man es verbreitet bei handelsüblichen OSS-Scheiben sieht. Man kann demgegenüber die Mikrofone in üblicher Weise auf einer Schiene positionieren und den Trennkörper separat zwischen die Mikros bringen, wenn gewünscht oder erforderlich auch an getrenntem Stativ.
Insbesondere Do-it-Yourself-interessierten Leuten eröffnet sich also ein weites Feld für potentiell lohnende Aufnahmeversuche mit OSS an modifizierten oder komplett selbstgemachten Trennkörpern.

Jecklin-Scheibe im Shop

Status: veröffentlicht

Ambisonics in der Praxis

Im vergangenen November hatte ich mich hier mit der Ambisonics-Technik befasst und einen weiteren Beitrag dazu in Aussicht gestellt, der nach einer (für mich ersten) praktischen Anwendung des Verfahrens verfasst werden sollte.
Dieses Versprechen möchte ich nun einlösen, nach zwischenzeitlich (in einer Wuppertaler Kirche) erfolgten Soloklavieraufnahmen in 3-kanaligem Ambisonics.

Um das Ergebnis vorwegzunehmen: Ich kann Ambisonics empfehlen, werde es zukünftig wieder anwenden und habe mich auch für die Verwendung der „ambisonisch“ aufgenommenen Dateien entschieden, im Vergleich mit den Daten einer von mir noch parallel aufgenommenen Doppel-M/S.

Klang und Variationsmöglichkeiten, resultierend aus der Verwendung dreier koinzidenter Mikrofone, sind zunächst einmal allgemein beeindruckend.
Dies sagt allerdings noch nichts im Vergleich von Ambisonics und Doppel-M/S aus, die ja beide koinzidente 3er-Kombis sind. Denn abgesehen von den grundlegenden Vorzügen der Verwendung eines (echten) Omni-Mikrofons im Rahmen von Ambisonics (vgl. meinen November-Artikel) sind Doppel-M/S und Ambisonics eng verwandt.
Wie alle Mikrofon-Setups, so leben auch diese beiden stark in und durch die Qualitäten und Klangcharakteristika der jeweils verwendeten Mikrofone (sofern man diese Mikrofon-Charaktere nicht durch Frequenzgang-Nivellierung einander anzugleichen versucht).

Was mich daher die Ambisonics-Aufnahmen wählen liess und nicht die Doppel-M/S, war weniger rein theoretisch-technisch in Ambisonics basiert, sondern hatte zweierlei konkrete Aspekte:

  • Zum einen ist es wunderbar praktisch, klangliche Veränderungen in allen Parametern —Stereoweite, Richtcharakteristik, Rotation, „Zoom“— mit einem VST-Plugin vornehmen zu können, anstatt quasi „zu Fuss“ in Gestalt von (neben gängig plugin-zugänglichen Aufgaben) noch notwendigen Signal-Summenbildungen. Für Ambisonics gibt es mehrere Plugins (ich verwende Soundfield SurroundZone2), während mir bei Doppel-M/S nur ein Schoeps-Plugin bekannt ist, das exakt auf die Eigenschaften bestimmter Schoeps-Mikros zugeschnitten ist und daher für andere Mikrofone nicht adäquat wäre.
  • Zum anderen sprach hier vor allem das klangliche Ergebnis der konkret von mir verwendeten Mikrofone für das Ambisonics-Trio. Dabei spielte zwar u.a. auch der Bassbereich eine Rolle, aber selbst dessen angenehm tief reichende Sattheit gründete sich in meinem Falle weniger auf den prinzipiellen Bass-Vorteil der im Ambisonics-W-Kanal einzusetzenden echten Druckkugel als auf die beiden verwendeten fig8-Mikrofone (Beesneez Lily).

Klangliche Gründe sind es deshalb auch, aus denen heraus ich die oben angesprochene Frequenzgangkorrektur zwischen den Ambisonics-Mikrofonen nur sehr moderat durchführe, letztlich weniger um der Angleichung willen als in Richtung auf das für mich gewünschte Gesamtklangergebnis.
Sicherlich ist zwar richtig, dass technisch-theoretisch ein möglichst identischer Frequenzgang für die absolut perfekte Ambisonics-Berechnung zu fordern ist (s. mein November-Beitrag, Stichwort „Elektrische Koinzidenz“).
Im theoretischen Ideal wären also die Mikrofonfrequenzgänge per Einzelspur-EQ anzugleichen, und für das klanglich gewünschte Gesamtergebnis könnte dann gegebenenfalls wie üblich ein abschliessender EQ im Summen-bzw. Masterkanal bemüht werden.

Zunächst ‘mal bedeutet dies aber doppelte und oftmals teils gegenläufige klangliche Verbiegungen in den zwei EQ-Stationen. Sind die EQs auf der Ebene der Einzelspuren linearphasig —und dies ist natürlich geboten—, mag das noch gut tolerabel sein, erst recht, wenn es sich sogar um LinearPhase mit forward-backward-IIR handelt (das ja wohl das Pre-Ringing vermeidet, mir aber nur in zwei relativ teuren Plugins bekannt ist). Dann reduziert sich der doppelte EQ-Eingriff im Ergebnis auf die übliche EQ-Instanz im Summenkanal, also die immer und überall sich stellende Aufgabe des EQing im Blick auf technische und geschmacklich-klangliche Aspekte.

Was mir aber bei extensiver und doppelter (und evtl. Hin-und-Her-) Verbiegung sehr zweifelhaft erscheint, ist, wieweit etwaig spezieller klanglicher Charme —in meinem Falle insbesondere aus den Beesneez Lily— im Rahmen von derlei Nivellierung nicht zu weiten Teilen auf der Strecke bliebe.

Überdies scheint eine „tolerante“ Handhabung der Frequenzgänge innerhalb des Ambisonics-Trios auch unter folgender Erwägung vertretbar:
Hat man gleichartige fig8-Mikrofone (dies ist empfehlenswert), so ginge es in der potentiellen Frequenzgang-Nivellierung letztlich allein um den Unterschied zwischen den beiden Achten und dem Omni.
Da die Richtungsinformationen — links/rechts, vorne/hinten— aus den Achten kommen und diese gleich sind, wirkt sich in der Richtungsberechnung ein etwaiger Frequenzgangunterschied zum Omni praktisch nicht aus, da der Unterschied gleichsinnig in jeweils beiden Richtungen wirkt, nämlich sowohl auf der Vorder- als auch auf der Hinterseite der fig8 auftaucht. Bei einer einfachen M/S-Anordnung hat man den gleichen Effekt, weshalb hier penible Frequenzgangangleichungen von vornherein nicht sonderlich diskutiert werden.
Für die Richtungsabbildung scheint also eine Frequenzgangharmonisierung entbehrlich. Wo sie theoretisch relevant sein kann, das ist zum einen die Stereoweite (also die Bemessung des Punktes kompletter äusserer Links-Rechts-Abbildung), die sich als Folge von Frequenzgangdifferenzen zwischen W- und Y-Kanal über verschiedene Frequenzen hinweg ändern könnte. Und zum anderen ist es die aus der Summenbildung von W- und X-Kanal entstehende Richtcharakteristik der errechneten virtuellen Ambisonics-Mikrofone. Auch sie kann durch Mikrofon-Frequenzgangdifferenzen über Frequenz hinweg variabel werden.
Für die Praxis darf man aber wohl beide genannte Relevanzen —gegenüber den Vorteilen des nur moderaten EQ-Eingriffs— als getrost nachrangig bezeichnen, erst recht im Rahmen der Aufnahme eines einzelnen Instrumentes, selbst wenn es ein sehr weitreichendes Frequenzspektrum aufweist (Konzertflügel).

Und die beiden benannten theoretischen Relevanzen perfekter Frequenzgang-Angleichung sind übrigens selbstverständlich auch nichts speziell für Ambisonics Gültiges: Wo summierend aus verschiedenen, frequenzgang-differenten Mikrofonen bzw. Kapseln Richtcharakteristiken erzeugt werden, ist immer die potentielle Änderung der Charakteristik in Abhängigkeit von der Frequenz präsent. Und die erwähnte potentielle, frequenzabhängige Stereoweitenänderung als Folge unterschiedlicher Mikrofonfrequenzgänge trifft auf jede M/S-Decodierung zu, nicht nur diejenige im Rahmen von Ambisonics.
Nur wird eben im Zusammenhang anderer Mikrofon-Setups hierüber von vornherein kaum weiter räsoniert.

Fazit: Wer eine gewisse, auch zeitintensive Fummelei bei der Herstellung eines korrekt ausgerichteten, koinzidenten 3er-Mikrofon-Setups nicht scheut, ebenso etwaige Gain- bzw. Sensitivitätsunterschiede an Mikrofonen, Preamps und Wandlern auszugleichen bereit ist (s. mein November-Artikel in puncto „Elektrische Koinzidenz“), für den kann Ambisonics eine interessante und lohnende Sache sein.
Die angesprochene Fummelei wird nebenbei bemerkt noch grösser, wenn man alle drei Mikros auf einem Stativ montiert, allerdings wird man dann hinterher belohnt, wenn es um etwaige Positionskorrekturen des gesamten Array geht. Diese können allgemein klangliche Gründe haben, sind aber auch schon deshalb noch zu erwarten, weil die Stereobalance zu checken ist: Zwar ist die Balance selbstredend noch in der DAW korrigierbar, aber man tut immer gut, für ordentliche Mittigkeit des Stereobildes möglichst schon hardwareseitig zu sorgen (frei nach Wes Dooleys Motto „Fix it in the Mic“…). Eine Drehung um die Hochachse oder auch jede sonstige Positionsveränderung ist mit einem auf einem einzigen Stativ justierten 3er-Setup relativ leicht getan, die Mikrofone bleiben untereinander korrekt ausgerichtet. Aber bei zwei oder gar drei Stativen geht dann die Fummelei wieder los…

Die Verwendung möglichst guter und klanglich passender Mikrofone erspart Ambisonics einem natürlich nicht, ebensowenig die Beachtung der alten Regel, dass es nicht ungünstig ist, wenn auch dasjenige gute Qualität hat, was VOR den Mikrofonen abläuft…

Und dass man auch mit nur zwei Mikrofonen glücklich werden kann (in welchem bevorzugten Setup auch immer), ist natürlich klar und hat sich auch im Rahmen meiner Aufnahmen wieder gezeigt, als ich nebenbei testweise eine Äquivalenzstereo-Aufnahme mit zwei Röhren-Kleinmembran-Nieren Typ Soyuz-011 machte.
In der Praxis einer Voll-/Hauptaufnahme würde man insoweit zwar sicher noch ein — weiter entfernt postiertes— Mikrofon-Duo als Raummikros zur Zumischung hinzunehmen, aber selbst nur mit einem Nierenpärchen plus angemessen ausgewähltem und dosiertem Software-Hall (insbesondere convolution reverb) könnte durchaus eine ansprechende Aufnahme entstehen.
Mehr zum Soyuz-011 findet sich übrigens in einem parallel veröffentlichten Post…

Status: veröffentlicht

From Russia with Love

Die stark wiederbelebte Wertschätzung für Röhrentechnik hat längst breiten Einzug auch in den modernen Mikrofonbau gehalten. Verglichen mit dem Segment der Grossmembranmikrofone, ist allerdings die Zahl der röhrenbasierten Kleinmembraner (im folgenden: SDCs) recht überschaubar.
Teil dieses Angebots ist das einzeln oder als Stereo-Pärchen verfügbare SU-011 aus der russischen Manufaktur Soyuz, die sich dem Bereich edler Handfertigung verschrieben hat.

Das SU-011 ist ein Mikrofon-Stäbchen, das mit schraubbaren Wechselkapseln aufwartet.
Dieses Design ist aus anderen SDCs bekannt und bewährt. Was aber als Seltenheit aufhorchen lässt, ist die Möglichkeit, nicht nur die 011-Kleinmembrankapseln aufzuschrauben, sondern auch die für die beiden anderen Soyuz-Mikrofone konzipierten grösseren Wandler, nämlich die Wechsel-Kapseln der Röhren- bzw. Transistor-Grossmembran-Modelle SU-017 und SU-019.
Am 011-Verstärkerteil einsetzbar sind demnach nicht nur die frontseitig besprochenen 011er-Kapseln, also Niere, Omni und Hyperniere mit recht ausgeglichenen, aber auch praxisfreundlich ausgelegten Frequenzgängen sowie Membranen von knapp 18mm Durchmesser. Sondern kompatibel sind auch die seitlich besprochenen „Lollipop-Design“-Kapseln von 017/019. Dies macht das SU-011 zu einem extrem vielseitigen Mikrofon!

Soyuz-017

Der deutsche Soyuz-Vertrieb, Audiowerk aus Hargesheim, hatte mir sehr freundlich und hilfsbereit einen Test der 011 (als Stereopaar) ermöglicht, den ich kürzlich im Rahmen von Soloklavier-Aufnahmen in einer Wuppertaler Kirche vornahm.
Neben der erstklassigen Qualität des deutschen Vertriebes und einem ebenso freundlich-warmherzigen Service des Herstellers selbst sei zunächst schon ausgesprochen positiv vermerkt, wie hochwertig und ansprechend sowie in vielen Details durchdacht-praxisnah sich das 011er-Set präsentiert. Insofern hat der Titel dieses Beitrags seine volle Berechtigung (und ist nicht nur ein Gag, von wegen James Bond und so…). Da ist beim Hersteller Soyuz ganz offenbar sehr viel Liebe zur eigenen Tätigkeit und zum Produkt vorhanden, sowie nicht zuletzt eine hohe Wertschätzung für den Kunden.
Dieser Eindruck beginnt bei ansprechenden Kleinigkeiten wie z.B. beiliegenden Visitenkarten der für Zusammenbau und Test der konkreten Mikros zuständig gewesenen Personen (samt Datum der Produktion), und er setzt sich u.a. fort in Frequenzschrieben der Mikros unter 0, 90 und 180°. Hinsichtlich des Produktes selbst wird man in dieser Auffassung mehr als bestätigt, erwähnt seien neben dem noblen Finish der Mikros die edlen und praktischerweise magnet-verschlossenen Holzschatullen, das beidseitig den Betriebszustand anzeigende Netzteil und die sich von üblichen Billig-Clips wohltuend abhebenden, sogar leicht schockgedämpften Mikrofonträger-Clips. Damit noch nicht genug: Schaut man in die Schatullen, die auch Platz für etwaige zusätzliche Kapseln bieten (an deren Stelle –Noblesse oblige– feine “Platzhalter” aus Holz stecken!), so entdeckt man ein zylindrisches Stück von knapp 3cm Höhe im Mikrofondurchmesser und -finish, beidseitig mit Schraubgewinden versehen. Es handelt sich um ein Pad, welches zwischen Kapsel und Mikrofonbody geschraubt werden kann und dann das Mikrofonsignal um 10dB absenkt; dies also VOR der Verstärkerelektronik der Mikrofonstäbchen, wohlgemerkt, was eine durchdachte Ergänzung der üblichen Pad-Absenkungen in oder vor den Mikrofon-Preamps darstellt. Denn letztere kommen hinter der Mikrofonelektronik und können nur noch den Input am Preamp absenken. Das Soyuz-”Inline-Pad” hingegen senkt vor der Mikrofonelektronik ab und erhöht also bei Bedarf die maximale SPL des Mikrofons!
Die beiliegenden, mit 5 Metern längenmässig üppig dimensionierten Mikrofonkabel sind normale Kabel, über deren 3 Pole zusätzlich zum Audiosignal auch die Spannungsversorgung der Röhre läuft. Man kann also vorteilhafterweise auch „symmetrische“ Kabel eigener Wahl und Länge für die Verbindung zwischen Mikro und Netzteil einsetzen.

Wer sich nach Röhren-SDCs umsieht, hat in aller Regel eine Symbiose verschiedener Aspekte im Sinn: Die bekannten Vorteile kleinerer Membranen in puncto Neutralität, Frequenzgang, Resonanzen und Impulsschnelligkeit sollen nach Möglichkeit verquickt werden mit einem gewissen Quantum an Wärme des Klangs, den man bei vielen Transistor-SDCs mit ihrer oft stark analytischen Präzision vermissen mag.
Jene klangliche Wärme ist ja auch — abseits der Alternative Transistor/Röhre im Verstärker-/Übertragerteil — eines der Argumente, die zugunsten des Einsatzes einer Grossmembran vorgebracht werden.

In letzterem Sinne, also von der Seite der Membrangrösse her, praktiziert das 011 ebenfalls eine Verschmelzung der Vorteile zweier Welten, denn die knapp 18mm der Membranen der kleineren Kapseln liegen zwischen der kleinen Halbzollgrösse und der üblichen Grossmembran-Dimension von 1 Zoll oder mehr. Wobei sich übrigens die 18mm des 011 im Vergleich mit manch’ anderen als SDC laufenden Röhren-Mikros (mit ihren 20 oder 21mm) noch im unteren Bereich befinden.

Was die Röhre als „Wärmequelle“ angeht, ist sie selbstverständlich kein Allheilmittel, wie mir vor ein paar Jahren eine Aufnahme mit einem gut erhaltenen und gewarteten historischen Röhren-SDC des Typs Neumann SM-23 deutlich bestätigte (ein quasi zwei KM-56 vereinigendes Stereomikrofon). Das SM-23 lieferte einen geradezu rasiermesserartigen, hochpräzise-analytischen Klang mit einer teils schon unangenehm scharfen, obertonreichen Hochfrequenzintensität. Zwei ebenfalls mitgelaufene Schoeps-SDCs erschienen dagegen geradezu als freundliche „Weichzeichner“. Abseits der Röhre sind eben auch viele andere Aspekte beteiligt, insbesondere Kapseldesign und Membranmaterial.

Beim Soyuz jedenfalls ist die Rechnung offenbar voll aufgegangen, egal welchen Anteil daran die russische Miniaturröhre 6S6B oder die Kapseln haben.
In einem Äquivalenzstereo-Setup mit den Nieren-Kapseln (hier mit rund 27cm Basis und je 40° Öffnung) war ich auf Anhieb sehr angetan vom Klang und dem Stereobild der 011er. Und der Vergleich des Mono-Mix der beiden 011er mit einer noch mitgelaufenen, anderen Mono-Niere bestätigte eine erfolgreiche „Fusion“ der vorher angesprochenen Zielrichtungen: Da findet man einen transparenten, brillianten Klang, der nichts an Details auch und gerade im oberen Frequenzbereich vermissen lässt. Und dennoch gibt es einen satten Bass und jenen gewissen, seidig-cremigen Schmelz, der genau das Objekt der oben angesprochenen Suche nach dem musikalisch angenehmen, nicht kalt-analytischen Klang ist.

„Mission accomplished“, so möchte man also sagen.
Die Soyuz-011 sind sehr feine Mikrofone, zwei davon werden deshalb zukünftig bei mir Dienst tun…

Soyuz SU-011 im Shop

Status: veröffentlicht

Aufnahmen in Ambisonics-Technik

Ambisonics ist ein Aufnahmeverfahren, das in den 1970ern u.a. vom britischen Mathematiker Michael A. Gerzon (1945-96) entwickelt wurde.

Ambisonics Logo

Ambisonics Logo

Seit vielen Jahren interessiert mich dieses Verfahren, bisher kam es aber nie dazu, dass ich tatsächlich mit Ambisonics gearbeitet habe. Erst vor kurzem entstand der feste Plan, ein nächstes Projekt u.a. mit dieser Technik aufzunehmen, woraus auf Vorschlag von Arnd Niemeyer auch dieser Beitrag resultiert. Meine Ausführungen können auf diesem Hintergrund leider noch keinen Bericht aus der Praxis erfolgter Anwendung des Verfahrens enthalten, sondern vorerst nur die Darstellung theoretischer Grundlagen und praktischer Aspekte von Ambisonics, soweit sie sich aus der Perspektive des „Vorhinein“ darstellen.
Auch so ist der Post aber schon umfänglich genug ;-)
Die „Rückschau“, also der Praxisbericht, wird von mir nachgeliefert werden, sobald ich die ersten Anwendungserfahrungen gemacht habe.

Ambisonics beinhaltet die Erfassung eines Schallfeldes an einem bestimmten Punkt im Raum, an dem dieses Feld mit Hilfe von mehreren koinzident angeordneten Mikrofonen bzw. Mikrofonkapseln aufgenommen wird. Grundgedanken hierzu gehen auf Alan Blumlein und die M/S-Technik zurück, Ambisonics erweitert M/S aber bereits in der horizontalen Schallfeldebene und kümmert sich zusätzlich auch um die Dimension des Oben/Unten, also die Information über die vertikale Ebene.

Die Genauigkeit der aufgezeichneten Schallfeldinformation lässt sich theoretisch unbegrenzt weit treiben durch Erhöhung der Zahl der Informationskanäle, wobei der Grad an Informations-„Detaillierung“ in Ordnungen bezeichnet wird.

Grundlage und unterste Ebene der Schallerfassung ist eine reine Schalldruck-Information am Aufnahmepunkt, also eine — in Richtcharakteristik gesprochen — omnidirektionale Information.
Mit ihr liegt noch keine Richtungsinformation vor, man spricht von Ambisonics der 0.Ordnung.

Hinzukommen müssen die Richtungsinfos aus der darauf aufbauenden 1.Ordnung:
Schalldruck-Gradienten sind erforderlich, in Richtcharakteristik formuliert also mehrere (symmetrisch) bidirektionale Informationen. Der Zusatz „symmetrisch“ ist für eine normale fig8-Charakteristik eigentlich unnötig bzw. eine Tautologie, aber es gibt Mikrofone, deren Charakteristik ebenfalls als fig8 bezeichnet ist, die aber klanglich gewisse Unterschiede zwischen Vor- und Rückseite aufweisen (z.B. die R-Modelle aus Royers Bändchen-Palette). Solche „asymmetrische“ Achten sind hier ungeeignet, weil die Asymmetrie die Richtungs-Information verfälscht, genauso wie solche Mikros auch als S-Mikro in M/S-Stereo nicht in Frage kämen.
Die 1.Ordnung besteht aus drei Gradienten, die folgende Richtungsinformationen bereitstellen: vorne/hinten, links/rechts und oben/unten.

Die sich insgesamt ergebenden 4 Kanäle werden mit den Kürzeln W bis Z bezeichnet, W für Omni, X für vorn/hinten, Y für die Seiten- und Z für die Höheninformation.

Die hierin verkörperte Information über das Schallfeld heisst B-Format.

Höhere Ambisonics-Ordnungen addieren immer mehr zusätzliche Richtungsinformationen. Diese Unterteilungen sind aber in der Praxis nicht mehr relevant, dies u.a. schon deshalb, weil praktisch-technisch eine auch nur annähernde Koinzidenz so vieler Mikrofone unmöglich zu erreichen ist.

Es geht also praktisch allein um Ambisonics 1.Ordnung.

–> Was bringt das Ganze?

Man kann durch Summen- und Differenzbildung aus den 4 B-Format-Kanälen in der Post-Production ganz nach Belieben alles von Stereo bis zu vielfältigen Surround-Formaten decodieren. Und dabei können — NACH der Aufnahme — die aus der Decodierung entstehenden virtuellen Mikrofone auch noch beliebig in ihrer Richtcharakteristik und ihrem Öffnungswinkel verändert und die 0°-Achse des ganzen Arrays beliebig verdreht werden. Durch die Information des Z-Kanals (oben/unten) lassen sich schliesslich die virtuellen Mikrofone auch noch aus der Horizontale nach oben oder unten kippen.
Anders ausgedrückt: Man kann mit den (virtuellen) Mikrofonen im Nachhinein mehr nach links oder rechts zielen, mehr nach oben oder unten, man kann den Aufnahmewinkel (Stereobreite) ändern und per Wahl der Richtcharakteristik entscheiden, wie das Verhältnis von direktem und indirektem Schall sein soll (wie „räumlich“ also die Aufnahme klingt).
Die Decodierung der 4 Kanäle übernimmt entsprechende Hardware oder auch Software, die als Standalone-Programm oder als Plugin in einer DAW arbeitet.

–> Und wie läuft die Aufnahme praktisch ab?

Es gibt zwei Ansätze für die Aufnahme, nämlich das sog. A-Format und das B-Format.

1)  B-Format

Die oben erwähnten Richtcharakteristiken der 4 B-Format-Kanäle legen den gedanklichen Schritt zu entsprechenden Mikrofonen nahe. Und in der Tat ist das B-Format nicht nur die 4-kanalig codierte Information über ein Schallfeld, sondern als sog. natives B-Format auch direkt erzeugbar durch ein Omni und drei Achten.

Dabei kann es um 4 selbständige Mikrofone gehen, aber zwei oder drei der Kapseln könnten auch in einem einzigen Mikrofon zusammengefasst sein. Beispiel: AEA R88Mk2 oder Coles 4050, die zwei in 90°-Winkel zueinander stehende Bändchen-Achten kombinieren; oder Josephson C700S, das neben zwei solchen Achten (hier Kondensatoren) auch noch eine Omni-Kapsel beherbergt.
Benutzt man getrennte Mikros, ist durchaus zunächst noch offen, wie die Anordnung im Detail aussieht, denn u.a. gibt es für die Achten immer zwei mögliche Positionen. Am Beispiel X-Kanal (vorne/hinten): Das X-Mikro könnte vertikal angeordnet sein (mit seinen „Nullen“, also den Punkten der seitlichen geringsten Empfindlichkeit, nach links und rechts) oder auch horizontal von der Seite her (mit den Nullen nach oben und unten weisend).

Wenn man die Anordnungen durchdenkt, wird jedenfalls klar, dass sich die Mikrofone immer ein wenig behindern, zum einen durch evtl. Schallabschattung, zum anderen, indem perfekte Koinzidenz in allen 4 Kanälen nie erreichbar ist.

Nicht zuletzt aus diesen Gründen trifft man in der Praxis eine Ambisonics-Variante an, die auf den Z-Kanal verzichtet, also sich ohne Höhenkomponente und folglich nur mit den Informationen in der Schallfeld-Horizontale begnügt. Diese 3-kanalige Variante hat gewisses Renommée erlangt als Halliday/Nimbus-Anordnung des britischen Labels Nimbus Records.
Dr. Jonathan Halliday (1950-2011), Technischer Direktor bei Nimbus, entwickelte die wohl nach wie vor bei Nimbus eingesetzte Anordnung: 3 getrennte Mikros (dort Kleinmembrane von B+K und Schoeps), und zwar das Omni horizontal in der Mitte sowie von unten und oben vertikal dazustossend die beiden Achter für X- und Y-Kanal, das X-Mikro mit den Nullen nach links/rechts und das Y-Mikro mit den Nullen nach vorn/hinten.

Foto des Halliday-Arrays:
https://en.wikipedia.org/wiki/Ambisonics#/media/File:Nimbus-Halliday-Microphone-A.jpg

Im Internet findet sich der Vorschlag einer Abwandlung dieser Anordnung:
Omni vertikal von unten nach oben, Y-Mikro horizontal in der Mitte (Nullen nach oben/unten) und X-Mikro von oben vertikal (Nullen nach links/rechts).
Dieser Vorschlag scheint mir plausibel durch den für ihn aufgezeigten Vorteil, dass das Omni infolge der vertikalen Anordnung eine in der horizontalen Schall-Ebene vollkommen uniforme Richtcharakteristik hat. Bei Halliday kommt das Mikro demgegenüber horizontal von hinten, erleidet also in der horizontalen Ebene die auch bei Omnis vorhandene seitliche und erst recht rückwärtige Abschwächung der höheren Frequenzen!
Bei der alternativen, also der vertikalen Anordnung des Omni liegt zwar die horizontale Haupteinsprechrichtung vom Polardiagramm des Mikrofons her auf 90°, also bereits in einer im HF-Bereich abgeschwächten Region. Aber dies gilt dann uniform rundum. Also egal ob Schall von hinten oder vorn oder den Seiten: Immer empfängt das Omni ihn auf 90°. Bei Halliday kommt der Schall von vorn auf 0° und von hinten auf 180° usw., also mit den beachtlichen Sensitivitätsunterschieden im HF-Bereich eines Omni-Mikros. Für die Decodierung des horizontalen Schallfeldes ist das ungünstig, da Schallfeldunterschiede vorgetäuscht sind, die in Wirklichkeit zum Teil nur auf technische Unterschiede in der Mikrofonsensitivität zurückgehen.
Die erwähnte, horizontal-rundum gleichmässig wirkende 90°-Abschwächung des HF-Schallempfangs eines vertikal positionierten Omnis kann man dann, wenn gewünscht, mit EQ in der Post-Production ausgleichen. Die Kompensation wirkt gleichmässig rundum, so wie die Abschwächung gleichmässig rundum stattfindet.

Die 3-kanalige Variante des Native-Ambisonics scheint für viele Anwendungsfälle ein guter Kompromiss zwischen vollständiger Schallfelderfassung und praktikablem und möglichst koinzidentem Mikrofon-Setup.
Denn der Verzicht auf die Vertikalkomponente (Z-Kanal) und damit auf die Kippbarkeit der decodiert-virtuellen Mikrofone in der Post-Production ist jedenfalls dort gut verschmerzbar, wo die Höhenausdehnung der Schallquelle relativ beschränkt ist und man mit einer vor der Aufnahme erfolgenden korrekt-horizontalen Ausrichtung des Mikrofon-Arrays auf der „richtigen“ Höhe auch keine Probleme hat. Denn dann brächte eine virtuelle Kippbarkeit des Mikrofon-Arrays in der Post-Production praktisch keine Vorteile. Im Gegenzug aber spart man sich ein Mikrofon im Setup, mit u.a. den Vorteilen aus geringerer gegenseitiger Mikrofon-Abschattung und einfacherem Aufbau.
Und die Koinzidenz von drei Mikros im horizontalen Schallfeld ist sehr gut herstellbar, wohingegen bei vieren je nach konkretem Setup die horizontal-koinzidente Anordnung leidet oder jedenfalls das Problem gegenseitiger Abschattung in der horizontalen Ebene virulent wird. Die vertikale Koinzidenz ist sowieso nicht ganz befriedigend möglich, egal ob mit drei oder vier Kanälen, aber bei 3-kanaligem Ambisonics spielt dies keine Rolle, da hier nur 2-dimensional im horizontalen Schallfeld aufgenommen wird und die horizontale Koinzidenz sehr exakt ist, solange die Schallquelle sich in der Vertikalen nicht stark ausdehnt.

 –> Was ist in der Post-Production zu beachten?

Die Grundforderung für das B-Format ist, dass die Kapseln/Mikrofone nicht nur möglichst perfekt koinzident, also räumlich-akustisch auf einen gemeinsamen Referenzpunkt bezogen, arbeiten, sondern dass dies auch elektrisch der Fall ist.
Diese gleichsam „elektrische Koinzidenz“ bedeutet, dass eine hypothetisch für alle 3 oder 4 Mikrofone akustisch gleich wirksame Schallfeldänderung auch im elektrischen Output aller 3 oder 4 Kanäle gleich wirksam sein muss. Denn nur dann werden Schallfeldänderungen, d.h. das aufzunehmende Schallereignis, in Stärke und Richtung korrekt durch die Kanäle abgebildet. Gehen dagegen Differenzen zwischen den Kanälen ganz oder teilweise auch auf elektrisch-technische Unterschiede zwischen ihnen zurück, wird die Summen- und Differenzbildung in der Decodierung des B-Formats auch von Umständen ausserhalb des Schallfeldes beeinflusst. Die Schallfeld-Abbildung im B-Format wird dann verfälscht.

Hieraus folgen dreierlei Forderungen:

Erstens müssen etwaige Sensitivitätsunterschiede zwischen den 3 oder 4 Mikros in der Post-Production ausgeglichen werden, damit alle Signale auf den gleichen „Nullpunkt“ bezogen sind. Mikrofon-Daten in mV/Pa müssen also gegebenenfalls umgerechnet werden in dB re 1V/Pa —z.B. mit Hilfe von www.sengpielaudio.com/Rechner-sensitivity.htm—, und die dB-Unterschiede werden dann in der DAW in den Mikrofon-Tracks entsprechend durch Gain-Addition oder -Abzug kompensiert.

Zweitens gilt Gleiches für etwaige Gain-Unterschiede in den Mikrofon-Preamp-Kanälen. Bei der Aufnahme muss nicht identisch ausgesteuert werden, aber falls unterschiedliche Verstärkung am Werk war, muss hinterher in der DAW entsprechend kompensiert werden.

Und drittens ist es wünschenswert, den Frequenzgang der Mikrofone per EQ möglichst weit einander anzunähern. Frequenzgangkurven in Datenblättern mögen hier hilfreich sein, ebenso aber auch eine FFT-Analyse der Aufnahmen in den Mikrofonkanälen.

Sofern die 2 oder 3 bidirektionalen Mikros vom selben Typ sind, kann man bei diesen untereinander Punkt 1 schon einmal abhaken und muss für alle gleichermassen nur die etwaige Differenz zum Omni-Mikro ausgleichen. Für den Frequenzgang (Punkt 3) darf man dies zumindest im Falle eines „matched pair“ von zwei fig8-Mikros auch so halten.
Der Vergleichsfrequenzgang des Omni-Mikrofons hängt übrigens im Falle von dessen vertikaler Positionierung davon ab, ob man die HF-Abschwächung infolge des 90°-Einsprechwinkels kompensiert haben oder so belassen möchte (vgl. dazu oben bei den Ausführungen zur Mikrofonanordnung).

Der letzte Schritt: Von der so erreichten „elektrischen Koinzidenz“ aller Mikrofone aus ist dann abschliessend wieder eine Art „Rückschritt“ zu machen. Der Omni-Kanal muss um 3dB abgesenkt werden. Das hat rein historische Gründe, die dazu geführt haben, dass die entsprechende Konvention für die Decodierung gilt und die Decoding-Software also diese Absenkung voraussetzt.

2)  A-Format

Erwägungen zur Koinzidenz und dem etwas umständlichen Aufbau im Rahmen der nativen B-Format-Aufnahme lassen den Gedanken aufkommen, Ambisonics (mit allen 4 Kanälen) noch anders aufzunehmen.
Die Rede ist vom sog.
A-Format.

Hier werden 4 kleine Nieren-Kapseln so nah wie möglich aneinander positioniert dergestalt, dass sie die Ecken eines gleichseitigen Tetraeders bilden. Ihre 4 Signale ergeben das A-Format, das ebenso wie eine 4-kanalige native B-Format-Aufnahme das Schallfeld 3-dimensional vollständig erfasst und aus dem sich durch decodierende Umrechnung die 4 Kanäle des B-Formats gewinnen lassen. Die Umrechnung vom A- ins B-Format übernehmen Hardware- oder Software-Decoder.

Foto eines A-Format-Mikrofons:  www.core-sound.com/TetraMic/TetraMic-small3.jpg

3)  Vor- u. Nachteile der beiden Formate

Vorteilhaft an A-Format-Mikrofonen (z.B. von Soundfield oder CoreSound) ist das — im Verhältnis zur 4-kanaligen (nicht zur 3-kanaligen) nativen B-Format-Aufnahme — höhere Mass an Koinzidenz in den recht kleinen Tetraedern. Angenehm ist auch der Umstand, dass die Sensitivitäten und Frequenzgänge der 4 Kapseln schon wegen gleichen Bautyps und zusätzlich noch von den Herstellern vorgenommenen Aufeinander-Matchens praktisch gleich sind. Ferner sind alle 4 Kanäle in Form eines kompakten, handlichen Mikrofons präsent, das Setup ist also letztlich genauso einfach wie dasjenige eines einzelnen Monomikrofons.

Ein gewisser Nachteil ist die Festlegung auf Kleinmembran-Nieren-Kondensatoren und auf eine ganz konkrete, vom jeweiligen Hersteller des Mikrofons verwendete Kapselsorte.
Letzteres mag sicher verschmerzbar, ersteres will aber zumindest bedacht sein:

  • Im Gegensatz zum A-Format enthält das native B-Format ein Omni. Es ermöglicht also dem Nutzer, dieses Omni mit einem echten Druckempfänger zu realisieren anstatt aus der Addition gegengerichteter Nieren. Denn bekanntlich ergibt zwar im Polardiagramm die Nieren-Addition ein Omni, ein solches bleibt aber bestimmten Eigenheiten eines Druckgradienten-Mikros verhaftet und ist insbesondere im Tiefbass-Frequenzgang einer echten Druck-Kugel unterlegen.
  • Wer die klanglichen Eigenschaften von Bändchenmikrofonen schätzt, hat mit dem nativen B-Format die Möglichkeit, für die Achter-Kanäle Bändchen einzusetzen.

4)  Alternative

Eine Alternative für das 2-dimensionale, also 3-kanalige Ambisonics (ohne Z-Kanal) besteht im insbesondere von Schoeps propagierten Doppel-M/S.

Hier werden zwei in 180° zueinander stehende Nieren zu zwei entgegengesetzt gerichteten M/S-Pärchen kombiniert, indem sie ein und dasselbe rechtwinklig zu ihnen empfangende fig8-Mikro benutzen, sich also ihr jeweiliges S-Mikro quasi teilen. Wie bei Ambisonics ist — im Gegensatz zum einfachen M/S — die Richtcharakteristik der decodierten virtuellen Mikrofone frei wählbar und nicht automatisch mit dem Zumischungsanteil des S-Mikros vorgegeben.
Und genau wie beim nativen 3-Kanal-B-Format sind normalerweise 3 Mikros beteiligt. Auch hier kann man allerdings in der Praxis mit zwei Mikrofonen auskommen, sofern eines zwei Kapseln enthält: Hier müsste es die doppelte Niere sein, die in einem Mikrofon kombiniert wäre, indem dieses eine entsprechende Doppelkapsel und getrennte Ausgänge für beide Kapseln hätte (z.B. Sennheiser MKH 800 twin, Ehrlund EHR-T).

Der oben als Nachteil des A-Formats angesprochene Unterschied einer aus zwei Nieren addierten Druckgradienten-Kugel gegenüber einer echten Druck-Kugel gilt auch hier.

——————————–

NACHTRAG 13.11.2015

Zwei Ergänzungen zu meinem Post scheinen mir angezeigt:

  • Rein vorsorglich zur Klarstellung ist anzumerken, daß die Ermöglichung des nachträglichen Links-Rechts-Verdrehens des Mikrofon-Arrays (also des “Zielens” mehr nach links oder rechts) natürlich keine Sonder-Fähigkeit von Ambisonics –oder auch Doppel-M/S– ist.
    Mir fiel im Nachhinein auf, daß meine Textformulierung insoweit evtl. mißverständlich sein könnte.
    Die Links/Rechts-Information kommt aus dem Y-Mikrofon, von dem zwecks unterschiedlicher Seiten-Gewichtung mehr von der positiven oder eben der negativen Polaritätsseite in die Summenbildung eingeht. Das ist nichts anderes als eine Balance-Regelung, die beim einfachen M/S-Setup ebenso existiert, da dort das Seiten-Mikrofon ja auch vorhanden ist.
    Die Erweiterungen durch Ambisonics liegen nicht im Y-Mikrofon, sondern in der Kombination von W- und X-Kanal beim 3-kanaligen Ambisonics und zusätzlich dem Z-Kanal beim 4-kanaligen “Voll-Ambisonics”. Diese Erweiterungen machen einerseits die Wahl der Richtcharakteristik möglich unabhängig vom Anteil des X-/Seiten-Mikros, und andererseits per Z-Kanal die 3.Dimension, nämlich die Verdrehung der virtuellen Mikros nach oben/unten (also um die Querachse des gesamten Mikrofon-Arrays).
    Der erstgenannte Vorteil gegenüber dem einfachen M/S –also freie Richtcharakteristik-Wahl– ergibt sich auch aus der Doppel-M/S, wie dort erwähnt; der zweitgenannte natürlich nicht, er erfordert den 4. Kanal, den die Doppel-M/S nicht hat.
  • Ergänzend zu den Maßnahmen in der Post-Production unter dem Stichwort “Elektrische Koinzidenz”: Ich vergaß zu erwähnen, daß auch die Referenzierung der Wandler entweder identisch sein oder bei Unterschiedlichkeit später in der DAW entsprechend kompensiert werden muß.
    Also: Wer in den 3 oder 4 Wandlern oder Wandlerkanälen unterschiedliche 0dBFs-Referenzpegel eingestellt (oder unterschiedliche Werte von den Geräten her unabänderlich vorgegeben) hat, der muß diesen Unterschied hinterher ebenfalls kompensieren. Wenn ein Wandler z.B. aus +12dBu  die 0dBFs-Vollaussteuerung macht, ein anderer z.B. aus +20dBu, dann ergeben sich zu kompensierende 8dB Unterschied ganz so, als hätte man in den Preamps eine um 8dB unterschiedliche Verstärkung.
    Wer die Vollaussteuerungs-Referenzspannung bei seinen Wandlern einstellen kann, ist wohl ganz gut beraten, diese Werte vor der Aufnahme auf einheitliche Marge zu setzen: Ein Punkt weniger im Rahmen der Herstellung der “elektrischen Koinzidenz”, den man hinterher im Editing zu erledigen hat und dort womöglich noch vergessen könnte…
Status: veröffentlicht

Laufzeitdifferenzen bei Multimikrofonie

Wer ein Signal mit nur einer Mikrofon-„Instanz“ aufnimmt (also mit einem einzelnen Mikro oder einem Stereo-Paar), wie es verbreitet in der Pop-Musik der Fall ist, der hat mit Fragen der Signallaufzeit nichts am Hut. Derlei Probleme entstehen erst, wenn dieselbe Signalquelle mehrfach aufgenommen wird und die Laufzeit des Signals zur „Instanz“ x nicht identisch mit derjenigen zur „Instanz“ y ist. Werden dann x und y in denselben Kanal zusammengemixt, taucht das Thema evtl. Signalauslöschungen auf: Dieselbe „Stelle“ im Signal liegt in den beiden Mikrofonspuren zeitlich nicht exakt übereinander, sondern zueinander verschoben; umgekehrt heißt dies, daß in den beiden Spuren am gleichen Zeitpunkt die Phasenlage im x-Signal eine andere sein kann als im y-Signal.

Daher die Auslöschungsproblematik, die unter dem Stichwort „Kammfiltereffekt“ in ihrer Frequenzabhängigkeit bekannt ist. Frequenzabhängigkeit ist gegeben, weil die Phasenlage der beiden gemixten Signale zueinander von der zeitlichen Ausdehnung eines vollen Wellendurchgangs abhängt und diese Ausdehnung wiederum von der Frequenz. Ist der Wellendurchgang z.B. 1/20 einer Sekunde lang (20Hz), so spielt eine Verschiebung des zugemixten Signals um beispielsweise eine Millisekunde (entsprechend ca. 34cm Schallweg) keine Rolle; bei einem Wellendurchgang von z.B. nur einigen Millisekunden sieht es anders aus.

Die spontane Reaktion hierauf wird zunächst sein, die Laufzeitdifferenz technisch komplett beseitigen zu wollen. Audiotechnisch würde halt einfach durch Signaldelay das nähere Mikro virtuell zum weiter entfernten versetzt. Theoretisch die perfekte Lösung, aber praktisch? Die Laufzeitdifferenz muß schon SEHR exakt bekannt sein, damit die Korrektur wirklich korrekt erfolgt. Solange es um strukturell sehr einfache Signale geht, ist sowas möglich, und es gibt inzwischen (VST- usw.) Plugins, denen man innerhalb einer Multitrack-Software die Berechnung des Delays (und seine Anwendung) gleich automatisiert überlassen kann. Wer aber mal ein solches Plugin auf komplexere Signale aus der Praxis ansetzt, wird schnell feststellen, daß es mit der Eindeutigkeit der vom Plugin vorgeschlagenen Ergebnisse vorbei ist. Beim einen Versuch kommt dieser Wert heraus, beim anderen jener. Inspiziert man die beiden Wellenformen manuell, zeigt sich, warum das so ist. Sie sind alles andere als identisch, jedenfalls bei weitem nicht genügend, um daraus den verläßlich-korrekten Laufzeitunterschied zu entnehmen. Das ist so, weil das Quellsignal zu komplex ist: Die Schallquelle ist kein idealer Punkt im Raum, sondern möglicherweise breit ausgedehnt, was schon bei einem Konzertflügel oder einer kleinen Kammermusikgruppe ausgeprägt der Fall ist, erst recht bei einem Chor oder Orchester; die Mikrofone stehen also in keinem Falle exakt hintereinander auf einer einzigen Linie der Schallabstrahlung, sondern es gibt viele Schallquell-Punkte und unendlich viele Abstrahlungsrichtungen, die für die beiden Mikros infolge ihrer unterschiedlichen Positionen unterschiedliches Ergebnis bringen; und auch der Raum mit der Vielzahl seiner Reflexionen trägt für beide Mikros an ihren unterschiedlichen Positionen zu unterschiedlichem Klangergebnis bei; hinzu kommen evtl. unterschiedliche Mikrofontypen, usw.

Schade, aber: Exakter Laufzeitausgleich ist in der Praxis meist nicht machbar.

Es gibt Tonmeister, die sich um die Problematik bekundetermaßen nicht sonderlich scheren, teils auch mit dem Hinweis, es gehe ja bei gängigen Schallwegdifferenzen zwischen den Mikros (also meist 1 bis 3 Meter) nur um Verzögerungen im Bereich von wenigen Millisekunden. Letzteres Argument ist allerdings sicherlich unrichtig. Von „NUR Millisekunden“ zu sprechen, verkennt die Gegebenheiten beim Schall. Denn eingangs genannte Zahlen deuten schon an, daß man bei Laufzeitverzögerungen im Millisekundenbereich gar nicht weit in der Frequenzskala nach oben zu gehen braucht, um arge Phasenverschiebungen zu haben: Wer zwei gleich laute Signale mischt, die 5 Millisekunden (ca. 1,70m) verschoben sind, der bekommt eine 180°-Phasendifferenz und damit Totalauslöschung schon bei einer Frequenz von 100Hz (u. 300Hz usw. aufwärts). Um das Problem rein laufzeittechnisch als entschärft betrachten zu können, müßten die Laufzeitdifferenzen gegenüber dem Rechenbeispiel mindestens 100-150fach verkleinert sein, also im unteren Mikrosekunden-Bereich liegen, damit die Auslöschungen nach oben in Frequenzbereiche „verbannt“ wären, wo sie nicht mehr so stark stören könnten (aber immerhin auch noch bedauerlich wären); anders ausgedrückt, müßten die Schallwegsdifferenzen im einstelligen Zentimeterbereich oder weniger liegen. Mit dem Hinweis „nur Millisekunden“ kann man sich also richtigerweise nicht beruhigen.

Aber vielleicht verschiebt man eben eines der Signale so, daß „nur Mikrosekunden“ dabei herauskommen? Dann hätte man die beschriebene Verlagerung der Auslöschung ausschließlich in oberste Frequenzbereiche. Nun, abgesehen davon, daß —wie schon gesagt— Auslöschungen z.B. bei 15kHz auch immerhin noch ärgerlich wären (wenn man sie denn anderweitig umgehen könnte), ist diese Lösung praktisch ohnehin kaum erreichbar. Und das schlicht aus dem gleichen Grund wie oben in puncto exakter Laufzeitausgleich. Beim Versuch eines exakten Laufzeitausgleichs reicht die erwähnte Unsicherheit schon in den untersten Millisekundenbereich. Wer in derlei Größenordnung „ins Schwimmen“ mit der korrekten Bemessung der Laufzeitdifferenz kommt, der kann von vornherein vergessen, sich in der Größenordnung von Mikrosekunden diesem Maß nähern zu wollen. Anders ausgedrückt: Wenn man die korrekte Laufzeitdifferenz so schlecht findet, gibt es auch keine mikrosekunden-feine Annäherung an sie.

Vorrangige Lösung kommt aber —anstatt aus der zeitlichen Dimension— vom Signalpegel her. Es war die Rede davon, daß zwei „gleich laute“ Signale gemixt werden (wenn Totalauslöschung die Folge sein soll). Sofern Tonmeister bekunden, sich nicht um Laufzeiten zu scheren, ist dies in aller Regel der Grund: Sie tun es im Ergebnis doch, indem sie eines der beiden Signale im Mix gegenüber dem anderen stark reduzieren. Mit 10 oder mehr dB Differenz wird aus dem Kammfilter eine erträgliche leichtere Welligkeit.

Wer dann immer noch etwas tun möchte, kann wieder zur Dimension Zeit zurückkehren und zusätzlich dem Rat z.B. von Michael Dickreiter folgen (u.a. in: „Mikrofon-Aufnahmetechnik“): Ungefähr-groben Laufzeitausgleich zwischen den beiden Mikros kalkulieren, und dann pauschal 20ms Delay für das lautstärkenreduzierte Mikro addieren. Die 20ms-Addition klingt zunächst etwas eigenartig, denn je größer die Laufzeitdifferenz, umso weiter nach unten verschieben sich die untersten von Auslöschungen betroffenen Frequenzen (vgl.o.). Nun ja, aber hier geht es nicht mehr um Verschiebung von betroffenen Frequenzen. Das müßte in der Tat zur anderen Seite hin erfolgen, also durch möglichst winzige Laufzeitunterschiede, ist aber praktisch sowieso fruchtlos, wie vorher festgestellt. 20ms ist vielmehr schon so viel zeitlicher Zwischenraum, daß die inhaltliche Ähnlichkeit beider Wellenformen zum selben Zeitpunkt zumeist bereits gering ist. Zusammen mit der vorher erwähnten Pegeldifferenz sind dann Auslöschungen deshalb kein Thema mehr.

Soweit zur Theorie. Wäre schön, ein bißchen Feedback aus der Praxis zu bekommen. Wie haltet Ihr es im tontechnischen Alltag mit den Laufzeiten bei Multimikrofonie??

Status: veröffentlicht

SSL VHD-Preamp fürs 500er-Format — Mikrofonverstärker mit “Zusatznutzen“

VHD_Pre_lrgDie letzten Jahre haben im Bereich der Mikrofonvorverstärker zunehmend Bereicherungen gebracht, weg von einer blossen Standard-Konzeption und hin zu interessanten zusätzlichen Features. Da geht es um Möglichkeiten für die Auswahl der Eingangsimpedanz (im Extrem sogar stufenlos verstellbar), für die Umschaltung zwischen Röhren- und Transistor- oder zwischen Trafo- und transformatorlosen Schaltkreisen. Auch die schaltbare Auswahl zwischen verschiedenen Trafos (Eisen/Nickel) lässt sich finden, und anderes mehr.
Dass alles das auch und gerade bei den 500er-Modulen (für die API-Lunchbox und derlei Racks) geschieht, freut natürlich die Fans dieses praktischen Formates.

Ein Beispiel für ansprechende Entwicklungen im 500er-Bereich ist der neue Preamp von Solid State Logic.

SSL hat seine schon länger im 19-Zoll-Format erhältliche VHD-Schaltung in ein 500er-Modul implementiert.
VHD steht für „Variable Harmonic Drive“ und ermöglicht es, bei der Verstärkung Obertöne hinzuzubringen, wobei man zwischen ausschliesslich 2. Oberton (also Schwingungsverdoppelung) und 3. Oberton (3fache Grundfrequenz) sowie einer stufenlosen Mischung beider wählen kann. Die gesamte VHD-Schaltung kann auch deaktiviert werden.
Phantomspeisung und Phasenumkehr gehören zur Ausstattung dazu ebenso wie ein 20dB-Pad. Schon nicht mehr ganz selbstverständlich ist es, eine Signal-LED zu haben, die dreifarbig verschiedene Level anzeigt und obendrein per Jumper skalierbar ist. Ebenso an Bord ist noch ein schaltbares LowCut-Filter mit wählbaren Frequenzen von 15 bis 500Hz und 18dB Steilheit.
Auch an umschaltbare Eingangsimpedanz hat man gedacht, wobei die verfügbaren Werte erfreulicherweise nicht — wie sonst bei derlei Switches verbreitet — bei 300 Ohm und 1,2 kOhm liegen, sondern den höherohmigen Bereich abdecken: 1,2k und 10k sind schaltbar.  Z.B. manche Bändchen-Mikros mögen für letzteren Wert dankbar sein.

Die VHD-Schaltung ist zwar nur hinsichtlich ihres „Inhalts“, d.h. zwischen 2. und 3. Oberton, variabel, in ihrer Stärke demgegenüber nicht. Genauer betrachtet, hat SSL aber die Dosierbarkeit auch insoweit eingebaut. Denn VHD ist in seiner Wirkungsstärke abhängig vom Eingangs-Gain. Und dieser kann in hohem Masse variiert werden, da neben dem Gain-Bereich von +20 bis +75dB noch ein Ausgangs-Trim vorhanden ist. Letzterer liegt hinter der VHD-Schaltung, beeinflusst also deren Wirkung nicht mehr, und ermöglicht Anpassung des Ausgangssignals zwischen -20 und +20dB.
Wer also beispielsweise 50dB Verstärkung benötigt, kann dies mit entweder 70dB Eingangs-Gain (bei entsprechend hoher VHD-Wirkung) und Trim -20dB erreichen ODER mit 30dB Gain (mit niedrigem VHD) und Trim +20dB; und natürlich mit allen Kombinationen zwischendrin.

Das 500er-Format erfreut sich, so darf man feststellen, grossen Interesses bei den Herstellern. Schön…

Das VHD Pre Module kommt Mitte März, wird ca. 600 Euro kosten und hier im Shop zu finden sein.

Status: veröffentlicht

SPL Phonitor mini — kleiner Verstärker, grosser Klang

SPL Phonitor mini Großformat

Der Phonitor aus der niederrheinischen Audiogeräte-Schmiede SPL ist — inzwischen als Phonitor 2 — ein sehr erfolgreicher Kopfhörerverstärker, und testet man den seit kurzem erhältlichen Phonitor mini [im Folgenden nur: Mini], so kann man dies gut nachvollziehen, schon ohne den grossen Phonitor selbst zu kennen.
Denn der Mini ist eine zwar im Funktionsumfang reduzierte, kompaktere Version, die aber die grundlegenden klanglichen „Gene“ des grösseren Bruders geerbt hat, also insbesondere das 120 Volt-Schaltungsdesign, das einen Betrieb mit hohen Pegeln und eindrucksvolle Rauschabstände ermöglicht.
Die kompakte Bauweise erhöht nicht zuletzt auch die Handlichkeit im mobilen Einsatz, z.B. als Verstärker für Monitoring-Kopfhörer bei einer Vor-Ort-Aufnahme.

Der Mini offeriert ein internes Netzteil und symmetrische sowie asymmetrische Eingänge auf XLR- bzw. Cinch-Buchsen.

SPL Phonitor mini Rückansicht

Wahlweise einer von beiden Eingängen wird frontseitig aktiviert, und als Ausgang steht die vorn befindliche 6,3mm-Stereoklinkenbuchse bereit, die über ein hochwertiges Alps-Potentiometer regelbar ist. Eine Stereo-/Mono-Umschaltung, mit Mute als dritter Stellung, komplettiert das „Standard“-Programm eines Headphone-Amps.

 Von symmetrischem Kopfhörerbetrieb einmal abgesehen, bleiben im Rahmen solchen Standards kaum prinzipielle Wünsche offen. Und da der Phonitor mit der Erfüllung von Wünschen vor allem auch im klanglichen Bereich fortfährt — mit sauber-transparentem, aber nichtsdestoweniger grossem, prächtigen Klang —, könnte er sich schon sehr gut als „normaler“ Kopfhörerverstärker behaupten.

Schon der Blick auf die Schalter-Front zeigt: Da steckt noch mehr in diesem Gehäuse.
Der ganz besondere Reiz der Phonitor-Geräte von SPL liegt in der Möglichkeit einer sog. „Crossfeed“-Matrix, wobei auch diese Funktion im Mini gegenüber dem Phonitor 2 verschlankt ist.

Eine solche Schaltung soll dem über Headphones Hörenden soweit wie möglich einen ähnlichen räumlichen Höreindruck verschaffen, wie er ihn über Lautsprecher hätte. Grund ist das beim Kopfhörer-Hören naturgemässe Fehlen eines Übersprechens des linken Kanals ins rechte Ohr und umgekehrt. Dieses über Lautsprecher selbstverständliche und für den räumlichen Eindruck unentbehrliche Phänomen wird nachgestellt, wobei die Wirkung des „Crossfeed“ sich insbesondere in zeitlicher Dimension und nach der Pegelstärke des Übersprechens steuern lässt.
Beide Parameter ergeben sich aus der realen Situation des Kopfes: Vom Hörer aus gesehen nicht-mittig entstandener Schall erreicht das entferntere Ohr zum einen später als das andere Ohr, zum anderen auch schwächer infolge der (grösseren) Dämpfungs- und Brechungswirkung des im Schallweg zu diesem Ohr befindlichen Kopfes bzw. Kopfteiles.

Die genannten zwei Aspekte des „Crossfeed“ finden sich in den Frontschaltern des Mini wieder. Hat man die Matrix-Funktion mit dem entsprechenden, links vom Potentiometer befindlichen Schalter aktiviert, werden die drei rechtsseitigen Schalter relevant:
„Crossfeed“ regelt dreistufig die erwähnte Pegel- und „Angle“ (ebenfalls dreistufig) die Zeitdifferenz. Letztere bestimmt in besonderem Masse den Eindruck der Breite der fiktiven Lautsprecheraufstellung, woraus sich die Stufung nach Winkel-Werten erklärt, die jeweils dem Winkel zwischen Hörer und einem Lautsprecher korrespondieren. Die 30°-Stellung verweist somit auf eine Lautsprecheraufstellung in einem gleichseitigen Dreieck mit dem Hörer (also mit drei 60°-Winkeln).
Da die Crossfeed-Matrix infolge des Übersprechens die Stereomitte stark aufwertet, findet sich ein dritter Schalter, mit dem bei Bedarf die Mitte etwas im Pegel zurückgenommen werden kann, falls dies bessere Einordnung ins Gesamtklangbild erbringt.

Wer Erfahrungen mit konkurrierenden Hardware-Crossfeed-Schaltungen (insbesondere älterer Bauart) besitzt, mag vielleicht mit gedämpften Erwartungen an die Wirksamkeit einer solchen Matrix herangehen.
Umso positiver wird dann die Überraschung sein, im Mini eine fein und dennoch mit klar hörbaren Stufungen differenzierbare Schaltung zu finden, die angenehm klingt und bereits in jeder Einstellung hochwirksam ist; und deren obere Stärkegrade ein Potential bereitstellen, das das Gros der Hörer vielleicht gar nicht benötigt, das aber quasi beruhigende Reserve beinhaltet, um die volle Breite der Hörgeschmäcker sowie der verschiedensten Kopfhörer-Typen abzudecken.

Wieviel die Matrix des Mini tatsächlich leistet, um das Klangbild aus der unnatürlichen Position im Kopf oder an dessen Aussenseiten herauszulösen und virtuell nach vorn vor den Hörer zu bringen, dessen kann man sich jederzeit —und oft wieder staunend— durch Rückschalten in den Off-Modus vergewissern.
In dieser Leistungsfähigkeit vermag die Matrix sogar mit einer guten Crossfeed-Software-Implementation (z.B. als VST-Plugin) gleichzuziehen. Wer mit solcher Software zu arbeiten gewohnt ist, wird den Mini also doppelt schätzen in Fällen, in denen ein Computer nicht zur Verfügung steht, aber verlässliches Monitoring notwendig ist und dieses ausschliesslich oder zumindest auch per Kopfhörer erfolgen soll.

Fazit: Eindeutige Empfehlung für den Mini, und angesichts dessen moderaten Preises erst recht!

.

Hier gehts zum Artikel

 

Status: veröffentlicht

Digitale und analoge Lautstärkeregelung bei D/A-Wandlern

knob_gp2Lautstärkeregelungen in Digital-/Analog-Wandlern (DACs) arbeiten überwiegend digital, d.h. sie verändern das Signal VOR der Wandlung. Es wird also an den Bits des Audiosignals manipuliert.
Im unteren Preissegment der Wandler findet sich der Grund hierfür wohl schon in der Kostengünstigkeit dieser Lösung, jedenfalls wenn man die alternative Analogregelung der Lautstärke nicht gerade mit einem Billig-Potentiometer ausführen möchte.

Qualitätsbewusste Anwender geben traditionell einer analogen Regelung den Vorzug, die das Signal erst NACH der Wandlung verändert. Grund für diese Entscheidung ist der erwähnte, bei einer digitalen Steuerung stattfindende Eingriff in das Digitalsignal: Zur Lautstärkereduktion müssen Bits „kassiert“ werden, das originale Signal erfahre also — so das Argument — einen Verlust an seinem Inhalt.
In der Tat: Jede Halbierung der Lautstärke — also 6dB Reduktion — kostet bekanntlich 1 Bit. Danach bliebe beispielsweise beim Herunterregeln der Lautstärke um 24dB im Rahmen einer 16bit-Wiedergabe (CD) nur noch eine Auflösung von 12 Bit übrig, mit einem resultierenden digitalen Rauschabstand von noch rund 12 x 6dB = 72 (und nicht mehr 96) dB.

Aber ganz so einfach ist die Angelegenheit nicht.

Zunächst einmal muss der Verfechter einer analogen Regelung, will er nicht die beabsichtigten Qualitätsgewinne verspielen, ein Mindestmass an Aufwand treiben.
Eine gewisse Qualität sollte ein die Steuerung vornehmendes Potentiometer also haben. Aber Potentiometer sind in jedem Falle über die Jahre hinweg Verschleiss unterworfen, und auch ihre Genauigkeit hat Grenzen.
Höher geht es im Preis, wenn man eine Analogregelung haben möchte, die mit diskreten Widerständen arbeitet (angesteuert z.B. durch einen Drehschalter oder durch Relais). Hierbei ist die Lautstärkevariation nicht mehr stufenlos, sondern in durch die Schaltung vorgegebenen Sprüngen gestuft. Resultat ist zum einen die exakte Reproduzierbarkeit der Lautstärkestufe, vor allem aber auch grössere Verschleissfreiheit und eine deutlich höhere Kanalgleichheit der Lautstärke: Gute Widerstände haben im Vergleich zu einem Potentiometer bei weitem engere Toleranzen.

A9R704CNach Meinung vieler noch eine Qualitätsstufe höher (auch im Preis): die Regelung durch Transformatoren oder Autotransformatoren (engl. Autoformer). Hier werden variable Abgriffe an der Sekundärwicklung des Trafos bzw. Sekundärseite des Autoformers realisiert, die die Spannungsveränderung bewirken, ohne aber wie im Falle der Fest- oder Potentiometer-Widerstände elektrische Energie einfach zu „vernichten“ (korrekter gesagt: sie in Wärme umzuwandeln). Klarstellend sei allerdings hinzu gesagt, dass diese ohnehin noch seltener anzutreffenden sog. induktiven Lautstärkeregelungen in DACs bisher — soweit hier ersichtlich — nicht verfügbar, sondern nur in einigen Preamps anzutreffen sind (die dann teils auch nur passiv arbeiten, also als nicht-verstärkende Controller u.a. für Volumereduktion und Eingangsumschaltung).

Eine digitale Regelung hat es im Vergleich einfacher: Mit mathematischer Präzision kann in feinen Abstufungen und bei absolutem Kanalgleichlauf geregelt werden. Und es entfallen von vornherein etwaige Qualitätseinbussen am Signal durch die beschriebenen analogen Schaltungselemente zur Lautstärkereduktion.
Nur bleibt eben die angesprochene Sorge um das „Wegwerfen“ der Bits.
Aber diesem Problem kann begegnet werden durch
höhere Auflösungen in der digitalen Steuerung.

Moderne Regelungen beschränken sich nicht auf 16bit-Berechnung. Sondern sie machen das eingehende Signal zu einem Signal mit höherer Bittiefe, also etwa ein 16bit-Signal zu 24bit, oder 16- und 24bit-Signale sogar zu 32bit. Dies geschieht durch Anhängen von Null-Bits an die Originalbits. Auf diese Weise steigt der Rauschabstand der Regelung entsprechend an, bei 32bit auf 32 x 6dB = 192dB.
Eine Reduktion um 6dB auf halbe Lautstärke schneidet dann im Beispiel eines 16bit-Signals keines der originalen Bits mehr ab: Zwar verschiebt sich nach wie vor durch die Lautstärkehalbierung die 16er-Bitreihe um eine Stelle nach unten, die Originalinformation bekommt also einen anderen Stellen- und damit Lautstärkewert. Sie bleibt aber ansonsten unverändert erhalten, weil und solange bei der Verschiebung der Bits nach unten noch Platz ist (in Gestalt der vorher angehängten Nullen).
Ergebnis: Die originalen Bits einer 16bit-Datei werden erst tangiert, wenn sie soweit heruntergeschoben werden, dass es für 16 Bits zu „eng“ wird. Bei einer 32bit-Lautstärkeregelung kann also erst einmal im Wert von 16bit geschoben, sprich: abgeregelt werden, bevor Originalinformation angetastet wird. Das heisst: Um 96dB kann heruntergeregelt werden, bevor ein Informationsverlust eintritt. Im Falle einer 24bit-Regelung liegt der Spielraum immer noch bei 48dB.

In der Praxis bedeutet dies eine quasi verlustfreie Regelung.

Eine 32bit-Lautstärkeregelung ist noch nicht Standard, aber 24bit-Regelungen sind es inzwischen, einfach deshalb, weil die Wandler inzwischen standardmässig in 24bit arbeiten und also am Eingang des Wandlerchips ein 24bit-Signal aus der Lautstärkeregelung zu kommen hat.
Umgekehrt spielt eine 32bit-Auflösung in der Volumeregelung ihr Potential nur dann voll aus, wenn auch der nachgeschaltete D/A-Wandlerchip in 32bit arbeitet. Hat die digitale 32bit-Lautstärkeregelung dagegen an einen 24bit-Chip zu liefern, so werden am Chipeingang 8 von den 32bits wieder abgeschnitten.
Die Suche nach einem Gerät mit hochauflösendem Digital-Volume ist daher letztlich diejenige nach einem Gerät mit einem korrespondierend hochauflösenden D/A-Chip. Dass immer öfter 32bit-Chips verbaut werden, mag man also auch unter diesem Aspekt begrüssen.
Zu beachten auch: Hat ein Gerät eine Mixer- oder sonstige digitale Bearbeitungssoftware integriert, ist die (meist relativ hohe) Auflösung, in der der Mixer etc. arbeitet, allenfalls dann für die Lautstärkeregelung relevant, wenn der Mixer etc. nicht im Bypass ist, also das Signal nicht lediglich unverändert durchleitet.

Um Missverständnissen vorzubeugen: Wenn von einer „quasi verlustfreien Regelung“ die Rede war, so ist damit die rein mathematische Seite einer (hochauflösenden) digitalen Lautstärkeregelung gemeint.
In der Welt realer und damit immer auch analoger Schaltungen sind Rauschabstände von z.B. 192dB nicht erreichbar (übrigens auch für das menschliche Gehör nicht), und selbstverständlich gelten für jedes DAC-Gerät die Beschränkungen in der Dynamik, wie sie sich aus dem Konverter-Chip und den analogen Schaltungsteilen ergeben.

Diese Einschränkung gilt aber für digitale und analoge Lautstärkeregelungen gleichermassen. Jede Lautstärkereduktion, gleich ob analog oder digital, bedeutet üblicherweise eine Schmälerung der Dynamik: Die digital erfolgende Reduktion reduziert den Rauschabstand des DAC-Chips, die analoge denjenigen im analogen Schaltungsabschnitt des Gerätes.
Der Vollständigkeit halber sei ergänzt, dass es auf der analogen Seite vereinzelte Ausnahmen gibt, in Gestalt von Schaltungen mit in bestimmtem Volumebereich gleichbleibendem Rauschabstand: Reduktion der Lautstärke reduziert hier innerhalb gewisser Grenzen parallel auch das (analoge) Geräterauschen.

Die Summe des Rauschens in den verschiedenen Geräte-Segmenten ergibt die Gesamtdynamik. Welches Gerät von seiner Dynamik her besser abschneidet, hängt demnach von verschiedenen Faktoren ab.
Festzuhalten bleibt hier nur, dass eine digitale Lautstärkesteuerung nicht automatisch die schlechtere Variante sein muss (möglicherweise sogar die bessere sein kann), wenn sie nur genügend hochauflösend arbeitet.

Und letztlich treffen sich digitale und analoge Volume-Regelung in der allgemein geltenden Erkenntnis: Höhere Qualität hat in der Regel einen höheren Preis…

Status: veröffentlicht

LaChapell 583s/583e — Röhrenklang für das 500er-Rack

LaChapell Audio steht für handgemachte Mikrofonverstärker und Equalizer aus Nashville, Tennessee: Man denkt unwillkürlich an Country Music und renommierte Studios, womit die Geräte schon ‘mal ein gutes Omen in sich tragen.

583s/583e sind Module fürs 500-Format und jeweils 2 Slots breit, wobei die s-Version ausschliesslich einen Preamp und die e-Version zusätzlich einen EQ bereitstellt.

LaChapell 583s

Der Preamp-Teil ist in beiden Varianten gleich, eine Single-Ended-Class-A-Röhrenschaltung mit 12AX7-Doppeltriode. Hinter dem Jensen-Eingangstrafo folgen die beiden Röhrenstufen, deren zweite mit dem „Input“-Gain-Regler gesteuert wird und das Signal an eine solid-state-Ausgangsstufe weitergibt, die mit dem „Output“-Gain dosiert wird.
Der maximale Input des 583 — bezogen auf bestimmten THD-Schwellwert und alternativ für Input-Gain auf max./min. — konnte leider zum aktuellen Zeitpunkt bei LaChapell noch nicht in Erfahrung gebracht werden, und eine Overload-LED für die Röhrenstufen wäre ohnehin eine wünschbare Erweiterung für den 583. Allerdings wäre solche Anzeige naturgemäss vorfixiert auf einen bestimmten THD-Schwellwert (z.B. 1%): Im Bereich beabsichtigter Unterschreitung dieses Wertes wäre die LED also zwar nützlicher Helfer, im Falle gewünschter Überschreitung zugunsten deutlicherer Röhrenverzerrung aber ohnehin kein Ersatz für das Ohr als „Kontrollinstrument“.
Aus der Kombination der beiden Gain-Regler ergibt sich klangliche Variabilität: am „Input“ der farbigere Röhren-Gain, am „Output“ der neutralere solid-state-Gain.
Das Ende der Signalkette bildet ein CineMag-Ausgangstrafo.

Bis zu 72dB Verstärkung sind ausreichend auch für passive Bändchenmikrofone, und die Eingangsimpedanz von 1,5 kOhm ist sehr praxisgerecht ausgelegt. Pad, Polaritätsumkehr und 48V (je mit selbstleuchtenden Schaltern) sowie ein Instrumenteneingang komplettieren die Ausstattung.

Die 583e-Version bringt einen EQ hinzu, der in 3 Frequenzbändern von insgesamt 30Hz bis 20kHz einen Boost/Cut bis zu je 8dB ermöglicht und mit dem man präzise und mit angenehmem Klangresultat arbeiten kann. Der EQ ist raffiniert eingefügt: Über einen je nach Stellung rot oder grün leuchtenden Umschalter lassen sich Preamp und EQ entweder kombiniert einsetzen —der EQ ist dann nach den Röhrenstufen eingeschleift— oder unabhängig voneinander, womit der Preamp an den Anschlüssen des einen Slots und der EQ transformatorlos an denen des anderen Slots bereit steht.

Röhrenbetrieb im 500-Format, damit ist der 583 zwar nicht gänzlich singulär, aber in sehr überschaubarer Gesellschaft. Zusätzlich attraktiv macht ihn, dass die Röhre auf einfache Weise austauschbar, nämlich durch eine Aussparung an der Gehäuseoberseite leicht zugänglich ist. So lassen sich schnell unterschiedliche „Kolben“ der kompatiblen Formate 12AX7, ECC83, CV4004 etc. einsetzen: Eine Vielzahl röhrenbedingter Klangschattierungen steht dem Nutzer offen, er besitzt quasi verschiedene Mikrofonverstärker in ein und demselben Gerät!

Welche durchaus beachtlichen Klangvariationen ein Röhrenwechsel erbringen kann, mag man vor dem Ausprobieren vielleicht gar nicht erwarten. Natürlich geht es nicht um Unterschiede „wie Tag und Nacht“, die klanglichen Nuancen offenbaren sich also am besten im direkt umschaltenden A/B-Vergleich, mit Hilfe voraufgezeichneter Dateien von identischer (!) Klangquelle. Aber genauso ist es in der Regel auch beim Hörtest verschiedener Preamp-Modelle.

Der 583 ist schon mit der Standardbestückung, einer russischen Neuröhre ElectroHarmonix (EH) 12AX7, ein vorzüglicher Verstärker: Satte, aber straffe Bässe, leuchtende Höhen, ein insgesamt farbig-kontrastreiches und gleichzeitig transparentes Klangbild.
Mit diesen Qualitäten überflügelte der 583 beim vergleichenden Hören eine ganze Reihe sehr unterschiedlicher Verstärker. Dass mancher auf „saubere“ Transparenz zielende Konkurrent gegen ihn irgendwie flach —man könnte mitunter auch sagen: langweilig— klingt, mag nicht einmal verwundern. Aber der 583 hatte in meinen Ohren sogar gegen den von mir bis dahin präferierten, ebenfalls sehr farbig-kontrastreichen Burl B1D die Nase vorn (übrigens auch in puncto Verstärkerrauschen).

Ein dann von mir zusätzlich angeschafftes, zweites Exemplar des 583e brachte den angesprochenen Röhrenwechsel. Scott LaChapell stand freundlich-hilfsbereit mit Ratschlägen zu möglichen Röhrenalternativen bereit und empfahl besonders eine englische NOS-Röhre Brimar CV4004, die er auch gleich in den USA zu beschaffen und in den 583 einzusetzen anbot [NOS= New Old Stock, d.h. ungebrauchte Röhren aus historischer Produktion].
Das Bessere ist der Feind des Guten: Die Brimar produziert ein offeneres und räumlicheres Klangbild und erweitert die Bandbreite im Bassbereich. Die Mitten und unteren Höhen sind weicher, aber trotzdem leuchtend; angenehmer, natürlicher, so die Empfindung — ein Klang, den man oft als „seidig“ charakterisiert.
Schaltet man um auf eine Aufnahme mit der EH-Röhre, hat man nun den Eindruck eines leicht nach oben hin verschobenen und dort gleichsam „gestauchten“ Klangschwerpunkts. Zuviel von den oberen Mitten/unteren Höhen, so scheint es, die dann auch die obersten Frequenzen ein wenig „maskieren“. Letztere sind demgegenüber bei der Brimar ein stärker abgesetzter und somit klarerer Abschluss nach oben. Sie erscheint also ausgewogener, die Klangpyramide stimmiger und der Klangeindruck entspannter.

Selbst wer sich nicht an der Jagd nach NOS-Röhren beteiligen mag, entwickelt angesichts solcher Klangvariabilität vielleicht Spass am Ausprobieren verschiedener Typen aus dem erschwinglicheren Bereich der Neuproduktionsröhren. Aus diesem standen mir noch zwei weitere Exemplare zur Verfügung: eine russische Sovtek 12AX7 LPS und eine Tube-Town (TT) 12AX7 Classic (V1-Selektion).
Die Sovtek tendiert mit hellem Klang deutlich in Richtung der EH, als ob sie die gemeinsame Herkunft aus dem Sensor-Röhrenwerk in Saratov untermauern wollte. Die bei der EH erwähnte „Stauchung“ durch starke Präsenz der oberen Mitten ist hier ebenfalls ein Manko, allerdings weniger und bei grösserer Präsenz im Bassbereich. Wie bei der EH lässt im Vergleich die Räumlichkeit zu wünschen übrig, dem Klang fehlt die natürliche Offenheit der Brimar. EH und Sovtek sind stärker „in the face“, was je nach Anwendungsbereich allerdings auch einmal gewünscht sein kann.
Die TT-Röhre neigt demgegenüber mit natürlich-angenehmem, transparent-räumlichem Klang beachtlich in Richtung Brimar, wenn auch im Vergleich zur Britin mitunter ein wenig unterkühlt-schlank getönt. Die Brimar bleibt top in Bandbreite und stimmiger Noblesse des Klangs.

Als Fazit lässt sich jedenfalls die Empfehlung aussprechen, dass sich das Ausprobieren verschiedener Röhren klanglich lohnt, umso mehr angesichts unterschiedlicher Klanggeschmäcker und Musikgenres.

Der 583 von LaChapell macht solche Anpassung leicht und stellt dadurch und mit seinen ohnehin gegebenen Qualitäten eine erstklassige Bereicherung des 500er-Geräteparks dar.

AUDIODATEIEN:
Identische Aufnahmen von Line-Level-Source (D/A-Wandler) in LaChapell 583e (PAD aktivert, kein EQ) unter Verwendung verschiedener 12AX7-Röhren  (an lauteren Stellen bereits merkliche Saturation):
EH — Brimar — TT — Sovtek

Danke Tobias Bigger für den tollen Artikel!

Hier finden Sie alle unsere LaChapell Produkte

Status: veröffentlicht

Vorverstärker-Rauschen

LaChapell 983s

Den Gain am Vorverstärker (Preamp) möglichst hoch drehen, um den Signal-Rauschabstand (SNR) zu verbessern?

Diesen Ratschlag habe ich verschiedentlich gesehen/gehört, u.a. vor vielen Jahren im Gespräch mit einem Tascam-Mitarbeiter (betreffend meinen damaligen Mikrofon-Preamp MX-4): Denn der Preamp werde mit höherem Gain rauschärmer, so die Begründung.

Um es gleich vorweg zu sagen: Ob man diese Empfehlung für richtig hält oder nicht, ändert im Recording-Alltag meist relativ wenig. Denn irgendwann kommt nach dem Preamp in der Regel ein A/D-Wandler, für den es einen optimalen Aussteuerungsbereich gibt. Übersteuert werden soll er einerseits nicht, und andererseits würde sich etwaiges deutliches „Untersteuern“ –um Preamp-Rauschen „einzusparen“– mit schlechterem SNR des Wandlers rächen.

Aber immerhin, mir ging das Eingangs-Statement dieser Tage erneut durch den Sinn. Stimmt es?
Dass der Preamp mit höherem Gain rauschärmer wird, stimmte sicherlich für den MX-4, so wie für viele andere Preamps auch. Aber die von Tascam etc. gezogene Schlussfolgerung war m.E. falsch.

1)  Rauschärmer trotz höheren Gains?
Ja. Natürlich nicht absolut geringeres Rauschen, sondern RELATIV zur Quellsignalverstärkung.
Daten des MX-4 liegen mir nicht mehr vor, aber das Beispiel Earthworks mag dienlich sein. Deren Preamps haben ein (fiktiv-rechnerisches) Äquivalentes Eingangsrauschen (EIN) bei 20dB Gain von -132dBV und bei 60dB Gain von -143dBV.
Also: Das Verstärkerrauschen am Ausgang ist bei 20dB Gain -112dBV (= EIN + Verstärkung) und bei 60dB Gain -83dBV.

Folge: Zwischen 20 und 60dB Gain liegen nur 29dB Rauschdifferenz bei 40dB Verstärkungsdifferenz, d.h. bei 60dB Gain bekommt man 100fach höhere Verstärkung bei nur gut 28fach höherem Verstärkerrauschen.
Der SNR solcher Preamps wird mit höherem Gain besser. Wer’s für sein eigenes Preamp-Modell nachrechnen will, braucht Angaben über dessen Rauschen bei mindestens zwei verschiedenen Gain-Stufen.

2)  Also möglichst weit hoch mit dem Gain?
Nein, diese Folgerung ist m.E. falsch. Vom isoliert betrachteten SNR des Preamps hat man nichts, wichtig ist der möglichst hohe Gesamt-SNR am Preamp-Ausgang. Denn der Preamp läuft nicht zum Spass, sondern zur Verstärkung des an seinem Eingang anliegenden Signals. Wenn dieses frei von Rauschen wäre, das Rauschen am Preamp-Ausgang also nur aus dem eigenen Rauschen des Preamps bestände, dann wäre das Eingangs-Statement richtig. Aber das Quellsignal hat selbst schon eine Rauschkomponente, z.B. Rauschen eines Mikrofons.

Der SNR des Quellsignals kann vom Preamp nicht mehr verändert werden, da letzterer Quell-Rauschen und Quell-Nutzsignal gleichermassen verstärkt. Der Quell-SNR bleibt also gleich, unabhängig vom Gain, und er verschlechtert sich dann um das zum Quell-Rauschen hinzukommende Preamp-Rauschen (= Gesamt-SNR am Preamp-Ausgang).
Um einen möglichst guten Gesamt-SNR zu haben, muss also das Preamp-Rauschen möglichst gering sein, und zwar ABSOLUT gering und nicht nur RELATIV zur Verstärkung.

Und absolut gesehen ist eben leider selbst bei Preamps von der Art des obigen Earthworks-Beispiels das Preamp-Rauschen bei höherem Gain immer höher als bei niedrigerem Gain.
Vielleicht erfindet ja mal irgendwann einer einen Preamp mit –vom Gain unabhängig– gleichbleibenden absoluten Rauschwerten. Aber bis dahin…

Tobias Bigger

Status: veröffentlicht