Thomas Römann spricht über DSD / DXD

YouTube Preview Image

Thomas Römanns Exkursion ins Thema High Resolution Audio gibt es hier nochmal im Videoformat. Für Leserinnen und Leser des vorhergegangenen Beitrags sind wahrscheinlich vor allem die Einblicke in die Merging Software in der zweiten Hälfte des Videos interessant. Bei Fragen wenden Sie sich gerne an uns.

Systemtechnik: +49 40 4711 348 20 | tr@digitalaudioservice.de

das möchte ich kommentieren ...

Zum Thema High Resolution Audio (DSD / DXD)

Eine kurze Exkursion von Thomas Römann ins Thema High Resolution Audio und die dafür benötigten Audioformate DSD und DXD. Hier finden Sie den Artikel als Youtube Video inkl. einem kleinen Einblick in die Merging Technologies Software.

 DSDlogo

Das digitale Audioformat DSD (Direct Stream Digital) wurde im Jahre 1999 von Sony / Philips entwickelt. Angewendet wird die DSD-Technologie im Wesentlichen bei der Super Audio CD (SACD), welche als Nachfolger der regulären Audio CD gelten und diese qualitativ bei weitem übertreffen sollte. Dazu wählte man eine 64 mal höhere Auflösung als bei der herkömmlichen CD. Zur Veranschaulichung: das ist ein doppelt so großer Sprung in der Auflösung als würde man beim Film von einem 640 x 480 px VGA Bildschirm auf einen Full-HD-Screen wechseln. Ein Riesenschritt also, der aber auch entsprechend viel mehr Speicher benötigt.

Um die vergleichsweise hohe Abtastrate mit damaligen Speichermedien zu realisieren, und weil das Format ursprünglich nur zur Archivierung / Digitalisierung von unbearbeiteten analogen SONY Masterbändern gedacht war, wurde ein 1-bit Datenstrom gewählt. Das hatte zur Folge, dass ein schwer bis gar nicht editierbares Format entstand.

Weitere Probleme waren, dass nur wenige Menschen Zugang zu SACD-Playern hatten und etwa zeitgleich das Zeitalter der “Mediums-freien Medien” begann, also die Verbreitung stark komprimierter MP3-Files – quasi das Gegenteil der DSD Qualität.

Obwohl ein großer Katalog hochwertiger Re-Masters und neuer Produktionen entstand, hatte die SACD, im Vergleich zur Audio CD ca. 20 Jahre zuvor, wenig Erfolg und DSD blieb ein Exot bei den Kunden. Da außerdem die Produktionskosten des neuen Mediums sehr hoch waren, wandten sich bald viele Hersteller und Medienschaffende von diesem Format ab. Das DSD nicht erfolgreich war, weil das Format gegenüber der herkömmlichen CD keinen Qualitätsvorteil brachte, ist nicht der Grund für den Misserfolg in dieser Zeit.

Warum kommt das Thema jetzt wieder auf?

1. Die Produktionswerkzeuge haben sich erheblich verbessert und sind weitaus günstiger geworden. Während früher vor allem SONY und Sadie für Ihre Arbeit mit DSD bekannt waren, wird heutzutage der allergrößte Teil der DSD-Produktionen mit Merging Technologies Equipment aufgenommen und produziert. Pyramix ist ab Version 10 in der Lage bis zu 64 Spuren DSD aufzunehmen, und zwar von DSD 64 bis DSD 256!

Pyramix MassCore (1)

Horus_Smaller      Hapi_Smaller

2. Die Wiedergabesysteme haben sich dramatisch verbessert und sind preiswerter geworden. Inzwischen gibt es hunderte DSD-fähiger DAC-Wandler. Merging Technologies hat in diesem Bereich ein neues Kapitel aufgeschlagen: beim NADAC Wandler steht durch die Anbindung an das High-End Audio Netzwerk RAVENNA – statt dem Anschluss über eine Multi-Purpose USB-Schnittstelle – eine sehr hohe Bandbreite und eine ultrastabile Clock (PTP2) zur Verfügung. Beides bedeutet hohe Zukunftssicherheit. Gleichzeitig basiert der NADAC auf den Merging-Pro-Geräten, sodass der Wandler exakt das abbildet, was der Tonmeister bei der Aufnahme gehört hat. So nah war man als Hörer noch nie am Original.

NADAC-FrontRight2-Transparent-Shadow_1200px   LOGO_Ravenna_QUER_RGB

3. Das Medium SACD blockiert nicht mehr die Vermarktung von hochauflösenden Aufnahmen. Die allermeisten DSD-Produktionen werden heute als Download angeboten.

4. DSD bietet nativen, unkomprimierten Surround-Soundbis DSD 256, also der 256-fachen Abtastrate der herkömmlichen CD.

5. DSD ist lukrativ. DSD-Aufnahmen werden oftmals von kleineren, hochspezialisierten Labels durchgeführt, die nicht über die gängigen Plattformen vertreiben, sondern in eigenen oder gemeinsamen High-End Download Shops ihre Produktionen anbieten. Während im üblichen Vermarktungsrahmen oft nur Cent-Bruchteile bei den Urhebern, Künstlern und Studios ankommen, sind bei DSD-Downloads bis zu 50% des Endpreises üblich. Viele Studios haben hier einen wichtigen und derzeit stark wachsenden Markt für sich entdeckt. Eine Sammlung mit Links zu verschiedenen DSD-Labels finden Sie hier.

Technischer Hintergrund

99,9% aller digitaler Musik die wir heute hören wurde auf zwei fundamentalen Prinzipien basierend aufgenommen: dem Nyquist-Theorem und der Fourier-Transformation. Joseph Fourier entdeckte bereits 1822 das Prinzip nach dem komplexe Schwingungen in eine Vielzahl einfacher Sinusfunktionen zerlegt werden können. Harry Nyquist beschrieb das Prinzip des „Samplings“, demzufolge die Frequenz einer Sinuswelle korrekt erfasst werden kann, wenn man Stichproben Ihrer Amplitude mindestens doppelt so schnell aufnimmt, wie die Frequenz der Sinuswelle beträgt.

Nimmt man diese beiden Theorien zusammen ergibt sich eine einfache Rechnung: Wenn wir ein komplexes Signal, z. B. Musik oder Sprache, doppelt so schnell abtasten, wie die höchste Frequenz, die wir noch erkennen wollen, können wir das gesamte komplexe Signal korrekt erkennen.

Wenn wir davon ausgehen, dass Menschen bis 20 kHz hören können, benötigen wir also eine Abtastrate von 40 kHz. Um zu verhindern, dass Frequenzen oberhalb der 20 kHz falsch interpretiert werden, benötigen wir noch spezielle Filter, sodass sich eine Abtastrate von 44 kHz ergibt um das gesamte menschliche Hörspektrum abzubilden.

Nach dieser Theorie funktioniert sowohl die CD als auch praktisch jedes andere digitale Audioformat. Gespeichert werden die Informationen für gewöhnlich im PCM Format (pulse code modulation) mit einer Wortbreite von 16 bit. Mit dieser Wortbreite kann eine Dynamik von 95 dB abgebildet werden. Gemessen an den 120 dB die das menschliche Ohr hören kann, ist das schon eine Menge, aber noch längst nicht die gesamte Dynamik. Zumal PCM im untersten Lautstärke-Bereich durch das sogenannte Quantisierungsrauschen große Schwächen hat und im Produktionsprozess in der digitalen Welt Dynamikreserven unumgänglich sind.

Fourier transformationWarum nun also DSD?

DSD steht für direct stream digital und arbeitet mit einer Abtastrate von 2,8 mHz. Das Signal wird also 32 mal so schnell abgetastet, wie es für das menschliche Ohr nötig wäre. Die neuen Formate DSD 64 und DSD 256 tasten sogar entsprechend noch schneller ab.

Warum das? Es geht bei DSD nur am Rande darum, höhere Frequenzen wiederzugeben. DSD ist durch spezielle Filter meist auf 50 kHz als höchste Wiedergabefrequenz begrenzt. Der Grund dafür ist, dass auch bei DSD ein Rauschen entsteht – wegen des 1-bit Stroms ist es hier sogar noch wesentlich schlimmer als bei PCM. Der Trick ist, dass es sich in den, bei DSD verfügbaren, ultra-hochfrequenten Bereich verschieben lässt und somit keine Rolle mehr spielt. Damit erreicht DSD eine Dynamik von 115 dB, also deutlich mehr als PCM 16 bit.

Als viel wichtiger aber werden von DSD-Fürsprechern die folgenden zwei Punkte gesehen. Analoges Audio digital darzustellen ist quasi die Quadratur des Kreises. Um wieder ein Beispiel aus der visuellen Welt zu bemühen: je mehr Pixel wir verwenden, je höher also die Auflösung ist, desto eher sehen wir auf dem Bildschirm einen Kreis. Das ist genau das, was DSD tut.

1. Clocking: Analoges Audio ist zeitkohärent, digitales Audio hingegen wertkohärent. Damit die Sample-Schnipsel, die wir aus dem analogen Audio nehmen, später wieder so korrekt in der Zeitachse zusammengeklebt werden, dass annähernd die gleiche analoge Information dabei entsteht, muss extrem präzise gearbeitet werden. Dabei sind die Pausen zwischen den einzelnen Sample-Schnipseln genauso wichtig wie die Schnipsel selbst.

Wie genau diese Timings eingehalten werden, hängt vom „Clocking“ ab. Die Ungenauigkeit des Clockings wird als Jitter bezeichnet. Jitter ist unvermeidlich, aber: wenn wir die Anzahl der Schnipsel dramatisch erhöhen, werden logischerweise die Lücken zwischen den Samples immer kleiner und Jitter damit immer weniger schädlich. Das Resultat ist eine deutlich verbesserte Transparenz und Körperlichkeit der Aufnahme, die DSD-Aufnahmen kennzeichnet.

2. Transienten: Zu den wichtigsten Informationen für unser Ohr gehören die Transienten, also die ersten Impulse eines Tons. Das Anstreichen eines Violinenbogens, der Aufschlag der Hand auf einem Perkussions-Instrument. Es ist zwar nicht zwangsläufig nötig, mehr als doppelt so schnell zu samplen um eine entsprechende Sinuswelle zu erfassen, aber das chaotische, extrem schnelle Verhalten von Transienten lässt sich nach objektiven Messungen mit DSD sehr viel realer abbilden, als mit PCM-Formaten.

Die Abbildung der Transienten in hohen DSD-Raten ist tatsächlich annähernd so gut wie analog, DSD wird daher manchmal als das “digitale Analog” bezeichnet.

transientewiedergabe

In der Anwendung

Die Vorteile von DSD liegen also auf der Hand, wie aber geht man mit DSD im Studio oder beim Liverecording um?

Da DSD ein Single-bitstream ist, kann er nicht wie PCM einfach digital geschnitten werden. Der Vorteil ist zwar, dass ein 2,8 mHz Signal nicht mehr Speicher und Bandbreite benötigt als ein PCM Signal mit nur 192 kHz. Leider lässt sich DSD im Gegenteil dazu aber eben nicht editieren. Typische Prozesse wie die Veränderung des Frequenzspektrums oder der Dynamik durch EQs oder Kompressoren sind schlicht nicht möglich.

Mittlerweile erlaubt es Merging’s Pyramix-Workstation in der DSD-Ebene konvertierungsfrei zu schneiden, zu verschieben und sogar zu faden. So ist es möglich, z. B. einen Klassikmitschnitt in Pyramix aufzunehmen, ihn zu editieren und das Master inkl. Tracklistings / Markern zu erstellen, ohne die DSD Ebene jemals zu verlassen. Um DSD aber wie “normales” PCM Audio zu editieren, wird ein “Stellvertreterformat” benötigt. Merging Technologies hat hierfür das Format DXD entwickelt. DSD Dateien werden in ein ultrahoch auflösendes PCM-Format übertragen, um praktisch verlustfrei bearbeitet werden zu können. Danach werden die gemachten Veränderungen auf Wunsch ebenfalls verlustfrei wieder in das ein DSD-File gerechnet, oder einfach als DXD verwendet.

DXD (digital extreme definition) wird inzwischen auch als eigenständiges Format benutzt, da es sogar eine noch bessere Dynamik bietet als DSD und weniger kritisch im Rauschverhalten ist. DXD verbindet damit die Auflösung von DSD mit der Editierbarkeit von PCM. Da es eine eine sehr hohe Datenrate aufweist (dreimal höher als DSD 64), wird DXD Audio als fertige Produktion aber dennoch oft im DSD-Format angeboten, da die Editierfähigkeit dann nicht mehr relevant ist.

DXD_Logo

Die Pyramix-Workstation ist in der Lage, eine Vielzahl von verschiedenen Formaten gleichzeitig in einem Projekt zu handeln, inklusive DSD und DXD, sowie auch verschiedene Kompressionsformate. Seit Version 10 enthalten viele Pyramix-Packs die Lizenz zum Abspielen und Bearbeiten von DSD und DXD bereits ab Werk, sodass die Option nicht mehr teuer dazu gekauft werden muss.

Mit einem entsprechend DSD-fähigen Wandler wie dem Horus oder HAPI lässt sich eine DXD Session öffnen, DSD (z. B. als DSDiff) importieren und bearbeiten. Merging ist dabei der einzige Hersteller der ein komplettes Paket – von der Aufnahme bis zum Album Authoring – anbietet und dabei den Einsatz bekannter Bearbeitungswerkzeuge und Plugins im Editing-Prozess erlaubt.

Da die benötigte Technologie inzwischen signifikant günstiger geworden ist, rechnen wir mit weiterem und sich weiter beschleunigendem Wachstum in diesem Markt.

Weitere Informationen und konkrete Erfahrungswerte geben wir gern telefonisch oder per Mail weiter und freuen uns auf Ihre Fragen!

Systemtechnik: +49 40 4711 348 20 | tr@digitalaudioservice.de

das möchte ich kommentieren ...

Nuendo und Nuage Kursprogramm Part II veröffentlicht

 

Facebook_Couseware

Yamaha hat dem Nuage und Nuendo Kursprogramm, welches wir bereits von Beginn an verfolgen, einen neuen Teil mit 5 weiteren Kapiteln inklusive Videomaterial hinzugefügt. Nachdem es im ersten Teil primär darum ging die Hard- und Software zu installieren und sich mit dem Layout von Nuendo vertraut zu machen, widmet man sich im 2. Teil der Courseware den ersten Aufnahmen und Edits.

In den 5 neuen Kapiteln befasst man sich mit den folgenden Bereichen:

  • Kapitel-10 Recording the Voice
  • Kapitel-11 Importing Audio
  • Kapitel-12 “50-50″ Dialogue Edit
  • Kapitel-13 Recording the Band
  • Kapitel-14 Recording MIDI

Links:

das möchte ich kommentieren ...

NADAC: Interview & Reviews

Für alle DSD Interessierten: ein Video (Mergings Dominique Brulhart zum Gespräch bei Kal Rubinson) und eine kleine Linksammlung zu englischsprachigen Beiträgen über Mergings NADAC Wandler:

YouTube Preview Image

Zum weiterlesen:

Falls Sie weitere Fragen haben oder auf der Suche nach persönlichen Meinungen und Erfahrungswerten sind, wenden Sie sich gerne an uns!

Systemtechnik: +49 40 4711 348 20 | tr@digitalaudioservice.de

das möchte ich kommentieren ...

Neues Kursprogramm für NUAGE und NUENDO

YouTube Preview Image

Yamaha hat in Zusammenarbeit mit Ashley Shepherd ein gigantisches Kursprogramm für NUAGE und NUENDO auf die Beine gestellt. Die ersten Episoden wurden damals, falls Sie sich erinnern, hier im Blog veröffentlicht – nun sind eine ganze Menge neue Videos, ein 300 Seiten starkes e-book und ein 3 GB großes Übungsprojekt hinzugekommen.

Wir finden, hier gibt’s ne Menge zu lernen – tolles Projekt!

das möchte ich kommentieren ...

Dickes Update: Arturia veröffentlicht V-Collection 5

Seit gestern steht das größte je erschienene Update der Arturia V-Collection bereit. Die beliebte Softwaresuite wurde um 5 brandneue Instrumente erweitert und bietet neue skalierbare Interfaces für alle enthaltenen Engines, eine verbesserte Rechenperformance und einen einheitlichen komfortablen Soundbrowser mit komplett überarbeiteter Presetbay. V-Collection 5 wird damit zur umfassendsten und nützlichsten virtuellen Keyboard Collection am Markt.

YouTube Preview Image

Die V-Collection 5 setzt sich aus den 17 folgenden Engines zusammen:

  • B3 V, die Tonewheel-Orgel (NEU!)
  • Farfisa V, die italienische Charakter-Orgel (NEU!)
  • Synclavier V, das sündhaft teure Digitalsynth-Monster der 80er (NEU!)
  • Stage-73 V, das beliebteste elektromechanische Piano (NEU!)
  • Piano V, die seit 300 Jahren unangefochtene Nummer 1 der Tasteninstrumente (NEU!)
  • Modular V, das vollmodulare Urgestein der V-Collection
  • Matrix-12 V, der König der polyfonen Analogsynths
  • Jup8 V, satte Flächen und packende Leadsounds aus dem Analogklassiker von 1981
  • CS-80 V, das revolutionäre Design eines japanischen Multikonzerns
  • ARP2600 V, der Halbmodulare aus dem Koffer mit enormer Klangvielfalt
  • Mini V, der legendär phatte Monosynth aus den 70ern
  • SEM V, eines der ersten eigenständigen Synthmodule der Welt
  • VOX Continental V, die Hit-Transistororgel der 60er
  • Solina V, die klassische String Machine
  • Prophet V, der analoge Prophet V und der digitale Prophet VS in einem Instrument
  • Wurlitzer V, das Reedpiano mit prägnantem Sound
  • Analog Lab 2, der zentrale Player mit Zugriff auf alle Engines

 

Arturia im Shop:

das möchte ich kommentieren ...

Messebericht in HiFiStatement

hapi prolight sound

Ein kurzer Verweis auf  einen Bericht zur Prolight + Sound / Musikmesse, den das Internetmagazin www.hifistatement.net kürzlich veröffentlicht hat. Auf der ersten Seite werden wir in unserer Funktion als Merging Technologies Vertrieb erwähnt, mit deren Netzwerkwandler Hapi wir auf der Messe vertreten waren. Ein ausführlicher Bericht zum NADAC, welchen wir Anfang des Monats auf der High End in München dabei hatten, folgt in Kürze.

das möchte ich kommentieren ...

Pyramix 10 – Die neuen Versionen

Pyramix 10 ist in folgenden Versionen erhältlich:

  • Pyramix Essentials
  • Pyramix Native
  • Pyramix Native Pro
  • Pyramix MassCore
  • Pyramix MassCore Extended

Welche Version die richtige für Sie ist, erfahren Sie hier: Pyramix 10 – Die neuen Versionen (PDF). Zur weiteren Beratung melden Sie sich gerne bei uns unter tr@digitalaudioservice.de oder +49 40 4711 348 20.

 

das möchte ich kommentieren ...

Pyramix 10 ist da!

pyramix 10 new features

Merging Technologies Workstation Pyramix kommt in Version 10 und hat jede Menge neue Features mit an Board

Bei der Gestaltung auditiver Inhalte geht es meist darum, immersive akustische Umgebungen zu erzeugen – fiktive Welten, die die Hörer in ihren Bann ziehen. Ob ein Musikstück zum Leben erweckt oder die Spannung eines preisgekrönten Kinofilms spürbar gemacht werden soll – die Fähigkeit, dem Rezipienten glaubhafte Welten zu erzählen, ist das A und O und mit 3D Audio geht das nun einfacher als je zuvor…

…zum weiterlesen: Pyramix 10 – New Features (PDF) 

 

das möchte ich kommentieren ...

Ein paar Gedanken zu OSS

Nein, nicht um den CIA-Vorläufer geht es hier, sondern um das sog. –> „Optimale Stereo-Signal“.

Die AB-Aufnahmetechnik setzt bekanntlich zwei Omni-Mikrofone in bestimmtem Abstand nebeneinander, entweder parallel oder –wegen der auch bei Omnis in höheren Frequenzen gegebenen Richtwirkung– angewinkelt.
Die OSS-Technik, für die insbesondere der Schweizer Tonmeister Jürg Jecklin steht, geht einen Schritt weiter als AB und positioniert einen Trennkörper zwischen die beiden Mikrofone. Dieser ist insbesondere in Gestalt der „Jecklin-Scheibe“ bekannt: Die Scheibe ist auf Vor- und Rückseite mit Schaumstoff beklebt und hatte in ihrer früher propagierten Form einen Durchmesser von 30 cm, bei einem Abstand der Mikrofone zueinander von 16,5 cm.

Jecklin-Scheibe

Die inzwischen erfolgte Revision des Konzeptes sieht einen Mikrofonabstand von 36 cm bei Scheibendurchmesser von 35 cm vor.

Die Idee eines Trennkörpers hat ihre Wurzel im Blick auf den Kopf des Hörers, wie der ursprüngliche Mikrofonabstand von 16,5 cm schon vermuten lässt. Der Kopf trennt linkes und rechtes Ohr, was zwischen linkem und rechtem „Kanal“ neben dem Laufzeitunterschied zu Intensitätsdifferenzen und unterschiedlichen Frequenzgangfärbungen führt. Letztere beiden Aspekte kann AB ohne Trennkörper nicht oder nur hinsichtlich partieller Intensitätsunterschiede realisieren, nämlich nur in den höheren Frequenzbereichen, in denen auch omnidirektionale Mikrofone Richtwirkung bekommen.

Ich habe ab 1997 einige Zeit lang mit einer Jecklin-Scheibe aufgenommen, mich dann aber anderen Verfahren zugewendet, was u.a. in grundlegender Kritik am OSS-Verfahren motiviert war.
Solche Kritik ist vielfach zu finden, meist mit dem Ergebnis, dass OSS für den Kopfhörer-Hörer tauglich sei, aber ungeeignet für den Lautsprecher-Hörer. Zusätzlich zu dieser grundlegenden Ablehnung wird Detailkritik vorgebracht, vor allem bzgl. des für Seitenschall entstehenden Kammfilters am Mikrofon der betreffenden Seite, resultierend aus der trotz Schaumstoffauflage noch gegebenen Reflektion des von der Seite auftreffenden Schalls durch die Scheibe.

Grund für meine Überlegungen hier sind durchgreifende Zweifel, die mir in letzter Zeit an der fundamental-theoretischen Ablehnung des Trennkörperkonzeptes kamen.

Soweit es um die erwähnte theoretische Fundierung von OSS mit dem Argument des menschlichen Kopfes geht, stimme ich allerdings unverändert der Kritik zu:
Den Trennkörper mit der Imitation der Verhältnisse rund um den Kopf zu begründen, ist für den Lautsprecher-Hörer von vornherein unsinnig. Denn beim Lautsprecher-Hören ist der Hörer mit seinem eigenen Kopf im Schallfeld präsent. Warum sollen also die Wirkungen dieses Kopfes bereits bei der Aufnahme per Trennkörper antizipiert, also noch ein zweites Mal simuliert werden?
Der gedankliche Fehler bei der Begründung von OSS mit Verweis auf den menschlichen Kopf liegt schlicht darin, die Mikrofone mit der Position des Hörers zu identifizieren, nur weil sie bei der Aufnahme (ganz wie ein imaginärer Hörer) vor der Schallquelle stehen. Beim Lautsprecherhören sollen die Mikrofonsignale nicht die Signale am Kopf des Hörers abbilden, sondern die Signale an der Schallquelle. Denn was die Mikros „hören“, geht später nicht direkt ins Ohr des Hörers, sondern in die Lautsprecher, steht also stellvertretend für die vor dem Hörer befindliche Schallquelle.
Um die Simulierung dieser Schallquelle muss sich demnach eine über Lautsprecher abzuspielende Aufnahme bemühen. Der Kopf und seine Wirkung auf das Schallfeld kann hingegen getrost dem Hörer überlassen bleiben, der vor den Lautsprechern sitzt; der bringt seinen Kopf schon selber mit…

Mit dem menschlichen Kopf sollte man daher nicht zugunsten von OSS argumentieren. Aber dieser Fehler im Grundgedanken bedeutet nicht, dass man den Trennkörper nicht anders begründen könnte, und auch nicht, dass das praktische Ergebnis der OSS-Aufnahme schlecht sein muss.
Von der Theorie her kommt man nämlich bei den Verfahren OHNE Trennkörper keineswegs korrekt hin, mit der Kanaltrennung bzw. dem Übersprechen von links nach rechts. Wo man bei OSS nach der vorher dargestellten Kritik auf den ersten Blick von zuviel der Trennung zwischen den Kanälen ausgehen könnte, ist es in Wirklichkeit bei den anderen Verfahren zuwenig.
Die Verfahren ohne Trennkörper lassen zwar beim Lautsprecherhören richtigerweise den menschlichen Kopf nur einmal in die Kalkulation hinein, nämlich in Gestalt des Hörers vor den Lautsprechern. Aber sie sind theoretisch problematisch in der Repräsentation der Schallquelle. Warum? Weil sie in der aufnahmeseitigen Erfassung der Schallquelle bereits ein Übersprechen zwischen links und rechts drin haben, das beim Original in dieser Weise gar nicht stattfindet. Schall sowohl von links als auch rechts wird jeweils bereits als Direktschall immer von beiden Mikrofonen erfasst. Das bedeutet, dass die mit den Mikrofonsignalen gespeisten Lautsprecher auch solche Signale wiedergeben, die dort unter dem Aspekt der Simulation der Schallquelle eigentlich nicht hingehören: Von der linken Box kommen auch Signale, die an der Schallquelle (nur) von rechts kamen, und von der rechten Box entsprechend umgekehrt.
Die trennkörperlosen Verfahren sind also theoretisch für die Lautsprecher-Wiedergabe inkorrekt, indem sie der Schallquelle ein Übersprechen zwischen linker und rechter Seite „unterjubeln“, das an der realen Schallquelle gar nicht stattgefunden hat, sondern erst am Kopf des Hörers passiert wäre (wenn dieser vor der Schallquelle gesessen hätte). Bei der Lautsprecherwiedergabe findet dann am Kopf des Hörers nochmal ein Übersprechen statt.
Einmal zuviel, so könnte man sagen.

Wendet man in der Betrachtung des OSS-Verfahrens den Blick weg vom irrelevanten Kopf des Hörers und hin zur Schallquelle, so wird deutlich, dass diese durch OSS theoretisch besser erfasst wird als durch die anderen Verfahren. Dort, bei der Schallquelle, liegt die theoretische „Richtigkeit“ des Trennkörpers: Was von der Schallquelle her von links kommt, wird dem –durch das rechte Mikrofon gespeisten– rechten Lautsprecherkanal bei OSS richtigerweise stärker „vorenthalten“ als bei den Verfahren ohne Trennkörper; dies einfach deshalb, weil das rechte Mikrofon von den linksseitigen Schallquellensignalen stärker abgeschottet ist als ohne Trennkörper. Und spiegelbildlich ebenso für die von rechts kommenden Schallquellensignale…

Die theoretische Analyse spricht folglich keineswegs grundlegend gegen Lautsprecherwiedergabe von OSS-Aufnahmen, sondern im Gegenteil.
Niemand wird nun aber deswegen kategorisch gegen die Verfahren ohne Trennkörper opponieren, bringen diese doch in der Praxis trotz der soeben nachgewiesenen theoretischen Problematik sehr ansprechende Ergebnisse.

Sinn dieser Überlegungen ist es also allein, den Weg frei zu machen für eine Offenheit gegenüber den praktischen Ergebnissen von OSS. Es sollten nicht grundlegende Überlegungen sein, die entscheiden, sondern allein die konkrete Anwendung und ihr Resultat.

Dann wird übrigens auch der Weg frei, umgekehrt die angebliche OSS-Tauglichkeit für Kopfhörerwiedergabe zu hinterfragen. Mit Kopfhörern fehlt das beim Lautsprecher-Hörer am Kopf stattfindende Übersprechen zwischen links und rechts. Hier ist somit gerade das bei der Aufnahme erfolgende stärkere Übersprechen der Verfahren ohne Trennkörper hochwillkommen, also derjenige Aspekt, der bei Lautsprecher-Wiedergabe als quasi doppeltes Übersprechen theoretisch falsch ist.
OSS trennt demgegenüber bei Kopfhörern zuviel: Die Schallquelle wird schon bei ihrer Aufnahme infolge der Scheibe stärker links/rechts-getrennt, und im Gegensatz zu einem hypothetisch vor der Schallquelle sitzenden Hörer gibt es dann beim Kopfhörer-Hören nochmal –und sogar vollständige– Links/Rechts-Trennung.
Wer mit Kopfhörern arbeitet, weiss, dass man dort nicht um bestmögliche Trennung der Kanäle verlegen ist, sondern um das Gegenteil: Die Wiedergabe soll möglichst von den Seiten oder vom Inneren des Kopfes virtuell nach vorn, vor den Hörer, verlagert werden. Hierum bemühen sich entsprechende Software-Plugins oder hardwareseitig bestimmte Kopfhörerverstärker-Schaltungen, die alle einen Crossfeed praktizieren, d.h. künstliches Übersprechen zwischen links und rechts einführen.
Sogar das aufnahmeseitige Übersprechen der trennkörperlosen Verfahren reicht also fürs Kopfhörer-Hören offenbar nicht aus, sondern muss künstlich ergänzt werden. OSS mit seiner stärkeren Trennung ist daher alles andere als besonders kopfhörer-geeignet, sondern erschwert im Gegenteil die Situation des kopfhörerbedingten Mangels an Übersprechen noch zusätzlich.

Fazit: In der Theorie ist OSS entgegen manchen Stellungnahmen nicht lautsprecher-untauglich und kopfhörer-affin. Sondern eher umgekehrt.

Der Rest ist Praxis, und hier ist der eingangs erwähnte Kammfilter beim Seitenschall viel interessanter als irgendwelche Grundsatzdiskussionen. Die Kammfilterproblematik ist ein wesentliches Argument, wenn der Hauptanwendungsbereich für OSS mitunter in Aufnahmen von Raumatmosphäre oder Raumhall gesehen wird. Denn je weiter entfernt man sich von der Schallquelle befindet, desto weniger relevant wird der „kammfilter-gefährdete“ seitliche Schall.
Je näher man umgekehrt an die Schallquelle heran möchte, desto mehr sollte man sich um den Kammfilter kümmern. Dies ist aber kein Ding der Unmöglichkeit. Ein Vorteil des OSS-Konzeptes ist seine Variabilität in der konkreten Faktur des Trennkörpers.
Abhängig vom Material der Scheibe und der Art und Dicke des aufliegenden Schaumstoffes, liesse sich das Kammfilter-Problem sicher entschärfen. Hilfreich mag dabei die Überlegung sein, dass das Scheibenmaterial nicht notwendig zugleich der Träger von Mikrofonhalterungen (Clips) sein muss, wie man es verbreitet bei handelsüblichen OSS-Scheiben sieht. Man kann demgegenüber die Mikrofone in üblicher Weise auf einer Schiene positionieren und den Trennkörper separat zwischen die Mikros bringen, wenn gewünscht oder erforderlich auch an getrenntem Stativ.
Insbesondere Do-it-Yourself-interessierten Leuten eröffnet sich also ein weites Feld für potentiell lohnende Aufnahmeversuche mit OSS an modifizierten oder komplett selbstgemachten Trennkörpern.

Jecklin-Scheibe im Shop

das möchte ich kommentieren ...