Invasives Immersive

Grundlagen zu 3D-Audio und Raumsimulation

„Immersive“ gehört in der Audiowelt wohl zur „invasiven Spezies“ – es überwuchert alle differenzierteren Beschreibungen der technischen Umsetzung eines alten Anliegens der Theater-, Musik- und Kunstwelt: das Publikum in eine andere Welt als die Reale mitzuneh­men. Welche grundsätzlichen Ansätze existieren für Säle und Veranstaltungen, um Quellen und Raum in 3D anders zu erfahren, als sie tatsächlich existieren?

KI-Bühne(Bild: Midjourney/Detlef Hoepfner)

Anzeige


Inhalt dieses Grundlagen-Artikels:


Zwei Fragestellungen sind grundsätzlich zu unterscheiden: Systeme, die eine freie Positionierung der Quellen unab­hängig von ihrem eigentlichen Standort zulassen – ich nennen das mal 3D-Audio. Und Lösungen, die den Raum akustisch anders gestalten, als er ist. Hier soll dies als Raumsimulation bezeichnet werden. Beide Ansätze blicken auf eine lange Historie zurück, und entsprechend viele Beispiele für Anwendungsmöglichkeiten gibt es.

>> zurück zur Übersicht

3D-Audio

Die Wiedergabe über Lautsprecher brachte immer schon das Problem mit sich, dass Quellen vom Publikum nicht automatisch auch da lokalisiert werden, wo sie eigentlich „hingehören“. Mit Lautsprechern rechts und links der Bühne gab es aber mithilfe des PAN-Reglers auf dem Misch­pult eine Möglichkeit, ein gewisse realistische Breitenstaf­felung zu bekommen – zumindest für einen Teil des Publi­kums. Delays könnten für eine Erweiterung und gewisse Tiefenstaffelung sorgen. Mit einem Center-Lautsprecher ließ sich zudem schon mal ein in der Mitte stehender Sprecher oder Sänger für alle Zuschauer an derselben Po­sition positionieren. Denn da lag das Problem mit Stereo: Die durch Zeit- und Richtungsinformation bestimmte Lo­kalisierung der Quelle aus der Mitte funktioniert bei glei­chem Signal aus den linken und rechten Lautsprechern nur in einem bestimmten Bereich der Publikumsfläche.

2700 Lautsprecher-Module
2700 Lautsprecher-Module der Wellenfeldsynthese-Anlage im Hörsaal der TU Berlin (Bild: Christiane Bangert)

Um nun für alle im Saal dieselbe Lokalisierung sicherzu­stellen, muss entweder der Lautsprecher an der Quelle stehen (legendär ist hier die ‚Wall of Sound‘ 1973 von Greatful Dead, kleine Musiker-Setups mit Zeilenlautsprechern auf der Bühne verfolgen ein ähnliches Ziel) oder den Ohren auf andere Weise die passenden Zeit- und Richtungsinformationen gegeben werden.

>> zurück zur Übersicht

Wellenfeldsynthese – theoretisch

Der historische Ansatz zur Positionierung einer virtuellen Quelle im Raum basiert auf dem im 17. Jahrhundert von dem niederländischen Physiker Huygens formulierten Prinzip, dass jeder Punkt einer Wellenfront als Ausgangs­punkt einer neuen Welle dargestellt werden kann. Jede Wellenfront kann so als eine unendliche Anzahl von klei­nen Quellen gesehen werden, die zusammen die nächste Wellenfront bilden. Für den Zuhörer ist nicht zu unter­scheiden, ob die bei ihm ankommende Wellenfront von einer einzigen Quelle oder von einzelnen kleinen Quellen (z.B. nah nebeneinander installierten Lautsprechern) stammt, wenn die Wellenfront, die beide erzeugen, iden­tisch ist. Die mathematischen Berechnungen, wie sich die einzelnen kleinen Quellen verhalten müssen, damit sie die entsprechende Wellenfront bilden, beruhen auf den Theorien von Kirchhoff und Rayleigh. Vom Prinzip her wird mit den mathematischen Gleichungen ein Signal berechnet, das am Punkt des WFS-Lautsprechers dem der virtuellen Quelle entspricht. Nachbilden lassen sich virtuelle Punktquellen mit Positionen vor oder hinter den WFS-Lautsprechern und ebene Wellen.

Nun braucht so ein System sehr viele Lautsprecher schon für eine zweidimensionale Installation, da kleine Quellen in einem lückenlosen Band an den Wänden ins­talliert werden. In einer Installation in einem Hörsaal in Berlin 2007 waren es 2700 Lautsprecher! Die freie Positionierung von Quellen im Raum inklusive richtungsrichti­ger Ortung recht unabhängig vom Standpunkt des Zuhö­rers gelingt mit so einem System gut. Aber eine solche Anlage ist natürlich für Konzert- oder Theatersäle nicht praxistauglich.

>> zurück zur Übersicht

Praxistauglich objektbasiert

Wie man mit weniger Lautsprechern ein Objekt platzie­ren kann, daran hat z.B. das Fraunhofer IDTM viel For­schungs- und Entwicklungsarbeit geleistet. Bereits 2004 bot die Ausgründung Iosono (später Teil von Barco) eine praxisnahe Lösung an. Ein Iosono-Prozessor kam bei­spielsweise bei Kraftwerk schon 2013 live zum Einsatz. Auf den Fraunhofer-Entwicklungen basieren z.B. auch das Spatial Sound Wave, kurz SSW (später Astro Spatial Audio der niederländischen Firma Vanmunster BV).

Die Bezeichnung „objektbasiert“ beschreibt dagegen die Arbeitsweise: Der Nutzer hat eine Software-Oberfläche, auf der er Objekte definiert, die eine bestimmte Position haben oder sich in bestimmter Weise durch den Raum bewegen. Das System berechnet aus der Kenntnis der einzelnen Lautsprecherpositionen, wie mit ihnen am besten die entsprechende Wellenfront geformt werden kann, damit die Quelle von der gewünschten Position gehört wird. Wie differenziert die Platzierung und Wahr­nehmung unabhängig von der Hörerposition möglich ist, hängt davon ab, wie nah die Lautsprecher gesetzt sind. „Es gibt so eine Erfahrungsregel, dass der Abstand der Lautsprecher zueinander nicht grösser als der Ab­stand zu den Zuhörern sein sollte“, erläuterte schon beim Besuch des Opernhauses Zürich 2016 der Fraunhofer-Mitarbeiter René Rodigast. „Es hängt aber von der Auflösung ab, die ich möchte. Wenn ich bei einer Live-Anwendung einen Abstand von 10 Metern zwischen den Lautsprechern habe, dann erziele ich ja immer noch einen räumlichen Effekt, auch wenn die Lokalisation nicht mehr so präzise ist.“

Riesige Bildflächen mit Coda Space bei einem Immersive-Setup 2023 mit Jean-Michel Jarre (Bild: Detlef Hoepfner)

3D-Audio ist dabei bei Veranstaltungen nicht nur Spie­lerei für spannende Effekte: Auf der Seebühne in Bregenz ist das richtungsrichtige Hören der Akteure die Grundlage, um den doch recht kleinen Sängern auf der riesigen Bühne folgen zu können.

>> zurück zur Übersicht

Live

Auch für Konzerte können sich neue Möglichkeiten eröff­nen, die Quellen für alle an der passenden Stelle zu posi­tionieren – also eine Gitarre links auf der Bühne hören auch alle links – und nicht je nach Sitzposition in der Mitte, rechts oder (bei extremer Pan-Einstellung auf dem Misch­pult) gar nicht. Dies ist beispielsweise eine der Funktionen im d&b-Modul En-Scene der Soundscape Software im DS 100: Mit mehreren Line-Arrays über die Bühnenbreite verteilt kann nicht nur die Lokalisation der Bandmitglieder richtungsrichtig gelingen. Die räumliche Vertei­lung der Quellen hilft dem Hörer im Idealfall auch, die Quellen differenzierter und klarer zu hören.

>> zurück zur Übersicht

3D für überall

Für Film und Fernsehen ist die „Effekthascherei“ natürlich besonders wichtig. Schon in 5.1. oder 7.1. Surround bereicherten räumliche Effekte mit ihren Hubschrauberflügen quer durch den Saal das Filmvergnügen. Mit Formaten wie Dolby Atmos geht das sogar mit dem Smartphone: Über den Kopfhörer werden die Richtungsinformationen mittels der HRTFs (Head Related Transfer Function) hinzugefügt. Vielleicht sogar auf die eigenen Ohr­physiologie zugeschnitten, also mit personalisierte PHRTFs. Zu Hause hängt es neben den Algorithmen dann auch vom Raum und den Lautsprechern ab, inwieweit es gelingt, ein Objekt, dass von vorne aus dem Lautsprecher wiedergeben wird, von hinten zu hören.

In einer zertifizierten Dolby Atmos-Regie nutzt der Ton­schaffende immer noch seine eigenen Ohren. Eine Viel­zahl von Lautsprechern an den Seiten und an der Decke sorgen für die Voraussetzungen zur Positionierung der Klangobjekte. Dabei definiert Dolby, welche Raumgröße, Raumakustik, Lautsprecherpositionen und Typen zu nut­zen sind.

>> zurück zur Übersicht

Völlig andere Aufgabe: Raumsimulation

Einen Raum akustisch zu erzeugen, den es gar nicht in dieser Form gibt, kann z.B. bei einer Open-Air Veranstal­tung mit klassischer Instrumentierung gewünscht sein, bei der zum Klangerlebnis auch eine gewisse Einhüllung in das Klanggeschehen erwartet wird. Die Intentionen können auch in einer virtuellen Beeinflussung der Raum­akustik oder bestimmter akustischen Bedingungen lie­gen. Es kann darum gehen, auf der Bühne für ein Orchester bessere Hörbedingungen zu schaffen, durch die Verstär­kung der ersten Reflexionen Sprache lauter zu machen oder einen Saal durch eine virtuelle Verlängerung der Nachhallzeit für verschiedene Nutzungen zu optimieren.

Dazu werden Lautsprecher seitlich, hinter und für die dritte Dimension auch oberhalb des Publikums platziert. In welcher Anzahl und Positionierung, hängt vom System ab. Es sind aber in jedem Falle wesentlich mehr und ver­teilter als in herkömmlichen Lautsprechersystemen. Wie­dergegeben werden Signale, die von Mikrofonen auf der Bühne, im Saal oder beidem aufgenommen und dann in einem Prozessor bearbeitet werden. Hierfür existieren zwei unterschiedliche Konzepte: In-Line oder Regenerativ.

>> zurück zur Übersicht

Methode 1: In-Line als Klangeffekt

Bei der In-Line-Methode wird der Direktschall aufgenom­men und bearbeitet, z.B. mit der Impulsantwort eines Raumes „gefaltet“. So eine Faltung (in englisch Convolu­tion) im Zeitbereich ist mathematisch eine nicht allzu auf­wändige Multiplikation im Frequenzbereich. So gelingt es vielen Computer-Programmen, zum Beispiel einen Sprecher wahlweise in den Kölner Dom oder andere berühmte Räumlichkeiten zu versetzen. Es braucht nur zusätzlich zum Originalsignal die Impulsantwort aus dem Raum, in den man die Akteure versetzen möchte. Über Kopfhörer hört sich das Resultat der Faltung realistisch an.

Damit sich aber ein Saal durch die über Lautsprecher wiedergegeben Signale realistisch und ohne störende Arte­fakte wie eine andere Halle anhört, sind schon noch ein paar mehr Bearbeitungsschritte nötig. Durch die räumliche Trennung der Mikrofone zur Aufnahme des Direktschalls z.B. auf der Bühne und Lautsprecher im Zuschauerraum ist die Gefahr von Rückkopplungen nicht hoch. Ohne Mikro­fone im Saal spielt aber weder der Saal selber noch die Geräuschkulisse durch die Zuschauer eine Rolle in dem Hallsignal, das über die Lautsprecher wiedergegeben wird. Es handelt sich also eher um einen Klangeffekt als darum, auf Basis von vorhandener Raumakustik und Klanggesche­hen elektroakustisch das Reflexionsmuster dahingehend zu beeinflussen, dass der Hall im Raum länger wird.

>> zurück zur Übersicht

Regenerativ: Reflexionsmuster verändern

Dies ist der Ansatz der regenerativen Methode: Mikrofo­ne und Lautsprecher befinden sich im Diffusfeld eines Raumes. Die Mikrofone nehmen den Raumklang auf, die­ser wird im System verstärkt und bearbeitet, über eine Matrix gemischt und an die Lautsprecher zurückgeben. Dabei wird die Schleifenverstärkung so gesetzt, dass kein Feedback entsteht. Damit aber dem Raum trotzdem hin­reichend Energie zugeführt wird, um den Nachhall zu ver­ändern, ohne dass es andererseits zu Rückkopplungen oder Verfärbungen kommt, ist eine umfangreiche Bear­beitung des Signals erforderlich. Als Beispiel für eine sol­che Bearbeitung soll hier die Arbeitsweise des VRAS – der Vorgänger des Constellation von Meyer Sound – in Grundzügen umrissen werden.

Nähe schaffen mit einem Amadeus-System in St. Margarethen, um die Zuhörer die große Distanz zwischen ihnen und der Bühne vergessen zu lassen. (Bild: Christiane Bangert)

Grundsätzlich ist beim VRAS zwischen zwei Modulen zu unterscheiden: Reverb für den Nachhall und ER für die frühen Reflexionen (Early Reflections).

Vereinfacht dargestellt sorgt der Reverb für eine Ver­stärkung des Nachhalls. Das Klangbild des Nachhalls ent­steht durch mehrere im Reverb einstellbare Parameter: Der Modus des sogenannten Unitary-Hallgeräts, die Dich­te der Echos, der Anteil des Direktschalls, der Frequenz­gang, das Verhältnis der Verzögerungszeiten der einzel­nen Kanäle zueinander sind u.a. festzulegen. Die Justie­rung des Systems ist eine recht komplexe Angelegenheit. Schon bei der Auswahl und Positionierung der möglichst omnidirektionalen Lautsprecher und Mikrofone sind eini­ge grundsätzliche Sachverhalte bezüglich des Abstands der Komponenten zueinander und zum Zuhörer zu be­achten. Auch die Anzahl der Komponenten ist recht hoch: Für einen recht kleinen Saal mit in etwa 500m³ sind ca. 16 Lautsprecher und 16 Mikrofone notwendig. Im Kongresszentrum in Prag, wo das System bereits 2001 installiert war, kommen in dem 40.000m³ großen Saal 64 Lautsprecher und 24 Mikrofone zum Einsatz.

Das zweite Modul ER beeinflusst einen weiteren wichti­gen Parameter für das Raumempfinden, die frühen Reflexionen. Mikrofone im Direktschallfeld der Quelle, z.B. der Bühne, nehmen den Direktschall auf. Die Lautsprecher im Nahfeld der Zuhörer, typischerweise an den Seitenwänden, geben die ebenfalls bearbeiteten und in einer Matrix ge­mischten Signale wieder. Durch das Kreuzen aller Eingangs­kanäle mit allen Ausgangskanälen produzieren die Laut­sprecher eine Vielzahl kleiner Echos, die für den Zuhörer wie die Reflexionen von einer Wand wirken. Aber auch be­vor die frühen Reflexionen natürlich klingen, ist eine ganze Anzahl von Parametern zu setzten, u.a. der Frequenzgang und die Delay-Zeiten, die so zu setzten sind, dass die Refle­xionen nach dem Direktschall beim Zuhörer ankommen.

>> zurück zur Übersicht

Hybride Realität: von allem etwas

Die meisten Systeme können inzwischen von allem etwas. In-Line-Systeme haben beispielsweise auch Mikrofone im Saal, regenerative Systeme bedienen sich Faltungs- oder anderer Algorithmen, um einen Saal vorzugauklen, den es bei Open-Air-Veranstaltungen gar nicht gibt. 3D-Effekte und die Unterstützung des richtungsrichtigen Hörens las­sen sich auch in Raumsimulations-Systeme integrieren. 3D-Systeme wiederum beeinflussen auch die Raumakus­tik: Die Systeme lassen sich nicht mehr eindeutig in Schub­laden packen.

Die Tradition, in der ein System steht, ist eher ein An­haltspunkt dafür, was es am besten kann. Ziel der folgen­den Beispiele ist es, einen Ein­druck zu vermitteln, wofür die Systeme eingesetzt werden kön­nen.

>> zurück zur Übersicht

Beispiele: Raum ohne Raum

Bei klassischen Aufführungen, sei es bei Opern oder Konzerten im Freien, prägt die reale Distanz zwischen Bühne und Zuhörer das Hörerlebnis, wenn nur Direktschall und Frontlautsprecher zu hören sind. Bei den großen Distanzen, wie sie bei der Seebühne in Bre­genz oder der Oper im Steinbruch in St. Margarethen zwischen Publi­kum und Sängern existieren, wür­de ohne elektroakustische Unter­stützung durch Lautsprecher um die Zuschauer herum das Gefühl der Teilhabe und Nähe zum Ge­schehen auf der Bühne fehlen.

Die Intensität der oft hochkarä­tigen Stimmen würde leiden. In beiden Fällen wird daher ein räumliches und einhüllendes Klangerlebnis geschaffen. In Bre­genz kommt das System Vivace von Müller BBM, in St. Margare­then das Amadeus Active Acou­stics von Amadeus Acoustics zum Einsatz.

Bei den St. Gallen Festspielen, eine Opernproduktion im altehr­würdigen Klosterhof, kam das d&b Soundscape zum Einsatz, das mit dem Audioprozessor DS100 und den beiden Modulen En-Space und En-Scene sowohl für die Raumsimulation als auch das richtungsrichtige Hören einzusetzen ist.

>> zurück zur Übersicht

Richtungsrichtig hören

Dass man die Sänger bei der Oper auch an der Position hört, wo man sie sieht, hört sich selbstverständlich an. Nicht aber in Bregenz, wenn man rein die räumlichen Be­dingungen betrachtet: Die Sänger sind so weit entfernt, dass man sie ohne Verstärkung gar nicht hört, und bei der Größe der Bühne verliert man sie auch schnell mal aus den Augen. Denn es gibt weder Saal noch Orchestergraben, und die „die richtungsrichtige Wahrnehmung ist bei den Entfernungen und Größe der Bühne besonders wichtig, um zu wissen, wer singt, um der Handlung folgen zu können“, erklärte Clemens Wannemacher, Leiter der Ton­abteilung der Bregenzer Festspiele beim Besuch der See­bühne vor der Produktion von Madame Buttley. Hier wird das Spatial Sound Stage eingesetzt, das auf die 3-D-Sound-Entwicklungen des Frauenhofer IDMT zurückgeht.

Seebühne Bregenz
Auf mehreren Ebenen Lautsprecher der Seebühne Bregenz (Bild: Christiane-Bangert)

Dieselben Wurzeln hat auch das SSW (Spatial Sound Wave), dass schon seit längerer Zeit im Opernhaus in Zü­rich zum Einsatz kommt. Hier ging es zunächst darum, Quellen frei im Raum platzieren zu können und 3-D-Effekte zu erzielen. „Die neue Generation Regisseure ist mit dem iPad aufgewachsen. Für sie ist es fast selbstver­ständlich, dass man Ton auch verschieben kann,“ berich­tete Oleg Surgutschow, Tonmeister und Leiter der Abtei­lung für Bild und Ton, schon 2016. Die einfache Bedie­nung und Reproduktion von Einstellungen ist für den Produktionsalltag eine Grundanforderung. „In einem Repertoiretheater wie diesem mit täglich wechselnden Produktionen, zwei Produktionen am Wochenende, zwei unterschiedlichen sogar am Sonntag sind die Einrich­tungszeiten sehr knapp. Man muss sehr effizient und schnell arbeiten können,“ sagte Oleg Surgutschow. Seit 2016 ist das System um die Raumakustik-Funktionen er­gänzt. Grund hierfür war die für Opern eher kurze Nach­hallzeit des Saals von 1,2 Sekunden im Mittel, die eher einem Sprachtheater entspricht, und der Wunsch, dem Nachhall mehr Volumen zu verleihen.

Raumsimulation in Bregenz mit Vivace (Bild: Christiane Bangert)

>> zurück zur Übersicht

Variable Raumakustik

Das passende Volumen per Knopfdruck ermöglichen di­verse Raumsimulations-Systeme. Damit dieses möglichst perfekt gelingt und die Zuhörer vom passenden Raum­ klang eingehüllt und nicht durch Klangverfärbungen und Wahrnehmung von Lautsprechern gestört werden, bedarf die Einstellung Fachkenntnis und Akribie. Dies ist sicher ein Grund, warum beim Meyer Sound Constellation alles aus einer Hand kommt, inklusive der Lautsprecher. Hier ist man beim Amadeus freier, die Lautsprecher-Marke ist nicht festgelegt. Aber auch hier wird das System von Mit­arbeitern von Amadeus in Betrieb genommen: In einem mehrtägigen Prozedere werden auch in Zusammenarbeit mit den späteren Nutzern – Toningenieure, Orchester, etc. – die Voreinstellungen erarbeitet, die dann die akustische Wandlung z.B. des Sprechtheaters in ein Opern­haus oder Konzertsaal ermöglicht. Amadeus wurde bei­spielsweise im Sommer 2023 im Theater in St. Gallen in Betrieb genommen, arbeitet bereits in einem Theater in Lausanne. Es wird auch in multifunktionalen Veranstal­tungssälen wie dem Congress Centern Alpbach (CCA in Alpbach, Österreich) und dem Konzertsaal in Andermatt eingesetzt. Letzterer Saal – eigentlich zu klein für große Orchester – sollte für die Berliner Philharmoniker zur Er­öffnung akustisch passend sein. Deshalb wurde der Saal mittels Nachhallzeit- und Reflexionsanpassung per Ama­deus akustisch „größer“ gemacht.

Pan Immerse 4D Audio
Pan Immerse 4D Audio unterstützt Lautsprecheranordnungen für Spatial-Audio Anwendungen mit bis zu 128 oder mehr Lautsprecherkanälen und lässt sich in ein bestehendes ACS-System einbinden. (Bild: Christiane Bangert)

Einen für Konzerte nicht ganz passenden Saal raum­akustisch temporär auch für hochkarätige sinfonische Konzerte geeignet zu machen, dazu kam sowohl im Mu­sical Theater in Basel als auch in der MAAG-Halle in Zürich das Viviace-System von Müller BBM zum Einsatz. In beiden Fällen wurden die eigentliche, historischen Spielstätte für klassische Konzerte restauriert und wäh­rend der mehrjährigen Bauarbeiten ein Ersatzspielort geschaffen.

Kraftwerk-Setup
Kraftwerk-Setup in Düsseldorf, bei dem ein Iosono-System für mehrdimensionale Klangeffekte zum Einsatz kam (Bild: Christiane Bangert)

>> zurück zur Übersicht

Auf der Bühne

Für Orchestermusiker ist es fundamental, sich gegenseitig zu hören. Dies kann aber ohne die entsprechenden baulichen Einrichtungen wie eine Orchestermuschel schwierig sein. Bereits 2005 verfügte das ACS (Acoustic Control System, inzwischen bei Pan Acoustics angesiedelt), über Funktionen, mit denen die für das gegenseitige Hören wichtigen frühen Reflexionen erzeugt und über Lautspre­cher wiedergegeben werden. Darüber hinaus kann ACS, das mit der Aufnahme des Direktschalls in der Tradition der In-Line-Systeme steht, natürlich noch einiges mehr: Nachhallzeiten im Saal verlängern, erste Reflexionen für die Zuhörer erzeugen usw.

>> zurück zur Übersicht

Sprache unterstützen

Für Vortragende kann es angenehm sein, einfach frei zu reden und nicht in ein Mikrofon sprechen zu müssen. Nur leider fehlt es dann oft an Lautstärke, um auch auf etwas weiter entfernten Plätzen gut verstanden zu werden. Hier kann die „Voice-Lift“-Funktion beispielsweise im Yamaha AFC3 die Sprache durch Erzeugung früher Reflexionen un­terstützen. Die Signale, die dann über Lautsprecher wie­dergegeben werden, sind leicht verzögert. Die Unterstüt­zung basiert auf den „integrativen“ Eigenschaften des Ohres: Bei den frühen Reflexionen bis ca. 50ms nach dem Direktschall integriert das Ohr, es unterscheidet bei der Empfindung der Lautstärke nicht zwischen den Signalen, sondern „hört“ den Pegel als Summe aus Direktschall und ersten Reflexionen. Durch das Erzeugen eines Summensig­nals (Direktschall und mit dem AFC3 erzeugte erste Refle­xionen) wird der Sprecher lauter empfunden als nur der Direktschall in einem trockenen Raum. So lange das Spre­chersignal zuerst beim Hörer ankommt und immer noch eine gewisse Lautstärke hat, stimmt die Wahrnehmung der Sprecherposition. Voice Lift kennt zwei Modi – den Präsentation-Modus, bei dem der Vortagende unterstützt wird, und den Konferenz-Modus, bei dem Sprecher auch an unterschiedlichen Positionen im Raum verstärkt wer­den, ohne dass sie selber ein Mikrofon brauchen.

Als hybrides System beherrscht AFC3 auch die Diszipli­nen der Raumsimulationen, und eine Sprachunterstützung ist im Gegenzug auch in anderen Systemen integriert.

Dolby Atmos Lautsprecher
Dolby-Atmos-Lautsprecher in der ersten zertifizierten Atmos-Regie in der Schweiz (Bild: Oslo Studios, Münchenstein/Basel, Daniel Infanger)

>> zurück zur Übersicht

Mehr als 3D-Effekte

Die Beispiele verdeutlichen, wie breit gefächert die An­wendungen der Systeme im Veranstaltung- und Konzer­talltag sind. Sie könne die Raumakustik beeinflussen und den Zuhörer akustisch in eine dreidimensionale Welt ent­führen, die sowohl einer gewohnten und gewünschten Hörumgebung entsprechen – als auch eine surreale Hörerfahrung erschaffen kann.

>> zurück zur Übersicht


L-ISA für die Mainstage der LEaT con

Audiovorführungen bedeuten manchmal, Eulen nach Athen zu tra­gen … „jaja, kennen wir schon“. Für die LEaT con hat sich das Team daher zusammen mit L-Acoustics ein Setup ausgedacht, das gleichzeitig noch nicht weit verbreitet, aber besonders praxisnah ausfällt. Die Entscheidung auf ein mehrkanaliges Setup in der Front ist damit sicher deutlich repräsentativer für viele Aufträge als ein ausgewachsenes Rundum-Paket.

Konferenz-Setup in L-ISA
Konferenz-Setup in L-ISA für die Hauptbühne der LEaT con im Oktober 2023

Die Fragestellungen, die sich hier in der Vorbereitung ergaben, waren damit ganz typisch für viele Jobs: Welches Programm findet auf der Bühne statt? Welche akustischen Vorteile sind tat­sächlich im gegebenen Programmablauf erwartbar? Lässt sich die Be­stuhlung etwas anpassen? In welchem Format werden die Einspieler geliefert, und welche Schnittstellen ins System werden benötigt? Welche Hängepunk­te sind realistisch? Wie passt der Ge­samtaufwand ins Budget? Nicht zu­letzt: Welche Flächen umgeben Bühne und Publikum und dürfen nicht ge­stört werden?

Martin Rode, Senior Application Pro­ject Engineer für den deutschsprachi­gen Raum bei L-Acoustics, definierte daraus folgende Aufgabenstellung: „Mit L-ISA verfolgen wir bei der gege­ben Aufgabenstellung den Ansatz, eine frontale Beschallung zu realisieren, bei der die akustische richtungsbezo­gene Lokalisation der Zuhörer im Einklang mit der visuellen Wahr­nehmung der Akteure (Sprecher oder Musiker) auf der Bühne steht. Sprich: Wir heben die klassische Fehllokalisation auf, die sich bei einem L/R-System für Zuhörer er­gibt, die außerhalb der Mitte sitzen. Dieser Ansatz steht im Einklang mit dem natürlichen Hören akustischer Schallereignisse, weshalb die Rezipienten die Beschallung nicht mehr als künstliche Barriere wahr­nehmen. Ziel ist es, dies für die überwiegende Mehrheit des Publi­kums zu erreichen, um eine grö­ßere Gleichbehandlung der Zuhörer zu erreichen. In der vorliegenden Planung erreichen wir dies für 94,4% der Hörerfläche.“

>> zurück zur Übersicht

Planungsschritte und Aufwand

Auch für die LEaT con wurde die finale Planung nicht in einem Schritt gefunden, sondern erfolgte in einigen Abstimmungen zwischen Ver­anstalter, Planer und Dienstleister: „Generell durchläuft eine solche Planung einen Abstimmungsprozess mit den Kollegen vom Licht (Stichwort: Platzkampf an der Fronttraverse), den Videokollegen (Stichwort: Aufpro), dem Setdesign und der technischen Leitung. Hier ergeben sich in der Regel leichte Veränderungen, und man schließt Kompromisse. Fundamentale Änderungen ergeben sich in der Regel nicht, wenn das L-ISA System von der Produktion und/oder dem Künstler gewollt ist.“

Screenshot
Planungspraxis Abstimmung zwischen den beteiligten Partnern der LEaT-Hauptbühne im Spätsommer 2023

Ein gewisser Mehraufwand gegenüber einer „Stan­dardbeschallung“ ist natürlich gegeben. Wie hoch schätzt Martin Rode ihn im Schnitt ein? „Der Mehrauf­wand ist gegeben, da anstatt zwei L/R-Systeme und ggf. einem Center immer mindestens fünf Arrays geflogen werden. Die Tournee-Erfahrung bei Mark Knopfler oder Bon Iver zeigen aber, dass dies mit der entsprechenden Vorbereitung nicht dramatisch ist und dass der Nutzen diesen Mehraufwand bei Weitem überwiegt. Zudem wird es in der Zukunft noch einfacher: Mit der neuen Truss­klemme CLAMP1000, die Arrays bis 1.000kg nach BGV-C1 fliegen und unter Last eindrehen kann, haben wir zudem einen großen Schritt gemacht, um schnellstmöglich an­zuschlagen und auszurichten. Mit dem vorgecurvten L2 und L2D ist zudem ein neues System am Markt, dass die Rüstzeiten gegenüber herkömmlichen Arrays mit variab­len Winkeln um ca. 68% herabsetzt, weshalb in dieser Konstellation der zeitliche Mehraufwand voll kompen­siert ist.“

Das Team von L-Acoustics ist hier also deutlich positi­oniert und überzeugt, aber sieht es dennoch gelegent­lich Nachteile – wie eine manchmal kritisierte empfun­dene „akustisch Indirektheit“ solcher Setups? Martin Rode: „Nein, insgesamt sehe ich hier in der Summe nur Vorteile für den Mix, die Abbildung und die Rezeption. Wir merken das immer daran, dass wir beispielsweise Mas­kierungseffekte nicht mehr mit invasivem EQ-Einsatz begegnen müssen, sondern dies über die räumliche An­ordnung der Instrumente lösen. Hierdurch können die Einzelinstrumente viele natürlicher klingen. Darüber hin­aus erfahren wir bei Konzerten immer wieder, dass Zu­hörer am FOH erscheinen und fragen, was mit dieser Beschallung anders sei als sonst. So habe man das in der Halle noch nie gehört. Hier findet aus unserer Sicht eine massive Aufwertung der musikalischen Übertra­gungsqualität statt, die die Zuhörer mitnimmt.

Einziger Nachteil ist in manchen Bühnensituationen, dass wir gehalten sind, die Systeme recht hoch zu flie­gen, um die Sichtlinien einzuhalten. Hierdurch ist dann die vertikalen Ortung im Nahbereich der Bühne zu hoch, was wir aber über sogenannte Spatialfill-System an der Bühnenkante für die ersten Reihen kompensieren können.“

Dieses Konzept ausgiebig – sicher ganz losgelöst von konkreten Marken – im realen Konferenzalltag zu erle­ben, war auf der LEaT con vom 17. bis 19. Oktober in Ham­burg möglich.

>> zurück zur Übersicht

Anzeige

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.