Anzeige
ANZEIGE

Halina Rice kombiniert 3D-Soundscapes & Mixed-Reality-Visuals für eindrucksvolle Live-Auftritte

Ihre objektbasierte binaurale Kompositionen erstellt sie mit L-ISA Studio, die dann als 360°-Performances in einem Multi-Lautsprecher-Arrays wiedergegeben werden. Seit ihrer allerersten Live-Show im Jahr 2016 arbeitet Halina Rice daran, Musik, Kunst und Technologie auf eine Weise zu kombinieren, die ihr Publikum in ein audiovisuelles Erlebnis eintauchen lässt, das über die Grenzen der Bühne hinausgeht. 

Halina Rice

Zuletzt nutzte die Musikproduzentin und AV-Künstlerin für eine Live-Show in London die 3D-Audiosoftware L-ISA Studio und L-Acoustics Lautsprecher, um ihren eindrucksvollen elektronischen Klanglandschaften und Beat-getriebenen Tracks eine zusätzliche Dimension zu verleihen.

Rice und Mitarbeiter Jan Petyrek, bildender Künstler und interaktiver Designer, nutzten L-Acoustics Immersive Sound Möglichkeiten erstmals als sie beim 36-ständigen Hackathon 2019 der Abbey Road Studios auftraten. Im Dezember 2021 organisierte Rice ihre eigene Show in der Londoner Copeland Gallery. Dabei programmierte sie ihre Tracks mit L-ISA Studio, wiedergegeben durch ein 360-Surround-Array von L-Acoustics X8-Koaxiallautsprechern und kombiniert mit Mixed Reality, 3D sowie generativen und audioreaktiven Bildern und Beleuchtung.

“Ich wollte, dass sich die Leute wie woanders fühlen, so wie ich mich fühle, wenn ich eine Show von Ryoji Ikeda sehe. Es ist belebend und interessant”, sagt Rice. Für ihre Show in der Copeland Gallery sagt sie: “Die Leute konnten Geräusche von verschiedenen Orten hören. Einige der Tracks, die ich erstelle, sind eher wie Klangstücke; sie haben kein Tempo oder eine Struktur, so dass ich Geräusche von überall herum positionieren kann, und die Lichter kommen ebenfalls von überall her. Es bringt Menschen in einen anderen Raum”.

Rice war bereits mit den Konzepten und der Struktur objektbasierter Immersive-Audio Produktion vertraut, als sie beim Hackathon von Abbey Road begann, mit der L-ISA Studio-Software zu arbeiten. “L-Acoustics hat mich in Gang gebracht und mir einen Link zu ihren Trainingsvideos zur Verfügung gestellt.  Als sich der Termin für ihre Show in der Copeland Gallery näherte, beriet sie sich auch mit Stephen Hughes bei Delta Live, dem Unternehmen für Audio-, Kommunikations- und Technologielösungen, Eventproduktion und Ausrüstungsverleih, und mit Chris McDonnell, L-ISA Application Design Engineer bei L-Acoustics. “Ich habe einige Tracks für sie gespielt und Chris gab mir einige großartige Ratschläge, diese in das L-ISA-System zu übersetzen”, berichtet sie.

“Es ist eine echte Herausforderung, da man viel mehr Stems benötigt, als man normalerweise bouncen würde. Und erst am Ende eines solchen Projektes weiß man, wie es klingen wird. Aber wenn man das einmal hinter sich hat, ist es wirklich nicht mehr schwierig“.

Bei der Vorproduktion an ihrem MacBook mit L-ISA Studio sagt sie: “Der binaurale Mix auf dem Kopfhörer gab mir ein wirklich klares Gefühl dafür, was ich tat. Viele Klänge waren statisch, und es gab Klanglandschaftsstücke, die sich ziemlich dramatisch bewegten.”

Als sie dann im Raum der Copeland Gallery waren, passten sie und Toningenieur Ben Davey ein paar kleinere Dinge noch an; „Wir hatten während des Installation noch einige Tage, also experimentierten wir. Ich fand es wunderbar“, sagt Rice. “Jetzt, da ich auf diese Weise gearbeitet habe, bin ich zuversichtlich, diese Mixe auch nur binaural zu machen und direkt zum Veranstaltungsort gehen zu können“. 

Derzeit steuert Rice die Audiokomponente ihrer Show mit einem Ableton Push-Controller und L-ISA-Software auf ihrem Laptop. Der objektbasierte Workflow von L-ISA ist einfach eine Erweiterung ihres früheren Stem-based Ansatzes-  “Ich habe zuvor fünf oder sechs Stems gebounced: Schlagzeug, Bass, Synthesizer, Gesang, VFX usw. Mir wurde allerdings klar, dass ich nun viel mehr Möglichkeiten habe, diese zu verteilen, sowie verschiedene Geräusche zu platzieren und sie auf unterschiedliche Weise zu bewegen. Jetzt bounce ich ungefähr 10 Stems. Und innerhalb dieser schreibe ich die Automatisierung für Abstand, Breite und Panning. Viele dieser Objekte sind aber auch statisch; Man möchten ja nicht unbedingt, dass sich eine Kick-Drum bewegt.  Die meisten Synthesizer könnten jedoch eine kleine Bewegung haben. Und all diese Bewegung ist vorprogrammiert”.

Dennoch gibt auch viel Live-Audio, fährt sie fort. “Ich habe außerdem eine Reihe von Live-Tracks mit denen ich das L-ISA-System füttere. Die Energie der Show liegt im Live-Sampling, die dann durch ein Paar Ausgänge in eine bestimmte Platzierung im L-Acoustics-Lautsprecher-Array eingespeist werden.“

Getrennt vom Audio bildet sich Rice mit Microsofts Kinect-Motion-Controller als Avatar in die Mixed-Reality-Grafik ein. Die visuelle Seite ihrer Show wird durch vorab aufgenommene generative Kunst weiter verbessert, sagt sie, die in Zusammenarbeit mit Freny Antony alias @procedural.disarray entwickelt wurde. Rice wird auch von ihrer Event-Produzentin Sophie Charrington unterstützt, die AR- und VR-Produzentin ist.

Halina Rice wird im März 2022 bei folgenden Veranstaltungen auftreten:

Sonica Arts Festival in der Straßenbahn, Glasgow am 19. März

Iklectik, London am 24. März

Hot or Not
?
Halina Rice at Copland Gallery, London, UK Bild

Wie heiß findest Du diesen Artikel?

flame icon flame icon flame icon flame icon flame icon
Your browser does not support SVG files

von Felix Klostermann

Kommentieren
Kommentare vorhanden
Schreibe den ersten Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Bonedo YouTube
  • GFI System Orca Delay Sound Demo (no talking) with Novation Circuit Tracks
  • BOSS RE-2 Space Echo Sound Demo (no talking) with ASM Hydrasynth
  • Endorphin.es Ghost & Qu-Bit Aurora Sound Demo (no talking)