Muzea i wystawy, szczególnie te poświęcone historii, bardzo poważnym i złożonym zagadnieniom z przeszłości, wkładają bardzo wiele wysiłku, aby tworzone przez nich ekspozycje były w stanie zainteresować odbiorcę. Szczególnie tego młodego, który każdego dnia korzysta z multimediów, komputera, telefonu czy tabletu i zazwyczaj jest przebodźcowany treściami audio i wideo. Dlatego właśnie w przestrzeń muzealną szturmem wkroczyły immersyjne multimedia, projekcja 360 stopni czy potężne ekrany LED. Jednak obraz to dopiero połowa sukcesu. Trudno stworzyć angażującą ekspozycję bez dźwięku. Dzisiaj najlepszym narzędziem umożliwiającym zatopienie odbiorcy w dźwięku i jeszcze bardziej sugestywne oraz angażujące przekazanie treści są systemy immersyjne. Na początku kwietnia na Stadionie Narodowym powstała multimedialna wystawa „Szlaki Nadziei. Odyseja Wolności”, wykorzystująca system immersyjny L-Acoustics L-ISA.
Postanowiliśmy porozmawiać z twórcami dźwięku towarzyszącego wystawie o tym, jakie możliwości dał zainstalowany system i do jakich zadań został wykorzystany.
L-Acoustics L-ISA to immersyjny system dźwiękowy, który znakomicie sprawdzi się w przestrzeni teatru, na scenie operowej czy musicalowej, umożliwiając realizatorowi rozlokowanie w przestrzeni dźwiękowej wykonawców, a słuchaczom podążanie wraz z przemieszczającymi się na scenie wokalistami czy instrumentalistami. Przy pracy z muzyką poważną i dużymi składami, zaproponowana przez francuskiego producenta koncepcja pozwoli natomiast na wiarygodne i sugestywne przetransmitowanie układu orkiestry, dokładnie tak jak na nią patrzymy, a nie w postaci bezkształtnej, zbitej masy, jak mogłoby to mieć miejsce przy korzystaniu z klasycznych układów L-R i L-C-R.
Jednak L-ISA to również rozwiązanie, które doskonale sprawdzi się w nieco bardziej kreatywnych instalacjach, w tym w ramach systemów pracujących w muzeach czy na interaktywnych wystawach. Pomoże on w stworzeniu unikatowych, bazujących na wyjątkowym designie przestrzeni ekspozycyjnych, w pełni zanurzających ich gości w prezentowanych treściach. To system, który przenosi wystawę na zupełnie inny poziom, dając jej twórcom jeszcze jedno kreatywne, angażujące odbiorcę narzędzie.
Tę moc systemu L-ISA zrozumieli również twórcy wystawy „Szlaki Nadziei. Odyseja Wolności”, która gościła w dniach 13-15 kwietnia na Stadionie Narodowym w Warszawie. To projekt edukacyjno-memoratywny, stworzony przez Instytut Pamięci Narodowej w związku z 80. rocznicą rozpoczęcia wędrówki armii gen. Andersa i mający na celu upamiętnienie wysiłku Polskich Sił Zbrojnych w trakcie II wojny światowej. Projekt jest planowany na lata 2022-2025 i obejmie swoim zasięgiem ponad 50 państw na całym świecie. Pomysłodawcą wystawy jest Mateusz Marek z Instytutu Pamięci Narodowej, a jej produkcją zajęła się firma Uszy.Te Muzyka Szyta na Miarę i dom produkcyjny The Drama Queens Film & People Agency Twórcy wystawy postanowili połączyć materiały archiwalne z nowoczesnymi, interaktywnymi technologiami, przenosząc widzów w zupełnie inną, historyczną rzeczywistość, sprawiając, że dzięki immersyjnemu dźwiękowi mogli poczuć się oni jak bohaterowie prezentowanych opowieści. Ten śmiały projekt spotkał się z olbrzymim zainteresowaniem kilkutysięcznej widowni, która odwiedziła wystawę w trakcie jej trzydniowej obecności w Warszawie. Zapraszamy do lektury naszej rozmowy z projektantem dźwięku wystawy i jej producentem Bartkiem Kapłońskim oraz Krzysztofem Polesińskim, drugim z projektantów, reprezentującym również firmę Airpol Sound & Light, która także była jednym z dostawców sprzętu na wystawę.
Łukasz Kornafel, AVIntegracje: Czym zajmujesz się w ramach tego projektu?
Bartek Kapłoński, Uszy.Te: Z ramienia firmy Uszy.Te Muzyka Szyta Na Miarę, która odpowiada za organizację całej wystawy, jestem odpowiedzialny za sound design, a ponadto koordynuję wszystkie działania techniczne.
Jakie materiały multimedialne zostały wykorzystane do stworzenia wystawy?
BK: Wystawa nosi nazwę „Szlaki Nadziei. Odyseja Wolności” i jest wystawą multimedialną, która opowiada losy Polaków, którzy w czasie drugiej wojny światowej zostali wygnani na obczyznę w różne zakątki świata. Jej celem jest pokazanie ich podróży – dlatego mamy tu przekrój przez historię od 1939 do 1947 roku. Razem z widzem będziemy odwiedzać m.in. Afrykę, Iran, Indie Wschodnie, Kazachstan, Syberię czy Europę, a wszystko to multimedialnie. Wystawa łączy archiwalne zdjęcia z nowoczesnymi technologiami takimi jak animacja, dźwięk immersyjny czy mapping. W związku z tym, że nie mamy zbyt wielu nagrań video z tamtej epoki, mogliśmy bazować jedynie na zdjęciach archiwalnych, które zostały pokolorowane i poddane animacji, ale mimo to nadal nie mieliśmy pełnego ruchu, do którego jesteśmy przyzwyczajeni podczas oglądania filmów. Dlatego wpadłem na taki pomysł – trochę nietypowy, bo zazwyczaj oczekujemy, że sound design pomaga zobrazować to, co widzimy – że w tym przypadku podejdziemy do dźwięku tak, jak ma to miejsce w przypadku słuchowiska. Pomyślałem, że dzięki temu będziemy mogli uzupełnić brakujące bodźce i uzyskać bardziej osobiste doświadczenie uczestnictwa w losach bohaterów naszej wystawy.
Opowiedz zatem, jak przebiegała praca nad dźwiękiem i jak to się miało do pracy nad warstwą wizualną.
BK: Jak wspomniałem, wyszliśmy tym razem od dźwięku, a nie od obrazu. Przestawiliśmy się z myślenia, że dźwięk podąża za okiem i dlatego dużo jest takich momentów, w których rzeczy nie dzieją się na ekranach, ale za to dzieją się w dźwięku. Za jego pomocą tworzymy dodatkową narrację, która uzupełnia braki wynikające z braku ruchomości obrazu. Pomyślałem, że najlepszą opcją będzie dźwięk immersyjny. Bo co innego słyszeć przestrzeń z dwóch kanałów, lewego i prawego, a co innego dźwięk, który porusza się wokół nas: lwa, który ryczy nam zza ramienia czy chorego człowieka, chrapiącego w wagonie jadącym na Syberię. Chcieliśmy widza maksymalnie zanurzyć w atmosferze po to, by bardziej doświadczył trudnego losu bohaterów naszej opowieści.
Treści wizualne tworzyły się jednocześnie z dźwiękiem. Wszystko było spinane w dużym napięciu czasowym, dlatego pracowaliśmy równolegle, na zasadzie wymiany plików – na bieżąco sprawdzaliśmy, jak materiał dźwiękowy spina się z materiałem wizualnym. Nie korzystaliśmy w tym przypadku z żadnej wymyślnej technologii, nie mieliśmy też spotkań na żywo. Zresztą przy tym projekcie pracowało tak dużo osób – szczególnie od strony animacji – że nie byłoby to możliwe. Z racji małej ilości czasu na realizację był to projekt trochę szalony, ale mam nadzieję – interesujący.
Kto jest pomysłodawcą wystawy i czy dźwięk immersyjny był w założeniu klienta?
BK: Pomysłodawcą wystawy jest dr Mateusz Marek z Instytutu Pamięci Narodowej. Nie miał świadomości istnienia czegoś takiego jak technologia immersji dźwiękowej, natomiast od początku miał w zamyśle „zanurzenie” odbiorcy wewnątrz narracji. Od strony technologicznej nie wiedział, jak to dokładnie zrobić, zakładał doświadczenie przypominające nieco grę, w której uczestniczymy „w pierwszej osobie”. Gdy o tym usłyszałem, od razu pomyślałem, że immersja będzie do tego idealna. I to spotkało się z pozytywną reakcją, być może także dlatego, że słowo „immersja” zaczyna już funkcjonować w ogólnej świadomości, a może też dlatego, że byliśmy w stanie przygotować wcześniej prezentację w aplikacji L-ISA Studio, która umożliwia zobrazowanie projektu dźwięku immersyjnego na słuchawkach. Tak czy owak dostaliśmy od klienta duży kredyt zaufania, bo nie miał on wcześniej do czynienia z projektem immersyjnym, ale wszyscy podskórnie czuliśmy, że to jest dokładnie to, czego poszukujemy.
Zdecydowałeś się na immersję i co dalej?
BK: I pierwszą osobą, o której pomyślałem w kontekście inżynierii dźwięku immersyjnego, był Krzysiek Polesiński, który ma ugruntowaną renomę człowieka zajmującego się tym tematem, robi wydarzenia live w tej technologii, a także przygotowywał wystawy immersyjne. Jako że od lat 90. zajmuję się realizacją dźwięku live, to znamy się od dawna z małych i dużych scen. Dlatego zadzwoniłem do niego i spytałem, czy chciałby wziąć udział w naszym projekcie, a on nie tylko przystał na tą propozycję, ale też zaproponował system L-Acoustics L-ISA. Ja z racji swoich doświadczeń z tą marką zgodziłem się natychmiast, bo bardzo lubię pracować na aparaturach tej firmy.
Krzysztof, jaka była Twoja rola w realizacji tego projektu?
Krzysztof Polesiński, Airpol Sound & Light: Bartek zwrócił się do mnie jako do osoby posiadającej pewne już doświadczenie z systemami immersyjnymi. Tak jak sam już wspomniał znamy się dosyć długo i spotykamy się w pracy podczas różnych koncertów, które realizujemy. Mamy także przyjemność pracować razem w projekcie o nazwie „Cohen Kobiety”, gdzie Bartek gra na gitarze, a ja jestem realizatorem dźwięku. W trakcie pandemii spędziłem trochę czasu w studio Target Sound, gdzie pracowałem nad kilkoma materiałami koncertowymi, które, miałem nadzieję, kiedyś wykorzystam podczas tychże koncertów. Mając nagrane ślady z koncertu, w którym grał Bartek, postanowiłem zrobić miksy w dźwięku przestrzennym. Pewnego dnia wysłałem Bartkowi taką zajawkę video jednego z utworów, w którym to gitara dała mi sporo możliwości kreatywnych i tym samym napisałem do Bartka, co zrobiłem oraz jaki osiągnąłem efekt. Bartek wydał się wówczas zainteresowany i powiedział, że bardzo chciałby kiedyś przyjechać do tego studia i posłuchać. Od tamtego momentu kilka razy rozmawialiśmy na ten temat aż w końcu nadarzyła się okazja. Spotkaliśmy się w Warszawie i Bartek opowiedział mi o pomyśle wystawy oraz zapytał mnie, jak widzę realizację takiego pomysłu. Temat mnie mocno zaciekawił i tak zaczęliśmy rozmawiać o technologii oraz jej możliwościach. Nasza współpraca przebiegała w bardzo miłej atmosferze i otwartości, uzupełnialiśmy się nawzajem. Bartek odpowiadał za całość technologiczną projektu oraz sound design, natomiast moją rolą było zaprojektowanie systemu dźwiękowego oraz immersyjny sound design.
Bartku, a Ty miałeś wcześniej doświadczenie z L-ISA?
BK: Nie, z samą L-ISA nie miałem doświadczenia. Na szczęście Krzysztof był uprzejmy wprowadzić mnie w ten system, wyjaśnił, jak działa programowanie obiektowe i pomógł mi wdrożyć się w niego już na etapie sound designu. Podpowiedział, żebym zainstalował w pracowni L-ISA Studio, dzięki czemu mogłem zwirtualizować na słuchawkach przestrzeń, którą docelowo mieliśmy stworzyć na terenie Stadionu. Od tego momentu wszystkie prace związane z materiałami audio, prowadziłem na L-ISA Studio, a dodatkowo przygotowałem matrycę, dzięki której mogłem renderować dla klienta tradycyjne wersje „lewo-prawo” do kolaudacji. Kiedy już mieliśmy akcept od klienta na wszystkie elementy treści, to umówiliśmy się z Krzysztofem w studio firmy Target Sound.
Tam zamontowany został system, zaprojektowany wcześniej przez Krzysztofa, będący wiernym odwzorowaniem przyszłej wystawy i przez cztery dni pracowaliśmy, tym razem już z obrazem, nad tym, by zaprogramować w L-ISA wszystkie ruchy i pozycje, o które mi chodziło. Taka procedura była zawczasu zaakceptowana przez klienta, podobnie jak cały kontent, natomiast finalny miks immersyjny był póki co nieznany klientowi i był akceptowany na kolaudacji w trakcie drugiego dnia montażowego.
Jak Ci się pracowało z aplikacją L-ISA Studio?
BK: Żeby w pełni wykorzystać to narzędzie, jakim jest L-ISA, na poziomie przygotowań, musiałbym mieć pełny system złożony z kilkudziesięciu głośników L-Acoustics. Dla większości osób jest to opcja niedostępna zarówno z powodów finansowych, jak i logistycznych. Dlatego super ułatwieniem jest wirtualizacja w L-ISA Studio, która pozwala usłyszeć efekt immersyjny w zwykłych słuchawkach. Realnie, jest to jedyna opcja dla kogoś, kto przygotowuje kontent i przygotowuje się do pracy z inżynierem systemu, a nie jest właścicielem systemu PA marki L-Acoustics. Bardzo fajnie mi się pracuje w tym środowisku. Co prawda z premedytacją ominąłem etap docelowego umieszczania obiektów w przestrzeni, bo i tak musieliśmy to później zrobić na konkretnym setupie głośnikowym, ale tak czy owak wcześniej ustawiłem zgrubnie ruchy na poziomie automatyzacji w DAWie, po to, żeby pokazać klientowi, jak obiekty będą pracować w przestrzeni. Inną zaletą L-ISA Studio było to, że mogłem na słuchawkach kontrolować, ile treści audio zmieści się w daną scenę bez maskowania czy klinczu nachodzących na siebie rzeczy, bo rozdzielczość odsłuchu binauralnego (czy wirtualizacji tego, co robiłem) jest o wiele większa niż lewy-prawy. Więcej można tu „zmieścić” niż w tradycyjnym systemie L+P czy L+C+P.
Czy mógłbyś to zrobić bez L-ISA Studio?
BK: Myślę że tak, ale musiałbym się większej liczby rzeczy domyślać i działać trochę po omacku, a tak mogłem od razu usłyszeć efekt zbliżony do docelowego. Bardzo użyteczne narzędzie.
Krzysztof, jak z Twojej perspektywy wyglądały przygotowania do realizacji projektu?
KP: Temat nie był standardowy, na wstępie nie wiedziałem jeszcze jakiej technologii immersyjnej użyję do tego celu, gdyż z jednej strony chciałoby się to uprościć, ale z drugiej strony trzeba myśleć o niezawodności oraz trwałości samej wystawy. Dodatkowym aspektem była informacja o tym, że wystawa ta być może będzie jechała gdzieś w świat, więc zostałem także poproszony o przygotowanie specyfikacji technicznej części dźwiękowej.
Wracając do samego projektu, to oczywiście musiałem dostosować projekt nagłośnienia do projektu wystawy, gdyż ten już posiadał wyraźny zarys. Znaliśmy założenia dotyczące ekranów oraz ekspozytora, mieliśmy informację dotyczącą wielkości powierzchni, jaką zająć ma wystawa. Parametry te, jak również wizja lokalna w przestrzeniach Stadionu Narodowego, pozwoliła mi podejść do samego projektu. Największym wyzwaniem były ograniczenia dotyczące wysokości pomieszczeń na samym Stadionie. Przygotowałem sobie wówczas trzy wersje projektu systemu nagłośnieniowego, gdyż, jak wspomniałem, na tym etapie nie wiedziałem jeszcze, jaka technologia immersyjna zostanie wykorzystana. Tak jak wspominał Bartek, prace trwały równolegle w kilku departamentach, co spowodowało, że chciałem zachować możliwie największą elastyczność na wypadek, gdyby trzeba było coś na końcu dorabiać. Czas uciekał jednak nieubłaganie i jak to w życiu, trzeba było w końcu podjąć jakąś decyzję i skonkretyzować działania.
Czy brałeś pod uwagę zastosowanie rozwiązania immersyjnego innego producenta niż L-Acoustics?
KP: Powstały trzy projekty, oparte na rozwiązaniach trzech różnych producentów technologii immersyjnych, jednak z uwagi na wspomnianą elastyczność, dostępność powtarzalnego sprzętu także na świecie oraz finalnie skalowalność, końcowy projekt oparłem na L-Acoustics. Wcześniej stworzony projekt w Soundvision (program do projektowania) z modułem do oceny parametrów dźwięku przestrzennego pozwolił mi na dokonanie oceny immersyjności dźwięku na powierzchni wystawy. Ponieważ projekt nie był tworzony w oparciu o wytyczne dla technologii L-ISA, musiałem precyzyjnie ocenić, czy uzyskamy założony efekt. W samym programie dobrałem rodzaj oraz model głośników, biorąc pod uwagę ich propagację oraz skuteczność. Na tej podstawie powstał bardziej precyzyjny projekt. I właśnie z uwagi na jego nietypowość oraz na to, co już wiedziałem od Bartka, zdecydowałem się na zbudowanie rodzaju makiety systemu w skali 1:1, gdzie będę mógł sprawdzić, czy założenia artystyczne Bartka mogą zostać spełnione. Równolegle do moich prac postanowiłem wyeksportować projekt z Soundvision do aplikacji L-ISA Controller, aby Bartek już mógł zacząć sprawdzać w domu na słuchawkach, czy mój projekt działa zgodnie z jego wizją artystyczną.
Jak wyglądała ostateczna konfiguracja systemu L-Acoustics? Z jakich modeli zestawów głośnikowych skorzystaliście? Czy Twoim zdaniem dla potrzeb tej wystawy zastosowane zestawy mogłyby być zastąpione mniejszymi?
KP: Na wystawie pracowały 22 kolumny głośnikowe X8, 16 kolumn 5XT oraz 3 subbasy SB18. Wybór konkretnych modeli podyktowany był doborem dyspersji oraz wielkością. Głośniki nie mogły być zbyt duże z uwagi na możliwości instalacyjne. Modele 5XT odpowiadały za obniżenie obrazu dźwiękowego w sytuacjach, gdy było to potrzebne, natomiast kolumny basowe pełnią rolę efektowych i ustawione zostały za ekranami. Czy można było zastąpić je mniejszymi? Subbasy pewnie tak, natomiast pozostałe głośniki spełniły swoją funkcję. Dodatkowo projektując, musiałem bazować na produktach dostępnych na rynku w rentalu.
Jakie wzmacniacze zasilały cały system? W jaki sposób transmitowane były sygnały audio tworzące warstwę dźwiękową wystawy?
KP: Zastosowaliśmy wzmacniacze LA12X oraz LA4X, w tym przypadku potrzebowaliśmy wzmacniaczy, które mają największą możliwie liczbę wejść. Mieliśmy dodatkowo dwa wzmacniacze LA8 na nieprzewidziane sytuacje.
Całość kontentu audio odtwarzana była z dwóch komputerów Mac Mini (główny oraz zapasowy) z oprogramowaniem QLab 5. Oprogramowanie sterowane było za pomocą MTC (MIDI Timecode) oraz OSC. Sam timecode otrzymywaliśmy z mediaserwera w postaci LTC, który był zamieniany na MTC za pomocą Rosendahl MIF4. Sygnały z komputerów Mac Mini trafiały do konsolety DiGiCo SD12 po Dante, a do procesorów L-ISA wysyłane były po MADI. Procesory pracowały w trybie insertu konsolety, co zapewniło nam szybki i łatwy dostęp do ewentualnych korekt barwowych, gdy były potrzebne, mogliśmy także w prosty sposób używać mikrofonów bezprzewodowych, z których korzystali przewodnicy wycieczek czy opiekun wystawy.
Bartku, jak wyglądało przekazanie idei całego projektu klientowi?
BK: Mieliśmy spotkanie, na które zabrałem swojego laptopa oraz słuchawki i na miejscu, w biurze, zrobiliśmy klientowi prezentację przez L-ISA Studio. Dało mu to namiastkę tego, jak docelowo będzie brzmiała immersja – zamiast opowiadać o dźwięku, mogliśmy go po prostu zaprezentować. Tego nie moglibyśmy zrobić bez L-ISA Studio. Jestem zdecydowanie zadowolony z pracy w tym narzędziu. Co nie zmienia faktu, że kluczowa była praca w studio, na głośnikach.
Opowiedz zatem, jak przebiegała praca w studio Target Sound.
BK: Kiedy rozpoczynałem pracę z oprogramowaniem L-ISA Studio, trochę czasu zajęło mi przestawienie się na tryb słyszenia przestrzennego. Jako realizator dźwięku, przyzwyczajony do pracy na systemach L+R, słyszałem zmiany w L-ISIe bardziej analitycznie niż widz, który odbiera je po prostu jako zmianę lokalizacji dźwięku. Ale już na systemie w Targecie okazało się to być dużo wyrazistszym doświadczeniem i efekt przestrzeni był znacznie bardziej realistyczny niż na słuchawkach. Ale w sumie niczego innego się też nie spodziewałem, bo koniec końców L-ISA Studio to tylko wirtualizacja doznania, którego w pełni doświadczyć można dopiero na systemach głośnikowych.
Jak sprawdza się dźwięk immersyjny L-ISA w kontekście wystawy?
BK: Widzę duży potencjał do tego, by wykorzystywać L-ISA w takich miejscach. Czasy się zmieniają i ludzie nie chcą już oglądać eksponatów w gablotce – chcą doświadczać. Żyjemy w czasach, w których potrzebujemy silnych bodźców, taka jest nasza kultura. I tak samo jest z muzeami i takimi instalacjami jak nasza, one muszą podążać za zmianami społecznymi. Dźwięk immersyjny pozwala doświadczać mocniej niż standardowe nagłośnienie lewa-prawa, czy nawet 5.1. Tutaj są konkretne ruchy, dźwięki nas otaczają i mają bardzo konkretną lokalizację, a to działa na zmysły. Myślę, że jest to właściwa droga dla muzeów, które chcą przyciągać ludzi młodszych. Widzę duży potencjał dla rozwijania immersji w takich miejscach. Nawet powiedziałbym, że większy niż dla muzyki na żywo. Bo jeśli publiczność ogląda artystę na scenie, to nadal ten artysta jest przed nami. Możemy przygotowywać jakieś efekty, które będą dookólne, czy dopracowywać głębię, ale jednak trzon całej działalności dzieje się przed nami i tam chcemy „widzieć” dźwięk, zgodnie z naturalną potrzebą powiązania dźwięku ze źródłem. W muzeum czy na wystawie możemy sobie pozwolić na więcej, nie ma tu limitu. Jeżeli przy budowaniu kontentu do takiej wystawy ktoś od razu zakłada dźwięk immersyjny, to może w procesie kreacji stworzyć treści, które z założenia będą bogatsze lokalizacyjnie. Elastyczność i ilość opcji budowania narracji się powiększa, dlatego moim zdaniem wystawa to bardzo naturalne miejsce dla immersji.
Czy korzystaliście z automatyki?
KP: O tak, tutaj temat był rozbudowany. Stosowaliśmy Timecode, OSC oraz Snapshoty. Przygotowaliśmy sobie rodzaj template z kanałami umieszczonymi na stałe w przestrzeni, do których wrzucaliśmy elementy stałe jak muzyka czy ambient, natomiast pozostałe efekty dźwiękowe traktowaliśmy indywidualnie jako obiekty i te podlegały pełnej automatyce. Bardzo przydatny okazał się nowy moduł efektów w L-ISA Controller, dzięki któremu w prosty sposób mogłem zaprogramować automatykę dynamicznego miksu.
Bartku, opowiedz proszę o wizualnym aspekcie wystawy Szlaki Nadziei.
BK: Założenie było takie, że obraz będzie niemal dookólny. Jest jedna duża dioda półkolista z przodu i dwie mniejsze z tyłu. Przez to, że ekrany są ugięte, mamy poczucie, że jesteśmy otaczani przez obraz. Na środku wystawy znajduje się kula, która dzięki mappingowi zamienia się w ruchomą kulę ziemską, na powierzchni której pojawiają się animacje – m.in. tytułowe Szlaki Nadziei. Całość sterowana jest z ekranu dotykowego, z poziomu którego widz może wybierać nie tylko filmy, ale także oglądać przedmioty z epoki oraz wybierać postaci, które odegrały istotną rolę historyczną, opowiadające o sobie w krótkich animacjach.
Istotnym ograniczeniem w przypadku Stadionu jest to, że pomieszczenie jest niskie i do wysokości 2,5 m musieliśmy zmieścić kratownicę, trzy ekrany, niezliczoną ilość głośników czy projektory do mappingu. Klient planuje kontynuację wystawy, być może będzie ona pokazywana w innych miejscach w Polsce, a także za granicą – liczymy wtedy na nieco wyższe pomieszczenia, dzięki czemu wystawa dostanie też trochę więcej „oddechu”.
Krzysztof, a Twoim zdaniem jakie możliwości daje zastosowanie systemu L-Acoustics L-ISA w przestrzeni muzeum? Czy w systemie immersyjnym francuskiego producenta kolumny muszą reprodukować faktyczną scenę znajdującą się przed oczami widza czy można również podejść do tematu bardziej kreatywnie? Wielowymiarowo?
KP: Wszystko zależy od tego, co chcemy osiągnąć. Technologia L-ISA z założenia skupia się na reprodukcji dźwięku ze sceny, ale nikt nie mówi, że nie można wykorzystać również tego bardziej kreatywnie. W naszym przypadku nie ma czegoś takiego jak scena, ponieważ my robimy wystawę i dźwięki korelujemy z obrazem w przestrzeni 360 stopni. Oczywiście projekt musiał powstać, aby zachować zależności korelacji oraz processing, który L-ISA stosuje podczas miksowania dynamicznego przy wykorzystaniu wbudowanych efektów.
Oprogramowanie L-ISA Controller jest szybkie i łatwe w obsłudze. Z uwagi na fakt, że prace w poszczególnych działach trwały równolegle, musieliśmy być gotowi na zmiany w dowolnym momencie. Nawet już w trakcie instalacji otrzymaliśmy listę korekt i próśb od klienta i w łatwy oraz szybki sposób mogliśmy je wprowadzić oraz zaprogramować. Myślę, że wszystko zależy od potrzeb klienta, ale jeżeli mówimy o szybkiej reakcji na jego potrzeby, to L-ISA jest do tego dobrym rozwiązaniem. W przeszłości stosowałem także inne technologie immersyjne na potrzeb różnych wystaw. Możliwości systemów Fletcher Machine, L-ISA, Soundscape, SpaceMap, SpaceMapGO czy TiMax są podobne w tym zakresie. Każdy z nich ma swoje zalety, ograniczenia i możliwości, w tym przypadku kluczowa była szybkość reakcji oraz możliwa minimalizacja ograniczeń.
Rozmawiał: Łukasz Kornafel, „AVIntegracje”
zdjęcia: Audio Plus