Lata mijają, a wciąż najdroższym filmem w polskiej historii jest „Quo Vadis”, który łącznie kosztował ponad 76 milionów złotych. Nie tylko ze względu na to, że cała ekipa wraz z aktorami musiała przenieść się nad Morze Śródziemne, ale przede wszystkim za sprawą ogromnej scenografii, którą w ramach inscenizacji pożaru Rzymu trzeba było… spalić! Chociaż cała operacja była misternie zaplanowana i tak konieczna była interwencja strażaków, ponieważ pożar wymknął się spod kontroli, a końcowy efekt pozostawia wiele do życzenia i wprawne oko z łatwością jest w stanie wypatrzyć wiele wpadek.
To jednak drobnostka przy kosztach, stopniu rozbudowania scenografii i stopniu skomplikowania wielu światowych produkcji. Wystarczy przywołać chociażby: „Titanica”, „Gwiezdne Wojny”, słynny pościg w „Matrix: Reaktywacja”, wioskę Hobbitów we „Władcy Pierścieni” czy spektakularną, największą w historii prawdziwą eksplozję która znalazła się w filmie o przygodach Jamesa Bonda „SPECTRE”.
Dzisiaj jednak rozbudowanego zaplecza na planie wymagają już nie tylko obrazy kinowe, ale także produkcje tworzone na platformy streamingowe, reklamy, teledyski czy produkcje live.
Z pomocą w przyspieszeniu, uproszczeniu i przede wszystkim ekonomizacji całego procesu tworzenia materiałów wideo przychodzi produkcja wirtualna.
10 kwietnia odwiedziliśmy jedno z największych i najnowocześniejszych studiów wirtualnych w naszym kraju Warsaw Virtual Studios.
Co to za przestrzeń i jakie daje możliwości? Jakie narzędzia są tam wykorzystywane? Co można w niej zrealizować? Co to są technologie 2.5D i 2.75D? I jaką rolę w tym wszystkim odgrywa sztuczna inteligencja i tworzony w komputerach content? Zapraszamy do naszej relacji!
W ramach wydarzenia, zaplanowanego na dziesiąty dzień kwietnia, odbyły się aż trzy sesje prezentacyjne. Taka organizacja imprezy pozwoliła nie tylko na zapoznanie się ze wszystkimi tematami i rozwiązaniami w mniejszych, bardziej komfortowych grupach, ale także ułatwiła zadawanie pytań, networking i prowadzenie kuluarowych rozmów. My mieliśmy przyjemność wziąć udział w środkowym spotkaniu. Kilka minut po godzinie 13:00 jako pierwszy na scenę wkroczył Adam Pietrzykowski z firmy Wizja Multimedia. Następnie dołączył do niego wizualny producent kreatywny Paweł „Spider” Pająk, który opowiedział gościom wydarzenia nieco szerzej o samej koncepcji i możliwościach studia. To wspólny projekt firm: Heliograf, która jest jednym z największych na polskim rynku dostawców rozwiązań technicznych na plany filmowe takich jak oświetlenie czy sprzęt kamerowy, a także zespołem najlepszych w Polsce gafferów pracujących przy największych produkcjach, a także firmy Wizja Multimedia, która od ponad 25 lat dostarcza rozwiązania multimedialne dla potrzeb wielu różnych produkcji telewizyjnych i eventowych, mogąc pochwalić się 80% udziałem we wszystkich wydarzeniach odbywających się na naszym rynku, realizując każdego roku ponad 900 projektów! Warsaw Virtual Studios to przestrzeń o powierzchni 750 metrów kwadratowych (25 x 30 m) i wysokości 12,5 m, co zapewnia szerokie możliwości aranżacji i pozwala na umieszczenie nawet dużych, rzeczywistych obiektów takich jak samochody, maszyny budowlane, łodzie, a nawet nie wielkie samoloty i sprawia, że jest to jedno z największych tego rodzaju studio w Polsce. W skład kompleksu wchodzi główna przestrzeń studia, dwie reżyserki: jedna z procesorami odpowiedzialnymi za zarządzanie ekranami LED i druga z maszynami na których może powstawać content generatywny w oparciu o silnik Unreal. Do dyspozycji pracujących ekip jest tutaj również całe zaplecze filmowe o powierzchni ponad 350 metrów na które składają się: garderoby, charakteryzatornie, pomieszczenie w którym w komfortowych warunkach może pracować produkcja, a także kuchnia dla ekipy i zaplecze sanitarne.
W centralnym punkcie studia został zainstalowany ogromny ekran LED o rozdzielczości P2.6, z obsługą szerokiego zakresu dynamiki HDR i 10-bitowym przetwarzaniem koloru.
Ekran znajdujący się w hali może mieć powierzchnię do 180 metrów kwadratowych, jednak gdy nadejdzie taka potrzeba może zostać rozbudowany dla potrzeb konkretnej produkcji, co zapewnia olbrzymi park sprzętowy firmy Wizja Multimedia. Jednak już ta główna konfiguracja zapewnia odpowiednie krycie, nawet w sytuacji w której kamera nie jest ustawiona na środku, prostopadle do ekranu, ale jest odchylona od osi.
W odróżnieniu od wielu studiów wirtualnej produkcji, Warsaw Virtual oferuje swoim klientom również technologię xR, czyli Extended Reality. Wdrożony tutaj ekran LED nie składa się z dwóch ścian połączonych pod kątem prostym, ale tworzy jednolitą, zakrzywioną powierzchnię w układzie panoramicznym, co ułatwia umieszczenie przed nim rzeczywistej scenografii, obiektów i pracę z aktorami. W takiej konfiguracji sama dioda pozwala na rozszerzenie planu, dodanie mu dodatkowych wymiarów i przeniesienie całego setu zdjęciowego w zupełnie inne miejsce, czas i przestrzeń.
Ale to nie wszystko! Do dyspozycji ekip pracujących w studiu są jeszcze: matowa podłoga LED o rozdzielczości P4.7 o powierzchni 50 m2, sufit LED przydatny w sytuacjach, gdy potrzebne jest krycie dla kamery patrzącej w górę, a także ruchome platformy z ekranami LED w mniejszych konfiguracjach, które pozwalają na stworzenie przestrzennej scenografii LED czy np. wygenerowanie odbić na samochodach ustawionych przed ekranem, symulujących światła ulicy czy reflektory mijających pojazdów. Do zbudowania tych elementów zostały wykorzystane panele o rozdzielczościach P2.6/P3.9 i P5.9. Za wyświetlanie przygotowanych wcześniej materiałów, wykorzystanych w trakcie zdjęć, ale także tworzenie contentu na żywo odpowiedzialny jest zestaw potężnych media serwerów Disguise GX, VX oraz RX, które pozwalają na pracę zarówno w środowisku Notch, jak i Unreal Engine.
Studio jest wyposażone zarówno w kamery pełnoklatkowe jak i kamery Super 35 takich flagowych producentów jak ARRI, Sony czy RED z szerokim wyborem optyk, kamery brodcastowe wraz z torami od Sony, system zarządzania obrazem Barco, rozbudowany park oświetleniowy z rozwiązaniami od: ARRI, DEDOLIGHT, MOLE-RICHARDSON, NANLUX, LIGHTSTAR, FILMGEAR, a także szerokim wyborem opraw inteligentnych umożliwiających szybkie i efektywne wytworzenie odpowiedniej atmosfery oraz uzupełnienie wyświetlanych treści również o przestrzenne efekty świetlne (jak snopy światła, promienie słoneczne czy światło przebijające się przez okna). Warto dodać również, że zarówno oświetleniem jak i multimediami zarządzają konsolety MA Lighting grandMA3. Dzięki temu operator w trakcie zdjęć, siedząc w reżyserce, może przy pomocy tylko jednego przycisku przełączyć scenę w media serwerze odtwarzającym treści, zmienić porę dnia, porę roku, a nawet włączyć odpowiednie efekty w lampach, tak aby całość dawała możliwie najbardziej sugestywny efekt.
Kluczowym narzędziem w studiach wirtualnych jest również system śledzenia pozycji kamery w trakcie realizowanych na planie zdjęć. Bieżące monitorowanie jej ustawienia i relacji względem ekranu LED i wyświetlanych na nich treści ma kluczowe znaczenie dla powodzenia całej produkcji w wirtualnym studiu i efektu końcowego. W warszawskim kompleksie to zadanie jest realizowane przy pomocy optycznego systemu Stype RedSpy. Aby mógł on pracować, na suficie zostały umieszczone specjalne retrorefleksyjne markery, które odbijają światło dokładnie z tego kierunku, z którego ono pada. Dzięki temu, pracując z oświetleniem studyjnym, ani widz, ani kamera nie widzą tych punktów na suficie, ponieważ światło odbija się pod dokładnie takim samym kątem z którego pada. Kamera systemu śledzenia emituje niewidoczne dla oka ludzkiego światło podczerwieni. Gdy odbija się ono od punktu umieszczonego na suficie, wraca do kamery i na tej podstawie z milimetrową dokładnością określana jest pozycja. Co więcej, system pozwala także na śledzenie ustawionej w kamerze ostrości czy zoomu.
Jedna przestrzeń, wiele różnych technik
Jak mogliśmy się przekonać w trakcie spotkania, na rynku spopularyzowały się trzy różne techniki i podejścia do pracy w wirtualnym studiu. Pierwszą z nich jest wyświetlenie statycznych zdjęć czy grafik (również tych wytworzonych przez AI) na ekranie znajdującym się za aktorem czy obiektem i rozszerzenie całego setu w taki właśnie sposób. Drugim sposobem jest sięgnięcie po tzw. plate’y, czyli materiały wideo zrealizowane w rzeczywistych miejscach, do których ma przenieść się nagrywana później w wirtualnym studiu akcja. Mogą to być krajobrazy, wnętrza czy przejazdy uliczne, wykorzystywane później do kręcenia pościgów. Niewątpliwą zaletą takiego rozwiązania jest to, że wystarczy takie zdjęcia zrealizować tylko raz i później już przed ekranem mamy możliwość wielokrotnych dubli bez konieczności zamykania ulic, wielodniowego wynajmowania przestrzeni czy konieczności kosztownej budowy miasteczka filmowego np. w ruinach zamku, na pustyniach, polanach czy w górach. Po stronie ograniczeń tego narzędzia, można z całą pewnością wskazać to, że nie jesteśmy w stanie wpływać na elementy zarejestrowanego materiału i albo musi być on poprawnie nakręcony specjalnie dla potrzeb produkcji, albo kupując go w bazie, należy go sprawdzić i dopasować do elementów scenograficznych. Specyfika pracy z plate’ami nie pozwala na odchylenie pozycji kamer względem nakręconego materiału, ponieważ duże odchylenie od przyjętych założeń spowoduje, że efekt paralaksy, który jest podstawą całego zabiegu, zniknie.
Trzecim sposobem są scenografie tworzone z wykorzystaniem procesora i kart graficznych, a więc na pokładzie komputera. Tutaj mowa przede wszystkim o środowiskach Unreal (znanym przede wszystkim z gier komputerowych) czy Notch w którym produkowany jest content chociażby dla potrzeb wirtualnych studiów telewizyjnych czy koncertów.
Jednak posługiwanie się zarejestrowanym wcześniej materiałem (plate’ami) w cale nie musi przynieść najlepszych efektów, nie musi być najłatwiejsze oraz najszybsze, a zaangażowanie silników Unreal czy Notch i stworzenie całej scenografii w komputerze na etapie preprodukcji, niekoniecznie będzie wiązało się z wysokimi kosztami.
Jak mówi Krzysztof Grabowski, jeden z inżynierów pracujących na co dzień w Warsaw Virtual Studios: „Wyobraźmy sobie sytuację, w której będziemy chcieli nagrać np. pościg na ulicach Warszawy. W tym przypadku stworzenie środowiska Unreal będzie bardzo nieefektywne, ponieważ będziemy musieli odwzorować całe otoczenie, stworzyć modele wszystkich budynków itd. Nakręcenie materiału, który będziemy mogli wykorzystać w trakcie zdjęć w studiu będzie dużo szybsze. Jeżeli natomiast mamy scenę, w której chcielibyśmy uzyskać np. efekt otwartej przestrzeni, łąki, gór, jeziora, stworzenie takiego materiału będzie łatwe i szybkie. Nawet przy niskim nakładzie pracy będziemy mogli stworzyć zadawalający efekt”.
Tutaj najważniejsze jest dobranie odpowiednich, optymalnych środków dla potrzeb wymagań danej produkcji.
Wciąż stosunkowo nowym rozwiązaniem na rynku produkcji wirtualnych są tzw. technologie 2.5D, i jego ewolucja 2.75D. Jakie te technologie przynoszą możliwości? Można to łatwo zobrazować na konkretnym przykładzie. Gdy spojrzymy na obraz (wygenerowany przez sztuczną inteligencję albo zdjęcie rzeczywistego miejsca) zazwyczaj zobaczymy, że można na nim wyróżnić wiele różnych planów. Na przykład na pierwszym zobaczymy kamienie, nieco dalej trawa, jeszcze dalej jezioro czy strumyk, a na horyzoncie, w oddali będą widoczne góry.
Korzystając z technologii 2.5D i 2.75D oraz prezentowanego w trakcie kwietniowego spotkania oprogramowania cuebric jesteśmy w stanie „rozbić” takie statyczne zdjęcie na kilka płaszczyzn, a następnie wyświetlając je na ekranie znajdującym się w studiu i śledząc pozycję kamery, wykorzystać efekt paralaksy do wiarygodnego zarejestrowania wirtualnego otoczenia aktorów czy znajdujących się przed diodą obiektów. Główną różnicą między 2.5D oraz 2.75D jest to, że pierwsza z technologii pozwala na używanie płaskich obrazów, a 2.75D wprowadza możliwość pracy z wielowymiarowymi obiektami, dzięki temu możemy nieco bardziej „grać” takim wirtualnym otoczeniem.
Co więcej, możemy również animować poszczególne płaszczyzny, a także wplatać pomiędzy płaszczyzny czy na warstwy elementy wideo.
Jak przekonywał w trakcie eventu przedstawiciel firmy cuebric, narzędzie pozwala dziesięciokrotnie zmniejszyć czas potrzebny od fazy koncepcyjnej do pracy przed kamerą i znacząco obniżyć całościowe koszty. Ogromne znaczenie ma również to, że takie stworzone w oprogramowani warstwy po przeniesieniu do media serwerów Disguise, na których pracuje Warsaw Virtual Studios, mają już odpowiednie głębokości i mogą być szybko wyświetlone w odpowiedni sposób, umożliwiający dalszą pracę z nimi i wprowadzanie modyfikacji, które dadzą konfigurację zapewniającą optymalne efekty w oku kamery.
„Jadzia” jedzie na wakacje
Podczas spotkania głównym punktem był pokaz przygotowany przez zespół studia – scena zrealizowana na żywo w humorystyczny sposób, w której omówione zostały praktyczne aspekty kreatywnej wirtualnej scenografii, korelacja elementów scenograficznych oraz technologii.
W przygotowanej scenie „Jadzia”, grana przez bardzo ekspresyjną, o olbrzymim temperamencie i zdolnościach aktorkę Jadwigę Gryn, marzy o wyjściu z biura i wyjeździe na wakacje.
Siedząc na widowni, mogliśmy zobaczyć, jak przełączane wraz z oświetleniem scenografie wirtualne 3D oraz zmieniane przez ekipę elementy rzeczywistej scenografii przenoszą „Jadzię” w tak bardzo różne lokalizacje od gór, przez tropikalne morze, sklep, aż po biuro. Efekt finalny można było zobaczyć na znajdujących się po dwóch stronach monitorach podglądowych. Mogliśmy zobaczyć jak to, co dzieje się na planie będzie widoczne w oku kamery i trzeba przyznać, że efekt jest spektakularny. Patrząc na monitor, można było odnieść wrażenie, że jest tam wyświetlany obraz już po kompleksowej postprodukcji, rejestracji montażu, korekcji barwnej, a w istocie była to po prostu transmisja obrazu live tego, co widzieliśmy na żywo, na scenie, tylko przetworzonego przez obiektyw, kamerę i cały tor wizyjny. A trzeba tutaj jeszcze nadmienić, że w pokaz byli zaangażowani zawodowy operator i ostrzyciel oraz topowy sprzęt: kamera ARRI ALEXA MINI LF z obiektywami ZEISS SUPREME PRIME, oczywiście uzbrojone w system śledzenia Stype RedSpy.
Kreatywna przestrzeń, która potrafi wiele
Już w trakcie tegorocznych targów ISE w Barcelonie można było zauważyć, jak popularna staje się produkcja wirtualna. Bardzo wielu producentów prezentowało w pigułce i pewnym zarysie, jakie możliwości daje zastosowanie ekranu LED na planie zdjęciowym i jego integracja z oświetleniem i kamerami.
W trakcie dnia otwartego w Warsaw Virtual Studios mogliśmy zobaczyć wszystkie najbardziej topowe technologie i to, jak już dzisiaj pracuje się na planach zdjęciowych na całym świecie. Tutaj można wyprodukować kompletny materiał: reklamę dowolnego produktu, sceny przejazdów samochodowych, sceny z efektami specjalnymi i inne sceny na potrzeby reklamy, filmu lub serialu.
W odróżnieniu od pracy na green screenie tutaj proces postprodukcji jest przenoszony do etapu preprodukcji, a co jest niewątpliwą zaletą, efekt pracy możemy zobaczyć na żywo i, tym samym, na bieżąco modyfikować pomysły.
Warsaw Virtual Studios jest wyposażony w najlepsze i najnowsze rozwiązania techniczne, jednak prawdziwą siłą kompleksu jest niezwykle doświadczona ekipa, kreatywni twórcy, zespół inżynieryjny, gafferzy, specjaliści od Unreal Engine i Notch. Warszawski kompleks to prawdziwy One Stop Shop i fantastyczna, niezwykle kreatywna przestrzeń, która naprawdę pozwala na produkcję bez ograniczeń!
Tekst i zdjęcia: „AVIntegracje”