Abbiamo visto tutti quali meraviglie ci aspettano con l’Unreal Engine 5. Istantanei cambi di illuminazione globale, importazione massiva di asset dall’altissima conta poligonale, tempi di caricamento praticamente inesistenti (SSD permettendo). Siamo rimasti completamente abbagliati dalla tech demo mostrata da Epic Games, ma essa non ha emozionato solamente noi videogiocatori. Da tempo ormai, anche Hollywood guarda con interesse alle evoluzioni dei game engine. Molti sono i registi che utilizzano le tecnologie realtime per produrre i propri blockbuster e quanto visto con Lumen in the Land of Nanite apre le porte ad una connessione tra cinema e videogiochi ancora più profonda.

È quanto affermato dal CTO di Epic Games Kim Libreri ad un intervista per GameSpot’s, assieme al più noto CEO Tim Sweeny. Per Kim, la possibilità di importare asset di qualità al pari di quella dei film, permetterà di creare un continuum tra i due mondi, una nuova forma di intrattenimento. Ma prima di addentrarci nei meandri di questa rivoluzionaria affermazione, capiamo come vengono utilizzati ora i game engine per produrre i film a Hollywood.

Lo zio Steven la sapeva già lunga

Uno dei primi pionieri nell’utilizzo della tecnologia realtime per la produzione di film fu, neanche a dirlo, Steven Spielberg. Durante la produzione del visionario A.I., 20 anni fa, il regista americano si ritrovò a dover dirigere una camera all’interno di Rogue City, una città talmente grande da risultare impossibile da ricostruire all’interno di un set. La compagnia che all’epoca si occupò degli effetti speciali, Industrial Light & Magic, decise di creare un sistema di tracciamento della videocamera reale, in modo da poterla visualizzare in tempo reale anche all’interno della città ricostruita in 3D. Spielberg riuscì così a guidare la camera correttamente attraverso Rogue City, nonostante fosse davanti ad un anonimo blue screen.

Render Offline
A differenza del render realtime dei videogiochi, il render offline crea un file diverso per ogni frame del girato, impiegando diverso tempo (che può raggiungere anche diverse ore) per creare un’immagine più verosimile possibile. I vari frame così prodotti (solitamente in costose render farm), verranno poi montati in sequenza per ricreare così l’intero filmato.

Quella che Spielberg utilizzò fu una delle prime forme di previs (previsualizzazione), ora parte fondamentale del processo di sviluppo di un film. Essa infatti permette al regista di visualizzare una scena ricca di CGI nell’istante stesso in cui viene girata, senza dover aspettare ore e ore di render offline. Ovviamente la qualità di quest’ultimo, allo stato attuale dell’arte, resta ancora maggiore di un elaborato realtime. I frame finali, infatti, sono al giorno d’oggi prodotti largamente in enormi render farm (cluster di computer ad alte prestazioni appositamente progettati per produrre effetti visivi). Ma poter avere un’idea generale della scena subito, con il girato e i VFX insieme, porta al regista numerosi vantaggi.

Primo fra tutti è il tempo. Come già anticipato, il regista non deve più aspettare ore e ore di render per farsi un’idea di come sarà la scena finale. Può correggere camera, illuminazione e qualsiasi altro aspetto subito, lasciando poi ai tecnici il compito di replicarli nel render offline. Liberato così dal giogo dell’attesa, il regista può concentrarsi maggiormente sulla storia, sui personaggi e sulla regia, vero fulcro di un’esperienza in sala. Infine, non dover ripetutamente attingere alle potenze di calcolo delle render farm, i costi generali della produzione si abbassano notevolmente.

Unreal Engine non solo su PS5

Con il passare degli anni però, l’utilizzo dei game engine da parte di Hollywood non si è fermato solamente alla previsualizzazione. Infatti, grazie ad un fervente mercato videoludico, i motori di gioco hanno conosciuto un’evoluzione senza precedenti, sia in ambito qualitativo che in quello tecnologico. Come avvenuto ad esempio con la motion capture. Grazie alla tecnologia realtime, il regista può ora osservare le performance degli attori che indossano la tuta, direttamente nella loro ambientazione finale. Il tutto ovviamente in tempo reale.

Ma le nuove tecnologie non si fermano assolutamente qui. Anche se non esplosa quanto si sperava, la Realtà Virtuale è riuscita nel tempo a trovare una sua utilità pratica in alcuni campi molto specifici. Uno di questi è appunto il cinema. Grazie ai visori VR, Jon Favreau ha potuto letteralmente entrare nelle ambientazioni di The Jungle Book e The Lion King, per modificare in tempo reale ogni aspetto che desiderava: come la camera, l’illuminazione e perfino lo stesso environment 3D. La Realtà Virtuale ha permesso al regista e ai suoi collaboratori di essere di nuovo presente sul set, cosa che prima non avveniva più per la produzioni completamente in computer grafica.

Grazie ai visori VR, Jon Favreau ha potuto letteralmente entrare nelle ambientazioni di The Jungle Book e The Lion King

Altra ingegnosa applicazione delle tecnologie videoludiche in ambito cinematografico, è stata quella di sostituire completamente il green screen, optando per dei più sobri proiettori laser 4K. Per girare la scena del salto nell’iperspazio in Solo: A Star Wars Story, ILM ha deciso di circondare la ricostruzione della cabina di pilotaggio del Falcon con enormi teli di proiezione, sui quali è stata proiettata l’iconica animazione. Ciò ha portato a ben due vantaggi. Il primo riguarda la performance attoriale. La reazione degli attori è stata molto più reale e marcata, rendendo così la scena molto più emozionante per lo spettatore. La seconda riguarda sempre il costo. Cinque proiettori 4K possono sembrare costosi, ma le render farm lo sono ancora di più. Niente green screen, niente render farm.

Infine arriviamo a quella che personalmente ritengo una delle più grandi conquiste dei motori di gioco. Nel film Rogue One: A Star Wars Story, il droide K-2SO è stato interamente renderizzato con un engine realtime. Dopo tutto quello che ho elencato, probabilmente penserete che questa cosa sia di poco conto, ma non lo è. La forza dei render offline è sempre stata quella di avere a disposizione un tempo indeterminato per l’elaborazione di un singolo frame. Gli algoritmi di calcolo dell’immagine definitiva, sono molto più pesanti di quelli utilizzati per i nostri amati videogiochi. Questo porta a dover aspettare anche ore per un singolo frame. I game engine invece, processano dai 30 ai 60 frame in un secondo. Capite bene che la qualità non può essere la stessa. Eppure l’evoluzione tecnologica di quest’ultimi, ha portato in questo caso a preferirli rispetto ad un motore offline.

Nel film Rogue One: A Star Wars Story, il droide K-2SO è stato interamente renderizzato con un engine realtime

La nuova frontiera dell’intrattenimento

I game engine de facto fanno già parte della pipeline di produzione di Hollywood. Sono ormai parte integrante del sistema e i film dalla forte componete CG non possono più farne a meno. Ma, nonostante la loro estrema flessibilità, il cuore pulsante resta comunque il render offline. Fino ad oggi. Si perché quanto visto con la tech demo dell’Unreal Engine 5 apre le porte ad un futuro tanto agognato quanto impensabile. La completa sostituzione del render offline. La possibilità di importare asset di qualità al pari di quella cinematografica, unita al decantato raytracing, porta i motori di gioco ad aspirare al primo posto nel podio del rendering.

E se ciò avverrà, prepariamoci ad una nuova frontiera dell’intrattenimento. Un’intrattenimento dove gli asset utilizzati per un film di Star Wars, saranno presenti anche in un videogioco ambientato nella medesima saga. Un intrattenimento che vedrà incursioni di game designer all’interno dei film e di registi all’interno dei videogiochi. Sempre più emozionale, immersivo e interattivo. E se avete paura che questa ibridazione possa portare alla perdita dei cardini portanti delle rispettive arti, non abbiatene.

Perché dall’unione tra la fotografia e il teatro è nato il cinema.

#LiveTheRebellion