A algunos aún se nos proyecta mentalmente esa serie basada en una galaxia muy, muy lejana pero al mismo tiempo con aire de western que Disney+ estrenó como uno de sus buques insignia: 'The Mandalorian'. No es algo extraño dados los escenarios que se nos mostraban en las planetarias andanzas de este peculiar caza-recompensas y de su más particular compañero, y es que aún nos está sorprendiendo la tecnología que se usó para generar los escenarios
Por el momento sabíamos que habían innovado gracias a Stagecraft, una técnica que aunque con fundamentos de hace décadas se perfeccionó para dar el resultado que muchos habréis visto, haciéndonos casi sentir el calor del desierto cuando en realidad se trataba de un estudio (grande, pero no tanto). Las posibilidades de la misma son muchas para directores de fotografía, realizadores y otros miembros de una producción, y lo que ahora sabemos es que Epic Games, la empresa desarrolladora de 'Fortnite', tiene un pedacito de pastel más grande de lo que creíamos de toda esta magia.
El adiós al croma
Stagecraft es un sistema de proyección 3D a tiempo real que va más allá de lo que permite un croma. Consiste en la proyección de un entorno en 3D alrededor de los actores, el cual cambia a tiempo real para adaptarse a la perspectiva de la cámara, de modo que cuando la cámara se mueve, el fondo lo hace también de su mano.
El efecto está muy conseguido y logra transmitir la sensación de que se está rodando en un bosque, un glaciar o cualquier otro escenario cuando no es así. De hecho, la técnica logra también con bastante acierto escenarios de interiores muy oscuros como esa especie de despacho en el que se encuentra con "El cliente".
'The Mandalorian' no ha sido el primer contenido que ha estrenado Stagecraft, sino que fue ya utilizado en la película 'Solo', por lo que llevan más de cinco años desarrollándola. Aunque cierto es que, como apuntan en Quartz, en la serie de Disney+ es donde se ha usado en mucho mayor grado.
De hecho, el fundamento de Stagecraft viene de la retroproyección, una técnica empezada a usar con más asiduidad en los años 30 en la que se creaba el efecto visual de los actores en distintos escenarios gracias a situarlos entre la cámara y una pantalla sobre la cual se reproducía una imagen fija o en movimiento (filmada previamente). Se usó en películas como 'Pulp Fiction', 'Aliens: El regreso' o 'Terminator 2: El juicio final', y fue evolucionando progresivamente hacia técnicas más sofisticadas como la que hemos visto en este caso.
Una de videojuegos para lograr mayor realismo
Los entresijos de esta técnica ya los desgranamos, pero no viene mal recordarlos un poco antes de hablar del papel del Unreal. El espacio físico en el que se rueda ("El Volumen") está compuesto por un suelo físico real (y a consonancia con lo que se vaya a emular) y tres grandes paneles LED con resolución 4K ("Render Nodes") a la izquierda, derecha y sobre el suelo (éste último a modo de cielo).
La principal evolución con respecto a la retroproyección es que en este caso se carga un escenario CGI 3D, y dado que los paneles están conectados a la cámara, si ésta gira el escenario reaccionará en consecuencia de dicho movimiento. Dichos escenarios 3D fueron generados con el motor gráfico Unreal Engine 4, haciendo público que más del 50% de los efectos visuales nacen gracias a la tecnología del conocido motor en un precioso vídeo de detrás de las cámaras.
De hecho, hace unos meses fue la gente de Epic Games la que mostraba el potencial de su motor en el mundo cinematográfico aprovechando la SIGGRAPH 2019, un gran evento organizado por la ACM (Association for Computing Machinery). Lo que enseñaron fue Project Spotlight, que permite a los directores tener sets realistas completamente iluminados que pueden ser modificados en tiempo real.
Los que se encargaron de componer el universo en el que transcurre 'The Mandalorian' son Industrial Light & Magic (ILM), la subisidiaria de Lucasfilm que George Lucas fundó en 1975 para crear los efectos especiales de 'Star Wars' y el resto de películas. Este equipo recurrió a Unreal Engine para crear todos esos paisajes y decorados que vemos en la serie, logrando mucho más realismo y con una de las ventajas añadidas del Stagecraft: que los actores puedan sumergirse mucho mejor en ese entorno imaginario que frente a una pared verde.
Explican en Polygon que los entornos se editaban a tiempo real y que permitían al elenco interactuar mucho mejor con ellos. Una técnica que además supone un ahorro de tiempo, esfuerzos y dinero al no tener que llevar a todo el equipo durante meses a una localización (quizás alejada, cara y adversa) para rodar y poder hacerlo en múltiples "localizaciones" en un sólo día.
"Éste es el camino" para la industria (según Lucasfilm)
Como hemos dicho, se trata de una especie de combo mágico. La simbiosis entre Stagecraft y Unreal Engine 4 da unos resultados muchos más realistas, permitiendo que el trabajo del equipo de iluminación se evite los quebraderos de cabeza que implica pasar de unos exteriores a otros y pudiendo jugar con la iluminación para crear fotogramas que, como decíamos en el inicio, nos es imposible olvidar de momento.
De ahí que suponga un salto cualitativo y tecnológico a usar un croma, que obliga a que haya una imagen estática. No en vano, desde Lucasfilm sacan pecho y creen que esta técnica revolucionará la manera en la que se planean y ejecutan tomas complejas en el cine, según declaraba la presidenta de la compañía Kathleen Kennedy (y que incluían en Quartz).
Está claro que nada podrá remplazar en cuanto a realismo a un escenario real (y si no que se lo digan al personal de 'Juego de Tronos' y de otras producciones que han lidiado con climas extremos y ubicaciones poco habitables), pero desde luego este combo da mucho juego y dice mucho del potencial de los motores de terceros.
Imágenes | Slashfilm
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario