La carrera de Antonio Ramos (Comp Supervisor en Twin Pines) es de esas de tener un desfibrilador a mano: X-Men: Apocalypse, Un Monstruo Viene A Verme, La Leyenda de Tarzán, Maléfica, Godzilla o X-Men: Días del futuro pasado (por citar sólo algunos títulos) cuentan con parte de su talento innato para el VFX. En Trazos también tuvimos la suerte de contar con él en la masterclass sobre Deep Compositing que impartió en la escuela, tras la que charlamos con Ramos para conocer un poco más en profundidad el estado del mundo de la postproducción actualmente, tanto en nuestro país como a nivel internacional.

Antes que nada, la pregunta de rigor: ¿cómo comenzaste a interesarte por el mundo de los efectos visuales? ¿Ya tenías claro que tu camino iba a ir por el CG o comenzó con aquellos efectos especiales todavía a pleno rendimiento en los 80?

Mi interés por el mundo de los efectos visuales empezó con “La Bola de Cristal”, creo que todos los que vimos aquel maravilloso programa quedamos fascinados con sus imágenes y, aunque era bastante pequeño, son una sensación que todavía tengo grabada. Ese interés se vio aumentado por las animaciones de John Kricfalusi y los videoclips de directores como Chris Cunningham y Spike Jonze, y por supuesto películas como “Jason y los argonautas” o la omnipresente saga de “Star Wars”. La original por supuesto

Tu carrera en el VFX comenzó en España. ¿Cómo fueron aquellos comienzos hasta formar parte de una de las más grandes de por aquí, MiopiaFX?

Mis comienzos en el mundo de los VFX la verdad es que tienen muy poco que ver con el cine o la televisión. Cuando estaba terminando la carrera de ingeniería técnica en topografía, unos amigos y yo decidimos montar una empresa de topografía en la cual yo me dedicaría a hacer los modelos digitales del terreno, debido a lo cual me apunté a un master de CGI con Lightwave 5 y ahí empezó todo. La empresa no funcionó y entré en Anima2 como montador y compositor, además de colaborar con gente como Fernando Jariego y Ángel Tena, antes de que pasase a formar parte de NextLimit y recoger su Oscar. Desde aquel primer trabajo pasé a ser diseñador gráfico, artista de 3D, montador de publicidad y, finalmente, compositor a jornada completa, habiendo pasado por empresas como Anima2, Group Films, Genlock (el origen del actual FYM), Telson y finalmente MiopiaFX.

Entonces das el gran salto: MPC. ¿Qué diferencias ves en el método de trabajo de estudios como MPC y los estudios españoles? ¿Hay aspectos que unos podrían aprender de los otros o estamos hablando de ecosistemas totalmente diferentes?

La principal diferencia que he visto es la organización a la hora de trabajar. Fuera existe una organización y un control y nivel de revisiones, casi paranoico, que al principio puede llegar a asustar y parecer un poco de perdida de tiempo, pero que al final supone un gran ahorro de tiempo que se ve reflejado en un aumento de la calidad. Creo que es algo que deberíamos aprender, además de no subestimar los proyectos. Estando fuera el nivel de exigencia no depende del presupuesto y es algo que ya pudimos comprobar cuando “Ex-Machina” gano su Oscar a los mejores VFX siendo un proyecto con menor presupuesto que los demás oponentes. De los artistas españoles que hemos estado fuera se nos valora mucho la versatilidad y nuestra dedicación y entrega.

antonio ramos

Deep Compositing, el gran desconocido en el mundo del VFX. ¿A qué se debe esto?

Bueno, por parte de las empresas, supone una gran inversión en infraestructura, tanto de almacenamiento como de calidad de redy procesamiento. Por parte de los operadores implica un mayor numero de condicionantes, ya que ademas de preocuparte por el color debes preocuparte por la posición en el espacio con todo lo que ello implica. Ademas, la cantidad de herramientas es muy limitada y, a no ser que estés en una empresa grande con un buen equipo de desarrolladores que se encarguen de ello, eres tú mismo el que tienes que diseñarlas.

¿Cómo llegas a profundizar en esta técnica? Es una demostración de que todo buen compositor de VFX no es solo un “aplicador” de técnicas, sino que su valor también lo determina en buena medida su espíritu a la hora de investigar.

La única forma es meterse de lleno y empezar a practicar, empezar a plantearte los mismos problemas que ya has resuelto con tus imágenes RGBA y darles un nuevo enfoque desde este punto de vista. Es una corriente con mucho potencial y muchísimas posibilidades, pero que está en sus orígenes para la mayoría de nosotros.

¿Observas otras técnicas o procesos en los que te gustaría profundizar y poder aplicar en las producciones en que colaboras?

Me gustaría ver un render volumétrico en Nuke, sé que Vray lo tiene pero es muy, muy lento, y sólo permite el render volumétrico de VDB generados en otros softwares. Lo que a mí me gustaría es algo mas parecido a un plug-in nuevo que ha salido, llamado Eddy, pero con un precio o disponibilidad más accesible

Hemos hablado de procesos y técnicas. En otras disciplinas, como el diseño gráfico o la ilustración, parecen más claras las corrientes, los estilos. ¿Cómo se determina algo así en el VFX? ¿Es una cuestión de software, de que algún/a profesional saque tiempo suficiente para experimentar con todas las posibilidades que ofrece Nuke?

La verdad es que gran parte de las novedades que han salido últimamente tienen sus orígenes en empresas de VFX. Mari, por ejemplo, apareció de la mano de Weta con Avatar y Katana es algo que Sony Imageworks desarrolló para sus proyectos y que luego vendieron a empresas comerciales. El mismo Nuke tiene su origen en Digital Domain. Pienso que las nuevas corrientes y las nuevas herramientas vienen marcadas por las necesidades de llevar a cabo una serie de ideas, por lo tanto creo que es difícil predecir qué es lo que nos espera. Ahora mismo hay un gran tirón del VR y el tiempo nos dirá si será algo pasajero, como ocurrió con la stereoscopia, o será el futuro de los VFX.

Durante la masterclass empleaste un plug-in, pgBokeh, que resultó de lo más interesante. ¿Qué otros plug-ins o aplicaciones recomendarías como fundamentales en la caja de herramientas de todo nukero?

Nunca me ha gustado usar demasiados plugins. Limita tu “poder de comunicacion” con otros artistas al depender de unas herramientas y eso no es bueno. En el caso de pgBokeh su razón de ser es que es el único que permite desenfoques con Deep y eso lo hace único e imprescindible para trabajar en el campo del Deep Compositing. En el día a día, creo que NeatDenoise es muy importante ya que da una calidad muy superior al denoise de Nuke. También me parecen muy relevantes las herramientas disponibles en Nukepedia, aunque no soy partidario de usar herramientas que no sé cómo funcionan. Me gusta entender lo que hago y saber qué ocurre dentro de cada nodo ya que eso me permite solucionar los problemas que puedan surgir y sacarles el máximo partido. Además de poder personalizarlas si fuese necesario.

Finalmente, ¿qué le recomedarías a los chicos de Trazos que actualmente están estudiando VFX y que aspiran a labrarse un hueco en el sector?

No desanimarse… No, en serio. Creo que la colaboración es algo muy importante. Antes existía una rivalidad muy grande entre artistas, especialmente entre flameros, y era muy difícil compartir conocimientos. Creo que eso es un gran error y que ralentiza el aprendizaje de todos. También les recomendaría salir fuera, no es tan difícil como parece y te proporciona muchísima experiencia y la posibilidad de trabajar en un mismo proyecto con una gran cantidad de compañeros, lo que supone una fuente de información brutal. También recomiendo empezar con una buena base, un buen conocimiento de los principios básicos de los VFX y un buen entendimiento de las herramientas, no aprender sólo a utilizarlas, sino saber qué es lo que hace cada una y lo que ello implica, entender por qué es mejor corregir de color y luego desenfocar, que desenfocar y luego corregir de color, por poner un ejemplo.

info

¡Si tú también aspiras a dedicarte a la postproducción audiovisual del máximo nivel no te pierdas nuestros programas formativos en Postproducción!

postproduccion