Skip to main content

Descubre la tecnología que le dio vida a Thanos en ‘Avengers: Infinity War’

Avengers: Infinity War se ha convertido en una de las películas de superhéroes más importantes de todos los tiempos, rompiendo récords históricos aún por encima de Black Panther. Marvel Studios sorprendió a la audiencia transformando a Thanos, el villano digital de piel morada de la película, en una de sus estrellas.

Interpretado por el actor nominado a un Oscar, Josh Brolin, y a través de una mezcla de tecnología de captura de interpretación y animación digital, Thanos logró ser más que un titán con la misión de erradicar a la mitad de la población del universo.

El equipo de los estudios de efectos visuales de Digital Domain, junto a la compañía Weta, que trabajó en películas icónicas como Avatar, Wonder Woman, o War for the Planet of the Apes, compartieron tareas para dar vida a Thanos en la pantalla. El resultado final fue un personaje impresionantemente detallado y complicado, que se mantuvo firme tanto física como teatralmente contra el poder combinado de los héroes de Marvel.

Digital Trends habló con dos miembros del equipo de Digital Domain: la supervisora ​​de efectos visuales Kelly Porter, y el director de la tecnología de “humanos digitales” del estudio, Darren Hendler, sobre el proceso de llevar a Thanos a la pantalla. También, hablamos sobre su rol en la sorprendente reaparición de otro personaje que pocos esperaban en la película. Te advertimos que esa parte de la entrevista podría contener un spoiler para cualquiera que aún no haya visto Infinity War, pero no afectará que puedas disfrutar la historia.

A continuación, descubre cómo la tecnología fue vital en la creación visual de Thanos, el villano central de la última película de Marvel.

Digital Trends: Cuando estaban conceptualizando la apariencia de Thanos, ¿cuáles fueron las instrucciones que les dio Marvel al respecto? ¿Qué orientación obtuvieron del estudio y del resto del equipo de Infinity War?

Kelly Porter: En cuanto a la funcionalidad, se nos pidió estar absolutamente seguros de que todo lo que hagamos en el lado tecnológico permita que la actuación de Josh se traduzca a través del personaje de Thanos. Creo que ese fue nuestro objetivo desde el principio, así que cuando hicimos las pruebas iniciales, configuramos la tecnología tal como se usaría en la sesión real, y la presentamos en el momento del inicio de la sesión. Josh vio que esto lo ayudaba a interpretar al personaje de una manera mucho más sutil, como él hubiera preferido.

DT: Entonces, ¿se podría decir que de alguna manera la tecnología ayudó a darle forma a su desempeño como actor?

KP: Bueno, no fuimos nosotros los que actuamos, sino Josh Brolin, pero creo que realmente le gustó la idea de que no necesariamente tenía que hacer nada fuera de lo común solo porque era un personaje generado por computadora. Después de ver los resultados de la prueba y de que toda su actuación facial llegara con alta fidelidad, eso le dio la confianza para seguir adelante y poder hacerlo de una manera mucho más sutil y discreta, y eso fue lo que hizo, y los directores quedaron muy contentos.

No fuimos nosotros los que actuamos, sino Josh Brolin.

DT: Hemos mencionado el papel que desempeñó la nueva tecnología en la actuación ¿Qué nos pueden contar al respecto?

Darren Hendler:  En Digital Domain creamos un nuevo sistema de dos fases para manejar el trabajo facial: Masquerade y Direct Drive. Estos dos procesos funcionan al unísono para crear la animación facial de la más alta calidad, a partir de la actuación en vivo de un actor.

Masquerade toma fotogramas de un sistema de cámara montado en un casco, y crea un escaneo de alta resolución de la cara del actor. Después, utiliza el aprendizaje automático para tomar datos de seguimiento recopilados previamente, y convierte los 150 puntos de datos faciales en aproximadamente 40,000 puntos de datos 3D de alta resolución para el movimiento de la cara.

Digital Domain/Marvel

DT: ¿Cuál es el proceso con el que se extrapolan los datos faciales, partiendo de esos 150 puntos al catálogo más grande de datos de alta resolución?

DH: Los datos nos muestran lo que la cara del actor es capaz de hacer, a través de una serie de movimientos faciales. Esto le permite a la computadora ver muchos detalles, incluyendo cómo la cara humana se mueve de una expresión a otra, los límites del rango facial del actor, y hasta cómo se arruga la piel de la persona, por ejemplo.

Luego, hacemos una sesión de captura de movimiento con el actor. Para ello, se usa un traje de captura de movimiento con un sistema de cámara montado en el casco, y las personas actúan en vivo en el escenario, con el elenco de la película. Durante esta sesión, podemos hacer captura de cuerpo y facial del actor al mismo tiempo. Antes de la tecnología de Masquerade, ese nivel de datos de alta resolución para el rostro del actor en una actuación en vivo, era imposible de lograr.

Transferimos una gama de expresiones y ejercicios faciales desde la cara del actor a la cara de la criatura, y tenemos la oportunidad de modificar cómo se transfiere

DT: Una vez hecho esto, ¿cómo se logra que todos los datos que se recopilaron del actor se muestren en el personaje generado por computadora?

DH: El segundo proceso en el sistema, llamado Direct Drive, toma esa información de Masquerade y la transfiere al personaje, creando un algoritmo de mapeo entre el actor y la criatura. En el caso de Avengers: Infinity War, va desde Josh Brolin hacia Thanos.

El mapeo incluye la definición de la correspondencia entre el actor y el personaje, que logra alinear los diferentes elementos de la anatomía única de cada individuo. Durante la etapa Direct Drive, transferimos una gama de expresiones y ejercicios faciales desde la cara del actor a la cara de la criatura, y tenemos la oportunidad de modificar cómo se transfiere. Esta es una gran parte del proceso, porque nos permite agregar un nivel de control adicional para garantizar que la actuación del actor humano se represente con la mayor precisión posible en el personaje animado.

DT: Digital Domain trabajó en la escena en la que Red Skull hace una aparición de regreso, lo que fue una gran sorpresa para los fanáticos de la película de Marvel. ¿Cómo fueron las conversaciones cuando te dieron esa escena en particular, y cómo hiciste para devolver ese personaje a la pantalla de forma auténtica?

DH: Nos divertimos con esa escena, porque la última vez que vimos a Red Skull fue después de que agarró The Tesseract (el Cubo Cósmico) en Captain America: The First Avenger, y la idea era que eso lo afectara mucho. Tuvimos que usar como referencia al aspecto del personaje en películas anteriores, pero al mismo tiempo, jugamos con diferentes ideas.

Consideramos que, como resultado de su interacción con The Tesseract, se vería atrapado entre dimensiones, y jugamos con esta idea de «phasing» (fase gradual), que estaría constantemente dividiéndose en fases entre dimensiones.

Digital Domain/Marvel

En última instancia, el efecto, que llamamos su «Capa Cuántica», terminó luciendo como un efecto de humo fresco. Trozos de su capa se desprendieron de él en un agradable efecto fantasmal. Fue realmente divertido trabajar en esa revelación. Fue especialmente muy gratificante estar en la sala de cine durante la película, y cuando sale de la oscuridad y revela que es Red Skull, escuchar la reacción de la audiencia y experimentar ese momento con ellos fue muy divertido.

DT: ¿Hay alguna escena en particular que realmente encapsule tu experiencia trabajando en Infinity War, de la que estás más orgulloso?

DH: Creo que lo que más nos enorgullece son las escenas realmente importantes con Gamora (interpretada por Zoe Saldaña). Creo que esas son algunas de las actuaciones más delicadas, y me sentí muy orgulloso del trabajo que pudimos hacer allí, y de las sutilezas de la actuación en esas escenas. Eran tomas más largas, que tenían que transmitir mucha emoción sin mucho movimiento facial en absoluto.

Esas escenas se basaron en microexpresiones sutiles, y cuando se piensa en el alcance de todos los efectos visuales, esas escenas, especialmente en Vormir, fueron ricas en varios niveles. Tenían diferentes personajes – Thanos, Red Skull, Gamora – y un hermoso ambiente con las cumbres de las montañas, y el comportamiento de las nubes, y todo lo demás que se ve a continuación. Sin duda, esas escenas, la tecnología y la actuación se juntaron de una manera apasionante en esta producción.

Avengers: Infinity War está ya en cines.

Recomendaciones del editor

Pokémon lanzó línea para bebés y niños pequeños
pokemon playtime linea para bebes ninos pok  mon

Un nuevo público objetivo es el que comenzó a trabajar The Pokémon Company, se trata de una línea especial de ropa especialmente pensada para bebés y niños.

La marca es Pokémon Playtime y además para hacer su presentación en sociedad, lanzó varios cortos infantiles.

Leer más
¿Habrá una temporada 2 de Shōgun?
habra temporada 2 de shogun

FX
No hay muchos programas que debuten con una puntuación perfecta en Rotten Tomatoes, pero la adaptación de FX de Shōgun de James Clavell es algo especial. Esta es la segunda vez que Shōgun se adapta a la televisión, y también fue un gran éxito en 1980 cuando fue aclamada como una de las mejores miniseries jamás creadas para la televisión. Pasaron otros 44 años antes de que siguiera la versión moderna de FX, pero esta versión de Shōgun ya se encuentra entre las contendientes a la mejor serie de televisión de 2024.

Cosmo Jarvis protagoniza Shōgun como John Blackthrone, un marinero inglés que queda atrapado en Japón a principios del siglo XVII. Esto fue durante una época en la que Japón no era particularmente acogedor con los extranjeros. Y una vez que Trono Negro demostró que tenía valor, no se le permitió irse. Por lo tanto, el programa narra la transformación de Blackthrone a medida que se aclimata a Japón y su gente en un momento de agitación mortal.

Leer más
Amazon Music vuelve al Primavera Sound para transmitir el festival en directo 
Amazon Music Primavera Sound

Amazon Music anuncia hoy su regreso al festival Primavera Sound de Barcelona. El servicio de streaming producirá y emitirá en exclusiva el livestream de una selección de actuaciones de la 22ª edición de Primavera Sound, que tendrá lugar del 30 de mayo al 1 de junio en el Parc del Forum de Barcelona.

En colaboración con el festival por tercer año consecutivo, Amazon Music ofrecerá a los fans de la música de todo el mundo acceso a un fin de semana lleno de música en directo a través de Prime Video y de los canales de Amazon Music en Twitch.

Leer más