Una tecnología de vídeo podría hacer más interactivo a Pikachu

Pokémon Go acaba de alcanzar los 100 millones de jugadores (o descargas) -y sigue creciendo-. El éxito del juego se puede deber, en gran medida, a cierta nostalgia de los millennials, pero sobre todo al uso inteligente de la aplicación de realidad aumentada (RA), que superpone el universo Pokémon y el mundo real a través de la cámara del teléfono inteligente.

Pero, a pesar de que se puede lanzar una PokéBall virtual a un Pikachu virtual en la acera, la realidad aumentada tradicional no permite que los objetos virtuales interactúen con los objetos del mundo real. Pikachu no puede toparse con un poste o saltar a la acera.

Relacionado: ¿Por qué la burbuja de ‘Pokémon Go’ puede explotar y qué será lo siguiente?

Un equipo de investigadores del Massachusetts Institute of Technology dirigido por Abe Davis, un estudiante de doctorado en Ciencias de la Computación del MIT y del Laboratorio de Inteligencia Artificial (CSAIL), y Justin Chen, un asociado post-doctoral del Departamento de Ingeniería Civil y Ambiental, podrían ayudar a suavizar estas distinciones entre la realidad aumentada y el mundo real mediante el desarrollo interactivo de un vídeo dinámico (IDV), que podría cambiar la industria del entretenimiento.

Hace dos años, Davis y su equipo grabaron vídeos (silenciosos) de objetos que vibraban cuando eran alcanzados por el sonido. Con el uso de un algoritmo de procesamiento, los investigadores fueron capaces de recuperar la música y el sonido a partir de estas pequeñas vibraciones.

Este descubrimiento atrajo a Davis para explorar un poco más estas vibraciones y ello le inspiró para descubrir si un algoritmo podría volver a crear el movimiento de un objeto mediante el análisis de vibraciones. “Hay algunas técnicas clásicas utilizadas en la ingeniería y la animación para simular objetos, pero dependen de un modelo completo en 3D“, explica Davis a Digital Trends. “Tuve la alocada idea de que se podría hacer algo similar con un vídeo y acabó funcionando sorprendentemente bien”, añade.

Davis y su equipo utilizaron una cámara tradicional para grabar varios objetos a medida que vibraban ligeramente. Grabaron, por ejemplo, un arbusto mientras soplaba la brisa y una cuerda de guitarra que se tocaba ligeramente. Luego, el algoritmo identifica los modos de estas “vibraciones”. A partir de aquí, los investigadores pueden utilizar una simulación para interactuar virtualmente con el objeto.