Skip to main content
  1. Home
  2. Tendencias
  3. Computación
  4. Entretenimiento
  5. News

Con IA se puede: Google observa píxeles para crear bandas sonoras

Add as a preferred source on Google
Un lobo generado por IA aullando
Deep Mind de Google

Deep Mind mostró el martes los últimos resultados de su investigación generativa de video a audio de IA. Es un sistema novedoso que combina lo que ve en pantalla con la indicación escrita del usuario para crear paisajes sonoros de audio sincronizados para un videoclip determinado.

La IA V2A se puede emparejar con modelos de generación de video como Veo, escribió el equipo de audio generativo de Deep Mind en una publicación de blog, y puede crear bandas sonoras, efectos de sonido e incluso diálogos para la acción en pantalla. Además, Deep Mind afirma que su nuevo sistema puede generar «un número ilimitado de bandas sonoras para cualquier entrada de video» ajustando el modelo con indicaciones positivas y negativas que fomentan o desalientan el uso de un sonido en particular, respectivamente.

V2A Cars

El sistema funciona primero codificando y comprimiendo la entrada de vídeo, que el modelo de difusión aprovecha para refinar de forma iterativa los efectos de audio deseados a partir del ruido de fondo en función de la indicación de texto opcional del usuario y de la entrada visual. Esta salida de audio finalmente se decodifica y se exporta como una forma de onda que luego se puede recombinar con la entrada de video.

Recommended Videos

Lo mejor es que el usuario no tiene que entrar y sincronizar manualmente (léase: tediosamente) las pistas de audio y vídeo, ya que el sistema V2A lo hace automáticamente. «Al entrenar en video, audio y las anotaciones adicionales, nuestra tecnología aprende a asociar eventos de audio específicos con varias escenas visuales, mientras responde a la información proporcionada en las anotaciones o transcripciones», escribió el equipo de Deep Mind.

V2A Wolf

Sin embargo, el sistema aún no está perfeccionado. Por un lado, la calidad del audio de salida depende de la fidelidad de la entrada de vídeo y el sistema se estropea cuando hay artefactos de vídeo u otras distorsiones en la entrada. Según el equipo de Deep Mind, la sincronización del diálogo con la pista de audio sigue siendo un desafío continuo.

V2A Claymation family

«V2A intenta generar voz a partir de las transcripciones de entrada y sincronizarla con los movimientos de los labios de los personajes», explicó el equipo. «Pero el modelo de generación de videos emparejados puede no estar condicionado por las transcripciones. Esto crea un desajuste, lo que a menudo resulta en una extraña sincronización de labios, ya que el modelo de video no genera movimientos de la boca que coincidan con la transcripción».

El sistema aún debe someterse a «rigurosas evaluaciones y pruebas de seguridad» antes de que el equipo considere lanzarlo al público. Todos los vídeos y bandas sonoras generados por este sistema se incluirán con las marcas de agua SynthID de Deep Mind. Este sistema está lejos de ser la única IA generadora de audio actualmente en el mercado. Stability AI lanzó un producto similar la semana pasada, mientras que ElevenLabs lanzó su herramienta de efectos de sonido el mes pasado.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Qué tal un robot humanoide como compañero de carrera?
Robot, Electronics, Headphones

Un nuevo vídeo publicado por la empresa tecnológica californiana Figure AI muestra a su robot humanoide saliendo a correr con trabajadores de la empresa.

El estilo de carrera del robot parece constante y natural mientras trota junto a tres tipos (o cuatro si cuentas a la persona que lo graba). Incluso plantea la idea de que algún día el robot sea un entrenador personal.

Read more
Este robot aprendió a hacer lip sync como los humanos viendo YouTube
Head, Person, Face

Investigadores de Columbia Engineering han entrenado a un robot humanoide llamado Emo para hacer playback de habla y canciones estudiando vídeos en línea, mostrando cómo las máquinas pueden ahora aprender comportamientos humanos complejos simplemente observándolos.

El emo no es un cuerpo humanoide completo, sino un rostro robótico altamente realista diseñado para explorar cómo se comunican los humanos. El rostro está cubierto con piel de silicona y es accionado por 26 motores faciales controlados de forma independiente que mueven los labios, la mandíbula y las mejillas.

Read more
¿Quieres aprender guitarra con Fender gratis? Samsung te lo regala
Guitar, Guitarist, Leisure Activities

Fender ha anunciado una colaboración estratégica con Samsung que llevará la aplicación Fender Play a televisores inteligentes de la marca surcoreana durante la primera mitad de 2026, democratizando el acceso a educación musical de calidad profesional.

La plataforma educativa, originalmente lanzada en 2017, ofrece un catálogo extenso de lecciones instructivas cubriendo guitarra eléctrica, guitarra acústica, bajo y ukelele. Cada módulo educativo se estructura alrededor de canciones reconocidas internacionalmente, desde clásicos de The Beatles hasta éxitos contemporáneos de artistas populares.

Read more