Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Este robot aprendió a hacer lip sync como los humanos viendo YouTube

Add as a preferred source on Google
Head, Person, Face
DTES

Investigadores de Columbia Engineering han entrenado a un robot humanoide llamado Emo para hacer playback de habla y canciones estudiando vídeos en línea, mostrando cómo las máquinas pueden ahora aprender comportamientos humanos complejos simplemente observándolos.

El emo no es un cuerpo humanoide completo, sino un rostro robótico altamente realista diseñado para explorar cómo se comunican los humanos. El rostro está cubierto con piel de silicona y es accionado por 26 motores faciales controlados de forma independiente que mueven los labios, la mandíbula y las mejillas.

Recommended Videos

Estos motores permiten al emo formar formas detalladas de boca que cubren 24 consonantes y 16 vocales, lo cual es fundamental para el habla y el canto naturales. El objetivo era reducir el efecto valle inquietante, donde los robots parecen casi humanos pero aún así resultan inquietantes porque sus movimientos faciales no coinciden con su voz.

Cómo el emo aprendió a hacer lip sync como un humano

El proceso de aprendizaje se desarrolló por etapas. Primero, el emo exploró su propio rostro moviendo sus motores mientras se miraba en un espejo. Esto ayudó al sistema a entender cómo los comandos motores cambian la forma de los rostros.

Los investigadores introdujeron entonces una cadena de aprendizaje que conecta el sonido con el movimiento. Emo vio horas de vídeos en YouTube de personas hablando y cantando, mientras un modelo de IA analizaba la relación entre el audio y el movimiento visible de los labios.

En lugar de centrarse en el lenguaje o el significado, el sistema estudiaba los sonidos crudos del habla. Un transformador de acción facial convertía esos patrones aprendidos en comandos motores en tiempo real.

Este enfoque permitió a Emo hacer playback no solo en inglés, sino también en idiomas en los que nunca se había entrenado, incluyendo francés, árabe y chino. El mismo método funcionaba para el canto, que es más difícil debido a las vocales estiradas y los cambios de ritmo.

Los investigadores dicen que esto es importante porque los robots del futuro tendrán que comunicarse de forma natural si quieren trabajar junto a personas. Este avance ha llegado cuando el interés por los robots para hogares y lugares de trabajo está creciendo rápidamente.

En el CES 2026, ese impulso se mostró por completo, con demostraciones que iban desde el humanoide Atlas de Boston Dynamics, listo para entrar en el lugar de trabajo, hasta el robot de SwitchBot enfocado en el hogar que puede cocinar comidas, y el próximo robot asistente doméstico de LG diseñado para facilitar la vida diaria.

Añadiendo avances como la piel artificial que otorga a los robots una sensibilidad humana, y junto con sincronización labial realista, es fácil ver cómo los robots empiezan a sentirse menos como máquinas y más como compañeros sociales. El emo sigue siendo un proyecto de investigación, pero muestra cómo los robots podrían algún día aprender habilidades humanas igual que nosotros, observando y escuchando.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Quieres aprender guitarra con Fender gratis? Samsung te lo regala
Guitar, Guitarist, Leisure Activities

Fender ha anunciado una colaboración estratégica con Samsung que llevará la aplicación Fender Play a televisores inteligentes de la marca surcoreana durante la primera mitad de 2026, democratizando el acceso a educación musical de calidad profesional.

La plataforma educativa, originalmente lanzada en 2017, ofrece un catálogo extenso de lecciones instructivas cubriendo guitarra eléctrica, guitarra acústica, bajo y ukelele. Cada módulo educativo se estructura alrededor de canciones reconocidas internacionalmente, desde clásicos de The Beatles hasta éxitos contemporáneos de artistas populares.

Read more
Los chatbots de IA aún tienen dificultades con las noticias
Computer Hardware, Electronics, Hardware

Un experimento de un mes ha suscitado nuevas preocupaciones sobre la fiabilidad de las herramientas de IA generativa como fuentes de noticias, después de que se descubriera que el chatbot Gemini de Google fabricaba medios enteros y publicaba informes falsos. Los hallazgos fueron reportados por primera vez por The Conversation, que llevó a cabo la investigación.

El experimento fue dirigido por un profesor de periodismo especializado en informática, que probó siete sistemas de IA generativa durante un periodo de cuatro semanas. Cada día, se pedía a las herramientas que listaran y resumieran los cinco eventos noticiosos más importantes de Québec, los clasificaran por importancia y proporcionaran enlaces directos a artículos como fuentes. Entre los sistemas probados estaban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.

Read more
La máquina pensante: así es el libro sobre el CEO de Nvidia
Libro la máquina pensante

En junio de 2024, impulsada por el auge de la inteligencia artificial tras el lanzamiento de ChatGPT, Nvidia se convirtió en la corporación más valiosa del mundo. Tres décadas después de su fundación en un restaurante Denny’s, la compañía pasó de fabricar componentes para videojuegos a liderar el mercado global del hardware para IA. Esta transformación histórica es el eje central de La máquina pensante, el nuevo libro del periodista Stephen Witt.

En esta obra, Witt narra cómo Jensen Huang, cofundador y director general de Nvidia, apostó hace más de una década por una tecnología que entonces parecía marginal: la inteligencia artificial. Una decisión arriesgada que terminó redefiniendo la arquitectura del ordenador moderno y situando a la compañía en el centro de la revolución tecnológica actual.

Read more