Skip to main content
  1. Home
  2. Computación
  3. Entretenimiento
  4. Fotografía
  5. Noticias
  6. Telefonía celular
  7. Tendencias
  8. Legacy Archives

Con un divertido video de «La Bamba» en YouTube, muestran el poderío de Google Translate

Add as a preferred source on Google

Google Translate,  la aplicación móvil que  traduce voz, texto e incluso imágenes en tiempo real a diferentes idiomas,  fue puesta a pruebas en un video compartido a través del portal YouTube utilizando la emblemática canción “La Bamba”.

En el video aparecen los empleados de Google mostrando carteles con la  letra del inmortal tema creado por Ritchie Valens, y donde  cada palabra es traducida a  diferentes idiomas en tiempo real  con la ayuda  del lente de la cámara.

Recommended Videos

El  resultado en  un divertido video musical en el cual podemos ver cómo el mundo puede volverse un poco más accesible a los los viajeros y gracias a herramientas que derriban las barreras idiomáticas.

El blog oficial de Google menciona que  uno de los objetivos del video de YouTube es anunciar la incorporación  de las nuevas lenguas como el    búlgaro, catalán, croata, checo, danés, holandés, filipino, finlandés, húngaro, indonesio, lituano, noruego, polaco, rumano, eslovaco, sueco, turco y ucraniano.

Google sigue mejorando su aplicación Google Translate, que ahora traduce un total de 27 idiomas. Lo más asombroso es que la traducción apenas modifica la tipografía y el estilo de las letras.

La  asombrosa tecnología no necesita de conexión a Internet, algo que se consigue gracias a las redes neuronales convolucionales (artificiales), tal y como explican en su blog:

“Las redes neuronales han recibido mucha atención en los últimos años porque han marcado todo  tipo de récords en el reconocimiento de imágenes. Hace cinco años, si le dabas a  una computadora una imagen de un gato o un perro, tenía problemas para diferenciar cuál era cuál. Gracias al perfeccionamiento de las intricadas redes neuronales artificiales,  ahora no sólo pueden interpretar  la diferencia entre los gatos y los perros, incluso pueden reconocer diferentes razas de perros.

Así es como funcionan:

Tomemos por ejemplo que deseamos traducir un cartel callejero, en primer lugar, cuando entra la  imagen desde la cámara, la aplicación  tiene que encontrar las letras de la imagen. Tiene que eliminar los objetos del fondo como árboles o coches, y recoger las palabras que queremos traducir. Analiza las  manchas de pixeles que tienen colores similares entre sí  y las que también están cerca de otras manchas similares de píxeles. Esas son, posiblemente, las letras,  y si  hacen una línea continua, las interpreta como el texto que debemos leer.

En segundo lugar, la aplicación  tiene que reconocer lo que cada letra es en realidad. Aquí es donde entra en juego el aprendizaje profundo utilizando una red neuronal convolucional para entrenar la aplicación a reconocer las letras y  diferenciarlas de las que nos son  letras.

Curiosamente, si entrenamos el programa a  reconocer sólo las letras más  «limpias», nos arriesgamos a que no entienda lo que los  carteles  reales anuncian.

Los carteles en el mundo real se ven  empañados por reflexiones, suciedad, manchas, y todo tipo de rarezas. Así que hemos construido nuestro propio generador de  carteles  para crear todo tipo «suciedad»  falsa.

Te preguntarás ¿Por qué no entrenamos con  fotos de la vida real? Bueno, es difícil encontrar suficientes ejemplos en todas las lenguas que necesitamos, y es más difícil mantener el control preciso sobre los ejemplos cuando nuestro  objetivo es crear una red neuronal realmente eficiente y compacta. Así que es más eficaz simular la suciedad.

El tercer paso es tomar las palabras reconocidas, y mirar en un diccionario para obtener traducciones. Puesto que cada paso anterior podría haber fallado de alguna manera, la búsqueda del diccionario necesita ser aproximada. De esa manera, si leemos una ‘S’ como un ‘5’, necesitamos que sea capaz de encontrar la palabra ‘5uper’.

Finalmente, mostramos  la traducción  en el mismo estilo y color que las palabras originales. Podemos hacer esto porque ya hemos encontrado y leído  las letras de la imagen, por lo que sabemos exactamente dónde van colocadas.

La nueva tecnología puede parecer muy abstracta, y no siempre es obvio lo que las aplicaciones con redes neuronales convolucionales podrían llegar a hacer. Nosotros tampoco conocemos el límite, por el momento creemos que romper las barreras del idioma es de gran utilidad.”

Miguel Rajmil
Former Digital Trends Contributor
MIGUEL RAJMIL was born in Argentina and has been living in New York City since 1980. He is a professional photographer who…
Nvidia despliega su más poderosa arquitectura de procesamiento: Vera Rubin
Performer, Person, Solo Performance

Durante el inicio de CES 2026, el fabricante de chips estadounidense Nvidia dio a conocer la arquitectura Vera Rubin, descrita por su director ejecutivo, Jensen Huang, como la solución más avanzada disponible actualmente en hardware de inteligencia artificial. Este nuevo sistema ya se encuentra en producción a escala completa y espera expandir su capacidad de manufactura durante el segundo semestre del año.

Huang explicó que la arquitectura Rubin fue concebida para resolver uno de los desafíos más acuciantes de la industria: el extraordinario aumento en la demanda de poder computacional requerido por los modelos de inteligencia artificial contemporáneos. Con respecto a su disponibilidad, confirmó que esta tecnología ya se fabrica en volumen y seguirá incrementándose su producción.

Read more
AMD amplía su liderazgo en IA con nuevos Ryzen y AMD ROCm en CES 2026
Computer, Electronics, Pc

Durante el CES 2026, AMD presentó su última generación de procesadores móviles y de escritorio que redefinen la computación para clientes, trayendo capacidades de IA ampliadas, rendimiento de gaming premium y funciones listas para el entorno comercial. La empresa anunció una serie completa de soluciones que posicionan a AMD como líder en la era de las PC impulsadas por IA.

Los nuevos procesadores Ryzen AI Serie 400 y Ryzen AI PRO Serie 400 ofrecen hasta 60 TOPS de cómputo en la NPU, construidos sobre la avanzada arquitectura "Zen 5" y potenciados por NPUs AMD XDNA 2 de segunda generación. Estos procesadores están diseñados específicamente para PCs Copilot+ de consumo y comerciales, con hasta 12 núcleos de CPU de alto rendimiento, gráficos integrados AMD Radeon Serie 800M y velocidades de memoria más rápidas. La Ryzen AI PRO Serie 400 está diseñada específicamente para entornos empresariales con seguridad multicapa y gestión simplificada.

Read more
Intel Core Ultra Series 3 debuta como el primer procesador fabricado en 18A
Crowd, Person, Audience

Intel ha presentado en CES 2026 los procesadores Intel Core Ultra Serie 3, la primera plataforma de computación fabricada con la tecnología de proceso Intel 18A, el proceso de semiconductores más avanzado jamás desarrollado y fabricado en los Estados Unidos. Esta es la plataforma de PC con IA de más amplia adopción que Intel ha ofrecido jamás, impulsando más de 200 diseños de partners a nivel mundial.

Los nuevos procesadores Intel Core Ultra X9 y X7 están equipados con los gráficos integrados Intel Arc de más alto rendimiento. Están diseñados específicamente para usuarios multitarea que gestionan cargas de trabajo avanzadas como gaming, creación y productividad sobre la marcha. Los modelos de gama alta cuentan con hasta 16 núcleos de CPU, 12 núcleos Xe y 50 TOPS de NPU, ofreciendo hasta un 60% más de rendimiento multihilo comparado con Lunar Lake, así como un rendimiento más veloz en juegos con más de un 77% de desempeño mejorado.

Read more