Skip to main content

Con un divertido video de «La Bamba» en YouTube, muestran el poderío de Google Translate

Google Translate,  la aplicación móvil que  traduce voz, texto e incluso imágenes en tiempo real a diferentes idiomas,  fue puesta a pruebas en un video compartido a través del portal YouTube utilizando la emblemática canción “La Bamba”.

En el video aparecen los empleados de Google mostrando carteles con la  letra del inmortal tema creado por Ritchie Valens, y donde  cada palabra es traducida a  diferentes idiomas en tiempo real  con la ayuda  del lente de la cámara.

Recommended Videos

El  resultado en  un divertido video musical en el cual podemos ver cómo el mundo puede volverse un poco más accesible a los los viajeros y gracias a herramientas que derriban las barreras idiomáticas.

El blog oficial de Google menciona que  uno de los objetivos del video de YouTube es anunciar la incorporación  de las nuevas lenguas como el    búlgaro, catalán, croata, checo, danés, holandés, filipino, finlandés, húngaro, indonesio, lituano, noruego, polaco, rumano, eslovaco, sueco, turco y ucraniano.

Google sigue mejorando su aplicación Google Translate, que ahora traduce un total de 27 idiomas. Lo más asombroso es que la traducción apenas modifica la tipografía y el estilo de las letras.

La  asombrosa tecnología no necesita de conexión a Internet, algo que se consigue gracias a las redes neuronales convolucionales (artificiales), tal y como explican en su blog:

“Las redes neuronales han recibido mucha atención en los últimos años porque han marcado todo  tipo de récords en el reconocimiento de imágenes. Hace cinco años, si le dabas a  una computadora una imagen de un gato o un perro, tenía problemas para diferenciar cuál era cuál. Gracias al perfeccionamiento de las intricadas redes neuronales artificiales,  ahora no sólo pueden interpretar  la diferencia entre los gatos y los perros, incluso pueden reconocer diferentes razas de perros.

Así es como funcionan:

Tomemos por ejemplo que deseamos traducir un cartel callejero, en primer lugar, cuando entra la  imagen desde la cámara, la aplicación  tiene que encontrar las letras de la imagen. Tiene que eliminar los objetos del fondo como árboles o coches, y recoger las palabras que queremos traducir. Analiza las  manchas de pixeles que tienen colores similares entre sí  y las que también están cerca de otras manchas similares de píxeles. Esas son, posiblemente, las letras,  y si  hacen una línea continua, las interpreta como el texto que debemos leer.

En segundo lugar, la aplicación  tiene que reconocer lo que cada letra es en realidad. Aquí es donde entra en juego el aprendizaje profundo utilizando una red neuronal convolucional para entrenar la aplicación a reconocer las letras y  diferenciarlas de las que nos son  letras.

Curiosamente, si entrenamos el programa a  reconocer sólo las letras más  «limpias», nos arriesgamos a que no entienda lo que los  carteles  reales anuncian.

Los carteles en el mundo real se ven  empañados por reflexiones, suciedad, manchas, y todo tipo de rarezas. Así que hemos construido nuestro propio generador de  carteles  para crear todo tipo «suciedad»  falsa.

Te preguntarás ¿Por qué no entrenamos con  fotos de la vida real? Bueno, es difícil encontrar suficientes ejemplos en todas las lenguas que necesitamos, y es más difícil mantener el control preciso sobre los ejemplos cuando nuestro  objetivo es crear una red neuronal realmente eficiente y compacta. Así que es más eficaz simular la suciedad.

El tercer paso es tomar las palabras reconocidas, y mirar en un diccionario para obtener traducciones. Puesto que cada paso anterior podría haber fallado de alguna manera, la búsqueda del diccionario necesita ser aproximada. De esa manera, si leemos una ‘S’ como un ‘5’, necesitamos que sea capaz de encontrar la palabra ‘5uper’.

Finalmente, mostramos  la traducción  en el mismo estilo y color que las palabras originales. Podemos hacer esto porque ya hemos encontrado y leído  las letras de la imagen, por lo que sabemos exactamente dónde van colocadas.

La nueva tecnología puede parecer muy abstracta, y no siempre es obvio lo que las aplicaciones con redes neuronales convolucionales podrían llegar a hacer. Nosotros tampoco conocemos el límite, por el momento creemos que romper las barreras del idioma es de gran utilidad.”

Miguel Rajmil
Ex escritor de Digital Trends en Español
MIGUEL RAJMIL was born in Argentina and has been living in New York City since 1980. He is a professional photographer who…
Nvidia promete el rendimiento de la RTX 4090 en un laptop de $1.300
nvidia rtx 50

El CEO de Nvidia, Jensen Huang, acaba de presentar la serie RTX 50, que incluye tanto tarjetas de escritorio como la bestial RTX 5090 como variantes para portátiles. En lo que respecta a los jugadores de portátiles, hay mucho por lo que emocionarse aquí, ya que estas GPU podrían terminar siendo algunas de las mejores tarjetas gráficas en términos de rendimiento. Huang promete ofrecer un rendimiento de nivel RTX 4090 en un portátil de 1.300 dólares, y eso es a la mitad de la potencia de diseño térmico (TDP).

Durante el discurso de apertura de CES 2025, Huang habló sobre las diversas GPU que están en camino a las computadoras portátiles. La disponibilidad comienza en marzo, y aunque aún no se han dado fechas precisas de lanzamiento, sabemos qué esperar en términos de precios, y también tenemos una pequeña pista sobre el rendimiento.
Nvidia
La línea de portátiles de Nvidia se desarrolla desde el principio, con la RTX 5090, la RTX 5080, la RTX 5070 Ti y la RTX 5070 que llegarán en marzo. Es la variante RTX 5070 la que me llamó la atención. Huang afirma que estos portátiles costarán a partir de 1.300 dólares, lo que es bastante comparable a las variantes de la serie RTX 40, aunque un poco más caro, pero tendrán un rendimiento comparable al de una RTX 4090 con la mitad de potencia.

Leer más
Google ahora tendrá un «botón mágico» en el buscador para cambiar a IA
Buscador de Google

La lucha por las búsquedas en internet ya está comenzando a cambiar drásticamente con la aparición de la IA y empresas como OpenAI con su producto ChatGPT. Y Google sabe que debe adaptarse a esa realidad en su buscador y es por eso que empezará a integrar directamente su chatbot Gemini.
Los de Mountain View planean agregar un nuevo "Modo de IA" a su motor de búsqueda, según un reporte de The Information. Según esto, la compañía mostrará una opción para cambiar al modo AI desde la parte superior de la página de resultados, lo que le permitirá acceder a una interfaz similar a su chatbot Gemini AI.
La nueva pestaña del modo AI viviría en el lado izquierdo de las pestañas "Todo", "Imágenes", "Videos" y "Compras", informa The Information. Cuando recibe una respuesta en modo AI, la información dice que Google mostrará enlaces a páginas web relacionadas y "una barra de búsqueda debajo de la respuesta conversacional que solicita a los usuarios 'Pregunte un seguimiento...'".
Esta actualización en el buscador irá de la mano además de otras funcionalidades de IA que se agregarán, como adjuntar archivos para su análisis en tiempo real.

Leer más
No, la aplicación Nvidia no está acabando con el rendimiento de tu PC
aplicacion nvidia acabando rendimiento pc

Por Jacob Roach  de DT en inglés

Cuando escuché que la nueva aplicación de Nvidia podría reducir el rendimiento hasta en un 15%, me sorprendió. Si es la primera vez que oyes hablar de ello, estoy seguro de que también te sorprende. La noticia proviene de Sebastián Castellanos, quien publicó en X sobre una gran caída de rendimiento con la aplicación Nvidia instalada tanto en Black Myth: Wukong como en The Talos Principle 2. Algunos medios de comunicación se hicieron eco de la afirmación, incluidos Tom's Hardware y Dark Side of Gaming, mostrando pruebas originales que respaldaban la pérdida de rendimiento.

Leer más