Skip to main content
  1. Home
  2. Realidad Virtual
  3. Android
  4. Computación
  5. Tendencias
  6. News

Google Lens hace que tu cámara y tus búsquedas sean (aún) más inteligentes

Lo que buscas está delante de tus ojos: nuevas funciones de AR en Google Lens

Add as a preferred source on Google
Imagen utilizada con permiso del titular de los derechos de autor

Llegará el momento que iremos para siempre con nuestros teléfonos por delante de nosotros… Bueno, actualmente ya casi es así, pero las nuevas funciones presentadas hoy en la Google I/O 2019 para Google Search y Google Lens están llevando las cosas todavía más lejos. O “más cerca”, quizá sería mejor decir.

¿Lo nuevo? Ahora Google Lens no solo podrá decirte qué cosa estás viendo a través de tu teléfono, sino que también traducirá para ti señales y carteles que estén en otro idioma, leyéndotelo en tu idioma, además. Y cuando encuentres determinados objetos en la búsqueda de Google (partes del cuerpo, animales, por ejemplo) podrás también verlos en el espacio que capta tu cámara.

Recommended Videos

¿Un juego más? Sí y no. Lo cierto es que poder ver como se mueven los músculos de tu cuerpo sobre tu escritorio, o apreciar las dimensiones bestiales de un tiburón blanco en tu sala de estar, no deja abrir utilidades pedagógicas. ¿Demasiado serio? Busca esas tenis que tanto deseas y, antes de comprarlas, ve a través de la cámara y la AR como combinarán con tus pantalones y camisas. Como la tecnología misma, no se trata de algo bueno o malo en sí, sino que dependerá del uso que le demos.

Lo que pasa es que vivimos en la era de la realidad visual, y Google entiende esto a la perfección. Nosotros mismos, muchas veces, no encontramos mejor manera de explicar algo que dibujarlo o mostrarlo. Esa es justamente la idea: usar la cámara, la visión artificial y la Realidad Aumentada (AR) para superponer la información y el contenido en tu propio entorno físico. ¿No podrás comprender lo que está delante de tus ojos, acaso? Seguro que sí.

Las nuevas funciones de AR en la búsqueda que se implementarán a finales de este mes, y con ellas podrás ver e interactuar con objetos 3D directamente desde la búsqueda, colocándolos directamente en su propio espacio, a escala y con lujo de detalles. Lo que te contábamos antes sobre el tiburón: tú puedes leer y hacerte una idea de este escualo de 18 pies de largo. Pero otra cosa muy distinta será verlo de cerca y en relación con las cosas que te rodean.

Por cierto, este tipo de tecnología no es nada si no cuenta con socios que sepan sacarle provecho. Para estas nuevas funciones Google ha trabajado con instituciones como la NASA, museos, fabricantes como New Balance, Samsung, tiendas como Target, Visible Body, Volvo, Wayfair y otros más. Las búsquedas en el futuro cercano no solo serán más rápidas, sino también más instructivas y entretenidas.

La gente ya le ha hecho a Google Lens más de mil millones de preguntas sobre las cosas que están viendo. Lens aprovecha el aprendizaje automático (ML), la visión por computadora y decenas de miles de millones de hechos en la Gráfica de conocimiento para responder estas preguntas. Ahora, la evolución de Lens proporcionará más respuestas visuales a preguntas visuales.

El ejemplo mostrado era sin duda el más clarificador. Estás en un restaurante, pensando qué pedir. Google Lens resaltará automáticamente los platos más populares en el menú físico –información que Google ya sabrá–. Cuando toques en un nombre, verás el plato en AR, así como lo que la gente opina al respecto, gracias a las fotos y las reseñas de Google Maps. Ya decían nuestras abuelas que la comida entra por la vista…

Google Lens te será particularmente útil cuando estés viajando por lugares con idiomas que no conoces. Podrás apuntar tu cámara hacia textos escritos, y Lens detectará automáticamente el idioma y superpondrá, traduciéndolo justo encima de las palabras originales. Se manejará en más de 100 idiomas, por lo que –a no ser que estés en algún lugar realmente exótico– no debieras tener problemas.

Imagen utilizada con permiso del titular de los derechos de autor

Google también ha dicho que está trabajando en otras formas de conectar información digital útil a cosas del mundo físico. Así, podrás usar Lens para ver historias ocultas sobre determinadas pinturas cuando vayas a un museo, por ejemplo. O si ves en la revista Bon Appetit un plato que te gustaría cocinar, podrás apuntar tu cámara a una receta y hacer que la página cobre vida y te muestre exactamente cómo cocinarlo.

En fin: las nuevas habilidades de Google Lens nos parecen a veces muy obvias, pero representan un desarrollo tecnológico de última generación en el que trabajan Google y otras empresas asociadas para hacer realidad lo más evidente: eso que está justo allí, ante nuestros ojos.

Daniel Matus
Former Digital Trends Contributor
Las primeras gafas AR de Samsung llegarán este 2026 
Lighting, Car, Transportation

Samsung acaba de revelar algunos detalles interesantes sobre su gama de productos de 2026, confirmando que un nuevo plegable llegará en la segunda mitad del año. La compañía también anunció planes para lanzar sus primeras gafas de RA, que ofrecerán "experiencias multimodales de IA ricas e inmersivas."

Al exponer la estrategia de producto de Samsung para el año durante la rueda de resultados del cuarto trimestre de 2025, Seong Cho, responsable de marketing de la división móvil de Samsung, afirmó que la compañía planea ofrecer estas nuevas experiencias de IA "a través de factores de forma diversos, como gafas de realidad aumentada de próxima generación."

Read more
Este anillo háptico de 18 gramos deja que tu dedo toque objetos virtuales
Body Part, Finger, Hand

Un nuevo anillo háptico para VR intenta resolver un problema persistente, el virtual touch sigue pareciendo plano. Investigadores de la Universidad Sungkyunkwan, EPFL y Universidad Técnica de Estambul construyeron un dispositivo wearable inspirado en el origami llamado OriRing, que pesa 18 gramos y puede empujar hacia atrás con hasta 6,5 newtons de fuerza.

OriRing mide tanto las fuerzas de presión como de deslizamiento en tu dedo, y luego genera resistencia física que coincide con lo que haces en VR o AR. Los investigadores dicen que puede representar el tamaño y la rigidez del objeto, y que también puede requerir la intervención del usuario para cambiar esas propiedades sobre la marcha.

Read more
Meta abandona el metaverso: despidos masivos en Reality Labs 
Zuckerberg Metaverso

Meta Platforms anunció despidos significativos en su división Reality Labs, que durante años concentró miles de millones en desarrollos de realidad virtual y experiencias metaversales. Más de mil empleados perderán sus posiciones mientras la compañía reorienta completamente su estrategia hacia hardware inteligente, específicamente los lentes Ray-Ban equipados con tecnología de inteligencia artificial.

La decisión, comunicada mediante un memorando de Andrew Bosworth, jefe de tecnología de Meta, representa el reconocimiento implícito del fracaso de la apuesta colosal del metaverso. Desde 2021, cuando Mark Zuckerberg rebautizó Facebook como Meta para simbolizar su compromiso con esta visión futurista, la división ha acumulado pérdidas que superan setenta mil millones de dólares. A pesar de desarrollar dispositivos de realidad virtual atractivos, los productos nunca alcanzaron rentabilidad suficiente para justificar las inversiones.

Read more