Skip to main content

La función Multisearch de Google Lens ya está disponible en EE.UU.

La función Multisearch de Google Lens ya está disponible para ser probada en su versión beta para iOS y Android, por lo menos en Estados Unidos. Según la compañía, es una forma “completamente nueva de buscar” de Google y está pensada para cuando el usuario “no tiene todas las palabras para describir lo que requiere”.

Para probar esta nueva función, es necesario tomar una foto o abrir una existente con Google Lens. Luego, hay que deslizar el panel de resultados hacia arriba y presionar el nuevo botón Añadir a tu búsqueda, que se encuentra en la parte superior.

Imagen utilizada con permiso del titular de los derechos de autor

La nueva herramienta permite filtrar una búsqueda por color, marca o atributo visual. Por ejemplo, si cargamos la imagen de un vestido naranja, pero lo queremos en otro color, podemos abrir la fotografía de la vestimenta con Google Lens y complementar la búsqueda con la palabra “verde” o con cualquier color que queramos ese vestido.

Recommended Videos

De esta manera, la aplicación mostrará imágenes similares a la subida, pero el tema principal será en torno a la palabra que incorporamos, en este caso, el color verde.

“Google ofrece añadir un color, el nombre de una marca. También puedes hacer una foto de tu salón y buscar mesa de centro para encontrar una que combine con el estilo de tu habitación. ¿Te acaban de regalar una planta, no sabes su nombre y dudas en regarla? ¡Simplemente toma una foto con Google Lens y especifica ‘mantenimiento’ para guardarla!”, explica la compañía.

La función Multisearch de Google Lens está disponible solo en Estados Unidos y en inglés. Puedes encontrarla desde la aplicación de Google en iOS y Android.

Felipe Sasso
Ex escritor de Digital Trends en Español
Felipe Sasso es periodista y escritor. Desde temprana edad manifestó una importante inquietud hacia la escritura y las…
A los usuarios avanzados de Google Photos les encantará esta nueva función filtrada
Google Photo Stacks

Si eres un fotógrafo frecuente por teléfono, entonces ya sabes lo difícil que puede ser clasificar una gran cantidad de imágenes tomadas en rápida sucesión. La función Google Photo Stacks ayuda con esto, pero su interfaz nunca ha sido la más fácil de usar. Una actualización entrante podría cambiar todo eso con un menú contextual más simple.
Descubierta por primera vez por Android Authority en un desmontaje de APK, la actualización introduce una flecha al lado de la pila de fotos en lugar de depender del deslizamiento hacia arriba. Si está tratando con muchas imágenes, es una manera fácil de seleccionar su favorita y deshacerse del resto sin eliminarlas individualmente.
Sin embargo, no te emociones demasiado todavía. Google a menudo coloca características en su código que actualmente están en desarrollo o pruebas, pero no es una garantía de que la función verá una versión adecuada. Por el momento, no hay una fecha de lanzamiento establecida ni siquiera un anuncio oficial sobre esta actualización.

Joe Maring / DT

Leer más
La cámara Pixel de Google tiene una nueva función asesina para los streamers
Cámara Google Pixel

Las nuevas capacidades llegarán a los teléfonos Google Pixel como parte de las actualizaciones de funciones de marzo de 2025, y la última versión de Pixel Camera comenzará su implementación. Los usuarios pueden esperar un modo de astrofotografía actualizado, y aquellos con dispositivos más nuevos también tienen acceso a una capacidad de cámara remota.
Pixel Camera 9.0 ha comenzado su implementación, según 9to5Google, aunque podría pasar un tiempo antes de que vea la actualización en su dispositivo, ya que estas funciones generalmente tardan algún tiempo en llegar a todos los usuarios. El popular modo de astrofotografía que permite a los usuarios tomar fotos del cielo nocturno, incluidas vistas que normalmente requerirían un equipo de cámara especializado para capturar, está recibiendo un lavado de cara con un modo de animación durante la captura. Esta opción está habilitada de forma predeterminada, pero se puede alternar en la pantalla Configuración > Avanzado.
También se agregó una explicación al modo de temporizador de la palma de la mano, que le permite mover la mano frente a la cámara para iniciar un temporizador, y que funciona tanto con la cámara frontal como con la trasera.
La gran actualización, sin embargo, es para los usuarios de la serie Pixel 9, que ahora tienen acceso a la función Cámaras conectadas. Esto le permite conectarse a otros dispositivos u otro Pixel y capturar imágenes o transmitir en vivo con estos dispositivos. Funciona con GoPro 10s y posteriores, por ejemplo, por lo que puedes vincular tu GoPro a tu Pixel y cambiar entre las dos mientras grabas.
Eso hará que esta función sea invaluable para los streamers o creadores de contenido que desean aprovechar al máximo sus dispositivos y usarlos en una configuración multicámara, aunque actualmente solo puede conectarse a un dispositivo adicional a la vez.
Para usar esta función, vaya a Configuración y, a continuación, a Dispositivos conectados > Preferencias Conectadas > Cámaras conectadas. Puede activar o desactivar la función y usar la función Selector de cámara para conectarse a otro dispositivo y cambiar a él. Los dispositivos compatibles actualmente son Pixel 6 y posteriores y GoPro 10 y posteriores, actualizados con el software más reciente.
Opcionalmente, puede aplicar filtros o efectos en las imágenes desde el dispositivo conectado, y puede transmitir directamente a Facebook, YouTube, Instagram, Snapchat o TikTok.

 

Leer más
Sundar Pichai dice que aún más IA llegará a la Búsqueda de Google en 2025
CEO de Google: La inteligencia artificial debe ser regulada

Pixabay / Pexels

Google seguirá apostando por la IA en 2025, anunció el miércoles el CEO Sundar Pichai durante la llamada de ganancias del cuarto trimestre de la compañía. Desde entonces, las acciones de Alphabet han caído más de un 7% tras la noticia de que el gigante de la compañía no cumplió con las expectativas de ingresos del cuarto trimestre y anunció un ambicioso plan de gasto para su desarrollo de IA.
"A medida que la IA continúa expandiendo el universo de consultas que las personas pueden hacer, 2025 será uno de los años más importantes para la innovación en búsquedas hasta ahora", dijo durante la llamada. Pichai agregó que Search está en un "viaje" desde simplemente presentar una lista de enlaces hasta ofrecer una experiencia más parecida a la de un Asistente. Queda por ver si los usuarios realmente quieren eso.
"Creo que el producto [Search] evolucionará aún más", continuó Pichai. "A medida que se hace más fácil para las personas interactuar y hacer preguntas de seguimiento, etc., creo que tenemos la oportunidad de impulsar un mayor crecimiento". Y con un poco de suerte, la búsqueda del mañana potenciada por IA de Google dejará de recomendar el pegamento como aderezo para pizza.
La compañía también anunció que planea gastar alrededor de $ 75 mil millones en gastos de capital de IA este año en un esfuerzo por mantenerse al día con el resto del mercado de IA de rápido crecimiento. A modo de comparación, Meta ha anunciado que planea gastar entre 60.000 y 65.000 millones de dólares en sus esfuerzos de IA en 2025, mientras que Microsoft ha comprometido 80.000 millones de dólares en gastos de capital de IA.
Sin embargo, cada vez está más claro si esos niveles de gasto son realmente necesarios, dadas las revelaciones de eficiencia que surgen de la reciente presentación del modelo de DeepSeek, que ofrece un rendimiento comparable a los últimos modelos de OpenAI, pero a una fracción del costo y el consumo de energía. Pichai restó importancia a algunas de esas preocupaciones durante la llamada, afirmando que la familia Gemini de Google son "algunos de los modelos más eficientes que existen, incluso en comparación con el V3 y el R1 de DeepSeek".

Leer más