Skip to main content

Nuevas y excepcionales funciones en Google Photos y Google Lens en I/O 2018

Dan Baker/Digital Trends

Hace tres años conocimos Google Photos, un hogar ideal para poner todas nuestras fotos y videos. Hoy, en el marco del congreso anual de desarrolladores Google I/O, hemos podido conocer algunas nuevas maneras de aprovechar y sacarle más partido a esta excelente herramienta de Google

Un dato: se miran 5 mil millones de fotos en Google Photos todos los días… pero hay más cosas que se pueden hacer con ellas, además de mirarlas. Es posible que desees compartir una foto con un amigo, iluminar una imagen oscura, u ocultar una captura de pantalla de tu biblioteca en unos pocos toques. ¿Por qué no hacerlo al momento, entonces?

Recommended Videos

Mete mano a tus fotos en el momento en que las veas

A partir de hoy, comenzarás a ver una serie de acciones sugeridas cuando estés viendo tus fotos. Acciones como una opción para iluminar, compartir, rotar o archivar una imagen. Estas acciones sugeridas se basan en el aprendizaje automático, lo que significa que solo verás estas sugerencias en las fotos relevantes. Podrás tocar estas sugerencias y completar la acción.

Google

Color y blanco/negro en una misma imagen

También a partir de hoy será posible ver tus fotos con nuevos toques de color. En estas creaciones, Google Photos se valdrá de la AI para detectar el sujeto de tu foto y dejarlo solo a él en color —incluida su ropa y lo que tenga en sus manos— mientras el fondo estará en blanco y negro. Podrás ver ya estas creaciones con inteligencia artificial en la pestaña Asistente de Google Photos. Ah: y han mencionado en la conferencia que también se está trabajando en la posibilidad de cambiar el fondo de blanco/negro a color con solo tocarlas.

Experimenta Google Photos en más lugares

Las personas interactúan con sus fotos en diferentes aplicaciones y dispositivos. Google quiere hacer esto cada vez más fácil, asegurando que estos momentos se extiendan más allá de la aplicación misma y de la experiencia web. Por ejemplo, tal vez te gustaría disfrutar de tus fotos a través de un marco de fotos conectado en tu sala de estar, o guardar los momentos divertidos de un foto booth. Google piensa que debería ser fácil para ti acceder y organizar de manera segura esas fotos.

Por lo anterior, Google ha presentado un nuevo programa de socios de Google Photos que brinda a los desarrolladores las herramientas para admitir Google Photos en sus productos, de modo que las personas puedan elegir la manera o forma en la que accederán a sus fotos cuando las necesiten. Este programa comienza recién hoy, así que ya podrás comenzar a buscar aplicaciones y dispositivos que funcionen con Google Photos en los próximos meses.

Como se ve, estos tres años le han sentado de maravilla a Google Photos, y hay muchas cosas nuevas que vendrán. Fácil, rápida y útil: esta parece ser la santísima trinidad para esta herramienta que espera ser el hogar favorito de tus recuerdos.

Pero eso no ha sido todo. Además,

Google Lens: respuestas en tiempo real a preguntas sobre el mundo que te rodea

Hay mucha información disponible en línea, sí: pero muchas de las preguntas que tenemos son a propósito del mundo que tenemos enfrente. Es por eso que Google comenzó a trabajar en Google Lens, intentando darte las respuestas… allí, donde estás viendo.

El año pasado, Google presentó Lens en el Google Photos y en el Asistente. La gente ya lo está usando para responder a todo tipo de preguntas, especialmente cuando son difíciles de describir en un cuadro “normal” de búsqueda, como «¿qué tipo de perro es ese?» O «¿cómo se llama ese edificio?».

Hoy en Google I/O 2018, han anunciado que Lens ahora estará disponible directamente en la aplicación de la cámara fotográfica y en dispositivos compatibles de LGE, Motorola, Xiaomi, Sony Mobile, HMD/Nokia, Transsion, TCL, OnePlus, BQ, Asus, y por supuesto el Google Pixel. También se han anunciado tres actualizaciones que permitirán a Lens responder a tus más preguntas mejor y más rápidamente:

Primero, una selección de texto inteligente, el cual conecta las palabras que ves con las respuestas y acciones que necesitas. Puedes copiar y pegar textos de recetas, códigos de tarjetas de regalo o contraseñas de Wi-Fi en tu teléfono. Google Lens te ayudará a dar sentido a esas frases o palabras, dándote información y fotos relevantes. Supongamos que estás en un restaurante y ves el nombre de un plato que desconoces: Lens te mostrará una imagen para que te hagas una idea.

En segundo lugar, a veces uno no sólo se pregunta «¿qué es exactamente eso?», sino «¿a qué se parece?». Con la combinación de estilos, si un atuendo o artículo de decoración para el hogar llama tu atención, puedes abrir el objetivo y no solo obtener información sobre ese artículo específico —como las reseñas u opiniones—  sino también ver cosas de estilo similar, que se adapten a lo que desees.

Y, en tercer lugar, Lens ahora funciona en tiempo real. Puedes proyectar información de manera proactiva instantáneamente y enlazarla a las cosas que ves. Podrás navegar por el mundo que te rodea, simplemente apuntando con tu cámara. Esto solo es posible con el aprendizaje automático de última generación, el cual utiliza la inteligencia en el dispositivo y los TPU de la nube para identificar miles de millones de palabras, frases, lugares y cosas en una fracción de segundo.

Al igual que los comandos por voz, la visión —lo captado por las cámaras— provocarán un cambio fundamental en la informática. Estas características de Google Lens comenzarán a desplegarse en las próximas semanas.

Daniel Matus
Ex escritor de Digital Trends en Español
Daniel es un editor-anterior en DTES
Google I / O 2023 será el 10 de mayo con evento presencial
google io 2023 10 de mayo i o

Se acerca la primavera boreal y estaremos en el otoño en el hemisferio sur y es casi la hora de otro Google I / O. Si bien es un hecho que tenemos una nueva E / S cada año, Google siempre ofrece un pequeño espectáculo al anunciar la fecha para el próximo. Y ahora, sabemos oficialmente cuándo tendrá lugar Google I / O 2023.

El discurso de apertura de la I/O de este año tendrá lugar en el Anfiteatro Shoreline en Mountain View, California. En su correo electrónico confirmando la hora y la fecha, Google dice: "Únase a una audiencia selecta para conocer las últimas innovaciones de Google y las soluciones para desarrolladores que lo ayudan a trabajar de manera más inteligente y mejorar la productividad". El discurso de apertura de I/O 2023, donde se revelan la mayoría de las grandes noticias y anuncios, comienza a las 10 a.m. PT el 10 de mayo.
Google (en inglés)
Google está invitando a algunos desarrolladores y medios de comunicación / prensa a asistir a la presentación en persona, pero como en años anteriores, cualquiera podrá ver el evento en línea como una transmisión en vivo de forma gratuita. Además, si está interesado en asistir a cualquiera de las "más de 100 sesiones técnicas a pedido", puede registrarse de forma gratuita en el sitio web de Google I / O 2023 para acceder a ellas.

Leer más
Esta nueva función de Google Lens parece de película de ciencia ficción
ar translate google lens ciencia ficcion

Google ha introducido AR Translate como parte de un trío de actualizaciones para Google Lens que tienen como objetivo llevar la traducción de imágenes más lejos en el futuro. La compañía realizó una demostración en la conferencia Google Search On 2022 el miércoles para mostrar que AR Translate puede usar AI para hacer que las imágenes con un idioma extranjero se vean más naturales después de que el texto se traduce a otro idioma.

Actualmente, cualquier texto que se convierta a un idioma diferente utiliza bloques de colores para enmascarar fragmentos de la imagen de fondo. AR Translate conserva mejor la imagen eliminando los bloques y simplemente intercambiando el texto directamente para que la imagen traducida se vea como si fuera la foto original.

Leer más
La función Multisearch de Google Lens ya está disponible en EE.UU.
funcion multisearch google lens disponible ee uu mujer zapatos

La función Multisearch de Google Lens ya está disponible para ser probada en su versión beta para iOS y Android, por lo menos en Estados Unidos. Según la compañía, es una forma “completamente nueva de buscar” de Google y está pensada para cuando el usuario “no tiene todas las palabras para describir lo que requiere”.

Para probar esta nueva función, es necesario tomar una foto o abrir una existente con Google Lens. Luego, hay que deslizar el panel de resultados hacia arriba y presionar el nuevo botón Añadir a tu búsqueda, que se encuentra en la parte superior.

Leer más