Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Esta demostración de las gafas inteligentes 2.0 de Google entusiasman mucho

Gafas inteligentes Google
DTES

En una reciente charla TED, las emocionantes gafas inteligentes XR de Google se mostraron al público por primera vez. Si bien hemos visto las gafas inteligentes antes, siempre ha sido en videos muy pulidos que muestran Project Astra, donde nunca tenemos una idea real de las características y funcionalidades en el mundo real. Todo eso ha cambiado ahora, y nuestra primera visión del futuro es muy emocionante. Sin embargo, futuro es en gran medida la palabra clave.

La demostración de lo que pueden hacer las gafas inteligentes ocupa la mayor parte de la presentación de 16 minutos, que es introducida por el vicepresidente de realidad aumentada y extendida de Google, Shahram Izadi. Comienza con algunos antecedentes sobre el proyecto, que cuenta con Android XR en su centro, el sistema operativo que Google está construyendo con Samsung. Lleva Google Gemini al hardware XR, como auriculares, gafas inteligentes y «factores de forma con los que aún no hemos soñado».

Recommended Videos

Para la demostración se utiliza un par de gafas inteligentes. El diseño es atrevido, en el sentido de que las monturas son de color negro pulido y «pesadas», al igual que las gafas inteligentes Ray-Ban Meta. Cuentan con una cámara, un altavoz y un micrófono para que la IA vea y escuche lo que sucede a tu alrededor, y a través de un enlace con tu teléfono podrás hacer y recibir llamadas. Donde se separan de Ray-Ban Meta es con la adición de una pequeña pantalla a color en la lente.

Auriculares y gafas

Lo que hace que las gafas inteligentes Android XR se destaquen inicialmente en la demostración es la capacidad de Gemini para recordar lo que ha «visto», y recuerda correctamente el título de un libro que el usuario echó un vistazo e incluso anotó dónde se había dejado una tarjeta de acceso del hotel. Esta memoria a corto plazo tiene una amplia gama de usos, no solo como un corredor de memoria, sino también como una forma de confirmar detalles y organizar mejor el tiempo.

La visión de la IA también se utiliza para explicar un diagrama en un libro y traducir el texto a diferentes idiomas. También traduce directamente los idiomas hablados en tiempo real. La pantalla se pone en acción cuando se le pide a Géminis que navegue a un lugar de belleza local, donde se muestran direcciones en la lente. Gemini reacciona rápidamente a sus instrucciones y todo parece funcionar a la perfección durante la demostración en vivo.

Después de las gafas inteligentes, se muestra Android XR funcionando en un auricular completo. La experiencia visual recuerda a la de los auriculares Vision Pro de Apple, con múltiples ventanas que se muestran frente al usuario y gestos de pellizco utilizados para controlar lo que está sucediendo. Sin embargo, Gemini fue la clave para usar los auriculares Android XR, ya que la demostración mostró la capacidad de la IA para describir y explicar lo que se ve o se muestra de una manera altamente conversacional.

¿Cuándo podemos comprarlo?

Izadi cerró la presentación diciendo: «Estamos entrando en una nueva y emocionante fase de la revolución informática. Los auriculares y las gafas son solo el principio. Todo esto apunta a una única visión del futuro, un mundo en el que la IA útil convergerá con la XR ligera. Los dispositivos XR serán cada vez más portátiles, dándonos acceso instantáneo a la información. Mientras que la IA se volverá más consciente del contexto, más conversacional, más personalizada, trabajando con nosotros en nuestros términos y en nuestro idioma. Ya no estamos aumentando nuestra realidad, sino más bien aumentando nuestra inteligencia».

Es algo tentador, y para cualquiera que haya visto el potencial de Google Glass y ya haya estado disfrutando de Ray-Ban Meta, las gafas inteligentes en particular parecen ser el siguiente paso deseable en la evolución de las gafas inteligentes de todos los días.

Izadi no habló sobre una fecha de lanzamiento para ninguno de los dispositivos XR durante la charla TED, lo cual no es una buena señal, así que ¿cuándo es probable que sean productos reales que podamos comprar? Se dice que las gafas inteligentes mostradas son una nueva colaboración entre Google y Samsung (el auricular también es fabricado por Samsung) y no se espera que se lancen hasta 2026, según un informe de The Korean Economic Daily, que extiende la posible fecha de lanzamiento más allá de finales de 2025 como se rumoreaba anteriormente. Si bien esto puede parecer muy lejano, en realidad está más cerca en el tiempo que la versión para el consumidor de las gafas inteligentes Orion de Meta, que no se espera que lleguen a las tiendas hasta finales de 2027.

¿Llegará demasiado tarde?

Teniendo en cuenta que las gafas inteligentes mostradas durante la charla TED parecen reunir aspectos de Glass, Ray-Ban Meta y gafas inteligentes como las de Halliday, además del asistente Google Gemini que ya usamos en nuestros teléfonos y computadoras, la larga espera continua es sorprendente y frustrante.

Peor aún, la sobrecarga de hardware que usa IA, además de las muchas copias de Ray-Ban Meta y alternativas que se esperan de aquí a finales de 2026, significa que el esfuerzo de Google y Samsung corre el riesgo de convertirse en noticias viejas, o eventualmente lanzarse a un público increíblemente hastiado. Es probable que el auricular Android XR, conocido como Project Moohan, se lance en 2025.

Tal vez solo estemos siendo impacientes, pero cuando vemos una demostración con un producto que parece tan definitivo y tentador, es difícil no quererlo en nuestras manos (o en nuestras caras) antes del próximo año.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
A los usuarios avanzados de Google Photos les encantará esta nueva función filtrada
Google Photo Stacks

Si eres un fotógrafo frecuente por teléfono, entonces ya sabes lo difícil que puede ser clasificar una gran cantidad de imágenes tomadas en rápida sucesión. La función Google Photo Stacks ayuda con esto, pero su interfaz nunca ha sido la más fácil de usar. Una actualización entrante podría cambiar todo eso con un menú contextual más simple.
Descubierta por primera vez por Android Authority en un desmontaje de APK, la actualización introduce una flecha al lado de la pila de fotos en lugar de depender del deslizamiento hacia arriba. Si está tratando con muchas imágenes, es una manera fácil de seleccionar su favorita y deshacerse del resto sin eliminarlas individualmente.
Sin embargo, no te emociones demasiado todavía. Google a menudo coloca características en su código que actualmente están en desarrollo o pruebas, pero no es una garantía de que la función verá una versión adecuada. Por el momento, no hay una fecha de lanzamiento establecida ni siquiera un anuncio oficial sobre esta actualización.

Joe Maring / DT

Leer más
Resucita un dinosaurio de la web 2.0: Digg está de regreso
Digg

La historia es cíclica dicen y todo tiene su regreso, y así parece que está pasando con la llamada web 2.0, cuando la interacción de las comunidades comenzó a democratizar internet y las conversaciones en la red, y un viejo dinosaurio de la época está de vuelta: Digg.
Digg, una vez conocida como "la página de inicio de Internet", está regresando, después de ser comprada por su cofundador Kevin Rose en asociación con el cofundador de Reddit, Alexis Ohanian.

La portada de internet ahora con superpoderes, dice la nueva web.

Leer más
El Pixel 10 se lanzará con el asistente más inteligente de Google hasta el momento
Pixel 10

En 2023, comenzaron a surgir rumores de un nuevo asistente de IA de Google (apodado "Pixie"). La idea de un asistente inteligente en el dispositivo atrajo por una serie de razones, entre ellas la privacidad y el rendimiento, pero no alcanzó su fecha de lanzamiento prevista. Google no ha dicho nada más al respecto, hasta ahora: Pixie está de regreso como Pixel Sense, y está programado para lanzarse con el Google Pixel 10.
Google describe la nueva aplicación con una línea: "Obtén la experiencia más personalizada en función de las cosas que haces en tu Pixel", según Android Authority. En otras palabras, Pixel Sense extraerá y recopilará datos de sus otras aplicaciones, así como de textos, imágenes y archivos multimedia. También puede usar capturas de pantalla de manera similar a la función Pixel Screenshot.
A pesar de la presencia de Gemini en la mayoría de las aplicaciones de Google, actualmente no puede utilizar la información de estas aplicaciones para obtener respuestas contextuales. A través de Pixel Sense, podrá proporcionar respuestas a preguntas relacionadas con datos personales, pero dado que todo se procesa en el dispositivo, nunca debería llegar a los servidores de Google.

Bryan M. Wolfe / DT

Leer más