En una reciente charla TED, las emocionantes gafas inteligentes XR de Google se mostraron al público por primera vez. Si bien hemos visto las gafas inteligentes antes, siempre ha sido en videos muy pulidos que muestran Project Astra, donde nunca tenemos una idea real de las características y funcionalidades en el mundo real. Todo eso ha cambiado ahora, y nuestra primera visión del futuro es muy emocionante. Sin embargo, futuro es en gran medida la palabra clave.
La demostración de lo que pueden hacer las gafas inteligentes ocupa la mayor parte de la presentación de 16 minutos, que es introducida por el vicepresidente de realidad aumentada y extendida de Google, Shahram Izadi. Comienza con algunos antecedentes sobre el proyecto, que cuenta con Android XR en su centro, el sistema operativo que Google está construyendo con Samsung. Lleva Google Gemini al hardware XR, como auriculares, gafas inteligentes y «factores de forma con los que aún no hemos soñado».
Para la demostración se utiliza un par de gafas inteligentes. El diseño es atrevido, en el sentido de que las monturas son de color negro pulido y «pesadas», al igual que las gafas inteligentes Ray-Ban Meta. Cuentan con una cámara, un altavoz y un micrófono para que la IA vea y escuche lo que sucede a tu alrededor, y a través de un enlace con tu teléfono podrás hacer y recibir llamadas. Donde se separan de Ray-Ban Meta es con la adición de una pequeña pantalla a color en la lente.
Auriculares y gafas

Lo que hace que las gafas inteligentes Android XR se destaquen inicialmente en la demostración es la capacidad de Gemini para recordar lo que ha «visto», y recuerda correctamente el título de un libro que el usuario echó un vistazo e incluso anotó dónde se había dejado una tarjeta de acceso del hotel. Esta memoria a corto plazo tiene una amplia gama de usos, no solo como un corredor de memoria, sino también como una forma de confirmar detalles y organizar mejor el tiempo.
La visión de la IA también se utiliza para explicar un diagrama en un libro y traducir el texto a diferentes idiomas. También traduce directamente los idiomas hablados en tiempo real. La pantalla se pone en acción cuando se le pide a Géminis que navegue a un lugar de belleza local, donde se muestran direcciones en la lente. Gemini reacciona rápidamente a sus instrucciones y todo parece funcionar a la perfección durante la demostración en vivo.

Después de las gafas inteligentes, se muestra Android XR funcionando en un auricular completo. La experiencia visual recuerda a la de los auriculares Vision Pro de Apple, con múltiples ventanas que se muestran frente al usuario y gestos de pellizco utilizados para controlar lo que está sucediendo. Sin embargo, Gemini fue la clave para usar los auriculares Android XR, ya que la demostración mostró la capacidad de la IA para describir y explicar lo que se ve o se muestra de una manera altamente conversacional.
¿Cuándo podemos comprarlo?

Izadi cerró la presentación diciendo: «Estamos entrando en una nueva y emocionante fase de la revolución informática. Los auriculares y las gafas son solo el principio. Todo esto apunta a una única visión del futuro, un mundo en el que la IA útil convergerá con la XR ligera. Los dispositivos XR serán cada vez más portátiles, dándonos acceso instantáneo a la información. Mientras que la IA se volverá más consciente del contexto, más conversacional, más personalizada, trabajando con nosotros en nuestros términos y en nuestro idioma. Ya no estamos aumentando nuestra realidad, sino más bien aumentando nuestra inteligencia».
Es algo tentador, y para cualquiera que haya visto el potencial de Google Glass y ya haya estado disfrutando de Ray-Ban Meta, las gafas inteligentes en particular parecen ser el siguiente paso deseable en la evolución de las gafas inteligentes de todos los días.
Izadi no habló sobre una fecha de lanzamiento para ninguno de los dispositivos XR durante la charla TED, lo cual no es una buena señal, así que ¿cuándo es probable que sean productos reales que podamos comprar? Se dice que las gafas inteligentes mostradas son una nueva colaboración entre Google y Samsung (el auricular también es fabricado por Samsung) y no se espera que se lancen hasta 2026, según un informe de The Korean Economic Daily, que extiende la posible fecha de lanzamiento más allá de finales de 2025 como se rumoreaba anteriormente. Si bien esto puede parecer muy lejano, en realidad está más cerca en el tiempo que la versión para el consumidor de las gafas inteligentes Orion de Meta, que no se espera que lleguen a las tiendas hasta finales de 2027.
¿Llegará demasiado tarde?

Teniendo en cuenta que las gafas inteligentes mostradas durante la charla TED parecen reunir aspectos de Glass, Ray-Ban Meta y gafas inteligentes como las de Halliday, además del asistente Google Gemini que ya usamos en nuestros teléfonos y computadoras, la larga espera continua es sorprendente y frustrante.
Peor aún, la sobrecarga de hardware que usa IA, además de las muchas copias de Ray-Ban Meta y alternativas que se esperan de aquí a finales de 2026, significa que el esfuerzo de Google y Samsung corre el riesgo de convertirse en noticias viejas, o eventualmente lanzarse a un público increíblemente hastiado. Es probable que el auricular Android XR, conocido como Project Moohan, se lance en 2025.
Tal vez solo estemos siendo impacientes, pero cuando vemos una demostración con un producto que parece tan definitivo y tentador, es difícil no quererlo en nuestras manos (o en nuestras caras) antes del próximo año.