Skip to main content
  1. Home
  2. Noticias
  3. Tecnología vestible
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Esta demostración de las gafas inteligentes 2.0 de Google entusiasman mucho

Add as a preferred source on Google
Gafas inteligentes Google
DTES

En una reciente charla TED, las emocionantes gafas inteligentes XR de Google se mostraron al público por primera vez. Si bien hemos visto las gafas inteligentes antes, siempre ha sido en videos muy pulidos que muestran Project Astra, donde nunca tenemos una idea real de las características y funcionalidades en el mundo real. Todo eso ha cambiado ahora, y nuestra primera visión del futuro es muy emocionante. Sin embargo, futuro es en gran medida la palabra clave.

La demostración de lo que pueden hacer las gafas inteligentes ocupa la mayor parte de la presentación de 16 minutos, que es introducida por el vicepresidente de realidad aumentada y extendida de Google, Shahram Izadi. Comienza con algunos antecedentes sobre el proyecto, que cuenta con Android XR en su centro, el sistema operativo que Google está construyendo con Samsung. Lleva Google Gemini al hardware XR, como auriculares, gafas inteligentes y «factores de forma con los que aún no hemos soñado».

Recommended Videos

Para la demostración se utiliza un par de gafas inteligentes. El diseño es atrevido, en el sentido de que las monturas son de color negro pulido y «pesadas», al igual que las gafas inteligentes Ray-Ban Meta. Cuentan con una cámara, un altavoz y un micrófono para que la IA vea y escuche lo que sucede a tu alrededor, y a través de un enlace con tu teléfono podrás hacer y recibir llamadas. Donde se separan de Ray-Ban Meta es con la adición de una pequeña pantalla a color en la lente.

Auriculares y gafas

Lo que hace que las gafas inteligentes Android XR se destaquen inicialmente en la demostración es la capacidad de Gemini para recordar lo que ha «visto», y recuerda correctamente el título de un libro que el usuario echó un vistazo e incluso anotó dónde se había dejado una tarjeta de acceso del hotel. Esta memoria a corto plazo tiene una amplia gama de usos, no solo como un corredor de memoria, sino también como una forma de confirmar detalles y organizar mejor el tiempo.

La visión de la IA también se utiliza para explicar un diagrama en un libro y traducir el texto a diferentes idiomas. También traduce directamente los idiomas hablados en tiempo real. La pantalla se pone en acción cuando se le pide a Géminis que navegue a un lugar de belleza local, donde se muestran direcciones en la lente. Gemini reacciona rápidamente a sus instrucciones y todo parece funcionar a la perfección durante la demostración en vivo.

Después de las gafas inteligentes, se muestra Android XR funcionando en un auricular completo. La experiencia visual recuerda a la de los auriculares Vision Pro de Apple, con múltiples ventanas que se muestran frente al usuario y gestos de pellizco utilizados para controlar lo que está sucediendo. Sin embargo, Gemini fue la clave para usar los auriculares Android XR, ya que la demostración mostró la capacidad de la IA para describir y explicar lo que se ve o se muestra de una manera altamente conversacional.

¿Cuándo podemos comprarlo?

Izadi cerró la presentación diciendo: «Estamos entrando en una nueva y emocionante fase de la revolución informática. Los auriculares y las gafas son solo el principio. Todo esto apunta a una única visión del futuro, un mundo en el que la IA útil convergerá con la XR ligera. Los dispositivos XR serán cada vez más portátiles, dándonos acceso instantáneo a la información. Mientras que la IA se volverá más consciente del contexto, más conversacional, más personalizada, trabajando con nosotros en nuestros términos y en nuestro idioma. Ya no estamos aumentando nuestra realidad, sino más bien aumentando nuestra inteligencia».

Es algo tentador, y para cualquiera que haya visto el potencial de Google Glass y ya haya estado disfrutando de Ray-Ban Meta, las gafas inteligentes en particular parecen ser el siguiente paso deseable en la evolución de las gafas inteligentes de todos los días.

Izadi no habló sobre una fecha de lanzamiento para ninguno de los dispositivos XR durante la charla TED, lo cual no es una buena señal, así que ¿cuándo es probable que sean productos reales que podamos comprar? Se dice que las gafas inteligentes mostradas son una nueva colaboración entre Google y Samsung (el auricular también es fabricado por Samsung) y no se espera que se lancen hasta 2026, según un informe de The Korean Economic Daily, que extiende la posible fecha de lanzamiento más allá de finales de 2025 como se rumoreaba anteriormente. Si bien esto puede parecer muy lejano, en realidad está más cerca en el tiempo que la versión para el consumidor de las gafas inteligentes Orion de Meta, que no se espera que lleguen a las tiendas hasta finales de 2027.

¿Llegará demasiado tarde?

Teniendo en cuenta que las gafas inteligentes mostradas durante la charla TED parecen reunir aspectos de Glass, Ray-Ban Meta y gafas inteligentes como las de Halliday, además del asistente Google Gemini que ya usamos en nuestros teléfonos y computadoras, la larga espera continua es sorprendente y frustrante.

Peor aún, la sobrecarga de hardware que usa IA, además de las muchas copias de Ray-Ban Meta y alternativas que se esperan de aquí a finales de 2026, significa que el esfuerzo de Google y Samsung corre el riesgo de convertirse en noticias viejas, o eventualmente lanzarse a un público increíblemente hastiado. Es probable que el auricular Android XR, conocido como Project Moohan, se lance en 2025.

Tal vez solo estemos siendo impacientes, pero cuando vemos una demostración con un producto que parece tan definitivo y tentador, es difícil no quererlo en nuestras manos (o en nuestras caras) antes del próximo año.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Las furgonetas eléctricas chinas son virales por su capacidad para el caos
Adult, Male, Man

Las redes sociales en China han sido inundadas por videos virales que documentan el comportamiento errático de furgonetas de reparto sin conductor, las cuales demuestran una alarmante incapacidad para adaptarse a circunstancias inesperadas en las carreteras. Estos vehículos autónomos, parte de una infraestructura logística cada vez más común en el país asiático, han sido capturados reiteradamente atravesando zonas de construcción activa, transitando sobre concreto fresco, eludiendo motocicletas atrapadas bajo sus ejes, y perpetuando su trayectoria sin apenas modificación de velocidad.

Los videos, acompañados de comentarios sarcásticos que afirman que "nada los detiene", ilustran un problema fundamental en los sistemas de navegación autónoma actuales: su dependencia excesiva de mapas preestablecidos y su dificultad para procesar situaciones dinámicas que exceden su parámetros de programación. Las imágenes muestran vehículos comportándose con una pertinacia casi cómica, como si sus algoritmos estuvieran completamente desconectados de la realidad táctil del entorno.

Read more
Copilot de Microsoft enfrenta una batalla cuesta arriba
Copilot voz

A pesar de los esfuerzos intensivos de Microsoft por integrar su asistente de inteligencia artificial Copilot en prácticamente todos sus productos y servicios, el desempeño de la plataforma en términos de adopción global ha resultado considerablemente decepcionante. De acuerdo con un análisis reciente de SimilarWeb —especialista en medición de tráfico web—, la herramienta de Microsoft ocupa un lugar muy rezagado en la competencia del mercado de herramientas de IA generativa, capturando apenas entre el 1.2 por ciento y el 4.6 por ciento de la cuota de tráfico global, dependiendo de la métrica de medición utilizada.

Esta situación contrasta marcadamente con la posición abrumadora de ChatGPT de OpenAI, que continúa dominando el sector con cuotas que oscilan entre el 68 y el 84.8 por ciento. Google Gemini ha ganado terreno significativamente durante 2025, ascendiendo desde el 5.4 por ciento en enero hasta alcanzar el 18.2 por ciento en diciembre, demostrando un crecimiento explosivo. Entretanto, alternativas más especializadas como Perplexity —motor de búsqueda impulsado por IA— y Claude de Anthropic han establecido su presencia consolidada en segmentos de mercado particulares, dejando a Copilot en una posición incómoda entre los principales competidores.

Read more
Are you Dead? la aplicación enigmática que rompe la App Store en China
Electronics, Mobile Phone, Phone

Una singular aplicación móvil denominada Are You Dead? ha alcanzado el primer puesto en la categoría de aplicaciones de pago más descargadas en China, capturando la atención de millones de usuarios urbanos que viven en soledad. El concepto es desolador pero funcional: los usuarios deben confirmar cada dos días que continúan con vida haciendo clic en un botón prominente; si no lo hacen, la aplicación notificará automáticamente a un contacto de emergencia designado sobre la posible situación crítica del usuario.

Lanzada sin mayor fanfarria en mayo del año anterior, la aplicación ha ganado tracción exponencial durante las últimas semanas, propulsada principalmente por jóvenes adultos que habitan en grandes metrópolis chinas. Su nombre es un juego de palabras que evoca a E-le-ma, una conocida aplicación de entregas de alimentos, transformándola en Si-le-ma en chino, que literalmente significa "Are You Dead?" en inglés. Esta originalidad lingüística ha contribuido a su apelación cultural.

Read more