Meta está implementando dos funciones muy esperadas en sus populares gafas inteligentes Ray-Ban: IA visual en tiempo real y traducción. Si bien recién se está implementando para pruebas en este momento, el plan es que, eventualmente, cualquier persona que posea Ray-Ban Meta Smart Glasses obtenga un asistente en vivo que pueda ver, escuchar y traducir español, francés e italiano.
Es parte de la actualización v11 que cubre las actualizaciones que Meta describió en su evento Connect 2024, que también incluyen la integración de Shazam para el reconocimiento de música. Todo esto sucede a través de la cámara, los altavoces y los micrófonos integrados en las gafas Ray-Ban Meta, por lo que no es necesario que levantes el teléfono.
Inicialmente, el asistente de IA tiene que ser convocado con una palabra de activación. Para preguntar sobre algo que estaba viendo con las Ray-Ban Meta Smart Glasses, tienes que preceder las preguntas con «mira y».
La nueva IA en vivo agrega un asistente inteligente que siempre está disponible para agilizar las interacciones para que las respuestas lleguen más rápido. La función de IA en vivo de Meta utiliza video para obtener una transmisión visual continua.
Esto no es un problema de privacidad porque las funciones de IA y traducción en vivo deben estar habilitadas en la configuración y activadas para iniciar una sesión continua de escucha y visualización. Las funciones en vivo también se pueden deshabilitar en la configuración o con un comando de voz.
Las últimas funciones llegarán primero a los usuarios de acceso anticipado para que las prueben. Dentro de semanas o meses, dependiendo de los comentarios, Meta comenzará a implementar estas emocionantes actualizaciones v11 para más propietarios de Ray-Ban Meta Smart Glasses.
Las gafas inteligentes Ray-Ban Meta ofrecen un gran valor a $ 299 y siguen mejorando con cada actualización inalámbrica.