El modo de voz avanzado de ChatGPT, que permite a los usuarios conversar con el chatbot en tiempo real, pronto podría obtener el don de la vista, según el código descubierto en la última versión beta de la plataforma. Si bien OpenAI aún no ha confirmado el lanzamiento específico de la nueva función, el código de la versión beta de ChatGPT v1.2024.317 detectado por Android Authority sugiere que la llamada «cámara en vivo» podría estar inminente.
OpenAI había mostrado por primera vez las capacidades de visión del modo de voz avanzado para ChatGPT en mayo, cuando la función se lanzó por primera vez en alfa. Durante una demostración publicada en ese momento, el sistema pudo identificar que estaba mirando a un perro a través de la alimentación de la cámara del teléfono, identificar al perro en función de interacciones pasadas, reconocer la pelota del perro y asociar la relación del perro con la pelota (es decir, jugar a buscar).
La función también fue un éxito inmediato entre los probadores alfa. El usuario de X, Manuel Sainsily, lo empleó con gran efecto para responder preguntas verbales sobre su nuevo gatito basándose en la transmisión de video de la cámara.
Trying #ChatGPT’s new Advanced Voice Mode that just got released in Alpha. It feels like face-timing a super knowledgeable friend, which in this case was super helpful — reassuring us with our new kitten. It can answer questions in real-time and use the camera as input too! pic.twitter.com/Xx0HCAc4To
— Manuel Sainsily (@ManuVision) July 30, 2024
El modo de voz avanzado se lanzó posteriormente en versión beta para los suscriptores Plus y Enterprise en septiembre, aunque sin sus capacidades visuales adicionales. Por supuesto, eso no impidió que los usuarios se volvieran locos al probar los límites vocales de la función. Advanced Voice, «ofrece conversaciones más naturales y en tiempo real, te permite interrumpir en cualquier momento y siente y responde a tus emociones», según la compañía.
La adición de ojos digitales sin duda diferenciaría al Modo de Voz Avanzado de los principales competidores de OpenAI, Google y Meta, quienes en los últimos meses han introducido sus propias funciones conversacionales.
Gemini Live puede hablar más de 40 idiomas, pero no puede ver el mundo que le rodea (al menos hasta que Project Astra despegue), ni las Interacciones de Voz Natural de Meta, que debutaron en el evento Connect 2024 en septiembre, pueden usar entradas de cámara.