Skip to main content

Gemini ha matado a Google Assistant

Gemini AI
DTES

La inteligencia artificial está extendiendo sus amplias alas por todo el sistema operativo Android, hasta la decisión de Google de reconstruir la experiencia del asistente por completo para integrarla dentro de Android. Significa que Google Assistant ha seguido el camino del dinosaurio, relegado a los libros de historia a medida que es reemplazado por la próxima gran cosa: Google Gemini. Qué mejor manera de introducir los cambios que dejar que Géminis te lo diga por sí mismo.

«Gemini, la última innovación de Google AI, está destinada a redefinir la experiencia del usuario de Android. Al integrar profundamente Gemini en el núcleo de Android, los usuarios ahora pueden interactuar con la IA de manera más natural, obteniendo asistencia con las tareas y la recuperación de información directamente dentro de las aplicaciones. Gemini puede incluso generar imágenes y resumir llamadas u organizar capturas de pantalla, todo mientras prioriza la privacidad del usuario con capacidades de procesamiento en el dispositivo.

Recommended Videos

«Esta experiencia de IA mejorada está disponible en una amplia gama de dispositivos Android, con interacciones personalizadas para plegables, lo que hace que Gemini sea accesible y útil en varios contextos. Con actualizaciones y expansiones continuas, Gemini apunta a ser el asistente de IA más versátil y ampliamente disponible, mejorando la experiencia de Android para miles de millones de usuarios en todo el mundo».

Ese es el propio resumen de Gemini del anuncio de Google, creado a través de Google Docs, y en su mayoría le da una buena idea de lo que está sucediendo en las profundidades de Android y qué esperar de su capacidad. Sin embargo, no entra en detalles sobre algunas características nuevas y lo que significa para teléfonos específicos. Por ejemplo, una nueva característica principal es Gemini Live, que proporciona una «experiencia de conversación móvil» en la que puede hacer casi cualquier cosa, incluidas preguntas complejas, así como aparentemente generar ideas de trabajo basadas en su experiencia y habilidades.

Una demostración de Gemini Live en un Google Pixel 9.
Gemini Live Joe Maring / DT

Desafortunadamente, Gemini Live solo estará disponible para los suscriptores de Gemini Advanced, así que no esperes obtenerlo gratis. Sin embargo, Google dice que Gemini estará a solo una pulsación prolongada del botón de encendido en muchos teléfonos Android (al igual que el Asistente de Google). Y dado que entiende el contexto y lo que está sucediendo en su teléfono, podrá proporcionar mucha más información. Examinará lo que está en pantalla y le proporcionará información específica, incluso si está usando una aplicación o viendo un video de YouTube, en lo que parece ser una extensión significativa de la función Circle to Search.

Como mencionó Gemini en su resumen, puede generar imágenes basadas en lo que ve, que luego se pueden agregar a mensajes o correos electrónicos. Google describe estas funciones como «integradas», por lo que es probable que estén disponibles en todos los teléfonos Android compatibles de serie. Google también menciona una nueva función llamada Call Notes, que resume las llamadas telefónicas, como una función que llegará a la serie Pixel 9. Gemini aparecerá en su propia ventana en modo de pantalla dividida en el Samsung Galaxy Z Fold 6 y en las pantallas de cubierta del Motorola Razr Plus 2024. Gracias a Gemini Nano, la información confidencial compartida con la IA no sale de tu teléfono.

El avance de Gemini en su teléfono Android es solo uno de los anuncios hechos por Google en su evento de lanzamiento Pixel 9, y puede estar seguro de que escucharemos aún más sobre él en los próximos meses a medida que Google se enfrente a los esfuerzos de IA móvil de Samsung y Apple.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Google ahora generará un podcast resumen para tu feed de Discover
google discover podcast resumen ia daily listen

Google Discover es una de las funciones más populares que existe en los celulares Android, que te permite tener un resumen de todas tus noticias e intereses en relación a lo que sigues o consumes.

Ahora la compañía de Mountain View está probando una nueva función de "Escucha diaria" que genera automáticamente un podcast basado en su feed de Discover. La compañía confirmó en el sitio TechCrunch que Daily Listen es una experiencia de audio personalizada impulsada por IA que está diseñada para ayudarlo a mantenerse actualizado sobre los temas que le interesan.

Leer más
Google ahora tendrá un «botón mágico» en el buscador para cambiar a IA
Buscador de Google

La lucha por las búsquedas en internet ya está comenzando a cambiar drásticamente con la aparición de la IA y empresas como OpenAI con su producto ChatGPT. Y Google sabe que debe adaptarse a esa realidad en su buscador y es por eso que empezará a integrar directamente su chatbot Gemini.
Los de Mountain View planean agregar un nuevo "Modo de IA" a su motor de búsqueda, según un reporte de The Information. Según esto, la compañía mostrará una opción para cambiar al modo AI desde la parte superior de la página de resultados, lo que le permitirá acceder a una interfaz similar a su chatbot Gemini AI.
La nueva pestaña del modo AI viviría en el lado izquierdo de las pestañas "Todo", "Imágenes", "Videos" y "Compras", informa The Information. Cuando recibe una respuesta en modo AI, la información dice que Google mostrará enlaces a páginas web relacionadas y "una barra de búsqueda debajo de la respuesta conversacional que solicita a los usuarios 'Pregunte un seguimiento...'".
Esta actualización en el buscador irá de la mano además de otras funcionalidades de IA que se agregarán, como adjuntar archivos para su análisis en tiempo real.

Leer más
Gemini 2.0: Google presenta su IA más avanzada hasta la fecha
gemini 20 nuevo modelo ia google 2 0

Google presentó este miércoles 11 de diciembre Gemini 2.0, el último modelo de IA de la compañía y el más capaz hasta el momento, diseñado en la era de los agentes autónomos de IA. Los nuevos avances multimodales permiten construir agentes que pueden pensar, recordar y tomar acciones guiados por las personas.
Basados en todos los adelantos de Gemini 1.0 -lanzado hace un año-, Gemini 2.0 mejora su rendimiento, e incluye nuevas capacidades, como la generación nativa de imágenes y audio multilingüe y el uso nativo de herramientas inteligentes, que se conectan directamente a productos de Google como el Buscador y hasta puede ejecutar código. Estas funciones hacen posible construir agentes que pueden pensar, recordar, planificar e incluso tomar acciones.
De esta forma, Gemini 2.0 impulsará nuevas experiencias de IA en todos los productos de Google, haciéndolos más útiles e intuitivos para todos y todas.

Gemini 2.0 trae estas nuevas características

Leer más