Skip to main content

Gemini 2.0: Google presenta su IA más avanzada hasta la fecha

gemini 20 nuevo modelo ia google 2 0
Imagen utilizada con permiso del titular de los derechos de autor

Google presentó este miércoles 11 de diciembre Gemini 2.0, el último modelo de IA de la compañía y el más capaz hasta el momento, diseñado en la era de los agentes autónomos de IA. Los nuevos avances multimodales permiten construir agentes que pueden pensar, recordar y tomar acciones guiados por las personas.

Basados en todos los adelantos de Gemini 1.0 -lanzado hace un año-, Gemini 2.0 mejora su rendimiento, e incluye nuevas capacidades, como la generación nativa de imágenes y audio multilingüe y el uso nativo de herramientas inteligentes, que se conectan directamente a productos de Google como el Buscador y hasta puede ejecutar código. Estas funciones hacen posible construir agentes que pueden pensar, recordar, planificar e incluso tomar acciones.

Recommended Videos

De esta forma, Gemini 2.0 impulsará nuevas experiencias de IA en todos los productos de Google, haciéndolos más útiles e intuitivos para todos y todas.

Gemini 2.0 trae estas nuevas características

  • Gemini 2.0 Flash: esta es la primera versión experimental de los modelos 2.0 que pueden crear o editar imágenes o generar texto en diferentes tonos. Estará disponible para usuarios de Gemini Advanced y desarrolladores en Al Studio y Vertex Al.

  • Proyecto Astra: Google compartió las actualizaciones de su prototipo de investigación de lo que puede ser un asistente universal de IA. Potenciado por Gemini 2.0, Astra combina imágenes, videos y voz en una línea de tiempo de eventos para conversaciones más naturales y una recuperación de información eficiente.

  • Proyecto Mariner: un nuevo prototipo de investigación temprana basado en Gemini 2.0. Mariner reimagina cómo las personas interactúan con la web, combinando las capacidades de comprensión multimodal de Gemini con la interacción web para automatizar tareas y tomar acciones en tu nombre.

  • Proyecto Jules: la compañía está explorando cómo agentes de IA pueden apoyar de forma más directa a los desarrolladores. Jules es un agente de código experimental impulsado por IA al que se le puede delegar tareas, como resolver errores y desafíos de codificación. Por el momento, este prototipo estará disponible para un grupo selecto de personas.

  • Deep Research: se trata de una nueva capacidad para los usuarios de Gemini Advanced que utiliza la IA para explorar temas complejos en nombre de quién lo esté ejecutando, y le proporcione hallazgos en un informe completo.

  • Nuevas funciones de Android potenciadas por IA que mejoran la accesibilidad, la creatividad y la productividad. Estas innovaciones incluyen descripciones de imágenes más detalladas, toma de notas inteligente, transferencia de archivos sin problemas mediante códigos QR y capacidades mejoradas de escaneo de documentos.

Qué dijo Sundar Pichai sobre Gemini 2.0

  • «Pondremos 2.0 a disposición de desarrolladores y verificadores de confianza hoy mismo. Además, estamos trabajando para implementarlo rápidamente en nuestros productos, empezando por Gemini y el Buscador. A partir de hoy, nuestro modelo Gemini 2.0 Flash Experimental estará disponible para todos los usuarios de Gemini. También lanzamos una nueva función llamada Deep Research, que aplica razonamiento avanzado y funciones de contexto ampliado para actuar como asistente de investigación y explorar temas complejos y compilar informes por ti. Ya está disponible en Gemini Advanced».
  • «Ninguno de nuestros productos fue transformado más por la Inteligencia Artificial que el Buscador. Nuestras Visiones Generales creadas por IA ya llegan a mil millones de usuarios, a quienes les permiten hacer nuevas preguntas. Rápidamente, se transformó en una de las funciones más populares en la historia de la búsqueda. El paso siguiente será llevar las funciones de razonamiento avanzado de Gemini 2.0 a la Visiones Generales creadas por IA para resolver temas más complejos y conjuntos de preguntas, incluidas ecuaciones matemáticas avanzadas, preguntas multimodales y código. Empezamos unas pruebas limitadas esta semana y el lanzamiento más amplio será por etapas el próximo año. Además, seguiremos ofreciendo la Vision General creada por IA a más países e idiomas durante 2025».
  • «Si Gemini 1.0 tenía como fin organizar y comprender información, Gemini 2.0 tendrá como objetivo hacerlo mucho más útil. No puedo esperar a ver qué traerá la próxima era».
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Google Gemini es bueno, pero esta actualización podría convertirlo en pura ciencia ficción
google gemini actualizacion ciencia ficcion

Desde que vimos la escena de "Bienvenido a casa, señor" en Iron Man 2, muchos de nosotros hemos querido una configuración inteligente con un asistente similar a Jarvis. Si bien algunos pueden haber esperado que Alexa proporcionara ese tipo de funcionalidad, hasta ahora, el asistente es demasiado limitado. Sin embargo, eso podría cambiar con el lanzamiento de Gemini 2.0 y el Proyecto Jarvis de Google.

En cierto sentido, este nuevo proyecto es Jarvis. El sistema funciona tomando imágenes fijas de la pantalla e interpretando la información que contiene, incluyendo texto, imágenes e incluso sonido. También puede autocompletar formularios o presionar botones por usted. Este proyecto se insinuó por primera vez durante el Google I/O 2024 y, según 9to5Google, está diseñado para automatizar tareas basadas en la web. Jarvis es un agente de IA con un enfoque más estrecho que un modelo de aprendizaje de idiomas como ChatGPT, una IA que demuestra poderes de razonamiento, planificación y memoria similares a los humanos.

Leer más
Zoom presenta su nueva plataforma centrada en IA
zoom ai companion

Julia M Cameron / Pexels
Zoom presentó su AI Companion 2.0 durante el evento Zoomtopia 2024 de la compañía el miércoles. El asistente de IA está incorporado en todo el conjunto de aplicaciones de Zoom Workplace y promete "ofrecer una plataforma de trabajo centrada en la IA para la conexión humana".

Si bien Zoom comenzó como una aplicación de videoconferencia, la empresa ha ampliado su ecosistema de productos para convertirse en una "plataforma de colaboración abierta" que incluye una variedad de servicios de comunicación, productividad y negocios, tanto en línea como en espacios de oficina físicos. El AI Companion de la compañía, que debutó en septiembre pasado, está profundamente incorporado en Zoom Workplace y, al igual que Gemini de Google o Copilot de Microsoft, está diseñado para automatizar tareas repetitivas como transcribir notas y resumir informes que pueden ocupar hasta el 62% de la jornada laboral de una persona.

Leer más
Google da un paso más para decirte cuando una foto es hecha con IA
Una imagen generada por IA de un robot corriendo con unas tijeras.

Google no quiere dejar nada al azar cuando se trata de la IA y el uso y expansión de esta herramienta en el mundo de internet, por eso este martes 17 de septiembre informó que planea implementar cambios en la Búsqueda de Google para dejar más claro qué imágenes en los resultados fueron generadas por IA o editadas por herramientas de IA.
En los próximos meses, Google comenzará a marcar las imágenes generadas y editadas por IA en la ventana "Acerca de esta imagen" en la Búsqueda, Google Lens y la función Circle to search en Android. Es posible que divulgaciones similares lleguen a otras propiedades de Google, como YouTube, en el futuro; Google dice que tendrá más para compartir al respecto a finales de este año.
Esto correrá solo para las imágenes que contengan "metadatos C2PA" se marcarán como manipuladas por IA en la Búsqueda. C2PA, abreviatura de Coalition for Content Provenance and Authenticity, es un grupo que desarrolla estándares técnicos para rastrear la historia de una imagen, incluido el equipo y el software utilizados para capturarla y/o crearla.

Laurie Richardson, Vicepresidenta de Confianza y Seguridad de Google comentó que, "la tecnología de procedencia puede ayudar a explicar si una foto se tomó con una cámara, se editó por software o se produjo con IA generativa. Este tipo de información ayuda a nuestros usuarios a tomar decisiones más informadas sobre el contenido con el que interactúan, incluidas fotos, videos y audio, y genera alfabetización mediática y confianza".

Leer más