Skip to main content

Gemini AI está haciendo que los robots en la oficina sean geniales

Un robot cotidiano navegando por una oficina.

¿Perdido en un edificio de oficinas, una gran tienda o un almacén desconocidos? Solo tienes que preguntar al robot más cercano para obtener indicaciones.

Un equipo de investigadores de Google combinó los poderes del procesamiento del lenguaje natural y la visión por computadora para desarrollar un nuevo medio de navegación robótica como parte de un nuevo estudio publicado el miércoles.

Recommended Videos

Esencialmente, el equipo se propuso enseñar a un robot, en este caso un robot cotidiano, cómo navegar a través de un espacio interior utilizando indicaciones de lenguaje natural y entradas visuales. La navegación robótica solía requerir que los investigadores no solo trazaran el entorno con anticipación, sino que también proporcionaran coordenadas físicas específicas dentro del espacio para guiar a la máquina. Los avances recientes en lo que se conoce como navegación Vision Language han permitido a los usuarios simplemente dar a los robots comandos de lenguaje natural, como «ir al banco de trabajo». Los investigadores de Google están llevando ese concepto un paso más allá al incorporar capacidades multimodales, de modo que el robot pueda aceptar instrucciones de lenguaje natural e imágenes al mismo tiempo. REVISA ACÁ EL REEL DE INSTAGRAM CON EL VIDEO.

Por ejemplo, un usuario en un almacén podría mostrarle al robot un artículo y preguntarle: «¿En qué estante va esto?» Aprovechando el poder de Gemini 1.5 Pro, la IA interpreta tanto la pregunta hablada como la información visual para formular no solo una respuesta, sino también una ruta de navegación para llevar al usuario al lugar correcto en el piso del almacén. Los robots también se probaron con comandos como: «Llévame a la sala de conferencias con puertas dobles», «¿Dónde puedo pedir prestado un poco de desinfectante para manos?» y «Quiero guardar algo fuera de la vista del público». ¿A dónde debo ir?»

O, en el reel de Instagram de arriba, un investigador activa el sistema con un «robot OK» antes de pedir que lo lleven a algún lugar donde «pueda dibujar». El robot responde con un «dame un minuto. Pensando con Géminis…» antes de salir rápidamente a través de la oficina de DeepMind de 9,000 pies cuadrados en busca de una gran pizarra montada en la pared.

Para ser justos, estos robots pioneros ya estaban familiarizados con el diseño del espacio de oficinas. El equipo utilizó una técnica conocida como «Navegación de Instrucción Multimodal con Recorridos de Demostración (MINT)». Esto implicó que el equipo primero guiara manualmente al robot por la oficina, señalando áreas y características específicas utilizando lenguaje natural, aunque se puede lograr el mismo efecto simplemente grabando un video del espacio con un teléfono inteligente. A partir de ahí, la IA genera un gráfico topológico en el que trabaja para hacer coincidir lo que ven sus cámaras con el «marco objetivo» del vídeo de demostración.

A continuación, el equipo emplea una política de navegación jerárquica de Visión-Lenguaje-Acción (VLA) «que combina la comprensión del entorno y el razonamiento de sentido común», para instruir a la IA sobre cómo traducir las solicitudes de los usuarios en acciones de navegación.

Los resultados fueron muy exitosos, ya que los robots lograron «tasas de éxito de extremo a extremo del 86 por ciento y el 90 por ciento en tareas de navegación previamente inviables que involucraban razonamientos complejos e instrucciones de usuario multimodales en un gran entorno del mundo real», escribieron los investigadores.

Sin embargo, reconocen que todavía hay margen de mejora, señalando que el robot no puede (todavía) realizar de forma autónoma su propio recorrido de demostración y señalando que el tiempo de inferencia desgarbado de la IA (cuánto tiempo tarda en formular una respuesta) de 10 a 30 segundos convierte la interacción con el sistema en un estudio de paciencia.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tu Google Pixel 8 está recibiendo esta característica genial que falta
google pixel 8 caracteristica genial que faltaba

Andy Boxall / DT
Después de todo, una función que pensabas que no llegaría a tu Google Pixel 8 llegará a tu Pixel 8. Se trata de Gemini Nano, la IA en el dispositivo que se lanzó recientemente en el Pixel 8 Pro, pero Google afirmó que no funcionaría en el Pixel 8 más barato. Retroceder en declaraciones anteriores rara vez es algo bueno, pero esta vez, tiene un final feliz.

Gemini Nano, el nombre que recibe la versión más eficiente de Gemini AI de Google, que se une a Gemini Pro y Ultra, llegó al Pixel 8 Pro en una actualización en diciembre de 2023. Fue una buena noticia, pero los propietarios de Pixel 8 se quedaron extrañamente fuera. En un episodio del podcast Android Developers en marzo de 2024, se afirmó que Gemini Nano no funcionaría en absoluto en el Pixel 8 no Pro debido a limitaciones de hardware no especificadas, lo que fue un golpe para los propietarios del teléfono más barato, ya que incluso usa el mismo procesador que el modelo Pro.

Leer más
AMD está haciendo que la CPU sea cada vez más obsoleta en los juegos
amd hace cpu mas obsoleta juegos

Universidad de Coburgo / AMD
En la GDC 2024, AMD acaba de ampliar la API Work Graphs recientemente anunciada por Microsoft, y una demostración rápida muestra lo poderosa que puede ser la nueva tecnología para el rendimiento de los juegos. La iteración de AMD mueve las llamadas de dibujo y los nodos de malla de la CPU a la GPU, lo que reduce el tiempo que se tarda en ejecutar estas tareas. Como resultado, AMD descubrió que había una mejora masiva en el rendimiento (el tiempo de renderizado experimentó un aumento del 64 %) al usar Work Graphs con sombreadores de malla.

Microsoft introdujo Work Graphs como una forma de agilizar los procesos tanto en los juegos como en la productividad, todo ello dando a la GPU el poder de programar y ejecutar tareas sin necesidad de comunicarse primero con la CPU. Está integrado en la API de Direct3D 12 y puede reducir los cuellos de botella y mejorar el rendimiento de los juegos en 3D.

Leer más
Sundar Pichai está muy…pero muy avergonzado con Gemini
CEO de Google: La inteligencia artificial debe ser regulada

Con un memorándum interno, el CEO de Google, Sundar Pichai, salió a enfrentar la polémica semana que vivió su IA generativa Gemini, y la mala ejecución de imágenes históricas.

Google suspendió su herramienta de creación de imágenes Gemini la semana pasada después de que generara resultados vergonzosos y ofensivos, en algunos casos negándose a representar a personas blancas, o insertando fotos de mujeres o personas de color cuando se le pidió que creara imágenes de vikingos, nazis y el Papa.

Leer más