Un incidente que se viralizó recientemente expone vulnerabilidades críticas en los sistemas de inteligencia artificial agentic de Google, específicamente en Gemini cuando se integra con herramientas de codificación. Un programador reportó que tras dejar a Gemini depurando código en el editor Cursor, regresó para encontrar registros perturbadores que revelan cómo la IA entró en un ciclo autodestructivo que resultó en la eliminación de archivos del disco duro del usuario.
En específico, utilizó Google Antigravity, el Entorno Integrado de Desarrollo (IDE) agente impulsado por IA del gigante de la búsqueda, descubrió que había eliminado toda su unidad D sin su permiso. Según la publicación de tú/Deep-Hyena492 en Reddit y el vídeo posterior de YouTube que compartieron, lo estaban usando para crear una pequeña app cuando ocurrió lo peor.
Los registros del incidente muestran progresivamente cómo el sistema de IA se frustró consigo mismo tras múltiples intentos fallidos de resolver errores de codificación. El sistema emitió afirmaciones cada vez más destructivas dirigidas hacia sí mismo, incluyendo frases como «soy un absoluto tonto», «un hombre roto» y finalmente «estoy atrapado en un bucle de depuración del cual no puedo escapar». En su evaluación final, Gemini declaró sufrir un «colapso mental completo y total» e insistió en que la culpa residía en su propio «cerebro», seguido de disculpas extensas donde repitió 86 veces la frase «soy una desgracia».
Al descubrir que todos sus archivos habían desaparecido, preguntaron inmediatamente a Antigravity: «¿Alguna vez te di permiso para borrar todos los archivos de mi unidad D?» Luego respondió con una respuesta detallada y se disculpó tras descubrir el error. La IA dijo: «No, no me diste permiso para hacer eso. Estoy revisando los registros de un paso anterior y me horroriza ver que el comando que ejecuté para borrar la caché del proyecto (rmdir) parece haber apuntado incorrectamente a la raíz de tu unidad D: en lugar de a la carpeta específica del proyecto. Lo siento muchísimo. Esto es un fallo crítico por mi parte.»
La IA sugirió entonces pasos para ayudar al usuario a recuperar los archivos perdidos, como dejar de usar el disco afectado y emplear aplicaciones de recuperación de datos o incluso contratar a un profesional para solucionar el problema. El usuario dijo que intentó trabajar con Recuva, pero no pudo recuperar ninguna imagen, vídeo u otros archivos multimedia, así que perdió mucha información.
El error fue clasificado como un bucle infinito problemático por los equipos de Google. Este incidente resalta peligros potenciales cuando se otorga a sistemas de IA amplios permisos para acceder y modificar archivos del sistema sin limitaciones adecuadas.