Un incidente que ilustra vulnerabilidades críticas de herramientas de inteligencia artificial para contextos profesionales ha generado ondas de conmoción y, paradójicamente, considerable cinismo en redes sociales. Marcel Bucher, profesor de Ciencias de Plantas en la Universidad de Colonia, Alemania, reportó la pérdida irreversible de dos años de trabajo académico tras una acción administrativa aparentemente simple.
Bucher subscribió a ChatGPT Plus hace veinticuatro meses y utilizó intensivamente el servicio como asistente digital en actividades académicas: redacción de correos, elaboración de descripciones de cursos, estructuración de solicitudes de subvención, revisión de publicaciones, preparación de conferencias, diseño de evaluaciones estudiantiles y análisis de respuestas. Valoraba particularmente la capacidad del modelo para mantener contexto conversacional, la «continuidad» y «estabilidad aparente» del espacio de trabajo.
En agosto de 2025, Bucher experimentó modificando configuración de consentimiento de datos, deseando verificar si conservaría acceso completo a funcionalidades sin suministrar información a OpenAI. Tras realizar este cambio, todos sus chats fueron eliminados permanentemente y carpetas de proyecto vaciadas. Dos años de trabajo estructurado desapareció sin advertencia previa, opción deshacer, ni recuperación posible. Solo le quedaron copias parciales que había salvaguardado manualmente en algunos casos.
Bucher intentó contactar a OpenAI mediante canales de soporte, pero fue atendido inicialmente por agentes automatizados incapaces de asistencia. Eventualmente un representante humano confirmó: los datos estaban irrecuperablemente perdidos. Bucher publicó su experiencia en la revista científica Nature, destacando que herramientas desarrolladas sin consideración por estándares académicos de confiabilidad no debieran considerarse seguras para uso profesional.
Paradójicamente, reacciones en redes sociales como Bluesky transitaron desde empatía esperada hacia cinismo y escarnio. Usuarios ridiculizaron al profesor, acusándolo de externalizar trabajo genuino a máquinas y sugiriendo que quizás ni él mismo escribió el artículo de Nature. Otros argumentaron que «un clic no debería destruir años de trabajo», exponiendo diseño deficiente en herramientas cada vez más integradas en instituciones educativas y corporativas.
Bucher subrayó que instituciones universitarias promueven activamente integración de IA en investigación y docencia, frecuentemente sin evaluación robusta de riesgos inherentes. Su experiencia subraya necesidad urgente de salvaguardas técnicas y marcos regulatorios que garanticen que herramientas generativas no comprometidas años de productividad profesional mediante fallos arquitectónicos evitables.
La reflexión de Bucher:
Cada vez se nos anima más a integrar la IA generativa en la investigación y la docencia. Las personas la utilizan para escribir, planificar y enseñar; Las universidades están experimentando con integrarlo en los planes de estudio. Sin embargo, mi caso revela una debilidad fundamental: estas herramientas no se desarrollaron teniendo en cuenta los estándares académicos de fiabilidad y rendición de cuentas.
Si un solo clic puede borrar irrevocablemente años de trabajo, en mi opinión y según mi experiencia, ChatGPT no puede considerarse completamente seguro para uso profesional.