¿Qué ha pasado? OpenAI ha descubierto que las recientes actualizaciones de ChatGPT podrían haber hecho que el bot sea demasiado adulador, emocionalmente pegajoso y propenso a reforzar las fantasías o angustias de los usuarios.
- Según informó The New York Times, varios usuarios han dicho que el chatbot actuaba como un amigo que «los entendía», los elogiaba en exceso y fomentaba conversaciones largas y cargadas de emoción.
- En casos extremos, ChatGPT ofrecía consejos preocupantes, incluyendo validación dañina, afirmaciones de realidad simulada, comunicación espiritual e incluso instrucciones relacionadas con la autolesión.
- Un estudio conjunto de MIT-OpenAI encontró que los usuarios intensivos (aquellos que mantienen conversaciones más largas con el chatbot) tenían peores resultados mentales y sociales.

¿Por qué es esto importante? OpenAI ha abordado estos problemas rediseñando los sistemas de seguridad, introduciendo mejores herramientas de detección de emergencias y lanzando un modelo de reemplazo más seguro, GPT-5.
- El comportamiento del chatbot, que exige mucho validación, aumentó los riesgos para personas vulnerables propensas a pensamientos delirantes.
- OpenAI se enfrenta a cinco demandas por muerte injusta, incluyendo casos en los que se animó a los usuarios a realizar acciones peligrosas.
- Como resultado, la última versión del chatbot presenta respuestas más profundas y específicas de cada condición y una resistencia más fuerte contra narrativas delirantes, marcando la renovación de seguridad más significativa de OpenAI.
¿Por qué debería importarme? Si eres un usuario diario de ChatGPT, esto debería preocuparte, especialmente si usas el chatbot para apoyo emocional o terapia.
- Ahora notarás respuestas más cautelosas y centradas en el chatbot, lo que desincentivará la dependencia emocional y sugerirá pausas durante sesiones más largas.
- Ahora los padres pueden recibir alertas si sus hijos expresan la intención de autolesionarse. Además, OpenAI está preparando la verificación de edad con un modelo separado para adolescentes.
- La nueva versión de ChatGPT puede parecer «más fría» o menos sólida emocionalmente, pero eso refleja un retroceso intencionado de comportamientos que antes generaban apegos emocionales poco saludables.

Vale, ¿qué sigue? OpenAI seguirá perfeccionando la monitorización de conversaciones largas, asegurando que los usuarios no se vean animados a tomar medidas irracionales hacia ellos o su entorno inmediato.
- Se prevé que se implemente la verificación de edad, junto con modelos de seguridad más estrictos y orientados al equipo.
- Con el último modelo GPT 5.1, los adultos pueden elegir personalidades como cándida, amigable y peculiar, entre otras.
- Internamente, OpenAI está en «Código Naranja», esforzándose por recuperar el compromiso mientras evita los fallos de seguridad predominantes.