¿Qué ha pasado? OpenAI ha realizado cambios en la forma en que ChatGPT maneja las conversaciones delicadas cuando las personas recurren a él en busca de apoyo emocional. La compañía ha actualizado su Model Spec y el modelo predeterminado, GPT-5, para reflejar cómo ChatGPT maneja conversaciones delicadas relacionadas con psicosis/manía, autolesiones y suicidio, y dependencia emocional del asistente.
Esto es importante porque: La confianza emocional impulsada por la IA es real, donde los usuarios forman vínculos unilaterales con los chatbots.
- OpenAI estima que alrededor del 0,15% de los usuarios activos semanales muestran signos de apego emocional al modelo, y el 0,03% de los mensajes apuntan al mismo riesgo.
- Esa misma cifra del 0,15% se aplica a las conversaciones que indican planificación o intención suicida, mientras que el 0,05% de los mensajes muestran ideación suicida.
- Escalado a la base masiva de usuarios de ChatGPT, eso es más de un millón de personas que forman lazos emocionales con la IA.
- OpenAI informa grandes mejoras después de la actualización. Las respuestas indeseables en estos dominios se redujeron entre un 65 y un 80%, y los malos resultados relacionados con la dependencia emocional se redujeron alrededor de un 80%.

Cómo está mejorando: La versión actualizada introduce nuevas reglas sobre la seguridad de la salud mental y las relaciones en el mundo real, lo que garantiza que la IA responda con compasión sin pretender ser un terapeuta o un amigo.
- OpenAI trabajó con más de 170 expertos en salud mental para remodelar el comportamiento del modelo, agregar herramientas de seguridad y ampliar la orientación.
- GPT-5 ahora puede detectar signos de manía, delirios o intenciones suicidas, y responde de manera segura reconociendo los sentimientos mientras dirige suavemente a los usuarios a la ayuda del mundo real.
- Una nueva regla garantiza que ChatGPT no actúe como un compañero ni fomente la dependencia emocional; en cambio, refuerza la conexión humana.
- El modelo ahora puede priorizar herramientas confiables o recursos expertos cuando se alinean con la seguridad del usuario.

¿Por qué debería importarme? Las preguntas emocionales y éticas no solo conciernen a los adultos que forman vínculos con los chatbots; también abordan cómo la IA interactúa con los niños que pueden no comprender completamente su impacto.
- Si alguna vez ha confiado en ChatGPT durante una mala racha, esta actualización trata de garantizar su seguridad emocional.
- Ahora, ChatGPT estará más en sintonía con las señales emocionales y ayudará a los usuarios a encontrar ayuda en el mundo real en lugar de reemplazarla.