Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Más de un millón de usuarios están emocionalmente apegados a ChatGPT

ChatGPT
DTES

¿Qué ha pasado? OpenAI ha realizado cambios en la forma en que ChatGPT maneja las conversaciones delicadas cuando las personas recurren a él en busca de apoyo emocional. La compañía ha actualizado su Model Spec y el modelo predeterminado, GPT-5, para reflejar cómo ChatGPT maneja conversaciones delicadas relacionadas con psicosis/manía, autolesiones y suicidio, y dependencia emocional del asistente.

Esto es importante porque: La confianza emocional impulsada por la IA es real, donde los usuarios forman vínculos unilaterales con los chatbots.

  • OpenAI estima que alrededor del 0,15% de los usuarios activos semanales muestran signos de apego emocional al modelo, y el 0,03% de los mensajes apuntan al mismo riesgo.
  • Esa misma cifra del 0,15% se aplica a las conversaciones que indican planificación o intención suicida, mientras que el 0,05% de los mensajes muestran ideación suicida.
  • Escalado a la base masiva de usuarios de ChatGPT, eso es más de un millón de personas que forman lazos emocionales con la IA.
  • OpenAI informa grandes mejoras después de la actualización. Las respuestas indeseables en estos dominios se redujeron entre un 65 y un 80%, y los malos resultados relacionados con la dependencia emocional se redujeron alrededor de un 80%.

Cómo está mejorando: La versión actualizada introduce nuevas reglas sobre la seguridad de la salud mental y las relaciones en el mundo real, lo que garantiza que la IA responda con compasión sin pretender ser un terapeuta o un amigo.

  • OpenAI trabajó con más de 170 expertos en salud mental para remodelar el comportamiento del modelo, agregar herramientas de seguridad y ampliar la orientación.
  • GPT-5 ahora puede detectar signos de manía, delirios o intenciones suicidas, y responde de manera segura reconociendo los sentimientos mientras dirige suavemente a los usuarios a la ayuda del mundo real.
  • Una nueva regla garantiza que ChatGPT no actúe como un compañero ni fomente la dependencia emocional; en cambio, refuerza la conexión humana.
  • El modelo ahora puede priorizar herramientas confiables o recursos expertos cuando se alinean con la seguridad del usuario.

¿Por qué debería importarme? Las preguntas emocionales y éticas no solo conciernen a los adultos que forman vínculos con los chatbots; también abordan cómo la IA interactúa con los niños que pueden no comprender completamente su impacto.

  • Si alguna vez ha confiado en ChatGPT durante una mala racha, esta actualización trata de garantizar su seguridad emocional.
  • Ahora, ChatGPT estará más en sintonía con las señales emocionales y ayudará a los usuarios a encontrar ayuda en el mundo real en lugar de reemplazarla.
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Gobierno de Japón en guerra contra OpenAI y plagio al animé y manga
Studio Ghibli

Primero fue la tendencia de Studio Ghibli en ChatGPT y la proliferación de imágenes en la plataforma. Ahora con la llegada de Sora 2, han abundado los videos con robo de propiedad intelectual, algo a lo que el gobierno de Japón quiere colocar un freno.

Minoru Kiuchi, que lidera los esfuerzos ministeriales para resguardar el patrimonio del arte nipón, está pidiéndole formalmente a OpenAI, que deje de copiar obras japonesas, según ITMedia y reportado por IGN.

Leer más
Sam Altman anuncia contenido erótico para adultos en ChatGPT
Mujer desnuda

Un importante anuncio entregó este 14 de octubre Sam Altman, ya que en un giro inesperado, comentó en su cuenta en la red social X.com, que en diciembre de este 2025 debería debutar un ChatGPT sin restricciones para adultos, con material erótico permitido.

"En diciembre, a medida que implementemos el control de edad de manera más completa y como parte de nuestro principio de “tratar a los usuarios adultos como adultos”, permitiremos aún más, como contenido erótico para adultos verificados", comentó el CEO de OpenAI.

Leer más
Copilot se pone al día con Gemini y ChatGPT y con los estudiantes
Copilot para estudiantes

¿Qué ha pasado? Microsoft activó el interruptor de Study and Learn dentro de Copilot. Vive en el selector de modo y convierte las respuestas rápidas en una guía estilo tutor que puede usar de forma gratuita. El momento aterriza justo cuando se acerca el período de otoño, y la función se siente construida para mantenerse en un ritmo de estudio. Como se ve en X, hace lo siguiente:

Te empuja hacia soluciones en lugar de tirar las respuestas finales, para que pienses en los pasos.

Leer más