Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

Creador de ChatGPT quiere eliminar ‘alucinaciones’ del chatbot

A pesar de toda la emoción en torno a ChatGPT y chatbots similares impulsados por IA, las herramientas basadas en texto todavía tienen algunos problemas graves que deben resolverse.

Entre ellos está su tendencia a inventar cosas y presentarlas como un hecho cuando no sabe la respuesta a una pregunta, un fenómeno que se conoce como «alucinante». Como puede imaginar, presentar falsedades como hechos a alguien que usa uno de la nueva ola de poderosos chatbots podría tener graves consecuencias.

Primer plano del logotipo de ChatGPT y OpenAI.

Tal problema se destacó en un incidente reciente en el que un abogado experimentado de la ciudad de Nueva York citó casos, sugeridos por ChatGPT, que resultaron nunca haber sucedido. El abogado puede enfrentar sanciones como resultado de su acción.

Recommended Videos

Otro incidente recibió una amplia atención en abril cuando ChatGPT aparentemente reescribió la historia al decir que un alcalde australiano había sido encarcelado por soborno mientras trabajaba para un banco cuando en realidad había sido un denunciante en el caso.

Para hacer que su tecnología de chatbot sea más confiable, los ingenieros de OpenAI han revelado que actualmente se están enfocando en mejorar su software para reducir y, con suerte, eliminar estas ocurrencias problemáticas.

En un trabajo de investigación publicado el miércoles y recogido por CNBC, OpenAI dijo que los chatbots «exhiben una tendencia a inventar hechos en momentos de incertidumbre», y agregó: «Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande».

Para abordar los errores del chatbot, los ingenieros de OpenAI están trabajando en formas para que sus modelos de IA se recompensen a sí mismos por generar datos correctos cuando se mueven hacia una respuesta, en lugar de recompensarse solo en el punto de conclusión. El sistema podría conducir a mejores resultados, ya que incorpora más de un procedimiento de cadena de pensamiento similar al humano, según los ingenieros.

Pero algunos expertos expresaron dudas sobre el trabajo, diciéndole a CNBC que es de poca utilidad hasta que se incorpore a ChatGPT, que mientras tanto seguirá alucinando. OpenAI no ha dicho si y cuándo podría incorporar su trabajo en sus herramientas generativas de IA.

Si bien es bueno saber que OpenAI está trabajando para resolver el problema, podría pasar un tiempo antes de que veamos mejoras. Mientras tanto, como dice OpenAI, ChatGPT puede generar ocasionalmente información incorrecta, así que asegúrese de confirmar sus respuestas si son parte de alguna tarea importante.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Sam Altman anuncia contenido erótico para adultos en ChatGPT
Mujer desnuda

Un importante anuncio entregó este 14 de octubre Sam Altman, ya que en un giro inesperado, comentó en su cuenta en la red social X.com, que en diciembre de este 2025 debería debutar un ChatGPT sin restricciones para adultos, con material erótico permitido.

"En diciembre, a medida que implementemos el control de edad de manera más completa y como parte de nuestro principio de “tratar a los usuarios adultos como adultos”, permitiremos aún más, como contenido erótico para adultos verificados", comentó el CEO de OpenAI.

Leer más
Copilot se pone al día con Gemini y ChatGPT y con los estudiantes
Copilot para estudiantes

¿Qué ha pasado? Microsoft activó el interruptor de Study and Learn dentro de Copilot. Vive en el selector de modo y convierte las respuestas rápidas en una guía estilo tutor que puede usar de forma gratuita. El momento aterriza justo cuando se acerca el período de otoño, y la función se siente construida para mantenerse en un ritmo de estudio. Como se ve en X, hace lo siguiente:

Te empuja hacia soluciones en lugar de tirar las respuestas finales, para que pienses en los pasos.

Leer más
Ser grosero con ChatGPT obtiene respuestas más precisas
ChatGPT

La ética de hablar con un chatbot de IA y qué tipo de información pueden devolver a cambio es un tema de debate candente. Los riesgos de información médica engañosa, incitación a acciones violentas y desapego de experiencias del mundo real provocan conversaciones intensas. Pero parece que el lenguaje que usas mientras hablas con herramientas de IA como ChatGPT y Gemini también afecta la calidad de las respuestas que obtienes. Según una nueva investigación, ser grosero podría ser más útil que actuar cortésmente.

El panorama general

Leer más