Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?
Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.
Las alucinaciones de la inteligencia artificial se producen porque los modelos de lenguaje amplio están entrenados con información de internet. Y aunque en teoría los algoritmos con los que operan las redes neuronales jerarquizan las fuentes según un orden de credibilidad —por ejemplo, un artículo académico tiene más importancia que un texto en un blog—, en ocasiones una respuesta puede tener una mezcla de datos precisos y erróneos.
Por ejemplo, este artículo de la BBC consigna una alucinación realizada por ChatGPT a propósito de la coronación del rey Carlos III, que indica una fecha errónea sobre su coronación, aunque el resto del enunciado es veraz y coherente.
«La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país».
Los modelos amplios de lenguaje también pueden producir alucinaciones inducidas, por ejemplo, cuando se le realiza una pregunta que parte de una premisa falsa. Por ejemplo, el blog flyingbisons cuenta que ChatGPT aseguró que Charles Joughin fue el único sobreviviente del Titanic luego de que se le preguntó quién fue el único sobreviviente al naufragio del trasatlántico.
¿Cómo evitar las alucinaciones de ChatGPT?
Si bien no hay una forma infalible de evitar que ChatGPT u otros modelos amplios de lenguaje arrojen mentiras en sus respuestas, siempre puedes verificar la información que arrojan. Esta práctica “resta” un poco de atractivo al chatbot, sin embargo, si lo utilizas para algún contexto profesional, lo mejor es siempre verificar los datos.
Un recurso bastante simple y que repasábamos hace poco cuando sugerimos consejos para crear mejores prompts para ChatGPT es simplemente preguntarle cuáles son sus fuentes. Si el LLM cometió una alucinación es probable que pida una disculpa y arroje una nueva respuesta, esta vez verificada.