Skip to main content

¿Qué son las “alucinaciones” y por qué son un peligro en la IA?

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.

¿Qué es una alucinación en inteligencia artificial?

Cómo usar ChatGPT, el chatbot del que todo el mundo habla.
Shutterstock / Digital Trends Español

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Recommended Videos

Las alucinaciones de la inteligencia artificial se producen porque los modelos de lenguaje amplio están entrenados con información de internet. Y aunque en teoría los algoritmos con los que operan las redes neuronales jerarquizan las fuentes según un orden de credibilidad —por ejemplo, un artículo académico tiene más importancia que un texto en un blog—, en ocasiones una respuesta puede tener una mezcla de datos precisos y erróneos.

Por ejemplo, este artículo de la BBC consigna una alucinación realizada por ChatGPT a propósito de la coronación del rey Carlos III, que indica una fecha errónea sobre su coronación, aunque el resto del enunciado es veraz y coherente.

«La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país».

Los modelos amplios de lenguaje también pueden producir alucinaciones inducidas, por ejemplo, cuando se le realiza una pregunta que parte de una premisa falsa. Por ejemplo, el blog flyingbisons cuenta que ChatGPT aseguró que Charles Joughin fue el único sobreviviente del Titanic luego de que se le preguntó quién fue el único sobreviviente al naufragio del trasatlántico.

¿Cómo evitar las alucinaciones de ChatGPT?

Si bien no hay una forma infalible de evitar que ChatGPT u otros modelos amplios de lenguaje arrojen mentiras en sus respuestas, siempre puedes verificar la información que arrojan. Esta práctica “resta” un poco de atractivo al chatbot, sin embargo, si lo utilizas para algún contexto profesional, lo mejor es siempre verificar los datos.

Un recurso bastante simple y que repasábamos hace poco cuando sugerimos consejos para crear mejores prompts para ChatGPT es simplemente preguntarle cuáles son sus fuentes. Si el LLM cometió una alucinación es probable que pida una disculpa y arroje una nueva respuesta, esta vez verificada.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
Llama 3.1: Meta estrena la IA más poderosa hasta el momento
llama 3 1 ia codigo abierto imagine meta ai

Un momento único en la industria de la IA está generando este 23 de julio la gente de Meta, ya que acaba de presentar su nueva variación de IA de código abierto: Llama 3.1, que en algunos aspectos supera a OpenAI con su ChatGPT.

Según la compañía supera a GPT-4o y Claude 3.5 Sonnet de Anthropic en varios puntos de referencia. También está haciendo que el asistente de IA de Meta basado en Llama esté disponible en más países e idiomas, al tiempo que agrega una función que puede generar imágenes basadas en la semejanza específica de alguien. El CEO Mark Zuckerberg ahora predice que Meta AI será el asistente más utilizado para fines de este año, superando a ChatGPT.

Leer más
Creo que pronto podríamos gastar más en IA que en Netflix y Spotify
creo que pronto podriamos gastar mas en ia netflix y spotify robot viendo

Hoy en día prácticamente todas las empresas de tecnología hablan de una sola cosa: inteligencia artificial. Creen firmemente que cambiará todo tipo de industrias y tendrá un profundo impacto económico —para bien, aseguran—, aunque por ahora su uso masivo se limite a crear imágenes absurdas en internet o eliminar objetos o personas no deseadas de una fotografía. Pero la inteligencia artificial tiene un problema mayúsculo: gasta una cantidad absurda de energía eléctrica.

Empresas como Microsoft o Amazon barajean todo tipo de soluciones, desde construir centros de datos en sitios donde la energía renovable sea barata, como en los países nórdicos, hasta invertir en el desarrollo de pequeñas centrales nucleares. Pero hay otro problema: hacer esas inversiones requiere un gasto que por ahora pueden absorber las empresas más ricas del mundo, pero que tarde o temprano pasará una factura que los usuarios tendremos que pagar.

Leer más