Skip to main content

¿Se está volviendo más tonto el GPT-4?

Imagen utilizada con permiso del titular de los derechos de autor

Tan impresionante como GPT-4 fue en el lanzamiento, algunos espectadores han observado que ha perdido parte de su precisión y potencia. Estas observaciones se han publicado en línea durante meses, incluso en los foros de OpenAI.

Estos sentimientos han estado ahí por un tiempo, pero ahora podemos finalmente tener pruebas. Un estudio realizado en colaboración con la Universidad de Stanford y UC Berkeley sugiere que GPT-4 no ha mejorado su capacidad de respuesta, sino que de hecho ha empeorado con nuevas actualizaciones del modelo de lenguaje.

Recommended Videos

GPT-4 is getting worse over time, not better.

Many people have reported noticing a significant degradation in the quality of the model responses, but so far, it was all anecdotal.

But now we know.

At least one study shows how the June version of GPT-4 is objectively worse than… pic.twitter.com/whhELYY6M4

— Santiago (@svpino) July 19, 2023

El estudio, llamado ¿Cómo está cambiando el comportamiento de ChatGPT con el tiempo?, probó la capacidad entre GPT-4 y la versión de idioma anterior GPT-3.5 entre marzo y junio. Al probar las dos versiones del modelo con un conjunto de datos de 500 problemas, los investigadores observaron que GPT-4 tenía una tasa de precisión del 97,6% en marzo con 488 respuestas correctas y una tasa de precisión del 2,4% en junio después de que GPT-4 había pasado por algunas actualizaciones. El modelo produjo solo 12 respuestas correctas meses después.

Otra prueba utilizada por los investigadores fue una técnica de cadena de pensamiento, en la que preguntaron a GPT-4 ¿Es 17,077 un número primo? Una cuestión de razonamiento. GPT-4 no solo respondió incorrectamente que no, sino que no dio ninguna explicación de cómo llegó a esta conclusión, según los investigadores.

ChatGPT se le pregunta sobre un número primo.

En particular, GPT-4 está actualmente disponible para desarrolladores o miembros pagos a través de ChatGPT Plus. Hacer la misma pregunta a GPT-3.5 a través de la vista previa de investigación gratuita de ChatGPT como lo hice yo, le brinda no solo la respuesta correcta sino también una explicación detallada del proceso matemático.

Además, la generación de código ha sufrido con los desarrolladores de LeetCode que han visto caer el rendimiento de GPT-4 en su conjunto de datos de 50 problemas fáciles de 52% de precisión a 10% de precisión entre marzo y junio.

Cuando GPT-4 se anunció por primera vez, OpenAI detalló su uso de supercomputadoras Microsoft Azure AI para entrenar el modelo de lenguaje durante seis meses, afirmando que el resultado era una probabilidad 40% mayor de generar la «información deseada a partir de las indicaciones del usuario».

Sin embargo, el comentarista de Twitter, @svpino señaló que hay rumores de que OpenAI podría estar utilizando «modelos GPT-4 más pequeños y especializados que actúan de manera similar a un modelo grande pero son menos costosos de ejecutar».

Esta opción más barata y rápida podría estar llevando a una caída en la calidad de las respuestas GPT-4 en un momento crucial cuando la empresa matriz tiene muchas otras grandes organizaciones que dependen de su tecnología para la colaboración.

ChatGPT, basado en el GPT-3.5 LLM, ya era conocido por tener sus desafíos de información, como tener un conocimiento limitado de los eventos mundiales después de 2021, lo que podría llevarlo a llenar vacíos con datos incorrectos. Sin embargo, la regresión de la información parece ser un problema completamente nuevo nunca antes visto con el servicio. Los usuarios esperaban actualizaciones para abordar los problemas aceptados.

El CEO de OpenAI, Sam Altman, expresó recientemente su decepción en un tweet a raíz de que la Comisión Federal de Comercio iniciara una investigación sobre si ChatGPT ha violado las leyes de protección al consumidor.

«Somos transparentes sobre las limitaciones de nuestra tecnología, especialmente cuando nos quedamos cortos. Y nuestra estructura de ganancias limitadas significa que no estamos incentivados a obtener rendimientos ilimitados», tuiteó.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tu historial de conversaciones de ChatGPT ahora se puede buscar
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

IA abierta
OpenAI presentó el martes una nueva forma de administrar de manera más eficiente su creciente historial de chat de ChatGPT: una función de búsqueda para la aplicación web. Con él, podrás sacar rápidamente a la luz referencias y chats anteriores para citar dentro de tu conversación actual de ChatGPT.

"Estamos comenzando a implementar la capacidad de buscar en su historial de chat en la web de ChatGPT", anunció la compañía a través de una publicación en X (anteriormente Twitter). "Ahora puedes abrir rápida y fácilmente un chat como referencia, o retomar un chat donde lo dejaste".

Leer más
El lanzamiento del Mac M4 será ahora, pero no como esperamos
MacBook

Los últimos meses han estado llenos de especulaciones, anticipación y rumores bastante salvajes sobre los próximos Mac M4, y ahora la fecha de lanzamiento prevista para el 1 de noviembre está a solo una semana más o menos. A pesar de la falta de un anuncio del evento, Mark Gurman de Bloomberg todavía cree que el lanzamiento es "inminente", con un anuncio que se estima que llegará el 30 de octubre.

Según él, las Apple Stores se están quedando sin unidades iMac, Mac mini, MacBook Pro, Magic Keyboard, Magic Mouse y Magic Trackpad, y esto suele suceder cuando las actualizaciones están a punto de ser lanzadas.

Leer más
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más