OpenAI acaba de presentar las últimas actualizaciones de sus grandes modelos de lenguaje (LLM) durante su primera conferencia de desarrolladores, y la mejora más notable es el lanzamiento de GPT-4 Turbo, que actualmente está entrando en versión preliminar. GPT-4 Turbo llega como una actualización del GPT-4 existente, que trae consigo una ventana de contexto mucho mayor y acceso a conocimientos mucho más nuevos. Aquí tienes todo lo que necesitas saber sobre GPT-4 Turbo.
OpenAI afirma que el modelo de IA será más potente y, al mismo tiempo, más barato que sus predecesores. A diferencia de las versiones anteriores, ha sido entrenado con información que data de abril de 2023. Esa es una actualización considerable por sí sola: la última versión llegó al máximo en septiembre de 2021. Acabo de probarlo yo mismo y, de hecho, el uso de GPT-4 permite a ChatGPT extraer información de eventos que ocurrieron hasta abril de 2023, por lo que esa actualización ya está activa.
GPT-4 Turbo tiene una ventana de contexto significativamente mayor que las versiones anteriores. Esto es esencialmente lo que GPT-4 Turbo tiene en cuenta antes de generar cualquier texto en respuesta. Con ese fin, ahora tiene una ventana de contexto de 128,000 tokens (esta es la unidad de texto o código que leen los LLM), que, como revela OpenAI en su publicación de blog, es el equivalente a alrededor de 300 páginas de texto.
Se trata de toda una novela que podrías alimentar a ChatGPT en el transcurso de una sola conversación, y una ventana de contexto mucho mayor que la que tenían las versiones anteriores (8.000 y 32.000 tokens).
Las ventanas contextuales son importantes para los LLM porque les ayudan a mantenerse en el tema. Si interactúa con modelos de lenguaje grandes, descubrirá que pueden salirse del tema si la conversación se prolonga demasiado. Esto puede producir algunas respuestas bastante desquiciadas y desconcertantes, como aquella vez que Bing Chat nos dijo que quería ser humano. GPT-4 Turbo, si todo va bien, debería mantener a raya la locura durante mucho más tiempo que el modelo actual.
GPT-4 Turbo también será más barato de ejecutar para los desarrolladores, con un costo reducido a $ 0.01 por cada 1,000 tokens de entrada, lo que se redondea a aproximadamente 750 palabras, mientras que los resultados costarán $ 0.03 por 1,000 tokens. OpenAI estima que esta nueva versión es tres veces más barata que las anteriores.
La compañía también dice que GPT-4 Turbo hace un mejor trabajo al seguir las instrucciones cuidadosamente, y se le puede decir que use el lenguaje de codificación de su elección para producir resultados, como XML o JSON. GPT-4 Turbo también admitirá imágenes y texto a voz, y seguirá ofreciendo integración con DALL-E 3.
Esta no fue la única gran revelación de OpenAI, que también introdujo GPT, versiones personalizadas de ChatGPT que cualquiera puede hacer para su propio propósito específico sin conocimientos de codificación. Estos GPT se pueden hacer para uso personal o de la empresa, pero también se pueden distribuir a otros. OpenAI dice que los GPT están disponibles hoy para los suscriptores de ChatGPT Plus y los usuarios empresariales.
Por último, a la luz de las constantes preocupaciones sobre los derechos de autor, OpenAI se une a Google y Microsoft al decir que asumirá la responsabilidad legal si sus clientes son demandados por infracción de derechos de autor.
Con la enorme ventana de contexto, el nuevo escudo de derechos de autor y una capacidad mejorada para seguir instrucciones, GPT-4 Turbo podría convertirse tanto en una bendición como en una maldición. ChatGPT es bastante bueno para no hacer cosas que no debería hacer, pero aún así, tiene un lado oscuro. Esta nueva versión, aunque infinitamente más capaz, también puede tener los mismos inconvenientes que otros LLM, excepto que esta vez, será con esteroides.