Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

GPT-4 Turbo: la mayor actualización hasta el momento de ChatGPT

Una persona escribiendo en una computadora portátil que muestra el sitio web de IA generativa ChatGPT.
Matheus Bertelli / Pexels

OpenAI acaba de presentar las últimas actualizaciones de sus grandes modelos de lenguaje (LLM) durante su primera conferencia de desarrolladores, y la mejora más notable es el lanzamiento de GPT-4 Turbo, que actualmente está entrando en versión preliminar. GPT-4 Turbo llega como una actualización del GPT-4 existente, que trae consigo una ventana de contexto mucho mayor y acceso a conocimientos mucho más nuevos. Aquí tienes todo lo que necesitas saber sobre GPT-4 Turbo.

OpenAI afirma que el modelo de IA será más potente y, al mismo tiempo, más barato que sus predecesores. A diferencia de las versiones anteriores, ha sido entrenado con información que data de abril de 2023. Esa es una actualización considerable por sí sola: la última versión llegó al máximo en septiembre de 2021. Acabo de probarlo yo mismo y, de hecho, el uso de GPT-4 permite a ChatGPT extraer información de eventos que ocurrieron hasta abril de 2023, por lo que esa actualización ya está activa.

Recommended Videos

GPT-4 Turbo tiene una ventana de contexto significativamente mayor que las versiones anteriores. Esto es esencialmente lo que GPT-4 Turbo tiene en cuenta antes de generar cualquier texto en respuesta. Con ese fin, ahora tiene una ventana de contexto de 128,000 tokens (esta es la unidad de texto o código que leen los LLM), que, como revela OpenAI en su publicación de blog, es el equivalente a alrededor de 300 páginas de texto.

Se trata de toda una novela que podrías alimentar a ChatGPT en el transcurso de una sola conversación, y una ventana de contexto mucho mayor que la que tenían las versiones anteriores (8.000 y 32.000 tokens).

Las ventanas contextuales son importantes para los LLM porque les ayudan a mantenerse en el tema. Si interactúa con modelos de lenguaje grandes, descubrirá que pueden salirse del tema si la conversación se prolonga demasiado. Esto puede producir algunas respuestas bastante desquiciadas y desconcertantes, como aquella vez que Bing Chat nos dijo que quería ser humano. GPT-4 Turbo, si todo va bien, debería mantener a raya la locura durante mucho más tiempo que el modelo actual.

GPT-4 Turbo también será más barato de ejecutar para los desarrolladores, con un costo reducido a $ 0.01 por cada 1,000 tokens de entrada, lo que se redondea a aproximadamente 750 palabras, mientras que los resultados costarán $ 0.03 por 1,000 tokens. OpenAI estima que esta nueva versión es tres veces más barata que las anteriores.

La compañía también dice que GPT-4 Turbo hace un mejor trabajo al seguir las instrucciones cuidadosamente, y se le puede decir que use el lenguaje de codificación de su elección para producir resultados, como XML o JSON. GPT-4 Turbo también admitirá imágenes y texto a voz, y seguirá ofreciendo integración con DALL-E 3.

La pantalla de una computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

Esta no fue la única gran revelación de OpenAI, que también introdujo GPT, versiones personalizadas de ChatGPT que cualquiera puede hacer para su propio propósito específico sin conocimientos de codificación. Estos GPT se pueden hacer para uso personal o de la empresa, pero también se pueden distribuir a otros. OpenAI dice que los GPT están disponibles hoy para los suscriptores de ChatGPT Plus y los usuarios empresariales.

Por último, a la luz de las constantes preocupaciones sobre los derechos de autor, OpenAI se une a Google y Microsoft al decir que asumirá la responsabilidad legal si sus clientes son demandados por infracción de derechos de autor.

Con la enorme ventana de contexto, el nuevo escudo de derechos de autor y una capacidad mejorada para seguir instrucciones, GPT-4 Turbo podría convertirse tanto en una bendición como en una maldición. ChatGPT es bastante bueno para no hacer cosas que no debería hacer, pero aún así, tiene un lado oscuro. Esta nueva versión, aunque infinitamente más capaz, también puede tener los mismos inconvenientes que otros LLM, excepto que esta vez, será con esteroides.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
OpenAI ahora advierte del riesgo «medio» de GPT-4o
GPT-4o

Han pasado casi dos meses desde que OpenAI lanzó su revolucionario nuevo sistema GPT-4o, que incursionaba en la interacción conversacional y por audio con el usuario.

Bueno, recién después de este tiempo, la gente de la compañía lanzó resultados de una evaluación de seguridad que hicieron al nuevo protocolo.

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más