Skip to main content

OpenAI presenta GPT-4o: su nuevo modelo que conversa contigo

Digital Trends Español

OpenAI está lanzando un nuevo modelo insignia de IA generativa llamado GPT-4o, que se implementará «iterativamente» en todos los productos de la compañía en las próximas semanas.

El CTO de OpenAI, Muri Murati, dijo que GPT-4o proporciona inteligencia de «nivel GPT-4», pero mejora las capacidades de GPT-4 en texto y visión, así como en audio.

Recommended Videos

«GPT-4o razona a través de la voz, el texto y la visión», dijo Murati en una presentación en las oficinas de OpenAI.

En una demostración en vivo, dos ingenieros de OpenAI pudieron hablar y razonar incluso con un ejercicio matemático con un ChatGPT que les respondía de manera consistente y rápida.

GPT-4o
Digital Trends Español

GPT-4o mejora en gran medida la experiencia de ChatGPT: ChatGPT es el chatbot viral impulsado por IA de OpenAI. ChatGPT ha ofrecido durante mucho tiempo un modo de voz que transcribe texto de ChatGPT utilizando un modelo de texto a voz. GPT-4o potencia esto, permitiendo a los usuarios interactuar con ChatGPT como un asistente.

Una de las demostraciones más poderosas además fue la traducción en directo de una conversación del italiano al inglés.

Acá hay una muestra cortesía de Techcrunch:

OpenAI's new generative AI model GPT-4o | TechCrunch

La definición de OpenAI

«GPT-4o («o» de «omni») es un paso hacia una interacción humano-computadora mucho más natural: acepta como entrada cualquier combinación de texto, audio e imagen y genera cualquier combinación de salidas de texto, audio e imagen. Puede responder a las entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a Tiempo de respuesta humana en una conversación. Iguala el rendimiento de GPT-4 Turbo en texto en inglés y código, con una mejora significativa en el texto en idiomas distintos del inglés, a la vez que es mucho más rápido y un 50% más barato en la API. GPT-4o es especialmente mejor en la visión y la comprensión del audio en comparación con los modelos existentes».

«Antes de GPT-4o, podías usar el modo de voz para hablar con ChatGPT con latencias de 2,8 segundos (GPT-3,5) y 5,4 segundos (GPT-4) de media. Para lograr esto, el modo de voz es una canalización de tres modelos separados: un modelo simple transcribe audio a texto, GPT-3.5 o GPT-4 toma texto y emite texto, y un tercer modelo simple convierte ese texto nuevamente en audio. Este proceso significa que la principal fuente de inteligencia, GPT-4, pierde mucha información: no puede observar directamente el tono, los múltiples altavoces o los ruidos de fondo, y no puede emitir risas, cantos o expresar emociones.

Con GPT-4o, entrenamos un único modelo nuevo de extremo a extremo a través de texto, visión y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal. Debido a que GPT-4o es nuestro primer modelo que combina todas estas modalidades, todavía estamos arañando la superficie de la exploración de lo que el modelo puede hacer y sus limitaciones».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Google llegó tu hora?: Debuta SearchGPT, el buscador de OpenAI
SearchGPT

Este 25 de julio podría quedar marcado a fuego en la industria de internet y los buscadores web, ya que OpenAI anunció su tan esperado SearchGPT, que pretende estar a la par de Google y disputarle el trono.

"Estamos probando SearchGPT, un prototipo temporal de las nuevas funciones de búsqueda de IA que le brindan respuestas rápidas y oportunas con fuentes claras y relevantes", comenta de inicio la empresa tras ChatGPT de Sam Altman.

Leer más
OpenAI lanza su versión GPT-4o mini para expandir su poder
Chat GPT IA Phone

Este jueves, OpenAI acaba de anunciar una nueva variante de su último modelo de IA, que llevará por nombre GPT-4o mini,  el último esfuerzo de la startup de inteligencia artificial para expandir el uso de su popular chatbot.

La compañía calificó la nueva versión como "el modelo pequeño más capaz y rentable disponible en la actualidad", y planea integrar imagen, video y audio en él más adelante.

Leer más
Afírmate GPT-4o: Anthropic dice que ha creado la IA más potente
Anthropic

La compañía francesa Anthropic dice que está dando un salto cualitativo en lo que respecta a la IA generativa, incluso haciendo peligrar los avances de GPT-4o de OpenAI.

Claude 3.5 Sonnet tiene la capacidad de analizar texto e imágenes, además de generar texto, y representa el modelo de más alto rendimiento de Anthropic hasta la fecha, al menos teóricamente. En diversas pruebas de referencia de inteligencia artificial en áreas como lectura, programación, matemáticas y visión por computadora, Claude 3.5 Sonnet no solo mejora los resultados del modelo que reemplaza, Claude 3 Sonnet, sino que también supera al anterior modelo estrella de Anthropic, Claude 3 Opus.

Leer más