Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Esta actualización masiva de ChatGPT llegará en enero, y no es GPT-5

ChatGPT en un portátil

OpenAI lanzará un nuevo agente de IA en enero, con el nombre en clave Operator, que permitirá a ChatGPT actuar en nombre del usuario. Es posible que nunca más tenga que reservar sus propios vuelos.

El liderazgo de la compañía hizo el anuncio durante una reunión de personal el miércoles, informa Bloomberg. La compañía planea implementar la nueva función como una vista previa de la investigación a través de la API para desarrolladores de la compañía.

Recommended Videos

Los agentes de IA difieren significativamente de los programas tradicionales. En lugar de seguir un conjunto de instrucciones predefinidas, los agentes pueden percibir de forma autónoma su entorno, procesar información y tomar decisiones para realizar tareas o resolver problemas, como generar código informático complejo o reservar arreglos de viaje.

OpenAI no está sola en sus esfuerzos. Anthropic lanzó recientemente su función de control por computadora, que permite que el modelo manipule un entorno de escritorio de la misma manera que lo harían los usuarios humanos. De manera similar, Microsoft presentó su función de agente de IA a fines de octubre. Está diseñado para manejar el trabajo de oficina monótono, como administrar los registros de los empleados y redactar correos electrónicos. Google también está trabajando en sus propios agentes de IA, cuyo nombre en código es Jarvis, y podría previsualizarlo a finales de año.

«Tendremos modelos cada vez mejores», escribió el CEO de OpenAI, Sam Altman, durante una sesión de AMA en Reddit el mes pasado. «Pero creo que lo que se sentirá como el próximo gran avance serán los agentes». Según las fuentes de Bloomberg, OpenAI está trabajando en múltiples estilos de agentes de IA, siendo la versión más lista para producción un asistente general que podrá realizar acciones a través de un navegador web.

El anuncio se produce en un momento en el que los principales desarrolladores de IA se enfrentan a graves rendimientos decrecientes del ritmo de avance de sus modelos fronterizos y a un aumento vertiginoso de los requisitos de energía y agua. La esperanza aquí, aparentemente, es que si los desarrolladores no pueden simplemente forzar el próximo modelo GPT-5 para obtener mejores métricas de rendimiento, los harán más útiles.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más
¿Por qué ChatGPT es malo en matemáticas?
ChatGPT buscador

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.
Es que las matemáticas no son lo suyo

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Leer más
Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Leer más