Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

¿Cuánta plata cuesta cada consulta qué haces a ChatGPT?

Un nuevo informe afirma saber cuánto cuesta ejecutar ChatGPT por día, incluido cuánto cuesta aproximadamente cada consulta. El popular chatbot de texto a voz podría haber desencadenado una revolución de IA en noviembre de 2022, pero ha demostrado ser extremadamente costoso de mantener.

El nuevo informe proviene de Dylan Patel, analista jefe de la firma de investigación SemiAnalysis, quien dice que cuesta aproximadamente $ 700,000 por día, o 36 centavos por consulta, mantener el chatbot en funcionamiento.

Recommended Videos

Es tan caro, de hecho, que Microsoft podría estar desarrollando sus propios chips de IA patentados para ayudar en el mantenimiento de la operación de OpenAI de ChatGPT, según Windows Central.

El sitio web de ChatGPT en la pantalla de una computadora portátil mientras la computadora portátil se sienta en un mostrador frente a un fondo negro.
Airam Dato-on/Pexels

Además de alcanzar rápidamente los 100 millones de usuarios activos en enero, una hazaña que las marcas tecnológicas tardaron años en lograr, ChatGPT ha luchado con problemas de alto tráfico y capacidad que ralentizan y bloquean sus servidores. La compañía intentó remediar esto introduciendo un nivel pagado de ChatGPT Plus, que cuesta $ 20 por mes, sin embargo, no se sabe cuántos usuarios se suscriben a la opción paga.

OpenAI actualmente utiliza GPU Nvidia para mantener no solo sus propios procesos de ChatGPT, sino también los de las marcas con las que se asocia. Los analistas de la industria esperan que la compañía probablemente requiera 30,000 GPU adicionales de Nvidia para mantener su rendimiento comercial solo durante el resto de 2023.

Con Microsoft como uno de sus principales colaboradores e inversores, OpenAI podría estar buscando a la marca tecnológica para ayudar en el desarrollo de hardware para reducir el costo de las operaciones de ChatGPT. Según Windows Central, Microsoft ya tiene este chip de IA en proceso. Con nombre en código Athena, actualmente se está probando internamente con los propios equipos de la marca. Se espera que el chip se introduzca el próximo año para los servicios Azure AI de Microsoft.

No se sabe cómo o cuándo el chip se filtrará a OpenAI y ChatGPT, pero la suposición es que lo hará. La conexión proviene del hecho de que ChatGPT es compatible con los servicios de Azure. El chip de IA podría no reemplazar completamente las GPU Nvidia, pero podría ayudar a disminuir la demanda del hardware, reduciendo así el costo de ejecutar ChatGPT, agregó Windows Central.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El CEO de Nvidia furioso con sus directivos que piden usar menos IA
Jensen Huang

El CEO de Nvidia, Jensen Huang, es un convencido de que la inteligencia artificial es una herramienta fundamental para beneficio de la humanidad, por eso es que su compañía está tan obsesionada con construir chips y tecnología para la IA.

Huang, está diciendo a los empleados que se apoyen en la inteligencia artificial tanto como sea posible y que dejen de preocuparse de que hacerlo les quite el trabajo automáticamente.

Leer más
Ahora puedes crear vídeos divertidos de IA a partir de texto con Grok
Grok

¿Qué ha pasado? Si te encanta hacer vídeos creativos, ahora tienes otra plataforma con la que jugar. Grok Imagine, la herramienta de IA de xAI de Elon Musk, ahora soporta la función de texto a vídeo. La actualización fue anunciada en X por Elon Musk, trayendo la generación de vídeo directamente a la plataforma que quizá ya uses. Esto significa que puedes transformar una idea aleatoria en un vídeo corto escribiéndola en X tan fácilmente como compartiendo un tuit.

La nueva función Grok Imagine está desplegándose actualmente en la web, Android y la aplicación de iOS.

Leer más
Ahora por fin puedes hablar y escribir al mismo tiempo en ChatGPT
ChatGPT

Hasta ahora hablar con ChatGPT nunca se sintió muy natural y siempre había que ir necesariamente en otra ventana. Bueno, OpenAI acaba de arreglar eso. Está lanzando una actualización masiva que te permite chatear con tu voz justo dentro de la ventana normal de mensajes. Ya no hay burbujas azules ocupando tu pantalla.

Antes de esto, activar el modo voz significaba mirar ese círculo azul flotante. No podías ver tus mensajes antiguos, y si te faltabas una palabra, tenías que salir solo para leer la transcripción. Arruinó totalmente el ambiente. Con este rediseño, OpenAI finalmente trata la voz como una parte normal de la conversación, eliminando esa fricción.

Leer más