Skip to main content
  1. Casa
  2. Computación
  3. Features

¿Qué es DeepSeek AI y por qué tiene asustados y en jaque a ChatGPT y todos los demás?

DeepSeek
DTES

El mundo de la IA se despertó este lunes 27 de enero en Estados Unidos en pánico, con OpenAI y Perplexity y otras plataformas mirando con atención la aparición en el top 1 de descargas de la App Store de Apple de DeepSeek AI, un modelo de IA proveniente de China que se caracteriza a grandes rasgos por ser de código abierto y donde además los usuarios comentan que la función de búsqueda que acompaña a DeepSeek ahora es superior a competidores como OpenAI y Perplexity, y solo rivaliza con Gemini Deep Research de Google.

DeepSeek afirma que DeepSeek R1 supera a los modelos de IA de la competencia en varios puntos de referencia clave.

🚀 DeepSeek-R1 is here!

⚡ Performance on par with OpenAI-o1
📖 Fully open-source model & technical report
🏆 MIT licensed: Distill & commercialize freely!

🌐 Website & API are live now! Try DeepThink at https://t.co/v1TFy7LHNy today!

🐋 1/n pic.twitter.com/7BlpWAPu6y

— DeepSeek (@deepseek_ai) January 20, 2025

Desmenuzando DeepSeek

Una de las primeras conclusiones que sacan los expertos con esta aparición es que el lanzamiento de DeepSeek podría democratizar el acceso a las capacidades de IA de vanguardia, lo que permitiría a las organizaciones más pequeñas competir de manera efectiva.

Recommended Videos

DeepSeek es de uso gratuito en la web y como aplicación para teléfonos inteligentes, y la compañía cobra mucho menos por el acceso a la API que OpenAI por su modelo de IA de razonamiento más avanzado. Durante el fin de semana aparecieron numerosos hilos en las redes sociales con ejemplos de personas que ejecutan DeepSeek en hardware bastante modesto o lo utilizan para realizar tareas complejas.

 

Imagen utilizada con permiso del titular de los derechos de autor

En noviembre, DeepSeek fue noticia con su anuncio de que había logrado un rendimiento que superaba el o1 de OpenAI, pero en ese momento solo ofrecía un modelo de vista previa R1-lite limitado. Con el lanzamiento completo de R1 el lunes y el documento técnico que lo acompaña, la compañía reveló una innovación sorprendente: una desviación deliberada del proceso convencional de ajuste fino supervisado (SFT) ampliamente utilizado en el entrenamiento de grandes modelos de lenguaje (LLM).

SFT, un paso estándar en el desarrollo de IA, implica entrenar modelos en conjuntos de datos seleccionados para enseñar un razonamiento paso a paso, a menudo denominado cadena de pensamiento (CoT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, DeepSeek desafió esta suposición al omitir SFT por completo, optando en su lugar por confiar en el aprendizaje por refuerzo (RL) para entrenar el modelo.

Los investigadores concluyen sobre RL: «Subraya el poder y la belleza del aprendizaje por refuerzo: en lugar de enseñar explícitamente al modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos adecuados y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas».

DeepSeek es parte del fondo de cobertura chino High-Flyer Quant, que comenzó desarrollando modelos de IA para su chatbot patentado antes de lanzarlos para uso público. 

Para entrenar sus modelos, High-Flyer Quant aseguró más de 10,000 GPU Nvidia antes de las restricciones de exportación de EE. UU. y, según se informa, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAI, Google y Anthropic, que operan con más de 500.000 GPU cada uno.

Según los informes, DeepSeek entrenó su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de Nvidia Jim Fan.

¿Nvidia el gran perdedor?

El lanzamiento y la repentina popularidad de DeepSeek también podrían afectar al mercado de valores de EE. UU., donde Nvidia actualmente reina como la empresa más grande por capitalización de mercado. Hay indicios de que DeepSeek se ha construido y entrenado por mucho menos que los modelos competidores con sede en EE. UU., como Llama de Meta y ChatGPT de OpenAI. Esto, a su vez, podría significar una demanda más débil de hardware de Nvidia, que se usa comúnmente para aplicaciones de IA de gama alta.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
Cinco razones por las que ChatGPT en realidad escribe mal y no debes confiar en sus resultados
como activar chatgpt whatsapp

Cuando han pasado más de dos años desde la implementación más universal de ChatGPT, los usuarios aún no confían del todo en las ofertas que promete el chatbot de OpenAI, ya sea por desconocimiento, o por usar malos prompts o porque a la gente le da pereza realizar un paso esencial en todo uso de IA: revisar y editar con ayuda de datos.

Bueno, dentro de las facilidades de usar ChatGPT, está la opción de escribir y redactar textos con esta IA, con resultados muchas veces impresionante, como producir un lenguaje que sea natural, coherente, incluso ingenioso e interesante.

Leer más
Las preguntas divertidas para ChatGPT ahora que tiene memoria y recuerda todo
ChatGPT en un celular

Los últimos modelos de lenguaje de OpenAI para su aplicación en ChatGPT, ahora tiene una conexión cada vez más grande contigo, ya que tiene la capacidad de recordar la interacción histórica, en temas, datos y preguntas que le hayas hecho a la IA.

Y eso abre un mar de oportunidades, porque aún cuando parezca algo espeluznante y que se podría salir de las manos, es una alternativa como asistente personal y recordar ciertas rutinas.

Leer más
OpenAI o3 y o4-mini: lo que debes saber de los nuevos modelos de ChatGPT
OpenAI

Este miércoles 16 de abril, la gente de OpenAI presentó oficialmente sus dos nuevos modelos de razonamiento: o3 y o4-mini, que prometen mayor capacidad de racionamiento y además una interacción con imágenes que subirá un escalón la comprensión visual.

"Por primera vez, nuestros modelos de razonamiento pueden usar y combinar de forma agentiva todas las herramientas dentro de ChatGPT, esto incluye buscar en la web, analizar archivos cargados y otros datos con Python, razonar profundamente sobre las entradas visuales e incluso generar imágenes. Fundamentalmente, estos modelos están entrenados para razonar sobre cuándo y cómo usar herramientas para producir respuestas detalladas y reflexivas en los formatos de salida correctos, generalmente en menos de un minuto, para resolver problemas más complejos. El poder combinado del razonamiento de última generación con acceso completo a herramientas se traduce en un rendimiento significativamente más sólido en los puntos de referencia académicos y las tareas del mundo real, estableciendo un nuevo estándar tanto en inteligencia como en utilidad", sostiene la gente de OpenAI.

Leer más