El mundo de la IA se despertó este lunes 27 de enero en Estados Unidos en pánico, con OpenAI y Perplexity y otras plataformas mirando con atención la aparición en el top 1 de descargas de la App Store de Apple de DeepSeek AI, un modelo de IA proveniente de China que se caracteriza a grandes rasgos por ser de código abierto y donde además los usuarios comentan que la función de búsqueda que acompaña a DeepSeek ahora es superior a competidores como OpenAI y Perplexity, y solo rivaliza con Gemini Deep Research de Google.
DeepSeek afirma que DeepSeek R1 supera a los modelos de IA de la competencia en varios puntos de referencia clave.
Desmenuzando DeepSeek
Una de las primeras conclusiones que sacan los expertos con esta aparición es que el lanzamiento de DeepSeek podría democratizar el acceso a las capacidades de IA de vanguardia, lo que permitiría a las organizaciones más pequeñas competir de manera efectiva.
DeepSeek es de uso gratuito en la web y como aplicación para teléfonos inteligentes, y la compañía cobra mucho menos por el acceso a la API que OpenAI por su modelo de IA de razonamiento más avanzado. Durante el fin de semana aparecieron numerosos hilos en las redes sociales con ejemplos de personas que ejecutan DeepSeek en hardware bastante modesto o lo utilizan para realizar tareas complejas.
En noviembre, DeepSeek fue noticia con su anuncio de que había logrado un rendimiento que superaba el o1 de OpenAI, pero en ese momento solo ofrecía un modelo de vista previa R1-lite limitado. Con el lanzamiento completo de R1 el lunes y el documento técnico que lo acompaña, la compañía reveló una innovación sorprendente: una desviación deliberada del proceso convencional de ajuste fino supervisado (SFT) ampliamente utilizado en el entrenamiento de grandes modelos de lenguaje (LLM).
SFT, un paso estándar en el desarrollo de IA, implica entrenar modelos en conjuntos de datos seleccionados para enseñar un razonamiento paso a paso, a menudo denominado cadena de pensamiento (CoT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, DeepSeek desafió esta suposición al omitir SFT por completo, optando en su lugar por confiar en el aprendizaje por refuerzo (RL) para entrenar el modelo.
Los investigadores concluyen sobre RL: «Subraya el poder y la belleza del aprendizaje por refuerzo: en lugar de enseñar explícitamente al modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos adecuados y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas».
DeepSeek es parte del fondo de cobertura chino High-Flyer Quant, que comenzó desarrollando modelos de IA para su chatbot patentado antes de lanzarlos para uso público.
Para entrenar sus modelos, High-Flyer Quant aseguró más de 10,000 GPU Nvidia antes de las restricciones de exportación de EE. UU. y, según se informa, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAI, Google y Anthropic, que operan con más de 500.000 GPU cada uno.
Según los informes, DeepSeek entrenó su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de Nvidia Jim Fan.
¿Nvidia el gran perdedor?
El lanzamiento y la repentina popularidad de DeepSeek también podrían afectar al mercado de valores de EE. UU., donde Nvidia actualmente reina como la empresa más grande por capitalización de mercado. Hay indicios de que DeepSeek se ha construido y entrenado por mucho menos que los modelos competidores con sede en EE. UU., como Llama de Meta y ChatGPT de OpenAI. Esto, a su vez, podría significar una demanda más débil de hardware de Nvidia, que se usa comúnmente para aplicaciones de IA de gama alta.