Skip to main content
  1. Home
  2. Computación
  3. Features

¿Qué es DeepSeek AI y por qué tiene asustados y en jaque a ChatGPT y todos los demás?

Add as a preferred source on Google
DeepSeek
DTES

El mundo de la IA se despertó este lunes 27 de enero en Estados Unidos en pánico, con OpenAI y Perplexity y otras plataformas mirando con atención la aparición en el top 1 de descargas de la App Store de Apple de DeepSeek AI, un modelo de IA proveniente de China que se caracteriza a grandes rasgos por ser de código abierto y donde además los usuarios comentan que la función de búsqueda que acompaña a DeepSeek ahora es superior a competidores como OpenAI y Perplexity, y solo rivaliza con Gemini Deep Research de Google.

DeepSeek afirma que DeepSeek R1 supera a los modelos de IA de la competencia en varios puntos de referencia clave.

🚀 DeepSeek-R1 is here!

⚡ Performance on par with OpenAI-o1
📖 Fully open-source model & technical report
🏆 MIT licensed: Distill & commercialize freely!

🌐 Website & API are live now! Try DeepThink at https://t.co/v1TFy7LHNy today!

🐋 1/n pic.twitter.com/7BlpWAPu6y

— DeepSeek (@deepseek_ai) January 20, 2025

Desmenuzando DeepSeek

Una de las primeras conclusiones que sacan los expertos con esta aparición es que el lanzamiento de DeepSeek podría democratizar el acceso a las capacidades de IA de vanguardia, lo que permitiría a las organizaciones más pequeñas competir de manera efectiva.

Recommended Videos

DeepSeek es de uso gratuito en la web y como aplicación para teléfonos inteligentes, y la compañía cobra mucho menos por el acceso a la API que OpenAI por su modelo de IA de razonamiento más avanzado. Durante el fin de semana aparecieron numerosos hilos en las redes sociales con ejemplos de personas que ejecutan DeepSeek en hardware bastante modesto o lo utilizan para realizar tareas complejas.

 

Imagen utilizada con permiso del titular de los derechos de autor

En noviembre, DeepSeek fue noticia con su anuncio de que había logrado un rendimiento que superaba el o1 de OpenAI, pero en ese momento solo ofrecía un modelo de vista previa R1-lite limitado. Con el lanzamiento completo de R1 el lunes y el documento técnico que lo acompaña, la compañía reveló una innovación sorprendente: una desviación deliberada del proceso convencional de ajuste fino supervisado (SFT) ampliamente utilizado en el entrenamiento de grandes modelos de lenguaje (LLM).

SFT, un paso estándar en el desarrollo de IA, implica entrenar modelos en conjuntos de datos seleccionados para enseñar un razonamiento paso a paso, a menudo denominado cadena de pensamiento (CoT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, DeepSeek desafió esta suposición al omitir SFT por completo, optando en su lugar por confiar en el aprendizaje por refuerzo (RL) para entrenar el modelo.

Los investigadores concluyen sobre RL: «Subraya el poder y la belleza del aprendizaje por refuerzo: en lugar de enseñar explícitamente al modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos adecuados y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas».

DeepSeek es parte del fondo de cobertura chino High-Flyer Quant, que comenzó desarrollando modelos de IA para su chatbot patentado antes de lanzarlos para uso público. 

Para entrenar sus modelos, High-Flyer Quant aseguró más de 10,000 GPU Nvidia antes de las restricciones de exportación de EE. UU. y, según se informa, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAI, Google y Anthropic, que operan con más de 500.000 GPU cada uno.

Según los informes, DeepSeek entrenó su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de Nvidia Jim Fan.

¿Nvidia el gran perdedor?

El lanzamiento y la repentina popularidad de DeepSeek también podrían afectar al mercado de valores de EE. UU., donde Nvidia actualmente reina como la empresa más grande por capitalización de mercado. Hay indicios de que DeepSeek se ha construido y entrenado por mucho menos que los modelos competidores con sede en EE. UU., como Llama de Meta y ChatGPT de OpenAI. Esto, a su vez, podría significar una demanda más débil de hardware de Nvidia, que se usa comúnmente para aplicaciones de IA de gama alta.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
La máquina pensante: así es el libro sobre el CEO de Nvidia
Libro la máquina pensante

En junio de 2024, impulsada por el auge de la inteligencia artificial tras el lanzamiento de ChatGPT, Nvidia se convirtió en la corporación más valiosa del mundo. Tres décadas después de su fundación en un restaurante Denny’s, la compañía pasó de fabricar componentes para videojuegos a liderar el mercado global del hardware para IA. Esta transformación histórica es el eje central de La máquina pensante, el nuevo libro del periodista Stephen Witt.

En esta obra, Witt narra cómo Jensen Huang, cofundador y director general de Nvidia, apostó hace más de una década por una tecnología que entonces parecía marginal: la inteligencia artificial. Una decisión arriesgada que terminó redefiniendo la arquitectura del ordenador moderno y situando a la compañía en el centro de la revolución tecnológica actual.

Read more
El papá de Signal crea Confer: la privacidad en asistentes de IA
Electronics, Mobile Phone, Phone

Moxie Marlinspike, el ingeniero que revolucionó la comunicación privada mediante Signal, anunció oficialmente Confer, un servicio de asistente de inteligencia artificial diseñado específicamente para garantizar privacidad de extremo a extremo en conversaciones con sistemas de IA. El proyecto, disponible en fase de prueba inicial, implementa arquitecturas criptográficas que previenen que operadores de plataforma, piratas informáticos o gobiernos accedan a contenido de chat.

Confer fundamenta su propuesta en una premisa central: interacciones con asistentes de inteligencia artificial deberían ser tan privadas como conversaciones entre personas. Actualmente, plataformas como ChatGPT funcionan como "lagos de datos públicos," donde los usuarios comparten pensamientos incompletos, patrones de razonamiento y puntos de incertidumbre que permanecen registrados indefinidamente. Un decreto judicial en mayo de 2025 requirió a OpenAI preservar registros completos de conversaciones de usuarios, incluyendo chats eliminados.

Read more
Tu próximo mini PC retro puede parecer una PlayStation clásica
Mini PC retro

Acemagic está aprovechando el ambiente retro de mini PC con un nuevo diseño que toma elementos de la Sega Dreamcast y la PlayStation original. Es un pequeño escritorio que parece pertenecer a la misma estantería que tus consolas antiguas, no oculto tras un monitor.

No fue el único homenaje al pasado que se mostró en el CES 2026. Acemagic también trajo un mini PC inspirado en NES, pero el modelo al estilo Dreamcast y PlayStation es el que está vinculado a la última plataforma de AMD.

Read more