Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. Tendencias
  5. News

DeepSeek coder: qué es y cómo funciona

DeepSeek
DTES

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.

Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.

Recommended Videos

En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 

DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.

«Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct», dicen en DeepSeek.

  • Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
  • Varios tamaños de modelo (1.3B5.7B6.7B y 33B) para cumplir con diferentes requisitos.
  • Un tamaño de ventana de 16K, que admite la finalización y el relleno de código a nivel de proyecto.
  • Rendimiento de última generación entre modelos de código abierto.
  • Código abierto y gratuito para investigación y uso comercial.

En su sitio de GitHub, DeepSeek afirma que  «Si desea utilizar DeepSeek-Coder-V2 en formato BF16 para la inferencia, se requieren GPU de 80 GB*8».

Rendimiento de DeepSeek coder

En las evaluaciones de referencia estándar, y según ellos mismos muestran, DeepSeek-Coder-V2 logra un rendimiento superior en comparación con los modelos de código cerrado como GPT4-Turbo, Claude 3 Opus y Gemini 1.5 Pro en las pruebas comparativas de codificación y matemáticas:

Imagen utilizada con permiso del titular de los derechos de autor

«DeepSeek-Coder-V2 demuestra avances significativos en varios aspectos de las tareas relacionadas con el código, así como en el razonamiento y las capacidades generales. Además, DeepSeek-Coder-V2 amplía su compatibilidad con lenguajes de programación de 86 a 338, al tiempo que amplía la longitud del contexto de 16K a 128K», dice la compañía china.

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
CES 2026 responderá a grandes preguntas sobre las GPUs RTX 50 Super
Photography, Clothing, Coat

Con su arquitectura Blackwell bien establecida en centros de datos de IA, servicios en la nube, estaciones de trabajo y ordenadores de sobremesa/portátiles, el evento de prensa CES 2026 de Nvidia probablemente se centrará menos en los nuevos lanzamientos. Más bien, se espera que la compañía profundice en los refinamientos, las señales de hoja de ruta y cómo planea impulsar su pila de hardware y software durante el próximo año.

Nvidia ha confirmado que el fundador y CEO Jensen Huang ofrecerá la ponencia inaugural del CES el 5 de enero, un día antes de la apertura principal del CES. CES se ha convertido en una de las etapas más importantes del año para Nvidia, aunque la compañía no esté lanzando una nueva generación de GPUs.

Read more
Olvídate de la Galaxy S26: esto presentará Samsung en CES 2026
Computer Hardware, Electronics, Hardware

Una de las mayores empresas a seguir en CES 2026, un evento tecnológico anual que este año comienza el 6 de enero, es Samsung. De hecho, probablemente deberías dejar una marca antes en tu calendario: la rueda de prensa vinculada de la marca coreana comienza antes del CES, el 4 de enero.

No, no es donde veremos a la familia Samsung Galaxy S26. O la Galaxy Tab S12, o los Buds 4 o el Watch 9 o cualquier otra tecnología móvil que anheles de la marca. Probablemente lleguen a finales de enero o en febrero, pero lo que Samsung muestre podría ser igual de interesante.

Read more
ChatGPT Go llega a Latinoamérica de la mano de Rappi
Rappi

OpenAI anunció ChatGPT Go en Latinoamérica, un nuevo plan por suscripción diseñado para ampliar el acceso a las capacidades avanzadas de ChatGPT. Esta es una nueva versión premium de menor costo, alternativa entre las opciones gratuita y Plus y llega al mercado con beneficios para los usuarios Rappi, quienes podrán obtenerla hasta por seis meses de manera gratuita.

Los suscriptores de ChatGPT Go, incluyendo aquellos que son usuarios de Rappi, obtendrán acceso a algunas de las características más populares de ChatGPT con mayor límite de mensajes, generación de imágenes, carga de archivos y memoria. Este nuevo plan permitirá que más personas aprovechen los beneficios más avanzados de la IA para las necesidades cotidianas, ya sean traducciones y tutorías hasta apoyo en escritura, aprendizaje o guía paso a paso para realizar distintas tareas.

Read more