Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. Tendencias
  5. News

DeepSeek coder: qué es y cómo funciona

DeepSeek
DTES

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.

Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.

Recommended Videos

En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 

DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.

“Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct”, dicen en DeepSeek.

  • Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
  • Varios tamaños de modelo (1.3B5.7B6.7B y 33B) para cumplir con diferentes requisitos.
  • Un tamaño de ventana de 16K, que admite la finalización y el relleno de código a nivel de proyecto.
  • Rendimiento de última generación entre modelos de código abierto.
  • Código abierto y gratuito para investigación y uso comercial.

En su sitio de GitHub, DeepSeek afirma que  “Si desea utilizar DeepSeek-Coder-V2 en formato BF16 para la inferencia, se requieren GPU de 80 GB*8”.

Rendimiento de DeepSeek coder

En las evaluaciones de referencia estándar, y según ellos mismos muestran, DeepSeek-Coder-V2 logra un rendimiento superior en comparación con los modelos de código cerrado como GPT4-Turbo, Claude 3 Opus y Gemini 1.5 Pro en las pruebas comparativas de codificación y matemáticas:

Imagen utilizada con permiso del titular de los derechos de autor

“DeepSeek-Coder-V2 demuestra avances significativos en varios aspectos de las tareas relacionadas con el código, así como en el razonamiento y las capacidades generales. Además, DeepSeek-Coder-V2 amplía su compatibilidad con lenguajes de programación de 86 a 338, al tiempo que amplía la longitud del contexto de 16K a 128K”, dice la compañía china.

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Planeas actualizar el PC? HP advierte de precios más altos en el futuro
HP Desktop

¿Qué ha pasado? Si planeas comprar un PC, quizá quieras hacerlo cuanto antes. HP afirma que es probable que los precios de los PC y portátiles suban el próximo año porque los costes de los chips de memoria se han disparado. En una reciente conferencia de resultados, el CEO de HP, Enrique Lores, advirtió que, debido al rápido aumento de los precios de la RAM, los futuros productos de PC podrían enviarse con menos memoria o costar más, dependiendo de las condiciones del mercado.

Según PCMag, los precios de la memoria DDR5 han subido más de un 200% en las últimas semanas.

Leer más
¿Pensabas que 8GB de VRAM era malo?
NVIDIA

¿Qué ha pasado? A principios de este año, informes sugerían que las GPUs de próxima generación de Nvidia podrían venir con importantes mejoras de la VRAM. Pero en solo unos meses, el auge de la IA ha elevado tanto los precios de la RAM como de la GDDR al estratosfera, hasta el punto de que, según se informa, AMD y Nvidia están considerando eliminar por completo las GPUs de entrada y económicas. Ahora, las cosas pueden estar complicándose aún más. Ante una creciente escasez global de memoria, se rumorea que Nvidia está cambiando su forma de suministrar GPUs. En lugar de enviar placas completamente pobladas (die + VRAM), puede empezar a enviar solo el chip de la GPU, dejando a los socios de la placa la capacidad de buscar GDDR o HBM por su cuenta. Y si eso ocurre, podría afectar seriamente la flexibilidad de los proveedores y cuántas cartas llegarán realmente a las estanterías.

El paquete de actualización Golden Pig de Leakster afirma que Nvidia dejará de incluir la VRAM con sus GPUs para proteger las cadenas de suministro y reducir los costes iniciales.

Leer más
No te preocupes, tu estrés de compras navideñas ahora lo gestionará la IA
Apps de Amigo Secreto: el intercambio de regalos más sencillo.

Si alguna vez has sentido que tu tensión arterial se dispare solo de pensar en las compras navideñas, no estás solo. La carrera por encontrar el regalo perfecto al precio más bajo suele implicar abrir 50 pestañas del navegador y rezar para que no te hayas perdido ningún código de descuento.

Pero justo a tiempo para la avalancha del Black Friday, dos grandes actores tecnológicos – Microsoft y Perplexity AI – intervienen para gestionar el estrés por ti.

Leer más