Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. Tendencias
  5. News

DeepSeek coder: qué es y cómo funciona

Add as a preferred source on Google
DeepSeek
DTES

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.

Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.

Recommended Videos

En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 

DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.

«Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct», dicen en DeepSeek.

  • Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
  • Varios tamaños de modelo (1.3B5.7B6.7B y 33B) para cumplir con diferentes requisitos.
  • Un tamaño de ventana de 16K, que admite la finalización y el relleno de código a nivel de proyecto.
  • Rendimiento de última generación entre modelos de código abierto.
  • Código abierto y gratuito para investigación y uso comercial.

En su sitio de GitHub, DeepSeek afirma que  «Si desea utilizar DeepSeek-Coder-V2 en formato BF16 para la inferencia, se requieren GPU de 80 GB*8».

Rendimiento de DeepSeek coder

En las evaluaciones de referencia estándar, y según ellos mismos muestran, DeepSeek-Coder-V2 logra un rendimiento superior en comparación con los modelos de código cerrado como GPT4-Turbo, Claude 3 Opus y Gemini 1.5 Pro en las pruebas comparativas de codificación y matemáticas:

Imagen utilizada con permiso del titular de los derechos de autor

«DeepSeek-Coder-V2 demuestra avances significativos en varios aspectos de las tareas relacionadas con el código, así como en el razonamiento y las capacidades generales. Además, DeepSeek-Coder-V2 amplía su compatibilidad con lenguajes de programación de 86 a 338, al tiempo que amplía la longitud del contexto de 16K a 128K», dice la compañía china.

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK

ACÁ EL CÓDIGO EN GITHUB DE DEEPSEEK
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT da el tiro de gracia a GPT-4o, GPT-4.1, GPT-4.1 mini y o4-mini
ChatGPT

Una importante reducción de modelos hará desde el 13 de febrero la gente de OpenAI en ChatGPT, ya que el popular chatbot  pronto descontinuará varios de los modelos GPT.

En dos semanas OpenAI eliminará los modelos GPT-4o, GPT-4.1, GPT-4.1 mini y OpenAI o4-mini de ChatGPT. La retirada de estos modelos antiguos probablemente no afectará a la mayoría de los usuarios, ya que OpenAI afirma que la mayoría de los usuarios han pasado a GPT-5.2 (y que GPT-4o solo lo usa el 0,1 por ciento de los usuarios a diario).

Read more
Windows 11 sumaría una barra superior al estilo macOS gracias a PowerToys
Computer, Electronics, Pc

Microsoft está probando un cambio llamativo en la interfaz de Windows 11: una barra de menú superior opcional, similar a la de macOS o algunas distribuciones de Linux. La idea surge desde el equipo de PowerToys, la suite de herramientas avanzadas para usuarios de Windows, que trabaja en un nuevo componente llamado Command Palette Dock.

Según los primeros detalles publicados por la propia Microsoft y recogidos por medios especializados, el dock funcionaría como una franja permanente en el borde de la pantalla —por defecto, en la parte superior— que mostraría información del sistema y accesos directos a herramientas y comandos. La propuesta contempla también la posibilidad de ubicarla en los laterales o en la parte inferior, según prefiera cada usuario.

Read more
Anthropic enfrenta multimillonaria demanda por piratería musical
Pirata

La empresa de inteligencia artificial Anthropic, creadora del popular modelo de lenguaje Claude, se encuentra en el ojo del huracán tras una nueva demanda presentada por los principales sellos discográficos del mundo. Universal Music Publishing Group, Concord Music Group y ABKCO acusaron formalmente a la compañía de utilizar más de 20 mil canciones protegidas por derechos de autor sin autorización para entrenar sus modelos de IA.

Según el documento legal presentado el pasado 28 de enero ante los tribunales de California, Anthropic descargó intencionalmente millones de archivos mediante BitTorrent desde sitios de piratería como LibGen y PiLiMi, incluyendo composiciones musicales y partituras pertenecientes a artistas consagrados como The Rolling Stones, Neil Diamond, Elton John y Coldplay, entre muchos otros.

Read more