Skip to main content

Fundador de DeepSeek: quién es Liang Wenfeng

Fundador de DeepSeek
DTES

En pocos días, DeepSeek se ha convertido en la aplicación de IA más popular, al menos en iOS sobre ChatGPT, ya que esta startup de código abierto compite a menor costo en el mercado. E intriga ha causado saber quién o quienes son las personas tras esta compañía que levantó a la inteligencia artificial de la ballenita y que causó el derrumbe de Nvidia.

AP ha hecho una pormenorizada biografía inicial de la persona tras el milagro de la IA china, se trata de Liang Wenfeng, de 40 años, quien fundó DeepSeek en 2023, nació en Guangdong, en el sur de China, y estudió en la provincia de Zhejiang, en el este de China, sede del gigante del comercio electrónico Alibaba y otras empresas tecnológicas, según informes de los medios chinos.

Recommended Videos

El fondo de cobertura que creó en 2015, High-Flyer Quantitative Investment Management, desarrolló modelos para el comercio de acciones computarizado y comenzó a usar técnicas de aprendizaje automático para refinar esas estrategias.

A pesar de algunas pérdidas cuando los reguladores tomaron medidas enérgicas contra este tipo de operaciones el año pasado, el fondo High-Flyer gestiona 8.000 millones de dólares en activos, amplios recursos para financiar la investigación de IA de DeepSeek.

Algunas definiciones del fundador de DeepSeek

DeepSeek
DTES

En una entrevista en 2023, Liang Wenfeng entregó al medio Waves algunas definiciones sobre su pensamiento tecnológico y lo que ya estaba desarrollando:

  • «La cuestión es que ahora estamos seguros de que queremos hacer esto (DeepSeek), podemos hacer esto y somos capaces de hacerlo, por lo que estamos entre los candidatos más adecuados para abordarlo en este momento»

  • «Actualmente, ni los gigantes tecnológicos ni las startups tienen una ventaja inexpugnable. Con OpenAI allanando el camino, todo el mundo está trabajando con documentos publicados y código abierto»

  • Liang dijo que pasa sus días leyendo artículos, escribiendo código y participando en discusiones grupales, como otros investigadores.

  • «La gente puede pensar que hay una lógica de negocios oculta detrás de esto, pero es impulsada principalmente por la curiosidad. Lo que vemos es que la IA china no puede estar en la posición de seguir para siempre. A menudo decimos que hay una brecha de uno o dos años entre la IA china y la estadounidense, pero la verdadera brecha es la diferencia entre la originalidad y la imitación. Si esto no cambia, China siempre será solo un seguidor, por lo que es inevitable que se exploren algunas veces».
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Sam Altman habla de DeepSeek: Es impresionante
Sam Altman

El CEO de OpenAI, Sam Altman, sacó la voz después de quedar casi sin habla los días anteriores por el advenimiento muy veloz de DeepSeek, la aplicación de IA china que está destrozando las estadísticas de popularidad.
En su cuenta de X, el fundador de ChatGPT se refirió a su competidor asiático:

“El r1 de Deepseek es un modelo impresionante”, ha detallado Altman en la mencionada publicación. "Por lo que es capaz de ofrecer por el precio”. 

Leer más
¿Qué datos recopila DeepSeek? ¿Es seguro usarlo?
DeepSeek

Occidente tiene un problema de confianza con China y sus aplicaciones de internet, eso es un hecho, sobre todo a la luz de lo que está ocurriendo actualmente en Estados Unidos con TikTok. Y algo similar ya se está cuestionando sobre DeepSeek.
El ministro de Ciencia de Australia, Ed Husic, se ha convertido en el primer miembro de un gobierno occidental en plantear preocupaciones de privacidad sobre DeepSeek: "tendría mucho cuidado con eso, este tipo de temas deben sopesarse cuidadosamente", sostuvo en entrevista con ABC News.
¿Cuál es la postura de Estados Unidos?: Donald Trump ha dicho que DeepSeek es una "llamada de atención" para Estados Unidos, pero no pareció sugerir que fuera una amenaza para la seguridad nacional, sino que dijo que incluso podría ser algo bueno si redujera los costos.
¿Es un potencial problema de seguridad DeepSeek? ¿Qué datos recopila?
La misma página de DeepSeek de su Política de privacidad, admite que recopila grandes cantidades de información personal de los usuarios, que luego se almacena "en servidores seguros" en China.
La aplicación afirma que utiliza esta información para mejorar DeepSeek al mejorar su "seguridad, protección y estabilidad".
A continuación, compartirá esta información con otros, como proveedores de servicios, socios publicitarios y su grupo empresarial, que se conservará "durante el tiempo que sea necesario".
Qué información es esa:

Su dirección de correo electrónico, número de teléfono y fecha de nacimiento, ingresados al crear una cuenta
Cualquier entrada del usuario, incluidos texto y audio, así como historiales de chat
La llamada "información técnica", que va desde el modelo y el sistema operativo de su teléfono hasta su dirección IP y "patrones de pulsación de teclas".

Leer más
DeepSeek coder: qué es y cómo funciona
DeepSeek

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.
Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.
En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 
DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.
"Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct", dicen en DeepSeek.

Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
Varios tamaños de modelo (1.3B, 5.7B, 6.7B y 33B) para cumplir con diferentes requisitos.
Un tamaño de ventana de 16K, que admite la finalización y el relleno de código a nivel de proyecto.
Rendimiento de última generación entre modelos de código abierto.
Código abierto y gratuito para investigación y uso comercial.

Leer más