Skip to main content

Tim Cook le tira muchas flores a DeepSeek: es eficiente y bueno

Una imagen de Tim Cook, consejero delegado de Apple
DTES

En la industria de Silicon Valley, existe un CEO que no está realmente tan asustado por el impulso que ha tenido DeepSeek, y es Tim Cook de Apple, que al contrario de la opinión mayoritaria, celebra la llegada de la IA china.

«En general, creo que la innovación que impulsa la eficiencia es algo bueno. Y, ya sabes, eso es lo que se ve en ese modelo», dijo Cook, respondiendo a la pregunta de un analista sobre cómo los modelos de IA de DeepSeek afectarían los márgenes de Apple.

Recommended Videos

Cook continuó señalando que utiliza un modelo híbrido para su IA, en el que ejecuta algunas tareas simples localmente, usando sus propios modelos de en los chips de silicio personalizados de sus dispositivos. Mientras tanto, otras tareas más complejas sean en la nube a través de asociaciones con proveedores de modelos de IA.

Cook también dijo que Apple siempre ha adoptado un enfoque «prudente y deliberado» para este tipo de gastos.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
DeepSeek coder: qué es y cómo funciona
DeepSeek

¿Cómo se construye el modelo de lenguaje de DeepSeek?, ¿Necesita cierta capacidad de GPU para desarrollarse? y ¿Cómo le va contra la competencia?.
Bueno, comencemos por una definición del DeepSeek coder: DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto Mixture-of-Experts (MoE) que logra un rendimiento comparable al de GPT4-Turbo en tareas específicas de código.
En concreto, DeepSeek-Coder-V2 se entrena previamente desde un punto de control intermedio de DeepSeek-V2 con 6 billones de tokens adicionales. A través de este entrenamiento previo continuo, DeepSeek-Coder-V2 mejora sustancialmente las capacidades de codificación y razonamiento matemático de DeepSeek-V2, al tiempo que mantiene un rendimiento comparable en tareas generales del lenguaje. 
DeepSeek Coder comprende una serie de modelos de lenguaje de código entrenados desde cero con un 87 % de código y un 13 % de lenguaje natural en inglés y chino, con cada modelo pre entrenado en tokens 2T. Proporcionamos varios tamaños del modelo de código, que van desde las versiones 1B hasta 33B.
"Cada modelo se entrena previamente en un corpus de código a nivel de repositorio mediante el empleo de un tamaño de ventana de 16K y una tarea adicional de rellenar los espacios en blanco, lo que da como resultado modelos fundamentales (DeepSeek-Coder-Base). Ajustamos aún más el modelo base con 2 mil millones de tokens de datos de instrucción para obtener modelos ajustados a la instrucción, denominados DeepSeek-Coder-Instruct", dicen en DeepSeek.

Entrenado previamente en 2 billones de tokens en más de 80 lenguajes de programación.
Varios tamaños de modelo (1.3B, 5.7B, 6.7B y 33B) para cumplir con diferentes requisitos.
Un tamaño de ventana de 16K, que admite la finalización y el relleno de código a nivel de proyecto.
Rendimiento de última generación entre modelos de código abierto.
Código abierto y gratuito para investigación y uso comercial.

Leer más
Fundador de DeepSeek: quién es Liang Wenfeng
Fundador de DeepSeek

En pocos días, DeepSeek se ha convertido en la aplicación de IA más popular, al menos en iOS sobre ChatGPT, ya que esta startup de código abierto compite a menor costo en el mercado. E intriga ha causado saber quién o quienes son las personas tras esta compañía que levantó a la inteligencia artificial de la ballenita y que causó el derrumbe de Nvidia.
AP ha hecho una pormenorizada biografía inicial de la persona tras el milagro de la IA china, se trata de Liang Wenfeng, de 40 años, quien fundó DeepSeek en 2023, nació en Guangdong, en el sur de China, y estudió en la provincia de Zhejiang, en el este de China, sede del gigante del comercio electrónico Alibaba y otras empresas tecnológicas, según informes de los medios chinos.
El fondo de cobertura que creó en 2015, High-Flyer Quantitative Investment Management, desarrolló modelos para el comercio de acciones computarizado y comenzó a usar técnicas de aprendizaje automático para refinar esas estrategias.
A pesar de algunas pérdidas cuando los reguladores tomaron medidas enérgicas contra este tipo de operaciones el año pasado, el fondo High-Flyer gestiona 8.000 millones de dólares en activos, amplios recursos para financiar la investigación de IA de DeepSeek.
Algunas definiciones del fundador de DeepSeek

En una entrevista en 2023, Liang Wenfeng entregó al medio Waves algunas definiciones sobre su pensamiento tecnológico y lo que ya estaba desarrollando:

Leer más
Tim Cook: «si estás mirando tu teléfono más de lo que estás mirando a los ojos de alguien, eso es un problema»
Tim Cook portrait

Se acaba el 2024 y posiblemente Tim Cook, el CEO de Apple, ya está sacando sus conclusiones sobre estos 365 días que nos dejan atrás y hace un análisis de sus productos y lo que vendrá para la IA, en una extensa entrevista que concedió a Wired.

"En este momento, la tecnología es lo suficientemente buena como para que podamos entregársela a las personas y cambiar sus vidas, y en eso estamos enfocados. Seguiremos tirando de la cuerda y veremos a dónde nos lleva", comentó el jefe máximo de los de Cupertino.
Hay muchos beneficios extraordinarios para la humanidad. ¿Hay algunas cosas en las que tienes que tener barreras? Claro. Somos muy considerados con las cosas que hacemos y las que no hacemos. Espero que otros también lo sean. El AGI en sí mismo está muy lejos, como mínimo. A lo largo del camino determinaremos cuáles deben ser las barreras en un entorno así.
Pero, Tim Cook también reflexionó de cómo la humanidad se está alienando con los celulares y la cantidad de tiempo que estamos frente al teléfono.

Leer más