Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

DeepSeek prepara un salto en su modelo de IA: ¿de qué se trata?

DeepSeek
DTES

Hace apenas unos meses, la gran apuesta de Wall Street por la IA generativa tuvo un momento de ajuste de cuentas cuando DeepSeek entró en escena. A pesar de su naturaleza fuertemente censurada, el código abierto DeepSeek demostró que un modelo de IA de razonamiento fronterizo no requiere necesariamente miles de millones de dólares y puede llevarse a cabo con recursos modestos.

Rápidamente encontró la adopción comercial por parte de gigantes como Huawei, Oppo y Vivo, mientras que empresas como Microsoft, Alibaba y Tencent rápidamente le dieron un lugar en sus plataformas. Ahora, el próximo objetivo de la empresa china son los modelos de IA que se automejoran y que utilizan un enfoque de recompensa-juez en bucle para mejorarse a sí mismos.

Recommended Videos

En un documento preimpreso (a través de Bloomberg), investigadores de DeepSeek y la Universidad Tsinghua de China describen un nuevo enfoque que podría hacer que los modelos de IA sean más inteligentes y eficientes de una manera automejorable. La tecnología subyacente se denomina ajuste de la crítica basada en principios propios (SPCT), y el enfoque se conoce técnicamente como modelado de recompensa generativa (GRM).

En los términos más simples, es algo así como crear un bucle de retroalimentación en tiempo real. Un modelo de IA se mejora fundamentalmente al aumentar el tamaño del modelo durante el entrenamiento. Eso requiere mucho trabajo humano y recursos informáticos. DeepSeek propone un sistema en el que el «juez» subyacente viene con su propio conjunto de críticas y principios para un modelo de IA a medida que prepara una respuesta a las consultas de los usuarios.

Este conjunto de críticas y principios se compara con las reglas estáticas establecidas en el corazón de un modelo de IA y el resultado deseado. Si hay un alto grado de coincidencia, se genera una señal de recompensa, que guía efectivamente a la IA para que se desempeñe aún mejor en el próximo ciclo.

Los expertos detrás del documento se refieren a la próxima generación de modelos de IA automejorados como DeepSeek-GRM. Los puntos de referencia enumerados en el documento sugieren que estos modelos funcionan mejor que los modelos Gemini de Google, Llama de Meta y GPT-4o de OpenAI. DeepSeek dice que estos modelos de IA de próxima generación se lanzarán a través del canal de código abierto.

¿IA que se mejora a sí misma?

El tema de la IA que puede mejorarse a sí misma ha suscitado algunas observaciones ambiciosas y controvertidas. El ex CEO de Google, Eric Schmidt, argumentó que podríamos necesitar un interruptor de apagado para tales sistemas. «Cuando el sistema pueda automejorarse, tenemos que pensar seriamente en desenchufarlo», dijo Schmidt, citado por Fortune.

El concepto de una IA que se mejora a sí misma de forma recursiva no es precisamente un concepto nuevo. La idea de una máquina ultra inteligente, que posteriormente es capaz de hacer máquinas aún mejores, en realidad se remonta al matemático I.J. Good en 1965. En 2007, el experto en IA Eliezer Yudkowsky formuló una hipótesis sobre Seed AI, una IA «diseñada para la autocomprensión, la automodificación y la automejora recursiva».

En 2024, la japonesa Sakana AI detalló el concepto de «científico de IA» sobre un sistema capaz de pasar todo el proceso de un trabajo de investigación de principio a fin. En un artículo de investigación publicado en marzo de este año, los expertos de Meta revelaron modelos de lenguaje autogratificantes en los que la propia IA actúa como juez para proporcionar recompensas durante el entrenamiento.

Las pruebas internas de Meta en su modelo de IA Llama 2 utilizando la novedosa técnica de autorecompensa vieron que superó a rivales como Claude 2 de Anthropic, Gemini Pro de Google y los modelos GPT-4 de OpenAI. Antropic, respaldada por Amazon, detalló lo que llamaron manipulación de recompensas, un proceso inesperado «en el que un modelo modifica directamente su propio mecanismo de recompensa».

Google no se queda atrás en la idea. En un estudio publicado en la revista Nature a principios de este mes, los expertos de Google DeepMind mostraron un algoritmo de IA llamado Dreamer que puede mejorarse a sí mismo, utilizando el juego Minecraft como ejemplo de ejercicio.

Los expertos de IBM están trabajando en su propio enfoque llamado entrenamiento de cierre deductivo, en el que un modelo de IA utiliza sus propias respuestas y las evalúa contra los datos de entrenamiento para mejorarse a sí mismo. Sin embargo, toda la premisa no es todo sol y arcoíris.

La investigación sugiere que cuando los modelos de IA intentan entrenarse a sí mismos con datos sintéticos autogenerados, se producen defectos conocidos coloquialmente como «colapso del modelo». Sería interesante ver cómo DeepSeek ejecuta la idea, y si puede hacerlo de una manera más frugal que sus rivales de Occidente.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Ranking de los mejores chatbots: Grok explota en crecimiento, pero ¿quién es el rey: ChatGPT, Gemini, DeepSeek?
Grok

La nueva carrera frenética en el mundo de la tecnología es la de los chatbots de IA, donde han habido cambios significativos en el ranking de los mejores (basados en cifras de usuarios), según  el directorio de herramientas de IA aitools.xyz.

El mercado experimentó cambios significativos en marzo de 2025. ChatGPT lideró con un aumento de 400 millones de visitas intermensuales, alcanzando los 5.600 millones de visitas. Grok experimentó el crecimiento más explosivo, añadiendo 105,4 millones de visitas para un aumento del 193,04%, superando a competidores como DeepSeek y Gemini.

Leer más
OpenAI está listo para destruir de manera «abierta» a DeepSeek y Llama de Meta
OpenAI cambio de marca

OpenAI está configurada para ser la próxima marca de IA de código abierto, ya que el CEO Sam Altman confirmó en X el lunes que la compañía pronto lanzará un modelo de "peso abierto" que los usuarios podrán ejecutar de forma independiente.

"Estamos entusiasmados de lanzar un nuevo y poderoso modelo de lenguaje abierto con razonamiento en los próximos meses", dijo Altman en una publicación en X.

Leer más
CUIDADO: crean un sitio falso de DeepSeek para distribuir malware
cuidado crean un sitio falso de deepseek para distribuir malware deepseel ia

En los últimos días, luego del lanzamiento de DeepSeek, herramienta de inteligencia artificial generativa open source, se detectó una campaña de distribución de malware a través de sitios falsos que imitan al oficial. ESET, compañía de ciberseguridad, advierte como una vez más los cibercriminales aprovechan temas o eventos de interés masivo para engañar a usuarios desprevenidos.
La web maliciosa, reportada por el usuario de X @g0njxa, tiene un diseño muy similar al sitio legítimo, pero detalles como la URL o la opción de descargar de la app delatan su falsedad. Desde ESET, destacan que es relevante siempre observar bien la URL y chequear su veracidad, la mejor opción es tipear la ruta del sitio letra por letra.
Diferencias entre el sitio real y el falso
En el sitio oficial, el botón principal dice "Start Now", ya que DeepSeek se usa directamente en la web.

En el sitio falso, el botón dice "Download Now" y eso implica la descarga de un archivo que, como alerta ESET, es malicioso, mientras que DeepSeek no precisa de instalación. Cualquier sitio que solicite una descarga representa un posible riesgo.

Leer más