Skip to main content

OpenAI está listo para destruir de manera «abierta» a DeepSeek y Llama de Meta

OpenAI cambio de marca
DTES

OpenAI está configurada para ser la próxima marca de IA de código abierto, ya que el CEO Sam Altman confirmó en X el lunes que la compañía pronto lanzará un modelo de «peso abierto» que los usuarios podrán ejecutar de forma independiente.

«Estamos entusiasmados de lanzar un nuevo y poderoso modelo de lenguaje abierto con razonamiento en los próximos meses», dijo Altman en una publicación en X.

La compañía está haciendo este movimiento para mantenerse al día con la empresa china DeepSeek, que tomó por asalto la industria de la IA en enero con su modelo de razonamiento R1. Del mismo modo, los modelos Llama de Meta han atraído la atención entre las comunidades de desarrolladores, señaló Wired.

Recommended Videos

El anuncio de Altman también se produce después de un AMA de Reddit en febrero en el que declaró que OpenAI estaba «en el lado equivocado de la historia» y que la compañía necesitaba reconfigurar su estrategia de código abierto.

Además, detalló en su publicación de X que el modelo de peso abierto ha sido un proyecto largamente pensado para OpenAI, y «ahora se siente importante hacerlo».

Además, durante la sesión anterior de AMA, el director de productos de OpenAI, Kevin Weil, dijo que había potencial para que la compañía hiciera que sus modelos más antiguos y menos vanguardistas fueran de código abierto. No dio detalles sobre qué modelos podrían usarse para un proyecto de código abierto. También existe la posibilidad de que OpenAI haya creado un modelo único para mostrar su capacidad para entrenar a la IA de forma rápida y barata, similar a DeepSeek, señaló Wired.

Altman también compartió un enlace para que los desarrolladores se registren y obtengan acceso anticipado al modelo, señalando que aquellos que se registren tendrán la oportunidad de asistir a eventos organizados por OpenAI y obtener otros prototipos tempranos del nuevo modelo.

A medida que aprendemos más sobre muchos modelos de IA, se ha vuelto más evidente que no son 100% de código abierto. Si bien el código puede estar disponible en repositorios, varios datos de entrenamiento y detalles de la empresa están ocultos.

Esto evoca el título de peso abierto para los modelos de IA, en lugar de código abierto, que está siendo utilizado por DeepSeek, Meta y ahora OpenAI.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más
Más de un millón de líneas del historial de chat de DeepSeek quedaron expuestas
Chat de DeepSeek

Los investigadores de ciberseguridad de Wiz han encontrado una base de datos ClickHouse, propiedad de la empresa china de IA DeepSeek, que contiene más de un millón de líneas de historial de chat e información confidencial. La base de datos era de acceso público y permitía a los investigadores un control total sobre las operaciones de la misma.
La exposición se aseguró rápidamente después de que Wiz compartiera su descubrimiento con DeepSeek, pero es posible que la información ya haya sido expuesta. La investigación de este tipo no se adentra demasiado en las bases de datos que encuentra por razones éticas, pero Wiz concluyó que un atacante podría escalar sus privilegios dentro del entorno de DeepSeek y recuperar registros confidenciales, mensajes de chat, contraseñas y archivos locales, todo sin necesidad de ningún tipo de autenticación.

Wiz / Wiz

Leer más
Alibaba se sube a la pelea: dice que tiene una IA mejor que DeepSeek
La imagen muestra el logo de la compañía Alibaba.

China está pisando fuerte en los últimos días con la IA, y si DeepSeek fue la primera gran novedad, un nuevo competidor apareció para roncar más fuerte en el vecindario y exigir más atención a su trabajo: se trata de Alibaba.
La compañía que fundó el carismático Jack Ma,  lanzó una nueva versión de su modelo de inteligencia artificial Qwen 2.5 que, según afirma, superó al aclamado DeepSeek-V3.
"Qwen 2.5-Max supera... casi en todos los ámbitos GPT-4o, DeepSeek-V3 y Llama-3.1-405B", dijo la unidad en la nube de Alibaba en un anuncio publicado en su cuenta oficial de WeChat, refiriéndose a los modelos de IA de código abierto más avanzados de OpenAI y Meta.
Pero no es el único competidor en China que está exigiendo un lugar en el baile, ya que dos días después del lanzamiento de DeepSeek-R1, el propietario de TikTok, ByteDance, publicó una actualización de su modelo de IA insignia, que, según afirmaba, superaba el o1 de OpenAI, respaldado por Microsoft, en AIME, una prueba de referencia que mide lo bien que los modelos de IA entienden y responden a instrucciones complejas.
Según apuntan desde Alibaba Cloud, han preentrenado este modelo con unos 20 billones de tokens, lo que hace que sea uno de los modelos más ricos en datos de la actualidad. Esto hace posible también que su rendimiento sea elevado en diversos tipos de tareas, que van desde la comprensión del lenguaje natural hasta el razonamiento complejo. Además de por su rendimiento, Qwen 2.5-Max destaca también por su escalabilidad y eficiencia.
La posibilidad que tiene, por tanto, de gestionar tareas cada vez más complejas, hace que pueda procesar grandes cantidades de información con rapidez y de manera bastante precisa.
 

Leer más