Este 5 de agosto la gente de OpenAI sorprendió a todos con la presentación de su nuevo modelo GPT gratuito y abierto que puede ejecutarse en una PC, y ahora Microsoft lo está haciendo fácil de hacer para los usuarios de Windows. El modelo liviano gpt-oss-20b ahora está disponible en Windows AI Foundry y pronto también llegará a macOS.
Microsoft ha optimizado previamente gpt-oss-20b para la inferencia local, e insinúa que pronto habrá soporte para más dispositivos. Eso podría significar que veremos una versión más optimizada para las PC Copilot Plus en algún momento.
El modelo gpt-oss-20b está optimizado para la ejecución de código y el uso de herramientas, y Microsoft dice que es “perfecto para crear asistentes autónomos o integrar IA en flujos de trabajo del mundo real, incluso en entornos con ancho de banda limitado”.
Necesitará una PC o computadora portátil con al menos 16 GB de VRAM, por lo que necesitará una de las mejores GPU de Nvidia o la variedad de GPU Radeon con suficiente VRAM.
Características de GPT-oss-20b
- GPT-OSS-120B es una potencia de razonamiento. Con 120 mil millones de parámetros y dispersión arquitectónica, ofrece un rendimiento de nivel o4-mini a una fracción del tamaño, sobresaliendo en tareas complejas como matemáticas, código y preguntas y respuestas específicas del dominio, pero es lo suficientemente eficiente como para ejecutarse en una sola GPU de clase centro de datos. Ideal para implementaciones seguras y de alto rendimiento donde la latencia o el costo importan.
- GPT-OSS-20B es ligero y experto en herramientas. Optimizado para tareas agentales como la ejecución de código y el uso de herramientas, se ejecuta de manera eficiente en una variedad de hardware de Windows, incluidas GPU discretas con 16 GB + VRAM, con soporte para más dispositivos próximamente. Es perfecto para crear asistentes autónomos o integrar IA en flujos de trabajo del mundo real, incluso en entornos con limitaciones de ancho de banda.
Hoy, con gpt-oss en el catálogo, puede:
- Ponga en marcha puntos de enlace de inferencia mediante gpt-oss en la nube con solo unos pocos comandos de CLI.
- Ajuste y resuma los modelos utilizando sus propios datos e impleméntelos con confianza.
- Mezcle modelos abiertos y patentados para satisfacer las necesidades específicas de la tarea.
Implemente gpt-oss-20b en su dispositivo Windows hoy (y pronto en MacOS) a través de Foundry Local. Sigue la guía de inicio rápido para obtener más información.