Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. News

Windows 11 pronto aprovechará su GPU para la IA generativa

Add as a preferred source on Google

Tras la introducción de Copilot, su último asistente inteligente para Windows 11, Microsoft vuelve a avanzar en la integración de la IA generativa con Windows. En la conferencia de desarrolladores Ignite 2023 en curso en Seattle, la compañía anunció una asociación con Nvidia en TensorRT-LLM que promete elevar las experiencias de los usuarios en computadoras de escritorio y portátiles con Windows con GPU RTX.

La nueva versión está configurada para introducir soporte para nuevos modelos de lenguaje grandes, lo que hace que las cargas de trabajo de IA exigentes sean más accesibles. Cabe destacar su compatibilidad con la API de chat de OpenAI, que permite la ejecución local (en lugar de en la nube) en PC y estaciones de trabajo con GPU RTX a partir de 8 GB de VRAM.

Recommended Videos

La biblioteca TensorRT-LLM de Nvidia se lanzó el mes pasado y se dice que ayuda a mejorar el rendimiento de los modelos de lenguaje grandes (LLM) que utilizan los Tensor Cores en las tarjetas gráficas RTX. Proporciona a los desarrolladores una API de Python para definir LLM y crear motores TensorRT más rápido sin un conocimiento profundo de C++ o CUDA.

Con el lanzamiento de TensorRT-LLM v0.6.0, navegar por las complejidades de los proyectos personalizados de IA generativa se simplificará gracias a la introducción de AI Workbench. Se trata de un conjunto de herramientas unificado que facilita la creación, prueba y personalización rápidas de modelos de IA generativa y LLM preentrenados. También se espera que la plataforma permita a los desarrolladores optimizar la colaboración y la implementación, asegurando un desarrollo de modelos eficiente y escalable.

Un gráfico que muestra el rendimiento de inferencia de TensorRT-LLM en Windows 11.
Nvidia

Reconociendo la importancia de apoyar a los desarrolladores de IA, Nvidia y Microsoft también están lanzando mejoras de DirectML. Estas optimizaciones aceleran los modelos de IA fundamentales como Llama 2 y Stable Diffusion, lo que proporciona a los desarrolladores mayores opciones para la implementación entre proveedores y establece nuevos estándares de rendimiento.

La nueva actualización de la biblioteca TensorRT-LLM también promete una mejora sustancial en el rendimiento de la inferencia, con velocidades hasta cinco veces más rápidas. Esta actualización también amplía la compatibilidad con otros LLM populares, incluidos Mistral 7B y Nemotron-3 8B, y amplía las capacidades de los LLM locales rápidos y precisos a una gama más amplia de dispositivos portátiles de Windows.

La integración de TensorRT-LLM para Windows con la API de chat de OpenAI a través de un nuevo contenedor permitirá que cientos de proyectos y aplicaciones impulsados por IA se ejecuten localmente en PC equipadas con RTX. Esto eliminará potencialmente la necesidad de depender de los servicios en la nube y garantizará la seguridad de los datos privados y propietarios en las PC con Windows 11.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Nvidia despliega su más poderosa arquitectura de procesamiento: Vera Rubin
Performer, Person, Solo Performance

Durante el inicio de CES 2026, el fabricante de chips estadounidense Nvidia dio a conocer la arquitectura Vera Rubin, descrita por su director ejecutivo, Jensen Huang, como la solución más avanzada disponible actualmente en hardware de inteligencia artificial. Este nuevo sistema ya se encuentra en producción a escala completa y espera expandir su capacidad de manufactura durante el segundo semestre del año.

Huang explicó que la arquitectura Rubin fue concebida para resolver uno de los desafíos más acuciantes de la industria: el extraordinario aumento en la demanda de poder computacional requerido por los modelos de inteligencia artificial contemporáneos. Con respecto a su disponibilidad, confirmó que esta tecnología ya se fabrica en volumen y seguirá incrementándose su producción.

Read more
AMD amplía su liderazgo en IA con nuevos Ryzen y AMD ROCm en CES 2026
Computer, Electronics, Pc

Durante el CES 2026, AMD presentó su última generación de procesadores móviles y de escritorio que redefinen la computación para clientes, trayendo capacidades de IA ampliadas, rendimiento de gaming premium y funciones listas para el entorno comercial. La empresa anunció una serie completa de soluciones que posicionan a AMD como líder en la era de las PC impulsadas por IA.

Los nuevos procesadores Ryzen AI Serie 400 y Ryzen AI PRO Serie 400 ofrecen hasta 60 TOPS de cómputo en la NPU, construidos sobre la avanzada arquitectura "Zen 5" y potenciados por NPUs AMD XDNA 2 de segunda generación. Estos procesadores están diseñados específicamente para PCs Copilot+ de consumo y comerciales, con hasta 12 núcleos de CPU de alto rendimiento, gráficos integrados AMD Radeon Serie 800M y velocidades de memoria más rápidas. La Ryzen AI PRO Serie 400 está diseñada específicamente para entornos empresariales con seguridad multicapa y gestión simplificada.

Read more
Intel Core Ultra Series 3 debuta como el primer procesador fabricado en 18A
Crowd, Person, Audience

Intel ha presentado en CES 2026 los procesadores Intel Core Ultra Serie 3, la primera plataforma de computación fabricada con la tecnología de proceso Intel 18A, el proceso de semiconductores más avanzado jamás desarrollado y fabricado en los Estados Unidos. Esta es la plataforma de PC con IA de más amplia adopción que Intel ha ofrecido jamás, impulsando más de 200 diseños de partners a nivel mundial.

Los nuevos procesadores Intel Core Ultra X9 y X7 están equipados con los gráficos integrados Intel Arc de más alto rendimiento. Están diseñados específicamente para usuarios multitarea que gestionan cargas de trabajo avanzadas como gaming, creación y productividad sobre la marcha. Los modelos de gama alta cuentan con hasta 16 núcleos de CPU, 12 núcleos Xe y 50 TOPS de NPU, ofreciendo hasta un 60% más de rendimiento multihilo comparado con Lunar Lake, así como un rendimiento más veloz en juegos con más de un 77% de desempeño mejorado.

Read more