Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

Nvidia Workbench permite a cualquiera entrenar un modelo de IA

CEO de Nvidia mostrando la RTX 4060 Ti en Computex 2023.
Nvidia

Nvidia acaba de anunciar el AI Workbench, que promete hacer que la creación de IA generativa sea mucho más fácil y manejable. El espacio de trabajo permitirá a los desarrolladores hacer e implementar dichos modelos en varias plataformas de IA de Nvidia, incluidas PC y estaciones de trabajo. ¿Estamos a punto de ser inundados con aún más contenido de IA? Tal vez no, pero ciertamente parece que AI Workbench hará que todo el proceso sea significativamente más accesible.

En el anuncio, Nvidia señala que hay cientos de miles de modelos preentrenados actualmente disponibles; Sin embargo, personalizarlos requiere tiempo y esfuerzo. Aquí es donde entra en juego el Workbench, simplificando el proceso. Los desarrolladores ahora podrán personalizar y ejecutar IA generativa con un mínimo esfuerzo, utilizando todos los modelos de nivel empresarial necesarios. La herramienta Workbench admite varios marcos, bibliotecas y SDK de la propia plataforma de IA de Nvidia, así como repositorios de código abierto como GitHub y Hugging Face.

Recommended Videos

Una vez personalizados, los modelos se pueden compartir en múltiples plataformas con facilidad. Los desarrolladores que ejecutan una PC o estación de trabajo con una tarjeta gráfica Nvidia RTX podrán trabajar con estos modelos generativos en sus sistemas locales, pero también escalar a recursos de centro de datos y computación en la nube cuando sea necesario.

«Nvidia AI Workbench proporciona un camino simplificado para que los equipos interorganizacionales creen las aplicaciones basadas en IA que se están volviendo cada vez más esenciales en los negocios modernos», dijo Manuvir Das, vicepresidente de computación empresarial de Nvidia.

Nvidia también ha anunciado la cuarta iteración de su plataforma de software Nvidia AI Enterprise, que tiene como objetivo ofrecer las herramientas necesarias para adoptar y personalizar la IA generativa. Esto se divide en múltiples herramientas, incluida Nvidia NeMo, que es un marco nativo de la nube que permite a los usuarios crear e implementar modelos de lenguaje grandes (LLM) como ChatGPT o Google Bard.

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

Nvidia está aprovechando el mercado de la IA cada vez más en el momento justo, y no solo con Workbench, sino también con herramientas como Nvidia ACE para juegos. Con los modelos generativos de IA como ChatGPT que están de moda en este momento, es seguro asumir que muchos desarrolladores podrían estar interesados en la solución fácil de ventanilla única de Nvidia. Aún está por verse si eso es algo bueno para el resto de nosotros, ya que algunas personas usan la IA generativa con fines cuestionables.

No olvidemos que la IA puede desquiciarse por sí sola, como en los primeros días de Bing Chat, y cuantas más personas comiencen a crear y entrenar estos diversos modelos, más casos de comportamiento problemático o loco veremos en la naturaleza. Pero suponiendo que todo vaya bien, AI Workbench de Nvidia ciertamente podría simplificar el proceso de implementación de una nueva IA generativa para muchas empresas.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Las turbinas de un Boeing 747 están alimentando los centros de datos
Turbina avión

La generación de inteligencia artificial en los centros de datos es un proceso complejo que combina infraestructura física, potencia de cómputo masiva y algoritmos avanzados. Todo comienza con los modelos de IA, que son conjuntos de algoritmos diseñados para aprender patrones a partir de enormes volúmenes de datos. Para entrenarlos, se requieren servidores especializados equipados con GPU o aceleradores de IA, capaces de realizar millones de cálculos en paralelo. Este entrenamiento consume cantidades enormes de energía y genera calor, lo que obliga a los centros de datos a contar con sistemas de alimentación eléctrica robusta y refrigeración avanzada.

Los centros de datos deben estar diseñados no solo para alojar racks de servidores, sino también para garantizar un flujo de aire eficiente, redundancia energética y conectividad de baja latencia.

Leer más
Uber le dará pago extra a sus choferes por entrenar IA
Uber

Uber quiere seguir dándole opciones a sus choferes y al ecosistema económico de seguir ayudando a la flexibilización del trabajo, ya que en Estados Unidos comenzó un programa piloto para permitir que sus conductores y mensajeros estadounidenses ganen dinero extra realizando "microtareas" para entrenar modelos de IA.

Estas tareas incluyen grabación de voz de audio, captura y carga de imágenes y envío de documentos en ciertos idiomas. Las indicaciones variarán, pero algunos ejemplos incluyen "subir imágenes de autos" o "grabarse hablando en su idioma o dialecto local". Otro ejemplo es subir un menú escrito en español, lo que podría hacer que alguien gane hasta un dólar entero.

Leer más
¿Puede estar surgiendo un nuevo Las Vegas para casarse con una IA?
Casarse con una IA

¿Qué ha pasado? Hay más en el amor que las novelas románticas: algunas personas se casan con chatbots de IA o se involucran en relaciones profundamente románticas con personalidades de IA.

En respuesta, un representante del estado de Ohio ha presentado un proyecto de ley que prohibiría tales uniones digitales y evitaría que las IA sean tratadas como personas bajo la ley. Presentado por el Rep.

Leer más