Nvidia acaba de anunciar el AI Workbench, que promete hacer que la creación de IA generativa sea mucho más fácil y manejable. El espacio de trabajo permitirá a los desarrolladores desarrollar y desplegar tales modelos en varias plataformas de IA Nvidia, incluyendo computadoras personales y estaciones de trabajo. ¿Estamos a punto de ser inundados con aún más contenido de IA? Tal vez no, pero sin duda suena como si el AI Workbench hará que todo el proceso sea significativamente más accesible.

En el anuncio, Nvidia señala que actualmente hay cientos de miles de modelos preentrenados disponibles; sin embargo, personalizarlos lleva tiempo y esfuerzo. Aquí es donde entra en juego el Workbench, simplificando el proceso. Los desarrolladores ahora podrán personalizar y ejecutar IA generativa con un esfuerzo mínimo, utilizando todos los modelos empresariales necesarios. La herramienta Workbench soporta varios frameworks, bibliotecas y SDK de la propia plataforma de IA de Nvidia, así como repositorios de código abierto como GitHub y Hugging Face.
Una vez personalizados, los modelos pueden compartirse en múltiples plataformas con facilidad. Los desarrolladores que ejecutan una PC o estación de trabajo con una tarjeta gráfica Nvidia RTX podrán trabajar con estos modelos generativos en sus sistemas locales, pero también escalar a recursos de centros de datos y computación en la nube cuando sea necesario.
"Nvidia AI Workbench proporciona un camino simplificado para que los equipos interorganizacionales creen aplicaciones basadas en IA que son cada vez más esenciales en los negocios modernos", dijo Manuvir Das, vicepresidente de computación empresarial de Nvidia.
Nvidia también ha anunciado la cuarta iteración de su plataforma de software Nvidia AI Enterprise, que está diseñada para ofrecer las herramientas necesarias para adoptar y personalizar la IA generativa. Esto se descompone en varias herramientas, incluyendo Nvidia NeMo, que es un marco nativo en la nube que permite a los usuarios construir y desplegar modelos de lenguaje grandes (LLMs) como ChatGPT o Google Bard.

Nvidia está ingresando cada vez más en el mercado de la IA en el momento adecuado, no solo con el Workbench, sino también con herramientas como Nvidia ACE para juegos. Con modelos de IA generativa como ChatGPT siendo la última moda en este momento, es seguro asumir que muchos desarrolladores podrían estar interesados en la solución fácil de un solo punto de Nvidia. Si eso es algo bueno para el resto de nosotros aún está por verse, ya que algunas personas utilizan la IA generativa con fines cuestionables.
No olvidemos que la IA puede volverse bastante descontrolada por sí sola, como en los primeros días de Bing Chat, y cuantas más personas comiencen a crear y entrenar estos diversos modelos, más casos de comportamiento problemático o loco veremos en libertad. Pero suponiendo que todo salga bien, el AI Workbench de Nvidia ciertamente podría simplificar el proceso de implementación de nueva IA generativa para muchas empresas.
Pocos minutos después de que salieran informes el miércoles de que Microsoft está a punto de eliminar a Twitter de su plataforma publicitaria, el CEO de Twitter, Elon Musk, respondió con la amenaza de una demanda, alegando que el gigante de la informática utilizó ilegalmente los datos de Twitter, como los tweets de los usuarios, para entrenar sus herramientas de inteligencia artificial (IA).


"Entrenaron ilegalmente usando datos de Twitter", tuiteó Musk, añadiendo: "Es momento de una demanda".
La Conferencia sobre Tecnología de GPUs de Nvidia (GTC), que se celebra semestralmente, suele centrarse en los avances en IA, pero este año, Nvidia está respondiendo al gran auge de ChatGPT con una serie de nuevas GPUs. La más importante de todas es la H100 NVL, que une dos GPUs H100 de Nvidia para desplegar modelos de lenguaje grandes (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia la anunció hace un año en GTC, con su arquitectura Hopper y prometiendo acelerar la inferencia de IA en diversas tareas. Se dice que el nuevo modelo NVL, con sus enormes 94 GB de memoria, funciona mejor al desplegar LLMs a gran escala, ofreciendo hasta 12 veces más rapidez en la inferencia en comparación con el A100 de la generación anterior.
ChatGPT alcanzó fama viral en los últimos seis meses, pero no surgió de la nada. Según una publicación de blog publicada por Microsoft el lunes, OpenAI, la empresa detrás de ChatGPT, se acercó a Microsoft hace más de cinco años para construir infraestructura de IA en miles de GPUs de Nvidia.

La asociación entre OpenAI y Microsoft ha captado mucha atención últimamente, especialmente después de que Microsoft invirtiera 10 mil millones de dólares en el grupo de investigación que se encuentra detrás de herramientas como ChatGPT y DALL-E 2. Sin embargo, según Microsoft, la asociación comenzó hace mucho tiempo. Desde entonces, según informa Bloomberg, Microsoft ha gastado "cientos de millones de dólares" en desarrollar la infraestructura necesaria para respaldar a ChatGPT y proyectos como Bing Chat.