Ampliar / Una foto del chip Microsoft Azure Maia 100 que ha sido modificado con salpicaduras de color por el autor para que parezca que la IA misma estallara desde su sustrato de silicio. El miércoles en la conferencia Microsoft Ignite, Microsoft anunció dos chips personalizados diseñados para acelerar las cargas de trabajo de IA internas a través de su servicio de computación en la nube Azure: el Microsoft Azure Maia 100 AI Accelerator y el Microsoft Azure Cobalt 100 CPU.

Microsoft diseñó Maia específicamente para ejecutar grandes modelos de lenguaje como GPT 3.5 Turbo y GPT-4, que respaldan sus servicios Azure OpenAI y Microsoft Copilot (anteriormente Bing Chat). Maia tiene 105 mil millones de transistores fabricados en un proceso de 5 nm de TSMC. Mientras tanto, Cobalt es una CPU basada en ARM de 128 núcleos diseñada para realizar tareas de computación convencional como alimentar Microsoft Teams. Microsoft no tiene planes de vender ninguno de los dos, prefiriéndolos solo para uso interno.
Como hemos visto anteriormente, Microsoft quiere ser "la compañía Copilot," y necesitará mucha potencia informática para alcanzar ese objetivo. Según Reuters, Microsoft y otras empresas de tecnología han tenido dificultades con el alto costo de ofrecer servicios de IA que pueden llegar a ser diez veces más costosos que los servicios como los motores de búsqueda.
- Una foto del chip Microsoft Azure Maia 100, proporcionada por Microsoft.
- Una foto del chip Microsoft Azure Cobalt 100, proporcionada por Microsoft.
En medio de la escasez de chips que ha incrementado los precios de las tan buscadas GPU de IA de Nvidia, varias empresas han estado diseñando o considerando diseñar sus propios chips aceleradores de IA, incluyendo Amazon, OpenAI, IBM y AMD. Microsoft también sintió la necesidad de crear un silicio personalizado para destacar sus propios servicios.
Anuncio: "Al igual que construir una casa te permite controlar cada elección de diseño y detalle, Microsoft ve la adición de chips caseros como una forma de garantizar que cada elemento esté adaptado a las cargas de trabajo en la nube y de IA de Microsoft", escribe la empresa en su blog de anuncios. Luego agrega poéticamente, como un anuncio de galletas, "Los chips se acomodarán en placas de servidores personalizadas, colocadas dentro de racks hechos a medida que se ajustan fácilmente en los actuales centros de datos de Microsoft. El hardware trabajará de la mano con el software, co-diseñado para desbloquear nuevas capacidades y oportunidades".
Esta no es la primera incursión de Microsoft en el desarrollo de chips. Según The Verge, la empresa ha colaborado durante mucho tiempo en silicio para sus consolas Xbox y ha co-diseñado chips para su línea de tabletas Surface.
Ninguna empresa tecnológica es una isla, y Microsoft no es una excepción. La empresa planea seguir dependiendo de chips de terceros tanto por necesidad de suministro como probablemente para complacer a su compleja red de asociaciones comerciales. "Microsoft también añadirá la última GPU Nvidia H200 Tensor Core a su flota el próximo año para admitir inferencias de modelos más grandes sin aumentar la latencia", escribe, refiriéndose a la GPU de aceleración de IA recientemente anunciada por Nvidia".
Y también agregará máquinas virtuales aceleradas por AMD MI300X a Azure.
Entonces, ¿qué tan bien funcionan los nuevos chips? Microsoft aún no ha publicado datos de referencia, pero la empresa parece estar satisfecha con las relaciones de rendimiento por watt de los chips, especialmente para Cobalt. "La arquitectura y la implementación están diseñadas teniendo en cuenta la eficiencia energética", dijo Wes McCullough, vicepresidente corporativo de desarrollo de productos de hardware de Microsoft, en un comunicado. "Estamos utilizando de manera eficiente los transistores en el silicio. Al multiplicar estos avances de eficiencia en los servidores de todos nuestros centros de datos, la cifra final es bastante significativa".