Microsoft anunció algunos desarrollos en torno a su cartera de computación de IA en el reciente evento «Ignite», revelando la integración de Blackwell de NVIDIA con Azure y los nuevos chips AMD EPYC «Genoa» con memoria HBM personalizada.
No sería erróneo decir que Microsoft es líder en la introducción de servicios orientados a la IA al público, dado que el vasto arsenal informático de IA de la firma le permite tener una posición «exclusiva» en los mercados. En el reciente evento Microsoft Ignite, la firma reveló la utilización de los productos Blackwell AI de NVIDIA para la plataforma Azure, en particular con la última serie Azure ND GB200 V6 VM , que es la primera máquina virtual de la compañía basada en Blackwell.
Si profundizamos un poco más en los aspectos técnicos, la máquina virtual Azure ND GB200 V6 cuenta con dos superchips Grace Blackwell GB200, cada uno de ellos equipado con dos GPU Blackwell de alto rendimiento y una CPU Grace, interconectadas mediante la interfaz NVLink de Nvidia. Curiosamente, con varias bandejas NVLink integradas, Microsoft puede lograr proporcionar hasta 18 servidores de cómputo, lo que en última instancia proporciona 72 GPU Blackwell de NVIDIA en una sola plataforma. El escalado no es un problema con las máquinas virtuales más nuevas, gracias al sistema de estructura InfiniBand.
Las máquinas virtuales Azure ND GB200 V6 se encuentran actualmente en sus etapas de vista previa privada con socios seleccionados, y Microsoft planea lanzar la plataforma para un público más amplio pronto. Aparte de esto, Microsoft también anunció una máquina virtual «basada en CPU» en la plataforma Azure, llamada Azure HBv5 , que apunta específicamente a aplicaciones HPC con uso intensivo de ancho de banda de memoria.
Para obtener la mejor relación costo-beneficio y carga de trabajo, Microsoft decidió asociarse con AMD y utilizar sus CPU para servidores EPYC de cuarta generación. Estas son las especificaciones detalladas:
- 6.9 TB/s of memory bandwidth (STREAM Triad) across 400-450 GB of RAM (HBM3)
- Up to 9 GB of memory per core (customer configurable)
- Up to 352 AMD EPYC “Zen4” CPU cores, 4 GHz peak frequencies (customer configurable)
- 2X total Infinity Fabric bandwidth for CPUs like any AMD EPYC server platform to date
- SMT disabled, single-tenant only design (1 VM per server)
- 800 Gb/s of NVIDIA Quantum-2 InfiniBand, balanced as 200 Gb/s per CPU SoC
- Azure VMSS Flex to scale MPI workloads to hundreds of thousands of HBM-powered CPU cores
- 160 Gbps of Azure Accelerated Networking via 2nd generation Azure Boost NIC
- 14 TB local NVMe SSD delivering up to 50 GB/s read and 30 GB/s write bandwidth
Esto demuestra el dominio de la plataforma EPYC de AMD en los mercados, que ya ha logrado superar en ventas a Intel . En general, la cartera de IA de Microsoft sin duda está planeando ser una de las mejores del mercado, lo que le permitirá a la empresa capitalizar al máximo el uso e interés por la IA.