3min

Tot op heden was Amazon Web Services (AWS) de enige die fors investeerde in ARM-workloads. Bij Google en Microsoft leunden ze op de generieke Ampere Altra-chips. Dat verandert nu, want Microsoft voegt aan Azure de Maia- en Cobalt-chips toe, bedoeld voor AI- en generieke CPU workloads. Daarnaast voegt het ook Nvidia- en AMD-hardware toe. De Azure-infrastructuur krijgt daarmee dus een flinke upgrade.

Met Microsoft Azure Maia en Microsoft Azure Cobalt gaat het bedrijf uit Redmond de directe concurrentie aan met de AWS Inferentia en de AWS Graviton 3-chip.

De Azure Maia-chip zal gebruikt worden voor inferencing. Met inferencing kan het ondersteuning bieden voor AI-workloads zoals OpenAI, Bing chat en Copilot. Of deze chip ook beschikbaar komt in instances voor klanten, is nog niet helemaal duidelijk. Bij AWS is dat wel het geval, dus we vermoeden dat ook Microsoft deze zal gaan aanbieden.

De Azure Cobalt is de directe tegenhanger van de AWS Graviton 3-chip en alle Intel Xeon-chips. Deze is namelijk geoptimaliseerd voor generieke workloads (CPU), maar tegen een veel lager energieverbruik en lagere kosten; iets wat ook bij AWS het geval is bij alle ARM-gebaseerde chips. Bij deze chip kunnen we er wel vanuit gaan dat die snel voor klanten beschikbaar zal komen in menig regio. Dat zal waarschijnlijk ook leiden tot de nodige optimalisaties in de Azure Cloud. Organisaties kunnen hiermee hun Azure-kosten omlaag brengen.

Wel is het natuurlijk nog even afwachten tot we benchmarks zien van de prestaties van de Cobalt, maar ook het energiegebruik en het prijskaartje. De vraag is wel of Microsofts eerste eigen chip de concurrentie aan kan met de Intel Xeon’s en de Graviton 3.

Wat we wel zeker weten is dat Intel wederom concurrentie krijgt in de datacenters van de hyperscalers. Naast AWS ontwikkelt ook Microsoft nu eigen chips. Dat resulteert mogelijk in minder verkopen vanuit Intel aan Microsoft.

Ook de Azure Maia moet zich uiteraard nog bewijzen qua prestaties en kosten. Maar mocht die chip om wat voor reden dan ook niet bevallen, heeft Azure nog wat extra opties. Het voegt voor AI-workloads namelijk ook de AMD MI300X en de Nvidia H100 Tensor Core GPU’s toe aan het portfolio. Er komen nieuwe VM’s beschikbaar met deze chips aan boord.

Azure Boost beschikbaar

Tot slot presenteert Microsoft nu ook de beschikbaarheid Azure Boost. Dit is een systeem waarmee storage (opslag) en networking veel sneller worden. Azure Boost doet dit door deze (gevirtualiseerde) taken weg te halen bij de host machines en hypervisor, maar uit te voeren op speciaal daarvoor gebouwde hardware. Het lijkt erop dat Microsoft aan bepaalde instances een DPU heeft toegevoegd om dit mogelijk te maken. Het bedrijf stelt dat hierdoor netwerksnelheden van 200 Gbps mogelijk zijn en voor remote storage 10GBps met zo’n 400K IOPS, waarmee organisaties toegang krijgen tot extreem snelle opslag.

Alles bij elkaar geeft Microsoft zijn Azure-infrastructuur flinke upgrades op hardwaregebied, zodat het een grotere vuist kan maken tegen de concurrentie van AWS en Google Cloud.

Lees ook: H200: Nvidia’s nieuwste AI-chip met 141GB aan supersnel geheugen