2min

Nvidia en Microsoft slaan de handen ineen voor de ontwikkeling van een supercomputeromgeving voor AI-werkzaamheden. Dit maakten beide bedrijven onlangs bekend. De supercomputeromgeving wordt geïmplementeerd in Azure.

Met de supercomputeromgeving willen de partners onderzoekers en bedrijven nog meer laten profiteren van de voordelen van AI. Dit om geavanceerd onderzoek en nieuwe innovaties mogelijk te maken. De bedrijven werken overigens al langer samen op het gebied van hoogwaardige AI-oplossingen en -modellen.

Infrastructuur

Binnen de samenwerking gaat Microsoft tienduizenden Nvidia GPU’s in zijn Azure-cloudomgeving implementeren. De techgigant heeft al veel instances die door Nvidia A100 GPU’s worden ondersteund. Deze worden nu vervangen door Nvidia H100 GPU’s. De nieuwe instances zijn reeds beschikbaar

De Nvidia H100 instances in Azure worden verder ondersteund met Nvidia Quantum-2 400 Gbps Infiniband-netwerkswitches. Op dit moment beschikken de instances over Nvidia 200 Gbps Infiniband switches.

Daarnaast leveren beide partijen diverse andere oplossingen voor de gezamenlijke AI-supercomputeromgeving. Microsoft levert bijvoorbeeld zijn open-source toolkit DeepSpeed. Deze technologie moet ervoor zorgen dat ontwikkelaars de infrastructuurvereisten voor neurale netwerken kunnen verlagen. Het gaat hierbij om de infrastructuur die nodig is om neurale netwerken te trainen. DeepSpeed wordt geoptimaliseerd om op Nvidia H100 GPU’s te draaien.

Nvidia biedt zijn Transformer Engine voor het versnellen van AI-modellen die de Transformer neural network architecture gebruiken. De engine is in de H100 GPU ingebouwd en moet neurale netwerken versnellen door de hoeveelheid data te beperken die zij moeten verwerken voor het voltooien van berekeningen.

Software

Op softwaregebied brengt Nvidia zijn Nvidia Enterprise AI-platform, zodat bedrijven makkelijker AI-modellen op Nvidia-processors kunnen draaien. Hierdoor is er minder werk nodig voor het bouwen, uitrollen en beheren van neurale netwerken. Ook biedt deze software een set voorgeconfigureerde neurale netwerken voor verschillende toepassingen.

Daarnaast gaan beide partijen ondersteuning bieden voor Enterprise AI op de komende Azure H100 instances.

Nvidia breidt Azure-gebruik uit

Verder kondigt Nvidia aan dat het in de nabije toekomst vaker de Azure-cloudomgeving van Microsoft gaat gebruiken. Hierbij worden Azure instances ingezet voor het ondersteunen van eigen onderzoek naar generatieve AI-oplossingen en -toepassingen. Denk hierbij aan AI-modellen, zoals het Megatron Turing NLG 530B-model dat vorig jaar door de partners werd ontwikkeld. Het model is in staat om tekst, video en softwarecode te genereren.

Tip: Microsoft en Nvidia introduceren gigantisch AI-model