Nividia lanceert AI-workloads voor VMware Cloud on AWS

Nividia gaat AI en machine learning naar de cloud brengen. Meer specifiek worden er “accelerated GPU services” aangeboden voor VMware Cloud on AWS.

De nieuwe dienst makakt het volgens SiliconAngle mogelijk om al bestaande vSphere-applicaties te migreren naar Vmware Cloud on AWS. Na deze migratie wordt het mogelijk om de GPU’s van Nividia te gebruiken voor onder andere High Performance Computing (HPC) Ook behoren machine learning, data analytics en applicaties voor video processing tot de mogelijkheden.

Volgens Nvidia zijn GPU’s uitermate geschikt voor AI-workloads. Dit omdat training en inference bij machine learning minder tijd kosten in vergelijking met CPU’s. De nieuwe dienst combineert de EC2 bare-metal instances van Amazon met Virtual Compute Server van Nividia en de T4-GPU’s van dat bedrijf.

“Van operationele intelligentie tot kunstmatige intelligentie vertrouwen bedrijven op GPU-computing om snelle, nauwkeurige voorspellingen te doen die direct van invloed zijn op hun bottom line”, zegt Nvidia-CEO Jensen Huang over de nieuwe dienst. “Samen met VMware ontwerpen we de meest geavanceerde GPU-accelerated hybrid cloudinfrastructuur om innovatie door de hele onderneming te bevorderen.”

Flexibeler werken met AI

De nieuwe dienst zal gebruikers volgens Nvidia de mogelijkheid geven om AI-workloads op of af te schalen indien nodig. Verder zijn er verbeterde security en beheer van AI-applicaties mogelijk. Ook de mobiliteit van applicaties wordt veel groter. Dit komt doordat het mogelijk is om applicaties binnen een mum van tijd te migreren tussen on premise en de VMware Cloud.

Wikibon-analist James Kobielus stelt tegenover SiliconAngle dat VMware klanten dankzij de samenwerking eenvoudig AI-workloads die op bare metal CPU’s draaien, kunnen verplaatsen naar gevirtualiseerde clusters van de nieuwste Nvidia-GPU’s die op VMware Cloud on AWS draaien. Volgens hem kan dit voor VMware resulteren in een voorsprong op andere hybrid cloud-leveranciers kunnen opleveren.