NetApp en Nvidia maken on-premise verwerking AI-workloads mogelijk

Abonneer je gratis op Techzine!

Alle grote cloudproviders bieden diensten waarmee ontwikkelaars op hun platformen kunstmatige intelligentie kunnen ontwikkelen. Sommige bedrijven kiezen er echter voor die ontwikkeling niet in de cloud plaats te laten vinden, maar juist on-premise. En precies op die bedrijven richt NetApp zich met een nieuw systeem.

Het gaat om Ontap AI, dat snel grote workloads kan draaien. Er bestaan wel soortgelijke diensten, bijvoorbeeld AIRI van Pure Storage, maar NetApp weet Ontap AI te onderscheiden op het vlak van software. Dit systeem draait namelijk op het Ontap-besturingssysteem, dat geïntegreerd is met Google’s cloudplatform. Hiermee kunnen klanten data zowel on-premise als in Google Cloud verwerken.

De hardware

Ontap AI combineert de A800-flash array met de DGX-1, een gespecialiseerde server van Nvidia Corp, die ontwikkeld is om AI-workloads te draaien. Die laatste maakt gebruik van de GPU’s van de chipfabrikant, die zeer geschikt zijn om AI-modellen te draaien. Het gaat specifiek om de V100 GPU’s.

De DGX-1 beschikt over maar liefst acht van die Nvidia V100 GPU’s en 256 gigabyte aan GPU-geheugen. Dat geheel zit in een chassis dat verkocht wordt voor 129.000 dollar. Volgens Nvidia kan het systeem tot een petaflop aan rekenkracht bieden. Daarmee zou het systeem geschikt moeten zijn om een flinke workload aan te kunnen.

De NetApp A800-array kan ook heel wat; dat systeem kan gecombineerd worden met maximaal 79 petabyte aan flashopslag, wat zich laat vertalen tot een maximale effectieve capaciteit van 258,3 petabyte. NetApp claimt dat dit systeem geschikt is voor 1,3 miljoen input/output operations per seconde, met een latency van minder dan 500 microseconden.

Dat stelt de array ertoe in staat om veel data naar de AI-modellen op de DGX-1 over te zetten. Ontap AI integreert de twee systemen tot één oplossing.