“AI is erg ingewikkeld in enterprise-omgevingen”, stelt Pure Storage CEO Charlie Giancarlo bij een persmoment tijdens Pure Accelerate deze week. Om dit vanuit het perspectief van storage aan te pakken, voegt het bedrijf vandaag meerdere nieuwe features, diensten en SLA’s toe aan het aanbod. Een nieuwe versie van Pure Fusion, Evergreen//One for AI en een aankomende certificatie voor een Nvidia-architectuur springen het meest in het oog.
Pure Accelerate is dit jaar een fundamenteel andere show dan vorig jaar. We hebben op de eerste dag namelijk nog vrijwel niemand de woorden FlashArray of FlashBlade in de mond horen nemen. De aankondiging van een nieuwe DirectFlash Module (DFM) van liefst 150TB, haalt het nieuws niet eens. Deze aankondiging doen woordvoerders min of meer tussen tussen neus en lippen door. Ook al is het een verdubbeling ten opzichte van de aankondiging van vorig jaar. Dit maakt het gat met de hoogste capaciteit HDD meteen een heel stuk groter dan het al was.
Lees ook: Pure Storage wil harddisks definitief overbodig maken
Het mag duidelijk zijn dat Pure op dit moment met andere dingen bezig is dan vorig jaar. Op zich is dat ook wel verfrissend. Het verhaal van vorig jaar dat HDD zijn langste tijd had gehad en dat flash het definitief gaat winnen is langzaam maar zeker realiteit aan het worden. Dat is niet alleen duidelijk uit de verhalen die we van Pure horen. Ook de groei in betaalbare QLC-flash bij concurrenten van Pure is een duidelijke indicatie dat HDD’s op steeds meer tiers vervangen worden door flash. Let wel, de flash-storage die andere partijen in de markt zetten zijn is gebaseerd op SSD’s niet op DFM’s. Dat is een wezenlijk verschil, maar voor het punt dat we hier willen maken maakt het niet zoveel uit. Flash is duidelijk hard aan het groeien en HDD’s aan het verdringen.
Waar gaat het dit jaar dan wel over bij Pure Accelerate? AI natuurlijk, hoe kan het ook anders. Pure heeft op allerlei vlakken hard gewerkt aan vernieuwingen op dit vlak. Het voornaamste doel hierbij is om de complexiteit die AI met zich meebrengt zoveel mogelijk onzichtbaar te maken en te houden.
Pure Fusion krijgt grote update
Een van de grootste aankondigingen van dit jaar is dat Pure een nieuwe versie van Fusion heeft ontwikkeld. Pure Fusion kun je zien als een “private cloud van storage”, in de woorden van Giancarlo. Het ziet alle storage als een enkele storage pool, of deze nu on-prem of in de cloud staat. We omschreven het in 2021, toen Pure Fusion voor het eerst op de markt kwam, als storage-as-code.
Die eerste versie uit 2021 was echter nog relatief beperkt, want werkte alleen in greenfield-omgevingen. De intelligentie erachter werd door Pure gehost in de cloud. De nieuwe versie zit ingebakken in de arrays van Pure. Dat zorgt ervoor dat het nu ook backwards compatible is, iets wat eigenlijk wel hoort bij alles wat Pure doet. Het wil immers evergreen zijn en blijven. Dat kan nu dus ook met Fusion. Daarnaast waren er ook de nodige klanten die geen gebruik van de cloud wilden of mochten maken. Die kunnen nu dus ook beter bediend worden.
Het was overigens zeker geen eenvoudige update die Pure aan Fusion heeft gegeven. Het heeft hard moeten werken om de Fusion control plane en de bestaande control plane op de arrays niet in elkaars vaarwater te laten komen. Het moest geen nieuwe externe control plane worden.
Pure Fusion is op zich niet per se een AI-gerelateerde aankondiging. Dat wil zeggen, ook als organisaties nog geen gebruikmaken van AI-workloads is Fusion interessant. Uiteraard brengt AI wel de nodige storage met zich mee, dus indirect is het optimaal provisionen en inrichten van de opslag wel degelijk belangrijk. Zo beschouwd heeft het er wel degelijk mee te maken.
Evergreen//One for AI
Waar Pure Fusion wellicht niet expliciet een AI-innovatie is, kunnen we dat wel duidelijk zeggen van Evergreen//One for AI. Dit is een nieuw Storage-as-a-Service (StaaS)-aanbod van Pure. Dit heeft als doel om de storage-behoeftes van AI-workloads voor organisaties in te richten zonder dat die zelf continu de storage aan het beheren zijn. Dat wil zeggen, Pure geeft prestatiegaranties af op basis van de maximale vereisten op het gebied van bandbreedte die de GPU’s hebben die gebruikt worden. Dat moet ervoor zorgen dat er nooit bottlenecks zijn.
Evergreen//One for AI is ontwikkeld voor omgevingen met grote aantallen GPU’s. Daar heb je globaal twee soorten data. De eerste soort is aan het werk, de andere is aan het rusten (data at work en data at rest). De bedoeling is dat de data die niets doet ook minder dure opslag gebruikt. Het is echter niet eenvoudig om te voorspellen hoeveel van iedere soort data nodig is in het soort grote omgevingen waar we het hier over hebben. Dat lost Evergreen//One for AI dus op, volgens Pure. Het volgt het daadwerkelijke gebruik en rekent alleen af wat is gebruikt.
Nvidia SuperPOD-certificering en AI Copilot
Om een StaaS-aanbod zoals Evergreen//One for AI in de markt te kunnen zetten, is het uiteraard ook belangrijk dat organisaties ervan uit kunnen gaan dat Pure weet waar het over praat. Daarvoor zijn certificeringen vanuit Nvidia van belang. Voor Nvidia OVX en DGX BasePOD zijn deze al beschikbaar. Later dit jaar verwacht het bedrijf echter ook de certificering voor Nvidia DGX SuperPOD binnen te halen. Dat houdt in dat het design van Pure gevalideerd is en er prestatiegaranties gegeven kunnen worden. Het geeft ook aan dat upgrades goed doorgevoerd kunnen worden zonder dat het een grote operationele impact heeft. Zoals gebruikelijk in 2024, dat we eerder dit jaar het jaar van Ethernet hebben genoemd, is het design van Pure Ethernet-gebaseerd.
Als laatste ontwikkeling op het gebied van AI bij Pure willen we tot slot ook nog even de AI Copilot aanstippen die het bedrijf heeft ontwikkeld. Volgens Shawn Hansen, de GM van de Core Platform Business Unit van Pure, is dit een “radicaal nieuwe manier om data te beheren en beschermen”. Het zorgt ervoor dat admins veel meer inzicht hebben en problemen sneller op kunnen lossen. “Het maakt een gemiddelde admin goed en een goede admin geweldig”, stelt hij dan ook. Dankzij een NLP-interface kun je er in gewone mensentaal vragen aan stellen en kom je als het goed is snel bij het antwoord dat je verder brengt.
De AI Copilot van Pure gebruikt de metadata die het bedrijf jaarlijks ophaalt van klanten. Dit is al snel zo’n 25PB. Deze data heeft niet alleen betrekking op de storage zelf, maar ook op hoe organisaties deze uitrollen en gebruiken. Daarnaast zijn er koppelingen met bijvoorbeeld de knowledge base van Pure. De AI Copilot maakt gebruik van GPT4 van OpenAI als LLM om de daadwerkelijke resultaten uit al deze data te halen. Interessant is verder ook nog dat de output van de AI Copilot niet alleen tekst zal zijn, maar ook zaken zoals plaatjes van kabels, kaarten, GUI en dergelijke.
Al met al zet Pure vandaag meerdere stappen om de complexiteit die AI met zich meebrengt aan te pakken. Het pakt beide kanten van de uitdaging aan. Er zijn verbeteringen aan het storage-aanbod waarop AI moet draaien, maar het vergeet ook niet om AI in te blijven zetten om storage beter inzetbaar te maken. Beide componenten zullen nodig zijn en blijven om AI en storage daar in te kunnen zetten waar het een verschil kan maken. Dat is na alle hardware-verbeteringen van de afgelopen jaren bij Pure op dit moment vooral een software-verhaal. Het bedrijf is zich daar heel goed van bewust en speelt er dit jaar uitstekend op in.