5min

HPE wil het voor organisaties mogelijk maken om Artificial Intelligence (AI) sneller en eenvoudiger af te nemen. HPE GreenLake speelt hierin een belangrijke rol. Hoe wil het bedrijf dit gaan doen?

2023 is het jaar van AI, hoorden we tijdens HPE Discover uit de mond van Antonio Neri, de CEO van HPE. Niet dat AI er voor dit jaar niet was. Het zit al in heel veel platformen en software verweven. Maar dit jaar heeft het echt de mainstream bereikt. Dat wil zeggen, het heeft heel veel aandacht gekregen over de hele wereld, vooral dankzij de doorbraak van de zogeheten Large Language Models (LLM’s), die gebruikmaken van generatieve AI. Inmiddels is de echte piek van de nieuwe hype wel weer een beetje gaan liggen, maar is het wel duidelijk dat het een blijvertje is.

Een van de problemen waar bedrijven tegenaan lopen als ze zelf met (generatieve) AI aan de slag willen, is dat het niet voor iedereen bereikbaar is. Het trainen, finetunen en in gebruik nemen van modellen vergt doorgaans behoorlijk wat resources, zowel op het gebied van infrastructuur als op het gebied van kosten. De hardware die je ervoor nodig hebt, is ook tamelijk specialistisch. Je hebt er High Performance Computing voor nodig. Dat vind je ook niet zomaar in een public cloud bijvoorbeeld.  

HPE heeft deze uitdaging bij organisaties gezien. Met HPE GreenLake heeft het bedrijf de mogelijkheid om ook AI aan te bieden aan klanten. We leggen hieronder uit hoe het bedrijf dit voor zich ziet.

Lees ook: Haal zoveel mogelijk waarde uit je data, van de edge tot de cloud

HPE zet eerste stappen op LLM-markt

Recent kondigde HPE tijdens het eigen Discover-evenement een eerste AI-dienst aan op het HPE GreenLake platform. Het gaat hier specifiek om HPE GreenLake for Large Language Models. Hiermee springt HPE in op de populariteit van LLM’s. Het levert de mogelijkheden die deze bieden echter als een dienst, zoals we dat gewend zijn van HPE GreenLake. Organisaties hoeven op deze manier niet te investeren in een eigen supercomputer. Ook zal zouden ze dat kunnen betalen, de kans is groot dat de kennis die nodig is om het ook echt te gebruiken niet aanwezig is daar. Organisaties zijn daarnaast ook niet overgeleverd aan het aanbod van de public cloud-spelers.

Het mag duidelijk zijn dat HPE een gat in de markt ziet voor deze HPE GreenLake AI-dienst. Het is echter niet zo dat het bedrijf deze dienst even snel in elkaar heeft gezet toen het zag dat LLM’s populair werden. We spraken tijdens HPE Discover met Edmondo Orlotti, Director of Business Development voor HPC/AI. Die gaf aan dat hij al in september 2022 ‘on the record’ heeft gezegd dat LLM’s heel groot zouden gaan worden. Dit om aan te geven dat er binnen HPE al heel wat langer over LLM’s werd nagedacht. Op zich is dat ook logisch natuurlijk, want OpenAI was er ook niet zomaar plotseling in november/december 2022. GPT-3.5 was niet het eerste LLM dat beschikbaar was. De meeste leveranciers die hier iets mee wilden, wisten dit natuurlijk ook en waren er al mee bezig achter de schermen. Dat geldt ook voor HPE.  

De AI-stack van HPE gebruikt supercomputer

Om duidelijk te maken dat het HPE menens is met betrekking tot AI, heeft het een volledige stack eromheen opgezet. Deze stack begint met de basis. Dat is HPE Cray, de fabrikant van supercomputers die HPE in 2019 over heeft genomen. De HPC-capaciteiten hiervan vormen het fundament voor alles wat HPE op het gebied van AI doet. Het gaat hierbij dan niet alleen om de hardware, maar ook om de HPE Cray Programming Environment. Deze bestaat onder andere uit een software suite die specifiek is gericht op het optimaliseren van HPC- en AI-toepassingen. Daarnaast zijn er specialistische tools beschikbaar voor het ontwikkelen, porten, debuggen en tunen van code die op de systemen draait.

Het blijft echter niet bij het HPE Cray-fundament. Bovenop deze basis biedt HPE meerdere softwareplatformen die zich specifiek bezighouden met AI. De eerste hiervan is HPE Machine Learning Development Environment. Dit doet precies wat je verwacht op basis van de naam. Je kunt deze omgeving gebruiken om snel je generatieve AI-modellen te trainen, op een betrouwbare manier.

Verder biedt HPE op deze laag van de AI-stack ook nog HPE Machine Learning Data Management. Dit is een belangrijk onderdeel, want zorgt ervoor dat je zaken kunt reproduceren voor compliance- en auditdoeleinden. AI kan nog weleens aanvoelen als een black box, dat moet hiermee dus tegengegaan worden. Dit platform heeft ook als doel om het eenvoudiger te maken om ML-workloads op te schalen. Dit kan het zelfstandig doen, zonder code te herschrijven. Dit moet de verwerkingstijd terugbrengen van weken naar uren, belooft HPE. Tot slot heeft HPE Machine Learning Data Management als doel om ML over alle denkbare omgevingen heen in te kunnen zetten. Het is bedoeld om volledig agnostisch te zijn op het gebied van talen, libraries of frameworks.

De derde en bovenste laag van de AI-stack van HPE is het aanbod aan AI-modellen. Daar heeft HPE er eveneens voor gekozen om in principe agnostisch te zijn. Het dwingt klanten niet naar een specifiek model. Organisaties kunnen open-source-modellen draaien bovenop de onderliggende HPE-infrastructuur en -tooling. Het is echter ook mogelijk om er propriëtaire modellen op te draaien. Voor HPE GreenLake for Large Language Models was Luminous van het Duitse Aleph Alpha de launch partner, maar dit kunnen ook andere modellen zijn.

Er komt nog meer aan

AI is overduidelijk van strategisch belang voor HPE en voor HPE GreenLake. Het geeft HPE GreenLake in de huidige tijd een potentieel zeer interessante extra dienst. De al eerder aangehaalde Edmondo Orlotti stelt onomwonden dat organisaties die geen LLM’s gebruiken zullen verliezen van organisaties die dat wel doen. Als dat waar is, dan is het erg prettig dat in principe iedere organisatie gebruik kan maken van HPE GreenLake for Large Language Models. Er zijn op dit moment overigens nog wel beperkingen hierin. De modellen die je kunt inzetten kunnen bijvoorbeeld beperkingen hebben op het gebied van ondersteunde talen. Zo is Aleph Alpha beschikbaar voor Engels, Frans, Duits, Italiaans en Spaans. Het doel is echter wel om ieder land/iedere taal van een eigen LLM te voorzien. Daar hebben de landen zelf ook een belangrijk aandeel in. Die moeten er mede voor zorgen dat dit gaat gebeuren.

Het blijft tot slot niet bij HPE GreenLake for Large Language Models, belooft HPE nu alvast. Dit is natuurlijk een logisch startpunt, want generatieve AI en LLM’s zijn nu eenmaal erg populair op dit moment. Richting de toekomst heeft HPE nog veel meer in petto. Het gaat werken aan toepassingen voor het maken van klimaatmodellen, medicijnenonderzoek, de financiële dienstverlening en ga zo maar door.

We hebben het laatste dus nog niet gehoord van HPE als het gaat om AI. HPE GreenLake for Large Language Models is eind van dit jaar beschikbaar in de VS. Europa volgt begin 2024. Het is op dit moment al wel mogelijk om de nieuwe dienst aan te vragen. We verwachten de komende jaren een behoorlijk versnelling in de ontwikkeling van additionele diensten. De basis is er nu immers, dan kan het niet anders of er komen relatief snel meer diensten. Dat heeft HPE in de afgelopen vijf jaar, sinds de start van HPE GreenLake wel bewezen.

Tip: Moderniseer IT-infrastructuur sneller naar de cloud

Image copyright: GettyImages via HPE.