5min

Analytics kan complex zijn in een hybride cloudomgeving, omdat data overal verspreid staat. Een goed fundament met daarbovenop een beheerde set tools kan dan helpen. Het HPE GreenLake platform laat organisaties data ontwikkelen, uitrollen en analyseren vanaf elke locatie.

Organisaties die zelf met analytics in de breedste zin van het woord aan de slag willen, zullen niet heel gelukkig worden van het gedistribueerde karakter van moderne IT-omgevingen. Want hoe bouw je de juiste workflows en pipelines om dit goed te kunnen doen, als niet alles op dezelfde plaats staat? Daar heb je in ieder geval een goed overzicht van en inzicht in de data voor nodig. Met andere woorden, er moet ergens een plek zijn waar je deze data vanuit een centraal punt kunt zien, beheren en bevragen. Daarnaast zijn er veel tools beschikbaar rondom data analytics en data science, die veel organisaties idealiter niet zelf willen beheren, maar als een dienst af willen nemen.

HPE heeft voor bovenstaande uitdagingen HPE Ezmeral Software ontwikkeld. Deze software wordt as-a-service aangeboden en bestaat uit twee componenten, beide beschikbaar as-a-service op het HPE GreenLake platform: HPE Ezmeral Unified Analytics Software en HPE Ezmeral Data Fabric Software.

Lees ook: De toekomst is niet on-prem, edge of cloud, maar edge-to-cloud

HPE Ezmeral Data Fabric Software

Het concept van een data fabric is erg populair de laatste jaren. Dat is niet gek, want een data fabric kan heel veel problemen oplossen die ontstaan door datafragmentatie en silovorming binnen organisaties. Het is een laag die als het ware over de hele IT-omgeving heen ligt en op die manier de data die in al die verschillende omgevingen en silo’s staat, bij elkaar brengt. Het geeft iedereen die data nodig heeft om zijn of haar werk te kunnen doen een enkele datalaag om mee aan de slag te gaan. Dat zorgt voor een veel eenvoudiger beheer van data, ook al staat deze verspreid over on-prem, edge en multi-cloud.

Een data fabric is voor meerdere profielen binnen organisaties interessant. Zo hebben we al de nodige toepassingen gezien van een data fabric voor applicatieontwikkelaars. Die willen bij het bouwen van een applicatie ook niet te ingewikkeld doen om de juiste databronnen te koppelen en kunnen dat via een data fabric snel en efficiënt doen. Een andere doelgroep zijn de profielen die zich meer met analytics bezighouden. Denk hierbij aan business- of data-analisten, maar ook data engineers en data scientists. Verder zal iemand die zich bezighoudt met het ontwikkelen van AI/ML-modellen ook zeker enthousiast worden van een data fabric.

HPE Ezmeral Data Fabric combineert bestanden, objecten, tabellen en streams en maakt het mogelijk om op die manier applicaties te bouwen die locatie-onafhankelijk zijn. Dat wil zeggen, het maakt niet uit waar ze draaien, ze kunnen via de data fabric altijd bij de data die ze nodig hebben. Naast toegang voegt een data fabric ook een extra laag beveiliging toe, omdat je de data nu ook centraal kunt beheren en beschermen. Dit biedt ook weer voordelen op het gebied van data governance. Je krijgt er simpelweg ook veel meer inzicht mee in je data, omdat je het allemaal centraal bij elkaar brengt.

Tip: Breng een cloudervaring naar on-prem storage en blijf bij de tijd

HPE Ezmeral Unified Analytics Software

Met alleen een data fabric ben je er nog niet als je graag centraal aan de slag wilt met de maximale waarde uit je data te halen. Bovenop de data fabric moet er ook nog het een en ander met die data gebeuren. Daar draaien de applicaties die ontwikkelaars, business analisten en data scientists en engineers bouwen en gebruiken. Dat is waar HPE Ezmeral Unified Analytics Software om de hoek komt kijken, het automatiseren en stroomlijnen van end-to-end AI/ML workloads waar verschillende teams mee kunnen werken in een managed omgeving. Deze workloads kunnen dan via de data fabric organisatiebreed draaien, waarbij ze gebruikmaken van de bronnen die nodig zijn voor de specifieke workloads.

Analytics tools worden standaard aangeboden en omdat HPE deze software via het SaaS-model aanbiedt, zorgt het er ook voor dat deze tools up-to-date blijven en gegarandeerd geschikt zijn voor het gebruik in enterprise-omgevingen. Daar hoeft een organisatie zich dan als het goed is ook niet meer druk om te maken. HPE Ezmeral blijft een omgeving met een open architectuur. De software ondersteunt open-source data science tools, data engineering tools en tools gericht op data analytics. Denk hierbij aan tools zoals Kubeflow, MLflow, Apache Spark, Presto SQL en dergelijke.

ISV’s kunnen er ook mee aan de slag, zij kunnen op die manier op maat gemaakte analytics oplossingen leveren aan hun klanten.

Analytics draait om meer dan tools

Je kunt HPE Ezmeral Software zien als het hybride datalake van HPE en van HPE GreenLake. Deze omschrijving verzinnen we niet zelf, maar is afkomstig van Mohan Rajagopolan, VP en General Manager voor Ezmeral Software bij HPE. We spraken hem recent tijdens HPE Discover in Las Vegas. Het is een zeer krachtig onderdeel van het aanbod van HPE GreenLake. Het kan daarnaast ook nog behoorlijk wat betekenen op het gebied van observability, een gebied waar HPE met de overname van OpsRamp ook de nodige stappen in aan het zetten is. OpsRamp is in de basis een ITOM-oplossing, maar heeft ook een observability-component. Een HPE data fabric kan veel waarde bieden op het gebied van observability, het heeft immers overzicht en inzicht over en in de data die verspreid over de organisatie staat. Dat is zeer waardevol vanuit het oogpunt van observability.

Qua analytics-tools zit het dus wel goed binnen HPE GreenLake. Het feit dat je het als een SaaS-oplossing afneemt betekent ook dat je alleen maar betaalt voor wat je gebruikt. Toch is er nog meer nodig om analytics echt goed in te richten. Dat gaf ook Rajagopolan toe toen we hem spraken. De juiste analytics-tools hebben is één, vervolgens ook nog de juiste vragen stellen is twee.

Het eerste heeft HPE met het aanbod binnen HPE Ezmeral Software afgedekt. Het opzetten van zeer complexe analytics-workloads kan inmiddels binnen dagen, het duurt geen weken (vaak tientallen weken) meer om alles goed in te richten.

Het tweede is echter nog wel altijd een uitdaging. Je kunt je data nog zo goed op orde hebben en een mooie applicatie hebben draaien die je in potentie heel veel inzicht en overzicht verschaft, als je niet de juiste vragen stelt kan er nog altijd een onbevredigend antwoord komen. HPE is dan ook druk bezig met uitzoeken hoe het copilots kan toevoegen aan het aanbod. Die kunnen gebruikers helpen de juiste vragen te stellen. Alleen dan krijg je echt de maximale waarde uit de data die je verspreid in de organisatie hebt staan.

Image copyright: GettyImages via HPE.