De juiste hardware voor dataopslag: welke infrastructuur voor welke data?

Abonneer je gratis op Techzine!

Data alleen voegen niet direct waarde toe aan een bedrijf. Eerst worden er kosten gemaakt voor de opslag van data en de bijbehorende infrastructuur. Om het maximale (d.w.z. Smart Data) uit een steeds onuitputtelijker wordende verzameling aan data te halen, zijn intelligente benaderingen en methoden nodig. Daarnaast is er voor deze slimme dataverwerking ook de juiste hardware nodig.

De eerste vraag in deze context betreft de juiste opslag van data. Optimale datavoorziening – of dat nu in het datacenter of in de cloud is – is cruciaal. Hierdoor kunnen de data zowel centraal, als decentraal worden geëvalueerd en gebruikt.

Dataopslag: een combinatie van interne en externe opslag

Hiervoor worden opslagplatforms gebruikt die zowel on- als off-premise beschikbaar zijn. Op deze manier kunnen de data, die zich daar bevinden, worden overgebracht naar krachtige computersystemen om te analyseren en gebruiken. Zo kunnen intelligente opslagsystemen worden gebouwd, met behulp van gelaagde data management software.

Hoe dan ook, het doel moet altijd zijn om minder zorgen te hebben over de opslaglocatie en meer over het opslagtype. Hier kan een geavanceerde hybride cloudstrategie helpen bij het vinden van de juiste antwoorden op opslagvragen.

Sla ‘koude’ en ‘warme’ data correct op

Voorafgaand aan de eerste stap moet duidelijk zijn om welke data het voornamelijk gaat en hoe deze moeten worden opgeslagen. De kwaliteit en kwantiteit van de benodigde aankopen zijn hiervan afhankelijk. Enerzijds zijn er ‘koude data’, die bij voorkeur overgezet kunnen worden naar een archief voor de lange termijn. Hier speelt tape nog steeds een belangrijke rol, omdat het resistent is en een zeer goede prijs-prestatieverhouding biedt. Maar ook ‘block-storage systemen’ zijn hiervoor een goede keuze.

Voor de snelle analyse van actuele data zijn daarentegen krachtige systemen nodig die in toenemende mate profiteren van de NVMe-protocoltechnologie. Hierdoor kunnen data razendsnel de machine bereiken waarop data moeten worden geanalyseerd en verwerkt. Deze combinatie van koude en warme databronnen resulteert in een architectuur die nodig is voor AI-ondersteunde analyse en de verwerking van grote hoeveelheden data.

Het belangrijkste bij deze overwegingen is de juiste voorsortering van de data. Want alleen een prioritering van de beschikbare datasets leidt tot het gewenste doel. Het kan bijvoorbeeld zinvol zijn om de bezochte websites te sorteren en te evalueren op basis van bepaalde criteria in plaats van alleen de impressies.

Procesoptimalisatie

Het correleren van bestaande data kan bijvoorbeeld van cruciaal belang zijn voor een eerste vóórselectie. Hiermee kunnen processen op grote of kleine schaal, volledig automatisch en tijdens runtime van de bijbehorende processen worden geoptimaliseerd. Knelpunten in het aanbod kunnen zo worden gecompenseerd en opgevangen – een belangrijk onderwerp met name in de huidige pandemie.

De netwerkinfrastructuur moet gelijke tred houden met de dataverwerking

Als we het hebben over koude en warme data, is het ook belangrijk om de juiste netwerktopologie te evalueren. In Ethernet-omgevingen is de 25 Gigabit-variant (Gbit) bijvoorbeeld een standaard die steeds vaker wordt gebruikt. Daarnaast is er een trend naar 100 Gigabit (Gbit) waar te nemen, wat gezien de enorme datavolumes de volgende logische stap betekent in de Ethernet-infrastructuur.

Tegelijkertijd blijft Fibre Channel-technologie een belangrijke rol spelen, vooral in de block storage-omgeving, zoals bijvoorbeeld bij SAN-installaties het geval is. Dit blijkt uit het feit dat de FC-standaard nog in ontwikkeling is. Momenteel is 32 Gbit per seconde over het algemeen de maatstaf, maar de eerste 64 Gbit-opslagsystemen staan ​​al op het punt om de markt op te gaan.

Hierbij moet worden opgemerkt dat de eerste fabrikanten al zijn gestopt met de productie van hun 16 Gbit FC-opslagcomponenten. Het kan daarom aan te raden zijn om de vijfde generatie (32 Gbit) over te slaan en direct voor de 64 Gbit variant te gaan.

Breng lokale opslag over naar de hybride cloud

Datamanagementsoftware “Netapp Ontap” zorgt voor flexibele toegang tot hybride clouddata. Dit kan onder andere de beschikbaarheid van data aanzienlijk verbeteren. Dit gebeurt zelfs op applicatieniveau door prioriteiten toe te kennen aan de bestaande applicaties. Hierdoor is het mogelijk om te bepalen welke apps bij een calamiteit “live” worden gehouden – en welke niet. Daarnaast biedt de huidige versie 9.8 van Ontap uitgebreide snapshot-opties, waarmee lokale opslagsystemen kunnen worden gesynchroniseerd met cloudomgevingen zoals AWS S3.

Slimme data genereren dankzij AI en analysemethoden

De steeds grotere hoeveelheid aan data vraagt om nieuwe methoden om het op de best mogelijke manier te evalueren. Hiervoor wordt al geruime tijd AI gebruikt en de ver ontwikkelde algoritmen zorgen ervoor dat de beschikbare data op de best mogelijke manier beschikbaar worden gemaakt. Er worden allerlei benaderingen en oplossingen gebruikt die gespecialiseerd zijn in het verwerken en analyseren van grote hoeveelheden data.

Deze omvatten technologieën zoals Apache Hadoop en Spark, die werken op high performance machines. Ook de keuze van een geschikt databasesysteem is belangrijk. Hier zijn krachtige tools beschikbaar met “Microsoft SQL Server” Big Data Cluster, “IBM Db2 Warehouse” en verschillende SAP-oplossingen. Maar ook speciaal ontwikkelde oplossingen zoals IBM Watson Studio en Lenovo Intelligent Computing Orchestrator (Lico) halen op AI-basis het beste uit de bestaande data.

Interessant in dit verband is ook de softwaretool TIM (Thinksystem Intelligent Monitoring) versie 2.0, waarmee opslagsystemen op AI-basis kunnen worden beheerd en gemonitord. TIM detecteert onafhankelijk opslagknelpunten of verkeerde configuraties en kan zo helpen deze automatisch te corrigeren.

Het controleren van de huidige firmware behoort ook tot de taken van TIM. Dit ontlast IT-beheerders van routinetaken. Omdat het een cloudgebaseerde oplossing is, kunnen zowel de bedrijven zelf als de channel partners de software voor hun doeleinden gebruiken.

Conclusie

Om als bedrijf het maximale te halen uit de steeds grotere hoeveelheden beschikbare data, is het belangrijk dat er gekeken wordt naar de huidige manier van dataverwerking en hoe dat proces kan worden verbeterd.

Investering in netwerkinfrastructuren en de implementatie van AI-technologieën zijn bijvoorbeeld vereisten geworden in een wereld waar er steeds meer data rondgaan.

Om de stap te nemen van het maken van kosten bij dataopslag, naar het creëren van waarde met behulp van data, is het belangrijk om op een slimme manier data te verwerken en optimaal gebruik te maken van nieuwe technologieën.

Dit is een ingezonden bijdrage van Tina Borgbjerg, General Manger Nordics en Benelux bij Lenovo Infrastructure Solutions Group (ISG). Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.