11min

Iedere organisatie kan en moet stappen zetten om meer waarde uit data te halen. Maar hoe doe je dat? Een rondetafelgesprek over het stellen van doelen, het koppelen van databronnen en het vooral ook gewoon beginnen met meer te doen met data.

Heel veel data verzamelen lijkt wel een businessmodel op zich geworden tegenwoordig. Op zich niet zo gek, want uit data haal je als organisatie allerlei inzichten die je organisatie als geheel vooruit kunnen stuwen. De stap van dit conceptuele inzicht naar het daadwerkelijk optimaal inzetten van de beschikbare data in de praktijk is echter een behoorlijk complexe. Dit heeft namelijk de nodige repercussies. De impact van een dergelijke stap is voel- en zichtbaar in vrijwel de gehele organisatie. Er is dus behoefte aan inzicht in hoe dit optimaal in te richten. Daar hebben we het recent tijdens een rondetafeldiscussie uitgebreid over gehad.

Wie zitten er aan tafel?

We bespreken dit onderwerp met vier specialisten op het gebied van dataverzameling, dataverwerking en in het algemeen het nastreven van een datacentrische benadering voor organisaties. Aan tafel zitten Jurriaan Krielaart van Dataiku, Niels van der Vaart van Esri Nederland, Teun Naber van Iron Mountain en Edgar de Groot van Thoughtspot. Een mooie mix dus van enkel nieuwe spelers op de datamarkt met Dataiku en Thoughtspot en twee spelers die ruim 50 en 70 jaar bestaan met respectievelijk Esri en Iron Mountain.

We hebben ook een kort videoverslag van de rondetafel gemaakt. Dat kun je hieronder bekijken.

Ook op het gebied van invalshoeken is er de nodige diversiteit. Dataiku richt zich op het bieden van wat het everyday AI noemt en ziet zichzelf als de koppeling tussen verschillende datadisciplines. Thoughspot is een cloudgebaseerd analytics platform met een sterke focus op het zo toegankelijk mogelijk maken van deze van oudsher complexe discipline. Esri is een grote speler in de GIS-markt en zet geografische data in om meerwaarde te creëren voor klanten die hun software gebruiken. Iron Mountain is tot slot gespecialiseerd in records en datamanagement, zowel op papier als digitaal. Daarnaast houdt het zich bezig met het veilig afvoeren van datadragers.

Is alle data waardevol?

We beginnen het gesprek met een tamelijk basale vraag. Waar hebben we het eigenlijk over als we het hebben over data waar je als organisatie iets aan hebt? Met andere woorden, kun je met alle data iets aanvangen op dit punt? Of is er ook zoiets als waardeloze data?

Krielaart heeft hier een duidelijke mening over: “In principe heeft alle data waarde, anders sla je het niet op.” Hij nuanceert dit ook meteen enigszins door aan te geven dat het wel afhangt van de toepassing of bepaalde data waarde heeft of niet. Wat voor de ene toepassing relevant is, is dat voor de andere niet. Relevantie is volgens De Groot sowieso een belangrijk criterium: “Dat is de data waar je als eerste meer uit wilt halen.” Naber voegt hieraan toe dat de focus bij het bepalen van de waarde van data ligt op data waar KPI’s aan verbonden zijn. Daar haal je immers organisatiebreed meetbaar resultaat uit.

Jurriaan Krielaart, Dataiku

Beperk jezelf niet te veel

Het is wellicht verleidelijk om een koppeling te maken tussen hoe mission critical de toepassingen zijn waarvoor je met data aan de slag wilt en met waar de focus moet liggen. Dat is echter niet de juiste benadering, stelt Krielaart. De stip op de horizon moet leidend zijn, geeft hij aan. Van der Vaart ziet vanuit zijn invalshoek ook dat dit aan het gebeuren is. “Er wordt steeds meer vanuit het uiteindelijke doel gedacht”, geeft hij aan. Dat is op zich ook mogelijk, omdat er steeds meer data beschikbaar komt. Vanuit zijn wereld van geografische data noemt hij hierbij data die je genereert als je met de auto rondrijdt. Daar kan hij heel veel extra waarde mee toevoegen voor zijn klanten.

Een stip op de horizon zetten betekent doorgaans dat je ambitieuze doelen stelt. Een dergelijk doel hoeft overigens niet per se meer omzet te zijn, geeft De Groot aan. Je kunt ook denken aan zoiets als het terugdringen van churn, oftewel het verloop van klanten. Krielaart ziet bij de voornamelijk grote klanten die hij heeft ook sustainability als belangrijke stip. Dat is ook zeker iets wat vaak speelt bij kleinere bedrijven, voegt De Groot hieraan toe. Een stip op de horizon bestaat echter uiteindelijk ook uit heel veel kleine stapjes. Dat moet je als organisatie niet vergeten. Pak dus vooral ook het laaghangende fruit mee, stelt Krielaart. Je moet jezelf door een ambitieuze stip ook weer niet te veel laten beperken.

Beperkingen

Alle data mag dan in principe waardevol zijn, dit betekent nog niet dat organisaties het ook zomaar kunnen gebruiken. De praktijk is ook op dit punt weerbarstiger dan de theorie. De versnippering van data speelt hier een belangrijke rol in. Er zijn nog altijd veel silo’s, geeft Krielaart aan, terwijl zowel Van der Vaart als Naber aanstippen dat er nog veel fysieke datadragers zijn, bijvoorbeeld kaarten en papieren archieven. “Hoe ga je die digitaal toegankelijk maken”, stelt Naber een min of meer retorische vraag. Om hier meteen aan toe te voegen dat dit in principe niet onmogelijk is, maar het vooral een kosten-baten-verhaal is. Met andere woorden, ook hier moet je heel scherp hebben waarom je dit doet.

De cloud speelt niet heel verrassend een belangrijke rol in het te lijf gaan van bovenstaande beperkingen bij het ontsluiten van datasets. De Groot stelt onomwonden dat data in de cloud moet staan als je deze wilt ontsluiten. Dan is deze data namelijk te koppelen. En pas als je data kunt koppelen, gaat het echt waarde toevoegen, geeft hij aan. Welke datasets de meeste waarde toevoegen, hangt zoals al eerder aangegeven af van wat je doel is. Je bent dan ook nooit klaar met je datawarehouse, maar je kunt de basis wel optimaal inrichten om snel te kunnen schakelen.

Uiteraard is het niet zomaar voor iedereen mogelijk om alle datasets in de cloud te gooien. Sommige sectoren hebben te maken met wet- en regelgeving die dit vooralsnog verbiedt. Daarnaast is de cloud niet gratis, dus het heeft niet voor alle data zin om het te doen. Je kunt uiteraard wel staffelen op basis van beschikbaarheid en dergelijke, maar er zal altijd, of in ieder geval nog lange tijd, wel wat data on-premises blijven staan. Dit kan uiteraard ook in de vorm van een private cloud zijn.

Het gaat niet (alleen) om kwaliteit

Een van de mantra’s die we vaak horen in de markt is dat data kwalitatief goed moet zijn om ook tot goede uitkomsten te leiden. Vaak komt dan ook binnen de kortste keren het bekende garbage in, garbage out om de hoek kijken. Met deze insteek is men het aan tafel fundamenteel oneens. Het is weliswaar mooi als de data zo goed mogelijk is, maar dit betekent niet dat je die eerst volledig op orde moet hebben voor je ermee aan de slag kan. “Dat is een beetje hetzelfde als wachten tot je datawarehouse af is”, verwijst Van der Vaart naar een eerdere opmerking van De Groot.

Niels van der Vaart, Esri Nederland

Sterker nog, als je met je data aan de slag gaat, zie je ook wat er niet in orde is, voegt Krielaart toe. Met andere woorden, je verhoogt de kwaliteit van je data door ermee aan de slag te gaan. Kwaliteit is zelfs een van de eerste dingen die je ontdekt als je aan de slag gaat met data. Het is daarnaast ook niet zo dat data die kwalitatief niet 100 procent is, geen waarde heeft, doet ook De Groot nog een duit in het zakje. Je kunt ook uit dat soort data zeer goede en belangrijke inzichten halen. Naber noemt als een van deze inzichten dat je uit een dergelijke analyse meteen duidelijk hebt waar de pijnpunten zitten binnen een organisatie op het gebied van data.

Voorkom ruis

Op zich is het dus een goed idee om je niet blind te staren op de kwaliteit van de data vooraleer je er iets mee gaat doen. Dit betekent echter niet je er maar gewoon mee moet gaan beginnen, zonder daar verder goed over na te denken. “Je moet vooral zorgen dat je zoveel mogelijk ruis weghaalt”, in de woorden van Naber.

Om dit te bereiken moet het combineren van datasets en systemen leidend zijn, is de overtuiging van De Groot. Je hoeft hierbij ook niet alle data te transformeren, voegt Krielaart hieraan toe. Transformeer alleen de data die je nodig hebt. Met andere woorden, ga voor een ELT-aanpak.

Verder doe je er als organisatie goed aan om met het ook op de cloud een onderscheid te maken tussen opslag en compute. Het eerste is relatief goedkoop, het tweede duur. “Als je een business case maakt, gooi dan niet alles open voor iedereen”, is zijn advies. Het is op zich heel interessant om al je data te bevragen, maar het is zeer de vraag of je dat moet willen. Dit is deels een financieel verhaal, maar heeft ook sterke governance-aspecten, vult Krielaart verder aan. “Je moet restricties in kunnen bouwen met betrekking tot hoe mensen data gaan gebruiken”, stelt hij.

Naast financieel en op het gebied van governance, stelt Van der Vaart ook vast dat je ook niet zomaar alles overal op kunt slaan. “Als je het bijvoorbeeld hebt over camerabeelden en AI op die beelden, dan wordt ook bandbreedte een bottleneck”, legt hij uit. De grote vraag wordt dan waar je de analyse van die beelden wilt gaan doen. Je kunt dit op de camera doen, of met snapshots werken en pas opschalen naar de volledige data als dit nodig blijkt te zijn.

Data van buitenaf biedt grote kansen…

Als het gaat om het inzetten van data door organisaties, gaat dit niet alleen over de data van die organisaties zelf. Er zijn namelijk nog veel meer databronnen beschikbaar. Voor Esri is dat volgens Van der Vaart geen nieuws. Zij gebruiken allerlei open databronnen, zoals kadasterdata. De Groot wijst vanuit Thoughspot in dit opzicht op de Snowflake Marketplace, waar je data kunt kopen en verkopen.

Er zijn extreem veel externe databronnen voor organisaties om mee aan de slag te gaan, geeft ook Krielaart aan. Een op het eerste gezicht wat verrassend voorbeeld dat hij geeft is de Action. Die winkelketen maakt volgens hem gebruik van zoveel databronnen, dat is ‘echt niet te filmen’. Dat is een van de redenen waarom ze continu maar nieuwe winkels neerzetten. Ze analyseren met behulp van zoveel mogelijk bronnen waar een winkel een succes wordt en waarom dat het geval is.

…maar brengt ook risico’s met zich mee

Databronnen van buitenaf kunnen veel toevoegen aan de datastrategie van een organisatie, zoveel is duidelijk. Je bent er echter ook voor een deel afhankelijk van, ook al heb je er zelf geen rechtstreekse controle over. Vandaar ook dat Naber zich op dit punt in het gesprek hardop afvraagt wat er gebeurt als die data wegvalt. Je hebt op deze data toch een deel van het succes van je organisatie gebouwd. “En wat als je werkt met een datamodel dat je vervolgens ook weer wegzet bij je eigen klanten”, vervolgt hij. Je moet dan flink aan de slag om de gevolgen hiervan het hoofd te kunnen bieden.

Teun Naber, Iron Mountain

Van der Vaart ziet dit risico op zich ook wel, ook al is dat volgens hem wel te managen. Je kunt bijvoorbeeld zelf een archief aanleggen, dan ben je de externe data in ieder geval niet een klap allemaal kwijt. Daarnaast komt hier ook een stukje modelmanagement om de hoek kijken, geeft Krielaart aan. Hoe beheer je alle onderdelen die je als belangrijk hebt bestempeld. Daarbij hoef je van sommige externe bronnen niet het volledige archief te hebben, maar volstaat het om de achterliggende formule achter de data iedere drie maanden te updaten.

De Groot ziet op dit punt tot slot ook een grote meerwaarde voor het aanleggen van een data catalog. Hiermee hou je inzichtelijk welke data je allemaal hebt en gebruikt binnen je organisatie. Daarnaast stelt het een organisatie ook in staat om sneller met data aan de slag te gaan en deze te verrijken. Dit heeft uiteindelijk ook positieve gevolgen voor het ontdekken van nieuwe data en voor governance.

Impact op organisatie

Tot nu toe hebben we het eigenlijk vooral gehad over het technische aspect van het inrichten van een organisatie om optimaal met data om te kunnen gaan. Daarmee ben je er als organisatie echter nog niet. Dat is eigenlijk al meteen duidelijk uit de stelling die breed gedeeld wordt aan tafel dat het begint met de stip op de horizon. Die stip zetten is een taak van de hogere lagen binnen een organisatie.

Daarnaast moet je nieuwe functies creëren. Krielaart noemt specifiek de functie van Chief Data Officer. Maar ook bestaande rollen gaan veranderen en worden dus feitelijk nieuwe functies. Zo ziet De Groot dat rol van de data-analist verandert: “De analist is tegenwoordig meer een datacoach, die iemand anders leert hoe die meer kan en moet doen met data.” Dit heeft behoorlijk verstrekkende gevolgen voor het personeel binnen een organisatie. Dat wil zeggen, steeds meer mensen moeten datagedreven gaan werken bij organisaties die data een prominente rol willen laten spelen. De Groot noemt Vodafone, waar de ambitie van het management is om 50 procent datagedreven te laten werken. Bij de HR-afdeling van Schneider is dat zelfs 80 procent.

Je hoeft niet alles te snappen

Van der Vaart ziet in deze ontwikkeling richting self-service datagedreven werken overigens niet alleen positieve dingen. “Enerzijds wordt het [toegang tot data, red.] toegankelijker, anderzijds weet ik niet of het er eenvoudiger op wordt”, geeft hij aan. Er verandert wel echt heel veel voor mensen binnen organisaties. Voor hem blijven alle discussies rondom AI bijvoorbeeld daarnaast toch echt voornamelijk technische discussies. Ook al lijkt het heel toegankelijk te zijn doordat we er allemaal zoveel over praten.

Edgar de Groot, ThoughtSpot

Het is uiteraard de vraag hoeveel de medewerkers van een organisatie überhaupt moeten snappen van de technologie die ze gebruiken. Als je datagedreven werkt, neem je eigenlijk ook afstand van wat hieraan ten grondslag ligt, geeft Naber aan. Daarmee bedoelt hij dat medewerkers alleen nog maar met de data bezig hoeven te zijn en niet met alle technische zaken die deze data bij hem hebben gebracht. “Het mooiste is dan dat een medewerker ongemerkt een veel betere prestatie gaat leveren”, stelt hij. Dan heb je het goed gedaan als organisatie. Krielaart vat ditzelfde sentiment in een ander voorbeeld: “Het weer is wellicht het meest ingewikkelde algoritme dat er is, maar we weten allemaal welk weer het wordt als we lezen dat het 17 graden wordt.”

Iedereen kan stappen zetten

Tot slot van het gesprek stellen we de deelnemers aan deze discussie de vraag of iedere organisatie de stappen kan zetten die nodig zijn om het maximale uit zijn data te halen. Dat is eigenlijk niet de juiste vraag, merken we aan de reacties. “Je moet, het is geen keuze”, vat De Groot het samen. “De toekomst is aan heel andere organisaties dan we nu kennen”, voegt Krielaart hieraan toe. Hij ziet vooral uitdagingen voor grote organisaties op het gebied van datagedreven werken. Die zetten nu vaak dingen op buiten de eigen organisatie, omdat ze geen innovatie kunnen doen binnen hun eigen muren. Ook zij kunnen het zich dus niet veroorloven om niets te doen. “Door datagedreven organisaties ontstaan nieuwe markten”, geeft Naber nog een reden waarom datagedreven werken er sowieso moet en zal komen. Daar willen organisaties ook in meedoen. Hun huidige markt kan best eens ophouden te bestaan, of in ieder geval veel kleiner worden.

Het feit dat organisaties niet kunnen ontkomen aan een datagedreven manier van werken, betekent nog niet dat ze het allemaal even snel moeten gaan doen. Iedereen moet het op zijn eigen tempo doen. Of zoals Van der Vaart het zegt: “Er is geen enkele organisatie die niet een stapje kan zetten om meer waarde uit data te halen.” Klein beginnen en van daaruit uitbouwen is het devies. “Zet je deze stapjes niet, dan sta je voor een onoverbrugbare kloof.”