Europa doet onderzoek om Big Data eenvoudiger te maken

In Europa wil men niet achterblijven op het gebied van Big Data en daarom wordt er nu een gesubsidieerd onderzoek gestart hoe Big Data vereenvoudigt kan worden, zodat er makkelijker en sneller verbanden kunnen worden gelegd en grote complexe datasets eenvoudiger toegankelijk worden.

Big Data is een nog redelijke nieuwe term, maar een die we in de toekomst nog vaak gaan horen. De afgelopen jaren heeft de cloud zijn opmars gemaakt nu is dat Big Data. Big Data is een verzamelnaam voor het opslaan en samenvoegen van grote hoeveelheden aan data. Databases worden tegenwoordig steeds groter en bieden steeds meer informatie, de kunst is om de juiste informatie aan elkaar te knopen om daar weer analyses op los te laten en conclusies te trekken.

Big Data is eigenlijk overal toepasbaar, veel grote online webwinkels maken er al gebruik van, bij Coolblue maken ze bijvoorbeeld enorm veel beslissingen op basis van big data. Ook bij overheden kan Big Data leiden tot betere informatie en meer inzichten, zo kunnen mogelijk fraudeurs makkelijker en sneller worden opgespoord. Big Data en privacy liggen overigens wel enorm dichtbij elkaar, zeker wanneer het gaat over het verzamelen van gegevens van gebruikers of burgers.

Het nieuwe Europese onderzoek is vooral gericht op het verbeteren van bestaande algoritmes, om data sneller aan elkaar te kunnen koppelen en sneller analyses te maken. De software moet zelf snappen welke data bij elkaar hoort en welke niet. Het Europese onderzoek heeft een looptijd van vier jaar en kan rekenen op 3,8 miljoen euro. Aan het onderzoek doen verschillende organisaties mee, om te beginnen de Mainz University en de TU van Madrid. Verder werken het Spaanse Barcelona Supercomputing Center, Duitse German Climate Computing Centre, Griekse Foundation for Research en Technology en het Franse Inria mee aan het onderzoek.

Europa krijgt hiermee zijn eigen onderzoek naar Big Data, in de Verenigde Staten en Azië lopen al langer soortgelijke projecten. Vaak in combinatie met de ontwikkeling van supercomputers die over een grote opslagcapaciteit beschikken om meer en sneller data te kunnen verwerken.