Hoe zorgen we er voor dat de groeiende berg gegevens ook in de toekomst analyseerbaar en bruikbaar blijft?

De hoeveelheid gegevens die we samen meten en opslaan groeit explosief. Wetenschappers, bedrijven, overheden en burgers voeden samen een onstuimig groeiende gegevensberg. Telescopen, amera’s, scanners, telefoons, computers, energiemeters — het is nog maar een fractie van het groeiende arsenaal aan al of niet wetenschappelijke instrumenten die continu gegevens produceren en toevoegen aan steeds meer en steeds grotere databestanden. Die grote bestanden kunnen met nieuwe wetenschappelijke methoden worden geanalyseerd en geïnterpreteerd. Zo kunnen we de wereld gedetailleerder waarnemen, en ontdekken we nieuwe patronen en oorzakelijke verbanden. Dat levert nieuwe kennis en wetenschappelijke inzichten op, die reeds nu wordt gebruikt voor betere producten, diensten, beslissingen, en het oplossen van mondiale uitdagingen, bijvoorbeeld op het gebied van voedselzekerheid of klimaatproblematiek. Het gebruik van deze zgn. ‘big data’ genereert ook ‘big questions’. Hoe kunnen we bepalen welke gegevensbronnen minimaal noodzakelijk zijn voor de beantwoording van een wetenschappelijke vraag of toepassing? Hoe zorgen we er voor dat de groeiende berg gegevens ook in de toekomst analyseerbaar en bruikbaar blijft? Welke nieuwe analysemethoden zijn nodig om te vermijden dat de groei aan gegevens uiteindelijk de rekenkracht van computers overstijgt? Hoe kunnen we een continue stroom aan gegevens analyseren en begrijpen zonder de tijd stil te zetten?