Dossier Data Lifecycle Management

Die Informationsflut handhaben

Die Forschung erzeugt riesige Datenmengen. Verschiedene Institutionen haben einen Plan, wie man damit umgehen könnte.

Das Datenvolumen wächst weltweit in einem immensen Tempo. Bis zum Jahr 2020 soll es gemäss einer Studie auf 35 Zettabyte (= 1'000'000'000'000 Gigabyte) angewachsen sein, also auf dass 44-fache des Volumens im Jahr 2009. Zugegeben: Nicht alle Daten davon sind wichtig und konservierungswürdig. Auch Forschungsdaten müssen aktiv gemanagt werden. Das bedeutet : Ausgewählt, geschützt und zugänglich gemacht. Diesen Vorgang nennt man Data Lifecycle Management. Ein koordiniertes, gemeinsames Vorgehen ist dabei wichtig. Und wie man gemeinsam vorgehen könnte, wissen am ehesten Forschungsanstalten und Bibliotheken. Denn sie müssen bereits heute grosse Datenvolumen managen.