Datensicherung im Netzwerk
Sicher ist sicher
Auch die zuverlässigste Festplatte wird eines Tages sterben. Nur regelmäßige Backups können den Daten-GAU verhindern. Der Einleitungsartikel unseres Schwerpunkts beleuchtet die Strategien.
Auch die zuverlässigste Festplatte wird eines Tages sterben. Nur regelmäßige Backups können den Daten-GAU verhindern. Der Einleitungsartikel unseres Schwerpunkts beleuchtet die Strategien.
Wirksame Datensicherung macht insbesondere angesichts explodierender Dateigrößen eine vernünftige Verwaltung der Daten nötig. Moderne Datensicherung ist längst viel mehr als nur das Abziehen der Daten auf eine Bandkassette. Das betrifft nicht nur die Wahl der Backup-Soft- und Hardware, sondern auch die Konfiguration der Daten-Server und letztlich auch das Benutzerverhalten.
Die User stellen sich gerne auf den Standpunkt, dass sie sich selbst nicht um Technik kümmern mögen; der Administrator solle mit derartigen Problemen allein klarzukommen. Plattenplatz wird eher früher als später voll. Kooperative User tragen durch Aufräumen, Komprimieren und Packen zur Übersicht bei.
Vom Backup zu unterscheiden ist die Offline-Lagerung von Daten. Während beim Backup meist davon ausgegangen wird, dass man nur Daten aus nicht allzu weiter Vergangenheit, zum Beispiel drei Monate, zur Wiederherstellung braucht, gilt dies für Archivierungen nicht. Kandidaten für Ar-chivierungen sind Daten, die aktuell nicht mehr benötigt werden, aber später wieder wichtig werden (könnten). Archivierungen - eventuell auf mehrere Medien als "Clone" - sollten zum Standardrepertoire beim Verwalten der Daten im Rechnerverbund gehören. Diese Funktion muss nicht unbedingt vom verwendeten Backup-System erfüllt werden. Ein tar oder cpio auf mehrere redundante Bänder mit Beschriftung reicht meist.
Eine sehr reizvolle Technik, die gerne in die Diskussion gebracht wird, ist HSM, etwa von Veritas [8] oder SAM-FS von LSC. Hierbei werden Daten in einem bestimmten Zeitraum von der Platte auf langsamere und preiswertere Medien kopiert. Diesen Schritt bezeichnet man als "Archiving".
Daten, auf die eine gewisse Zeitlang niemand zugreift, werden vom Online-Medium entfernt ("released"). Der Filesystem-Eintrag bleibt erhalten, nur die Datenblöcke verschwinden.
Spätere Zugriffe auf Daten, die sich nicht mehr auf der Platte befinden, führen zum "Staging". Das bedeutet, dass vollautomatisch die Daten wieder von den langsameren Medien abgeholt und verfügbar gemacht werden, was natürlich etwas dauern kann. HSM kann nicht ohne Unterstützung durch das Filesystem realisiert werden, da die beschriebenen Vorgänge für die User-Prozesse beziehungsweise deren Systemcalls unsichtbar sein sollen.
HSM in der einfachsten Form ersetzt nicht das Backup. Sind die Daten vom Online-Medium verschwunden, sind sie nur noch einmal vorhanden. Geht dann beispielsweise das Band kaputt, auf dem sie sich befinden, müssen sie von woanders wiederhergestellt werden. HSM-Systeme bieten daher die Möglichkeit, gleich mehrere Kopien anzufertigen.
Alle Rezensionen aus dem Linux-Magazin
Im Insecurity Bulletin widmet sich Mark Vogelsberger aktuellen Sicherheitslücken sowie Hintergründen und Security-Grundlagen. mehr...