Online-Backup als alternative Datensicherungsstrategie

Storage-Konzept spart Zeit und Geld

Seite: 2/2

Firmen zum Thema

Vereinheitlichen und Zentralisieren

Wesentliches Ziel einer Backup- und Recovery-Lösung mit InfoStage ist die Vereinheitlichung und Zentralisierung aller Datensicherungsroutinen sowie die zentrale Verwaltung von Teilrücksicherungen, sekundärem Backup und Recovery für den Katastrophenfall. Eine Installation besteht dabei aus dem InfoStage Director, der die Backup-Server verwaltet, dem webbasierenden CentralControl-Administrationsinterface und einer beliebigen Zahl von Agenten. Letztere sitzen als Schnittstelle für die zentral definierten Backup-Routinen und Wiederherstellungsaufgaben in allen zu sichernden Computern. Diese Agenten gibt es für praktisch alle Plattformen, sodass eine AS/400 genauso eingebunden wird, wie Unix-, Linux- und Windows-Arbeitsplätze und sogar virtualisierte Netzwerke.

Gerade die Heterogenität großer IT-Systeme wird für übergeordnete Verwaltungsorganisationen schnell zum Problem. So hatte das California Department of Mental Health ursprünglich zwar eine reine NetWare-Umgebung, doch mit der Installation weiterer Server und der teilweisen Migration auf Windows wurde die Bandsicherung von über 50 Servern immer komplizierter und unzuverlässiger. Die Auslagerung der Datensicherung in ein EVault-Rechenzentrum änderte das – die Datenvolumina konnten um über 90 Prozent reduziert werden.

Wie viel Unsicherheit ist tragbar?

Wie eine Datensicherungslösung gestaltet wird, hängt von zwei wesentlichen Ansätzen ab, die in der Storage-Branche als Recovery Time Objective (RTO) und Recovery Point Objective (RPO) bezeichnet werden. Dahinter verbergen sich die Fragen: „Wie lange darf die Wiederherstellung des Systems dauern?“ und „Wie viel Datenverlust kann zwischen den Sicherungspunkten in Kauf genommen werden?“

In welcher Weise Daten repliziert werden können, hängt von den Netzwerkgegebenheiten und der Verfügbarkeit und Art des Speichers ab. Der Idealfall wäre die synchrone Spiegelung aller Daten während der Entstehung. Diese ist aber nur in extrem leistungsfähigen Fibre-Channel-Netzwerken möglich und entsprechend kostspielig. Mit asynchronen Replikationslösungen ergeben sich weniger Performanceprobleme, aber dafür hat man mit großen Datenmengen und langen Backupzeiten zu kämpfen. Besonders datenintensiv ist das differenzielle Backup. Hier werden alle seit der letzten Vollsicherung geänderten Dateien kopiert. Geringer sind die Datenmengen beim inkrementellen Backup, aber da hier eine Rücksicherung alle Backups seit der Vollsicherung gebraucht wird, ist diese extrem zeitaufwendig.

Der hohe Speicher- und Bandbreitenbedarf beim inkrementellen Backup ergibt sich aus der mehrfachen Speicherung auch nur geringfügig geänderter Dateien. Die Delta-Processing-Technologie von EVault soll diese Grundprobleme an der Wurzel angehen: Änderungen werden auf Blocklevel gesichert, das heißt, Dateien werden als Datenstrom erfasst und blockweise analysiert. Nur die geänderten Blöcke werden komprimiert, verschlüsselt und als TCP- und IP-basierendes Protokoll verschickt.

Artikelfiles und Artikellinks

(ID:2015181)