Suchen

Datensicherung in der Öffentlichen Verwaltung

Backup-Ressourcen durch Deduplizierung optimieren

Seite: 2/3

Firma zum Thema

VTL-Fähigkeit

Wenn eine Technologie zur Datendeduplizierung, aufbauend auf einer VTL, implementiert wird, müssen die Fähigkeiten der VTL im Evaluierungsprozess berücksichtigt werden. Es ist unwahrscheinlich, dass die durch die Datendeduplizierung erzielten Einsparungen die Schwierigkeiten aufwiegen, die durch den Einsatz einer nicht dem Standard entsprechenden VTL verursacht werden.

Es ist wichtig zu berücksichtigen wo und wann die Datendeduplizierung im Backup-Prozess stattfindet. Obgleich manche Lösungen eine Deduplizierung während des Daten-Backups versuchen, verarbeitet dieses Inline-Verfahren den Backup-Stream bei dessen Eintritt in die Deduplizierungsanwendung, wodurch die Performance von der Kapazität der einzelnen Nodes abhängt.

Dieser Ansatz kann Backups verlangsamen, Backup-Fenster gefährden und die VTL-Performance insgesamt um bis zu 60 Prozent verringern. Im Vergleich dazu umgehen Lösungen zur Datendeduplizierung, die nach dem Abschluss von Backup-Vorgängen oder gleichzeitig zum Backup ausgeführt werden, dieses Problem und beeinträchtigen somit nicht die Backup-Performance. Das Post-Process-Verfahren verarbeitet die Backup-Daten durch Auslesen aus dem VTL-Speicher, nachdem die Backups auf Festplatte zwischengespeichert wurden. So ist gewährleistet, dass die Backups nicht verlangsamt werden.

Skalierbarkeit

Da die Lösung zur längerfristigen Datenspeicherung eingesetzt wird, bildet die Skalierbarkeit in Hinblick auf Kapazität und Performance eine wichtige Rolle. Dabei sollten Wachstumsprognosen für mindestens fünf Jahren berücksichtigt werden.

Beispielsweise erfüllt ein Clustering-Ansatz die Anforderungen eines steigenden Kapazitätsbedarfs – selbst für Umgebungen mit vielen Petabyte an Daten – ohne die Deduplizierungseffizienz oder System-Performance zu beeinträchtigen. Durch Clustering kann die VTL optimal verwaltet und auf logischer Ebene als ein einziges Datenarchiv eingesetzt werden. Das Clustering stellt außerdem eine hochverfügbare Umgebung bereit, in der die VTL und die Deduplizierungs-Nodes durch Failover-Unterstützung abgesichert werden.

Unterstützung verteilter Topologien

Die Datendeduplizierung bildet eine Technologie, die über ein Unternehmen mit Filialen und Geschäftsstellen hinweg Vorteile bieten kann, und nicht nur in einem einzelnen Rechenzentrum. Eine Lösung, die eine Replizierung sowie mehrere Deduplizierungsebenen umfasst, kann die Vorteile dieser Technologie am besten ausschöpfen. Beispielsweise sollte eine Behörde mit einer Zentrale, drei Außenstellen und einer Disaster-Recovery (DR)-Einrichtung in der Lage sein, eine Deduplizierung in den Außenstellen zu implementieren, um eine effiziente lokale Speicherung und Replizierung an die Zentrale zu erleichtern.

Die Lösung muss der Zentrale mit nur minimaler Bandbreite eine Überprüfung ermöglichen, ob die entfernten Daten bereits im zentralen Archiv enthalten sind. Nur an den jeweiligen Standorten ausschließlich vorhandene Daten sollten an die Zentrale und anschließend an den DR-Standort repliziert werden, um die erforderliche Bandbreite möglichst gering zu halten.

Der Zugriff auf das deduplizierte Datenarchiv stellt eine kritische Anforderung dar und darf nicht durch einen Single Point of Failure gefährdet werden. Eine robuste Lösung wird eine Spiegelung zum Schutz vor lokalen Speicherausfällen umfassen, ebenso wie eine Replizierung zum Schutz vor Katastrophenfällen.

Nächste Seite: Effizienz, Wirksamkeit und Fazit

(ID:2021789)