Suchen

Datensicherung in der Öffentlichen Verwaltung Backup-Ressourcen durch Deduplizierung optimieren

Autor / Redakteur: Guy Berlo / Gerald Viola

Das Konzept der Datendeduplizierung ist nicht neu, gewinnt in letzter Zeit aber deutlich an Aufmerksamkeit und Wichtigkeit. Bereits im August 2006 schrieb die Autorin Dianne McAdam in einer Studie der Clipper Group („The Evo-lution of Backups – Part Two – Improving Capacity”): „Deduplizierung ist der nächste evolutionäre Schritt bei Backuptechnologien.“

Firmen zum Thema

( Archiv: Vogel Business Media )

Die Einschätzung der Clipper Group hat auch heute noch Gültigkeit, denn die Eliminierung duplizierter Daten in sekundären Archivspeichern kann die Medienkosten deutlich reduzieren, Managementaufgaben vereinfachen und die erforderliche Bandbreite zum Replizieren von Daten minimieren. Doch obwohl das Konzept der Datendeduplizierung sehr viele Vorteile verspricht, wurde eine breite Umsetzung dieser Technologie durch die hohen Kosten für die erforderliche Rechenleistung gebremst.

Die Einsparungen an Speicherressourcen standen in der Vergangenheit für viele Unternehmen nicht im Verhältnis zu den Kosten einer Deduplizierungslösung. Doch seit Hardware zunehmend kostengünstiger wird, ist der Weg für den breiten Einsatz der Datendeduplizierungslösungen geebnet.

Da die Datenmengen auf Sekundärspeichern exponentiell wachsen, benötigen Unternehmen eine Möglichkeit zur effektiven Reduzierung der Datenvolumen. Durch die Eliminierung duplizierter Daten und die Sicherstellung, dass Datenarchive so kompakt wie möglich sind, können Unternehmen mehr Daten länger online halten, und das zu deutlich geringeren Kosten. Es gibt acht Schlüsselkriterien, die man bei der Evaluierung von Datendeduplizierungslösungen berücksichtigen sollte:

  • Konzentration auf das dringlichste Problem.
  • Integration in die vorhandene Umgebung.
  • VTL (Virtual Tape Library)-Fähigkeit.
  • Einfluss der Deduplizierung auf die Backup-Performance.
  • Skalierbarkeit.
  • Unterstützung verteilter Topologien.
  • Echtzeit-Sicherung der Archive.
  • Effizienz und Wirksamkeit.

Die erste Überlegung für eine Deduplizierungslösung sollte auf die Kernproblematik gerichtet sein: Backup-Daten auf Sekundärspeichern. Bei Backup-Daten kann eine Duplizierung dazu führen, dass die Speicherplatzanforderungen um ein Vielfaches höher sind, als wenn die duplizierten Daten eliminiert werden könnten. Die Grafik der Enterprise Strategy Group (ESG) illustriert, warum eine Deduplizierung für das Backup notwendig ist.

Integration in die vorhandene Umgebung

Eine effektive Datendeduplizierungslösung sollte sich möglichst nahtlos in eine vorhandene Infrastruktur einfügen. Viele Unternehmen entscheiden sich für Virtual Tape Libraries (VTL) zur Verbesserung der Qualität ihrer Backups, ohne störende Eingriffe in Richtlinien, Verfahren oder Software. Damit ist eine VTL-basierende Datendeduplizierung die beste Möglichkeit, um diese Technologie mit möglichst wenigen Eingriffen zu implementieren.

Außerdem konzentriert man sich dabei auf das größte Vorkommen duplizierter Daten – nämlich Backups. Lösungen, die proprietäre Appliances erfordern, sind tendenziell weniger kosteneffektiv als solche, die mehr Offenheit und Flexibilität bieten.

Nächste Seite: Die Unterstützung verteilter Topologien

(ID:2021789)