Die „Schlankheitskur“ kann böse Folgen haben – dann hilft nur Echte Datenrettung im virtuellen Raum

Autor / Redakteur: Peter Böhret / Gerald Viola

Virtualisierung ist in aller Munde. Keiner kann an dem Thema vorbeigehen und die Diskussion beschreibt fröhlich die High-End-Utopie der einfachen, pflegeleichten, sicheren und auch noch umweltverträglichen Speichertechnologie, die auf Knopfdruck bequem Speicherplatz verwaltet. Aus der Sicht des Datenretters ist die Utopie aber nur auf dem ersten Blick sorgenfrei.

Firma zum Thema

Papier ins virtuelle Archiv? So vermeidet man Datenverlust
Papier ins virtuelle Archiv? So vermeidet man Datenverlust
( Archiv: Vogel Business Media )

Denn wenn verschiedene Hard- oder Softwareumgebungen emuliert werden, ergeben sich neue, spezifische Risiken. Virtuelle Tape Libraries zum Beispiel lösen zwar die Risiken zerknitterter oder gerissener Bänder ab. An deren Stelle treten aber die Risiken einer Beschädigung der Festplatte, während die Folgen einer fehlerhaften logischen Datenorganisation durch eine falsche oder fehlende Verzeichnisstruktur bleiben. Diese möglichen Ursachen eines Datenverlustes werden durch die physikalischen Ausfallrisiken und die Speicherlogik einer Festplatte um neue Probleme ergänzt.

Auch in der neuen virtuellen Speicherwelt ist Datenverlust nicht ausgeschlossen. Die Risiken bleiben, Rettung ist aber auch möglich. Sie erfordert nur die Kenntnis komplizierter Datenstrukturen und entsprechender Tools zur Minimierung des Aufwands.

Der Schlüssel zum Verständnis der Datenrettung in virtuellen Umgebungen findet sich am besten durch die Betrachtung eines Beispielmodells der Datenorganisation. Eine schematische Darstellung der Organisation von fünf Servereinheiten, die in einem virtuellen RAID6-Verbund organisiert sind, zeigt vier logische Ebenen der Datenverwaltung. Auf jeder Ebene wirken sich spezifische Risikofaktoren aus und können dazu führen, dass auf Daten nicht mehr zugegriffen werden kann.

In einer Beispielorganisation sollen verschiedene Server virtuell eingerichtet (Mailserver, Server für Produktionsdaten, Finanzen, Personal, eCommerce-Anwendung) werden. Wegen erhöhter Datensicherheit entscheidet sie sich, die Daten in einem RAID6-Verbund mit sechs logischen Einheiten zu betreiben. Die sechs logischen Einheiten benötigen eine Kapazität von jeweils 16 TB. Das macht also 96 TB Speicherplatz.

Diese werden dann in unserem Beispiel durch 96 1-TB-Festplatten abgebildet. Das ergibt vier Ebenen, auf denen Informationen verloren gehen können:

  • Die Virtual Machine, die die Gesamtheit des Speicherplatzes verwaltet.
  • Die RAID-Ebene, in der der Controller die Daten über die Bereiche der einzelnen virtuellen Server zuweist und Parity-Daten berechnet.
  • Die Ebene der einzelnen virtuellen Server.
  • Die Datenträger-Ebene der 96 Festplatten oder anderer Medien.

Nächste Seite: Auch in der virtuelle Speicherlandschaft drohen Datenverluste

Die virtuelle Speicherlandschaft

Wo können hier überall Datenverluste passieren? Die Antwort ist einfach: überall. Rein quantitativ stellen 96 Festplatten eine enorme Fehlerquelle zum Beispiel durch physikalischen Ausfall eines Datenträgers oder durch korrupte Sektoren einer Festplatte dar. Aber die Parity-Daten in einem RAID sollten hier eine gewisse Sicherheit geben.

Hier müsste angesichts der Parity-Codes schon viel Unglück zusammenkommen. Selbst der Ausfall der Festplatte mit dem Controller würde noch nicht genügen, da RAID6 den Verlust von zwei logischen Einheiten aushält. Aber auch rein arithmetisch steigt das quantitative Ausfallrisiko, wenn mehr potenzielle Ausfallkandidaten im Spiel sind.

Organisationsprobleme

Gefährlicher als die Kettenreaktionen von unten durch den Ausfall von Festplatten sind Organisationsfehler oder Organisationsänderungen auf höherer Ebene. Wichtig ist, dass selbst hochverschachtelte virtuelle Speicherverwaltungen letztlich auf den korrekten Einträgen von Speicheradressen in zentralen Verzeichnissen beruhen. Die Speicheradressen definieren bitgenau die einzelnen Sektoren auf physikalischen Datenträgern. Die Verzeichnisse verweisen auf die Adresse.

Wenn die Verzeichnisstruktur fehlerhaft ist, fragt der Controller der RAID-Einheit zum Beispiel Speicheradressen ab, auf denen sich die Daten gar nicht befinden. Oder er fragt nicht alle Speicherorte ab. Oder in der falschen Reihenfolge. Egal, was geschieht, die Daten erscheinen als korrupt und können deswegen nicht abgerufen werden.

Das größte Risiko ergibt sich konsequent weitergedacht also auf der Ebene der Virtual Machine oder der zentralen Appliance, die die Gesamtheit der 96 Terabyte Speicherplatz automatisch verwaltet und dabei die Landkarte der Speicherlandschaft zeichnet. Solange die Verwaltung automatisch abläuft, passiert noch nichts.

Probleme tauchen aber unter Umständen dann auf, wenn die Speicherressourcen neu aufzuteilen sind. In einem Beispiel weist die Machine den umfangreichen Finanzdaten 32 TB Datenplatz zu. Nach einer erfolgten Deduplizierung denkt man nun, mit einem Volumen von 24 TB auszukommen. Ist aber nun in Wirklichkeit das Datenaufkommen doch 28 Terabyte, fragt die Appliance nun 4 Terabyte zu wenig ab. Daten werden korrupt, weil die Datensätze nicht vollständig vorliegen.

In der Virtual Machine befindet sich also mit dem Verzeichnis der Speicherorte das Drehbuch für die Speicherabfrage. Der ultimative Daten-Gau ist ein Verlust dieser Verzeichnisdaten auf der Virtual Machine. Dann gilt es, dieses Drehbuch wieder herzustellen, wenn man die Speicherlandkarte von 96 Terabyte Daten nachzeichnen will.

Deduplizieren – eine Schlankheitskur mit Folgen

Doch neben den Problemen der Datenorganisation führt die Optimierung des Speicherplatzes, die oft mit der Virtualisierung einhergeht, zu neuen Verlustrisiken. Virtualisierung wird häufig auch für eine Entschlackung des Datenvolumens verwendet. Komprimierung und Deduplizierung können aber ebenfalls zu Datenverlust führen.

Werden nämlich Daten wieder dekomprimiert, kann es zu Fehlern beim Auslesen kommen. Datenretter wissen aber, wo die Änderungen der Daten verzeichnet sind und können so im Notfall die Informationen wieder rekonstruieren.

Beim Deduplizieren werden doppelt abgespeicherte Dateien ausgefiltert. In mehreren Verzeichnissen wird mit Pointern auf den neuen Datenort verwiesen. Diese Verbindung kann auf zwei Arten zerstört werden. Entweder der Verweis ist gelöscht und die Daten werden nicht gefunden. Oder die Daten selber sind nicht mehr vorhanden. In beiden Fällen kann Datenrettung helfen.

Nächste Seite: Wenn der Administrator Strukturen dokumentiert, klappt‘s mit der Rettung

Denn hier muss dann oft auf ältere Backups zurückgegriffen werden. Es gibt aber auch häufig betriebssysteminterne Methoden oder andere Mechanismen, die es erlauben, Änderungen zurückzusetzen und damit beliebige frühere Datenzustände wieder herzustellen. Dies kann auch schon helfen.

Was tun vor oder beim virtuellen Datenverlust

Da die Speicherverwaltung mit jeder neuen Virtualisierungstechnik komplexer wird und neue Risiken entstehen, werden Datenverluste leider nicht unwahrscheinlicher. Alles in allem wird die Datenrettung in virtualisierten Infrastrukturen nicht einfacher, aber sie ist durchaus möglich. Kann auf Daten nicht mehr zugegriffen werden, obwohl sie da sein müssten, erfordert die Rettung professionelles Know-how.

RAID-Verfahren, die Daten auf der Hardware-Ebene schützen, müssen deshalb auf der logischen Ebene um Tracking- und Journaling-Verfahren ergänzt werden, damit auch in virtuellen Umgebungen ein hohes Maß an Datenschutz gewährleistet werden kann. Komplexe Datenrettungen in virtuellen Umgebungen erfordern fast immer die Einsendung der betroffenen Datenträger oder gar des ganzen Systems in das Labor der Datenretter. Hier können die Spezialisten mit Kenntnis der Organisation des virtuellen Speichersystems über die zentralen Verweisstrukturen nach den einzelnen physikalischen Sektoren suchen, auf denen sich die Dateien befinden.

Gute Datenorganisation unterstützt Datenrettung

Doch schon im Vorfeld eines möglichen Datenverlustes ist der Administrator gefragt. Eine gute Datenorganisation und ihre angemessene Dokumentation erleichtern im Ernstfall die Suche. Der Aufwand der Datenrettung hängt dabei auch von der Konfiguration des virtuellen Systems ab.

Entscheidend ist, wie sehr die einzelnen Ebenen des virtuellen RAID auf die Datenträger verteilt sind. Wenn Administratoren und CIOs Wert auf Performance, Verfügbarkeit und Ausfallsicherheit legen, werden die einzelnen Speicherbereiche der verschiedenen virtuellen RAID-Einheiten frei über sämtliche physikalischen Festplatten verteilt. Durch diese eigentlich positive und ja auch beabsichtigte Verschachtelung benötigen die Datenretter im ungünstigsten Fall aber dann sogar das komplette System zur Untersuchung.

Die Verantwortlichen müssen also zwischen zwei Alternativen abwägen: freie, womöglich dynamische Verteilung der Daten für bessere Performance und höhere Ausfallsicherheit oder Nichtausnutzung dieser Vorteile durch eine starrere Datenorganisation, die im Ernstfall den Aufwand der Datenrettung etwas reduziert. Dann müssen in unserem Beispiel vielleicht nur die 16 Datenträger des Servers für Finanzdaten eingesendet werden.

Handelt es sich nur um ein virtuelles Backup, ist dies problemlos möglich. Doch ein solches Kalkül kann bei einem laufenden System schnell zur Milchmädchenrechnung werden, weil auch Personal- und eCommerce-Anwendungen auf die Daten des Finanzservers angewiesen sind und ohne diese sowieso nicht arbeiten können. Hier ist es also besser, für höhere Ausfallsicherheit zu votieren und im Ernstfall den höheren Aufwand einzukalkulieren.

Auch eine aufwendige Datenrettung rentiert sich dann bei den auf dem Spiel stehenden Informationen auf jeden Fall. Für den Administrator gilt: Backup gewissenhaft durchführen und für den Ernstfall die Datenorganisation gut dokumentiert parat halten. Denn je besser man sich im System auskennt, um so schneller finden die Datenretter die Daten.

(ID:2047364)