Suchen

Redundante Lösungen werden bezahlbar Allzeit bereit: Hochverfügbarkeit ist heute kein Luxus mehr

Autor / Redakteur: Ulrich Lenz / Gerald Viola

Spätestens seit Mitte der neunziger Jahre hängen praktisch jede Behörde und jedes Unternehmen auf Gedeih und Verderb am Tropf der IT. Es wünscht sich zwar niemand die alten Bürozeiten mit Laufmappe und Kugelkopf-Schreibmaschine zurück, aber die Abhängigkeit von der Technik bleibt dennoch kritisch. Fällt ein zentraler Server aus, sind ganze Abteilungen auf einen Schlag lahm gelegt. Unvermeidbare Schicksalsschläge sind das nicht: Hochverfügbare Systeme sind günstig wie noch nie. Zudem ist ihre Administration nicht aufwendiger als bei einem Standardserver.

Firmen zum Thema

Stratus-Server sind komplett redundant ausgelegt, das schützt zu 99,999 Prozent vor ungeplanter Downtime
Stratus-Server sind komplett redundant ausgelegt, das schützt zu 99,999 Prozent vor ungeplanter Downtime
( Archiv: Vogel Business Media )

Ob Mailserver, Fileserver, Produktionssoftware oder Dokumentenmanagementsysteme: Die Informationstechnologie ist in praktisch allen Betrieben allgegenwärtig. Nicht einmal der Hofladen eines Biobauern kommt ohne ein computergesteuertes Kassensystem aus. Diese Segnungen der modernen Technik haben allerdings auch einen entscheidenden Nachteil. Spätestens nach der flächendeckenden Umsetzung des Client-Server-Modells gibt es in jedem Unternehmen und jeder Verwaltung Single-Points-of-Failure. Streikt der Server, geht nichts mehr.

In Branchen wie der Automobilindustrie mit ihren zeitkritischen Just-In-Time-Lieferungen können selbst kurzfristige Ausfälle enorme Kosten verursachen. Aber auch die Gefahr für kleinere Verwaltungen wird allgemein unterschätzt. Sie sind noch gefährdeter als große Organisationen, weil hier die IT-Landschaft häufig nur aus einem, maximal zwei Servern besteht – und das sind dann die geradezu sprichwörtlichen Single-Points-of-Failure. Redundante Systeme muss man in diesem Umfeld mit der Lupe suchen; da es hier nur selten festangestellte Administratoren gibt, sind Ausfallszenarien und Notfallpläne übrigens auch fast nie vorhanden.

99,9 Prozent Verfügbarkeit ist zu wenig

Standard-Server auf x86-Hardware mit Windows oder Linux-Betriebssystem haben heute eine Verfügbarkeit von 99,9 Prozent. Das mag sich im ersten Augenblick gut anhören, eigentlich ist die Zuverlässigkeit aber eher gering. Eine Verfügbarkeit von 99,9 Prozent bedeutet, dass der Server in einem Jahr immerhin rund acht Stunden außerplanmäßig ausfällt. Für produktionskritische Anwendungen ist das eindeutig zu viel. Wer aufgrund der hohen Kosten weder in einen Großrechner, noch in die klassischen Unternehmenssysteme der Mittleren Datentechnik investieren kann, muss daher bei x86-Hardware bleiben. Hier gibt es verschiedene Methoden, mehr Ausfallsicherheit zu erreichen. Eine unterbrechungsfreie Stromversorgung (USV) ist eine Grundvoraussetzung, damit Spannungsschwankungen im Stromnetz die empfindlichen Server nicht beschädigen können. Zusätzlich muss aber noch die Verfügbarkeit der Server selbst erhöht werden.

Clustering von Anwendungen

Ein gängiger Weg ist das Clustern unternehmenswichtiger Anwendungen per Software. Dafür braucht man mindestens zwei Server. Sollte einer von ihnen ausfallen, übernimmt der andere per Failover den Betrieb. Diese Failover-Phase ist allerdings auch der Schwachpunkt von Clusterlösungen. Zwar ist bei modernen Cluster-Systemen der gesamte Vorgang automatisiert, aber dennoch sind Verzögerungen durch die Failover-Phase nicht komplett auszuschließen.

Erfahrungsgemäß können einige Minuten vergehen, bis alle Anwendungen wieder uneingeschränkt zur Verfügung stehen. Ein weiterer Punkt, der gegen Clustersysteme spricht, ist ihre Komplexität. Der Administrationsaufwand für ein Cluster ist deutlich höher als für einen Stand-alone-Server. Immerhin besteht ein Cluster ja aus zwei unabhängigen Servern mit jeweils eigenem Betriebssystem und eigenen Applikationen, die zu einem logischen Server zusammengeschlossen sind.

Die Hardwarekosten für einen Cluster sind zwar gering, denn es genügt, zwei Standard-Server einzusetzen. Die Lizenzkosten für die Cluster-Software und vor allem die höheren Verwaltungskosten fressen diesen Preisvorteil aber schnell wieder auf. Somit ist das Clustering gerade für kleine und mittlere Organisationen nicht die optimale Methode, die Verfügbarkeit der Server zu erhöhen.

Fehlertolerante Server: Doppelt genäht hält besser

Ähnlich wie bei einem Clustersystem sind auch fehlertolerante Server redundant ausgelegt. Allerdings wird die Redundanz hier nicht durch eine zweite Maschine, sondern durch komplett redundante Komponenten innerhalb einer Maschine erreicht. Anders als bei üblichen High-End-Serversystemen gibt es nicht nur doppelte Netzteile und ausfallsichere Datenspeicherung im RAID-Verbund. In einem fehlertoleranten Server sind wirklich alle Komponenten doppelt ausgelegt: Bis hin zu CPUs und Arbeitsspeicher sind sämtliche Funktionseinheiten doppelt vorhanden. Da immer beide Komponenten aktiv sind, kann der Betrieb bei einem Hardware-Defekt ohne Umschaltvorgang und damit ohne jede Unterbrechung auf der jeweiligen Partner-Komponente fortgesetzt werden. Der Anwender bemerkt von einer solchen Störung nichts, da der Server einfach weiterläuft. Auch der Administrator kann mit einem fehlertoleranten Server weiterarbeiten wie mit normaler Standardhardware, denn das Betriebssystem erkennt ihn wie einen einzigen Server. Dementsprechend entfallen auch Anpassungen an der eingesetzten Software, die Administration ist exakt die gleiche wie bei einem Standardserver.

Die Anschaffungskosten eines fehlertoleranten Servers sind natürlich etwas höher als bei diesem, durch die unkomplizierte Administration rechnet sich die Lösung über die Laufzeit dennoch. Anders als beim Cluster muss die Ausfallsicherheit nicht erst konfiguriert werden, sie ist schon im System eingebaut.

Divide et Impera: Mit Active Upgrade sicher patchen

Das spart nicht nur Arbeitszeit, sondern schließt schon im Vorfeld mögliche Konfigurationsprobleme sicher aus. Zudem genügt die Ausfallsicherheit mit 99,999 Prozent höchsten Ansprüchen. Das entspricht aufs Jahr gerechnet gerade einmal fünf Minuten Downtime. Nicht einmal Großrechner erreichen eine vergleichbare Zuverlässigkeit.

Zu jedem Patchday wiederholt sich das Spiel: Einerseits muss der Administrator die Upgrades durchführen, andererseits kann er nicht wirklich sicher sein, dass die Server danach funktionieren. Mit Standard-Hardware gibt es keine Möglichkeit, die Patches risikofrei auf den Produktivsystemen aufzuspielen. Genau dieses Feature bietet aber die in Stratus-Chipsätzen implementierte Active Upgrade Technologie. Sie ermöglicht risikolose Software-Upgrades und Patches in fehlertoleranten Windows-Server-Umgebungen. Damit kann die für Wartungsarbeiten erforderliche Server-Downtime reduziert werden. Vor dem Upgrade teilt das System den redundanten Server, der als ein logischer Server fungiert, in zwei parallel laufende Einzelserver auf. Während ein Server den Produktivbetrieb aufrechterhält, werden in dem anderen die Updates und Patches eingespielt. Erst wenn dieser Prozess abgeschlossen ist und das gepatchte System stabil läuft, kann der Administrator beide Server synchronisieren. Damit ist der Ausgangszustand – also ein logischer Server – wieder hergestellt.

Artikelfiles und Artikellinks

(ID:2012497)