Suchen

10 Mythen rund um hochverfügbare IT-Systeme Hochverfügbarkeit ohne Grenzen

| Autor / Redakteur: Ulrich Lenz, Senior Consultant, Stratus Technologies GmbH / Gerald Viola

Das Thema Hochverfügbarkeit ist, wie kaum ein anderes in der IT, mit Vorurteilen, falschen Einschätzungen und längst überholten Auffassungen belastet; die zehn beliebtesten dieser „Mythen“ werden nun entmystifiziert.

Firmen zum Thema

Standard bei hochverfügbaren Systemen: Austausch von Komponenten im laufenden Betrieb
Standard bei hochverfügbaren Systemen: Austausch von Komponenten im laufenden Betrieb
( Archiv: Vogel Business Media )

Dass eine ständige Verfügbarkeit der IT heute lebenswichtig ist, ist eine Binsenweisheit, denn Geschäftsprozesse ohne IT, die gibt es längst nicht mehr. Dennoch fassen die meisten Behörden das Thema Hochverfügbarkeit bestenfalls mit spitzen Fingern an. Während die einen der Meinung sind, das Thema würde sie überhaupt nicht betreffen, erkennen andere zwar grundsätzlich die Gefahren, sehen aber nicht, wie sie sich dagegen wappnen könnten. Beides ist Anlass genug, einmal mit den Mythen, die rund um das Thema Hochverfügbarkeit entstanden sind, ein wenig aufzuräumen.

1. Hochverfügbarkeit ist nur für große Organisationen wichtig

Alle Organisationen des Öffentlichen Sektors sind heute in hohem Maße von ihrer IT abhängig und können daher von Serverausfällen massiv betroffen werden. Sie alle müssen daher Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder Stratus Avance sind aufgrund des geringen Aufwands für Implementierung und Administration auch für kleinere Behörden – zum Beispiel Rathäuser – geeignet.

2. Normale Server sind heute so zuverlässig, dass spezielle Hochverfügbarkeitslösungen überflüssig sind

Tatsächlich sind Server heute wesentlich zuverlässiger geworden und Serverausfälle sind in der Tat selten. Allerdings sind auch die Anforderungen gestiegen: Behörden und Ämter betreiben auf Standard-Servern kritische Anwendungen, für die früher beispielsweise große Unix-Systeme eingesetzt wurden. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können große Schäden entstehen. Standardserver unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent – was einer durchschnittlichen Ausfallzeit von 8,7 Stunden pro Jahr entspricht. Für kritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar Cluster-Lösungen, weil hier keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwendige Administration anfallen. Mittlerweile gibt es auch Lösungen, die wie Stratus Avance die üblichen Standard-basierenden x86-Server auf Basis der Open-Source-Virtualisierungs-Software Xen zu einer hoch verfügbaren Plattform verbinden können. Solche Lösungen bieten eine Verfügbarkeit von über 99,99 Prozent und sind bereits ab 4.000 Euro erhältlich.

Nächste Seite: Aufwand und Sicherheit

(ID:2041110)