Galileo Computing < openbook > Galileo Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Geleitwort zu diesem Buch
Inhalt des Buchs
1 Warum eine neue Server-Version?
2 Editionen und Lizenzen
3 Hardware und Dimensionierung
4 Protokolle
5 Was überhaupt ist .NET?
6 Installation
7 Core-Installationsoption
8 Active Directory-Domänendienste
9 Netzwerkdienste im AD-Umfeld
10 Active Directory Lightweight Directory Services (AD LDS)
11 Active Directory-Verbunddienste (Federation Services)
12 Active Directory-Zertifikatdienste
13 Active Directory-Rechteverwaltungsdienste (AD RMS)
14 »Innere Sicherheit«
15 Dateisystem und Dateidienste
16 Drucken
17 Webserver (IIS)
18 SharePoint (Windows SharePoint Services, WSS)
19 Remotedesktopdienste (Terminaldienste)
20 Hochverfügbarkeit
21 Datensicherung
22 Servervirtualisierung mit Hyper-V
23 Windows PowerShell
24 Windows 7 und Windows Server 2008 R2
Stichwort

Download:
- ZIP, ca. 104 MB
Buch bestellen
Ihre Meinung?

Spacer
<< zurück
Windows Server 2008 R2 von Ulrich B. Boddenberg
Das umfassende Handbuch
Buch: Windows Server 2008 R2

Windows Server 2008 R2
geb., 1.410 S., 59,90 Euro
Galileo Computing
ISBN 978-3-8362-1528-2
Pfeil 20 Hochverfügbarkeit
Pfeil 20.1 Vorüberlegungen
Pfeil 20.1.1 Allgemeines
Pfeil 20.1.2 Hardware und Konfiguration
Pfeil 20.2 Failover-Cluster
Pfeil 20.2.1 Aktiv – Passiv – n+1
Pfeil 20.2.2 Installation
Pfeil 20.2.3 Anwendungen hinzufügen
Pfeil 20.2.4 Cluster schwenken
Pfeil 20.2.5 Feinkonfiguration des Clusters und weitere Vorgehensweise
Pfeil 20.3 Network Load Balancing
Pfeil 20.3.1 Funktionsweise des Network Load Balancings
Pfeil 20.3.2 Installation und Konfiguration
Pfeil 20.3.3 Ein paar Hintergründe
Pfeil 20.3.4 Webserver, Kerberos und NLB
Pfeil 20.3.5 NLB-Troubleshooting allgemein
Pfeil 20.3.6 NLB im Terminalserver-Umfeld


Galileo Computing - Zum Seitenanfang

20.2 Failover-Cluster Zur nächsten ÜberschriftZur vorigen Überschrift

Der «klassische« Cluster ist der Failover-Cluster, der natürlich auch in Windows Server 2008 vorhanden ist. Die Failover-Clusterunterstützung ist ein nachzuinstallierendes Feature (Abbildung 20.5).


Zwei Hinweise

Der erste wichtige Hinweis dieses Abschnitts ist, dass ein Failover-Clustering auf den Clusterknoten die Enterprise Edition des Betriebssystems voraussetzt.

Der zweite Hinweis dieses Abschnitts ist, dass Sie prüfen sollten, ob ein Failover-Cluster mit gemeinsamem Speicher (Shared Storage) in Ihrem Anwendungsfall wirklich das Optimum ist. Alternative Ansätze sind beispielsweise:

  • Der SQL Server 2005/2008 bietet mit der Datenbankspiegelung eine sehr interessante Möglichkeit, um Datenbankserver nebst Festplattenspeicher redundant auszulegen, ohne dass Sie sündhaft teure Hardware beschaffen müssen.
Exchange 2007 bietet mit der Clustered Continuos Replication (CCR) einen Hochverfügbarkeitsansatz, der zwar auf dem Failover-Cluster aufsetzt, allerdings ohne einen gemeinsamen Speicherbereich aufgebaut werden kann.

Ich möchte mit dieser Anmerkung nicht ausdrücken, dass Failover-Cluster mit gemeinsamem Speicherbereich »irgendwie schlecht« wären. Ich möchte aber sehr wohl darauf hinweisen, dass es durchaus andere Varianten gibt.


Abbildung 20.5 Die »Failover-Clusterunterstützung« ist ein Feature und wird dementsprechend installiert.

Ende 1997, also zur besten NT4-Zeit, veröffentlichte Microsoft einen Cluster-Dienst, der zur Entwicklungszeit Wolfpack genannt wurde – ein Rudel von Wölfen sorgt also für eine bessere Verfügbarkeit.

Der Microsoft-Cluster ist recht einfach zu verstehen (Abbildung 20.6):

  • Der Cluster besteht aus mindestens zwei Knoten, die über einen gemeinsamen Festplattenbereich (Shared Storage) verfügen. Dieses Shared Storage-System kann über FibreChannel oder iSCSI angeschlossen sein. Paralleles SCSI wird unter Windows Server 2008 nicht mehr unterstützt.
  • Die Benutzer greifen, zumindest gedanklich, nicht direkt auf einen der Clusterknoten zu, sondern kommunizieren mit einem »virtuellen Server«, der gewissermaßen vor den physikalischen Clusterknoten angesiedelt ist. In Abbildung 20.6 ist dies zu sehen: Der Benutzer glaubt, dass er mit alphaClust01. alpha.intra kommuniziert. Da dieses System aber momentan auf alphaCN1 ausgeführt wird, greift der Benutzer in Wahrheit auf diese Maschine zu. Der physikalische Server greift auf den Datenbereich auf dem Shared-Storage-System zu. Wenn alphaCN1 ausfällt oder die Dienste gezielt auf alphaCN2 geschwenkt werden, wird der Client auf diesen physikalischen Server zugreifen, der aber dieselbe Speicherressource und dort dieselben Daten nutzt.

Abbildung 20.6 Das Prinzip des Clusters


Vorsicht

Ein Szenario, wie es in Abbildung 20.6 gezeigt wird, ist durchaus mit Vorsicht zu genießen: Einerseits wird natürlich der Ausfall eines Serverknotens abgefangen – der eigentlich viel schwerer wiegende Verlust des Speichersystems wird aber andererseits nicht abgedeckt. Nun argumentieren die Hersteller von Speichersystemen zwar, dass die Systeme unglaublich stabil und ausfallsicher arbeiten – es könnte aber trotzdem etwas passieren! Denken Sie an einen Kabelbrand, einen Wasserrohrbruch und dergleichen. Die Regel Nummer 1 beim Entwurf von Hochverfügbarkeitslösungen lautet: »Traue keiner Komponente.«

Abschnitt 3.4 beschäftigt sich recht ausgiebig mit diesem Thema, so dass ich Sie auf diesen Teil des Buchs verweisen möchte.

Wie bereits weiter vorn angesprochen wurde, könnten in Ihrem konkreten Fall vielleicht auch Ansätze interessant sein, die nicht auf einem gespiegelten Shared Storage beruhen, sondern die Daten auf Applikationsebene replizieren, also beispielsweise Exchange 2007 CCR oder die Datenbankspiegelung von SQL Server 2005/2008.


Einige weiterführende Anmerkungen:

  • Der »virtuelle« Server, auf den die Clients zugreifen, besteht aus mehreren Clusterressourcen, die zu einer Gruppe zusammengefasst werden. Die Gruppe enthält mehrere Ressourcen, wie eine IP-Adresse, einen Rechnernamen, einen Festplattenbereich oder Ressourcen von Applikationsservern wie Exchange oder SQL-Server.
  • Clusterressourcen können nicht beliebige Dienste oder Programme sein, sondern müssen vom Softwarehersteller speziell auf den Betrieb im Cluster vorbereitet sein. Es ist insbesondere beim Einsatz von Zusatzprodukten zu prüfen, ob diese im Cluster laufen können oder zumindest »Cluster aware« sind. Ersteres bedeutet, dass das Produkt als Clusterressource ausgeführt werden kann. »Cluster aware« bedeutet, dass die Software zwar keine Clusterressource zur Verfügung stellt, aber stabil auf einem Clusterknoten läuft.
  • Im Fehlerfall werden die Clusterressourcen des ausgefallenen Knotens auf dem anderen System gestartet. Dies kann durchaus einige Minuten dauern! Der Cluster sorgt also nicht für »Zero-Downtime«, sondern für eine »Only-a-few-minutes-Downtime«.

Galileo Computing - Zum Seitenanfang

20.2.1 Aktiv – Passiv – n+1 Zur nächsten ÜberschriftZur vorigen Überschrift

Grundsätzlich können alle Clusterknoten aktiv sein, also eine Clusterressource ausführen. Es stellt sich allerdings immer die Frage, ob das wirklich die optimale Lösung ist. Abbildung 20.7 zeigt einen Zwei-Knoten-Cluster, bei dem beide Knoten aktiv sind: Fällt ein Clusterknoten aus, wird dessen Ressource auf den anderen Knoten geschwenkt und dort ausgeführt. Das Problem ist, dass dieser Knoten nun die ganze Last allein trägt, bei linearer Verteilung also doppelt so viel leisten muss. Da mehr als 100 % bekanntlich nicht geht, dürfen beide Knoten also jeweils nur zu 50 % ausgelastet sein. Und damit ist der Aktiv-Aktiv-Cluster schon gar nicht mehr so attraktiv.

Abbildung 20.7 Bei einem Ausfall in einem Zwei-Knoten-Cluster trägt der verbliebene Knoten die volle Last.

Teilweise wird explizit empfohlen, Zwei-Knoten-Cluster nicht Aktiv/Aktiv, sondern Aktiv/Passiv auszulegen – ein Beispiel dafür ist Exchange Server 2003. Bei Exchange Server 2007 werden Aktiv/Aktiv-Cluster gar nicht mehr unterstützt, sondern »nur« noch Aktiv/Passiv-Cluster. Die Aktiv/Aktiv-Konfigurationen haben sich in der Praxis schlicht und ergreifend nicht bewährt.

Falls Sie einen Cluster mit noch mehr Knoten benötigen, können Sie bis zu sechzehn Clusterknoten in einen Cluster einbinden. Bei Clustern, die aus mehr als zwei Knoten bestehen, fährt man grundsätzlich eine n+1-Konfiguration (Abbildung 20.8). Dabei führt einer der Knoten im normalen Betrieb keine Clusterressource aus. Erst im Fehlerfall übernimmt er die Ressource des ausgefallenen Knotens.

Abbildung 20.8 Bei einem Mehr-Knoten-Cluster bleibt ein Clusterknoten »frei«, um als Ziel für Failover-Vorgänge zu dienen. Man spricht von einer n+1-Konfiguration, in diesem Fall »3+1«.


Galileo Computing - Zum Seitenanfang

20.2.2 Installation Zur nächsten ÜberschriftZur vorigen Überschrift

Im Gegensatz zum Clusterdienst unter Windows Server 2003 ist als von den Clusterknoten gemeinsam genutzter Speicher kein paralleles SCSI mehr möglich, sondern nur noch FibreChannel, iSCSI oder SAS (serielles SCSI, Serial Attached SCSI). Für eine Produktionsumgebung hat ohnehin niemand mehr Storage-Systeme über paralleles SCSI angebunden, aber für mit Virtualisierungsprodukten betriebene Testszenarien hat man diese Technologie häufig verwendet.

Wenn Sie zunächst das Clustering mit Windows Server 2008 in einer virtuellen Umgebung testen möchten, empfiehlt sich die Nutzung von iSCSI-Technologie (weil sie preiswerter ist).

iSCSI eignet sich übrigens nicht nur für das Testlabor; auch in der Produktionsumgebung hat sich iSCSI mittlerweile bewährt. Benötigt man höchste Verfügbarkeit und höchste Performance, wird man allerdings nach wie vor zu einem FibreChannel-SAN tendieren.

Der erste Schritt der Installation besteht darin, dass Sie alle Clusterknoten mit ausreichend Konnektivität ausstatten. Je nachdem, wie Sie den Shared-Storage-Bereich anbinden, benötigen Sie folgende Konfiguration:

  • Shared Storage via FibreChannel:
    • 1 * LAN in Richtung Clients (besser redundant auslegen)
    • 1 * LAN für Heartbeat
    • 1 * FC-HBA für die Anbindung des Storage-Systems (besser redundant auslegen)
  • Shared Storage via iSCSI
    • 1 * LAN in Richtung Clients (besser redundant auslegen)
    • 1 * LAN für Heartbeat
    • 1 * iSCSI-LAN für die Anbindung des Storage-Systems (besser redundant auslegen)

Für iSCSI benötigen Sie also mindestens drei Netzwerkkarten. Ein Schaubild ist in Abbildung 20.9 gezeigt.

Abbildung 20.9 Ein Clusterknoten in einem iSCSI-Szenario benötigt mindestens (!) drei Netzwerkkarten.

Die Knoten eines Clusters sollten nach Möglichkeit identisch, zumindest aber ähnlich dimensioniert sein.

Ich gehe davon aus, dass viele Leser bisher noch kein iSCSI installiert haben. Daher folgt hier ein kurzer Überblick. Bei iSCSI gibt es zwei Kernkomponenten:

  • iSCSI-Target: Ein Target stellt Plattenressourcen zur Verfügung. Windows Server 2008 enthält leider standardmäßig keine Software, um ein iSCSI-Target zu sein, es gibt aber diverse Drittherstellerprodukte (»Googeln« hilft immer, Suchbegriffe: iSCSI Target Windows). Diverse Hersteller bieten iSCSI-Targets als Hardwarelösung an. Zu nennen wären hier beispielsweise die Systeme von Network Appliance.
  • iSCSI-Initiator: Der Initiator greift auf die vom Target bereitgestellten Ressourcen zu. Ein Initiator kann entweder ein Stück Software oder eine spezielle Netzwerkkarte sein.

Installation des iSCSI-Targets

Windows Server 2008 verfügt über kein »eigenes« iSCSI-Target, was bedeutet, dass Sie ein geeignetes Softwareprodukt beschaffen müssen. Es gibt verschiedene Möglichkeiten. Bewährt hat sich StarWind von RocketDivision (http://www.rocketdivision.com/). Es gibt von dieser Software verschiedene Editionen, eine ist sogar kostenlos erhältlich. Leider ist diese nicht für den Aufbau eines Clusters geeignet, da sie keine gleichzeitigen Zugriffe auf iSCSI-Ressourcen gestattet. Sie brauchen also mindestens die Edition »Server«, die übrigens auch für kleines Geld (395 US$) erhältlich ist. Eine 30-Tage-Testversion steht ebenfalls zur Verfügung.

Bereiten Sie einen Windows Server 2008 (Grundinstallation) vor, dann installieren Sie das iSCSI-Target. Abbildung 20.10 zeigt den Dialog zur Auswahl der zu installierenden Komponenten. Das Virtual Tape Library-Plug-In benötigen Sie für dieses Szenario nicht.

Abbildung 20.10 Diese Komponenten benötigen Sie, um das StarWind-iSCSI-Target aufzusetzen.

Die Konfiguration des iSCSI-Targets erfolgt mit einem grafischen Werkzeug. Zunächst bauen Sie die Verbindung zum Target auf, was in Abbildung 20.11 bereits erledigt ist. Sie können also beginnen, mit Add Device (im Kontextmenü) die bereitzustellenden Plattenressourcen hinzuzufügen.

Abbildung 20.11 In der StarWind-Management-Console werden zwei Speicherbereiche hinzugefügt.

Das Hinzufügen wird von einem Assistenten erledigt:

  • Zunächst entscheiden Sie sich für den Device Type, also den bereitzustellenden Gerätetyp. In diesem Fall entscheiden Sie sich für ein Image File device, also einen Bereich auf der Festplatte (Abbildung 20.12, links).

Abbildung 20.12 Erzeugen Sie ein neues »Image File device«.

  • Vermutlich werden Sie ein neues Image erzeugen wollen. Sie können StarWind (oder ein beliebiges anderes iSCSI-Target) natürlich nicht »nur« für die Testumgebung verwenden, sondern auch produktiv einsetzen. Dann ist es allerdings wichtig, dass Sie als Speicherort für das Image ein Festplattensystem auswählen, das den Performance-Anforderungen genügt. Ein RAID5 aus drei SATA-Platten wird zum Beispiel kaum ausreichen, um eine Datenbank für 100 Anwender bereitzustellen (Abbildung 20.13).
  • Extrem wichtig ist, dass Sie auf der dann folgenden Dialogseite die Checkbox Allow multiple concurrent iSCSI connections aktivieren. In einem »normalen« Failover-Cluster müssen alle Knoten auf denselben Speicherbereich Zugriff haben.

Abbildung 20.13 Die Datei wird im lokalen Dateisystem gespeichert. Wichtig ist, dass »multiple concurrent iSCSI connections« zugelassen werden.


Mindestens zwei iSCSI-Bereiche

Erzeugen Sie mindestens zwei iSCSI-Bereiche. Ein Bereich, der nicht größer als 100 MB zu sein braucht, wird als Quorum verwendet. Vereinfacht gesagt werden dort »cluster-interne« Daten abgelegt.

Das zweite (und dritte, vierte etc.) Device wird für Ihre Daten verwendet.


Konfiguration des iSCSI-Initiators

Nun müssen Sie auf den zukünftigen Clusterknoten noch die Clientkomponente zum Zugriff auf das iSCSI-Target konfigurieren. Eine Installation ist nicht notwendig, da der iSCSI-Initiator in Windows Server 2008 bereits installiert ist, aber nicht ausgeführt wird. Rufen Sie also den Menüpunkt iSCSI-Initiator auf, und starten Sie auf Nachfrage den Dienst (Abbildung 20.14).

Abbildung 20.14 Der iSCSI-Initiator wird nach dem ersten Start den Dienst starten.

Für die Konfiguration des iSCSI-Initiators startet ein Eigenschaftendialog mit sechs Registerkarten. Für eine größere iSCSI-Umgebung gibt es recht elegante Konfigurationsmöglichkeiten unter Verwendung eines iSNS-Servers, der in etwa ein DNS-Server für iSCSI ist. Ich möchte an dieser Stelle allerdings nicht in die Tiefen von iSCSI einsteigen, sondern es »nur« zum Laufen bringen:

  • Wechseln Sie auf die Registerkarte Suche, und tragen Sie die IP-Adresse des iSCSI-Targets in die Liste Zielportale ein (Abbildung 20.15). Falls der iSCSI-Server mehrere Netzwerkadressen hat, achten Sie darauf, dass Sie die IP-Adresse des iSCSI-Netzwerksegments eintragen (siehe auch Abbildung 20.9).

Abbildung 20.15 Das iSCSI-Target wird als Zielportal eingetragen.

  • Nun wechseln Sie auf die Registerkarte Ziele. Falls dort noch nichts angezeigt wird, klicken Sie auf die Schaltfläche Aktualisieren. Nun sollten die Devices des iSCSI-Targets erscheinen. Stellen Sie die Verbindungen her, indem Sie die Einträge jeweils selektieren und eine Anmeldung vornehmen (Abbildung 20.16).

Bevor Sie die iSCSI-Konfiguration verlassen, sollten Sie auf die Registerkarte Volumes und Geräte wechseln und dafür sorgen, dass die verwendeten Ressourcen in die Liste eingetragen werden. Ist eine Ressource dort vermerkt, sorgt der iSCSI-Initiator dafür, dass die iSCSI-Ressourcen für die darauf zugreifenden Dienste bzw. Applikationen stets vorhanden sind. Das hört sich ein wenig nebulös an, daher erkläre ich es an einem kleinen Beispiel: Wenn der Server beispielsweise Verzeichnisse des über iSCSI gemounteten Festplattensystems per Dateifreigabe zur Verfügung stellt, wird nach einem Neustart die Freigabe nicht mehr vorhanden sein. Das liegt daran, dass zu dem Zeitpunkt, zu dem Dienst startet, der die Freigabe bereitstellt, die Verbindung zum iSCSI-Target noch nicht existiert. In der Folge müssen die Freigaben neu angelegt werden. Das Problem tritt nicht auf, wenn Sie die iSCSI-Ressourcen in dieser Liste eintragen (Abbildung 20.17).

Abbildung 20.16 Melden Sie sich an den gefundenen Zielen an.

Abbildung 20.17 Wählen Sie »Autom. konfigurieren«, um die Verfügbarkeit der genutzten Geräte sicherzustellen.

Beachten Sie, dass die iSCSI-Ressource auch in der Liste auf der Registerkarte Bevorzugte Ziele vorhanden sein muss. Sie wird dort aber automatisch eingetragen, wenn Sie bei der Anmeldung die Checkbox Beim Neustart…wiederherstellen selektiert hatten (siehe Abbildung 20.16).

In der Datenträgerverwaltung muss sich nun in etwa das Bild aus Abbildung 20.18 ergeben. Die Datenträger müssen noch Online geschaltet werden (im Kontextmenü des Datenträgers), dann können Sie eine Partition anlegen und formatieren. Abbildung 20.19 zeigt, dass die eingebundenen iSCSI-Ressourcen von »normalen« Festplatten nicht zu unterscheiden sind.

Abbildung 20.18 Die beiden per iSCSI zur Verfügung gestellten Volumes tauchen in der Datenträgerverwaltung auf, müssen aber noch aktiviert, initialisiert und formatiert werden.

Abbildung 20.19 So muss es aussehen. Und zwar auf beiden Servern!


Keine Laufwerksbuchstaben

Es ist übrigens nicht notwendig, den zukünftigen Clusterfestplatten Laufwerksbuchstaben zuzuweisen. Dies wird ohnehin bei der Clusterinstallation modifiziert.



Hinweis

Die gezeigten Schritte müssen auf allen Clusterknoten durchgeführt werden (natürlich nicht das Partitionieren und Formatieren). Bevor Sie mit der Clusterinstallation fortfahren, müssen alle Clusterknoten auf die Festplattenbereiche zugreifen können.


Sie können übrigens auch im Verwaltungswerkzeug des iSCSI-Targets kontrollieren, ob sich alle Server mit dem iSCSI-Target verbunden haben. Es muss sich ein Szenario wie in Abbildung 20.20 ergeben.

Abbildung 20.20 In der Konfiguration des iSCSI-Targets müssen beide iSCSI-Initiatoren angezeigt werden.

Cluster installieren

Die grundlegenden Arbeiten können Sie mit einem grafischen Werkzeug, nämlich der Failover-Clusterverwaltung erledigen; das gilt übrigens sowohl für die Einrichtungs- als auch für die Betriebsphase.

Die Clusterverwaltung lässt sich übrigens auch auf einem Vista-PC ausführen; Sie müssen lediglich die Windows Server 2008-Adminwerkzeuge installieren (Download Center). Wie Sie in Abbildung 20.22 sehen können, kann aus der Clusterverwaltung viel erläuternder Text aufgerufen werden. Außerdem sind natürlich die wesentlichen Aktionen (Konfiguration überprüfen, Cluster erstellen etc.) aufrufbar.

Abbildung 20.21 Die »Failover-Clusterverwaltung« ermöglicht ein komfortables Arbeiten – auch vom Admin-Arbeitsplatz aus.

Konfiguration überprüfen

Eine der Neuerungen beim Failover-Cluster unter Windows Server 2008 sind wesentlich umfangreichere Prüfvorgänge als bei den Vorgängerversionen. Das ist auch ziemlich gut so, denn meiner Erfahrung nach liegt die Ursache für Clusterprobleme während der Betriebsphase in einer fehlerhaften Grundkonfiguration. Rufen Sie also in der Failover-Clusterverwaltung den Menüpunkt Konfiguration überprüfen auf:

  • Zunächst können Sie die zu überprüfenden Server angeben (Abbildung 20.22). Tragen Sie hier alle Server ein, aus denen der Cluster gebildet werden soll.
  • Auf der dann folgenden Dialogseite können Sie wählen, ob alle Tests durchgeführt werden sollen oder ob Sie nur einzelne Tests laufen lassen möchten. Der erste Testlauf sollte alle Tests umfassen. Da die Ausführung einige Minuten dauert, kann später, wenn Sie einzelne aufgetretene Probleme korrigiert haben, eine selektivere Vorgehensweise empfehlenswert sein (Abbildung 20.23).

Abbildung 20.22 Wählen Sie zunächst die zukünftigen Clusterknoten zum Test aus.

Abbildung 20.23 Sinnvollerweise werden alle Tests ausgeführt.

  • Sie können nun den Test starten, der automatisch abläuft. Wie bereits erwähnt wurde, wird er einige Minuten in Anspruch nehmen.
  • Der Dialog aus Abbildung 20.24 bringt zwar keine komplizierten Konfigurationsaufgaben mit, ich finde es aber ganz beeindruckend, zu zeigen, wie viele Tests die Clusterverwaltung bereithält.

Abbildung 20.24 Es gibt mehrere Dutzend Tests.

Nach Durchführung des Testlaufs können Sie einen Bericht (HTML-Seite) aufrufen, der sehr detailliert die Ergebnisse auflistet. Sofern Probleme aufgetreten sind, erhalten Sie im Allgemeinen recht konkrete Handlungsanweisungen.

Ich empfehle Ihnen dringend, wirklich so lange zu testen, bis keinerlei Probleme oder Warnungen mehr angezeigt werden. Zwar ist die Clusterinstallation auch möglich, wenn die Konfigurationsprüfung Fehler meldet, allerdings würden daraus zwei Probleme resultieren:

  • Eine Konfiguration, die von der Clusterüberprüfung nicht die »grüne Ampel« erhält, wird von Microsoft nicht supportet.
  • Wenn die Clusterprüfung Probleme meldet, hat das im Allgemeinen »Hand und Fuß«. Diese Meldungen einfach zu ignorieren wird mit einer nicht ganz geringen Wahrscheinlichkeit später zu Problemen führen, die dann gegebenenfalls schwer zu diagnostizieren sind.

Cluster erstellen

Nun kommen wir zum eigentlichen Aufsetzen des Clusters. Wählen Sie in der Clusterverwaltung den Menüpunkt Cluster erstellen. Sie werden feststellen, dass Cluster zu erstellen einfacher ist, als Sie es sich vielleicht gedacht haben.

  • Zunächst wählen Sie aus, aus welchen Servern der Cluster initial aufgebaut werden soll. Das ist übrigens keine Entscheidung für die Ewigkeit, Sie können auch zu einem späteren Zeitpunkt noch weitere Server hinzufügen (Abbildung 20.25).

Abbildung 20.25 Wählen Sie die Knoten aus, aus denen der Cluster gebildet werden soll.

  • Die nächste Dialogseite ist einigermaßen wichtig. Falls bei dem letzten Validierungstest Warnungen aufgetreten sind, wird der Installationsassistent Sie darauf hinweisen, dass das System nicht von Microsoft supportet werden wird. Sie haben nun die Möglichkeit, den Validierungstest nochmals durchzuführen (vielleicht sind ja die gemeldeten Probleme mittlerweile behoben) oder die Installation trotz der Warnung durchzuführen (Abbildung 20.26).

Abbildung 20.26 Wenn es Warnungen vom Konfigurationsvalidierungstest gibt, sollten Sie die gemeldeten Probleme zuerst beheben.


Support

An dieser Stelle sei auf die Bedeutung des Microsoft-Supports hingewiesen. Bekanntermaßen brauchen Sie über wirklich kniffligen Problemen nicht stunden- oder gar tagelang selbst zu brüten, sondern können einen Call bei Microsoft aufmachen. Wenn Sie nicht durch einen wie auch immer gearteten Rahmenvertrag diverse Anrufe frei haben, kosten sie Geld (das staffelt sich u. a. auch nach der Produktfamilie, im Serverumfeld kann man mit ca. 300 EUR rechnen; Angaben ohne Gewähr!). Für diesen Betrag brauchen Sie nun aber nicht stundenlang selbst nach der Lösung für ein Problem zu suchen.

Ein Call bei Microsoft setzt nun aber voraus, dass die Installation grundsätzlich den »Regeln« entspricht. Wenn Sie wissentlich eine nicht supportete Konfiguration implementieren, verbauen Sie sich die Chance, Ihr konkretes Problem durch Microsoft lösen zu lassen – diesen Weg würde ich mir auf gar keinen Fall verbauen.


Im nächsten Schritt tragen Sie den Clusternamen und eine zugehörige IP-Adresse ein (Abbildung 20.27). Dies ist die IP-Adresse bzw. der Name, über den der Cluster zu Verwaltungsaufgaben angesprochen wird. Benötigt wird hier eine »neue« Adresse, also keine Adresse eines der Clusterknoten!

Abbildung 20.27 Für die Clusterverwaltung werden eine IP-Adresse und ein Name benötigt.

Damit haben Sie den Assistenten bereits durchgearbeitet. Nehmen Sie noch eine letzte Überprüfung vor, und dann kann es losgehen (Abbildung 20.28). Vielleicht sind Sie erstaunt, dass keine weiteren Parameter abgefragt werden, aber im ersten Schritt geht es »nur« um das Aufsetzen des eigentlichen Clusters. Anwendungen, also Clusterressourcen, werden in einem zweiten Schritt konfiguriert.

Abbildung 20.28 Ein letzter Check – dann geht es los.

Der Assistent wird nun ein paar Minuten lang beschäftigt sein. Wenn Sie den Validierungstest erfolgreich absolviert haben, sollte es aber keine Probleme geben. Abbildung 20.29 zeigt den »Abschlussdialog« einer einwandfrei abgelaufenen Installation. Wenn es Probleme gegeben hat, wird in genau diesem Dialog ein Warnungszeichen zu sehen sein. In diesem Fall würde ich übrigens das Problem diagnostizieren (Schaltfläche Bericht), den installierten Cluster löschen, das Problem beheben und neu installieren. So können Sie sicher sein, dass Sie wirklich einen »sauberen« Cluster verwenden.

Abbildung 20.29 Das war erfolgreich: Es gibt keine Warnungen, und der Cluster läuft.

Der Ist-Zustand

Sie werden neugierig sein, wie der Installationsassistent den Cluster eingerichtet hat. Dies kann in der Failover-Clusterverwaltung problemlos überprüft werden.

Wählen Sie beispielsweise den Knoten Speicher. Dort werden die im Cluster vorhandenen Datenträger angezeigt. Eine besondere Rolle nimmt der Zeugendatenträger im Quorum ein. Dies ist der Plattenbereich, den der Cluster sozusagen »für sich selbst« benötigt (Abbildung 20.30).

Abbildung 20.30 In der Clusterverwaltung können Sie den im Cluster vorhandenen Speicher einsehen. Beachten Sie besonders den »Zeugendatenträger«.

Im Kontextmenü des Knotens Speicher findet sich der Menüpunkt Datenträger hinzufügen, mit dem (Überraschung, Überraschung) dem Cluster weitere Speicherkapazität hinzugefügt werden kann. In Clustern, die auf gemeinsamem Speicherplatz (Shared Storage) basieren, versteht es sich von selbst, dass nur ebendiese gemeinsamen Datenträger hinzugefügt werden können.

Weiterhin interessant ist der Knoten Netzwerke (Abbildung 20.31). Sie können für jedes Netzwerk konfigurieren, ob es vom Cluster verwendet werden darf und ob Client-Zugriffe möglich sein sollen. Der Konfigurationsassistent trifft im Allgemeinen die »richtigen Entscheidungen«, es könnte aber auch sein, dass Sie hier ein wenig nacharbeiten müssen. Rufen Sie dazu den Eigenschaftendialog der jeweiligen Netzwerkverbindung auf:

  • Die Netzwerkverbindung zum Produktivnetz muss für die Verwendung durch den Cluster zugelassen sein. Weiterhin muss Clientzugriff gestattet sein.
  • Für das Heartbeat-Netz muss die Verwendung durch den Cluster aktiviert sein, allerdings muss der Client-Zugriff abgeschaltet werden.

Abbildung 20.31 In der Clusterverwaltung können Sie die im Cluster vorhandenen Netzwerke einsehen und konfigurieren.


Galileo Computing - Zum Seitenanfang

20.2.3 Anwendungen hinzufügen Zur nächsten ÜberschriftZur vorigen Überschrift

Der Cluster bringt nicht viel, wenn keine Anwendung darauf ausgeführt wird. Die nächste Aufgabe ist also, eine Anwendung oder einen Dienst auf dem Cluster zu konfigurieren. Standardmäßig sind ca. ein Dutzend Anwendungen bzw. Dienste vorhanden, darunter Dateiserver, Druckserver, DHCP-Server und dergleichen mehr. Wenn Sie beispielsweise Exchange Server oder SQL Server auf dieser Maschine installiert haben, werden die entsprechenden Komponenten ebenfalls auf diesem Weg installiert werden.

Als Beispiel in diesem Buch werde ich Ihnen vorführen, wie man einen Dateiserver-Cluster einrichtet. Also:

  • In der Failover-Clusterverwaltung rufen Sie im Kontextmenü des Knotens Dienste und Anwendungen den Menüpunkt Dienst oder Anwendung konfigurieren auf (Abbildung 20.32).

Abbildung 20.32 Hier beginnen Sie mit dem Einrichten eines Dienstes oder einer Anwendung.

  • Anschließend erscheint der Dialog zur Auswahl der Anwendung, die als Clusterressource installiert werden soll (Abbildung 20.33). Falls zusätzliche Anwendungen (z. B. Exchange Server, SQL Server) installiert sind, werden entsprechende Einträge auswählbar sein. Das gilt aber nur, wenn die installierte Anwendung eine Clusterressource bereitstellt.

Abbildung 20.33 Eine mögliche Clusteranwendung ist der Dateiserver.

Der nächste Punkt ist die Konfiguration des Clientzugriffspunkts (Abbildung 20.34). Den hier angegebenen Namen nebst zugehöriger IP-Adresse verwenden die Clients, um auf die Clusterressource, in diesem Fall den Dateiserver-Cluster, zuzugreifen. Vorsichtshalber möchte ich Sie darauf hinweisen, dass hier ein nicht existierender Name und eine nicht verwendete IP-Adresse gefordert sind, also keinesfalls die Daten eines bestehenden Clusterknotens.

Der Name wird übrigens im DNS eingetragen.

Abbildung 20.34 Wählen Sie einen Namen und eine Netzwerkadresse für den Dateiserver-Cluster.

Im nächsten Dialog wählen Sie die zu verwendenden Speicherbereiche. In diesem Beispiel habe ich nur zwei Datenträger angelegt. Einer davon wird für interne Zwecke benötigt (Zeugendatenträger im Quorum), der andere kann für die Verwendung mit dem Dateiserver-Cluster ausgewählt werden (Abbildung 20.35). Bei Bedarf können Sie natürlich weitere Datenträger hinzufügen.

Abbildung 20.35 Legen Sie das Speichervolume fest, das für den Dateiserver-Cluster verwendet werden soll.

Hat der Assistent seine Arbeit erledigt, können Sie den angelegten Dateiserver-Cluster in Augenschein nehmen (Abbildung 20.36):

  • Sie können erkennen, dass der Status des Clusters Online und der aktuelle Besitzer ubinfClu01N2 ist. Wie unschwer zu erraten ist, ist mit Letzterem der Server gemeint, auf dem der Dienst momentan ausgeführt wird.
  • Verschiedene Ressourcen haben den Status Online, und zwar der Name, die IP-Adresse und der Clusterdatenträger.
  • Momentan gibt es für den Dateiserver-Cluster nur eine Freigabe, nämlich die administrative Freigabe.

Abbildung 20.36 In diesem Dialog wird der Dateiserver-Cluster konfiguriert. Bisher gibt es nur die administrative Freigabe; immerhin ist alles online geschaltet.

Um nun eine weitere Freigabe einzurichten, wählen Sie im Kontextmenü der Dateiserver-Cluster-Anwendung den Menüpunkt Einen freigegebenen Ordner hinzufügen. Der Assistent, der darauhin startet, fragt zunächst nach dem freizugebenden Pfad. Dann müssen Sie sich noch durch einige weitere Dialogseiten arbeiten, die aber selbsterklärend sind. Sie sehen, dass die grundlegenden Arbeiten, wie eben das Hinzufügen von Freigaben, in der Clusterverwaltung erledigt werden. Existiert die Freigabe bereits, modifizieren Sie diese in ihrem Eigenschaftendialog, den Sie über das Kontextmenü aufrufen (Abbildung 20.37 und Abbildung 20.38).

Abbildung 20.37 Jede Menge Menüpunkte: Zum Beispiel könnte man »Einen freigegebenen Ordner hinzufügen«.

Abbildung 20.38 Geben Sie den Speicherort für den freigegebenen Ordner an.


Galileo Computing - Zum Seitenanfang

20.2.4 Cluster schwenken Zur nächsten ÜberschriftZur vorigen Überschrift

Die Idee hinter einem Failover-Cluster ist, dass beim Ausfall eines Knotens ein anderer dessen Aufgaben übernimmt. Das Schwenken des Clusters können Sie allerdings auch gezielt initiieren, beispielsweise um einen Knoten zu Wartungszwecken (z. B. Patches einspielen nebst fälligem Neustart) herunterzufahren, oder einfach, um zu probieren, ob ein anderer Knoten die Funktion übernehmen kann.

Im Eigenschaftendialog der Dienste bzw. Anwendungen findet sich der Menüpunkt Diesen Dienst oder diese Anwendung in einen anderen Knoten verschieben. In diesem Fall (Abbildung 20.39) ist zwar nur ein möglicher Knoten aufgeführt (der Cluster hat nur zwei Knoten), aber so wird’s gemacht.

Abbildung 20.39 Der Dateiserver-Cluster kann geschwenkt werden, …

In Abbildung 20.40 sehen Sie die Meldung, die beim Start des Verschiebevorgangs erscheint: Sie werden darauf hingewiesen, dass beim Schwenken des Clusters sämtliche Clients getrennt werden. Diese können zwar kurze Zeit später die Verbindung wieder aufbauen, die Verbindung ist aber in jedem Fall kurz »weg«.

Dies gilt übrigens auch beim Ausfall eines Knotens: Der Funktionalität wird zwar auf einen anderen Knoten verschoben, die Clients verlieren aber kurzzeitig die Verbindung. Im den meisten Fällen ist das zwar kein Problem, Sie sollten sich aber darüber im Klaren sein!

Abbildung 20.40 … allerdings gibt es dabei eine kurze Funktionsunterbrechung für die Clients.


Galileo Computing - Zum Seitenanfang

20.2.5 Feinkonfiguration des Clusters und weitere Vorgehensweise topZur vorigen Überschrift

Das Verwaltungswerkzeug für den Failover-Cluster hält viele, viele Konfigurationsmöglichkeiten bereit. Ich möchte diese hier nicht im Detail besprechen. Wenn Sie einen lauffähigen Cluster haben, sollten Sie in der Failover-Clusterverwaltung die Konfigurationsdialoge durchsehen und sich einen Überblick verschaffen. Die Optionen sind im Großen und Ganzen selbsterklärend, so dass seitenlange Beschreibungen in der Tat nicht notwendig sind.

Weiterhin möchte ich Ihnen dringend empfehlen, das Wiederherstellen des Clusters und einzelner Clusterknoten mit der von Ihnen verwendeten Sicherungssoftware auszuprobieren – und zwar in einer ruhigen Stunde und nicht erst, wenn der Notfall da ist.



Ihr Kommentar

Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen.






<< zurück
  Zum Katalog
Zum Katalog: Windows Server 2008 R2

Windows Server 2008 R2
Jetzt bestellen


 Ihre Meinung?
Wie hat Ihnen das <openbook> gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Katalog: Windows 7 für Administratoren






 Windows 7 für
 Administratoren


Zum Katalog: Konzepte und Lösungen für Microsoft-Netzwerke






 Konzepte und
 Lösungen für
 Microsoft-Netzwerke


Zum Katalog: Office SharePoint Server 2007 und Windows SharePoint Services 3.0






 Office SharePoint
 Server 2007 und
 Windows SharePoint
 Services 3.0


Zum Katalog: Exchange Server 2007 und Office Communications Server 2007






 Exchange Server 2007
 und Office
 Communications
 Server 2007


Zum Katalog: Citrix XenApp 5






 Citrix XenApp 5


Zum Katalog: PC-Netzwerke






 PC-Netzwerke


Zum Katalog: VMware vSphere 4






 VMware vSphere 4


Zum Katalog: VMware vSphere 4 - Videotraining






 VMware vSphere 4
 - Videotraining


Zum Katalog: VirtualBox






 VirtualBox


 Shopping
Versandkostenfrei bestellen in Deutschland und Österreich
InfoInfo




Copyright © Galileo Press 2010
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Galileo Computing]

Galileo Press, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, info@galileo-press.de