Galileo Computing < openbook > Galileo Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Geleitwort zu diesem Buch
Inhalt des Buchs
1 Warum eine neue Server-Version?
2 Editionen und Lizenzen
3 Hardware und Dimensionierung
4 Protokolle
5 Was überhaupt ist .NET?
6 Installation
7 Core-Installationsoption
8 Active Directory-Domänendienste
9 Netzwerkdienste im AD-Umfeld
10 Active Directory Lightweight Directory Services (AD LDS)
11 Active Directory-Verbunddienste (Federation Services)
12 Active Directory-Zertifikatdienste
13 Active Directory-Rechteverwaltungsdienste (AD RMS)
14 »Innere Sicherheit«
15 Dateisystem und Dateidienste
16 Drucken
17 Webserver (IIS)
18 SharePoint (Windows SharePoint Services, WSS)
19 Remotedesktopdienste (Terminaldienste)
20 Hochverfügbarkeit
21 Datensicherung
22 Servervirtualisierung mit Hyper-V
23 Windows PowerShell
24 Windows 7 und Windows Server 2008 R2
Stichwort

Download:
- ZIP, ca. 104 MB
Buch bestellen
Ihre Meinung?

Spacer
<< zurück
Windows Server 2008 R2 von Ulrich B. Boddenberg
Das umfassende Handbuch
Buch: Windows Server 2008 R2

Windows Server 2008 R2
geb., 1.410 S., 59,90 Euro
Galileo Computing
ISBN 978-3-8362-1528-2
Pfeil 3 Hardware und Dimensionierung
Pfeil 3.1 Serverhardware
Pfeil 3.1.1 Prozessoren
Pfeil 3.1.2 Serverarchitektur
Pfeil 3.1.3 Hauptspeicher
Pfeil 3.1.4 Festplatten
Pfeil 3.1.5 Netzwerkkonnektivität
Pfeil 3.1.6 Überwachung
Pfeil 3.2 Storage-Architekturen
Pfeil 3.2.1 SAN, NAS, iSCSI
Pfeil 3.2.2 SAN-Architektur
Pfeil 3.2.3 Premium Features von Storage-Systemen
Pfeil 3.2.4 Virtualisierung
Pfeil 3.3 Netzwerk
Pfeil 3.3.1 Netzwerkstrukturen und Verfügbarkeit
Pfeil 3.3.2 Anbindung von entfernten Nutzern
Pfeil 3.3.3 Netzwerkmanagement
Pfeil 3.4 Das Rechenzentrum
Pfeil 3.4.1 Zugangskontrolle
Pfeil 3.4.2 Feuer, Wasser …
Pfeil 3.4.3 Räumliche Anforderungen
Pfeil 3.4.4 Stromversorgung
Pfeil 3.4.5 Redundante Rechenzentren
Pfeil 3.5 Mein Freund, der Systemmonitor
Pfeil 3.5.1 Leistungsindikatoren, Objekte und Instanzen
Pfeil 3.5.2 Protokoll erstellen
Pfeil 3.5.3 Protokoll untersuchen
Pfeil 3.5.4 Leistungsmessung über Computergrenzen hinweg
Pfeil 3.6 Dimensionierung und Performance
Pfeil 3.6.1 Festplatte
Pfeil 3.6.2 Hauptspeicher
Pfeil 3.6.3 Prozessor
Pfeil 3.6.4 Netzwerkkonnektivität

Doch mir gebt die Tochter zurück, und empfahet die Lösung,
Ehrfurchtsvoll vor Zeus ferntreffendem Sohn Apollon.
Drauf gebot beifallend das ganze Heer der Achaier,
Ehrend den Priester zu scheun, und die köstliche Lösung zu nehmen.
Aber nicht Agamemnon, des Atreus Sohne, gefiel es

3 Hardware und Dimensionierung

In jedem Projekt stellt sich irgendwann die Frage, auf welcher Hardware der neue Windows Server 2008 denn nun laufen soll. Im Klartext lautet die Frage der Kunden: »Uli, wie soll ich den Server dimensionieren?« Diese Frage lässt sich freilich in einem Buch nur recht schwierig beantworten, weil jeder Fall zwangsläufig individuell ist. Ich möchte Ihnen aber gern einige Hinweise geben, wie Sie sich an eine optimale Dimensionierung heranarbeiten.

Dieses Kapitel beginnt daher mit einem kurzen Hardwareüberblick und steigt dann in die Dimensionierung und den Umgang mit dem Performance-Monitor ein.


Galileo Computing - Zum Seitenanfang

3.1 Serverhardware Zur nächsten ÜberschriftZur vorigen Überschrift

Als Serversysteme für die Microsoft-Plattform kommt nur Hardware mit Intel- oder Intel-kompatiblen Prozessoren (also AMD- Prozessoren) in Frage. Daran hat sich übrigens auch bei Windows Server 2008 nichts geändert – ein Variantenreichtum wie zu NT4-Zeiten, als neben der Intel-Plattform auch PowerPC-, MIPS- und Alpha-Versionen zur Verfügung standen, kehrt nicht zurück.


Galileo Computing - Zum Seitenanfang

3.1.1 Prozessoren Zur nächsten ÜberschriftZur vorigen Überschrift

Gewissermaßen das Herzstück eines Servers ist der Prozessor bzw. sind die Prozessoren. Heute (August 2008) sind im Prinzip drei verschiedene Prozessorfamilien auf dem Markt:

  • IA-32: die 32-Bit-Prozessoren
  • x64: Intel Xeon EM64T- oder AMD Opteron-Prozessoren
  • Itanium: Der aktuelle Prozessor aus dieser Familie ist der Itanium 2.

Dieses Kapitel verfolgt nicht das Ziel, die genaue Architektur jeder Prozessorfamilie im Detail vorzustellen – ich gehe in den nächsten Abschnitten vielmehr auf die Bedeutung der jeweiligen Prozessortypen in heutigen Servern ein.

IA32-Prozessoren

Bei dieser Prozessorfamilie handelt es sich um die »klassischen« 32-Bit-Prozessoren, die mittlerweile millionenfach verbaut sind. Aktuell sind die Prozessoren Pentium 4, Pentium D und Xeon.


32- oder 64-Bit?

Mittlerweile sind selbst im Einstiegssegment Server mit 32-Bit-Prozessoren kaum mehr erhältlich.

Selbst wenn Sie noch irgendwo ein solches Gerät zum günstigen Preis erwerben können, sollten Sie davon Abstand nehmen. Mit Exchange 2007 hat Microsoft ein »großes Standardprodukt« herausgebracht, das nur noch in 64-Bit-Umgebungen unterstützt wird – und weitere werden sicherlich folgen. Bei Neuanschaffungen sollten Sie also 32-Bit-Hardware meiden.

Falls Sie vorhandene 32-Bit-Hardware weiterverwenden möchten, ist dies grundsätzlich kein Problem – trotzdem stellt sich die Frage, ob man wirklich Neuinstallationen auf alter Hardware vornehmen möchte. Vermutlich läuft diese in absehbarer Zeit ohnehin aus dem Support, und dann befinden Sie sich mitten in einem Migrationsprojekt.


Vereinfacht gesagt existieren vier Serverproduktlinien, die mit Prozessoren dieser Architektur erhältlich sind:

  • Einstiegsserver mit einem Prozessor: Diese Produkte zielen auf Kleinstfirmen mit sehr einfachen IT-Anforderungen. Server dieses Typs werden mit einem Pentium 4- oder Pentium D-Prozessor geliefert; ein Mehrprozessorbetrieb ist nicht möglich.
  • Midrange-Server mit bis zu zwei Xeon-Prozessoren: Für viele Anwendungen mit mittleren Anforderungen eignen sich die Serversysteme mit bis zu zwei Xeon-Prozessoren.
  • Server mit bis zu vier Xeon MP-Prozessoren: Für leistungsintensive Anwendungen sind von allen Markenherstellern Server erhältlich, die mit bis zu vier Xeon MP-Prozessoren bestückbar sind.
  • Server mit mehr als vier Prozessoren: Auch im IA-32-Bereich sind Server mit mehr als vier Prozessoren verfügbar.

Eines der Hauptprobleme von 32-Bit-Systemen ist, dass das Betriebssystem nur 4 GB Speicher adressieren kann (232 = 4.294.967.296). Standardmäßig wird das Betriebssystem für den »Eigenbedarf« 2 GB reservieren und den übrigen Speicher, also ebenfalls 2 GB, für Anwendungen bereitstellen. Dieses Verhalten kann mit dem /3GB-Parameter in der boot.ini-Datei zwar dahingehend verändert werden, dass die Aufteilung zwischen Betriebssystem und Anwendungen im Verhältnis 1:3 geschieht. Aber auch das bringt letztendlich nicht den großen Durchbruch, wenn man eigentlich fünf oder zehn Gigabyte Hauptspeicher benötigen würde.

Die Adressierbarkeit von Speicher oberhalb von 4 GB lässt sich durch AWE bewerkstelligen. AWE bezeichnet die in Windows Server enthaltene Address Windowing Extension. Anwendungen können Speicher als Nonpaged Memory anfordern, der dann dynamisch in den 32-Bit-Adressraum eingeblendet wird. Mittels dieser Technologie konnte beispielsweise Windows Server 2003 Enterprise bis zu 32 GB virtuellen Speichers verwalten, und die Datacenter-Edition schaffte bis zu 64 GB.

Dieses Speichermanagement verursacht natürlich für das Betriebssystem einen gewissen Verwaltungsaufwand, der sich in Performance-Nachteilen niederschlagen könnte – natürlich abhängig vom jeweiligen Anwendungsszenario.

Weiterhin sind die Anwendungsszenarien limitiert, da das 32-Bit-Betriebssystem nicht plötzlich eine Welt mit beispielsweise 12 GB Hauptspeicher für alle Anwendungszwecke bereitstellen kann – trotz AWE. SQL Server 2005 kann den über AWE bereitgestellten Speicher nur für die Verwaltung von Page Buffers verwenden und nicht für das Caching von Queries, für das Sortieren, Joinen etc.

Auch wenn es noch das ein oder andere 32-Bit-System zu kaufen gibt und Sie vielleicht noch das ein oder andere System in Ihren Racks haben, gibt es nur ein Fazit: Bei Neubeschaffungen Finger weg von 32-Bit-Systemen!

Die 64-Bit-Welt

Die Welt der Intel-64-Bit-Prozessoren besteht aus zwei Technologie-Familien:

  • x64: Hier finden sich die 64-Bit-Prozessoren von Intel (Xeon 64Bit und Pentium mit EM64T) und AMD (Opteron und Athlon64). »x64« ist übrigens die von Microsoft geprägte Bezeichnung für diese Prozessorfamilie.
  • IA64: Ein Mitglied dieser Familie ist der Itanium-Prozessor.

Wichtig zu verstehen ist, dass es sich bei diesen beiden 64-Bit-Familien um unterschiedliche, vor allem nicht zueinander kompatible Technologieansätze handelt. Bei x64 handelt es sich grundsätzlich um eine erweiterte x86-Architektur, während Itanium auf EPIC basiert. EPIC bedeutet ausgeschrieben Explicitly Parallel Instruction Computing und basiert vereinfacht gesagt darauf, dass bereits bei der Programmierung die Parallelisierung der Befehle eines Instruktionsstroms explizit vorgenommen wird.

In dem vorherigen Abschnitt sind drei Wörter besonders wichtig, nämlich »nicht zueinander kompatibel«. Sie müssen sehr genau untersuchen, welche der Architekturen konkret am besten zu Ihrer Umgebung passt. Einige erste Entscheidungshilfen finden Sie in den folgenden beiden Abschnitten. Für Itanium-Maschinen beschaffte Software ist nicht auf x64-Systemen lauffähig – und umgekehrt.

Sehr verallgemeinernd kann man die Zielgruppen für die beiden Prozessorfamilien wie folgt beschreiben:

  • Wer heute mit IA-32-Systemen arbeitet und mit deren Leistungen zurechtkommt, wird eher zur x64-Welt tendieren.
  • Unternehmen, die momentan RISC- oder Mainframe-Systeme einsetzen, werden sich, bedingt durch die Performance-Anforderungen, eher in Richtung Itanium orientieren.

Diese sehr pauschalen Aussagen sollten Sie natürlich nicht zur alleinigen Grundlage Ihrer Plattformentscheidung machen. Welche Prozessorleistung in Ihrer Umgebung tatsächlich benötigt wird, ist das Resultat von mehr oder weniger komplexen Untersuchungen und Analysen im Sizing-Prozess. Trotzdem lässt sich vorhersagen, dass Sie kaum ein typischer Itanium-Kunde sein werden, wenn die 100 Benutzer eines Datenbankservers heute nicht einmal einen alten Quad-Xeon-900-MHz-Server ernsthaft unter Last bringen.

x64

Mittlerweile (Spätsommer 2008) sind Server, die mit 64-Bit-Xeon- oder Opteron-Prozessoren ausgestattet sind, im »Massenmarkt« angekommen. Wenn Sie heute eine Zwei- oder Vierprozessor-Maschine beschaffen, wird diese bereits mit einem 64-Bit-Xeon-Prozessor oder dem AMD-Gegenstück ausgerüstet sein. Die Prozessoren werden DualCore- oder QuadCore-Prozessoren sein, was bedeutet, dass zwei bzw. vier vollwertige Prozessorkerne in einem Gehäuse sitzen. Lediglich der Bus und einige Cachebereichewerden zwischen den Prozessorkernen geteilt.

Für die x64-Systeme sprechen folgende Punkte:

  • Entsprechende Serversysteme sind recht preiswert erhältlich, weil sie mittlerweile Massenartikel geworden sind.
  • Die Anzahl der für diese Plattform verfügbaren Softwareprodukte wird sehr deutlich steigen. Bereits jetzt gibt es von vielen Microsoft Server-Produkten x64-Versionen; als Itanium-Version werden nur das Betriebssystem und SQL Server verfügbar sein.
  • Ältere 32-Bit-Applikationen werden performant ausgeführt, da der Prozessor auch deren Code »versteht«.

Generell gilt natürlich für 64-Bit-Systeme:

  • Die Applikationen können mehr Speicher verwenden – auch ohne Maßnahmen wie AWE. Der adressierbare Speicher beträgt 264 Bits (= 18.446.744.073.709.551.616 Bits, das entspricht 2.147.483.648 Gigabytes).
  • höhere Geschwindigkeit durch schnellere Busse
  • höhere Anzahl von Prozessoren bei besserem Skalieren

Itanium

Itanium-basierte Serversysteme werden dann zum Einsatz kommen, wenn höchste Leistung erforderlich ist. Dass die Systeme diese Leistung erbringen, setzt allerdings voraus, dass speziell für die Itanium-Umgebung kompilierte Software eingesetzt wird. Von Microsoft sind das Windows Server-Betriebssystem (Enterprise Edition) und der SQL Server verfügbar.

Wenn Sie, aus welchen Gründen auch immer, IA-32-Software auf der Itanium-Plattform einsetzen, werden die Ergebnisse eher enttäuschend sein. Der Grund dafür ist, dass der Prozessor den Code nicht nativ ausführen kann und somit die passende Umgebung durch Software emuliert werden muss. Besser wäre es, in diesem Fall IA-32- oder x64-Systeme einzusetzen.

Beachten Sie, dass x64-Software nicht auf Itanium-Systemen läuft – und umgekehrt. Da es auf dem Markt deutlich mehr native x64-Software als Itanium-Software gibt (zumindest für die Microsoft-Plattform), wird sich Itanium nicht als generelle Prozessor-Plattform für Ihr Unternehmen eignen.

Für Itanium-Maschinen werden Sie sich entscheiden, wenn die Analyse der Performance-Anforderungen ergibt, dass Sie für das Datenbanksystem und/oder für spezielle Anwendungen höchste Leistung benötigen, die mit x64-Systemen nicht zu erreichen ist. Die »speziellen Anwendungen« müssen dann allerdings für die Verwendung auf Itanium-Prozessoren kompiliert sein.


Galileo Computing - Zum Seitenanfang

3.1.2 Serverarchitektur Zur nächsten ÜberschriftZur vorigen Überschrift

Der Prozessortyp, die Prozessoranzahl oder die Taktfrequenz sind zwar für die letztendliche Performance des Servers entscheidend – genauso wichtig sind aber auch die Leistung des Systembusses, Parameter wie Anzahl und Typ der PCI-Busse und vieles andere mehr. Die Hardware-Hersteller fertigen nun zwar keine Systeme, bei denen der verwendete Prozessor nicht zu den sonstigen Komponenten passen würde, trotzdem ist es wichtig, dass Sie nicht nur auf den Prozessor, sondern auf das Gesamtsystem schauen. Einige Aspekte:

  • Wenn zwar der Prozessor sehr schnell ist, das System ansonsten aber nur mit einem PCI-Bus ausgestattet ist, entsteht bei einem sehr IO-lastigen Nutzungsprofil ein Flaschenhals. Hier würden beispielsweise Serversysteme mit mehreren PCI-Bussen helfen.
  • Zu prüfen ist, ob der Server PCI Express x8 unterstützt und entsprechende Karten auch mit dieser Geschwindigkeit verwendet oder ob er sie lediglich mit der x4-Geschwindigkeit betreibt. Sofern die hohe Transferleistung nicht benötigt wird, ist dies natürlich kein Kriterium.
  • Erweiterbarkeit: Wenn Sie laut heutigen Anforderungen lediglich ein Zwei-Prozessor-System benötigen, aber damit rechnen, dass während der Verwendungszeit des Servers eine höhere Prozessorleistung erforderlich wird, müssen Sie natürlich ein entsprechend erweiterbares System beschaffen.

Hinweis zur Erweiterbarkeit

Ein Hinweis zum letzten Punkt der Aufzählung: Wenn Sie heute ein System beschaffen, das voraussichtlich während der Verwendungszeit aufgerüstet werden muss, sollten Sie überlegen, eventuell bereits jetzt alle benötigten Prozessoren und sämtlichen Speicher zu beschaffen. Gerade in der recht schnelllebigen Xeon-Welt kann es passieren, dass Sie einen heute aktuellen Prozessor in zwei Jahren nur noch auf dem sehr teuren Ersatzteilweg beschaffen können – und dann zahlen Sie kräftig drauf.

Weiterhin müssen Sie darauf achten, dass die Kombinationen unterschiedlicher Stepping-Werte zueinander passen. Das Stepping ist eine Art Chargennummer eines Prozessors. Grundsätzlich können Prozessoren mit unterschiedlichen Steppingwerten in einem Mehrprozessorsystem gemeinsam betrieben werden, trotzdem könnte (!) es nicht unterstützte Kombinationen geben. Dies ist zwar eher in den Anfangszeiten der Intel-basierten Mehrprozessorsysteme der Fall gewesen, auszuschließen ist es aber auch heute nicht.

Beachten Sie, dass Sie beim Nachkauf von Prozessoren kein bestimmtes Stepping auf Ihrer Bestellung angeben können. Aus diesem Grund lautet die Empfehlung aus der Praxis, ein System lieber direkt voll zu bestücken.



Galileo Computing - Zum Seitenanfang

3.1.3 Hauptspeicher Zur nächsten ÜberschriftZur vorigen Überschrift

Eine alte »IT-Weisheit« besagt, dass man nie genug Hauptspeicher haben kann. Dies ist natürlich speziell im Datenbankumfeld der Fall. Letztendlich wird der benötigte Speicherausbau ein Ergebnis des Sizing-Prozesses sein. Wenn die empfohlene Speichermenge ermittelt ist, sind einige technische Aspekte zu beachten:

  • Achten Sie darauf, dass Sie 64-Bit-Serversysteme einplanen, wenn Sie mehr als 4 GB Hauptspeicher benötigen (siehe Abschnitt 3.1.1, »Prozessoren«).
  • Aus Gründen der Performance unter Last (!) wird im Allgemeinen empfohlen, möglichst Speicher-Kits identischer Größe zu verwenden. Die Server-Hersteller geben in der Regel Whitepapers heraus, die die optimale Speicherbestückung für die jeweiligen Systeme beschreiben.
  • Auch im Speicherumfeld gilt, dass es problematisch sein wird, für ein älteres System noch zu vertretbaren Kosten zusätzlichen Speicher zu erhalten. Falls Sie (beispielsweise nach zwei Jahren) Speicher auf dem Ersatzteilweg beschaffen müssen, ist das unverhältnismäßig teuer.

Ein Serversystem, das die Bezeichnung »Server« verdient, verfügt heute über fehlertoleranten Speicher (ECC = Error Checking and Correction). Vereinfacht gesagt werden zusätzliche Paritätsbits verwendet, anhand derer »gekippte« Bits erkannt und wenn möglich korrigiert werden.

Größere Server unterstützen zusätzliche Möglichkeiten der Fehlerkorrektur. Sie können sogar den Ausfall ganzer Speicherbänke »überleben«. Dies wird entweder durch Ansätze erreicht, bei denen Prüfsummen nicht nur über einzelne Speichermodule gebildet werden, oder durch eine RAID-ähnliche Konfiguration des Speichers realisiert.

Im x64-Segment verfügen die Vier-Prozessor-Server der meisten Hersteller über sehr leistungsfähige Möglichkeiten, den Hauptspeicher möglichst ausfallsicher zu betreiben. Zwei-Prozessor-Maschinen verfügen zwar ebenfalls über grundlegende Mechanismen zur Fehlervermeidung. Wenn Sie auf höchste Fehlertoleranz angewiesen sind, werden die Möglichkeiten der »einfacheren« Server aber häufig nicht genügen, so dass Sie unter Umständen gar nicht aus Leistungs-, sondern aus Verfügbarkeitsgründen das technisch nächsthöhere Servermodell benötigen.


Galileo Computing - Zum Seitenanfang

3.1.4 Festplatten Zur nächsten ÜberschriftZur vorigen Überschrift

Fast alle Anwendungen werden irgendwann Daten speichern müssen – die meisten Anwendungen beschäftigen sich in letzter Konsequenz damit, Daten ins Dateisystem oder in eine Datenbank zu schreiben und diese dort zu modifizieren.

Jeder Server benötigt zunächst einen Plattenbereich für das Betriebssystem. Dieser sollte (eigentlich »muss«) separat von den produktiven Daten liegen und tunlichst als RAID-1 implementiert sein:

  • Zunächst muss der Systembereich natürlich fehlertolerant ausgelegt sein, damit ein Fehler auf einer Platte nicht zum Ausfall des kompletten Serversystems führt.
  • RAID-1 bietet gegenüber einem RAID-5 den großen Vorteil einer geringen Write-Penalty (RAID-5 benötigt bei Änderungen 4 IOs, RAID-1 lediglich 2). Da pagefile.sys im Allgemeinen auf diesem Plattenbereich liegen wird, ist dieser Effekt nicht zu vernachlässigen.
  • Es ist problemlos möglich, regelmäßig einen »dritten Spiegel« zu erzeugen und so eine Reserveplatte zu haben, von der im Fall eines schwerwiegenden Problems gebootet werden kann (»kalter Spiegel«). Dies ersetzt keinesfalls ein »normales« Backup, ist aber als zusätzliche Wiederherstellungsmethode durchaus sinnvoll. Ich kenne diverse Unternehmen, die vor dem Einspielen von Patches und Ähnlichem zunächst eine weitere Spiegelplatte erzeugen, um schnell wieder zum Ursprungszustand zurückkehren zu können. Dies alles ist mit einem RAID-5 nicht möglich. Ebenfalls nicht möglich sind diese Szenarien, wenn produktive Daten auf den Systemplatten liegen.

Bei reinen Applikationsservern ist die Planungsarbeit prinzipiell schon erledigt, denn weitere Plattenbereiche werden auf diesen Systemen nicht notwendig sein.

Bei Datenbankservern werden Sie mehr oder weniger viele zusätzliche Platten einplanen, um RAID-Sets für Datenbanken, Logs, Indizes etc. bereitzustellen. Die Anzahl der benötigten Platten und der zu konfigurierenden RAID-Sets ist das Ergebnis des Sizing-Prozesses.

Es ist technisch kein Problem, an einen Server lokal viele Dutzend Platten anzuschließen. Im Rahmen einer größeren Neubeschaffung von Servern nebst vieler Platten bietet es sich aber in jedem Fall an, darüber nachzudenken, ob nicht eine zentralisierte Storage-Architektur in Ihrer Umgebung sinnvoll und vorteilhaft ist. Mehr dazu folgt in Abschnitt 3.2, »Storage-Architekturen«.

RAID-Controller

Technologisches Herzstück des Plattensystems ist der (oder sind die) RAID-Controller. Viele Serversysteme verfügen bereits über integrierte RAID-Controller, meistens On-Chip-Lösungen. Für die Systemplatten dürften diese in den meisten Fällen sogar genügen. Wenn Sie die Datenbanken auf lokal angeschlossenen Platten halten, müssen Sie sich aber nochmals in den Datenblättern des Serverherstellers umschauen.

Anhand des erarbeiteten Sizings für den Storage-Bereich lässt sich ermitteln, wie viele Platten benötigt werden, auf wie viele SCSI-Kanäle diese verteilt werden sollen, welche Durchsatzwerte erreicht werden müssen und vieles andere mehr. Anhand dieser Werte lässt sich mithilfe der Datenblätter ein geeigneter RAID-Controller auswählen. Bei größeren Datenbankservern ist es nicht unwahrscheinlich, dass mehrere RAID-Controller benötigt werden.

Achten Sie unbedingt darauf, dass der gewählte Controller über einen batteriegepufferten Cache verfügt. Sofern der Hersteller eine Erweiterungsbatterie im Angebot hat, sollten Sie diese unbedingt mitbestellen!

Dass Schreibcaches nur aktiviert sein dürfen, wenn der RAID-Controller über Batterien bzw. Akkus verfügt, ist nun wahrlich keine neue Erkenntnis. Im Winter 2005 mussten die Bewohner des Münsterlandes die Erfahrung machen, dass es auch in Deutschland durchaus mehrtägige Stromausfälle geben kann (siehe auch Abschnitt 3.4.4 über die Stromversorgung im Rechenzentrum). Pech, wenn der Server mit Daten im Schreibcache »runtergefallen« ist und die Batterie nur maximal vier Stunden hält ...

Plattentechnologie

Die verfügbaren Plattentechnologien sind mittlerweile recht vielfältig geworden. Die für die Serverauswahl wichtigsten Aspekte lassen sich aber recht einfach zusammenfassen, ohne dass direkt ein separates 100-seitiges Kapitel daraus wird.

Im Serverbereich kommen klassischerweise SCSI-Platten zum Einsatz; der SCSI-Bus hat mittlerweile eine Geschwindigkeit von 320 MB/s erreicht (U320), womit die Grenzen des technisch Machbaren offensichtlich erreicht worden sind. Die Nachfolgetechnologie, die mittlerweile auch in vielen Serverprodukten verwendet wird, ist SAS, was für Serial Attached SCSI steht. Zunächst wird es mit einer Geschwindigkeit von 3 Gbit/s gefahren, und die nächsten Generationen werden Übertragungsraten von 6 und 12 Gbit/s liefern.

Eigenschaften einer Platte

Neben dem Interface wird eine Platte insbesondere durch folgende Eigenschaften definiert:

  • Kapazität
  • Drehzahl
  • IOPS
  • MTBF

Beim Stichwort »Festplatte« denken die meisten Leute an Kapazität – und das ist leider falsch! Denken Sie zunächst an die Performance der Festplatte bzw. des gesamten Plattensystems. Ein Ergebnis des Sizing-Prozesses ist eine Abschätzung der IO-Vorgänge pro Sekunde (IOPS), die von den einzelnen Bereichen des Plattensystems geleistet werden müssen. Wenn Sie beispielsweise eine Leistung von 2.000 IOPS erreichen müssen, können Sie davon ausgehen, dass Sie mindestens 20 Platten benötigen werden, um die Performance-Anforderungen zu befriedigen. Im zweiten Schritt können Sie die Größe der Platten bestimmen, die zum Erreichen der benötigten Kapazität führt. Vermutlich werden Sie sich für die Platte mit der kleinsten Kapazität entscheiden.

Der Parameter IOPS wird leider in den Datenblättern der Festplatten häufig nicht angegeben, lässt sich aber recht einfach mit folgender Formel errechnen:

IOPS = (1000 / (RL + AST))

RL = Rotational Latency; AST = Average Seek Time.

Also: Je geringer die Werte Latency und Seektime sind, desto schneller geht’s. Einleuchtend, oder?

In den Datenblättern werden Sie für die Rotational Latency und die Average Seek Time Angaben für rein sequenzielle und für zufällige (random) Vorgänge finden. Da das Leben auf einer Platte fast nie optimal sequenziell ist, liegt die Wahrheit eher beim ungünstigeren Wert. In der Praxis geht man von folgenden Werten aus:

  • FC/SCSI-Platte 15.000 RPM 150–190 IOPS
  • FC/SCSI-Platte 10.000 RPM 130–170 IOPS

Bedenken Sie bitte, dass es sich bei diesen Werten nur um grobe Schätzwerte handelt. Sie vermitteln aber bereits ein Gefühl dafür, worum es bei der Dimensionierung von Plattensystemen geht. In Datenbankumgebungen, in denen fast nur Random-Zugriffe stattfinden, werden die genannten Werte eher nach unten zu korrigieren sein.

Vergessen Sie nicht, dass bei Schreibvorgängen Write-Penaltys zu berücksichtigen sind. Zur Erinnerung: Ein Schreibvorgang auf ein RAID1 benötigt 2 IOs, ein ändernder Schreibvorgang auf ein RAID5 sogar 4 IOs.

Die beliebte Frage nach dem Durchsatz ist vergleichsweise unspannend, da der Durchsatz (Throughput) mit folgender Formel errechnet wird:

Throughput = Number of IOPS * Size of I/O Request

Im Klartext heißt das, dass Sie auf der Hardwareseite dafür sorgen müssen, möglichst viele IOPS verarbeiten zu können. Weiterhin entscheidet die Blockgröße, mit der die Platten formatiert sind, über den erreichbaren Durchsatz. Da es im Datenbankumfeld aber nicht darum geht, möglichst große Datenmengen zu bewegen, ist die Stellschraube in erster Linie die vom RAID-Set erreichte IO-Leistung.

Neben der Geschwindigkeit der Platte geht es um die MTBF (Mean Time Between Failure). Dieser recht abstrakte Wert zeigt, als wie zuverlässig die Platte vom Hersteller eingestuft wird – je höher der Wert, desto besser.

SCSI/SAS vs. SATA

Wenn Sie die im vorherigen Abschnitt vorgestellten Kriterien hinnehmen, lässt sich die Frage, ob SATA-Platten zur Speicherung von Produktivdaten sinnvoll sind, relativ einfach beantworten.

Zunächst ist das primäre Ziel der SATA-Platten zu beleuchten: Sie sollen möglichst billig sein. Dieses Ziel lässt sich nicht durch ein anderes elektrisches Interface erreichen, sondern nur mit Qualitätsabstrichen an den mechanischen Komponenten. Im Klartext sind SATA-Platten langsamer und weniger zuverlässig als »richtige« Serverplatten mit SCSI- oder FC-Interface.

Ursprünglich wurden die SATA-Platten (bzw. ihre Vorgänger) in Desktop-Computern verwendet, die weder besonders schnellen Datenzugriff für viele parallel laufende Prozesse bieten müssen noch rund um die Uhr in Betrieb sind. Natürlich arbeiten die Hersteller, die SATA-Platten für Serveranwendungen anbieten, an Optimierungen – es bleibt aber die Tatsache, dass für Einsatzszenarien, bei denen es auf höchste Performance und Zuverlässigkeit ankommt, eben doch die teureren Platten benötigt werden.

Diese Aussagen lassen sich natürlich belegen: Ein Blick in die Produktdatenblätter genügt. Vergleichen Sie einmal SCSI/FC- und SATA-Platten bezüglich der Parameter »Rotational Latency« und »Average Seek Time« – Sie werden feststellen, woher die deutlich niedrigeren IOPS-Werte herkommen. Bei einer SATA-Platte mit 7.200 RPM kann man in etwa von 80 IOPS ausgehen. Dieser Performance-Nachteil ist signifikant!

SATA-Platten haben im Rechenzentrum durchaus eine Daseinsberechtigung, nämlich dann, wenn große Mengen von Daten auf billigere Medien ausgelagert werden sollen. Dies könnten beispielsweise archivierte Daten, Kopien für die Testumgebung, Backup-Daten und einiges andere mehr sein – generell also Daten, auf die nicht performant und mit hoher Parallelität zugegriffen wird und die nicht mit höchster Verfügbarkeit bereitgestellt werden müssen. Für produktive Datenbestände oder die Systembereiche der Server werden »richtige« Serverplatten verwendet, also SCSI- oder SAS-Platten.


Galileo Computing - Zum Seitenanfang

3.1.5 Netzwerkkonnektivität Zur nächsten ÜberschriftZur vorigen Überschrift

Für Server ist eine leistungsfähige Anbindung an das Netzwerk Pflicht. Wie immer gibt es zwei zentrale Anforderungen, nämlich Performance und Ausfallsicherheit.

Der Standard für die Anbindung von Servern an das Netzwerk ist Gigabit-Ethernet; entsprechende Konnektivität bringt jeder moderne Server standardmäßig mit. Zu prüfen ist, mit wie vielen Ports die Netzwerkanbindung vorgenommen werden soll. Die Treiber der für den Serverbetrieb vorgesehenen Netzwerkkarten beherrschen ein »Zusammenlegen« von mehreren Karten, und zwar sowohl zur Erhöhung der Bandbreite als auch zur Erreichung von Fehlertoleranz. Im Allgemeinen findet man diese Funktionen unter den Stichwörtern Teaming, Network Load Balancing und Network Fault Tolerance.

Wenn Sie beabsichtigen, eine Teaming-Konfiguration zum Einsatz zu bringen, müssen Sie sicherstellen, dass Ihre Switches eine Teaming-Anbindung beherrschen. Sofern der Microsoft Cluster verwendet wird, ist zu prüfen, ob die Team-ing-Software den Clusterbetrieb explizit unterstützt.

Achten Sie bei der Auswahl der Server darauf, dass Sie wirklich genügend PCI-Steckplätze (bzw. Steckplätze von PCI-Nachfolgetechnologien) zur Verfügung haben. Ich habe es mehr als einmal erlebt, dass ausgerechnet Netzwerkkarten bei der Ermittlung der benötigten Slots vergessen worden sind. Das ist recht lästig, wenn in einen vollen Server noch zwei weitere Karten gesteckt werden sollen.

Falls Sie die Server per Glasfaser anbinden wollen, gilt das zuvor Gesagte analog.

Weitere Informationen zum Thema »Netzwerk« finden Sie in Abschnitt 3.3, »Netzwerk« und im Kapitel über Hochverfügbarkeit (Kapitel 20).


Galileo Computing - Zum Seitenanfang

3.1.6 Überwachung topZur vorigen Überschrift

Alle Serversysteme von Markenherstellern bieten Softwareprodukte zum Management der Hardware. Zu nennen wären beispielsweise Dell OpenManage oder InsightManager von Hewlett Packard.

Neben Inventardaten und aktuellen Mess- und Zustandsdaten erhalten Sie auch proaktive Informationen, also »demnächst wird vermutlich eine Festplatte ausfallen«. Dass die Vermeidung eines Ausfalls wesentlich besser als die Behebung ist, leuchtet sicherlich jedem IT-Verantwortlichen ein. Umso erstaunlicher ist es, dass ein erheblicher Teil der mir bekannten Unternehmen (und ich spreche hier nicht von Kleinbetrieben) diese Überwachungswerkzeuge nicht nutzt – zumal diese im Allgemeinen kostenlos verwendet werden können. Ich kenne deutlich mehr als einen Fall, in denen Rechenzentren mit insgesamt 100 Servern nicht automatisch überwacht werden, sondern morgendlich ein Durchgang des diensthabenden Administrators erfolgt. Dieser prüft dann lediglich, ob an irgendwelchen Servern ein rotes Lämpchen leuchtet. Dies bedarf wohl keines weiteren Kommentars!

Es ist übrigens keine schlechte Idee, die Hardwarelandschaft möglichst einheitlich zu halten. Wenn Sie Server von Dell, HP, IBM und Fujitsu-Siemens einsetzen, haben Sie es plötzlich mit vier Überwachungssystemen allein für die Server zu tun. Natürlich gibt es Systeme, die Warn- und Fehlermeldungen auf einer Konsole zusammenfassen, trotzdem ist es natürlich einfacher, wenn die Notwendigkeit eines solchen (komplexen) Systems gar nicht erst entsteht.

Beachten Sie, dass Sie neben der Überwachung der Serverhardware auch ein Auge auf Betriebssysteme und Applikationsserver haben müssen (oder sollten). Ein geeignetes Werkzeug hierfür ist beispielsweise der Microsoft System Center Operations Manager.



Ihr Kommentar

Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen.






<< zurück
  Zum Katalog
Zum Katalog: Windows Server 2008 R2

Windows Server 2008 R2
Jetzt bestellen


 Ihre Meinung?
Wie hat Ihnen das <openbook> gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Katalog: Windows 7 für Administratoren






 Windows 7 für
 Administratoren


Zum Katalog: Konzepte und Lösungen für Microsoft-Netzwerke






 Konzepte und
 Lösungen für
 Microsoft-Netzwerke


Zum Katalog: Office SharePoint Server 2007 und Windows SharePoint Services 3.0






 Office SharePoint
 Server 2007 und
 Windows SharePoint
 Services 3.0


Zum Katalog: Exchange Server 2007 und Office Communications Server 2007






 Exchange Server 2007
 und Office
 Communications
 Server 2007


Zum Katalog: Citrix XenApp 5






 Citrix XenApp 5


Zum Katalog: PC-Netzwerke






 PC-Netzwerke


Zum Katalog: VMware vSphere 4






 VMware vSphere 4


Zum Katalog: VMware vSphere 4 - Videotraining






 VMware vSphere 4
 - Videotraining


Zum Katalog: VirtualBox






 VirtualBox


 Shopping
Versandkostenfrei bestellen in Deutschland und Österreich
InfoInfo




Copyright © Galileo Press 2010
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Galileo Computing]

Galileo Press, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, info@galileo-press.de