Galileo Computing < openbook > Galileo Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Geleitwort zu diesem Buch
Inhalt des Buchs
1 Warum eine neue Server-Version?
2 Editionen und Lizenzen
3 Hardware und Dimensionierung
4 Protokolle
5 Was überhaupt ist .NET?
6 Installation
7 Core-Installationsoption
8 Active Directory-Domänendienste
9 Netzwerkdienste im AD-Umfeld
10 Active Directory Lightweight Directory Services (AD LDS)
11 Active Directory-Verbunddienste (Federation Services)
12 Active Directory-Zertifikatdienste
13 Active Directory-Rechteverwaltungsdienste (AD RMS)
14 »Innere Sicherheit«
15 Dateisystem und Dateidienste
16 Drucken
17 Webserver (IIS)
18 SharePoint (Windows SharePoint Services, WSS)
19 Remotedesktopdienste (Terminaldienste)
20 Hochverfügbarkeit
21 Datensicherung
22 Servervirtualisierung mit Hyper-V
23 Windows PowerShell
24 Windows 7 und Windows Server 2008 R2
Stichwort

Download:
- ZIP, ca. 104 MB
Buch bestellen
Ihre Meinung?

Spacer
<< zurück
Windows Server 2008 R2 von Ulrich B. Boddenberg
Das umfassende Handbuch
Buch: Windows Server 2008 R2

Windows Server 2008 R2
geb., 1.410 S., 59,90 Euro
Galileo Computing
ISBN 978-3-8362-1528-2
Pfeil 22 Servervirtualisierung mit Hyper-V
Pfeil 22.1 Allgemeine Überlegungen zur Servervirtualisierung
Pfeil 22.1.1 Scale-out vs. Scale-up
Pfeil 22.1.2 Servervirtualisierung und SAN
Pfeil 22.1.3 Planung und Performance
Pfeil 22.1.4 Was soll virtualisiert werden?
Pfeil 22.2 Editionen und Installationsmöglichkeiten
Pfeil 22.2.1 Windows Server 2008: »normal« und Core
Pfeil 22.2.2 Hyper-V Server 2008 R2
Pfeil 22.3 Der Hyper-V Manager
Pfeil 22.4 Installation und Grundkonfiguration
Pfeil 22.4.1 Grundeinstellung (Hyper-V-Einstellungen)
Pfeil 22.4.2 Netzwerkeinstellungen
Pfeil 22.5 Administration von virtuellen Maschinen mit dem Hyper-V Manager
Pfeil 22.5.1 Neue virtuelle Maschine anlegen
Pfeil 22.5.2 Einstellungen bearbeiten
Pfeil 22.5.3 Snapshots erstellen und anwenden
Pfeil 22.5.4 Die »laufende« VM
Pfeil 22.6 System Center Virtual Machine Manager 2008
Pfeil 22.6.1 Aufbau und Architektur
Pfeil 22.6.2 Schnellüberblick
Pfeil 22.6.3 Das Self-Service-Portal
Pfeil 22.6.4 Funktionen mit virtuellen Maschinen
Pfeil 22.7 Hochverfügbarkeit
Pfeil 22.8 Neues in R2

Weder an Bildung und Wuchs, noch an Geist und künstlicher Arbeit.
Dennoch geb' ich sie willig zurück, ist solches ja besser.
Lieber mög' ich das Volk errettet schaun, denn verderbend.
Gleich nur ein Ehrengeschenk bereitet mir, daß ich allein nicht
Ungeehrt der Danaer sei; nie wäre das schicklich!

22 Servervirtualisierung mit Hyper-V

Bei der Servervirtualisierung gibt es im Wesentlichen zwei »Hebel«, die diese Technologie attraktiv machen:

Ein Hauptpunkt ist, dass das installierte und konfigurierte Betriebssystem unabhängig von der Serverhardware ist. Die Vorteile liegen auf der Hand:

  • Einfacher Umzug von Servern auf andere Hardware, zum Beispiel beim Austausch der Hardware, Hardwarewartung und so weiter.
  • Schneller Wiederanlauf im Hardwarefehlerfall: Anstatt umständlich ein Backup auf eine Ersatzhardware zu bringen, wird einfach die virtuelle Maschine kopiert und kann auf einem beliebigen anderen Server, der als Host dient, in Betrieb genommen werden.
  • Durch die Hardware-Unabhängigkeit entfällt natürlich auch die Notwendigkeit, »Eigenarten« zu berücksichtigen wie beispielsweise die Installation spezieller Treiber.

Durch den zuvor genannten Punkt »Schneller Wiederanlauf« ergeben sich ganz neue Möglichkeiten für Ausfallkonzepte, die wesentlich preisgünstiger umsetzbar sind als mit konventionellen Failover-Clustern.

Abbildung 22.1 Bei der Servervirtualisierung laufen mehrere virtuelle Maschinen auf einem physikalischen Server (Host).

Abbildung 22.2 Fällt eine physikalische Maschine aus, können die virtuellen Maschinen problemlos auf einer anderen Hardware wieder in Betrieb genommen werden. Ist die Umgebung entsprechend vorbereitet und konfiguriert, geschieht das innerhalb weniger Minuten.

Weiterhin führt Servervirtualisierung zu einer besseren Nutzung der Ressourcen. Aus Gründen der Stabilität und Wartbarkeit ist man dazu übergegangen, pro Dienst oder Applikation einen dedizierten Server bereitzustellen. Das ist fachlich sicherlich auch richtig, führt aber dazu, dass ein kleinerer Mittelständler plötzlich ein bis zwei Dutzend Server im Rechenzentrum hat. Ein großer Teil dieser Server dümpelt den ganzen Tag ohne nennenswerte Last vor sich hin. Durch die Möglichkeit, mehrere Server als virtuelle Maschinen auf einer physikalischen Maschine zu betreiben, ergeben sich diese Vorteile:

  • Bessere Ressourcenausnutzung
  • Es muss weniger Hardware beschafft werden, was geringere Hardware-Wartungskosten bedeutet.
  • Geringerer Energieverbrauch; bei diesem Punkt sind sowohl die direkten Energiekosten (Betrieb der Server) als auch die indirekten (zum Beispiel Betrieb der Kühlung) zu betrachten.

Zusammenfassend kann man also sagen, dass Servervirtualisierung sowohl zu einer vereinfachten Administration (wobei ich die verbesserten Möglichkeiten beim Wiederanlauf dieser Kategorie zurechne) als auch zu einer Reduktion der direkten Kosten (Beschaffung, Wartung, Energie) führt.

Aufgrund der signifikanten Vorteile wird in den meisten Unternehmen und Organisationen über Servervirtualisierung nachgedacht, diskutiert, und viele »tun es« auch tatsächlich. Nachdem durchaus lange Zeit die Produkte von VMware die »absolute Lufthoheit« bei der Servervirtualisierung hatten, kommt in der letzten Zeit Bewegung in den Markt – zumindest ein bisschen:

  • Platzhirsch ist unzweifelhaft VMware.
    • Das Flaggschiff Virtual Infrastructure (aka ESX Server) ist das System der Wahl in den Unternehmen. Es bietet diverse spannende Features, wie beispielsweise das recht spektakuläre VMotion (Verschieben von virtuellen Maschinen zwischen Servern im laufenden Betrieb), besticht durch ausgereifte Management-Werkzeuge (Virtual Center, das aber extra zu lizenzieren ist) und hat sich als stabile und leistungsfähige Enterprise-Class-Lösung einen hervorragenden Namen gemacht. Virtual Infrastructure ist allerdings nicht ganz billig.
    • Der Einstiegsklassiker in die Welt der Servervirtualisierung ist der VMware Server, der auf einem Windows- oder Linux-Betriebssystem aufgesetzt wird. Diese in der Praxis durchaus bewährte Software ist kostenlos, erreicht aber weder das Leistungsniveau noch die Featurevielfalt wie Virtual Infrastructure.
    • Mittlerweile ist mit ESXi ein weiteres kostenlos erhältliches Produkt auf dem Markt. Hierbei handelt es sich letztendlich um den »nackten« Hypervisor, dem unter anderem auch die bekannte Linux-basierte Service Console fehlt.
    • Diverse weitere Produkte komplettieren das Portfolio im Servervirtualisierungsbereich; zu nennen wären beispielsweise die VMware Workstation und der VMware Player.
  • Microsoft ist ebenfalls seit längerer Zeit im Virtualisierungsmarkt aktiv und bietet folgende Produkte an:
    • Als Test- und Entwicklungslösung wird der Virtual PC positioniert. Virtual PC läuft meiner Erfahrung nach stabil, ist einfach zu bedienen und kostet nichts. Die neueste Version ist mit Windows 7 lauffähig.
    • Im Serverbereich war bis zum Sommer 2008 der Virtual Server 2005 das verfügbare Produkt. Wie die Jahreszahl im Namen schon sagt, ist das Produkt in die Jahre gekommen, so fehlte beispielsweise eine Unterstützung von x64-Betriebssystemen als Gast – was heute schon ziemlich übel ist. Auch bei den sonstigen Features, der Performance und den Management-Möglichkeiten konnte der Virtual Server nicht mal ansatzweise mit VMware Virtual Infrastructure mithalten. Seit Windows Server 2008 ist Hyper-V verfügbar – eine völlig neue Virtualisierungslösung, die den »alten« Virtual Server ersetzt. Hyper-V auf dem Stand von Windows Server 2008 (ohne R2) beherrschte einige VMware-Features (wie etwa das Verschieben von virtuellen Maschinen im laufenden Betrieb) nicht, das hat sich aber teilweise mit der in R2 enthaltenen Version geändert. Hierbei stellt sich aber auch die Frage, ob diese Features wirklich einen echten Business-Value darstellen oder eher »nice to have« sind.
  • Citrix/Xen: Der dritte große kommerzielle Hersteller im Bereich der Servervirtualisierung ist Citrix, die dieses Standbein durch die Übernahme von Xen bekommen haben. Der XenServer ist in vier verschiedenen Ausprägungen (Editions) erhältlich, die von einer frei verfügbaren Starter-Edition bis hin zu einer Version mit diversen Enterprise-Features reicht.

Neben diesen Lösungen der drei großen Hersteller sind diverse »kleinere« Produkte am Markt, die teilweise mehr oder weniger lukrative Nischen bedienen oder aber experimentellen Status haben.

Da ich glaube, dass Microsoft mit Hyper-V eine sehr interessante und zukunftsweisende Lösung auf den Markt gebracht hat, möchte ich in diesem Kapitel ein wenig genauer darauf eingehen.


Beachten Sie

Zu beachten ist, dass Microsoft nicht »nur« mit einer Servervirtualisierungssoftware am Markt ist, sondern mit dem System Center Virtual Machine Manager auch ein Managementprodukt liefert, das neben den hauseigenen Produkten auch die VMware-Lösungen unterstützt.


Warum ist es sinnvoll, sich mit Hyper-V zu beschäftigen und nicht einfach den etablierten Standard, also VMware Virtual Infrastructure, zu wählen? Ich will hier keinesfalls behaupten, dass Hyper-V nun in jedem Fall die bessere Wahl ist; Virtual Infrastructure hat nach wie vor in etlichen Szenarien einen deutlichen Technologievorsprung. Weiterhin ist anzumerken, dass es derzeit eine enorme Zahl von gut funktionierenden VI-Installationen gibt.

Ich sehe beim Einsatz von Hyper-V folgende Vorteile (die Reihenfolge stellt keine Wertung da):

  • Die Hyper-V-Technologie ist vergleichsweise preiswert zu bekommen.
  • Mit der Hyper-V-Technologie fühlen sich Windows Server-Administratoren deutlich »heimischer«: Die Administrations-Oberfläche ist, wie von den Microsoft-Produkten her gewohnt, recht einfach zu bedienen; zudem bilden bekannte Microsoft-Technologien die Basis.
  • Hyper-V ist Microsofts Hauptprodukt im Virtualisierungsumfeld. Man kann also davon ausgehen, dass Microsoft alles tun wird, um den zweifelsfrei in einigen Bereichen noch existierenden Technologievorsprung des »großen Mitbewerbers« einzuholen.
  • Wie bereits angemerkt, beherrscht Hyper-V einige Features (derzeit) nicht, die aus dem Virtual Infrastructure-Umfeld bekannt sind. Ob dies in der Praxis tatsächlich als Nachteil gewertet werden muss, sei dahingestellt: Ich habe es in vielen Kundensituationen erlebt, die in der »Überlegungsphase« fest davon überzeugt waren, dass das weitere Leben ohne beispielsweise VMotion absolut nicht mehr lebenswert ist – und letztendlich wurde es dann hinterher nie verwendet. Das Verschieben von laufenden virtuellen Maschinen ist seit R2 mittels Live-Migration möglich – dies ist aber nicht das einzige Feature.

Galileo Computing - Zum Seitenanfang

22.1 Allgemeine Überlegungen zur Servervirtualisierung Zur nächsten ÜberschriftZur vorigen Überschrift

Bevor wir uns mit dem Hyper-V-Produkt beschäftigen, werden wir noch ein paar Basisaspekte der Servervirtualisierung besprechen. Diese gelten selbstredend nicht nur in Hyper-V-Umgebungen, sondern haben generelle Gültigkeit.


Galileo Computing - Zum Seitenanfang

22.1.1 Scale-out vs. Scale-up Zur nächsten ÜberschriftZur vorigen Überschrift

Wenn Sie mit der Planung einer Servervirtualisierungs-Umgebung beginnen, müssen Sie zunächst entscheiden, ob Sie eher einen Scale-out- oder einen Scale-up-Ansatz bevorzugen. Die Unterscheidung ist recht simpel:

  • Scale-out: Die Last, also die virtuellen Maschinen, werden auf mehrere »kleine« Server verteilt, also beispielsweise auf Zwei-Sockel-Systeme (Systeme mit bis zu zwei Prozessoren, Abbildung 22.3). Hier kann man übrigens auch sehr gut Blade-Systeme vorsehen.

Abbildung 22.3 Scale-out: Die Last wird auf viele kleinere Computer verteilt.

  • Scale-up: Die Last wird auf wenige »große« Server verteilt, im Extremfall auf ein einziges System. Bei diesem Ansatz wird man beispielsweise auf Server mit bis zu acht Prozessoren zugreifen (Abbildung 22.4).

Abbildung 22.4 Scale-up: Wenige »große« Server teilen sich die Last.

Nun stellt sich die Frage, wo die Vor- und Nachteile der Ansätze liegen. Ich gehöre eher zur Scale-out-Fraktion und zwar aus diesen Gründen:

  • Der Ansatz bietet eine höhere Redundanz. Wenn beispielsweise sechs kleinere Server anstatt zwei große eingesetzt werden, fallen beim Ausfall eines Servers nicht 50 % sondern nur 17 % der Gesamtleistung weg.
  • Der Scale-out-Ansatz bietet eine einfachere Skalierbarkeit. Wenn Sie feststellen, dass Sie zusätzliche Leistung benötigen, ist es alles in allem »einfacher«, dem Gesamtsystem einen kleinen Server anstelle einer großen Maschine hinzuzufügen. Hier sind finanzielle Aspekte wie die sprungfixen Kosten zu nennen, aber auch die technische Vorgehensweise.
  • Der Scale-out-Ansatz dürfte preisgünstiger sein. Die Kosten pro Prozessor und pro Gigabyte sind bei Zwei-Sockel-Maschinen geringer als bei Vier- oder Acht-Sockel-Servern. Die Anzahl der von den virtuellen Maschinen benötigten Prozessoren und RAM-Gigabytes wird bei beiden Maschinen in etwa identisch sein.

Das Hauptargument für den Scale-up-Ansatz ist, dass weniger Maschinen weniger Administrationsaufwand bedeuten. Nun verhält es sich so, dass die am Markt erhältlichen Management-Werkzeuge den Scale-out-Ansatz optimal unterstützen. Zu nennen wären hier:

  • VMware Virtual Center
  • Microsoft System Center Virtual Maschine Manager

Wie »klein« die eingesetzten Server für einen Scale-out-Ansatz sind beziehungsweise sein sollen, hängt von der konkreten Umgebung ab. Es hat wenig Sinn, einen solchen Ansatz so nachhaltig zu verfolgen, dass Sie hinterher 100 Server benötigen; in einem solchen Fall würden sich dann doch eher Vier- anstelle von Zwei-Sockel-Maschinen empfehlen. Die Vorteile des Scale-out-Ansatzes bleiben auch erhalten, wenn Sie in einer großen Umgebung mit Vier-oder Acht-Prozessor-Servern arbeiten. Das theoretische Modell »Scale-out« legt letztendlich nicht den Typ der Hardware fest, sondern beschreibt, dass Sie in die Breite (viele Server) gehen, anstatt mit wenigen Servern »in die Höhe« zu bauen.


Galileo Computing - Zum Seitenanfang

22.1.2 Servervirtualisierung und SAN Zur nächsten ÜberschriftZur vorigen Überschrift

Servervirtualisierung und Speichernetze (Storage Area Network, SAN) sind eine nahezu ideale Kombination. Es gibt hierbei zwei wesentliche Aspekte, nämlich Redundanz und Flexibilität. Warum das so ist, zeigt die Skizze aus Abbildung 22.5:

  • Zunächst wird die virtuelle Maschine auf dem links abgebildeten Server ausgeführt. Sämtliche Daten der virtuellen Maschine, also insbesondere die Dateien der virtuellen Festplatten, aber auch die Konfiguration, liegen auf dem gemeinsamen Storage-System.
  • Falls die Hardware des ursprünglichen Servers ausfällt oder die virtuelle Maschine aus einem anderen Grund verschoben werden soll (zum Beispiel aus Leistungsgründen), braucht sie lediglich auf einem anderen Server gestartet zu werden. Die virtuellen Festplatten und die Konfigurationsinformationen sind auf dem Storage-System gespeichert und stehen somit allen Servern zur Verfügung.

Diese Darstellung ist technisch zwar deutlich vereinfacht, denn es gibt hier bezüglich des konkurrierenden Zugriffs verschiedener Server auf dasselbe Dateisystem schon einige Themen zu beachten – grundsätzlich ist die Funktionsweise aber so wie beschrieben.

So richtig elegant wird es dann in einer großen Umgebung, die über zwei Rechenzentren verteilt ist (Abbildung 22.6):

  • Es ergibt Sinn, die (physikalischen) Server so über die Rechenzentren zu verteilen, dass bei Totalausfall eines RZ das jeweils andere zumindest alle »lebenswichtigen« virtuellen Maschinen ausführen kann.
  • Sinnvollerweise müssen die Storage-Systeme gespiegelt werden. Nur dann sind Sie auf den nicht sehr wahrscheinlichen aber immerhin möglichen Fall vorbereitet, dass ein Storage-System ausfällt. Auch wenn die Katastrophe eintritt, nämlich der Ausfall eines kompletten Rechenzentrums, gibt es so eine Lösung.

Abbildung 22.5 Eine nahezu ideale Kombination: Servervirtualisierung und SAN

Abbildung 22.6 Eine größere, über zwei Standorte verteilte virtuelle Umgebung mit zwei gespiegelten SAN Storage-Systemen


Galileo Computing - Zum Seitenanfang

22.1.3 Planung und Performance Zur nächsten ÜberschriftZur vorigen Überschrift

Es ist eigentlich vollkommen einleuchtend, dass für den Betrieb der virtuellen Maschinen genügend physikalische Ressourcen zur Verfügung stehen müssen – trotzdem wird hier in der Praxis häufig nicht optimal dimensioniert. Im Grunde genommen sind vier »Dimensionierungsbereiche« zu betrachten (Abbildung 22.7):

  • Prozessorleistung
  • Hauptspeicherausbau
  • Netzwerkbandbreite
  • Festplattenspeicher

Abbildung 22.7 Die physikalischen Ressourcen müssen »richtig« dimensioniert sein, um einen störungsfreien und performanten Betrieb zu ermöglichen.

Eine 100-prozentig genaue Größeneinteilung hinzubekommen, ist nicht ganz trivial; man kann allerdings recht ordentliche Richtwerte errechnen, zumindest dann, wenn es die zukünftigen virtuellen Maschinen bereits gibt. In diesem Fall ist der erste Schritt, Messdaten zu erheben, was Sie entweder »zu Fuß« mit dem Performancemonitor (beziehungsweise Systemmonitor) erledigen können, oder Sie setzen spezielle Messwerkzeuge ein (zum Beispiel PlateSpin Recon).

Die benötigten Daten sind:

  • Von den zukünftigen virtuellen Maschinen tatsächlich genutzte Prozessortakte
  • Der von den zukünftigen VMs benötigte Hauptspeicher – hier ist insbesondere der tatsächlich genutzte Speicher interessant.
  • Die lesenden und schreibenden Disk-IOs
  • Die benötigte Netzwerkbandbreite

Aus Erfahrung kann ich berichten, dass bei virtuellen Umgebungen, die »zu langsam« laufen, meistens ein Problem bei der Dimensionierung des Plattensystems vorliegt. Mehrere virtuelle Maschinen, die jeweils über Betriebssystem- und Datenpartition verfügen, verursachen eine nicht unerhebliche Belastung der Festplatten. Sofern nicht entsprechend viele Festplatten in den RAID-Sets vorhanden sind, ist das Ergebnis eine entsprechend langsame Verarbeitung der Zugriffe, was dann das ganze System ausbremst – wie immer gilt, dass ein RAID 5 mit drei riesigen SATA-Platten vermutlich die Größenanforderungen, aber bestimmt nicht die Performanceanforderungen erfüllt.

Auch wenn man Scale-out-Fan ist, benötigt man einigermaßen leistungsfähige Server. Eine wesentliche Komponente ist das Plattensystem, bei dessen Dimensionierung man mit besonderer Sorgfalt zu Werke gehen sollte.


Zwei Netzwerkkarten

Sie sollten grundsätzlich mindestens zwei Netzwerkkarten einplanen: eine für den Zugriff auf die virtuellen Maschinen und eine für das »Management-LAN«.



Galileo Computing - Zum Seitenanfang

22.1.4 Was soll virtualisiert werden? topZur vorigen Überschrift

Eine der häufigsten Fragen, die ich im Zusammenhang mit Servervirtualisierung beantworte, ist, welche Server nun virtualisiert werden sollen. Etwas konkreter fragen mich meine Kunden beispielsweise: »Uli, sollen wir den Exchange Server virtualisieren?« oder »Empfiehlst Du uns, die Oracle-Datenbank zu virtualisieren?« oder »Sollen wir auch die Terminalserver in die virtuelle Umgebung migrieren?«

Wie immer sind Pauschalaussagen nicht besonders sinnvoll. Um sich den jeweils »richtigen« Antworten zu nähern, sollten wir uns zunächst vor Augen führen, warum wir überhaupt Servervirtualisierung einsetzen. Die häufigsten Gründe sind:

  • Einfachere Wiederherstellungsszenarien, Verbesserung der Verfügbarkeit
  • Bessere Ausnutzung von Ressourcen, höhere Energieeffizienz
  • Vereinfachung der Administration

Etwas konkretere Antworten könnten also sein:

  • »Kleinere« Server zu virtualisieren, ergibt eigentlich immer Sinn.
  • Applikationen, die auf moderner Hardware am Leistungslimit laufen, sind nicht die optimalen Virtualisierungskandidaten. Wenn Sie für eine solche virtuelle Maschine einen kompletten Hyper-V-Server benötigten, ist das kein ideales Verhältnis. Aus diesem Grund werden beispielsweise Terminalserver häufig nicht virtualisiert: Diese sind meistens stark ausgelastet und, zumindest wenn sie in einer Farm mit mehreren gleichartigen Servern betrieben werden, als »Einzelstück« auch durchaus nicht unverzichtbar. Ich kenne allerdings auch Szenarien, in denen ein Terminalserver eine Spezialanwendung mit wenigen Anwendern bedient und folglich nicht eine von vielen Maschinen einer Farm ist. Bei solchen Servern empfiehlt sich die Virtualisierung, weil das Recovery-Verfahren dann vergleichsweise einfach ist.

Virtualisierung bietet zweifelsfrei viele Vorteile, man muss aber auch ein paar Probleme beziehungsweise mögliche Probleme im Hinterkopf behalten:

  • Einige Applikationen bzw. Applikationsserver profitieren sehr von den Mehrkern-Architekturen moderner Prozessoren. Beispiele sind SQL-Server und Exchange-Server. Die Servervirtualisierung deckt sozusagen diese Architekturen zu. Dies könnte sich als sehr leistungsmindernd auswirken.
  • Es muss stets geprüft werden, ob die eingesetzten Applikationen vom Hersteller auch in einer virtualisierten Umgebung unterstützt werden. Da Servervirtualisierung mittlerweile eher die Regel als die Ausnahme ist, sollte (!) das eigentlich kein Problem sein; es gibt aber immer wieder Hersteller, für die der Einsatz von Servervirtualisierung ein Grund ist, den Support zu verweigern. Ich empfehle, dies im Vorfeld abzuklären. Auch wenn ein Hersteller keinen Support bietet, können Sie die Vorteile der Virtualisierung so hoch bewerten, dass diese mehr Gewicht als der »Makel« der nicht unterstützten Umgebung bekommen. Das ist allerdings eine Entscheidung, die jeder selbst treffen muss.


Ihr Kommentar

Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen.






<< zurück
  Zum Katalog
Zum Katalog: Windows Server 2008 R2

Windows Server 2008 R2
Jetzt bestellen


 Ihre Meinung?
Wie hat Ihnen das <openbook> gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Katalog: Windows 7 für Administratoren






 Windows 7 für
 Administratoren


Zum Katalog: Konzepte und Lösungen für Microsoft-Netzwerke






 Konzepte und
 Lösungen für
 Microsoft-Netzwerke


Zum Katalog: Office SharePoint Server 2007 und Windows SharePoint Services 3.0






 Office SharePoint
 Server 2007 und
 Windows SharePoint
 Services 3.0


Zum Katalog: Exchange Server 2007 und Office Communications Server 2007






 Exchange Server 2007
 und Office
 Communications
 Server 2007


Zum Katalog: Citrix XenApp 5






 Citrix XenApp 5


Zum Katalog: PC-Netzwerke






 PC-Netzwerke


Zum Katalog: VMware vSphere 4






 VMware vSphere 4


Zum Katalog: VMware vSphere 4 - Videotraining






 VMware vSphere 4
 - Videotraining


Zum Katalog: VirtualBox






 VirtualBox


 Shopping
Versandkostenfrei bestellen in Deutschland und Österreich
InfoInfo




Copyright © Galileo Press 2010
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Galileo Computing]

Galileo Press, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, info@galileo-press.de