Der folgende Beitrag stammt von Will Urban.

In einer von meinen Sitzungen ging es um die Best Practices in einer VMware- und EqualLogic-Umgebung.
Andy Banta von VMware beteiligte sich daran und wir redeten über alle möglichen Best Practices. Andy erzählte viel über den neuen iSCSI-Initiator, welche Änderungen daran vorgenommen wurden und wie er konfiguriert wird. Ein Teil, zu dem wir sehr viel Feedback bekamen, handelte von Datenlaufwerken in VMware. Konkret gibt es drei Möglichkeiten, um Datenlaufwerke für Ihre virtuellen Rechner zu konfigurieren. Jede dieser Möglichkeiten hat Vor- und Nachteile. Viele Kunden meldeten sich und sagten, dass sie dadurch verstanden, wie all die kostenlosen Tools von EqualLogic in ihrer Umgebung integrieren werden können. Es gibt drei elementare Möglichkeiten, um Datenlaufwerke mit den VMs in Ihrer VMware- und EqualLogic-Umgebung zu verbinden. Dies basiert auf der Annahme, dass Ihr Betriebssystem C:/ oder /root von einem VMFS-Volume ausführt. · VMDK auf VMFS · iSCSI im Gast-VM (manchmal als Direct Connect bezeichnet) · Raw Device Mapping (RDM)

VMDK auf VMFS

VMDK-Festplatten auf VMFS-Volumes ist wahrscheinlich das am häufigsten eingesetzte Verfahren für Datenlaufwerke.
Dabei schaffen Sie zusätzlichen Platz auf einem VMFS-Datenspeicher und weisen ihn einem virtuellen Rechner zu.

Vorteile

· Einfach zu konfigurieren – Sie können einem virtuellen Rechner aus dem freiem Speicher bestehender Datenspeicher weiteren Speicher zuordnen oder einen anderen Datenspeicher bereitstellen.

· Sichtbar in Virtual Center (Klone, Vorlagen, Storage vMotion etc.) – Dies sorgt für einen geringen Verwaltungsaufwand, weil Sie immer wissen, wo sich das Datenlaufwerk befindet.

· Kein Eingriff des Speicherteams erforderlich – Solange der Datenspeicher über freien Speicher verfügt, können Sie einem virtuellen Rechner Datenlaufwerke hinzufügen, ohne dass ein Eingriff erforderlich ist.

· Ermöglicht das Tiering („Klassifizierung“) von Datenlaufwerken auf verschiedenen VMFS-Volumes/Pools auf der Grundlage der Arbeitslast – Dadurch können Sie einen Datenspeicher auf, sagen wir einmal, 10k-R50-Laufwerken und ein Datenbanklaufwerk auf einem 15k-R10-Volume haben.

· Nutzung von vSphere MPIO (neu in 4.x) für Anwendungen mit hoher Bandbreite – Wenn bei Version 3.5 kein MPIO auf einem Volume möglich war, waren Sie bei iSCSI in der Regel auf einen einzigen Pfad beschränkt; mit vSphere MPIO gibt es diese Einschränkungen nun nicht mehr.

Nachteile

· Keine Host-Integration mit Auto Snapshot Manager/Microsoft Edition – Dell stellt ein kostenloses VSS-anwendungskonsistentes Snapshot-Tool für NTFS-Volumes, SQL und Exchange bereit.
Dieses Tool kann jedoch nicht auf Laufwerken eingesetzt werden, bei denen es sich um VMDK-auf-VMFS-Volumes handelt.

· Bei einer Trennung vom Datenspeicher befindet sich das Betriebssystem auf keiner ASM/VE-Integration – Dell stellt ein kostenloses VMware Hypervisor-konsistentes Snapshot-Tool für virtuelle Rechner bereit.
Es erstellt Snapshots des virtuellen Rechners. Wenn sich das Betriebssystemlaufwerk und das Datenlaufwerk jedoch auf verschiedenen Datenspeicher-Volumes befinden, werden zurzeit keine Smartcopys unterstützt · Keine echte Isolierung der Daten für Datenschutz-/DR-Strategien. – Wenn Sie ein F-Datenbanklaufwerk der Stufe 3 und ein G-Anwendungslaufwerk der Stufe 1 auf demselben Datenspeichervolume haben, können Sie den Schutz nicht trennen. Folglich müssen Sie das gesamte Volume schützen, um den höchsten Schutz zu erreichen, der erforderlich ist.

Best Practices für VMDK auf VMFS

Die Konfiguration einer VMDK auf VMFS ist ganz einfach, für die Leistung gibt es jedoch ein paar Best Practices.
Klicken Sie auf den virtuellen Rechner, dem Sie das Datenlaufwerk hinzufügen möchten. Klicken Sie auf „Edit Virtual Machine Settings“. Wählen Sie unter „Hardware“ nacheinander „Add“ -> „Hard Disk“ -> „Next“. Wählen Sie „Create a new virtual disk“ -> „Next“. Wählen Sie die gewünschte Größe, die für den virtuellen Rechner sichtbar sein soll, und die gewünschten Optionen für die Festplattenbereitstellung. An dieser Stelle können Sie wählen, ob sie auf demselben VMFS-Datenspeicher wie der virtuelle Rechner sein soll, oder aber einen anderen festlegen. Der nächste Bildschirm enthält einen wichtigen Schritt, der oftmals übersehen wird. Wir möchten den virtuellen SCSI-Adapter ändern, damit er nicht mit dem für das Laufwerk mit dem Basis-Betriebssystem identisch ist. Es wurde festgestellt, dass die Leistung allein aufgrund dieser wenigen Änderungen enorm gesteigert wurde. Ändern Sie den Virtual Device Node für jedes zusätzliche Gerät nach dem Betriebssystemlaufwerk auf 0:0 in etwas wie 1:0 oder 2,3 etc.


Data Drives in VMware - The Dell TechCenter

Damit wird dem virtuellen Rechner außerdem ein neuer SCSI-Controller hinzugefügt.
Für unterstützte virtuelle Rechner (ich glaube das sind 2008/2003/RHEL5) können Sie die Einstellung von LSI in „Paravirtual SCSI Adapter“ ändern, um eine höhere Leistung zu erzielen.


Data Drives in VMware - The Dell TechCenter

Außerdem stellten wir bei Betriebssystemen, die beim Formatieren des Laufwerks kein 64k-Ausrichtungs-Offset (z. B. 2003) vornehmen, fest, dass die Leistung dadurch ebenfalls gesteigert wurde.

iSCSI im Gast-VM

Da es sich beim iSCSI-Datenverkehr lediglich um Standard-Netzwerkverkehr handelt, können Sie sich iSCSI im Gast-VM zunutze machen, indem Sie den iSCSI-Softwareinitiator des Gast-VM verwenden.
Da dies für den virtuellen Rechner nur Netzwerkverkehr ist, funktionieren dadurch auch vMotion und alle anderen Tools.

Vorteile

· Überwinden der 2-TB-Grenzen von VMFS/RDM – Wenn Sie in Ihrer Umgebung große Dateisysteme verwenden, ermöglicht diese Funktionalität Ihren virtuellen Rechnern, mit einem Volume zu kommunizieren, das viel größer ist als 2 TB, oder die Verwendung von Speicherbereichen zu vermeiden.

· Verwendung von Host-Integrationssoftware wie Auto Snapshot Manger/Microsoft Edition und Off-Host-Sicherungen – Durch die Verwendung von iSCSI im Gast-VM mit über iSCSI-Softwareinitiator-angeschlossenen Volumes können Sie die Snapshot-Tools für den Datenschutz nutzen.
Dies bietet Ihnen zudem den Vorteil, dass Sie transportable Snapshot-Technologien entsprechender Anbieter zum Auslagern von Snapshots auf einen Sicherungsserver nutzen können, um den LAN-Datenverkehr zu reduzieren und Konflikte hinsichtlich des Zeitfensters für die Datensicherung auszuschalten.

· Isoliert der Datenlaufwerke für Datenschutz-/DR-Strategien – Diese Technik erlaubt es Ihnen außerdem, Ihre Datenlaufwerke auf einem Volume zu isolieren, das andere Replikations- und Snapshot-Strategien anwendet als das Volume mit dem übergeordneten virtuellen Rechner.

· Lässt sich auf physischen oder anderen virtuellen Rechnern mounten – Wenn ein virtueller Rechner abstürzt oder wenn Sie die Daten einfach ab- und wieder anhängen möchten, können Sie den iSCSI-Initiator verwenden.

· Verwendet die Best Practices physischer Umgebungen – Dieses Verfahren ist mit dem physischer Umgebungen identisch.
Bei einer P2V-Konvertierung eines Servers mit über iSCSI verbundenen Volumes können Sie den virtuellen Rechner mit sehr wenigen Änderungen am Server weiterbetreiben.

· Ermöglicht das Tiering („Klassifizierung“) von Datenlaufwerken auf verschiedenen Volumes/Pools auf der Grundlage der Arbeitslast – Da sich die Datenlaufwerke auf einem Volume befinden, können Sie schnellere oder umfangreichere Daten in der von ihnen benötigten SAN-Schicht haben, die sich von den virtuellen Rechnern unterscheiden kann.

Nachteile

· Nicht sichtbar für Virtual Center – Da das Volume vom virtuellen Rechner selbst verwaltet wird, ist es für vCenter nicht auf der Speicher-Registerkarte sichtbar, und Ihnen wird das Volume beim Bearbeiten der Eigenschaften nicht als an den virtuellen Rechner angeschlossen angezeigt.
Dies kann zusätzlichen Verwaltungsaufwand zur Folge haben.

· Eingriff des Speicherteams erforderlich – Da Sie ein ganz neues Volume erstellen, müssen Sie es so erstellen, dass es vom virtuellen Rechner und nicht von der ESX-Umgebung erkannt wird.
Dies bedeutet folglich, dass der iSCSI-Softwareinitiator installiert und konfiguriert, eine Verbindung zum SAN mit den richtigen Pfaden hergestellt und das Volume so konfiguriert werden muss, dass es für den virtuellen Rechner sichtbar ist.

· Muss bei DR-Plänen getrennt von den virtuellen Rechnern berücksichtigt werden – Da das Volume für vCenter und die ganzen VMware-Tools wie SRM nicht sichtbar ist, müssen Sie zum Schutz dieser Volumes andere Maßnahmen ergreifen.
Wenn Sie vergessen, das Datenlaufwerk zu replizieren, eine DR-Situation eintritt und Sie nur Laufwerk C: haben, ist das nicht gerade cool.

Best Practices für iSCSI auf dem Gast-VM

Die Konfiguration von iSCSI auf dem Gast ist recht unkompliziert.
Sie behandeln ihn wie einen physischen Server. Installieren Sie den iSCSI-Initiator auf dem Gast-VM, stellen Sie eine Verbindung zum SAN her und schon ist alles erledigt. Allerdings müssen Sie sich auf der ESX-Seite über einige Aspekte Gedanken machen. Normalerweise sind das iSCSI-Netzwerk und das öffentliche LAN getrennt. Daher müssen Sie zunächst sicherstellen, dass das SAN der PS-Serie für den virtuellen Rechner sichtbar ist. Anschließend müssen Sie sicherstellen, dass alles richtig konfiguriert ist und dass MPIO im Gastsystem bei Bedarf genutzt werden kann. In diesem Beispiel zeige ich Ihnen, welche Änderungen Sie an einem Standard-vSwitch vornehmen müssen. Wahrscheinlich gibt es ein Dutzend Möglichkeiten, dies ist eine davon. Als erstes müssen Sie Ihrem vSwitch zusätzliche Port-Gruppen des virtuellen Rechners hinzufügen. In diesem Beispiel nenne ich sie iSCSI Guest 1 und iSCSI Guest 2. Wählen Sie den vSwitch mit iSCSI-Konnektivität (wenn Sie möchten, können Sie auch ganz neue NICs zuweisen, vorausgesetzt, sie sind mit dem SAN verbunden), und wählen Sie dann „Properties“. Klicken Sie auf „Add“. Wählen Sie „Virtual Machine“ und dann „Next“. (Da wir iSCSI auf dem Gast-VM und nicht iSCSI von ESX verwenden, wählen wir nicht „VMkernel“). Erstellen Sie für die beiden iSCSI-Gast-NICs zwei davon. (Ich verwende 2. Wenn Sie möchten, können Sie aber so viele erstellen, wie iSCSI-NICs vorhanden sind. Dies ist nur ein Beispiel.)

Data Drives in VMware - The Dell TechCenter

Nachdem sie erstellt wurden, muss als nächstes der Datenverkehr über die physischen NICs sichergestellt werden.
Wenn Sie esxtop überwachen und einem virtuellen Rechner zwei virtuelle NICs zuweisen, garantiert ESX nicht den Datenverkehr über alle physischen NICs eines einzigen virtuellen Rechners. Folglich müssen wir ESX dazu zwingen. Sie möchten dies jedoch nicht explizit festlegen, sodass Sie die Fähigkeit zum Failover verlieren. Deshalb nutzen wir das vSwitch-NIC-Teaming. Wählen Sie dazu innerhalb des vSwitch den ersten iSCSI-Gast aus, und klicken Sie auf „Properties“. Klicken Sie auf die Registerkarte „NIC Teaming“, und aktivieren Sie das Kontrollkästchen „Override vSwitch failover order“. Anschließend müssen Sie eine der physischen NICs als „active“ und die andere als „standby“ (nicht „unused“) definieren. Auch hier unterscheiden sich die Konfigurationsänderungen von iSCSI in ESX. Deshalb weise ich auf die Unterschiede hin. Nehmen Sie dies für den anderen iSCSI-Gast vor, und verwenden Sie den anderen Adapter.

Data Drives in VMware - The Dell TechCenter

Als letztes müssen Sie einen neuen Ethernet-Adapter zuweisen und das benannte Netzwerk als eines der gerade erstellten Netzwerke auswählen.
Verwenden Sie MPIO im virtuellen Rechner entweder mit Dell DSM for Microsoft oder mit dem Produkt, das der Gast-VM verwendet, und voilà!

RDMs

RDMs (Raw Device Maps) werden verwendet, wenn Sie die Daten auf Volumes isolieren möchten, sie aber weiterhin in vCenter anzeigt werden sollen.


Vorteile

· Einfach zu konfigurieren – Ein Volume = Ein RDM

· Sichtbar in der Storage-Ansicht von Virtual Center – Das Volume wird in vCenter unter „Storage“ angezeigt und ermöglicht eine vCenter-Integration in Produkte wie SRM.

· Ermöglicht das Tiering („Klassifizierung“) von Datenlaufwerken auf verschiedenen Volumes/Pools auf der Grundlage der Arbeitslast – Sie können die RDMs der Datenlaufwerke zur Leistungssteigerung in einer anderer Speicherkategorie isolieren.

· Verwendet vSphere MPIO (neu in 4.x) für Anwendung mit hoher Bandbreite – Mit nativem MPIO steht immer noch eine hohe Bandbreite für Anwendungen zur Verfügung, die eine hohe Leistung erfordern.

· Isoliert Daten vom Betriebssystem; viele Anwendungen von Drittanbietern arbeiten mit RDMs – Manche Anwendungen von Drittanbietern benötigen irgendeine Form von RDM für Sicherung, Schutz oder Tools.

Nachteile

· Keine Gastintegration in Auto Snapshot Manager/Microsoft Edition – ASM/ME erkennt keine RDM-Volumes für Smart Copy-Operationen · Keine VM-Integration in Auto Snapshot Manager/VMware Edition – ASM/VE erkennt keine RDM-Volumes für Smart Copy-Operationen für VM-Snapshots

· Jeder ESX Server benötigt eine Verbindung, folglich muss die Anzahl der Verbindungen beurteilt werden – Da das RDM-Volume für jeden ESX Server sichtbar sein muss, gibt es mehrere Verbindungen zum RDM, selbst wenn das Volume immer nur von einem Server verwendet wird. Beachten Sie bei der Konfiguration von RDMs die Best Practices für VMDK auf VMFS mit dem neuen SCSI-Adapter und dem paravirtualisierten Adapter, sofern unterstützt.


Wenn Sie noch am Ball geblieben sind, fragen Sie sich sicher, welche der Lösungen Sie verwenden sollen. Ehrlich gesagt lautet die Antwort: „Dies hängt von Ihren Anforderungen ab.“ Alle drei werden aus verschiedenen Gründen eingesetzt. Es gibt keine Situation, in der nur eine einzige Lösung möglich ist, während alle anderen nicht in Frage kommen. Berücksichtigen Sie Ihre Geschäftsziele, Ihre Datensicherungsstrategien und die Integration in andere Dell EqualLogic-Software. Dies hilft Ihnen bei der Entscheidungsfindung. Denken Sie aber auch an die zusätzlichen Verwaltungsaufgaben, die abhängig von der gewählten Lösung auf Sie zukommen. Als wir uns mit Teilnehmern der Benutzerkonferenz unterhielten, konnten wir uns ein gutes Bild davon machen, wie diese Informationen sie weiterbrachten. Für die meisten NTFS/SQL/Exchange-Systeme, für die sie ASM/ME nutzen wollten, verwendeten sie iSCSI auf dem Gast; für virtuelle Rechner, die nur ein 20-GB-F-Laufwerk für Speicherzwecke benötigten, erfüllte VMFS ihre Anforderungen.