Umstellen der MPIO Regeln für alle LUNs eines Clusters

Wednesday, 14 November 2012 11:49:06 (W. Europe Standard Time, UTC+01:00)
Unter Vmware vSphere gibt es seit der Version vSphere 4 einige neue Möglichkeiten zum Einbinden von LUNs für die Benutzung als VMFS Laufwerke.
Leider passt manchmal die eingebaute Variante der Path Selection Policy (PSP) nicht zum aktuellen Storage und dessen Konfiguration. Für die meisten älteren Systeme gab es da eh nur die Varianten VMW_PSP_FIXED_AP oder MostRecentlyUsed so dass im Zweifel eventuell der I/O Traffic von mehreren LUNs über einen Pfad abgewickelt wurde und dieser dann zum Flaschenhals wurde.

Heute können die meisten Systeme entweder vollständig active/active oder zumindest im ALUA Modus betrieben werden. Dadurch kann man erzilen, dass die LUN I/O leistung weiter Richtung konfigurierbares Maximum wächst. Die korrespondierende PSP für diesen Fall wäre Fixed (VMware) oder Round Robin (VMware). Die Umsetzung der PSP Regeln kann über die Shell des ESXi Servers oder den vSphere Client (ab Version 5.0 auch über den Web Client) erfolgen. Zusätzlich zu diesen GUI oder lokalen Möglichkeiten gibt es auch die Powershell, damit kann man diese Aufgaben einfach, schnell und reproduzierbar auf alle ESXi Server eines Clusters übertragen. Hat man in etwa mehr als fünf LUNs und mehr als drei Hosts, dann sollte man auf jeden Fall dem Skript den Vorzug geben, da die manuelle Interaktion zu fehleranfällig ist! Das Verfahren sollte man auch immer anwenden, wenn man neue LUNs in einem existierenden Cluster veröffentlichen!

Der Befehl unter Powershell sieht dann in etw so aus:
Zunächst verbindet man sich am besten zum vCenter Server mit einem administrativen Konto (VMware):
PowerCLI C:\Programme\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer vcenter.domain.suffix
Name                           Port  User
----                           ----  ----
vcenter.domain.suffix          443   DOMAIN\carsten

Jetzt listet man alle LUNs im Cluster auf, die eine Disk beschreiben, damit wir nicht noch die CD-/DVD-ROm Laufwerke der Hosts und die lokalen Platten(falls vorhanden) erwischen:

PowerCLI C:\Programme\VMware\Infrastructure\vSphere PowerCLI> Get-Cluster CL001 | Get-VMHost | Get-S
CSILun -LunType disk
CanonicalN ConsoleDeviceName              LunType         CapacityGB MultipathPolicy
ame
---------- -----------------              -------         ---------- ---------------
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 Fixed<--- Ist zu ändern!!!
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 Fixed <--- Ist zu ändern!!!
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 Fixed <--- Ist zu ändern!!!
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin

<<< Das ist nur ein Auszug aus der vollständigen Liste aller LUNs >>>

Mit fixed ist die neue LUN im Cluster noch im falschen Modus angesprochen. Diese PSP soll auf Round Robin (VMware) geändert werdenNachdem man jetzt den NAA String exzerptiert hat und damit alle beroffenen LUNS herausfiltern kann, kann in einem zweiten Step die Policy für alle Volumes im gesamten Cluster gesetzt werden:

PowerCLI C:\Programme\VMware\Infrastructure\vSphere PowerCLI> Get-Cluster CL001 | Get-VMHost | Get-S
CSILun -CanonicalName "naa.60a*" | Set-ScsiLUN -MultipathPolicy "roundrobin"
CanonicalN ConsoleDeviceName              LunType         CapacityGB MultipathPolicy
ame
---------- -----------------              -------         ---------- ---------------
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
<<< Das ist nur ein Auszug aus der vollständigen Liste aller LUNs >>>

Danach kann man das Ganze auf ein zweites Cluster erweitern, für das die LUN sichtbar sein soll. Die NAA IDs sind ja immer identisch auf allen Hosts.

PowerCLI C:\Programme\VMware\Infrastructure\vSphere PowerCLI> Get-Cluster CL002 | Get-VMHost | Get-S
CSILun -CanonicalName "naa.60a*" | Set-ScsiLUN -MultipathPolicy "roundrobin"
CanonicalN ConsoleDeviceName              LunType         CapacityGB MultipathPolicy
ame
---------- -----------------              -------         ---------- ---------------
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk               850,083 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.536,140 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin
naa.60a... /vmfs/devices/disks/naa.60a... disk             1.024,017 RoundRobin

<<< Das ist nur ein Auszug aus der vollständigen Liste aller LUNs >>>

PowerCLI C:\Programme\VMware\Infrastructure\vSphere PowerCLI>
Viel Erfolg!

NetApp – New Windows MPIO (V3.5) available

Thursday, 24 November 2011 00:52:03 (W. Europe Standard Time, UTC+01:00)

NetApp has released a new version of their MPIO DSM (Version 3.5) which does include several fixes and simplifies the deployment for NetApp connected Windows systems.

The new features which are included in version 3.5 are:

The Data ONTAP DSM 3.5 for Windows MPIO includes the following changes:

- Data ONTAP operating in Cluster-Mode is now supported, starting with version 8.1. Note the following about Cluster-Mode support:
  – Asymmetric logical unit access (ALUA) is required for all Fibre Channel (FC) paths and for all iSCSI paths to Cluster-Mode LUNs.
  – Mixed FC and iSCSI paths to the same Cluster-Mode LUN is supported.

- New Windows PowerShell cmdlets are available to manage the DSM. The cmdlets replace the dsmcli commands, which are deprecated starting in DSM 3.5. The dsmcli commands will be removed in a future release.
- The Windows Host Utilities are no longer required. The Windows Host Utilities components that enable you to configure Hyper-V systems (mbralign.exe and LinuxGuestConfig.iso) are now included with the DSM. While no longer required, installing the Windows Host Utilities on the same host as the DSM is still supported.
- Hyper-V guests running Red Hat Enterprise Linux (RHEL) are now supported. The Interoperability Matrix lists the specific versions supported.
- The number of reboots required to install or upgrade the DSM is reduced. For example, when you install Windows hotfixes, you can wait to reboot the host until after you install or upgrade the DSM.
- The timeout values set by the Data ONTAP DSM are updated based on ongoing testing.
- The options that you use to specify preferred paths for the Round Robin with Subset policy has changed. Note the following changes:
- The options that you use in the graphical user interface (GUI) to specify preferred paths for the Round Robin with Subset policy has changed. You now use the Set Preferred and Clear Preferred options to specify preferred paths. The Set Active and Set Passive options are no longer available for Round Robin with Subset. Note: These changes do not alter how the Round Robin with Subset policy works. Round Robin with Subset is still an "active/active" policy that enables you to specify preferred and non-preferred paths. The changes align the GUI terminology with how the policy works.

Release Notes can be found here: https://now.netapp.com/NOW/knowledge/docs/mpio/win/reldsm35/pdfs/rnote.pdf

NetApp MPIO Version 3.5 for Windows Systems can be found here:

https://now.netapp.com/NOW/download/software/mpio_win/3.5/

If you deploy MPIO DSM V3.5 from NetApp at a fully patched Windows 2008 R2 SP1 system you will get following “error” if you haven’t installed KB2522766 and KB2528357:

image

KB2522766 – The MPIO driver fails over all paths incorrectly when a transient single failure occurs in Windows Server 2008 or in Windows Server 2008 R2
http://support.microsoft.com/kb/2522766/

KB2528357 – Nonpaged pool leak when you disable and enable some storage controllers in Windows 7 or in Windows Server 2008 R2
http://support.microsoft.com/kb/2528357

image

image

After installing KB2522766 an reboot is required.

Also KB2522766 requires an reboot:

image

image

After 2 reboots you can install now MPIO DSM 3.5:

image

In my case, there is already an “older” version of NetApp MPIO DSM installed which will be automatically detected and upgrade from setup:

image

image

image

image

image

Note: In my case this is an Hyper-V server therefore I do install the Hyper-V Guest utilities which are one of the new features and mentioned above in the feature list.

image

image

……Finally Finished <img alt=" class="wp-smiley">

image

After an 3rd reboot you can now proceed with your SAN configuration.

Please stay tuned for more details around the new utilities and especially around the new Powershell commandlet’s for NetApp which are called “Powershell Toolkit Version 1.6”.

Powershell Toolkit 1.6

http://communities.netapp.com/community/interfaces_and_tools/data_ontap_powershell_toolkit/data_ontap_powershell_toolkit_downloads
http://communities.netapp.com/community/interfaces_and_tools/data_ontap_powershell_toolkit?view=documents

EMC CLARiiON CX3-nn

Thursday, 27 October 2011 13:58:07 (W. Europe Daylight Time, UTC+02:00)

EMC Clariion Systeme sind relativ einfach zuwarten - wenn man weiß wie es funktioniert (wie immer :-D). An eine bestehende Clariion ein weiteres Diskshelf anbinden, soweit so gut, also das Shelf wie folgt angeschlossen:

Zunächst sollte man überprüfen ob der aktuellste FLARE Code auf der SAN installiert ist und es möglichst keine Fehler auf der SAN gibt. Ferner sollten die HDDs die aktuellste Firmware aufweisen, damit das Projekt von Erfolg gekrönt werden kann. Das Ganze lässt sich sehr gut mit den EMC Werkezugen zur CX3 Serie "Unisphere System Manager" überprüfen. Das Aufspielen des neuen FLARE codes geht in der Regel auch ohne Betriebsunterbrechung, wenn alle angeschlossenen Hosts HA konform sind, wie etwa die aktuellen Hypervisor Systeme oder Standardhosts inklusive EMC Powerpath. Die Software lässt sich über EMC Powerlink beziehen.

  • Einbauen des Shelfs in das Rack
  • Kabel im 19" Rack sauber verlegen
  • KEINE Datenkabel anschließen
  • Strom auf das Shelf geben!!!
  • Über den Schalter auf der Rückseite (rote Pfeile) die nächste freie ID für das Shelf eintragen:
    In meinem Falle waren bereits die Shelfs 0+1 vorhanden also ID 2 setzen, normalerweise setzt sich der zweite Controller automatisch auf dieselbe ID (die grünen und gelben Leuchtdioden l´flackern einmal ringsum auf).
  • Danach Strom vom Shelf und die Shelfs unterienander per daisy-chain verkabeln:
    Shelf 1 auf Shelf 2 (der Reihe nach, vertikal verkabeln!!!).
  • Danach Strom auf das Shelf und im Navisphere / Unisphere Manager sollte sich das Shelf zeigen.


Sollte sich dan das Shelf als Faulted melden und alle HDDs mit amber/green leuchten, dann muss der Bus wahrscheinlich auf eine einheitliche (langsamere Geschwindigkeit) getaktet werden, oder alle HDDs getauscht werden. Da es sich hierbei um eine Ausweich SAN handelte wurde der Bus heruntergetaktet. Dazu muss man die EMC2 in den sogenannten Egineering Mode versetzen, wer keine Ahnung von der SAN hat, sollte die folgenden Schritte dann auch besser durch einen Experten machen lassen, denn sonst droht eventuell Datenverlust!
Den speziellen Betriebsmodus erreicht man über die Tastenkombination:
Ctrl,Shft, und F12

Danach muss man das Passwort "messner". Wie es zu dem Passwort kam, dazu gibt es eine kleine Geschichte im Netz:

The story behind the password is that the engineering group at the time were avid mountain climbers and chose the password in honor of Reinhold Messner, the first person to climb Everest without the use of oxygen.



EMC F.A.S.T. Das Storage DRS

Wednesday, 09 December 2009 11:03:24 (W. Europe Standard Time, UTC+01:00)

Dieser Bolgeintrag ist ein Excerpt aus dem Eintrag von "Virtual Geek"

Dieser Beitrag dreht sich um die technische Möglichkeit mittels von EMCs FAST so etwas wie VMware DRS auf den Massenspeicher zu übertragen, eine sehr coole Idee!
FAST steht dabei als Abkürzung für "Fully Automated Storage Tiering". Die Kernidee die dahinter steckt ist das automatische Verscheiebn von Laufwerken (LUNs) auf die richtigen Spindeln (RAIDgruppen) zu einem definierten Zeitpunkt.
FAST ist sofort für alle Plattformen von EMC verfügbar.

Auf Basis von EMC Clariion CX4-xxx Speichersystemen automatisiert diese Technik die Rekonfiguration von LUNs und deren Optimierung gegenüber einer definierten Richtlinie. Für eine V-Max Umgebung dies, dass zum Beispiel Swap LUNs automatisiert zwischen SSD, FC 15k, FC 10k und S-ATA Spindeln im Hintergrund diskret verschoben werden.

Warum kann es sinnvoll sein, eine solche Funktion / Technik einzukaufen (geschenkt bekommen wird man diese wohl eher nicht, wenn man EMC kennt...)?

  • Es geht um Effiziente Nutzung des Speichersystems, so kann der Lifecycle eines Systems nicht nur auf Ebene der Systemvirtualisierung verfolgt werden, sondern auch transparent auf dem Speichersystem, ohne dass man dazu eine weitere Virtualisierungsschicht im Speichernetz benötigt.
  • Im Rahmen der Cloud-Computing Initiative lassen sich so Laufwerke transparent an SLAs für externe Clouds oder interne Clouds anpassen.
Das soll nur ein Hinweis für die Möglichkeiten von FAST sein. Auf dem Originalblogeintrag werden noch weitere Überlegungen zum produktiven Einsatz erwähnt. Es lohnt sich wirklich diesen Eintrag zu lesen!

An dieser Stelle wird der Prozess einmal kurz beschrieben um eine Richtlinie für FAST zu konfigurieren und diese an ein V-Max Kunden-Szenario zu binden:

Soviel als Appetizer zu der neuen EMC Technik. Weiter Hinweise, Szenarien und Einstellmöglichkeiten finden Sie unter:

Den offiziellen EMC Produktwebsites (natürlich auch im Powerlink):

In den EMC Blogs:

Und auf den INoffiziellen EMC Nachrichtenkanälen:

Virtual Geek, vielen Dank für diese Hinweise und die einfache Erläuterung! :-)

Das Neunundneunzig Prozent Dogma

Monday, 06 July 2009 11:24:50 (W. Europe Daylight Time, UTC+02:00)
Was es bedeuten kann, wenn man als Zuverlässigkeitskoeffizient mit den magischen Zahlen wie 99,9 Prozent von Anbietern "bombardiert" wird kann man sich hier einmal noch etwas genauer durchlesen und dann bestimmen, welche Ausfallzeit für eine Plattform, Anwendung oder Dienst akzeptabel ist, oder eben gerade nicht:

99% - Die Anwendung ist 3 Tage, 15 Stunden, 36 Minuten nicht verfügbar
99.9% - Die Anwendung ist 8 Stunden, 45 Minuten, 36 Sekunden nicht verfügbar
99.99% - Die Anwendung ist 52 Minuten und 33 Sekunden nicht verfügbar
99.999% - Die Anwendung ist 5 Minuten und 15 Sekunden nicht verfügbar
99.9999% - Die Anwendung ist 31 Sekunden nicht verfügbar

Dabei ist der Maßstab immer das Kalenderjahr!

Aus meiner Sicht sind Zahlen die eine Verfügbarkeit von mehr als 98,5% suggerieren komplett am Thema vorbei, denn wann immer auch ein Hersteller seine Verfügbarkeit als five-nine bezeichnet (99,999% Verfügbarkeit), so kann das immer nur isoliert für sein einzelnes Gerät gemessen sein. Werden also mehrere von diesen Systemen mit anderen Komponenten, Anwendungen Systemen und Verbindungsmitteln zu einer "Anwendung" verschaltet, so ergeben sich auf einmal ganz andere Verfügbarkeiten, da man die Verfügbarkeiten in Relation zueinander setzen muss um eine Verfügbarkeit zu ermitteln.

Microsoft selber gibt für zum Beispiel Exchange 2007 "In the Enterprise" eine Gesamtverfügbarkeit von maximal 98,5% an, gemessen am Client, denn Verfügbarkeit einer Anwendung kann man objektiv nur dann ermitteln, wenn man das Ganze aus Anwendersicht betrachtet, oder eben als Kunde! Denn der Anwender ruft beim Helpdesk an wenn seine Anwendung nicht funktioniert und eben nicht wenn ein SAN Switch ausgefallen ist.

Zusätzlich gebe ich zu bedenken, dass es in etwa zwölf geplante Ausfallzeitfenster im Jahr pro System gibt (Windows, VMware) oder sogar öfter (Linux Distributionen (Ja in Abhängigkeit zu den Paketen; nicht gleich hauen...), Anwendungen). Dann denken wir mal an SAN Systeme, schon mal ein Firmwareupdate auf einer SAN(-Farm) durchgeführt, man wird sehen die erwarteten Ausfallzeiten schmelzen einem dahin wie Eis in der Frühjahrssonne.