Home

EMC VSPEX End-User Computing Citrix

image

Contents

1. Inhalt Aufgaben vor der Bereitstellung 22222202sssssensnnnennnsesnnnnnsnnnnnennnnnnnnnnnnnennnnnn 104 BTE een een 104 Voraussetzungen f r die Bereitstellung u2usssserenenenensnneennensnnnenennnnnenn 105 Sammeln der Konfigurationsdaten des Kunden eereeeeenessesnenessnsnnnensennennnnnnenn 107 berblicke een 107 Vorbereiten der Switche Verbinden mit dem Netzwerk und Konfigurieren der SWit h Eses een 107 berblick isses nes 107 Vorbereiten der Netzwerk Switche ccsessessosnnsssensnsnnssnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnn 107 Konfigurieren des Infrastruktumetzwerks eeeeeeneeesensnsnenesensnnnnnennnnnnnnnnnennnennnne 108 Konfigurieren des Speichernetzwerks FC Variante eeeeeeeneeneesenenneeeenenneennn 109 Konfigurieren von VLANS eeeeeeeesesesssssssessnnnsnensnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnenen 109 Vervollst ndigen der Netzwerkverkabelung s sesssesssesesesesesesesesesesesesesss 110 Vorbereiten und Konfigurieren des SpeicherarraySs ueseeeeeeceeeeensnseennnensnnnnnennennnen 110 VNX Konfigur tion zscersesssncssnnnnnn snnsnanesnsnnen nk nenne nes 110 Provisioning von Kerndatenspeicher uussessssnsnnssssnsnnesnnnnnnnnnnnnnnnnnnnnnnnnnnene 111 Provisioning von optionalem Speicher f r Benutzerdaten uuceeeeseseneennnnn 117 Provisioning von optionalem Speicher f r virtuelle Infrastrukturmaschinen 119 Installieren und Konfigurieren von VMware vSphere Hosts eeeesssseses
2. 4 W hlen Sie im Men die Option Directory Service aus wie in Abbildungen 72 gezeigt EMC Avamar Client Manager Chent Information lt lt i Use W to select a source for client Information _Drecory Serce UZcreste Group EZShow Groupe ME Show Cients CSV fie Abbildungen 72 Avamar Men Activate Client Das Fenster Directory Service wird angezeigt in dem der Benutzer aufgefordert wird seine Anmeldedaten einzugeben dies setzt voraus dass ein Active Directory Service in Avamar konfiguriert wurde Zus tzliche Informationen zur Aktivierung des LDAP Managements finden Sie im Administrationshandbuch f r EMC Avamar 7 5 W hlen Sie eine Verzeichnisservice Domain aus der Liste User Domain aus wie in Abbildungen 73 gezeigt EMC VSPEX Anwender Computing 151 2 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration ar waau k manaygyI kd atma YA Server Iriormatioa 4904231 is eme i f n 4 y m X un m 7 Hect a source for chent information Fu Creste Domen Ei cresie Group DS Show Groups R Sapw Cents a Ff 0sg04221 ma emc com Fi enas Abbildungen 73 Konfiguration des Avamar Verzeichnisservices 6 Geben Sie die Anmeldedaten User Name und Password f r die Verzeichnisservice Authentifizierung ein 7 W hlen Sie eine Directory Domain aus um Clientinformationen abz
3. berblick In diesem Abschnitt finden Sie Informationen zum Einrichten und Konfigurieren der XenDesktop Controller f r die L sung F r eine Neuinstallation von XenDesktop empfiehlt Citrix dass Sie die folgenden Aufgaben in derin Tabellen 29 gezeigten Reihenfolge durchf hren Tabellen 29 Aufgaben f r die Einrichtung der XenDesktop Controller Aufgabe Beschreibung Referenz Erstellen virtueller Maschinen f r Erstellen Sie zwei virtuelle vSphere Administratorhandbuch XenDesktop Controller Maschinen in vSphere Client f r virtuelle Maschinen Diese virtuellen Maschinen werden als XenDesktop Delivery Controller verwendet 128 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Aufgabe Beschreibung Referenz Installieren des XenDesktop Controller Gastbetriebssystems f r Installieren Sie das Gastbetriebssystem Windows Server 2008 R2 oder Windows Server 2012 Installieren der serverseitigen Installieren Sie XenDesktop Citrix Website Komponenten von XenDesktop Serverkomponenten auf dem ersten Delivery Controller Installieren von Citrix Studio Installieren Sie Citrix Studio f r das Remotemanagement der XenDesktop Bereitstellung Konfigurieren eines Standorts Konfigurieren Sie einen Standort in Citrix Studio
4. euseersesnseeenenne 28 Flexibilit t der Rechnerebene ecssessnsssssesssssnnnensnnnnnnennnn 32 Beispiel eines Netzwerkdesigns mit hoher Verf gbarkeit 34 Fortschritt eines Speicherpoolausgleichs uussereeeneeeeenennn 37 Thin LUN Speicherplatzauslastung eeeeserensesesnsnnneneesnennennenen 38 berpr fen der Speicherplatzauslastung des Speicherpools 39 Definieren der Schwellenwerte f r die Speicherpoolauslastung40 Definieren automatisierter Benachrichtigungen f r Block 40 Authentifizierungssteuerungsvorgang f r XenDesktop Zugriffsanforderungen von einem externen Netzwerk 44 Der Authentifizierungssteuerungsvorgang f r XenDesktop Anforderungen aus einem lokalen Netzwerk 44 Logische Architektur VSPEX Anwender Computing f r Citrix XenDesktop mit RSA ueeresssensnsnsesessssnnnnnnnnnnnnnnssnsnnnnnnnnnnnnsnnnnnn 46 bergeordnete ShareFile Architektur ueesseesseeseessenseenseenseennenn 48 Logische Architektur VSPEX Anwender Computing f r Citrix XenDesktop mit ShareFile StorageZones uueeesensnneessnnneeeennnn 50 Logische Architektur f r NFS Variante eceeeeeesessesnsnsnneneeeennnnn 55 Logische Architektur f r FC Variante ceeeeeeeeeeeeeseeesseesnsnsesnnnnnnn 56 Speicherbelegung durch Hyperwvisor eesesesessnsnneeeessssnnnnnen nenn 67 Erforderliche Netzwerke eecsesesesssssssnnnnsnnnnennsnnnnnensnnnnnnnnnnnnn 70 Virtuelle VMware Laufwerktypen ccererereresesesenenenen
5. funktionieren deaktivieren Sie die redundanten Switching Infrastrukturen W hrend jede der Switching Infrastrukturen deaktiviert ist berpr fen Sie ob alle Komponenten der L sung die Verbindung miteinander und zu jeder vorhandenen Clientinfrastruktur aufrechterhalten c Aktivieren Sie auf einem vSphere Host der mindestens eine virtuelle Maschine enth lt den Wartungsmodus und berpr fen Sie ob die virtuelle Maschine erfolgreich zu einem alternativen Host migrieren kann 162 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Anhang A Materiallisten In diesem Anhang werden die folgenden Themen behandelt Materialliste f r 500 virtuelle Desktops 00000000000000000000000000ssnnnnnennnnnnnsnunee 164 Materialliste f r 1 000 virtuelle Desktops 0000000000000000000000000000000n00000000000 166 Materialliste f r 2 000 virtuelle Desktops 00000000000000000000000nnnnnsnnnnnnnnsnsnne 168 2 EMC VSPEX Anwender Computing 163 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Materialliste f r 500 virtuelle Desktops Tabellen 33 zeigt die in der VSPEX L sung f r 500 virtuelle Desktops verwendete Materialliste BOM Tabellen 33 Liste der Komponen
6. o Virtueller Desktop Virtueller Desktop N Nr 1 Nr n VMware vSphere 5 1 virtuelle Maschinen Desktops s aa BE o Active Directory xXenDesktop 7 SQL Server XenDesktop 7 amp DNS DHCP Controller N 1 Controller Nr 2 vGenter Server j a VMware vSphere 5 1 virtuelle Maschinen Infrastruktur VMware vSphere 5 1 Cluster 7 En 2 virtuelle Desktops VMware vSphere 5 1 Clusterinfrastruktur virtuelle Maschinen EMC VNX Speicherzentrum Speicherzentrum Nr 1 Nr 2 VMware vSphere 5 1 virtuelle Maschinen Eihernetnetzweik ShareFile StorageZones Speichemetzwerk VMware vSphere 5 1 Cluster SharefFile StorageZones virtuelle Maschinen Abbildungen 17 Logische Architektur VSPEX Anwender Computing f r Citrix XenDesktop mit ShareFile StorageZones Server F r eine Produktionsumgebung mit hoher Verf gbarkeit sind mindestens zwei Server virtuelle Maschinen erforderlich auf denen Storage Center installiert ist In Tabellen 3 werden die Anforderungen f r CPU und Arbeitsspeicher f r eine Implementierung von ShareFile StorageZones mit Storage Center zusammengefasst Tabellen 3 Minimale Hardwareressourcen zur Unterst tzung von SharefFile StorageZones mit Storage Center CPU Kerne Arbeitsspeicher GB Referenz 2 4 Storage Center Systemanforderungen auf der Citrix eDocs Website 50 EMC VSPEX Anwender Computing 2 Citrix XenDeskto
7. 1 Starten Sie jeden VNX Speicherprozessor erneut und berpr fen Sie ob die Verbindung zu VMware Datastores w hrend des Vorgangs aufrechterhalten wird F hren Sie die folgenden Schritte aus a Melden Sie sich bei der Control Station mit Administratorrechten an b Wechseln Sie zu nas sbin c Starten Sie den Speicherprozessor A SPA mithilfe des folgenden Befehls erneut navicli h spa rebootsp d berpr fen Sie w hrend des Neustartzyklus das Vorhandensein von Datastores auf vSphere Hosts e Starten Sie nach Abschluss dieses Zyklus den Speicherprozessor B SPB mithilfe des folgenden Befehls erneut navicli h spb rebootsp 2 F hren Sie ein Failover jedes VNX Data Mover durch und berpr fen Sie ob die Verbindung zu den VMware Datastores aufrechterhalten bleibt und Verbindungen zu den CIFS Dateisystemen wiederhergestellt werden Verwenden Sie der Einfachheit halber den folgenden Ansatz f rjeden Data Mover Verwenden Sie die Unisphere Oberfl che f r den Neustart a Geben Sie in der Eingabeaufforderung von Control Station folgenden Befehl an server cpu lt movername gt reboot wobei lt movername gt der Name des Data Mover ist 2 EMC VSPEX Anwender Computing 161 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 6 Validierung der L sung b Zum berpr fen ob die Netzwerkredundanzfunktionen erwartungsgem
8. Beschreibung Referenz Erstellen einer virtuellen Maschine f r SQL Server Erstellen Sie eine virtuelle Maschine zum Hosten von SQL Server berpr fen Sie ob der virtuelle Server die Hardware und Softwareanforderungen erf llt http msdn microsoft com Installieren von Microsoft Windows auf der virtuellen Maschine Installieren Sie Windows Server 2008 R2 Standard Edition auf der virtuellen Maschine die zum Hosten von SQL Server erstellt wurde http technet microsoft com Installieren von SQL Server Installieren Sie SQL Server auf der virtuellen Maschine die f r diesen Zweck vorgesehen ist http technet microsoft com Konfigurieren der Datenbank f r vCenter Erstellen Sie die f r den vCenter Server erforderliche Datenbank auf dem entsprechenden Datastore Konfigurieren einer Datenbank f r VMware vCenter Konfigurieren der Datenbank f r VMware Update Manager Erstellen Sie die f r Update Manager erforderliche Datenbank auf dem entsprechenden Datastore Konfigurieren der Datenbank f r VMware Update Manager Hinweis Die Kundenumgebung enth lt m glicherweise schon einen SQL Server der f r diese Funktion vorgesehen ist Informationen finden Sie in diesem Fall unter Konfigurieren einer Datenbank f r VMware vCenter Die Anforderungen f r den Prozessor den Speicher und das Betriebssystem sind je nach SQL Server Version unterschie
9. Kapitel 4 bersicht ber die L sungsarchitektur Raw Device Mapping VMware stellt einen Raw Device Mapping Mechanismus RDM bereit RDM erm glicht einer virtuellen Maschine den direkten Zugriff auf ein Volume auf den physischen Speichermedien und kann nur mit Fibre Channel oder iSCSI verwendet werden NFS VMware unterst tzt die Verwendung von NFS Dateisystemen aus externen NAS Speichersystemen oder Ger ten als Datastores von virtuellen Maschinen In dieser VSPEX L sung wird VMFS f r die FC Variante und NFS f r die NFS Variante verwendet Das Dimensionieren des Speichersystems um dem IOPS des virtuellen Servers zu entsprechen ist ein komplizierter Prozess Wenn I O das Speicherarray erreicht verarbeiten mehrere Komponenten wie der Data Mover f r dateibasierten Speichen SPs Back End DRAM Cache Dynamic Random Access Memory FAST Cache falls verwendet und Festplatten diese I O Kunden m ssen verschiedene Faktoren ber cksichtigen wenn sie ihr Speichersystem planen und skalieren um Kapazit t Performance und Kosten f r die Anwendungen auszugleichen VSPEX verwendet einen Bausteinansatz zur Reduzierung der Komplexit t Ein Baustein besteht aus mehreren Festplattenspindeln die eine bestimmte Anzahl virtueller Desktops in der VSPEX Architektur unterst tzen k nnen Jeder Baustein kombiniert mehrere Festplattenspindeln um einen Speicherpool zu erstellen der die Anforderungen der Anwender Computing Umgebung unterst
10. W hlen Sie die Tiering Policy auf der LUN Ebene aus dem Listenfeld Tiering Policy aus Unter Tier Details wird die derzeitige Verteilung von Slices innerhalb der LUN angezeigt Wenn der f r die virtuellen Infrastrukturmaschinen das hei t SQL Server Domain Controller vCenter Server und XenDesktop Controller erforderliche Speicher in der Produktionsumgebung noch nicht vorhanden ist und die optionale Benutzerdatenspindel erworben wurde konfigurieren Sie ein NFS Dateisystem auf der VNX das als NFS Datastore verwendet wird in dem sich die virtuelle Infrastrukturmaschine befindet Wiederholen Sie die unter Provisioning von Speicher f r NFS Datastores nur NFS Variante gezeigten Konfigurationsschritte um den optionalen Speicher bereitzustellen und ber cksichtigen Sie dabei die kleinere Anzahl von Laufwerken Anstatt 10 20 oder 40 Laufwerke f r den Desktoppool zu verwenden sollte der Infrastrukturpool aus f nf Laufwerken bestehen wie in Abbildungen 25 Abbildungen 28 und Abbildungen 31 dargestellt EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 119 Kapitel 5 Richtlinien zur VSPEX Konfiguration Installieren und Konfigurieren von VMware vSphere Hosts berblick Installieren von vSphere Konfigurieren des vSphere Netzwerks In diesem Abschnitt werden Informationen zur Installation und Konfiguration von vSphere Ho
11. 123 Dialogfeld Configure Bootstrap erenenensnneeeessssnnnnnnnnnnenenennn 133 Konfigurieren der Windows Ordnerumleitung 137 Erstellen einer Windows Netzwerklaufwerkzuordnung f r Benutzerdateien ann ee 138 Konfigurieren der Einstellungen f r die Laufwerkzuordnung 138 Konfigurieren der gemeinsamen Einstellungen f r die Laufwerkzuordnung ueseseseseseseneneesnenensnsnsnsnnnsnnnsnnnnnnnnnnnnnnnnn 139 Erstellen einer Windows Netzwerklaufwerkzuordnung f r Benutzerprofildaten eeeseseneneneesnseensnensnsnsnsnsnnnsnsnnnnnnenenenene 139 Das Avamar Men ToolS eeueseesessssnsnnnsnnennessnsnnnnnnnnnnnnnnnnnnn 141 Das Avamar Dialogfeld Manage All Datasets eeeeeeeeeeeeeenee 141 Das Avamar Dialogfeld New Dataset ueeeeeeeeeeeeseeeseensnsnsenene 141 Konfigurieren der Einstellungen f r das Avamar Dataset 142 Dataset f r Benutzerprofildaten eeenseseesesessssnnnnnnneeeeenenn 143 Ausschlusseinstellungen f r das Benutzerprofildaten Dataset143 Dataset View User Profile Einstellungen f r Options 144 Abbildungen 61 Dataset View User Profile Einstellungen f r Advanced Options144 Abbildungen 62 Standardplanung f r Backup Wartungszeitfenster von Ayamar145 Abbildungen 63 Ge nderte Planung f r Backup Wartungszeitfenster in Ayamar146 Abbildungen 64 Erstellen einer neuen Avamar Backup Gruppe uesesereseeenen 147 Abbildungen 65 Neue Backup Gruppeneinstellungen
12. Administrator SQL Server Administrator 2 EMC VSPEX Anwender Computing 173 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang B Datenblatt f r die Kundenkonfiguration 174 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang C Quellennachweise Anhang C Quellennachweise In diesem Anhang werden die folgenden Themen behandelt Q uellennachweise usaschscuiniiinehnsiinhunueinsunichihlen 176 2 EMC VSPEX Anwender Computing 175 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang C Quellennachweise Quellennachweise EMC Die folgenden Dokumente auf der EMC Online Support Website enthalten weitere Dokumentation und relevante Informationen Der Zugriff auf diese Dokumente h ngt von Ihren Anmeldedaten ab Falls Sie auf ein Dokument nicht zugreifen k nnen wenden Sie sich an Ihren EMC Vertriebsmitarbeiter e EMC Infrastruktur f r Citrix XenDesktop 7 EMC VNX Serie NFS und FO Citrix XenDesktop 7 und VMware vSphere 5 1 Referenzarchitektur e EMC Infrastruktur f r Citrix XenDesktop 5 6 EMC VNX Serie NFS VMware vSphere 5 0 Citrix XenDesktop 5 6 und Citrix Profile Manager 4 1 Referenzarchitektur e EMC In
13. EMC FAST VP EMC FAST VP ist Teil der EMC FAST Suite und bietet automatisches Daten Tiering optional ber mehrere Laufwerkstypen um die Unterschiede in Performance und Kapazit t zu nutzen FAST VP kommt auf der Poolebene des Blockspeichers zum Einsatz und regelt automatisch wo Daten gespeichert werden Dies geschieht auf der Grundlage der H ufigkeit der Zugriffe auf diese Daten H ufig verwendete Daten werden in 256 MB Bl cken auf h here Speicherebenen hochgestuft w hrend selten abgerufene Daten aus Gr nden der Kosteneffizienz auf eine niedrigere Tier migriert werden k nnen Dieser Ausgleich in 256 MB gro en Dateneinheiten oder Segmenten findet im Rahmen eines regelm igen Wartungsvorgansgs statt VNX In vielen Umgebungen ist es wichtig einen allgemeinen Speicherort zum Dateifreigaben Speichern von Dateien zu haben auf die viele verschiedene Personen zugreifen Dies wird als CIFS oder NFS Dateifreigaben von einem Dateiserver implementiert Die VNX Speicherarrays k nnen diesen Service zusammen mit dem zentralen Management der Clientintegration erweiterten Sicherheitsoptionen und Funktionen zur Verbesserung der Effizienz bereitstellen Weitere Informationen finden Sie im Dokument Konfiguration und Management von CIFS auf VMX EMC VSPEX Anwender Computing 41 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber
14. Festplattenlaufwerke HDDs und SSDs Die deutlichen Performanceverbesserungen in der VNX basieren auf der Modularisierung der Back End Datenmanagementverarbeitung die MCx eine nahtlose Skalierung ber alle Prozessoren erm glicht VNX Performance Performanceverbesserungen VNX Speicher mit der MCx Architektur ist f r FLASH 1 optimiert und bietet eine beispiellose Gesamtperformance durch Optimierung der Transaktionsperformance Kosten pro IOPS und der Bandbreitenperformance Kosten pro GB s mit niedriger Latenz sowie durch eine optimale Kapazit tseffizienz Kosten pro GB VNX bietet die folgenden Performanceverbesserungen e Bis zu viermal mehr Dateitransaktionen im Vergleich zu Arrays mit zwei Controllern e Um bis zu dreimal bessere Dateiperformance f r Transaktionsanwendungen z B Microsoft Exchange auf VMware ber NFS mit einer um 60 Prozent besseren Reaktionszeit e Bis zu viermal mehr Oracle und Microsoft SQL Server OLTP Transaktionen e Bis zu sechsmal mehrvirtuelle Maschinen Active Active Array Speicherprozessoren Die neue VNX Architektur stellt Active Active Arrayspeicherprozessoren bereit wie in Abbildungen 2 gezeigt Hierdurch werden Anwendungs Timeouts w hrend eines Pfad Failovers vermieden da beide Pfade I Os aktiv verarbeiten Aktiv Passiv Aktiv Aktiv Aktiv Aktiv Symmetrisch ALUA Nur ein SP bedient lOs ber eine Die LUN wird f r beide SP Pfade ber Beide SPs verarbeiten lOs in beide
15. 2 Installieren Sie entsprechende Integrationstools wie VMware Tools 3 Optimieren Sie die Betriebssystemeinstellungen mithilfe des folgenden Dokuments Optimierungshandbuch f r Citrix Windows 7 f r die Desktopvirtualisierung 4 Installieren Sie den Virtual Desktop Agent 5 Installieren Sie Drittanbietertools oder anwendungen wie Microsoft Office die f r Ihre Umgebung relevant sind Provisioning von Gehen Sie wie folgt vor um MCS basierte virtuelle Desktops in Citrix Studio virtuellen bereitzustellen Desktops 1 Erstellen Sie einen Maschinenkatalog und verwenden Sie die virtuelle Master Maschine als Basis Image MCS erm glicht die Erstellung eines Maschinenkatalogs der verschiedene Arten von Desktops enth lt Die folgenden Arten von Desktops wurden in dieser L sung getestet Windows Desktop Betriebssystem Zuf llig Benutzer verbinden sich bei jeder Anmeldung mit einem neuen zuf llig ausgew hlten Desktop Personal vDisk Benutzer verbinden sich bei jeder Anmeldung mit demselben statischen Desktop nderungen werden auf einem separaten Personal vDisk gespeichert Windows Server Betriebssystem Stellt gehostete gemeinsam genutzte Desktops f r eine umfangreiche Bereitstellung standardisierter Maschinen zur Verf gung 2 F gen Sie die im Katalog erstellten Maschinen einer Liefergruppe hinzu damit die virtuellen Desktops f r Anwender zur Verf gung stehen 130 EMC VSPEX Anwender Computin
16. Abbildungen 63 zeigt ge nderte Backup Blackout und Wartungszeitfenster f r das Backup von ber Citrix XenDesktop bereitgestellten virtuellen Desktops A Manage All Schedules Schedides Maintenance Window Backup Window Start Time 8 00 AM wi Time Zone AmericaNew_York ur Backup Window Duration 12 Hours bd Blackout Window Duration f3 Hours Backup Maintenance Windows 1200AM 300AM S00AM GLOCAM tZOOPM 300PM SSOPM DODPM 1200 AM Abbildungen 63 Ge nderte Planung f r Backup Wartungszeitfenster in Avamar Damit die Planung wie oben gezeigt angepasst wird ndern Sie die Option Backup Window Start Time von 20 00 in 08 00 Klicken Sie auf OK um die Anderungen zu speichern Zus tzliche Informationen zu Wartungsaufgaben von Avamar Servern finden Sie im Administrationshandbuch f r EMC Avamar 7 Definieren von Mit Avamar Backup Aufbewahrungs Policies k nnen Sie angeben wie lange ein Aufbewahrungs Backup im System aufbewahrt werden soll Eine Aufbewahrungs Policy wird Policies jedem Backup w hrend des Backup Vorgangs zugewiesen Geben Sie eine benutzerdefinierte Aufbewahrungs Policy an um ein Backup nach Bedarf durchzuf hren oder erstellen Sie eine Aufbewahrungs Policy die w hrend eines geplanten Backups automatisch einer Gruppe von Clients zugewiesen wird Wenn die Aufbewahrung f r ein Backup abgelaufen ist wird das Backup automatisch zum L schen gekennzeichnet Das L schen erfolgt in Batches zu Z
17. Anhang A Materiallisten Materialliste f r 2 000 virtuelle Desktops Tabellen 35 enth lt die in der VSPEX L sung f r 2 000 virtuelle Desktops verwendeten Komponenten Tabellen 35 Liste der Komponenten f r 2 000 virtuelle Desktops Komponente L sung f r 1 000 virtuelle Desktops VMware vSphere CPU Desktopbetriebssystem Server e 1vCPU pro virtuellem Desktop e 8 virtuelle Desktops pro physischem Kern e 2 000 vCPUs e Mindestens 250 physische Kerne Serverbetriebssystem e 0 2 vCPUs pro virtuellem Desktop e 5 virtuelle Desktops pro physischem Kern e 400 vCPUs e Mindestens 400 physische Kerne Arbeitsspeicher Desktopbetriebssystem e 2 GB RAM pro Desktop e Mindestens 4 TB RAM Serverbetriebssystem e 0 6 GB RAM pro Desktop e Mindestens 1 2 TB RAM Netzwerk FC Option 2 4 8 GB FC HBAs pro Server Netzwerk 1 Gbit 6 1 GbE NICs pro Server Option Netzwerk 10 Gbit 3 10 GbE NICs pro Blade Geh use Option Hinweis Zur Implementierung der vSphere HA Funktion und zur Erf llung der aufgelisteten Mindestwerte sollte die Infrastruktur ber mindestens einen zus tzlichen Server verf gen Netzwerkinfrastruktur FC e 2 physische Switche e 2 1 GbE Ports pro vSphere Server e 44 8 Gbit FC Ports f r VNX Back End 2 pro SP e 24 8 Gbit FC Ports pro vSphere Server 1 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 6 1 GbE Ports pro vSphere
18. Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung
19. LUN interne Verbindungen dargestellt Richtungen f r eine bestimmte LUN Der brige SP fungiert als Ersatz Aber nur ein SP verarbeitet 1O aktiv in Performancesteigerung um das bis zu Richtung Back End Zweifsche Abbildungen 2 Active Active Prozessoren verbessern Performance Ausfallsicherheit und Effizienz Auch der Lastenausgleich wird verbessert und die Anwendungsperformance l sst sich bis um das Zweifache steigern Active Active f r Block ist ideal f r Anwendungen die am meisten Verf gbarkeit und Performance erfordern aber kein Tiering oder Effizienzservices wie Komprimierung Deduplizierung oder Snapshots ben tigen 22 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung 2 EMC Kapitel 2 L sungs berblick Um Dateisysteme automatisch und extrem schnell zwischen Systemen zu migrieren stehen bei dieser VNX Version virtuelle Data Movers VDMs und VNX Replicator zur Verf gung Bei diesem Prozess werden alle Snapshots und Einstellungen automatisch migriert und Kunden k nnen w hrend der Migration den Betrieb weiter fortf hren Hinweis Die Active Active Prozessoren sind nur f r klassische Logical Unit Numbers LUNs verf gbar nicht f r Pool LUNs Unisphere Management Suite Die EMC Unisphere Management Suite erweitert die benutzerfreundliche Schnittstelle von Unisphere um VNX Monitoring
20. Logische Architektur f r NFS Variante EMC VNX Serie Hinweis Die Netzwerkkomponenten der L sung k nnen mit 1 Gbit oder 10 Gbit IP Netzwerken implementiert werden sofern gen gend Bandbreite und Redundanz f r die genannten Anforderungen zur Verf gung stehen 2 EMC VSPEX Anwender Computing 55 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Abbildungen 19 zeigt die logische Architektur der FC Variante bei der der Speicherdatenverkehr ber ein Fibre Channel SAN und der Netzwerkdatenverkehr berein 10 GbE Netzwerk erfolgt Desktopbenutzer ICA Clients Virtueller Desktop Virtueller Desktop r 1 Nr n VMware vSphere 5 1 virtuelle Desktops lt S EE a AD DNS XenDesktop7 SQL PVS Server XenDesktop 7 vCenter PVS Server DHCP Controller Nr 1 Server Nr 1 Controller Nr 2 Server Nr 2 Virtuelle VMware vSphere 5 1 Server i VMware vSphere 5 1 Cluster F virtuelle Desktops c C VMware vSphere 5 1 Clusterinfrastruktur Fibre Channel Speichernetzwerk 10 Gbit Ethernetnetzwerk EMC VNX Serie Abbildungen 19 Logische Architektur f r FC Variante Hinweis Die Netzwerkkomponenten der L sung k nnen mit 1 Gbit oder 10 Gbit IP Netzwerken implementiert werden sofern gen gend Bandbreite und Redundanz f r die genannten Anforderungen zur Verf g
21. Power Bus A o Power BusB Abbildungen 33 Redundante Netzteile EMC empfiehlt die hohe Verf gbarkeit auf der Virtualisierungsebene zu konfigurieren Das bedeutet dass die Rechnerebene mit ausreichend Ressourcen konfiguriert werden muss damit die insgesamt verf gbaren Ressourcen die Anforderungen der Umgebung erf llen selbst bei einem Serverausfall Dies wird in Abbildungen 32 dargestellt Netzwerkebene Die erweiterten Netzwerkfunktionen der VNX Serie bieten Schutz vor Netzwerkverbindungsausf llen auf dem Array Jeder vSphere Host verf gt ber mehrere Verbindungen zu Ethernet Benutzer und Speichernetzwerken um vor Link Ausf llen zu sch tzen Wie in Abbildungen 34 gezeigt sollten diese Verbindungen ber mehrere Ethernet Switche verteilt werden sodass das Netzwerk vor Komponentenausf llen gesch tzt ist 2 EMC VSPEX Anwender Computing 87 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Server stellt eine Verbindung zu mehreren Switches her Data Mover aktiv Data Mover Stand by Jeder Data Mover stellt eine Verbindung zu mehreren Switches her Switches sind miteinander verbunden Abbildungen 34 Hohe Verf gbarkeit f r die Netzwerkebene Wenn die Netzwerkebene keine Single Points of Failure enth lt k nnen Sie daf r sorgen dass
22. Speicherplatz der redundanten Kopien freigeben und so die Gesamtarbeitsspeicherbelegung durch die Hosts reduzieren Wenn die meisten Ihrer virtuellen Maschinen f r Anwendungen unter demselben Betriebssystem und mit denselben Anwendungsbin rdateien ausgef hrt werden kann die gesamte Arbeitsspeicherbelegung gesenkt werden um die Konsolidierungsraten zu erh hen Arbeitsspeichererweiterung Ballooning Der Hypervisor kann mithilfe eines Erweiterungstreibers der im Gastbetriebssystem geladen wird physischen Hostarbeitsspeicher freisetzen wenn die Speicherressourcen knapp werden Dies wirkt sich nicht oder nur wenig auf die Performance der Anwendung aus Richtlinien f r die Dieser Abschnitt enth lt Richtlinien f r die Zuteilung von Arbeitsspeicher f r Arbeitsspeicherko virtuelle Maschinen Die an dieser Stelle erl uterten Richtlinien ber cksichtigen nfiguration den vSphere Arbeitsspeicher Overhead und die Speichereinstellungen der virtuellen Maschine vSphere Arbeitsspeicher Overhead Die Virtualisierung der Speicherressourcen ist mit Overhead verbunden Der Arbeitsspeicher Overhead setzt sich aus zwei Komponenten zusammen e Fester System Overhead f r den VMkernel e Zus tzlicher Overhead f r jede einzelne virtuelle Maschine Die Menge des zus tzlichen Overhead Speichers f r den VMkernel ist konstant f r die einzelnen virtuellen Maschinen h ngt er dagegen von der Anzahl der virtuellen CPUs und dem konfigurierten Arbeits
23. achten Sie darauf dass das Ziellayout dem System dieselben oder mehr Ressourcen zur Verf gung stellt P EMC VSPEX Anwender Computing 95 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Backup In der L sung sind die Anforderungen an den Backup Speicher zu Beginn und bei Ressourcen Wachstum und an die Aufbewahrung des Systems dargestellt Zus tzliche Informationen k nnen f r die weitere Dimensionierung von Avamar gesammelt werden darunter Bandausgabeanforderungen RPO und RTO Details sowie Replikationsanforderungen in Umgebungen mit mehreren Standorten Erweitern Die VSPEX L sung f r Anwender Computing basiert auf einem flexiblen vorhandener Implementierungsmodell das eine einfache Erweiterung der Umgebung VSPEX Anwender erm glicht wenn Ihre gesch ftlichen Anforderungen sich ndern Computing F r umfangreichere Implementierungen k nnen die unterschiedlichen im Umgebungen Rahmen dieser L sung vorgestellten Bausteinkonfigurationen miteinander kombiniert werden Sie k nnen beispielsweise die Konfiguration f r 1 000 Desktops implementieren indem Sie entweder gleich mit dieser Konfiguration beginnen oder sich zun chst f r die Konfiguration f r 500 Desktops entscheiden und diese dann bei Bedarf erweitern Ebenso kann die Konfiguration f r 2 000 Desktops entweder sofort oder durch allm
24. berpr fungen Mit StorageZones erstellen Sie ein privates Speichersubsystem f r Ihre Sharefile Daten F r eine ShareFile Produktionsbereitstellung sollten Sie mindestens zwei Server verwenden auf denen Storage Center f r hohe Verf gbarkeit installiert ist Mit der Installation von Storage Center erstellen Sie eine StorageZone Anschlie end k nnen Sie Storage Center auf einem weiteren Server installieren und diesen mit derselben StorageZone verbinden F r Storage Centers die zur selben StorageZone geh ren muss dieselbe Dateifreigabe als Speicher verwendet werden Verwenden von In diesem Abschnitt wird das VSPEX Anwender Computing f r eine XenDesktop StorageZones mit Umgebung mit zus tzlicher Infrastruktur zur Unterst tzung von StorageZones mit VSPEX Storage Center beschrieben wie in Abbildungen 17 gezeigt Bei der Architekturen Serverkapazit t werden die erforderlichen Mindestwerte f r CPU und Arbeitsspeicher im Allgemeinen angegeben Es steht Ihnen frei eine Server und Netzwerkhardware auszuw hlen die die angegebenen Mindestwerte erf llt oder bertrifft Der empfohlene Speicher bietet eine Architektur mit hoher Verf gbarkeit f r Ihre StorageZones Bereitstellung 2 EMC VSPEX Anwender Computing 49 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Desktopbenutzer ICA Clients a ii
25. hliche Erweiterung der Speicherressourcen bei Bedarf implementiert werden Zusammenfassung EMC betrachtet die in der Referenzarchitektur angegebenen Anforderungen als die der Mindestressourcen die f r die Verarbeitung der erforderlichen Workloads Implementierung basierend auf der angegebenen Definition eines virtuellen Referenz Desktops erforderlich sind In einer Kundenimplementierung ndert sich die Last eines Systems im Laufe der Zeit abh ngig davon wie Benutzer mit dem System interagieren Wenn die virtuellen Desktops des Kunden sich jedoch deutlich von der Referenzdefinition unterscheiden und in derselben Ressourcengruppe variieren m ssen Sie dem System m glicherweise mehr von dieser Ressource hinzuf gen Schnelle Evaluierung Arbeitsblatt Eine Bewertung der Kundenumgebung tr gt mit dazu bei die richtige VSPEX L sung zu implementieren Dieser Abschnitt enth lt ein benutzerfreundliches Arbeitsblatt um die Dimensionierungsberechnungen zu vereinfachen und Sie bei der Bewertung der Kundenumgebung zu unterst tzen Fassen Sie zun chst die Benutzertypen zusammen die Sie in die VSPEX Umgebung f r Anwender Computing migrieren m chten Legen Sie f r jede Gruppe die Anzahl der virtuellen CPUs Arbeitsspeicher erforderliche Speicherperformance erforderliche Speicherkapazit t und die Anzahl der aus dem Ressourcenpool erforderlichen virtuellen Referenzdesktops fest Im Abschnitt Anwenden der Referenz Workload werden Beispiele
26. tzt Derzeit gibt es drei auf VNX Serien berpr fte Bausteine 500 1 000 und 2 000 Desktops die eine flexible L sung f r die VSPEX Dimensionierung bieten Tabellen 11 f hrt die Anzahl der f r unterschiedliche Konfigurationen erforderlichen Laufwerke auf wobei Hot Spare Anforderungen nicht ber cksichtigt werden Hinweis Wenn die Konfiguration mit dem 500 Desktopbaustein f r MCS begonnen wird kann sie auf den 1 000 Desktopbaustein erweitert werden indem zehn SAS Laufwerke hinzugef gt werden und Pool Restriping zugelassen wird Detaillierte Informationen zur Poolerweiterung und zum Restriping finden Sie im White Paper EMC VNX Virtual Provisioning Applied Technology Tabellen 11 Anzahl der erforderlichen Laufwerke f r verschiedene virtuelle Desktop Konfigurationen EMC Virtuelle Plattformen Flashlaufwerke SAS Laufwerke SAS Laufwerke SAS Laufwerke SAS Laufwerke Desktops FAST Cache PVS Non PvD PVS PvD MCS Non PvD MCS PvD 500 VNX5400 2 13 21 10 13 1 000 VNX5400 2 21 37 20 26 2 000 VNX5600 4 37 69 40 52 Validierte Die Konfigurationen f r das VSPEX Anwender Computing werden auf den Maximalwerte f r Plattformen VNX5400 und VNX5600 validiert Jede Plattform hat andere VSPEX Anwender Kapazit ten im Hinblick auf Prozessoren Speicher und Festplatten F r jedes Computing Array gibt es eine empfohlene maximale VSPEX Anwender Computing Konfiguration Wie in
27. verwendet von vCenter XenDesktop und PVS Installieren und Konfigurieren der SQL Server Datenbank 10 Installieren und Konfigurieren von vCenter und des Netzwerks der virtuellen Maschine Installieren und Konfigurieren des VMware vCenter Servers 11 Einrichten von XenDesktop Controller Installieren und Konfigurieren des XenDesktop Controllers 12 Testen und Installieren der L sung Kapitel 6 Validierung der L sung Aufgaben vor der Bereitstellung berblick Zu den Aufgaben vor der Bereitstellung z hlen Verfahren die nicht direkt mit der Installation und Konfiguration der Umgebung zusammenh ngen sondern deren Ergebnisse zum Zeitpunkt der Installation ben tigt werden Zu den Aufgaben vor der Bereitstellung geh ren das Erfassen von Hostnamen IP Adressen IDs der virtuellen LANs Lizenzschl sseln Installationsmedien und so weiter Diese Aufgaben sollten vor dem Besuch beim Kunden durchgef hrt werden wie in Tabellen 22 dargestellt um die vor Ort erforderliche Zeit zu verk rzen 104 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Tabellen 22 Aufgaben vor der Bereitstellung Aufgabe Beschreibung Referenz Sammeln von Dokumenten Sammeln Sie die in den Referenzen aufgelisteten relevanten Dokumente Di
28. wenn er ben tigt wird und damit Kapazit tsengp sse vermieden werden k nnen Abbildung 9 erl utert warum das Provisioning mit Thin Pools berwacht werden muss berbelegte Kapazit t Zugewiesene Kapazit t Gesamtkapazit t Belegungsschwellenwert Abbildungen 9 Thin LUN Speicherplatzauslastung berwachen Sie die folgenden Werte bez glich der Nutzung von Thin Pools e Gesamtkapazit t ist die gesamte physische Kapazit t die allen LUNs im Pool zur Verf gung steht e Gesamtzuweisung ist die gesamte physische Kapazit t die aktuell allen LUNs im Pool zugewiesen ist e Abonnierte Kapazit t ist die gesamte vom Host gemeldete Kapazit t die vom Pool unterst tzt werden e berlastete Kapazit t ist die Menge der Benutzerkapazit t die f r LUNs konfiguriert wird und die physische Kapazit t in einem Pool berschreitet Die Gesamtzuweisung darf die Gesamtkapazit t nie berschreiten aber wenn sie sich diesem Punkt n hert f gen Sie den Pools proaktiv Speicher hinzu bevor ein fester Grenzwert erreicht wird 38 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Abbildungen 10 zeigt das Dialogfeld Storage Pool Properties in Unisphere in dem Parameter wie Free Percent Full Total Allocation und Total Subscription f r die physische Ka
29. 38 Abbildungen 39 Abbildungen 40 Abbildungen 41 Abbildungen 42 Abbildungen 43 Abbildungen 44 Abbildungen 45 Abbildungen 46 Abbildungen 47 Abbildungen 48 Abbildungen 49 Abbildungen 50 Abbildungen 51 Abbildungen 52 Abbildungen 53 Abbildungen 54 Abbildungen 55 Abbildungen 56 Abbildungen 57 Abbildungen 58 Abbildungen 59 Abbildungen 60 Hohe Verf gbarkeit f r die Netzwerkebene uuseersesneeeseeenne 88 Hohe Verf gbarkeit der VNX Serie eensssssseesssssnnnensnnenneennnn 89 Beispiel Ethernetnetzwerkarchitektur ecesnneesssssesssssonserens 108 Beispiel f r eine Fibre Channel Netzwerkarchitektur 109 Alle Data Mover Parameter anzeigen zuueseseseeenseeneesnsnsnsennnn 113 nthread Parameter festlegen unesesssssssesesnsnsesnsnsnsnnnsnnnsnnnnn 114 Dialogfeld Storage System Properties eesesessnsesssnsneeneeenenn 115 Dialogfeld Create FAST Cache reeeesssssnsnessssnsnnnnnnnennneennenn 115 Aktivieren von FAST Cache im Dialogfeld Create Storage Pool116 Konfigurieren von FAST Cache im Dialogfeld Storage Pool Properties ssorneisrssireires intier stris sern sse E EE EEE NiS 116 Fenster Storage Pool Properties cesonsessonsssssssnsnnnsssonsonnenens 117 Dialogfeld Manage Auto Tiering uereeeeeneeeeeseesnsnenensnsnsnnnnnne 118 Das Fenster LUN Properties Tiering enseseesesessesnnnnnsneeeeenenn 119 Arbeitsspeichereinstellungen f r virtuelle Maschinen
30. Anbieters Konfigurieren des Speichernetzwerks FC Variante Konfigurieren Sie die Fibre Channel Switch Ports das Zoning f r vSphere Hosts und das Speicherarray Konfigurationsleitfaden Ihres Switch Anbieters Konfigurieren von VLANs Konfigurieren Sie private und ffentliche VLANs nach Bedarf Konfigurationsleitfaden Ihres Switch Anbieters Vervollst ndigen der Netzwerkverkabelung e Verbinden Sie die Switch Verbindungsports e Verbinden Sie die VNX Ports e Verbinden Sie die vSphere Serverports Konfigurationsleitfaden Ihres Anbieters F r eine Performance und hohe Verf gbarkeit auf validiertem Niveau ist f r die L sung die Switching Kapazit t erforderlich die in der Tabelle zur L sungshardware aufgef hrt ist Tabellen 5 auf Seite 59 Wenn die Anforderungen durch die vorhandene Infrastruktur erf llt werden ist keine Installation neuer Hardware erforderlich EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Konfigurieren des Das Infrastrukturnetzwerk erfordert redundante Netzwerkverbindungen f r jeden Infrastruktur vSphere Host das Speicherarray die Switch Verbindungsports und die Switch netzwerks Uplink Ports Diese Konfiguration stellt sowohl Redundanz als auch zus tzliche Netzwerkbandbreite bereit Diese Konfigurat
31. Ausfall einer Verbindung sich nicht auf die Verf gbarkeit des Systems auswirkt Das Netzwerk muss so ausgelegt sein dass die bei einem Ausfall verf gbare gesamte Bandbreite ausreicht um die gesamte Workload zu unterst tzen Speicherressourcen Die Referenzarchitekturen enthalten Layouts f r die Festplatten die bei der Validierung des Systems verwendet wurden Bei jedem Layout wurde die verf gbare Speicherkapazit t auf die Performance Funktionen der Laufwerke abgestimmt Einige Ebenen m ssen bei der Untersuchung der Speicherdimensionierung in die berlegungen einbezogen werden Insbesondere verf gt das Array ber eine Sammlung von Festplatten die einem Speicherpool zugewiesen sind Von diesem Speicherpool k nnen Sie Datastores f r das vSphere Cluster bereitstellen Jede Ebene verf gt ber eine bestimmte Konfiguration die f r die L sung definiert und in Kapitel 5 dokumentiert wurde Normalerweise ist es m glich einen Laufwerkstyp durch einen anderen mit mehr Kapazit t bei gleichen Performance Eigenschaften oder durch einen Typ mit h herer Performance und der gleichen Kapazit t zu ersetzen Ebenso spricht nichts dagegen die Anordnung der Laufwerke in den Laufwerkseinsch ben zu ndern wenn dies durch aktualisierte oder neue Laufwerkseinschubanordnungen erforderlich ist Wenn Sie von der vorgeschlagenen Anzahl und dem empfohlenen Typ der angegebenen Laufwerke oder den angegebenen Pool und Datastore Layouts abweichen m ssen
32. Avamar au 135 Zusammenfassung zu aka 157 2 EMC VSPEX Anwender Computing 103 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Bereitstellungsprozess berblick In Tabellen 21 werden die Phasen der L sungsbereitstellung beschrieben Nach Abschluss der Bereitstellung kann die VSPEX Infrastruktur in die vorhandene Netzwerk und Serverinfrastruktur des Kunden integriert werden Tabellen 21 bersicht ber den Bereitstellungsprozess Bereitstellen Beschreibung Referenz 1 berpr fen der Voraussetzungen Aufgaben vor der Bereitstellung 2 Beschaffen der Bereitstellungstools Aufgaben vor der Bereitstellung 3 Sammeln der Konfigurationsdaten des Kunden Aufgaben vor der Bereitstellung Rack Montage und Verkabeln der Komponenten Dokumentation des Anbieters Konfigurieren der Switche und Netzwerke Verbinden mit dem Kundennetzwerk Vorbereiten der Switche Verbinden mit dem Netzwerk und Konfigurieren der Switche Installieren und Konfigurieren von VNX Vorbereiten und Konfigurieren des Speicherarrays Konfigurieren der Datastores der virtuellen Maschinen Vorbereiten und Konfigurieren des Speicherarrays Installieren und Konfigurieren der Server Installieren und Konfigurieren des VMware vCenter Servers Einrichten von SQL Server
33. Avamar Client f r Windows auf Image f r Avamar Avamar Client so dass erim VMware Horizon View Benutzermodus ausgef hrt wird Technische Hinweise 2 EMC VSPEX Anwender Computing 135 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Aufgabe Beschreibung Referenz Vorbereiten von Avamar Definieren von Datasets Erstellen und konfigurieren Sie Avamar Datasets zur Unterst tzung von Benutzerdateien und profilen Definieren der Planungen Erstellen und konfigurieren Sie einen Avamar Backupplan um Backups der virtuellen Desktops zu unterst tzen Anpassen der Wartungsfensterplanung ndern Sie die Wartungszeitfensterplanung um Backups der virtuellen Desktops zu unterst tzen Definieren von Aufbewahrungs Policies Erstellen und konfigurieren Sie die Avamar Aufbewahrungs Policy Erstellen der Gruppe und der Gruppen Policy Erstellen und konfigurieren Sie die Avamar Gruppe und Gruppen Policy e Administratorhandbuch f r EMC Avamar 7 e Betriebliche Best Practices f r EMC Avamar 7 Nach der Desktopbereitstellung Aktivieren von Clients Desktops Aktivieren Sie ber Citrix XenDesktop bereitgestellte virtuelle Desktops mithilfe von Avamar Enterprise Manager Administratorhandbuch f r EMC Avamar7 GPO Erg nzung
34. Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 6 Validierung der L sung Checkliste nach der Installation berpr fen Sie vor der produktiven Bereitstellung die folgenden kritischen Konfigurationspunkte auf jedem vSphere Server e DervSwitch der die Client VLANs hostet ist mit ausreichend Ports konfiguriert um die maximale Anzahl virtueller Maschinen aufzunehmen die er hosten kann e Alle erforderlichen virtuellen Maschinenportgruppen sind konfiguriert und jeder Server kann auf die erforderlichen VMware Datastores zugreifen e Eine Oberfl che f r vMotion wurde nach den Empfehlungen im Handbuch f r vSphere Netzwerk ordnungsgem konfiguriert Weitere Informationen finden Sie in Anhang C dieses Handbuchs Bereitstellen und Testen eines einzigen virtuellen Desktops Zum berpr fen des Betriebs der L sung m ssen Sie eine virtuelle Maschine bereitstellen um berpr fen zu k nnen ob das Verfahren erwartungsgem abgeschlossen wird Pr fen Sie ob die virtuelle Maschine der richtigen Dom ne beitritt Zugriff zu den erwarteten Netzwerken hat und sich anmelden kann berpr fen der Redundanz der L sungskomponenten Testen Sie bestimmte Szenarien die f r die Wartung oder Hardwareausf lle relevant sind um zu berpr fen ob die verschiedenen Komponenten der L sung die Verf gbarkeitsanforderungen erf llen
35. Configuration gt Storage Pools d W hlen Sie die Registerkarte Pools aus e Klicken Sie auf Create 2 Erstellen Sie im Blockspeicherpool 2 4 oder 8 LUNs von jeweils 2 TB 2 LUNs f r 500 virtuelle Desktops 4 LUNs f r 1 000 virtuelle Desktops oder 8 LUNs f r 2 000 virtuelle Desktops f r die MCS Non PvD Konfiguration und stellen Sie diese den vShpere Servern als VMFS Datastores bereit F r andere MCS oder PVS Konfigurationen lesen Sie die Richtlinien zur Speicherkonfiguration um die richtige LUN Gr e auszuw hlen a Wechseln Sie zu Storage gt LUNs b Klicken Sie auf Create c W hlen Sie im Dialogfeld den in Schritt 1 erstellten Pool aus MAX f r User Capacity und 2 4 oder 8 f r die zu erstellende Number of LUNs Nach diesem Vorgang werden die LUNs bereitgestellt 3 Konfigurieren Sie eine Speichergruppe damit vSphere Server auf die neu erstellten LUNs zugreifen k nnen a Wechseln Sie zu Hosts gt Storage Groups 2 EMC VSPEX Anwender Computing 111 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration b Erstellen Sie eine neue Speichergruppe c W hlen Sie die LUNs und vShpere Hosts aus die in dieser Speichergruppe hinzugef gt werden sollen Provisioning von Speicher f r NFS Datastores nur NFS Variante F hren Sie die folgenden Schritte in Unisphere aus um NFS Dateisyst
36. Datenbankadministrator um sich ber die Policy Ihres Unternehmens zu informieren EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 125 Kapitel 5 Richtlinien zur VSPEX Konfiguration Installieren und Konfigurieren des VMware vCenter Servers berblick In diesem Abschnitt finden Sie Informationen zum Konfigurieren von vCenter F hren Sie die in Tabellen 28 erl uterten Aufgaben aus Tabellen 28 Aufgaben f r die vCenter Konfiguration Aufgabe Beschreibung Referenz Erstellen Sie die virtuelle vCenter Hostmaschine Erstellen Sie eine virtuelle Maschine die f r den vCenter Server verwendet wird vSphere Administratorhandbuch f r virtuelle Maschinen Installieren Sie das vCenter Gastbetriebssystem Installieren Sie Windows Server 2008 R2 Standard Edition auf der virtuellen vCenter Hostmaschine Aktualisieren Sie die virtuelle Maschine Installieren Sie VMware Tools aktivieren Sie die Hardwarebeschleunigung und gew hren Sie den Remote Zugriff auf die Konsole vSphere Administratorhandbuch f r virtuelle Maschinen Erstellen Sie vCenter Open Database Connectivity ODBC Verbindungen Erstellen Sie die 64 Bit vCenter und 32 Bit vCenter Update Manager ODBC Verbindungen e nstallations und Einrichtungshandbuch f r vSphere e Installieren und Verwalten von VMware vSphere Update Ma
37. LUNs bieten Speicher nach Bedarf der die Auslastung Ihres Speichers maximiert indem Speicher nur dort zugewiesen wird wo er ben tigt wird Thick LUNs bieten hohe und zuverl ssige Performance f r Ihre Anwendungen Beide Arten von LUNs profitieren von den benutzerfreundlichen poolbasierten Provisioning Funktionen Pools und Pool LUNs sind auch die Bausteine f r erweiterte Datenservices wie FAST VP VNX Snapshots und Komprimierung Pool LUNs unterst tzen au erdem verschiedene zus tzliche Funktionen wie LUN Verkleinerung Onlineerweiterung und Einstellung des Schwellenwerts f r die Benutzerkapazit t Virtual Provisioning erm glicht Ihnen die Erweiterung der Kapazit t eines Speicherpools aus der Unisphere GUl nachdem Festplatten physisch an das System angeschlossen werden VNX Systeme k nnen zugeordnete Datenelemente ber alle Mitgliedslaufwerke hinweg so abstimmen dass nach der Erweiterung des Pools neue Laufwerke verwendet werden Die Abstimmungsfunktion wird nach einer Erweiterungsaktion automatisch gestartet und im Hintergrund ausgef hrt Sie k nnen den Fortschritt eines Ausgleichsvorgangs in Unisphere im Fenster Pool Properties auf der Registerkarte General berwachen wie in Abbildungen 8 gezeigt 36 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung
38. Netzwerkschnittstellenkarten NICs konsolidiert werden solange die Anforderungen an die Gesamtbandbreite f r diese L sung erf llt werden und ausreichend Redundanz zur Unterst tzung der hohen Verf gbarkeit vorhanden ist Tabellen 7 zeigt die Konfigurationen der einzelnen Server die zwei Sockets mit vier Kernen 128 GB RAM und zwei 10 GbE pro Blade Geh use aufweisen und die diese L sung unterst tzen Tabellen 7 Konfigurationen die diese L sung unterst tzen Desktoptyp Anzahlder Anzahl der Kerne RAM Server virtuellen insgesamt insgesamt Desktops Desktopbetriebssystem 8 500 64 1TB 16 1 000 128 2TB 32 2 000 256 4 TB Serverbetriebssystem 13 500 100 300 GB 25 1 000 200 600 GB 50 2 000 400 1 2 TB Wie in Tabellen 7 gezeigt sind f r das Desktopbetriebssystem mindestens ein Kern zur Unterst tzung von acht virtuellen Desktops und mindestens 2 GB RAM f r jeden Desktop erforderlich Die richtige Balance zwischen Speicher und Kernen f r die erwartete Anzahl an virtuellen Desktops die von einem Server unterst tzt werden muss ebenfalls ber cksichtigt werden Soll ein Server beispielsweise 24 virtuelle Desktops unterst tzen sind mindestens drei Kerne aber auch mindestens 48 GB RAM erforderlich Die f r die Implementierung dieser Referenzarchitektur verwendeten IP Netzwerk Switche m ssen eine R ckwandplatinenkapazit t von mindestens 96 f r 500 virtuelle Desktops 192 f r 1 000
39. Repeat Pus scheasie Abbildungen 67 Ausw hlen der Planung f r die Backup Gruppe Klicken Sie auf Next 9 W hlen Sie aus der Liste Select An Existing Retention Policy eine Aufbewahrungs Policy aus wie in Abbildungen 68 gezeigt R Ruterban pedoa f dan x C End dae Sun 2012 48 12 zj o Adano Abbildungen 68 Ausw hlen der Aufbewahrungs Policy f r die Backup Gruppe 10 Klicken Sie auf Fertigstellen Hinweis Wenn Sie Next ausw hlen werden Sie zum letzten New Group Fenster weitergeleitet W hlen Sie die Clients aus die der Gruppe hinzugef gt werden sollen Dieser Schritt ist nicht erforderlich da Clients w hrend der Aktivierung der Gruppe hinzugef gt werden 2 EMC VSPEX Anwender Computing 149 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Avamar Enterprise Avamar Enterprise Manager ist eine webbasierte Manager Managementkonsolenanwendung f r mehrere Systeme die zentrale Funktionen Aktivieren von f r die Avyamar Systemadministration bereitstellt darunter die M glichkeit Clients Avamar Clients zusammengefasst hinzuzuf gen und zu aktivieren In diesem Abschnitt wird davon ausgegangen dass Sie wissen wie Sie sich bei Avamar Enterprise Manager EM anmelden und dass die ber XenDesktop bereitgestellten Desktops erstellt sind Nach der erfolgreichen Authentifizierung be
40. Server e 2 10 GbE Ports pro Data Mover f r Daten 10 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 310 GbE Ports pro Blade Geh use e 2 10 GbE Ports pro Data Mover f r Daten 168 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Komponente L sung f r 1 000 virtuelle Desktops Hinweis Bei der Fibre Channel Option m ssen Sie eine der IP Netzwerkoptionen ausw hlen um die vollst ndige Konnektivit t zu gew hrleisten EMC Backup der n chsten Generation Avamar e 1 Gen4 Utility Node e 13 9 TB Spare Node der 4 Generation e 3 3 9 TB Speicher Nodes der 4 Generation Speicherarray der EMC VNX Serie Gemeinsamkeiten e EMC VNX5600 e 2 Data Mover aktiv Stand by e 3 5 Zoll SAS Festplatten mit 600 GB und 15 000 U min Kerndesktops Laufwerksanzahl PvD Non PvD HSD PVS 76 43 43 MCS 58 46 46 e 5 3 5 Zoll Flashlaufwerke mit 100 GB FAST Cache e 50 3 5 Zoll NL SAS Laufwerke mit 2 TB optional Benutzerdaten FC Option 2 8 Gbit FC Ports pro Speicherprozessor 1 Gbit Netzwerk Option 4 1 Gbit IO Modul f r jeden Data Mover jedes Modul enth lt vier Ports 10 Gbit Netzwerk Option 2 10 Gbit IO Modul f r jeden Data Mover jedes Modul ent
41. VNX Back end e 2 4 8 Gbit FC Ports pro vSphere Server Redundante LAN SAN Konfiguration EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 4 bersicht ber die L sungsarchitektur Hardware Konfiguration Anmerkungen Gemeinsamkeiten e 210 GbE Schnittstellen pro Data Mover e 2 8 Gbit FC Ports pro Speicherprozessor nur FC Variante F r 500 virtuelle Desktops e 2 Data Mover aktiv Stand by nur NFS Variante e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Laufwerksanzahl PvD Non PvD HSD PVS 16 8 8 MCS 13 10 10 e 33 5 Zoll Flashlaufwerke mit 100 GB F r 1 000 virtuelle Desktops e 2 Data Mover aktiv Stand by nur NFS Variante Gemeinsamer VNX e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Speicher f r virtuelle Desktops Laufwerksanzahl PvD Non PvD HSD PVS 32 16 16 Speicher MCS 26 20 20 e 3 3 5 Zoll Flashlaufwerke mit 100 GB F r 2 000 virtuelle Desktops e 2 Data Mover aktiv Stand by nur NFS Variante e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Laufwerksanzahl PvD Non PvD HSD PVS 64 32 32 MCS 26 40 40 e 5 3 5 Zoll Flashlaufwerke mit 100 GB F r 500 virtuelle Desktops Optional f r e 16x 3 5 Zoll NL SAS Laufwerke mit 2 TB und Benutzerdaten 7 200 U min F r
42. XenDesktop wird der Benutzer aufgefordert Benutzer ID SecurlD Passphrase und Active Directory Passwort in einem einzigen Dialogfeld einzugeben Nach erfolgreicher Authentifizierung wird der Benutzer direkt an seinem virtuellen Desktop angemeldet Die interne Anforderungsauthentifizierung wird nur mit Active Directory ausgef hrt Abbildungen 13 beschreibt den Authentifizierungsvorgang f r eine externe Zugriffsanforderung bei der XenDesktop Umgebung 2 EMC VSPEX Anwender Computing 43 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops 0 Handbuch zur Proven Infrastructure L sung 44 Kapitel 3 Technologie bersicht ber die L sung Prim r SecurlD 8 RSA Authentifizierung 2 Authentication Manager 8 0 Sekund r AD P Active Directory Citrix ICA Protokoll Authentifizierungsprotokoll HTTP HTTPS XML Benutzeranmeldung 1 Proxy Verbindung zur Website 4 Webbrowser Citrix Client Benutzerdesktops abrufen 3 Benutzer ffnet Ressource 5 Citrix NetScaler 10 Citrix Storefront 2 0 AGEE stellt Verbindung zu Client her 6 Citrix 1 Browserclient greift auf XenDesktop Umgebung zu und wird zur Angabe der AD Zugangsdaten und SecurlD Passphrase aufgefordert XenDesktop 7 0 2 Authentication Manager validiert Passphrase Access Gateway Enterprise Edition auf NetScaler validiert AD Zugangsdaten 3 Access Gateway ruft Benutzerdeskt
43. auf Image Ebene oder Guest Basis Avyamar f hrt die Deduplizierungs Engine f r Image Backups auf Festplattenebene der virtuellen Maschine VMDK und f r Guest basierte Backups auf Dateiebene aus Der Schutz auf Image Ebene erm glicht Backup Clients die Erstellung einer Kopie aller virtuellen Laufwerke und Konfigurationsdateien die mit dem jeweiligen virtuellen Desktop verbunden sind und sch tzt damit vor Hardwareausfall Besch digung oder versehentlichem L schen eines virtuellen Desktops Avamar sorgt durch Verwendung von Changed Block Tracking CBT f r Backup und Recovery f r eine deutlich reduzierte Backup und Recovery Zeit des virtuellen Desktops Der Guest basierte Schutz wird wie eine herk mmliche Backup L sung ausgef hrt Das Guest basierte Backup kann auf jeder virtuellen Maschine mit einem Betriebssystem verwendet werden f r das ein Avamar Backup Client verf gbar ist Es erm glicht eine differenzierte Kontrolle ber Inhalte sowie Einschluss und Ausschlussmuster Hierdurch k nnen Datenverluste aufgrund von Benutzerfehlern z B ein versehentliches L schen von Dateien verhindert werden Mit der Installation des Desktop Laptop Agent auf dem zu sch tzenden System kann der Anwender seine Daten im Selfserviceverfahren wiederherstellen Diese L sung wurde mit Guest basierten Backups getestet 42 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Hand
44. deren jeweilige Gruppen Policy eine f r die Dateien und die andere f r das Profil des Benutzers Wiederholen Sie das Verfahren zweimal und ndern Sie dabei jeweils zwei Variablen Name und Dataset Used 1 Klicken Sie auf Actions New Group wie in Abbildungen 64 gezeigt wu 40m Ayammar Aderammtreton Polacy C Abbildungen 64 Erstellen einer neuen Avamar Backup Gruppe Das Fenster New Group wird angezeigt wie in Abbildungen 65 gezeigt 2 EMC VSPEX Anwender Computing 147 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Abbildungen 65 Neue Backup Gruppeneinstellungen Geben Sie in Name den Wert View_User_Data ein Vergewissern Sie sich dass die Option Disabled nicht ausgew hlt ist Klicken Sie auf Next ie a en W hlen Sie aus dem Listenfeld Select An Existing Dataset die Option VMware View User Data wie in Abbildungen 66 gezeigt Abbildungen 66 Ausw hlen Backup Gruppen Dataset Klicken Sie auf Next W hlen Sie aus dem Listenfeld Select An Existing Schedule eine Planung aus wie in Abbildungen 67 gezeigt 148 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Beled An Ensing Ned Run Time 2012 09 14 01 00 Au
45. die L sung ROBO Organisationen mit Remote Standorten und Zweigstellen Remote Office Branch Office ROBO ziehen es oft vor dass sich die Daten und Anwendungen in der N he der Anwender befinden da dadurch eine bessere Performance und niedrigere Latenz erm glicht wird In diesen Umgebungen m ssen die IT Abteilungen die Vorteile von lokalem Support gegen die Anforderung der zentralen Steuerung abw gen Die Verwaltung von lokalen Systemen und lokalem Speicher sollte f r die Mitarbeiter vor Ort einfach sein Au erdem sollten jedoch Remotemanagement und flexible Zusammenfassungstools unterst tzt werden die die Anforderungen an diese lokalen Ressourcen minimieren Mit VSPEX k nnen Sie die Bereitstellung von Anwendungen an ROBOs beschleunigen Kunden k nnen auch Unisphere Remote verwenden um berwachung Systemwarnmeldungen und Reporting von Hunderten von Standorten zu konsolidieren und dabei gleichzeitig einen einfachen Betrieb und Unified Storage Funktionen f r lokale Manager beizubehalten Backup und Recovery berblick Backup und Recovery sorgen f r Datensicherheit durch Backups von Datendateien oder Volumes nach einem definierten Plan und die Wiederherstellung von Daten aus Backups wenn nach einem Notfall eine Recovery durchgef hrt werden muss In dieser VSPEX L sung wird Avamar f r Spindeln verwendet die bis zu 2 000 virtuelle Maschinen unterst tzen EMC Avamar EMC Avamar bietet Methoden f r das Backup virtueller Desktops
46. gew hrleisten 164 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Komponente L sung f r 500 virtuelle Desktops EMC Backup der Avamar e 1 Utility Node der 4 Generation a EEE N e 1 3 9 TB Spare Node der 4 Generation e 3 3 9 TB Speicher Nodes der 4 Generation Speicherarray der Gemeinsamkeiten e EMC VNX5400 EMC VNX Serie e 2 Data Mover aktiv Stand by e 3 5 Zoll SAS Festplatten mit 600 GB und 15 000 U min Kerndesktops Laufwerksanzahl PvD Non PvD HSD PVS 26 18 18 MCS 18 15 15 e 3 3 5 Zoll Flashlaufwerke mit 100 GB FAST Cache e 17 3 5 Zoll NL SAS Laufwerke mit 2 TB optional Benutzerdaten FC Option 2 8 Gbit FC Ports pro Speicherprozessor 1 Gbit Netzwerk Option 4 1 Gbit IO Modul f r jeden Data Mover jedes Modul enth lt vier Ports 10 Gbit Netzwerk 2 10 Gbit IO Module f r jeden Data Mover Option jedes Modul enth lt zwei Ports 2 EMC VSPEX Anwender Computing 165 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Materialliste f r 1 000 virtuelle Desktops Tabellen 34 enth lt die in der VSPEX L sung f r 1 000 virtuelle Desktops verwendeten Komponenten Tabellen 34 Liste der
47. gibt da Thin LUNs die einzige M glichkeit zum berlasten eines Pools darstellen Wenn der Pool nur Thick LUNs enth lt ist die Warnmeldung nicht aktiv da kein Risiko besteht dass der Speicherplatz aufgrund einer berlastung ausgeht Sie k nnen auch den Wert f r Percent Full Threshold angeben der Total Allocation Total Capacity entspricht wenn ein Pool erstellt wird 2 EMC VSPEX Anwender Computing 39 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung e e a V Enabled Snapshots Atomatically delete oldest snapshots Z when total pool space reaches 95 E full stop at 85 IK C when total snapshot space reaches 251 stopat 205 Auto Delete in Progress Auo Deiete State Idie _ Resume Auto Delete Abbildungen 11 Definieren der Schwellenwerte f r die Speicherpoolauslastung Zeigen Sie Warnmeldungen an indem Sie in Unisphere auf die Option Alert klicken Abbildungen 12 zeigt den Unisphere Event Monitor Assistenten in dem Sie auch die Option zum Empfang von Warnmeldungen per E Mail Paging Service oder SNMP Trap ausw hlen k nnen EC Urinphere Window Internet Expioser Eng EMC Unisphere Abbildungen 12 Definieren automatisierter Benachrichtigungen f r Block 40 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f
48. internen Backups von Konfiguration Benutzerdateien erforderlich ist Zwar gibt es auch andere Avamar basierte Methoden f r das Backup von Benutzerdateien aber diese Methode stellt Funktionen f r die Wiederherstellung durch den Anwender ber eine gemeinsame grafische Benutzeroberfl che bereit F r diese Konfiguration wird davon ausgegangen dass nur die Dateien und das Profil von Benutzern gesichert werden In Tabellen 31 werden die Aufgaben beschrieben die abgeschlossen werden m ssen Hinweis Zus tzlich zu den Backups die durch das hier beschriebene Verfahren erfolgen sollten regelm ige Backups der Infrastrukturkomponenten des Rechenzentrums durchgef hrt werden die f r ber Citrix XenDesktop bereitgestellte virtuelle Desktops erforderlich sind F r eine vollst ndige Disaster Recovery m ssen sowohl die Daten von XenDesktop Endbenutzern als auch ber Citrix XenDesktop bereitgestellte virtuelle Desktopbenutzerdaten und dateien wiederhergestellt werden k nnen Tabellen 31 Aufgaben f r die Avamar Integration Aufgabe Beschreibung Referenz Vorbereitung von Microsoft Active Directory GPO Erg nzungen f r Erstellen und konfigurieren Sie das GPO Administratorhandbuch f r EMC Avamar um Avamar Backups von Avamar7 Benutzerdateien und profilen zu aktivieren Vorbereiten des Master Image Goldimage f r Citrix XenDesktop Vorbereiten des Master Installieren und konfigurieren Sie den
49. klicken Sie auf Add Das Fenster Avamar Client Manager wird erneut angezeigt 12 Klicken Sie auf die Ayamar Domain die soeben den View Desktops hinzugef gt wurde und klicken Sie dann auf Activate wie in Abbildungen 78 gezeigt Das Fenster Show Clients for Activation wird angezeigt EMC Avamar Client Manager Chest Informstioa VAa Serve Information ss 4 Bu create Damam Dcera Msn Grsupn M san Q Doren Cowreters o iso ma emc com DEC Creme Dassen oreas ranr CI croson Incnange Securty Groups LI Protipuaty Geer and Machen BF Gomun PUV Ls emc com OL VSPA t0 as omc com Pl vsrtr2s0 100asonccom ILvssen 20 Wil emccom Dh vsrex 20 002 Ina eme com ILvsmex 20 Wilnaemc com Ihvsmex 20 Walnemccom Ivsmx 20 Wwi lsn emecom Ivan 20 welsnemecom Ivan 20 0 iss one com Ivan 20 wi iss omesom Ivan 20 wn iss omesom Ivan 0 1 inn mau JL VIPE ttis eme com PUVILL tt un emacom JL VSPLI0 tt Lss eme com FLVS tn emecom Ivsmen 20 1 Heu emecom mn s Tanai Fr Abbildungen 78 Aktivieren der Avamar Clients 13 Klicken Sie auf Commit wie in Abbildungen 79 gezeigt 154 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration mw vn serrer m eao mann 2 TT Show Centa tor Actrentiem tinii a hert Fiter 7 er Server Derar Groupia td 7 J yaman Oae oT Vaew_ net_ Data Virw_U
50. konsistenten Performancelevel gehostet werden kann Diese L sung wird in der vSphere Virtualisierungsebene von VMware ausgef hrt und von einem VNX Speicherarray mit hoher Verf gbarkeit sowie dem Citrix XenDesktop Desktop Broker unterst tzt Die Rechner und Netzwerkkomponenten k nnen vom Anbieter definiert werden und wurden so konzipiert dass sie redundant und ausreichend leistungsstark f r die Verarbeitungs und Datenanforderungen einer Umgebung mit vielen virtuellen Maschinen sind 14 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 1 Zusammenfassung Die Umgebungen mit 500 1 000 und 2 000 virtuellen Desktops in dieser L sung basieren auf einem definierten Desktop Workload Nicht alle virtuellen Desktops haben dieselben Anforderungen Dieser Leitfaden enth lt jedoch Methoden und Informationen f r die Anpassung Ihres Systems damit es kosteng nstig bereitgestellt werden kann Eine kleinere Umgebung f r 250 virtuelle Desktops basierend auf der VNXe3300 Plattform der EMC VNXe Produktreihe wird unter EMC VSPEX Anwender Computing Citrix XenDesktop 5 6 mit VMware vSphere 5 1 f r bis zu 250 virtuelle Desktops beschrieben Eine Architektur f r Anwender Computing oder virtuelle Desktops ist ein komplexes Systemangebot Dieser Leitfaden erleichtert die Einrichtung durch die Bereitstellung von Materiallisten f r S
51. muss Speicheran Der Speicher spielt f r die Funktion und Performance von Anwendungen eine forderungen wichtige Rolle Deshalb sind f r jede Gruppe von Desktops unterschiedliche Ziele hinsichtlich der Menge des verf gbaren Speichers erforderlich der als akzeptabel betrachtet wird Wenn eine Gruppe von Benutzern zus tzliche Speicherressourcen ben tigt passen Sie wie bei der CPU Berechnung einfach die Anzahl der geplanten Desktops an um die zus tzlichen Ressourcenanforderungen zu ber cksichtigen Wenn Sie beispielsweise 200 Desktops mit Desktopbetriebssystem virtualisieren m chten aber jeder Desktop 4 GB anstelle der im virtuellen Referenzdesktop bereitgestellten 2 GB Speicher ben tigt planen Sie f r 400 virtuelle Referenzdesktops Anforderungen an Die Anforderungen an die Speicher Performance f r Desktops geh ren die Speicher normalerweise zu den am wenigsten verstandenen Aspekten der Performance Performance Der virtuelle Referenzdesktop verwendet eine Workload die von einem branchen blichen Tool generiert wird um eine Vielfalt von in B ros verwendeten Produktivit tsanwendungen auszuf hren die f r die Mehrheit der virtuellen Desktopimplementierungen repr sentativ sein sollten Anforderungen an Die Anforderungen an die Speicherkapazit t f r einen Desktop k nnen je nach die Typ der verwendeten Anwendungen und speziellen Kunden Policies sehr Speicherkapazit t unterschiedlich sein Die in dieser L sung dargestellte
52. oder 6 1 GbE NICs pro eigenst ndigem Server bei 1 000 virtuellen Desktops e 3 10 GbE NICs pro Blade Geh use oder 6 1 GbE NICs pro eigenst ndigem Server bei 2 000 virtuellen Desktops VMware vSphere VMware vSphere 5 verf gt ber eine Reihe von erweiterten Funktionen mit denen Arbeitsspeichervirt die Performance und die allgemeine Ressourcenauslastung optimiert werden ualisierung f r k nnen Das Arbeitsspeichermanagement ist die wichtigste dieser Funktionen In VSPEX diesem Abschnitt werden einige dieser Funktionen und die Punkte die bei ihrer Verwendung in der Umgebung beachtet werden m ssen erl utert Generell k nnen Sie davon ausgehen dass virtuelle Maschinen auf einem einzelnen Hypervisor Speicher als ein Pool von Ressourcen verbrauchen Abbildungen 20 zeigt ein Beispiel f r die Arbeitsspeicherbelegung auf Hypervisor Ebene 66 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Desktopbenutzertyp 4 8 GB pro Benutzer x 1 Benutzer 8 GB verbraucht Desktopbenutzertyp 3 5 GB pro Benutzer x 2 Benutzer 10 GB verbraucht Desktopbenutzertyp 2 3 GB pro Benutzer x 9 Benutzer 27 GB verbraucht Desktopbenutzertyp 1 2 GB pro Benutzer x 4 Benutzer 8 GB verbraucht Abbildungen 20 Speicherbelegung durch Hypervisor berbelegung von Speicher Z
53. oursc v A e DURSOL gt Settings gt The change will not take effect until the Data Mover is rebooted Name nthreads amp cs_external_ip amp cs_external_ip amp _extemal_ip Eu cs_external_ip Description Number of threads dedicated to serve nfs requestsThis param represents number of threads dedicated to serve nfs requests Any changes made to this param will be applicable after reboot only or Apply _cancet E I internet Protected Mode Off Ya 10 7 Abbildungen 39 nthread Parameter festlegen 21417 0 7 7 74 amp nthreads A nthreads AB nthreads d Klicken Sie auf Properties um die Einstellung zu aktualisieren Die Standardanzahl von Threads f r das Verarbeiten von NFS Anfragen liegt bei 384 pro Data Mover auf der VNX Da diese L sung bis zu 2 000 Desktopverbindungen erforderlich macht erh hen Sie die Anzahl der aktiven NFS Threads auf maximal 1 024 f r 500 virtuelle Desktops oder 2 048 f r 1 000 und 2 000 virtuelle Desktops in jedem Data Mover F A S T Cache Konfiguration F hren Sie die folgenden Schritte aus um FAST Cache auf dem den Speicherpool s f r diese L sung zu konfigurieren 1 Konfigurieren Sie die Flashlaufwerke als FAST Cache a W hlen Sie in Unisphere Properties oder Manage Cache aus um das Dialogfeld Storage System Properties zu ffnen wie in Abbildungen 40 gezeigt 114 EMC VSPEX Anwender Computing 2 Citrix XenDesk
54. pro Data Mover f r Daten 166 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang A Materiallisten Komponente L sung f r 1 000 virtuelle Desktops Hinweis Bei der Fibre Channel Option m ssen Sie eine der IP Netzwerkoptionen ausw hlen um die vollst ndige Konnektivit t zu gew hrleisten EMC Backup der n chsten Generation Avamar e 1 Gen4 Utility Node e 1 3 9 TB Spare Node der 4 Generation e 3 3 9 TB Speicher Nodes der 4 Generation Speicherarray der EMC VNX Serie Gemeinsamkeiten e EMC VNX5400 e 2 Data Mover aktiv Stand by e 3 5 Zoll SAS Festplatten mit 600 GB und 15 000 U min Kerndesktops Laufwerksanzahl PvD Non PvD HSD PVS 43 26 26 MCS 31 25 25 e 3 3 5 Zoll Flashlaufwerke mit 100 GB FAST Cache e 25 3 5 Zoll NL SAS Laufwerke mit 2 TB optional Benutzerdaten FC Option 2 8 Gbit FC Ports pro Speicherprozessor 1 Gbit Netzwerk Option 4 1 Gbit IO Module f r jeden Data Mover jedes Modul enth lt vier Ports 10 Gbit Netzwerk Option 2 10 Gbit IO Module f r jeden Data Mover jedes Modul enth lt zwei Ports EMC EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 167
55. r den Hyperwisor Host hinzugef gt werden um die Anforderungen zu erf llen Die Optionen f r die Netzwerkverbindung auf dem Server h ngen vom Servertyp ab Die Speicherarrays verf gen bereits ber eine Reihe von Netzwerkanschl ssen zus tzliche Anschl sse k nnen mit den EMC FLEX I O Modulen hinzugef gt werden F r Referenzzwecke in der validierten Umgebung geht EMC davon aus dass jeder virtuelle Desktop 8 IOPS mit einer durchschnittlichen Gr e von 4 KB generiert Jeder virtuelle Desktop generiert mindestens 32 KB s Datenverkehr im Speichernetzwerk Bei einer Umgebung mit 500 virtuellen Desktops entspricht das mindestens rund 16 MB s Diese Werte sind f r Gigabit Netzwerke kein Problem es werden dabei jedoch keine anderen Vorg nge ber cksichtigt Zus tzliche Bandbreite wird u a f r die folgenden Zwecke ben tigt e Benutzernetzwerkverkehr e Virtuelle Desktop Migration e Administrative und Managementvorg nge Die Anforderungen sind je nach Umgebung unterschiedlich sodass es sich nicht empfiehlt in diesem Zusammenhang konkrete Zahlen anzugeben Das in der Referenzarchitektur f r jede L sung beschriebene Netzwerk sollte jedoch ausreichend sein um durchschnittliche Workloads f r die beschriebenen Anwendungsbeispiele zu verarbeiten Unabh ngig von den Anforderungen an den Netzwerkdatenverkehr sollten Sie immer mindestens zwei physische Netzwerkverbindungen gemeinsam in einem logischen Netzwerk aufrechterhalten damit der
56. synchronisiert sie Management dynamisch mit einem Remoteprofil Repository Mit Profile Management werden pers nliche Einstellungen unabh ngig vom Anmeldestandort oder Clientger t des Benutzers auf Desktops und Anwendungen bernommen EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Die Kombination von Profile Management und gepoolten Desktops bietet die Erfahrung eines dedizierten Desktops bei gleichzeitiger Minimierung des in einem Unternehmen erforderlichen Speicherplatzes Mit Profile Management wird das Remoteprofil eines Benutzers dynamisch heruntergeladen wenn der Benutzer sich bei einem XenDesktop anmeldet Profile Management l dt die Benutzerprofilinformationen nur herunter wenn der Benutzer sie ben tigt Virtualisierung berblick VMware vSphere 5 1 VMware vCenter VMware vSphere High Availability Die Virtualisierungsebene ist eine wichtige Komponente jeder L sung f r Anwender Computing Sie erm glicht die Trennung der Anforderungen an die Anwendungsressourcen von den zugrunde liegenden physischen Ressourcen auf die diese zugreifen So ergibt sich eine h here Flexibilit t in der Anwendungsebene da Hardware nicht mehr aus Wartungsgr nden ausf llt und die physischen Funktionen des Systems ge ndert werden k nnen ohne dass dies Auswirkun
57. uerseessnsssesesessnennnnnnn 148 Abbildungen 66 Ausw hlen Backup Gruppen Dataset uuessessnsnssessennnnnennennn 148 Abbildungen 67 Ausw hlen der Planung f r die Backup Gruppe ueeeeeeenne 149 Abbildungen 68 Ausw hlen der Aufbewahrungs Policy f r die Backup Gruppe149 Abbildungen 69 Avamar Enterprise Manager eesessssessessssssnnnennnnnnnnnennnnnnnnnnn 150 Abbildungen 70 Avamar Client Manager usesesssesssssnsesesesnsnsnsnnnsnsnsnsnsnnnnnnnnn 150 Abbildungen 71 Das Dialogfeld Avamar Activate Client eseese 151 Abbildungen 72 Avamar Men Activate Client eseseseessessssnsnsnnennenennnnnnnnnnn 151 10 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Abbildungen 73 Abbildungen 74 Abbildungen 75 Abbildungen 76 Abbildungen 77 Abbildungen 78 Abbildungen 79 Abbildungen 80 Abbildungen 81 Abbildungen 82 Tabellen Tabellen 1 Tabellen 2 Tabellen 3 Tabellen 4 Tabellen 5 Tabellen 6 Tabellen 7 Tabellen 8 Tabellen 9 Tabellen 10 Tabellen 11 Tabellen 12 Tabellen 13 Tabellen 14 Tabellen 15 Tabellen 16 Tabellen 17 Tabellen 18 Tabellen 19 Tabellen 20 Tabellen 21 Tabellen 22 Tabellen 23 Tabellen 24 Tabellen 25 Inhalt Konfiguration des Avamar Verzeichnisserwvices een 152 Avamar Client Manager nach der Konfiguration 152 Av
58. und ndern Sie dabei jeweils die drei Variablen Location Label As und Drive Letter Used um die zwei zugeordneten Laufwerke zu erstellen So konfigurieren Sie Laufwerkszuordnungen 1 Bearbeiten Sie das GPO und wechseln Sie zur Policy Einstellung User Configuration gt Preferences gt Windows Settings gt Drive Maps 2 Klicken Sie mit der rechten Maustaste in den leeren wei en Bereich auf derrechten Seite des Fensters 3 W hlen Sie New gt Mapped Drive aus wie in Abbildungen 50 gezeigt Das Fenster mit den Eigenschaften des zugeordneten Laufwerks wird angezeigt 2 EMC VSPEX Anwender Computing 137 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Pe Action Won Hb 3mlOlmasBmMI3 o Drive Maps me jo jamon jesh fl There are no boma to ala P Uis view Abbildungen 50 Erstellen einer Windows Netzwerklaufwerkzuordnung f r Benutzerdateien F hren Sie die nachfolgenden Schritte aus um das den Benutzerdateien zugeordnete Laufwerk zu erstellen wie in Abbildungen 51 gezeigt 1 W hlen Sie aus der Liste Action die Option Create aus Geben Sie unter Location cifs_server folder username ein W hlen Sie Reconnect aus Geben Sie in Label as den Wert User_Files ein W hlen Sie Use und U in Drive Letter aus DA ES ANS W hlen Sie unter Hide Show this d
59. vSphere Client her Erstellen Sie eine virtuelle Maschine auf dem vShpere Server mit der Gastbetriebssystemkonfiguration des Kunden und verwenden Sie dabei den vom Speicherarray pr sentierten Infrastrukturserver Datastore Erstellen der virtuellen vCenter Hostmaschine Die Speicher und Prozessoranforderungen f r den vCenter Server h ngen von der Anzahl der zu managenden vSphere Hosts und virtuellen Maschinen ab Die Anforderungen sind im nstallations und Einrichtungshandbuch f r vSphere aufgef hrt Weitere Informationen finden Sie in Anhang C Installieren des Installieren Sie das Gastbetriebssystem auf der virtuellen vCenter Hostmaschine vCenter VMware empfiehlt die Verwendung von Windows Server 2008 R2 Standard Edition Gastbetriebs Weitere Informationen finden Sie in Anhang C systems Erstellen von Erstellen Sie vor der Installation von vCenter Server und vCenter Update Manager vCenter ODBC die f r die Datenbankkommunikation erforderlichen ODBC Verbindungen Diese ODBC Verbindungen verwenden die SQL Server Authentifizierung f r die Datenbankauthentifizierung SQL Server Anmeldeinformationen finden Sie unter Konfigurieren einer Datenbank f r VMware vCenter Weitere Informationen finden Sie in Anhang C Verbindungen Installieren Sie vCenter Server mithilfe des VMware VIMSetup Installationsmediums Verwenden Sie bei der Installation von vCenter den Benutzernamen das Unternehmen und den vCenter Lizenzschl ssel die vo
60. 0 AM 800 am Pam norm 24 hrs E Backup Window B Blackout Window Maint Window 300 PM GpoPu c0Pu 1200 AM Abbildungen 62 Standardplanung f r Backup Wartungszeitfenster von Avamar Das Backup Zeitfenster ist der Teil jedes Tages der f r die Durchf hrung normaler geplanter Backups reserviert ist W hrend des Backup Zeitfensters werden keine Wartungsaktivit ten durchgef hrt 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Das Blackout Zeitfenster ist der Teil jedes Tages der f r die Durchf hrung von Serverwartungsaktivit ten haupts chlich Garbage Collection reserviert ist f r die ein uneingeschr nkter Zugriff auf den Server erforderlich ist W hrend des Blackout Zeitfensters sind keine Backup oder administrativen Aktivit ten zugelassen Wiederherstellungen sind jedoch m glich Das Wartungszeitfenster ist der Teil jedes Tages der f r die Durchf hrung von Routineaktivit ten f r die Serverwartung reserviert ist haupts chlich f r die Erstellung und Validierung von Kontrollpunkten Benutzerdateien und Profildaten sollten nicht w hrend des Tages gesichert werden wenn Benutzer bei ihren virtuellen Desktops angemeldet sind Passen Sie die Startzeit f r das Backup Zeitfenster an um zu verhindern dass in dieser Zeit Backups durchgef hrt werden
61. 1 000 virtuelle Desktops e 24x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min F r 2 000 virtuelle Desktops e 48 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min 2 EMC VSPEX Anwender Computing 61 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 62 Kapitel 4 bersicht ber die L sungsarchitektur Hardware Konfiguration Anmerkungen F r 500 virtuelle Desktops Optional f r e 5 3 5 Zoll SAS Laufwerke mit 600 GB und Infrastrukturspeicher 15 000 U min F r 1 000 virtuelle Desktops e 5 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min F r 2 000 virtuelle Desktops e 5 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Gemeinsame In den meisten F llen sind in einer Kundenumgebung Diese Services k nnen Infrastruktur bereits Infrastrukturservices wie Active Directory DNS usw nach der Bereitstellung in konfiguriert Die Einrichtung dieser Services geht ber den VSPEX migriert werden Rahmen dieses Dokuments hinaus sie m ssen jedoch Wenn die Implementierung ohne vorhandene Infrastruktur vorhanden sein bevor erfolgt werden mindestens folgende zus tzliche Server VSPEX bereitgestellt ben tigt werden kann e 2 physische Server e 20 GB RAM pro Server e 4 Prozessorkerne pro Server e 2 1 GbE Ports pro Server EMC Backup der Avamar n chsten Generation e 1 Utility Node der 4 Generation e 1 3 9 TB S
62. 1 TB virtuellem RAM hosten Rechner Mit VSPEX besteht die M glichkeit die vom Anbieter gew hlten Serverkomponenten zu konzipieren und zu implementieren Die Infrastruktur muss die folgenden Anforderungen erf llen e Ausreichend RAM CPU Kerne und Arbeitsspeicher zur Unterst tzung der erforderlichen Anzahl und Art virtueller Maschinen e Ausreichend Netzwerkverbindungen um redundante Konnektivit t der System Switche zu erm glichen e bersch ssige Kapazit t zur Unterst tzung f r Failover nach einem Serverausfall in der Umgebung 18 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Netzwerk Backup Speicher EMC VNX der n chsten Generation EMC 2 Kapitel 2 L sungs berblick Mit VSPEX besteht die M glichkeit die vom Anbieter gew hlten Netzwerkkomponenten zu konzipieren und zu implementieren Die Infrastruktur muss die folgenden Anforderungen erf llen e Redundante Netzwerkverbindungen f r Hosts Switche und Speicher e Unterst tzung von Link Zusammenfassung e Datenverkehrsisolierung anhand von anerkannten Best Practices der Branche EMC Avamar bietet den erforderlichen Schutz um die Bereitstellung der VSPEX L sung f r Anwender Computing zu beschleunigen Mit Avamar k nnen Administratoren Policies und Komponenten der Anwender Computing Infrastruktur zentral sichern und m
63. 171 Arbeitsblatt f r die Kundenkonfiguration sueeeeereneeenensnseenessnennnensnnnnnnnnnennenennnn 172 AnhangC Quellennachweise 175 Quellennachweses casa 176 EMC Dokumentati n ee ee 176 Andere Dskimenkt ii nenen seien 177 AnhangD Informationen ber VSPEX 179 Informationen ber VSPEXN nennen ee 180 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC Abbildungen Abbildungen 1 Abbildungen 2 Abbildungen 3 Abbildungen 4 Abbildungen 5 Abbildungen 6 Abbildungen 7 Abbildungen 8 Abbildungen 9 Abbildungen 10 Abbildungen 11 Abbildungen 12 Abbildungen 13 Abbildungen 14 Abbildungen 15 Abbildungen 16 Abbildungen 17 Abbildungen 18 Abbildungen 19 Abbildungen 20 Abbildungen 21 Abbildungen 22 Abbildungen 23 Abbildungen 24 Abbildungen 25 Abbildungen 26 Abbildungen 27 Abbildungen 28 Abbildungen 29 Abbildungen 30 Abbildungen 31 Abbildungen 32 Abbildungen 33 Inhalt VNX der n chsten Generation mit Multicore Optimierung 21 Active Active Prozessoren verbessern Performance Ausfallsicherheit und Effizienz eeeeesssseeseeesensnnnnnnnenneesennnn 22 Unisphere Management Suite eeseeeseneseeenensnsesnsnsnsnsnsnsnsennnnnn 23 L sungskomponenten ueessssssesessssnsnnnnnnnnnenssnnnnnnnnnnnnnnsnnnnnn 26 Komponenten der XenDesktop 7 Architektur
64. 2 SAS SSD NL SAS UNGENUTZT Abbildungen 28 Optionales Speicherlayout f r 1 000 virtuelle Desktops bersicht ber das optionale Speicherlayout Das optionale Speicherlayout wird f r die Speicherung von Infrastrukturservern Benutzerprofilen Stammverzeichnissen und Personal vDisks verwendet Die folgende optionale Konfiguration wurde in der Referenzarchitektur f r 1 000 virtuelle Desktops verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 0_2_14 und 0_3_14 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 28 als Hot Spare Laufwerke gekennzeichnet 80 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur e F nf SAS Laufwerke 0_2_0 bis 0_2_4 auf dem RAID 5 Speicherpool 6 werden f r die Speicherung virtueller Infrastrukturmaschinen verwendet Es wird eine LUN mit 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als Datastore angezeigt e 24 NL SAS Laufwerke 0_2_5 bis 0_2_13 und 1_2_O bis 1_2_14 im RAID 6 Speicherpool 4 werden f r die Speicherung von Benutzerdaten und Roamingprofilen verwendet 10 LUNs mit jeweils 2 TB werden aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei CIFS Dateisystemen erforderli
65. 2_5 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 30 als Hot Spare Laufwerke gekennzeichnet e 40 SAS Laufwerke 1_O_5 bis 1_0O_14 0_1_3 bis 0_1_14 1_1_2 bis 1_1_14 und 0_2_O bis 0_2_4 im RAID 5 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 1 600 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von acht NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als acht NFS Datastores angezeigt F r FC werden acht LUNs mit jeweils 2 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als acht VMFS Datastores angezeigt Hinweis Wenn Personal vDisk implementiert wird ist die H lfte der Laufwerke 20 SAS Laufwerke f r 2 000 Desktops ausreichend um die Performanceanforderungen zu erf llen Die Desktopkapazit t sinkt jedoch um 50 Prozent Wenn die Kapazit tsanforderungen Ihrer Umgebung erf llt werden implementieren Sie Personal vDisk mit MCS Provisioning mit 20 SAS Laufwerken f r 1 000 Desktops e VierFlashlaufwerke 0_1_0 bis 0_1_1 und 1_1_O bis 1_1_1 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerkonfigurierbaren LUNs vorhanden e Die Laufwerke 0_0_4 bis 0_0_24 1_0_O bis 1_0_3 und 0_2_6 bis 0_2_14 sind ungenutzt Sie wurden f r das
66. 34 Tabellen 35 Tabellen 36 Tabellen 37 Tabellen 38 Tabellen 39 Tabellen 40 Tabellen 41 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Aufgaben f r die Serverinstallation ueesesesenseneennneneneeenenn 120 Aufgaben f r die SQL Server Datenbankkonfiguration 124 Aufgaben f r die vCenter Konfiguration ueeessessseessesneneeenenn 126 Aufgaben f r die Einrichtung der XenDesktop Controller 128 Aufgaben f r die Einrichtung der XenDesktop Controller 131 Aufgaben f r die Avamar Integration eussersesnseessnnnnneeenennn 135 Aufgaben f r das Testen der Installation eneeeneneenceeeennne 160 Liste der Komponenten f r 500 virtuelle Desktops 164 Liste der Komponenten f r 1 000 virtuelle Desktops 166 Liste der Komponenten f r 2 000 virtuelle Desktops 168 Allgemeine Serverinformationen eeesssssssessssnsnnnnnneneneennnnn 172 vSphere Serverinformationen eessrssssssssnnssssnnssnsonennsnnenenn 172 Array Informationen eeeeesessnsnessessnsnnnnnnnnnnnensnsnnnnnnnnenssnnnnnn 172 Informationen zur Netzwerkinfrastruktur eeeesessersssneesennnnn 173 VLAN Informationen ee 173 SEIVIECKONIET cess eeke esere eee eE aS 173 EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 1 Zusammenfassung Kapitel1 Zusammenfassung In diesem Kapitel werden f
67. 5 5 PVS EMC VNX Serie NFS Cisco UCS Citrix XenDesktop 5 5 PVS XenApp 6 5 und XenServer 6 Leitfaden f r Proven Solutions e EMC Infrastructure for Citrix XenDesktop 5 5 EMC VNX Serie NFS Cisco UCS Citrix XenDesktop 5 5 XenApp 6 5 und XenServer 6 Referenzarchitektur e EMC Infrastructure for Citrix XenDesktop 5 5 EMC VNX Serie NFS Cisco UCS Citrix XenDesktop 5 5 XenApp 6 5 und XenServer 6 Leitfaden f r Proven Solutions 176 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang C Quellennachweise Andere Citrix und VMware Dokumentation finden Sie auf den Websites von Citrix und Dokumentation VMware unter www Citrix com bzw www VMware com de 2 EMC VSPEX Anwender Computing 177 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang C Quellennachweise 178 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang D Informationen ber VSPEX Anhang D Informationen ber VSPEX In diesem Anhang werden die folgenden Themen behandelt Informationen ber VSPEX unu22220n0002000n0000n00nnnnnnnnnnnnnnnnnnnnnnnnnnnensnnnnnnennnn 180 2 EMC VSPEX Anwender Computing 179 EMC Citrix Xen
68. APM00120300033 Pool 0 Storage Pool Properties General Disks Advanced Tiering Properties Name Poolo Description ID 0 RAID Type RAIDS State Ready Disk Type SAS ate et Operation In Progress Operation Rebalancing 0 complete Operation State Refresh Physical Capacity p Yirtual Capacity tal 15002 244 GB Total Subscription 10576 617 GB Free 11409 240 GB Snapshot Subscription 0 000 GB Percent Full 23 95 Percent Subscribed 70 5 Total Allocation 3593 004 GB Oversubscribed B Snapshot Allocation 0 000 GB Apply Cancel Help Abbildungen 8 Fortschritt eines Speicherpoolausgleichs LUN Erweiterung Mit der Pool LUN Erweiterung k nnen Sie die Kapazit t vorhandener LUNs erh hen Sie k nnen damit gr ere Kapazit ten entsprechend den wachsenden Anforderungen des Unternehmens bereitstellen Die VNX Produktreihe erm glicht die Erweiterung eines Pool LUN ohne Unterbrechung des Benutzerzugriffs Die Pool LUN Erweiterung erfolgt mit wenigen Klicks und die erweiterte Kapazit t ist sofort verf gbar Sie k nnen eine Pool LUN jedoch nicht erweitern wenn sie Teil eines Datenschutz oder LUN Migrationsvorgangs ist Beispielsweise k nnen Snapshot LUNs oder Migrations LUNs nicht erweitert werden LUN Verkleinerung Verwenden Sie die LUN Verkleinerung um die Kapazit t vorhandener Thin LUNs zu reduz
69. CIFS Benutzer ber 10GB an piivat m Variante 5 ei Speicherplatz verf gt e 8x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min F r 1 000 Benutzer e 2x Data Mover aktiv Stand by nur CIFS Variante e 16x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min F r 2 000 Benutzer e 2x Data Mover aktiv Stand by nur CIFS Variante e 24x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min 51 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung 52 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 4 bersicht ber die L sungsarchitektur Kapitel4 bersicht ber die L sungsarchitektur In diesem Kapitel werden folgende Themen behandelt L sungs berblick cronice kenersenerenee 54 l sungsarchitekt r sccisssisscssssuesssssieesunssinensieeuneeremerniternesene anne ee see 54 Richtlinien f r die Serverkonfiguration sssessssssseesssesseesssessecesseesseessecsececesee 65 Richtlinien f r die Netzwerkkonfiguration essssssseesssessessssesseessseesseessecseeesseee 69 Richtlinien zur Speicherkonfiguration 0sssssss0000000000000000ssnnennnnnssnsnnnnnene 71 H
70. Desktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang D Informationen ber VSPEX Informationen ber VSPEX EMC arbeitet mit branchenf hrenden Herstellern von IT Infrastruktur zusammen um eine vollst ndige Virtualisierungsl sung zu entwickeln mit der die Bereitstellung einer Cloud Infrastruktur beschleunigt werden kann VSPEX erm glicht schnellere Bereitstellung verbesserte Anwenderfreundlichkeit gr ere Auswahl h here Effizienz und weniger Risiko Die Zertifizierung durch EMC gew hrleistet eine zuverl ssige Performance und gestattet Kunden die Auswahl von Technologie die ihre derzeitige IT Infrastruktur nutzt ohne den blichen Planungs Dimensionierungs und Konfigurationsaufwand VSPEX stellt Kunden die die f r wahrhaft konvergierte Infrastrukturen charakteristische bersichtlichkeit verlangen jedoch gleichzeitig mehr Auswahlm glichkeiten bei einzelnen L sungskomponenten w nschen eine bew hrte Infrastruktur zur Verf gung VSPEX L sungen werden von EMC erprobt und zusammengestellt und ausschlie lich von EMC Channel Partnern vertrieben VSPEX bietet Vertriebspartnern mehr Chancen k rzere Vertriebszyklen und ganzheitliche Unterst tzung Durch eine noch engere Zusammenarbeit k nnen EMC und seine Channel Partner jetzt eine Infrastruktur bereitstellen die den Weg zur Cloud f r noch mehr Kunden beschleunigt 180 EMC VSPEX Anwender Computing 2
71. EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 15 Kapitel 1 Zusammenfassung 16 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 2 L sungs berblick Kapitel2 _ _L sungs berblick In diesem Kapitel werden folgende Themen behandelt L s nesuberblit kosinin a 18 Desktop Broker anne 18 Virtuallsierungisssiassiasesiscarssunegennsenseenessneesneneeeren een AE AE ANAA Aai 18 RECHNET 0 0 0 a ri 18 Neizweik nisse 19 Dach ner 19 SBEihe une 19 2 EMC VSPEX Anwender Computing 17 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 2 L sungs berblick L sungs berblick Die EMC VSPEX L sung f r Anwender Computing f r Citrix XenDesktop unter VMware vSphere 5 1 bietet eine umfassende Systemarchitektur mit Unterst tzung f r bis zu 2 000 virtuelle Desktops mit einer redundanten Server und Netzwerktopologie und hochverf gbarem Speicher Die Kernkomponenten dieser speziellen L sung sind Desktop Broker Virtualisierung Rechner Netzwerk und Speicher Desktop Broker XenDesktop ist die Citrix L sung f r virtuelle Desktops die die Ausf hrung virtueller Desktops in der vSphere Virtualisierungsumgebung erm gli
72. FC Variante 14 IOPS PVS FC Variante Anzahl der Datastores zur Speicherung virtueller Desktops 2 f r 500 virtuelle Desktops 4 f r 1 000 virtuelle Desktops 8 f r 2 000 virtuelle Desktops Anzahl der virtuellen Desktops pro Datastore 250 Laufwerks und RAID Typ f r Datastores 3 5 Zoll SAS Laufwerke mit RAID 5 600 GB und 15 000 U Min Laufwerks und RAID Typ f r CIFS Shares zum Hosten von Roaming Benutzerprofilen und Stammverzeichnissen optional f r Benutzerdaten 3 5 Zoll NL SAS Laufwerke mit RAID 6 2 TB und 7 200 U Min EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 4 bersicht ber die L sungsarchitektur Richtlinien f r die Konfiguration der Backup Umgebung berblick Dieser Abschnitt enth lt die Richtlinien f r die Einrichtung einer Backup und Recovery Umgebung f r diese VSPEX L sung Backup Merkmale Tabellen 13 zeigt die Dimensionierung des Backupumgebungsprofils von drei Stacks in dieser VSPEX L sung Tabellen 13 Backup Profilmerkmale Profilmerkmal Wert Benutzerdaten e 5TB f r 500 virtuelle Desktops e 10 TB f r 1 000 virtuelle Desktops e 20 TB f r 2 000 virtuelle Desktops Hinweis 10 GB pro Desktop T gliche nderungsrate f r Benutzerdaten Benutzerdaten 2 Aufbewahrung pro Datentyp Anz
73. Handbuch zur Proven Infrastructure L sung EMC VSPEX ANWENDER COMPUTING Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Unterst tzt durch EMC VNX der n chsten Generation und EMC Backup EMC VSPEX Zusammenfassung In diesem VSPEX Proven Infrastructure Leitfaden wird die EMC VSPEXTM L sung f r Anwender Computing mit Citrix XenDesktop und EMC VNX der n chsten Generation f r bis zu 2 000 virtuelle Desktops erl utert Dezember 2013 intel inside Xeon gt Copyright 2013 EMC Deutschland GmbH Alle Rechte vorbehalten Ver ffentlicht im Dezember 2013 EMC ist der Ansicht dass die Informationen in dieser Ver ffentlichung zum Zeitpunkt der Ver ffentlichung korrekt sind Die Informationen k nnen jederzeit ohne vorherige Ank ndigung ge ndert werden Die Informationen in dieser Ver ffentlichung werden ohne Gew hr zur Verf gung gestellt Die EMC Corporation macht keine Zusicherungen und bernimmt keine Haftung jedweder Art im Hinblick auf die in diesem Dokument enthaltenen Informationen und schlie t insbesondere jedwede implizite Haftung f r die Handels blichkeit und die Eignung f r einen bestimmten Zweck aus F r die Nutzung das Kopieren und die Verteilung der in dieser Ver ffentlichung beschriebenen EMC Software ist eine entsprechende Softwarelizenz erforderlich EMC EMC und das EMC Logo sind eingetragene Marken oder Marken der EMC Corporation in den USA und in a
74. Hinzuf gen eines zweiten Installieren Sie einen Master Maschine XenDesktop Delivery Controller zus tzlichen Delivery Controller f r hohe Verf gbarkeit Vorbereiten einer virtuellen Erstellen Sie eine virtuelle Master Maschine als Basis Image f r die virtuellen Desktops Provisioning von virtuellen Stellen Sie Desktops mittels MCS Desktops bereit Installieren der Installieren Sie die folgenden Komponenten von XenDesktop auf Serverseite auf serverseitigen dem ersten Controller Komponenten von e Delivery Controller Verteilt Anwendungen und Desktops verwaltet den XenDesktop Benutzerzugriff und optimiert Verbindungen p e Citrix Studio Zum Erstellen Konfigurieren und Verwalten von Infrastrukturkomponenten Anwendungen und Desktops e Citrix Director berwachen der Performance und Behebung von Problemen e Lizenzserver Verwaltet Produktlizenzen e Citrix StoreFront Bietet Bereitstellungsservices f r die Authentifizierung und Ressourcen f r Citrix Receiver Hinweis Citrix unterst tzt die Installation von XenDesktop Komponenten nur ber die in der Citrix Dokumentation beschriebenen Verfahren Konfigurieren Starten Sie Citrix Studio und konfigurieren Sie wie folgt einen Standort eines Standorts 1 Lizenzieren Sie den Standort und geben Sie an welche Edition von XenDesktop verwendet werden soll 2 Konfigurieren Sie die Standortdatenbank mithilfe von designierten Anmeldedaten f r SQL Server 3 Stell
75. Komponenten f r 1 000 virtuelle Desktops Komponente L sung f r 1 000 virtuelle Desktops VMware vSphere CPU Desktopbetriebssystem Server e 1vCPU pro virtuellem Desktop e 8 virtuelle Desktops pro physischem Kern e 1 000 vCPUs e Mindestens 125 physische Kerne Serverbetriebssystem e 0 2 vCPUs pro virtuellem Desktop e 5 virtuelle Desktops pro physischem Kern e 200 vCPUs e Mindestens 200 physische Kerne Arbeitsspeicher Desktopbetriebssystem e 2GB RAM pro Desktop e Mindestens 2 TB RAM Serverbetriebssystem e 0 6 GB RAM pro Desktop e Mindestens 600 GB RAM Netzwerk FC Option 2 4 8 GB FC HBAs pro Server Netzwerk 1 Gbit 6 1 GbE NICs pro Server Option Netzwerk 10 Gbit 3 10 GbE NICs pro Blade Geh use Option Hinweis Zur Implementierung der vSphere HA Funktion und zur Erf llung der aufgelisteten Mindestwerte sollte die Infrastruktur ber mindestens einen zus tzlichen Server verf gen Netzwerkinfrastruktur FC e 2 physische Switche e 2 1 GbE Ports pro vSphere Server e 44 8 Gbit FC Ports f r VNX Back End 2 pro SP e 24 8 Gbit FC Ports pro vSphere Server 1 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 6 1 GbE Ports pro vSphere Server e 2 10 GbE Ports pro Data Mover f r Daten 10 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 310 GbE Ports pro Blade Geh use e 2 10 GbE Ports
76. L sungskomponenten ordnungsgem funktionieren sind Active Directory Services erforderlich Zu diesem Zweck wird der Microsoft Active Directory Service verwendet der auf einem Windows Server 2012 Server ausgef hrt wird DHCP Server Der DHCP Server wird f r das zentrale Management des IP Adressschemas f r die virtuellen Desktops verwendet Dieser Service wird auf derselben virtuellen Maschine gehostet wie der Domain Controller und der DNS Server Zu diesem Zweck wird der Microsoft DHCP Service verwendet der auf einem Windows 2012 Server ausgef hrt wird DNS Server F r die Namensaufl sung durch die verschiedenen L sungskomponenten sind DNS Services erforderlich Zu diesem Zweck wird der Microsoft DNS Service verwendet der auf einem Windows 2012 Server ausgef hrt wird EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 57 Kapitel 4 bersicht ber die L sungsarchitektur EMC Virtual Storage Integrator f r VMware vSphere EMC VSI f r VMware vSphere VSI ist ein Plug in f r den vSphere Client das Speichermanagement f r EMC Arrays direkt ber den Client bereitstellt VSI ist sehr anpassbar und unterst tzt die Bereitstellung einer einheitlichen Managementoberfl che IP Speichernetzwerke Der gesamte Netzwerkdatenverkehr wird ber ein Standard Ethernetnetzwerk mit redundanter Verkabelung und redundantem Switchi
77. LT View_User_Osta Vew_User_Profles elected for Registration R ETETETT 63504231 sem OTLT Vew User Data Vew_User Profies ctivation Fallure Nart x View _User_ Data View User Protes Cent activation wi be performed as a background process Vew_User_Dsta Vew_User_Profies i mONO Kg Virw_User_Data View_Uiser_Profien ve Verse 7 wrr Vew_lser_Data View_User_Profies g VSPEX 250 107 bsg04231 iss emc OTLT Vew_User Data Vew_User_Profies 7g VSPEX 260 14 0 be504231 ns emc ONT View User Data View User Profiles v gi MSPEX 250 102i53 degt l iss emc OTLT View _User_Osts View_User_Pro ies 1 g VSPLX2S9 11h bsp04231 iss emc OTLT View User Data View_User_Profies I vfen 60504231 bs emc ONT View _User_Dsta View User _Profies Pe toti gt gt i Dapieying 1 14002 Camera Cose Abbildungen 80 Erste informative Aufforderung bei der Avamar Clientaktivierung Die zweite Aufforderung weist darauf hin dass der Aktivierungsprozess initiiert wurde und Sie die Protokolle auf ihren Status berpr fen k nnen 15 Klicken Sie auf OK wie in Abbildungen 81 gezeigt 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Abbildungen 81 Zweite informative Aufforderung bei der Avamar Clientaktivierung Das Fenster Avamar Client Manager wird erneut mit den aktivierten Client
78. MC VSPEX Anwender Computing 69 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Clientzugriffs netzwerk Kabel als Illustration dargestellt Management im VNX System enthalten Network 3 sen n VNX Control Station Abbildungen 21 Erforderliche Netzwerke Hinweis Einige Best Practices erfordern eine zus tzliche Netzwerkisolierung f r Clusterdatenverkehr die Kommunikation auf der Virtualisierungsebene und andere Funktionen Diese zus tzlichen Netzwerke k nnen bei Bedarf implementiert werden sind jedoch nicht erforderlich Hinweis Wenn Sie sich bei der Bereitstellung f r die Option mit einem FC Speichernetzwerk entscheiden gelten hnliche Best Practices und Designrichtlinien Einrichten von Legen Sie das MTU Maximum Transmission Unit auf 9 000 Jumbo Frames f r Jumbo Frames einen effizienten Speicher und Migrationsdatenverkehr fest Verbindungsb nde Eine Link Zusammenfassung funktioniert hnlich wie ein Ethernetkanal es wird lung jedoch der LACP Standard IEEE 802 3ad verwendet Der Standard IEEE 802 3ad unterst tzt Link Zusammenfassungen mit zwei oder mehr Ports Alle Ports in der Aggregation m ssen ber dieselbe Geschwindigkeit verf gen und Vollduplex Ports sein In dieser L sung wird das Link Aggregation Control Protocol LACP auf VNX konfigur
79. Netzwerkeigenschaften von vCenter So aktivieren Sie Jumbo Frames auf der VNX 1 W hlen Sie Unisphere gt Settings gt Network gt Settings for File aus 2 W hlen Sie die entsprechende Netzwerkschnittstelle unter Interfaces aus 3 W hlen Sie Properties 4 Legen Sie die MTU Gr e auf 9 000 fest 5 Klicken Sie auf OK Jumbo Frames m ssen m glicherweise auch auf jedem Netzwerk Switch aktiviert werden Anweisungen dazu finden Sie im Konfigurationsleitfaden f r Ihren Switch Verbinden der Verbinden Sie die unter Vorbereiten und Konfigurieren des Speicherarrays VMware konfigurierten Datastores mit den entsprechenden vSphere Servern Dazu z hlen Datastores die Datastores die f r die folgenden Zwecke konfiguriert wurden e Virtueller Desktop Speicher e Virtueller Infrastrukturmaschinenspeicher falls erforderlich e SQL Server Speicher falls erforderlich 2 EMC VSPEX Anwender Computing 121 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Anweisungen zum Verbinden der VMware Datastores mit dem vSphere Host finden Sie im Handbuch f r vSphere Speicher Weitere Informationen finden Sie in Anhang C Die vSphere PowerPath VE FC Variante und NFS VAAI Plug ins NFS Variante m ssen installiert werden nachdem vCenter wie in Installieren und Konfigurieren des VMware vCenter Servers beschrieben bereit
80. R2 Standard Edition vStorage API for Array Integration Plug in 1 0 11 VAAD nur NFS Variante PowerPath Virtual Edition nur FC Variante 5 9 Virtuelle Desktops Hinweis ber das Basisbetriebssystem hinaus wurde weitere Software f r die L sungsvalidierung verwendet die jedoch nicht erforderlich ist Basisbetriebssystem e Microsoft Windows 7 Enterprise 32 Bit SP1 e Windows Server 2008 R2 SP1 Standard Edition Microsoft Office Office Enterprise 2007 Version 12 Internet Explorer 8 0 7601 17514 Adobe Reader 9 1 Adobe Flash Player 11 4 402 287 Bullzip PDF Printer 9 1 0 1454 FreeMind 0 8 1 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Dimensionierung Bei der Serverauswahl f r diese L sung sollte der Prozessorkern die Performance f r die validierte der Intel Nehalem Produktreihe mit 2 66 GHz erreichen oder bertreffen Wenn Konfiguration Server mit h herer Prozessorgeschwindigkeit Performance und Kerndichte verf gbar werden k nnen Server konsolidiert werden solange die erforderliche Gesamtmenge an Kernen und Arbeitsspeicher erreicht und gen gend Server f r die Unterst tzung der erforderlichen hohen Verf gbarkeit verwendet werden Genau wie bei Servern k nnen auch Geschwindigkeit und Menge der
81. S 32 APA anni 33 A A u a 35 Backup und Reeovery anne re 42 SICHETNBI ae eeeeeieigiie 43 Sharerlle anna 47 2 EMC VSPEX Anwender Computing 25 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung L sungstechnologie Diese VSPEX L sung verwendet die Speicherarrays EMC VNX5400 f r bis zu 1 000 virtuelle Desktops oder VNX5600 f r bis zu 2 000 virtuelle Desktops und VMware vSphere 5 1 und bietet die Speicher und Computerressourcen f r eine Citrix XenDesktop 7 Umgebung von virtuellen Windows 7 Desktops die von Provisioning Services PVS oder Machine Creation Services MCS bereitgestellt werden Abbildungen 4 zeigt die Komponenten der L sung Virtualisierungskomponenten Unterst tzende Infrastruktur Vai Desktops Virtuelle ng u r Desktop Broker Desktop virtualisierungs E Speichernetzwerk komponenten Netzwerkkomponenten Datenverarbeitungs komponenten Backup Speicher komponenten komponenten EMC VNX Speicherarray Netzwerkverbindungen Avamar Abbildungen 4 L sungskomponenten Insbesondere die Planung und das Design der Speicherinfrastruktur f r die XenDesktop Umgebung sind ein wichtiger Schritt da der gemeinsame Speicher gro e Belastungsspitzen bei I O Vorg ngen abfangen k nnen muss die im Laufe eines Arbeitstages auft
82. Sie Configure Bootstrap aus Das Dialogfeld Configure Bootstrap wird angezeigt wie in Abbildungen 48 gezeigt General Options Bootstrap fie ARDBP32 BIN v Server IP Addess Server Poit Device Subnet Mask Device Gateway 172 16 16 12 6910 255 255 224 0 0000 172 16 16 16 6910 255 255 224 0 0000 _ Ea Remove Movellp Move Down Read Servers from Database ok ce Heb Abbildungen 48 Dialogfeld Configure Bootstrap 3 Aktualisieren Sie das Bootstrap Image zum Abbilden der IP Adressen die f r alle PVS Server verwendet werden die Streaming Services nach dem Rotationsprinzip erm glichen W hlen Sie Read Servers from Database aus um automatisch eine Liste der PVS Server zu erhalten oder w hlen Sie Add aus um die Serverinformationen manuell hinzuzuf gen 4 Wenn Sie die Konfiguration eingestellt haben klicken Sie auf OK um die Bootstrap Datei ARDBP32 BIN zu aktualisieren die sich im Verzeichnis C ProgramData Citrix Provisioning Services Tftpboot befindet 5 Navigieren Sie zu dem Ordner und pr fen Sie den Zeitstempel der Bootstrap Datei um sicherzustellen dass sie auf dem gew nschten PVS Server aktualisiert wird Einrichten eines Zus tzlich zum NFS CIFS Server wird auch die VNX Plattform als TFTP Server TFTP Servers auf verwendet der ein Bootstrap Image bereitstellt wenn f r virtuelle Desktops ein VNX PXE Boot durchgef hrt wird Um den VNX TFTP Server zu konfigurie
83. Sie in Location cifs_server folder username domain V2 ein wobei domain der Name der Active Directory Dom ne ist 2 Geben Sie in Label as den Wert User_Profile ein 3 W hlen Sie Use und U unter Drive Letter aus li T Drive Letter F Use first avalstio atng ad F Use Br r Connect as optional wense UUS Passt gg 7 T Hide Show this dive dow all de G Ne chunge ee Ca C hon all den IN Acteren K Estersiad J Standard Eat darge A NE TR PH f f Abbildungen 53 Erstellen einer Windows Netzwerklaufwerkzuordnung f r Benutzerprofildaten 4 Schlie en Sie den Group Policy Editor um sicherzustellen dass die nderungen gespeichert werden EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 139 Kapitel 5 Richtlinien zur VSPEX Konfiguration Vorbereiten des In diesem Abschnitt finden Sie Informationen zur Verwendung von Avamar Client Master Image f r f r Windows zur Bereitstellung der Backup und Wiederherstellungsunterst tzung Avamar f r ber XenDesktop bereitgestellte virtuelle Desktops auf denen von Benutzern generierte Dateien in VNX Stammverzeichnissen gespeichert werden Avamar Client f r Windows wird als Windows Service namens Backup Agent installiert und ausgef hrt Dieser Serverservice bietet Backup und Wiederherstellungsfunktionen Die Windows Sicherheit sch
84. Standardm ig ist die Rate mit dem Wert Medium auf Mittel eingestellt sodass die Host I O Vorg nge nicht wesentlich beeintr chtigt werden Hinweis FAST VP ist ein vollst ndig automatisiertes Tool Daher kann die Durchf hrung von Verlagerungen automatisch geplant werden Planen Sie Verlagerungen au erhalb der Arbeitszeiten um potenzielle Performancebeeintr chtigungen zu vermeiden 2 Konfigurieren Sie FAST VP auf der LUN Ebene Einige FAST VP Eigenschaften werden auf der LUN Ebene gemanagt Klicken Sie auf Properties f r eine bestimmte LUN Klicken Sie in diesem Dialogfeld auf Tiering um Tiering Informationen f r diese einzelne LUN anzuzeigen wie in Abbildungen 46 dargestellt 118 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Provisioning von optionalem Speicher f r virtuelle Infrastruktur maschinen EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration APM001 21902839 LUN_1_Admin_VM_OS LUN Properties DOR n General Tiering Statistics Hosts Folders r FAST Settings Start High then Auto Tier Recommended v Initial Data Placement Highest Available Tier Data Movement Auto Tier Tier Details shown top down from highest to lowest Tier Distribution Extreme Performance 1 05 Performance 98 95 Cancel Help Abbildungen 46 Das Fenster LUN Properties Tiering
85. Tabellen 11 aufgef hrt liegt die die empfohlene H chstzahl f r VNX5400 bei 1 000 Desktops und die empfohlene H chstzahl f r VNX5600 bei 2 000 Desktops EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 73 Kapitel 4 bersicht ber die L sungsarchitektur Speicherlayout f r Grundlegendes Speicherlayout mit PVS Provisioning 500 virtuelle Abbildungen 23 zeigt das Layout der Laufwerke die zur Speicherung von Desktops 500 virtuellen Desktops mit PVS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten Bus 1 Geh use 1 Bus 1 Geh use 0 Bus 0 Enclosure 0 a SEE NL SAS UNGENUTZT Abbildungen 23 Grundlegendes Speicherlayout mit PVS Provisioning f r 500 virtuelle Desktops Grundlegendes Speicherlayout mit PVS Provisioning berblick Die folgende Kernkonfiguration wird in der Referenzarchitektur f r 500 virtuelle Desktop Maschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_0_4 und 1_1_5 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufw
86. Testen dieser L sung nicht verwendet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden um mehr Kapazit t bereitzustellen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse Optionales Speicherlayout Bei Validierungstests der L sung wurde der Speicherplatz f r Benutzerdaten auf dem VNX Array zugewiesen wie in Abbildungen 31 gezeigt Dieser Speicher wird zus tzlich zum oben dargestellten Kernspeicher verwendet Wenn Speicher f r Benutzerdaten an anderer Stelle der Produktionsumgebung vorhanden ist ist dieser zus tzliche Speicher nicht erforderlich 84 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Bus 0 Geh use 5 Bus 1 Geh use 4 Bus 0 Geh use 4 Bus 1 Geh use 3 Bus 0 Geh use 3 Bus 1 Geh use 2 lt EA Abbildungen 31 Optionales Speicherlayout f r 2 000 virtuelle Desktops bersicht ber das optionale Speicherlayout Das optionale Speicherlayout wird f r die Speicherung von Infrastrukturservern Benutzerprofilen Stammverzeichnissen und Personal vDisks verwendet Die folgende optionale Konfiguration wird in der Referenzarchitektu
87. ahl der t glichen Backups 30 Anzahl der w chentlichen Backups 4 Anzahl der monatlichen Backups 1 Backup Layout Avamar bietet verschiedene Bereitstellungsoptionen die vom jeweiligen Anwendungsbeispiel und den Recovery Anforderungen abh ngen In diesem Fall wird die L sung mit einem Avamar Data Store bereitgestellt Damit k nnen unstrukturierte Benutzerdaten direkt auf dem Avamar System gesichert werden sodass eine Recovery auf Dateiebene m glich ist Diese Backupl sung vereinheitlicht den Backupprozess mit einer Deduplizierungssoftware und einem Deduplizierungssystem und erzielt Performance und Effizienz auf h chstem Niveau Richtlinien zur Dimensionierung berblick Die folgenden Abschnitte enthalten Definitionen der Referenz Workload die f r die Dimensionierung und Implementierung der in diesem Leitfaden erl uterten VSPEX Architekturen verwendet wurde Es werden Anleitungen f r die Korrelation dieser Referenz Workloads mit tats chlichen Kunden Workloads und Informationen dazu bereitgestellt wie sich dies hinsichtlich der Server und des Netzwerks auf das Endergebnis auswirken kann Sie k nnen die Speicherdefinition ver ndern indem Sie Laufwerke f r h here Kapazit t und Performance hinzuf gen sowie Funktionen wie FAST Cache f r Desktops und FAST VP f r eine bessere Performance der Benutzerdaten hinzuf gen Die Festplattenlayouts werden erstellt um f r Unterst tzung der entsprechenden Anzahl virtueller Desktops f r das
88. al eryron E EE E S 41 VNX Dateifreigaben s sesssesesesssesesesesesssesssesesesesesesesssssssssssssssssssssssssssssssssss 41 OO ee 42 Back pund Recover een 42 berblick een eier 42 EMC Avamar ae kieelekiekiREBenEn 42 Sicherhelt es 43 Zwei Faktor Authentifizierung von RSA SecurlD eeeneeesesesenenenenenenenenenenenenn 43 SecurlD Authentifizierung eessessesesessesnensnsnnenenensnnnensnnnnnnnnnnnnennnnnnnnnnnennnnnn 43 Erforderliche K mpanenien ae a ie ek ksara 45 Rechner Arbeitsspeicher und Speicherressourcen eesessssennnnesnsnnnnnensnnnennnnnnnnn 46 SMATEHIlBxeereeesteetanessseter la eee a E AEE r EE EES 47 DBerbli ken ee ee see 47 ShareFile StorageZones Syse aa ie a n E n 47 ShareFile StorageZones Architektur eeeeeecenesssseseeeessnsnnnennnnnnnnnnnsnnnnnennnnnnnnennennn 48 Verwenden von StorageZones mit VSPEX Architekturen eeeeeesessssnensnneneeeenenn 49 Kapitel 4 bersicht ber die L sungsarchitektur 53 L sungs berblick useeeeseseneeenennnsnennnensnnnnnnnnnnnnnnnnnnnsnnnnnennnnnnnnnennnnnnnnnnnsnnensennnnnn 54 L sungs rchitekt r cerseeensesieineneettreettenharen ber E EEEE NEEE REh SS 54 Der ie ee a e e S 54 Logische Architekt r u sussnsanekeenaianiina kranken 55 Wichtige Komponenten ueseessessnsnsnsnnesssnennnnnnnnnnnnennennnnnsnnnnnnesnnsnsnsnnnnnnnessnennnn 56 Hardwareress ufeen sis 59 SoftwareressoufCen eeeseseenssssssnnnnnsnnnnensessnsnnnnsnnunennssensnnsnnnnensssensssnsnsnnnnsessnsn
89. alogfeld Storage Pool Properties Hinweis Die FAST Cache Funktion auf dem Array der VNX Serie f hrt nicht zu einer sofortigen Performanceverbesserung Das System muss Daten zu Zugriffsmustern sammeln und h ufig verwendete Informationen in den Cache hochstufen Dieser Prozess kann einige Stunden dauern in denen sich die Performance des Arrays kontinuierlich verbessert 116 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Provisioning von Wenn in der Produktionsumgebung noch kein f r die Benutzerdaten das hei t optionalem Roaming Benutzerprofile und Stammverzeichnisse erforderlicher Speicher Speicher f r vorhanden ist und die optionale Benutzerdatenspindel erworben wurde f hren Benutzerdaten Sie die folgenden Schritte in Unisphere aus um zwei CIFS Dateisysteme auf der VNX zu erstellen 1 Erstellen Sie einen blockbasierten RAID 6 Speicherpool der aus 16 24 oder 32 2 TB NL SAS Festplatten besteht 16 Festplatten f r 500 virtuelle Desktops 24 Festplatten f r 1 000 virtuelle Desktops oder 32 Festplatten f r 2 000 virtuelle Desktops Abbildungen 18 auf Seite 55 und Abbildungen 19 auf Seite 56 zeigen das Speicherlayout f r Benutzerdaten f r die L sung 2 Erstellen Sie 10 LUNs im Blockspeicherpool und stellen Sie diese dem Data Mover als dvols im vom Syste
90. als Teil eines regelm ig geplanten Wartungsvorgangs FAST VP wird nicht f r virtuellen Desktopspeicher empfohlen es kann aber zu Verbesserungen in der Performance f hren wenn es f r Benutzerdaten und Roamingprofile implementiert wird e Acht SAS Laufwerke 1_2_7 bis 1_2_14 im RAID 10 Speicherpool 5 werden f r die Speicherung von Personal vDisks verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 200 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als zwei NFS Datastores angezeigt F r FC werden zwei LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als zwei VMFS Datastores angezeigt Speicherlayout f r Grundlegendes Speicherlayout mit PVS Provisioning 1 000 virtuelle Abbildungen 26 zeigt das Layout der Laufwerke die zur Speicherung von Desktops 1 000 virtuellen Desktops mit PVS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten 2 EMC VSPEX Anwender Computing 77 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber di
91. amar Client Manager virtuelle Desktop Clients 153 Avamar Client Manager Ausw hlen virtueller Desktop Clients153 Ausw hlen der Avamar Gruppen denen virtuelle Desktops hinzugef gt werden sollen ueseseressssnsnsnsnensssnsnnnnnnnnnnnennnnnn 154 Aktivieren der Avamar Clients eeeessesessnsnneessnnnnennnnnnnnnnnnnnnn 154 Anwenden der Avamar Clientaktivierung ueseseseessseseseeeseeeee 155 Erste informative Aufforderung bei der Avamar Clientaktivierung155 Zweite informative Aufforderung bei der Avamar Clientaktivierung eeeseseeseseesesnsnsesnennnennnnnennnnnnnnnnnennensnsennenen 156 Avamar Client Manager aktivierte Clients euessesseeseeeseseeee 156 Schwellenwerte und Einstellungen unter VNX OE Block Version 33 sreci teisesse seepi oeni enes enter OSE EKL SENEE er 41 Minimum der Hardware Ressourcen zur Unterst tzung VONSECUFID ne rennen 47 Minimale Hardwareressourcen zur Unterst tzung von ShareFile StorageZones mit Storage Center eneneeeerenseenenseseen 50 Empfohlener VNX Speicher der CIFS Share f r ShareFile StorageZzongs ae nere ONEENS E E EEE SPEIER 51 Hardware der L sung ecesesseseeeenenssnnnnnnsennnnennnnnnnennnnnnnnnnnennn 59 Software der L sung eeeecesesesessnennnnnnnennnnnnnnnnnnnnnnnnnnenenenenenenn 63 Konfigurationen die diese L sung unterst tzen 64 ServerhardWale ea 66 Hardwareressourcen f r das Netzwerk eeseesessssnseessnnnnenennnnn 69 Speicherhardware ca
92. anagen sodass Anwender ihre eigenen Dateien ber eine einfache und intuitive webbasierte Benutzeroberfl che wiederherstellen k nnen Avamar verschiebt nur neue eindeutige Sub File basierte Datensegmente wodurch schnelle und t gliche komplette Backups bereitgestellt werden Dies f hrt zur einer Reduzierung der Backupzeiten um 90 und kann die erforderliche t gliche Netzwerkbandbreite um bis zu 99 verringern VNX Speicher bietet sowohl File als auch Blockzugriff sowie umfassende Funktionen und ist damit die ideale Wahl f r jede Anwender Computing Implementierung VNX Speicher beinhaltet die folgenden Komponenten deren Gr e auf die angegebene Referenzarchitektur Workload ausgelegt ist e Hostadapterports f r Block Bereitstellen der Hostkonnektivit t ber eine Fabric zum Array e Data Mover f r Datei Front end Appliances die Dateiservices f r Hosts bereitstellen optional bei Bereitstellung von CIFS SMB oder NFS Services e Speicherprozessoren SPs Die Rechnerkomponente des Speicherarrays die alle Aspekte der Datenverlagerung in aus und zwischen Arrays bernimmt e Festplattenlaufwerke Festplattenspindeln und Solid State Laufwerke SSDs mit den Host Anwendungsdaten sowie zugeh rige Geh use Hinweis Der Begriff Data Mover bezieht sich auf eine VNX Hardwarekomponente die ber eine CPU Arbeitsspeicher und I O Ports verf gt Hierdurch werden CIFS SMB und NFS Protokolle auf VNX aktiviert D
93. aufwerke oder durch Verwendung von Laufwerken desselben Typs aber mit h herer Kapazit t erweitert werden Diese Desktop Definition basiert auf Benutzerdaten die sich im gemeinsamen Speicher befinden Das I O Profil ist mithilfe eines Test Framework definiert in dem alle Desktops gleichzeitig mit einer gleichm igen Last ausgef hrt werden die von der konstanten Verwendung von b robasierten Anwendungen wie Browsern Office Produktivit tssoftware und anderen Standarddienstprogrammen f r die Aufgaben von Mitarbeitern generiert wird 92 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anwenden der Referenz Workload Kapitel 4 bersicht ber die L sungsarchitektur Sie m ssen ggf auch andere Faktoren als die unterst tzte Anzahl der Desktops 500 1 000 oder 2 000 in Betracht ziehen wenn Sie entscheiden welche L sung f r Anwender Computing Sie bereitstellen Gleichzeitigkeit Bei den f r die Validierung von VSPEX L sungen verwendeten Workloads wird davon ausgegangen dass alle Desktop Benutzer jederzeit aktiv sind Die Architektur f r 1 000 Desktops wurde mit 1 000 Desktops getestet die alle parallel eine Workload generieren alle zur selben Zeit gestartet wurden usw Wenn Ihr Kunde erwartet dass er 1 200 Benutzer haben wird von denen aber zu jedem Zeitpunkt aufgrund von Zeitzonenunterschieden oder abwechs
94. buch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Sicherheit Zwei Faktor Die Zwei Faktor Authentifizierung von RSA SecurlD sorgt f r zus tzliche Sicherheit Authentifizierung f r die VSPEX Anwender Computing Umgebung da der Benutzer sich mit zwei von RSA SecurlD Arten von Daten authentifizieren muss Diese Daten werden als Passphrase bezeichnet und bestehen aus e Etwas das dem Benutzer bekannt ist eine PIN die genau wie jede andere PIN bzw jedes andere Passwort genutzt wird e Etwas das der Benutzer besitzt ein Tokencode eines physischen oder Softwaretokens der sich alle 60 Sekunden ndert In einem typischen Anwendungsbeispiel wird SecurlD implementiert um Benutzer zu authentifizieren die von einem externen oder ffentlichen Netzwerk aus auf gesch tzte Ressourcen zugreifen Zugriffsanfragen aus einem sicheren Netzwerk werden anhand von herk mmlichen Mechanismen mit Active Directory oder LDAP authentifiziert Die SecurlD Funktion wird ber den RSA Authentication Manager verwaltet der zudem f r Verwaltungsfunktionen wie die Zuordnung von Tokens an Benutzer Benutzermanagement und Hochverf gbarkeit zust ndig ist Die Citrix NetScaler Netzwerk Appliance und Citrix Storefront erm glichen eine rationalisierte Integration von SecurlD in die XenDesktop Umgebung SecurlD F r externe Zugriffsanforderungen in der VSPEX Umgebung f r Anwender Authentifizierung Computing mit Citrix
95. chen Speicher bereitzustellen Wenn mehrere Laufwerkstypen implementiert wurden kann FAST VP aktiviert werden um ein automatisches Daten Tiering zu erreichen und die Unterschiede in Performance und Kapazit t zu nutzen FAST VP kommt auf der Poolebene des Blockspeichers zum Einsatz und regelt automatisch wo Daten gespeichert werden Dies geschieht auf der Grundlage der H ufigkeit der Zugriffe auf diese Daten H ufig verwendete Daten werden in Schritten von 1 GB auf h here Speicher Tiers heraufgestuft w hrend selten abgerufene Daten aus Gr nden der Kosteneffizienz an ein niedrigeres Tier migriert werden k nnen Diese Neubalancierung von 1 GB Dateieinheiten oder Slices erfolgt als Teil eines regelm ig geplanten Wartungsvorgangs FAST VP wird nicht f r virtuellen Desktopspeicher empfohlen es kann aber zu Verbesserungen in der Performance f hren wenn es f r Benutzerdaten und Roamingprofile implementiert wird e 16 SAS Laufwerke 0_3_0 bis 0_3_13 und 1_3_0 bis 1_3_1 im RAID 10 Speicherpool 5 werden f r die Speicherung von Personal vDisks verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 400 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von vier NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als vier NFS Datastores angezeigt F r FC werden vier LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestell
96. chine so dass der Netzwerkadapter ganz oben im Boot Auftrag steht um den PXE Boot des PVS Bootstrap Images sicherzustellen 134 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Provisioning der Gehen Sie wie folgt vor um PVS basierte virtuelle Desktops bereitzustellen virtuellen 1 F hren Sie den Assistenten f r das PVS Imaging aus um ein Clone des Desktops Masterimages auf einem vDisk zu erstellen 2 Wenn der Clone Vorgang abgeschlossen ist fahren Sie die virtuelle Master Maschine herunter und ndern Sie die folgenden vDisk Eigenschaften Zugriffsmodus Standardimage Cache Typ Cache auf dem Ger telaufwerk 3 Bereiten Sie eine Vorlage f r eine virtuelle Maschine vor die der XenDesktop Installationsassistent im n chsten Schritt verwenden kann 4 F hren Sie den XenDesktop Installationsassistenten in der PVS Konsole aus um einen Maschinenkatalog zu erstellen der die festgelegte Anzahl der virtuellen Desktops enth lt 5 F gen Sie die im Katalog erstellten virtuellen Desktops einer Liefergruppe hinzu damit die virtuellen Desktops f r Anwender zur Verf gung stehen Einrichten von EMC Avamar bersicht ber die In diesem Abschnitt finden Sie Informationen zur Installation und Konfiguration Avamar von Avamar das f r die Unterst tzung von Guest
97. cht Die L sung erm glicht ein zentrales Desktop Management und bietet erweiterte Kontrollm glichkeiten f r IT Organisationen Mit XenDesktop k nnen Anwender von mehreren Ger ten aus ber eine Netzwerkverbindung auf ihren Desktop zugreifen Virtualisierung VMware vSphere ist die branchenf hrende Virtualisierungsplattform und bietet Anwendern Flexibilit t und Kosteneinsparungen durch die Konsolidierung gro er ineffizienter Serverfarmen in schlanke zuverl ssige Cloud Infrastrukturen Die vSphere Kernkomponenten sind der vSphere Hypervisor und der VMware vCenter Control Server f r das Systemmanagement Der VMware Hypervisor wird auf einem dedizierten Server ausgef hrt und erm glicht die gleichzeitige Ausf hrung mehrerer Betriebssysteme im System als virtuelle Maschinen in einer Clusterkonfiguration Die Clusterkonfiguration wird als gr erer Ressourcenpool durch das vCenter Produkt gemanagt und erm glicht die dynamische Zuweisung von CPU Arbeitsspeicher und Speicher im gesamten Cluster Dank Funktionen wie VMware vSphere vMotion mit dereine virtuelle Maschine ohne Unterbrechung des Betriebssystems zwischen verschiedenen Servern verschoben werden kann und Distributed Resource Scheduler DRS f r einen automatischen Lastenausgleich mit vMotion ist vSphere eine solide Wahl f r Unternehmen Mit der Ver ffentlichung von vSphere 5 1 kann eine virtualisierte VMware Umgebung virtuelle Maschinen mit bis zu 64 virtuellen CPUs und
98. definierte Performance Level zu sorgen Die Reduzierung der Anzahl von empfohlenen Festplatten oder Verwendung eines schw cheren Array Typs kann zu einer niedrigeren IOPS Zahl pro Desktop und einem schlechteren Anwendererlebnis aufgrund der h heren Reaktionszeit f hren 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Referenz Workload Jede VSPEX Proven Infrastructure stimmt die erforderlichen Speicher Netzwerk und Rechnerressourcen f r eine Reihe von virtuellen Maschinen die von EMC validiert wurden aufeinander ab In der Praxis verf gt jede virtuelle Maschine ber eine Reihe individueller Anforderungen die sich selten mit den zuvor entwickelten Vorstellungen dessen decken wozu eine virtuelle Maschine in der Lage sein sollte Bei jedem Gespr ch ber virtuelle Infrastrukturen ist es wichtig zuerst eine Referenz Workload zu definieren Nicht alle Server f hren dieselben Aufgaben durch und es ist wenig sinnvoll eine Referenzarchitektur aufzubauen die alle m glichen Kombinationen aus Workload Eigenschaften ber cksichtigt Definieren der Es wurde eine repr sentative Referenz Workload des Kunden definiert Sie k nnen Referenz Workload ber den Vergleich der tats chlichen Auslastung beim Kunden mit dieser Referenz Workload ableiten welche Referenzarchitektur in sei
99. den die ausstehenden Schreibvorg nge zusammengef hrt und persistent gemacht e Control Stations haben eine Gr e von 1 HE und stellen Managementfunktionen f r die dateiseitigen Komponenten bereit die als X Blades bezeichnet werden Die Control Station ist f r das X Blade Failover zust ndig Die Control Station kann optional mit einer passenden sekund ren Control Station konfiguriert werden um Redundanz f r das VNX Array zu erm glichen e Disk Array Enclosures DAEs enthalten die im Array verwendeten Laufwerke EMC Avamar Die Avamar Software stellt die Plattform f r den Schutz virtueller Maschinen bereit F r diese Schutzstrategie werden persistente virtuelle Desktops Imageschutz und Anwender Recovery verwendet Hardwareressourcen In Tabellen 5 wird die in dieser L sung verwendete Hardware aufgelistet Tabellen 5 Hardware der L sung Hardware Konfiguration Anmerkungen Speicher e Desktopbetriebssystem 2 GB RAM pro Desktop 1 TB RAM f r alle Server bei 500 virtuellen Desktops 2TBRAM f r alle Server bei 1 000 virtuellen Desktops ATBRAM auf allen Servern f r 2 000 virtuelle Erforderliche Server f r virtuelle Desktops Gesamtserverkapazit t f r das Hosten von virtuellen Desktops Desktops e Serverbetriebssystem 0 6 GB RAM pro Desktop 300 GB RAM f r alle Server bei 500 virtuellen Desktops 600 GB RAM f r alle Server bei 1 000 virtuellen Desktops 1 2 TB RAM f r alle Serve
100. der vorhandenen Serverfarm Erstellen eines PVS Speichers Geben Sie den Speicherpfad an in dem sich die vDisks befinden werden Konfigurieren der eingehenden Kommunikation Passen Sie die Gesamtzahl der Threads an die f r die Kommunikation mit den einzelnen virtuellen Desktops verwendet wird Konfigurieren einer Bootstrap Datei Aktualisieren Sie das Bootstrap Image damit beide PVS Server Streaming Services bereitstellen k nnen Einrichten eines TFTP Servers auf VNX Kopieren Sie das Bootstrap Image auf den TFTP Server der auf VNX gehostet wird Konfigurieren der Boot Optionen 66 und 67 auf dem DHCP Server Geben Sie die TFTP Server IP und den Namen des Bootstrap Image an das zum Booten der Preboot eXecution Environment PXE verwendet wird Vorbereiten einer virtuellen Master Maschine Erstellen Sie eine virtuelle Master Maschine als Basis Image f r die virtuellen Desktops Provisioning von virtuellen Desktops Stellen Sie Desktops mittels PVS bereit EMC VSPEX Anwender Computing 131 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Konfigurieren einer PVS Serverfarm Hinzuf gen eines zweiten PVS Servers Erstellen eines PVS Speichers Konfigurieren der eingehenden Kommunikation 132 EMC VSPEX Anwender Computing C
101. der Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 75 Kapitel 4 bersicht ber die L sungsarchitektur e Zehn SAS Laufwerke 1_0_5 bis 1_0_14 auf dem RAID 5 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 400 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als zwei NFS Datastores angezeigt F r FC werden zwei LUNs mit jeweils 2 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als zwei VMFS Datastores angezeigt Hinweis Wenn Personal vDisk implementiert wird ist die H lfte der Laufwerke f nf SAS Laufwerke f r 500 Desktops ausreichend um die Performanceanforderungen zu erf llen Die Desktopkapazit t sinkt jedoch um 50 Prozent Wenn die Kapazit tsanforderungen Ihrer Umgebung erf llt werden implementieren Sie Personal vDisk mit MCS Provisioning mit f nf SAS Laufwerken f r 500 Desktops e Zwei Flashlaufwerke 1_1_O und 1_1_1 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerkonfigurierbaren LUNs vorhanden e Die Laufwerke 0_0_4 bis 0_0_24 1_0_0 bis 1_0_3 und 1_1_3 bis 1_1_14 sind ungenutzt Sie wurden f r das Testen dieser L sung nicht verwe
102. dere Bereiche des Systems haben P EMC VSPEX Anwender Computing 99 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Serverressourcen In der VSPEX L sung f r Anwender Computing ist es m glich die Serverhardwareressourcen effektiver anzupassen Bestimmen Sie dazu zun chst die gesamten Ressourcenanforderungen f r die Serverkomponenten wie in Tabellen 19 dargestellt Notieren Sie sich die Summe der Spalten Gesamtanzahl der CPU Ressourcen und Gesamtanzahl der Arbeitsspeicherressourcen Tabellen 19 Gesamtanzahl der Serverressourcenkomponenten Benutzertyp CPU Arbeitsspeicher Anzahl Gesamt CPU Gesamtspeicherressourcen virtuelle GB der Ressourcen GB CPUs Benutzer Benutzer Ressource 2 8 100 200 800 mit h ufiger nanforde Nutzung rungen Benutzer Ressource 2 4 100 200 400 mit nanforde mittlerer rungen Nutzung Tvpische Ressource 1 2 300 300 600 Yp nanforde Benutzer rungen Gesamt 700 1 800 In diesem Beispiel sind f r die Zielarchitektur 700 virtuelle CPUs und 1 800 GB Arbeitsspeicher erforderlich Bei 8 Desktops pro physischem Prozessorkern in einer Bereitstellung mit Desktopbetriebssystem und keinem berm igen Provisioning von Arbeitsspeicher bedeutet dies 88 physische Prozessorkerne und 1 800 GB Arbeitsspeicher Im Gegen
103. derlichen Redundanz zur Unterst tzung einer hohen Verf gbarkeit Zus tzliche Server NICs und Speicherverbindungen sollten auf der Basis von Kundenw nschen oder speziellen Implementierungsanforderungen ebenfalls in Betracht gezogen werden Die Managementinfrastruktur Active Directory DNS DHCP und SQL Server kann auf zwei Servern unterst tzt werden die den zuvor definierten hnlich sind wobei jedoch nur mindestens 20 GB RAM statt 128 GB erforderlich sind In den Richtlinien f r die Serverkonfiguration wird das Speicherlayout der Laufwerke beschrieben Richtlinien f r die Serverkonfiguration berblick Beim Entwerfen und Bestellen der Rechner und Serverebene der VSPEX L sung k nnen mehrere Faktoren die endg ltige Kaufentscheidung beeinflussen Aus Virtualisierungssicht k nnen Funktionen wie Arbeitsspeichererweiterung Ballooning und die transparente gemeinsame Nutzung von Arbeitsspeicherseiten den gesamten Speicherbedarf reduzieren wenn die Workload eines Systems gr ndlich analysiert wird Wenn der Pool der virtuellen Desktops keine hohe Spitzenauslastung oder gleichzeitige Nutzung aufweist kann die Anzahl der vCPUs vermindert werden Andererseits m ssen die CPUs und der Arbeitsspeicher m glicherweise aufgestockt werden wenn die bereitgestellten Anwendungen viel Rechenleistung erfordern 2 EMC VSPEX Anwender Computing 65 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops 6 Handb
104. derungen von Midrange Speichersystemen EMC hat die Midrange Speicherplattform neu gestaltet sodass jetzt Multi Core CPUs effizient optimiert werden um das leistungsst rkste und zugleich kosteng nstigste Speichersystem des Markts anzubieten Wie aus Abbildungen 1 ersichtlich wird verteilt MCx alle VNX Datenservices auf s mtliche Prozessorkerne bis zu 32 Die VNX Serie mit MCx hat die Dateiperformance f r Transaktionsanwendungen wie Datenbanken oder virtuelle Maschinen ber Network Attached Storage NAS erheblich verbessert ur Statische Kernauslastung Dynamische Multicore Optimierung 100 Kernauslastung S 01234567 8 9 101112131415 Kernanzahl Kernanzahl BRAD Wio MEDRAMCache I FAST Cache Datenservioes Management Verf gbar Abbildungen 1 VNX der n chsten Generation mit Multicore Optimierung Multicore Cache Der Cache ist die wertvollste Ressource im Speichersubsystem Seine effiziente Nutzung ist der Schl ssel zur Gesamteffizienz der Plattform bei der Handhabung verschiedener und ver nderlicher Workloads Die Cache Engine wurde modularisiert um alle im System verf gbaren Kerne nutzen zu k nnen EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 21 Kapitel 2 L sungs berblick Multicore RAID Ein weiterer wichtiger Bestandteil des neuen MCx Designs ist die Behandlung der I O im permanenten Back end Speicher
105. die Rechnerebene auf Speicher zugreifen und mit Benutzern kommunizieren kann selbst wenn eine Komponente ausf llt Speicherebene Die VNX Serie ist durch die Verwendung redundanter Komponenten im gesamten Array auf eine besonders hohe Verf gbarkeit ausgelegt Alle Array Komponenten k nnen bei einem Hardwareausfall einen kontinuierlichen Betrieb erm glichen Die RAID Laufwerkskonfiguration auf dem Array bietet Schutz vor Datenverlust aufgrund von Ausf llen einzelner Laufwerke und die verf gbaren Hot Spare Laufwerke k nnen dynamisch zugewiesen werden um ein ausgefallenes Laufwerk zu ersetzen Dies wird in Abbildungen 35 gezeigt 88 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 4 bersicht ber die L sungsarchitektur RAID Schutz vor Laufwerkausfall Stand by Data Mover f r sofortigen Failover Dual Control Station f r Managementredundanz Redundante Stromversorgung f r alle Komponenten Dual Control Station f r Managementredundanz Stand by Netzteil zur Gew hrleistung der Datenintegrit t Abbildungen 35 Hohe Verf gbarkeit der VNX Serie EMC Speicherarrays sind standardm ig auf hohe Verf gbarkeit ausgelegt Wenn sie gem den Anweisungen in den jeweiligen Installationsanleitungen konfiguriert werden f hrt der Ausfall einer einzigen Einheit nicht zu Datenverlust ode
106. dien f r Microsoft SQL Server 2008 R2 Hinweis Diese Anforderung wird m glicherweise durch die vorhandene Infrastruktur erf llt Software Nur FC EMC PowerPath Variante Weitere Informationen finden Sie auf der EMC Online Support Website Software Nur EMC vStorage API for Array Integration Plug in NFS Variante Weitere Informationen finden Sie auf der EMC Online Support Website Lizenzen Lizenzschl ssel f r VMware vCenter 5 1 Lizenzschl ssel f r VMware vSphere 5 1 Desktop Lizenzdateien f r Citrix XenDesktop 7 e Lizenzschl ssel f r Microsoft Windows Server 2008 R2 Standard oder h her e Lizenzschl ssel f r Microsoft Windows Server 2012 Standard oder h her Hinweis Diese Anforderung wird m glicherweise durch den vorhandenen Microsoft Schl sselverwaltungsserver KMS abgedeckt Lizenzschl ssel f r Microsoft Windows 7 Hinweis Diese Voraussetzung wird m glicherweise durch den vorhandenen Microsoft KMS abgedeckt Lizenzschl ssel f r Microsoft SQL Server Hinweis Diese Anforderung wird m glicherweise durch die vorhandene Infrastruktur erf llt Lizenzen Lizenzdateien f r EMC PowerPath Virtual Edition Nur FC Variante 106 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Sammeln der Konfig
107. dien f r vSphere 5 1 und installieren Sie den Hypervisor auf jedem der Server F r die Installation sind vSphere Hostnamen IP Adressen und ein Root Passwort erforderlich In Anhang B finden Sie die entsprechenden Werte W hrend der Installation von vSphere wird ein virtueller Standard Switch vSwitch erstellt Standardm ig w hlt vSphere nur eine physische NIC als virtuellen Switch Uplink aus Zum Erf llen der Redundanz und Bandbreitenanforderungen f gen Sie eine zus tzliche NIC hinzu entweder ber die vSphere Konsole oder durch eine Verbindung mit dem vSphere Host vom vSphere Client aus Jeder vSphere Server sollte ber mehrere NICs f r jedes virtuelle Netzwerk verf gen um Redundanz und die Verwendung von Netzwerklastenausgleich Link Zusammenfassung und Netzwerkadapter Failover zu erm glichen 120 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Die vSphere Netzwerkkonfiguration einschlie lich Lastenausgleich Link Zusammenfassung und Failover Optionen ist im Handbuch f r vSphere Netzwerk beschrieben Weitere Informationen finden Sie in Anhang C W hlen Sie die entsprechende Option f r den Lastenausgleich auf der Basis dessen aus was von der Netzwerkinfrastruktur unterst tzt wird Erstellen Sie VMkernel Ports nach Bedarf basierend auf der Inf
108. dlich Die virtuelle Maschine sollte auf einem der vSphere Server erstellt werden der f r virtuelle Infrastrukturmaschinen vorgesehen ist und den f r die gemeinsame Infrastruktur designierten Datastore verwenden Der SQL Server Service muss unter Microsoft Windows ausgef hrt werden Installieren Sie Windows auf der virtuellen Maschine und w hlen Sie das geeignete Netzwerk die Uhrzeit und die Authentifizierungseinstellungen aus EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Installieren von SQL Server Konfigurieren einer Datenbank f r VMware vCenter Konfigurieren der Datenbank f r VMware Update Manager EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Installieren Sie SQL Server von den SQL Server Installationsmedien auf der virtuellen Maschine Informationen zum Installieren von SQL Server finden Sie auf der Microsoft TechNet Website Eine der Komponenten im SQL Server Installationsprogramm ist SQL Server Management Studio SSMS Sie k nnen diese Komponente direkt auf dem SQL Server und auf einer Administratorkonsole installieren Installieren Sie unbedingt SSMS auf mindestens einem System In vielen Implementierungen werden Sie Datendateien m glicherweise an anderen Standorten als dem Standardpfad speichern Zum ndern des Standardpfads klicken Sie mit der rechten Maustaste in SSMS a
109. e Informationen finden Sie im Abschnitt EMC VNX der n chsten Generation VNX Snapshots ist eine Softwarefunktion zum Erstellen von Point in Time Kopien von Daten Snapshots k nnen f r Datenbackups Softwareentwicklung und tests neue Verwendung Datenvalidierung und schnelle lokale Wiederherstellungen verwendet werden VNX Snapshots verbessert die vorhandene Snapshot Funktion von EMC SnapViewTM durch Integration in Speicherpools Hinweis LUNs die in physischen RAID Gruppen erstellt werden und auch als RAID LUNs bezeichnet werden unterst tzen nur SnapView Snapshots Diese Einschr nkung besteht da VNX Snapshots Poolspeicherplatz als Teil der eigenen Technologie erfordert VNX Snapshots unterst tzt 256 beschreibbare Snapshots pro Pool LUN Die Funktion unterst tzt Branching auch als Snapshot eines Snapshots bezeichnet sofern die Gesamtzahl der Snapshots f r eine prim re LUN kleiner als der feste Grenzwert von 256 ist VNX Snapshots nutzt ROW Technologie Redirect on Write ROW leitet neue Schreibvorg nge die f r die prim re LUN bestimmt sind zu einem neuen Speicherort im Speicherpool um Diese Implementierung unterscheidet sich von der in SnapView verwendeten Methode COFW Copy on First Write bei der die Schreibvorg nge auf die prim re LUN angehalten werden bis die Originaldaten in den reservierten LUN Pool kopiert wurden um einen Snapshot nicht zu berschreiben In dieser Version werden auch Consistency Gro
110. e L sungsarchitektur Bus 1 Geh use 1 Bus 1 Geh use 0 Bus 0 Enclosure 0 lt T SSD a NL SAS UNGENUTZT Abbildungen 26 Grundlegendes Speicherlayout mit PVS Provisioning f r 1 000 virtuelle Desktops Grundlegendes Speicherlayout mit PVS Provisioning berblick Die folgende Kernkonfiguration wird in der Referenzarchitektur f r 1 000 virtuelle Desktopmaschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_0_4 und 1_0_7 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 26 als Hot Spare Laufwerke gekennzeichnet e 16 SAS Laufwerke 1_0_8 bis 1_O_14 und 1_1_0 bis 1_1_8 im RAID 10 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 400 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von vier NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als vier NFS Datastores angezeigt F r FC werden vier LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als vier VMFS Datastores angezeigt e Zwei Flashlaufwerke 1_O_5 und 1_0_6 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerk
111. e Themen behandelt WERE ua ae 160 Checkliste nach der Installation uni a 161 Bereitstellen und Testen eines einzigen virtuellen Desktops ec0000sss00e0ee 161 berpr fen der Redundanz der L sungskomponenten 2 22222022022020020e000000 161 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 159 Kapitel 6 Validierung der L sung berblick In diesem Kapitel finden Sie eine Liste der Elemente die Sie nach dem Konfigurieren der L sung pr fen m ssen Die Liste hilft Ihnen bei der berpr fung der Konfiguration und Funktion bestimmter Aspekte der L sung Au erdem soll berpr ft werden ob die Konfiguration die ben tigten Verf gbarkeitsanforderungen erf llt In Tabellen 32 werden die auszuf hrenden Aufgaben n her beschrieben Tabellen 32 Aufgaben f r das Testen der Installation Aufgabe Beschreibung Referenz F hren Sie die Aufgaben der Checkliste nach der Installation aus berpr fen Sie ob geeignete virtuelle Ports auf jedem virtuellen vSphere Host Switch vorhanden sind Handbuch f r vSphere Netzwerk berpr fen Sie ob jeder vSphere Host auf die erforderlichen Datastores und VLANs zugreifen kann e Handbuch f r vSphere Speicher e Handbuch f r vSphere Netzwerk berpr fen Sie ob die vMotion Schnittstellen auf allen vSphere Hosts korrekt installi
112. e Zweck Prim re IP Domain Controller Prim res DNS Sekund res DNS DHCP NTP SMTP SNMP vCenter Konsole XenDesktop Konsole Provisioning Services Konsole SQL Server Tabellen 37 vSphere Serverinformationen Servername Zweck Prim re IP Private Netzadressen Speicher vSphere Host 1 vSphere Host 2 Tabellen 38 Array Informationen Array Name Administratorkonto Management IP Name des Speicherpools Name des Datastore NFS Server IP 172 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang B Datenblatt f r die Kundenkonfiguration Tabellen 39 Informationen zur Netzwerkinfrastruktur Vorname Zweck IP Adresse Subnetzmaske Standard Gateway Ethernet Switch 1 Ethernet Switch 2 Tabellen 40 VLAN Informationen Vorname Zweck des Netzwerks VLAN ID Zugelassene Subnetze vSphere Management Virtuelles Maschinennetzwerk NFS Speichernetzwerk vMotion Tabellen 41 Servicekonten Passwort optional angemessen aufrufen Zweck nen Windows Server Administrator root vSphere Root root Array Administrator vCenter Administrator XenDesktop Administrator Provisioning Services
113. e die angegebenen Mindestwerte erf llt oder bertrifft Die angegebene Speicherarchitektur wurde zusammen mit einem System das die beschriebenen Server und Netzwerkanforderungen erf llt von EMC validiert und bietet sowohl eine hohe Performance als auch eine Architektur mit hoher Verf gbarkeit f r Ihre Anwender Computing Bereitstellung Jede von EMC validierte VSPEX Proven Infrastructure sorgt f r einen Ausgleich der Speicher Netzwerk und Rechnerressourcen die f r eine bestimmte Anzahl an virtuellen Desktops erforderlich sind In der Praxis verf gt jeder virtuelle Desktop ber eine Reihe individueller Anforderungen die sich selten mit den zuvor entwickelten Vorstellungen dessen decken wozu ein virtueller Desktop in der Lage sein sollte In jeder Er rterung von Anwender Computing sollte zun chst eine Referenz Workload definiert werden Nicht alle Server f hren dieselben Aufgaben durch und es ist wenig sinnvoll eine Referenzarchitektur aufzubauen die alle m glichen Kombinationen aus Workload Eigenschaften ber cksichtigt L sungsarchitektur berblick Die VSPEX Anwender Computing L sung f r bis zu 2 000 virtuelle Desktops wurde an drei verschiedenen Skalierungspunkten validiert Die definierten Konfigurationen bilden die Basis f r die Erstellung einer kundenspezifischen L sung Die Skalierungspunkte sind in Bezug auf die Referenz Workload definiert Hinweis VSPEX verwendet das Konzept eines Referenz Workload zur Beschr
114. e externen Hosts sowie f r die Dateiseite des VNX Arrays e Das Disk Processor Enclosure DPE hat eine Gr e von 3 HE und enth lt jeden Speicherprozessor sowie den ersten Festplattenschacht Dieser Formfaktor wird bei VNX5300 und VNX5500 verwendet e Data Mover oder X Blades greifen ber das Back end auf Daten zu und stellen Hostzugriff mithilfe derselben UltraFlex I O Technologie bereit die die folgenden Protokolle unterst tzt Network File System NFS Common Internet File System CIFS Multi Path File System MPFS und Parallel NFS pNFS Die X Blades in den einzelnen Arrays sind skalierbar und sorgen mit Redundanz daf r dass kein Single Point of Failure vorhanden ist e Das Data Mover Enclosure DME hat eine Gr e von 2 HE und enth lt die Data Mover Es hat eine hnliche Form wie das Storage Processor Enclosure SPE und wird auf allen VNX Modellen mit Dateiunterst tzung verwendet 58 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur e Standby Netzteile haben eine Gr e von 1 HE und stellen ausreichend Energie f r jeden Speicherprozessor bereit um sicherzustellen dass alle gerade bertragenen Daten bei einem Stromausfall in den Vault Bereich ausgelagert werden Auf diese Weise gehen keine Schreibvorg nge verloren Nach dem Neustart des Arrays wer
115. eibung und Definition einer virtuellen Maschine Daher entspricht ein physischer oder virtueller Desktop in einer vorhandenen Umgebung m glicherweise nicht einem virtuellen Desktop in einer VSPEX L sung Bewerten Sie Ihre Workload im Sinne der Referenz um eine geeignete Skalierung zu bestimmen Eine detaillierte Beschreibung finden Sie im Abschnitt Anwenden der Referenz Workload 54 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur In den Architekturdiagrammen in diesem Abschnitt wird das Layout der wichtigen L sungskomponenten f r die Speichervarianten NFS und Fibre Channel FC gezeigt Logische Architektur Abbildungen 18 zeigt die logische Architektur der NFS Variante wobei der gesamte Netzwerkdatenverkehr vom 10 GbE Netzwerk bertragen wird Desktopbenutzer ICA Clients a nn Virtueller Desktop Virtueller Desktop Nr 1 Nr n VMware vSphere 5 1 virtuelle Desktops m ka XenDesktop 7 vCenter PVS Server Controller Nr 2 Server Nr 2 x AD DNS XenDesktop 7 SQL PVS Server DHCP Controller Nr 1 Server Nr 1 VMware vSphere 5 1 virtuelle Server VMware vSphere 5 1 Cluster z am 3 virtuelle Desktops VMware vSphere 5 1 Clusterinfrastruktur 10 Gbit Ethernetnetzwerk Abbildungen 18
116. eiten mit geringer Systemaktivit t 146 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Zus tzliche Informationen zur Definition von Aufbewahrungs Policies finden Sie im Administrationshandbuch f r EMC Avamar 7 Erstellen der Avamar verwendet Gruppen zur Implementierung verschiedener Policies f r die Gruppe und der Automatisierung von Backups sowie zur Durchsetzung konsistenter Regeln und Gruppen Policy Systemverhaltensweisen in einem gesamten Segment oder einer gesamten Gruppe der Benutzer Community Gruppenmitglieder sind Clientmaschinen die f r die Durchf hrung geplanter Backups einer bestimmten Gruppe hinzugef gt wurden Gruppen geben nicht nur an welche Clients zu einer Gruppe geh ren sondern auch Folgendes e Datasets e Zeitpl ne e Aufbewahrungs Policies Diese Objekte bilden die Gruppen Policy Die Gruppen Policy steuert das Backup Verhalten aller Gruppenmitglieder au er Sie berschreiben diese Einstellungen auf Clientebene Zus tzliche Informationen zu Gruppen und Gruppen Policies finden Sie im Administrationshandbuch f r EMC Avamar 7 In diesem Abschnitt werden Informationen zur Gruppenkonfiguration bereitgestellt die f r ordnungsgem e Backups von Benutzerdateien und Benutzerprofilen erforderlich sind Erstellen Sie zwei Gruppen und
117. ellende Number of LUNs Hinweis Zehn LUNs werden erstellt weil EMC Performance Engineering die Erstellung von ca einer LUN pro vier Festplatten im Speicherpool sowie das Erstellen von LUNs in Schritten von Zehn empfiehlt Informationen finden Sie im EMC VNX Unified Best Practices f r Performance Leitfaden zur Anwendung von Best Practices d Wechseln Sie zu Hosts gt Storage Groups e W hlen Sie filestorage aus f Klicken Sie auf Connect LUNs g W hlen Sie unter Available LUNs die soeben erstellten 10 LUNs aus h Die LUNS werden sofort unter Selected LUNs angezeigt Volume Manager erkennt einen neuen Speicherpool f r Dateien automatisch Sie k nnen aber auch auf Rescan Storage System unter Storage Pool for File klicken um direkt danach zu suchen j Fahren Sie erst fort wenn der neue Speicherpool f r Dateien in der GUI angezeigt wird 112 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration 3 Erstellen Sie f r die MCS Non PvD Konfiguration 2 4 oder 8 Dateisysteme von jeweils 2 TB 2 Dateisysteme f r 500 virtuelle Desktops 4 f r 1 000 virtuelle Desktops oder 8 f r 2 000 virtuelle Desktops und stellen Sie diese den vShpere Servern als NFS Datastores bereit F r andere MCS oder PVS Konfigurationen lesen Sie die Richtlinien zur Speicherkonfigurati
118. elnden Schichten nur 50 Prozent angemeldet sein werden k nnen die 600 aktiven Benutzer von den insgesamt 1 200 Benutzern mit der Architektur f r 1 000 Desktops unterst tzt werden H here Desktop Workloads Die in Tabellen 14 definierte und zum Testen dieser VSPEX Konfigurationen f r Anwender Computing verwendete Workload wird als typische Arbeitslast in einem B ro betrachtet Aber einige Kunden glauben m glicherweise dass ihre Benutzer aktiver sind Wenn ein Unternehmen beispielsweise 800 Benutzer hat und jeder Benutzer aufgrund der benutzerdefinierten Unternehmensanwendungen 12 IOPS anstelle der in der VSPEX Workload verwendeten 8 IOPS generiert ben tigt die Konfiguration 9 600 IOPS 800 Benutzer x 12 IOPS pro Desktop Die Konfiguration f r 1 000 Desktops w re in diesem Fall m glicherweise nicht leistungsstark genug da sie mit 8 000 IOPS bewertet ist 1 000 Desktops x 8 IOPS pro Desktop Dieser Kunde sollte die Verwendung der L sung f r 2 000 Desktops in Betracht ziehen Implementieren der Referenzarchitekturen berblick Ressourcentypen EMC F r die Referenzarchitekturen muss ein Hardwaresatz f r die CPU Speicher Netzwerk und Speicheranforderungen des Systems vorhanden sein Diese werden als allgemeine Anforderungen angegeben die unabh ngig von einer bestimmten Implementierung sind In diesem Abschnitt sind einige berlegungen zur Implementierung der Anforderungen beschrieben In den Referenzarchitektur
119. eme auf der VNX zu konfigurieren die zum Speichern der virtuellen Desktops verwendet wird 1 Erstellen Sie einen blockbasierten RAID 5 Speicherpool der aus 10 20 oder 40 600 GB SAS Festplatten 10 Festplatten f r 500 virtuelle Desktops 20 Laufwerke f r 1 000 virtuelle Desktops oder 40 Laufwerke f r 2 000 virtuelle Desktops f r eine MCS Non PvD Konfiguration besteht F r andere MCS oder PVS Konfigurationen lesen Sie die Richtlinien zur Speicherkonfiguration um die richtige LUN Gr e auszuw hlen Aktivieren Sie FAST Cache f r den Speicherpool a Melden Sie sich bei Unisphere an b W hlen Sie das Array aus das f r diese L sung verwendet werden soll c Klicken Sie auf Storage Storage Configuration gt Storage Pools d W hlen Sie die Registerkarte Pools aus e Klicken Sie auf Create 2 Erstellen Sie 10 LUNs im Blockspeicherpool und stellen Sie diese dem Data Mover als dvols im vom System definierten NAS Pool bereit F r die MCS Non PvD Konfiguration sollte jede LUN 400 GB f r 500 virtuelle Desktops 800 GB f r 1 000 virtuelle Desktops oder 1 600 GB f r 2 000 virtuelle Desktops aufweisen F r andere MCS oder PVS Konfigurationen lesen Sie die Richtlinien zur Speicherkonfiguration um die richtige Dateisystemgr e auszuw hlen a Wechseln Sie zu Storage gt LUNs b Klicken Sie auf Create c W hlen Sie im Dialogfeld den in Schritt 1 erstellten Pool aus MAX f r User Capacity und 10 f r die zu erst
120. en f r Avamar Aufgrund von derzeitigen Avamar Einschr nkungen keine Unterst tzung f r clientseitige Variablen z B username und der Bem hung die Managementlast zu reduzieren m ssen zugeordnete Laufwerke verwendet werden Konfigurieren Sie die Windows Ordnerumleitung um die f r die zugeordneten Laufwerke erforderlichen UNC Pfade zu erstellen Erstellen Sie wie folgt ein neues GPO Ordnerumleitung So konfigurieren Sie die Windows Ordnerumleitung 1 Bearbeiten Sie das GPO indem Sie zur Policy Einstellung User Configuration gt Policies gt Windows Settings gt Folder Redirection navigieren Klicken Sie mit der rechten Maustaste auf den Ordner Documents W hlen Sie Properties 4 W hlen Sie Basic Redirect everyone s folder to the same location aus der Dropdown Liste Settings 5 Geben Sie CIFS_server folder ein wie in Abbildungen 49 gezeigt 136 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Create a tolder ix each une under the root pah bai Root Patr For une Cisr hoch val be machen to Abbildungen 49 Konfigurieren der Windows Ordnerumleitung Zugeordnete Laufwerke Konfigurieren Sie zwei zugeordnete Laufwerke eines f r die Dateien und eines f r das Profil des Benutzers Wiederholen Sie das Verfahren zweimal
121. en Sie Informationen zu Ihrer virtuellen Infrastruktur bereit einschlie lich des vCenter SDK Pfads den der Controller zum Einrichten einer Verbindung mit der VMware Infrastruktur verwendet EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 129 Kapitel 5 Richtlinien zur VSPEX Konfiguration Hinzuf gen eines Nachdem Sie einen Standort konfiguriert haben k nnen Sie einen zweiten Controller zweiten hinzuf gen um hohe Verf gbarkeit bereitzustellen F r den zweiten Controller sind Controllers die folgenden serverseitigen Komponenten von XenDesktop erforderlich e Delivery Controller e Citrix Studio e Citrix Director e Citrix StoreFront Installieren Sie die Lizenzserverkomponente nicht auf dem zweiten Controller da sie zentral auf dem ersten Controller gemanagt wird Installieren von Installieren Sie Citrix Studio auf den gew nschten Administratorkonsolen um Ihre Citrix Studio XenDesktop Bereitstellung remote zu managen Vorbereiten einer Optimieren Sie die virtuelle Master Maschine um zu verhindern dass unn tige virtuellen Master Hintergrundservices unwesentliche I O Vorg nge generieren die sich negativ auf Maschine die allgemeine Performance des Speicherarrays auswirken F hren Sie die folgenden Schritte aus um die virtuelle Master Maschine vorzubereiten 1 Installieren Sie das Gastbetriebssystem Windows 7
122. en sind die Hardwareanforderungen f r die L sung anhand der folgenden grundlegenden Ressourcentypen definiert e CPU Ressourcen e Arbeitsspeicherressourcen e Netzwerkressourcen e Speicherressourcen In den nachfolgenden Abschnitten werden die Ressourcentypen ihre Verwendung in den Referenzarchitekturen und wichtige berlegungen f r ihre Implementierung in einer Kundenumgebung beschrieben EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur CPU Ressourcen In den Architekturen wird die Anzahl der erforderlichen CPU Kerne angegeben jedoch kein bestimmter Typ bzw keine bestimmte Konfiguration Es wird davon ausgegangen dass in neuen Bereitstellungen auf aktuelle Versionen von allgemeinen Prozessortechnologien zur ckgegriffen wird und dass diese eine genauso hohe oder h here Leistung aufweisen als die Systeme die zur Validierung der L sung verwendet wurden In jedem laufenden System ist es wichtig die Auslastung von Ressourcen zu berwachen und bei Bedarf anzupassen Beim virtuellen Referenzdesktop und den erforderlichen Hardwareressourcen in der Referenzarchitektur wird davon ausgegangen dass bei Verwendung des Desktopbetriebssystems nicht mehr als acht virtuelle CPUs f r jeden physischen Prozessorkern vorhanden sind Verh ltnis von 8 1 In den meisten F llen sorgt dies
123. enenenenenenenn 72 Grundlegendes Speicherlayout mit PVS Provisioning f r 500 virtuelle Desktops eeeeenenenesenseenensnensnnnensnsnsnnnnnsnnnsnnnnnnnnnnn 74 Grundlegendes Speicherlayout mit MCS Provisioning f r 500 virtuelle Desktops ceeensassessesssnsnnnnnsnnnnennsnnnnnensnnnnnnsnnnnnn 75 Optionales Speicherlayout f r 500 virtuelle Desktops 76 Grundlegendes Speicherlayout mit PVS Provisioning f r 1 000 virtuelle Desktops eeueeneseneeesenenensnenensnsnnnnnnnsnnnnnnnnnnnnnnn 78 Grundlegendes Speicherlayout mit MCS Provisioning f r 1 000 virtuelle Desktops uereeeneneneeeeenenensnsnensnsnsnnnnnsnnnsnnnnnnnnnnn 79 Optionales Speicherlayout f r 1 000 virtuelle Desktops 80 Grundlegendes Speicherlayout mit PVS Provisioning f r 2 000 virtuelle Desktops ucseesesessnsnnnnnnnnnessensnnnnnnnnnnnnnnnnnnn 82 Grundlegendes Speicherlayout mit MCS Provisioning f r 2 000 virtuelle Desktops ueeeeeeeneneeenenenenensnensnsnnnnnnnnnnnsnsnnnnnnnnn 83 Optionales Speicherlayout f r 2 000 virtuelle Desktops 85 Hohe Verf gbarkeit auf der Virtualisierungsebene 86 Redundante Netzteile eensessesessssnsnnnnnsnnnesssnnnnnnnnnnnnnnsnnnnnn 87 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Inhalt Abbildungen 34 Abbildungen 35 Abbildungen 36 Abbildungen 37 Abbildungen
124. er Performance eingehen 20 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 2 L sungs berblick Daten werden zum Zeitpunkt ihrer Erstellung am h ufigsten verwendet Daher werden neue Daten f r die beste Performance zun chst in Flashlaufwerken gespeichert Werden die Daten lter und im Laufe der Zeit weniger aktiv genutzt verschiebt FAST VP auf Basis von kundenspezifischen Richtlinien die Daten von Laufwerken mit hoher Performance automatisch auf Laufwerke mit hoher Kapazit t Diese Funktion wurde verbessert und verf gt nun ber eine viermal h here Granularit t Zudem sorgen die auf der eMLC Technologie Enterprise Multilevel Cell basierenden neuen FAST VP SSDs f r niedrigere Kosten pro Gigabyte FAST Cache absorbiert dynamisch unvorhergesehene Spitzen in System Workloads Alle VSPEX Anwendungsbeispiele profitieren von dieser gesteigerten Effizienz VSPEX Proven Infrastructures erm glichen Private Cloud Anwender Computing und virtualisierte Anwendungsl sungen Mit VNX erzielen Kunden einen noch gr eren Return on Investment VNX bietet blockbasierte Out of Band Deduplizierung mit der sich die Kosten f r die Flash Tier Kosten erheblich reduzieren lassen Codepfadoptimierung durch VNX Intel MCx Die Entwicklung der Flashtechnologie f hrte zu einem entscheidenden Wandel der Anfor
125. erdateien und Benutzerprofilen erforderlich sind Erstellen Sie zwei Datasets eines f r die Dateien und eines f r das Profil des Benutzers wie in Abbildungen 54 gezeigt Wiederholen Sie das Verfahren zweimal und ndern Sie dabei jeweils zwei Variablen Name und Drive Letter Used Bei der Erstellung des Dataset User Profile sind zus tzliche Schritte erforderlich 1 Klicken Sie im Avamar Administrator Fenster auf Tools und w hlen Sie Manage Datasets aus 140 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Abbildungen 54 Das Avamar Men Tools Das Fenster Manage All Datasets wird angezeigt wie in Abbildungen 55 gezeigt 2 Klicken Sie auf New Abbildungen 55 Das Avamar Dialogfeld Manage All Datasets Das Fenster New Dataset wird angezeigt wie in Abbildungen 56 gezeigt Abbildungen 56 Das Avamar Dialogfeld New Dataset EMC EMC VSPEX Anwender Computing 141 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Die zur Auswahl stehenden benutzerdefinierten Einstellungen werden in Abbildungen 57 gezeigt A New Dataset Source Data Exdusions Indusions Optens Abbildungen 57 Konfigurieren der Einstell
126. erke sind in Abbildungen 23 als Hot Spare Laufwerke gekennzeichnet Acht SAS Laufwerke 1_0_7 bis 1_0_14 auf dem RAID 10 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 200 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als zwei NFS Datastores angezeigt F r FC werden zwei LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als zwei VMFS Datastores angezeigt 74 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 4 bersicht ber die L sungsarchitektur e Zwei Flashlaufwerke 1_0_5 und 1_0_6 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerkonfigurierbaren LUNs vorhanden e F nf SAS Laufwerke 1_1_O bis 1_1_4 im RAID 5 Speicherpool 2 werden f r die Speicherung von PVS vDisks und TFTP Images verwendet FAST Cache ist f r den gesamten Pool aktiviert e Die Laufwerke 0_0_4 bis 0_0_24 1_0_O bis 1_0_3 und 1_0_6 bis 1_0_14 sind ungenutzt Sie wurden f r das Testen dieser L sung nicht verwendet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden um mehr Kapazit t bereitzuste
127. erplattformen ausgef hrt werden In VSPEX Dokumenten wird als Voraussetzung nicht eine bestimmte Zahl von Servern mit spezifischen Anforderungen genannt sondern eine Anzahl von Prozessorkernen und der erforderliche RAM Die Implementierung kann mit zwei Servern erfolgen oder mit 20 die VSPEX L sung bleibt in jedem Fall dieselbe Angenommen die Anforderungen an die Rechnerebene f r eine bestimmte Implementierung sind 25 Prozessorkerne und 200 GB RAM Ein Kunde m chte White Box Server mit 16 Prozessorkernen und 64 GB RAM verwenden ein zweiter Kunde dagegen einen leistungsst rkeren Server mit 20 Prozessorkernen und 144 GB RAM Der erste Kunde ben tigt vier Server der zweite Kunde nur zwei wie in Abbildungen 6 dargestellt 16 Prozessorkerne p 20 Prozessorkerne 64 GB RAM 144 GB RAM 16 Prozessorkerne 7 20 Prozessorkerne 64 GB RAM 144 GBRAM 16 Prozessorkerne 64 GB RAM 16 Prozessorkerne 64 GB RAM 16 Prozessorkerne e 20 Prozessorkerne 64 GB RAM e 144 GB RAM Abbildungen 6 Flexibilit t der Rechnerebene 32 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC 5 Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Hinweis F r hohe Verf gbarkeit auf der Rechnerebene ben tig jeder Kunde einen zus tzlichen Server Dieser dient im Fall eines Hardwareausfalls als Failover Plattform Beachten Sie die fo
128. ert sind Handbuch f r vSphere Netzwerk Stellen Sie einen einzelnen virtuellen Server bereit und testen Sie ihn Stellen Sie eine einzige virtuelle Maschine ber die vSphere Oberfl che bereit und benutzen Sie dabei die Anpassungsspezifikation e Handbuch f r vCenter Server und Hostverwaltung e vSphere Handbuch f r die Verwaltung virtueller Maschinen berpr fen Sie die Redundanz der L sungskomponenten F hren Sie einen Neustart jedes Speicherprozessors durch und vergewissern Sie sich dass die LUN Verbindung aufrechterhalten wird Detaillierte Schritte dazu finden Sie unter berpr fen der Redundanz der L sungskomponenten Deaktivieren Sie jeden der redundanten Switche und berpr fen Sie ob die Verbindung von vSphere Host virtueller Maschine und Speicherarray intakt bleibt Informationen finden Sie in der Herstellerdokumentation Deaktivieren Sie alle redundanten XenDesktop Delivery Controller StoreFront Server sowie PVS Server und berpr fen Sie ob der Zugriff auf die virtuellen Desktops weiterhin m glich ist Informationen finden Sie in der Herstellerdokumentation Aktivieren Sie auf einem vSphere Host der mindestens eine virtuelle Maschine enth lt den Wartungsmodus und berpr fen Sie ob die virtuelle Maschine erfolgreich zu einem alternativen Host migrieren kann Handbuch f r vCenter Server und Hostverwaltung 160 EMC VSPEX Anwender
129. es geschieht auf der Grundlage der H ufigkeit der Zugriffe auf diese Daten H ufig verwendete Daten werden in Schritten von 1 GB auf h here Speicher Tiers heraufgestuft w hrend selten abgerufene Daten aus Gr nden der Kosteneffizienz an ein niedrigeres Tier migriert werden k nnen Diese Neubalancierung von 1 GB Dateieinheiten oder Slices erfolgt als Teil eines regelm ig geplanten Wartungsvorgangs FAST VP wird nicht f r virtuellen Desktopspeicher empfohlen es kann aber zu Verbesserungen in der Performance f hren wenn es f r Benutzerdaten und Roamingprofile implementiert wird e 32 SAS Laufwerke 0_4_10 bis0_4_14 1_4_O bis 1_4_14 und 0_5_0 bis 0_5_11 im RAID 10 Speicherpool 5 werden f r die Speicherung von Personal vDisks verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 800 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von acht NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als acht NFS Datastores angezeigt F r FC werden acht LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als acht VMFS Datastores angezeigt Hohe Verf gbarkeit und Failover Einf hrung Diese VSPEX L sung bietet eine virtualisierte Server Netzwerk und Speicherinfrastruktur mit hoher Verf gbarkeit Wenn die Implementierung gem den Anleitungen in diesem Leitfaden erfolgt k nnen die meiste
130. ese werden im gesamten Leitfaden verwendet um Details zu Einrichtungsverfahren und Best Practices f r die Bereitstellung der verschiedenen L sungskomponenten zur Verf gung zu stellen e EMC Dokumentation e Andere Dokumentation Sammeln von Tools Sammeln Sie die erforderlichen und optionalen Tools f r die Bereitstellung Pr fen Sie mithilfe von Tabellen 23 ob die gesamte Checkliste der f r die Bereitstellung erforderlichen Komponenten in Daten kundenspezifischen Konfigurationsdaten f r das Netzwerk die Benennung und erforderliche Konten Geben Sie diese Daten in das Arbeitsblatt f r das Sie w hrend des Bereitstellungsprozesses als Referenz verwenden k nnen die Kundenkonfigurationsdaten ein Hardware und Software sowie die Tabellen 23 entsprechenden Lizenzen vor dem Bereitstellungsprozess verf gbar sind Sammeln von Sammeln Sie die Anhang B Voraussetzungen f r die Bereitstellung arrayspezifischen Informationen bereitzustellen F llen Sie das Konfigurationsarbeitsblatt f r VNX Block f r die FC Variante oder das Arbeitsblatt f r VNX File und Unified f r die NFS Variante aus die auf der EMC Online Support Website zur Verf gung stehen um die umfassendsten Tabellen 23 enth lt die Hardware Software und Lizenzanforderungen f r die L sung Weitere Informationen finden Sie in den Hardware und Softwaretabellen in diesem Handbuch Tabellen 23 Checkliste f r die Bereits
131. eser Prozess mittels Shadow Page Tables im Hypervisor statt vSphere wendet die folgenden Methoden f r das Arbeitsspeichermanagement an e Eine Zuteilung von mehr Arbeitsspeicherressourcen f r die virtuelle Maschine als tats chlich physisch vorhanden wird als berbelegung von Arbeitsspeicher bezeichnet e identische Arbeitsspeicherseiten die in den virtuellen Maschinen gemeinsam verwendet werden werden mittels der transparenten gemeinsamen Nutzung von Arbeitsspeicherseiten zusammengef hrt Doppelte Seiten werden an den Host zur ckgegeben um den Speicherpool f r die erneute Nutzung freizugeben e vShpere speichert Seiten die anderenfalls mittels Host Swapping auf Festplatten ausgelagert w rden in einem Komprimierungscache im Hauptarbeitsspeicher e DerErsch pfung der Hostressourcen kann durch Arbeitsspeichererweiterung Ballooning vorgebeugt werden Bei diesem Vorgang wird vorausgesetzt dass freie Seiten von der virtuellen Maschine dem Host zugeteilt werden damit sie erneut verwendet werden k nnen 122 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration e Schlie lich kann der Host durch Hypervisor Swapping dazu veranlasst werden willk rliche Seiten von virtuellen Maschinen auf Festplatten auszulagern Zus tzliche Informationen finden Sie im technischen Wh
132. esesesesesesesesesesesessssssssssssssssssssssssessss 145 Anpassen der Wartungsfensterplanung ueeesessnseessnsnsnnesnnnnnnennsnnnnnnnnnnnnnennnnn 145 Definieren von Aufbewahrungs Policies eueeeeeneeesesssssenenenesnnnnennnnnennnnnnnnnennnnn 146 Erstellen der Gruppe und der Gruppen Policy esssssssessssssnsnnnnnnnensensnnnnnnnnn 147 Avamar Enterprise Manager Aktivieren von Clients eeeersssnneessnsnnenesnennnnnnnn 150 Zusammenfass ngsessirireieknee tr eeneeteeteenese teren OPS EEE N EEEN ED NEE N E 157 Kapitel6 Validierung der L sung 159 berblick esnearen ea e A E EE NN HENAEREIE RGREEREHRIN 160 Checkliste nach der Installation seesssseeesesessessssessssseesssseessseesesssseesssseesssseeee 161 Bereitstellen und Testen eines einzigen virtuellen DesktopS eneeeseessesneeeeneennn 161 berpr fen der Redundanz der L sungskomponenten ueessesseseeseeseenenensennennnne 161 Anhang A Materiallisten 163 Materialliste f r 500 virtuelle Desktops eeeeecenenenenenenenenenennnenenennnenenenenenennenenn 164 Materialliste f r 1 000 virtuelle Desktops eesesesesessnsnnnnnnnnnenessnnnnnnnnnnnenennnenne 166 Materialliste f r 2 000 virtuelle Desktops eeeeseeeeesessnsnnnnnnennnnessnnnnnnnnnenennnnnnnn 168 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Inhalt AnhangB Datenblatt f r die Kundenkonfiguration
133. essnsennnene 120 berblick esse ee ee 120 Installieren von vSphere ueeesesessssnnnnnsnnenssssnsnnnnnnnnnnnnnsnnnnnnnnnnnnnensnsnnsssnnnn 120 Konfigurieren des vSphere Netzwerks ecessessesnsnnssnsnsnnesnsnnnnnnnsnnnnnnnnnnnnnennenn 120 J mbe Frames 121 Verbinden der VMware D tastores sicncsnnsee 121 Planen der Arbeitsspeicherzuteilung f r virtuelle Maschinen 122 Konfiguration von Arbeitsspeicher euseeressnssssensnenessnnnnnnnennnnnnnnnnnnnnnnnnsnnnnnnnnnnnn 122 VBei eh een 122 vSphere Arbeitsspeichermanagement esessssesessessssnnnnnnnnnnnnennnnnnnnnnnn nen 122 Grundlegende Informationen zum Arbeitsspeicher virtueller Maschinen 123 Installieren und Konfigurieren der SQL Server DatenbanK sesssesssesesessseseses 124 Uberblic nee 124 Erstellen einer virtuellen Maschine f r SQL Server ceeeeessnsnneessnnnnnnnennnnnnnnnnn 124 Installieren von Microsoft Windows auf der virtuellen Maschine 124 Installieren von SQL Server eeeeeesessssssnnnsnnensessnsnnnnnnnnnnnenssnsnnnnnnnnnnssnsnsnsnsnnnn 125 Konfigurieren einer Datenbank f r VMware vCenter eeeessssnssensennnnenensnnnnnenn 125 Konfigurieren der Datenbank f r VMware Update Manager 125 Installieren und Konfigurieren des VMware vCenter Servers eeeeesssseeeesesenennnnnnn 126 berblic ln ee een 126 Erstellen der virtuellen vCenter Hostmaschine eeessssesssssnneesensnnnnsnnnnnnnnn 127 Installieren des vCe
134. f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 5 Richtlinien zur VSPEX Konfiguration Aufgabe Beschreibung Referenz Stellen Sie das VNX VAAI for NFS Plug ins NFS Variante bereit Stellen Sie mithilfe von VMware Update Manager das VNX VAAI for NFS Plug In f r alle vShpere Hosts bereit e Siefinden ein Anleitungsvideo zur Installation des EMC VNX VAAI NFS Plug ins auf der Website vonYouTube e vSphere Storage APIs for Array Integration VAAI Plug In e Installieren und Verwalten von VMware vSphere Update Manager Stellen Sie PowerPath VE FC Variante bereit Stellen Sie mithilfe von Update Manager das PowerPath VE Plug in f r alle vSphere Hosts bereit Installations und Administrationshandbuch f r PowerPath VE f r VMware vSphere Installieren Sie das EMC VSI Plug in Installieren Sie das VSI Plug in auf der Administrationskonsole EMC VSI f r VMware vSphere Unified Storage Management Produktleitfaden Installieren Sie den PowerPath Viewer FC Installieren Sie den PowerPath Viewer auf der Administrationskonsole Installations und Administrationshandbuch f r PowerPath Variante Viewer Wenn Sie vCenter Server als eine virtuelle Maschine auf einem als Teil dieser L sung installierten vSphere Server bereitstellen stellen Sie eine direkte Verbindung zu einem Infrastruktur vSphere Server ber den
135. f r diesen Prozess aufgef hrt 96 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur F llen Sie f r jede Anwendung eine Zeile im Arbeitsblatt aus wie in Tabellen 15 gezeigt Tabellen 15 Leere Arbeitsblattzeile Anwendung CPU Arbeitsspeicher IOPS Entsprechende Anzahlder Gesamtanzahl der Virtuelle GB virtuelle Benutzer Referenzdesktops CPUs Referenz Desktops Beispiel f r Ressourcenan Benutzertyp forderungen Entsprechende Referenzdesktops F llen Sie die Ressourcenanforderungen f r den Benutzertyp aus In der Zeile sind Eingaben zu drei verschiedenen Ressourcen erforderlich CPU Arbeitsspeicher und IOPS CPU Beim virtuellen Referenzdesktop wird davon ausgegangen dass die meisten Anforderungen Desktopanwendungen f r eine einzelne CPU in einer Bereitstellung mit Desktopbetriebssystem optimiert wurden Wenn f r einen Benutzertyp ein Desktop mit mehreren virtuellen CPUs erforderlich ist ndern Sie die vorgeschlagene Anzahl virtueller Desktops um die zus tzlichen Ressourcen zu ber cksichtigen Wenn Sie beispielsweise 100 Desktops virtualisieren aber 20 Benutzer zwei CPUs statt einer ben tigen sollten Sie ber cksichtigen dass Ihr Pool eine Kapazit t von 120 virtuellen Desktops bereitstellen
136. f r ein angemessenes Level von Ressourcen f r die gehosteten virtuellen Desktops Dieses Verh ltnis ist jedoch unter Umst nden nicht in allen F llen angemessen EMC empfiehlt die CPU Auslastung auf Hypervisor Ebene zu berwachen um bestimmen zu k nnen ob weitere Ressourcen erforderlich sind Arbeitsspeicherres Jeder virtuelle Desktop in der Referenzarchitektur wird mit 2 GB Arbeitsspeicher sourcen definiert der einer einzigen Instanz des Desktopbetriebssystems zugeordnet ist In einer virtuellen Umgebung ist es nicht un blich aufgrund von Budgeteinschr nkungen virtuelle Desktops mit mehr Speicher bereitzustellen als der Hypervisor physisch bietet Die Technik der Speicher berschreitung profitiert von der Tatsache dass jeder virtuelle Desktop die ihm zugewiesene Speichermenge nicht vollst ndig nutzt Es ist gesch ftlich sinnvoll die Speichernutzung zu einem gewissen Grad zu berzeichnen Der Administrator muss diese berbelegungsrate proaktiv berwachen damit der Engpass sich nicht vom Server in Richtung des zugrunde liegenden Speichersystems verschiebt Wenn VMware vSphere keinen Speicher mehr f r die Gastbetriebssysteme hat beginnt die Auslagerung die dazu f hrt dass zus tzliche I O Aktivit t zu den VSwap Dateien bergeht Bei einer korrekten Dimensionierung f hren gelegentliche Spitzen aufgrund von VSwap Aktivit ten nicht zu Performance Problemen da vor bergehende Belastungsspitzen aufgefangen werden k nnen Wen
137. folgende Funktionen aus Speicherung von Dateien Ordnern und Kontoinformationen Zugriffskontrolle Reporting sowie verschiedene andere Brokering Funktionen Die Steuerungsebene befindet sich in mehreren Citrix Rechenzentren an weltweit verteilten Standorten e StorageZones Diese Komponente legt fest an welchen Standorten Daten gespeichert werden F r eine hohe Verf gbarkeit sind mindestens zwei Storage Centers f r StorageZones erforderlich StorageZones muss f r s mtliche Storage Centers eine einzige Dateifreigabe verwenden ShareFile Storage Center erweitert den Software as a Service Cloudspeicher von SharefFile durch Bereitstellung von lokalem privatem Speicher StorageZones f r Ihr ShareFile Konto Lokaler ShareFile Speicher unterscheidet sich wie folgt von Cloudspeicher e Bei ShareFile verwaltetem Cloudspeicher handelt es sich um ein ffentliches Multi Tenant Speichersystem das von Citrix verwaltet wird e Ein ShareFile Storage Center ist ein privates Single Tenant Speichersystem das vom Kunden verwaltet wird und nur von genehmigten Kundenkonten verwendet werden kann Standardm ig werden Daten von SharefFile im sicheren ShareFile verwalteten Cloudspeicher gespeichert Mit der Storage Center Funktion k nnen Sie private lokale StorageZones konfigurieren StorageZones legt fest an welchen Standorten Daten gespeichert werden StorageZones erm glicht eine Performanceoptimierung indem Daten in der N he der Benu
138. frastruktur f r Citrix XenDesktop 5 6 EMC VNX Serie NFS VMware vSphere 5 0 Citrix XenDesktop 5 6 und Citrix Profile Manager 4 1 Leitfaden f r Proven Solutions e Dimensionierung der EMC VNX Serie f r VD Arbeitslast Architekturleitfaden White Paper e EMC Performanceoptimierung f r Microsoft Windows XP f r die virtuelle Desktop Infrastruktur Anwendung von Best Practices e Bereitstellung von virtuellen Microsoft Windows 7 Desktops mit VMware View Leitfaden zur Anwendung von Best Practices e EMC VS f r VMware vSphere Storage Viewer Produktleitfaden e EMC VS f r VMware vSphere Unified Storage Management Produktleitfaden e EMC VNX Unified Best Practices f r Performance Leitfaden zur Anwendung von Best Practices e VNX FAST Cache ein detaillierter berblick White Paper e Dimensionierung der EMC VNX Serie f r VDI Arbeitslast Architekturleitfaden White Paper e EMC Infrastruktur f r Citrix XenDesktop 5 6 EMC VNX Serie NFS VMware vSphere 5 0 Citrix XenDesktop 5 6 und Citrix Profile Manager 4 1 Referenzarchitektur e EMC Infrastruktur f r Citrix XenDesktop 5 6 EMC VNX Serie NFS VMware vSphere 5 0 Citrix XenDesktop 5 6 und Citrix Profile Manager 4 1 Leitfaden f r Proven Solutions e EMC Infrastruktur f r Citrix XenDesktop 5 5 PVS EMC VNX Serie NFS Cisco UCS Citrix XenDesktop 5 5 PVS XenApp 6 5 und XenServer 6 Referenzarchitektur e EMC Infrastruktur f r Citrix XenDesktop
139. g Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Erforderliche Eine Beschreibung der Aktivierung von SecurlD f r VSPEX L sungen finden Sie im Komponenten Sicherung des EMC VSPEX Anwender Computings mit RSA SecurlD Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Designleitfaden Die folgenden Komponenten sind erforderlich e RSA SecurlD Authentication Manager Version 8 0 Authentication Manager 8 0 dient zur Konfiguration und Verwaltung der SecurlID Umgebung sowie zurZuweisung von Token an Benutzer und ist als virtuelle Appliance auf dem VMware vSphere Host verf gbar e SecurlD Token f r alle Benutzer SecurlD erfordert etwas das dem Benutzer bekannt ist eine PIN sowie einen sich stetig ndernden Code von einem Token das sich im Besitz des Benutzers befindet SecurlD Token k nnen physisch oder softwarebasiert sein Bei physischen Token wird alle 60 Sekunden ein neuer Code angezeigt den der Benutzer zusammen mit einer PIN eingeben muss Bei softwarebasierten Token gibt der Benutzer eine PIN ein und der Tokencode wird programmatisch bereitgestellt Hardware und Softwaretoken werden ber Tokendatens tze auf CD oder anderen Medien beim Authentication Manager registriert e Citrix NetScaler Netzwerk Appliance Version 10 oder h her Die Access Gateway Funktion
140. g P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Installieren und Konfigurieren der Citrix Provisioning Services PVS berblick In diesem Abschnitt finden Sie Informationen zum Einrichten und Konfigurieren von Citrix PVS f r die L sung F r eine Neuinstallation von PVS empfiehlt Citrix dass Sie die folgenden Aufgaben in der in Tabellen 30 gezeigten Reihenfolge durchf hren Tabellen 30 Aufgaben f r die Einrichtung der XenDesktop Controller Aufgabe Beschreibung Referenz Erstellen von virtuellen Erstellen Sie zwei virtuelle Maschinen vSphere Maschinen f r PVS Server in vSphere Client Diese virtuellen Administratorhandbuch f r Maschinen werden als PVS Server virtuelle Maschinen verwendet Installieren des Installieren Sie das Gastbetriebssystems f r PVS Gastbetriebssystem Windows Server Server 2008 R2 oder Windows Server 2012 Installieren der serverseitigen Installieren Sie PVS Citrix Website Komponenten von PVS Serverkomponenten und die Konsole auf dem PVS Server Konfigurieren einer PVS Serverfarm F hren Sie den Provisioning Services Konfigurationsassistenten aus um eine PVS Serverfarm zu erstellen Hinzuf gen eines zweiten PVS Servers Installieren Sie die PVS Serverkomponenten und die Konsole auf dem zweiten Server und verbinden Sie diese mit
141. gen auf die gehosteten Anwendungen hat In dieser L sung wird VMware vSphere 5 1 zur Erstellung der Virtualisierungsebene verwendet vSphere wandelt die physischen Ressourcen eines Computers durch die Virtualisierung von CPU Arbeitsspeicher Speicher und Netzwerk um Diese Umwandlung erzeugt voll funktionsf hige virtuelle Maschinen auf denen isolierte und eingebettete Betriebssysteme und Anwendungen genauso wie auf physischen Computern ausgef hrt werden Die Funktionen f r hohe Verf gbarkeit von vSphere wie vMotion und Storage vMotion erm glichen eine nahtlose Migration von virtuellen Maschinen und gespeicherten Dateien von einem vSphere Server zu einem anderen ohne oder mit nur minimaler Auswirkung auf die Performance In Verbindung mit vSphere DRS und Storage DRS k nnen virtuelle Maschinen zu jedem Point in Time durch Lastenausgleich von Rechen und Speicherressourcen auf die passenden Ressourcen zugreifen VMware vCenter ist eine zentralisierte Managementplattform f r die virtuelle VMware Infrastruktur Sie stellt eine einzige Oberfl che f r Administratoren f r alle Aspekte der berwachung des Managements und der Wartung der virtuellen Struktur bereit die ber mehrere Ger te aufgerufen werden kann ber vCenter k nnen au erdem einige der erweiterten Funktionen der virtuellen VMware Infrastruktur gemanagt werden z B vSphere High Availability und DRS sowie vMotion und Update Manager Mithilfe der VMware vSphere High Avai
142. gestellt wurde Planen der Die Serverkapazit t ist in der L sung f r Folgendes erforderlich Arbeitsspeicher zuteilung f r virtuelle e Zur Unterst tzung der erforderlichen Infrastrukturservices wie Maschinen Authentifizierung und Autorisierung DNS und Datenbank e Zur Unterst tzung der neuen virtualisierten Serverinfrastruktur Informationen zu den Mindestanforderungen bez glich des Hosting f r Infrastruktur Services finden Sie in der Tabellen 5 auf Seite59 Falls vorhandene Infrastrukturservices die Anforderungen erf llen ist die f r Infrastrukturservices aufgelistete Hardware nicht erforderlich Konfiguration von Arbeitsspeicher berblick Die korrekte Dimensionierung und Konfiguration der L sung erfordert eine entsprechende Sorgfalt bei der Konfiguration des Serverspeichers Der folgende Abschnitt enth lt allgemeine Richtlinien f r die Arbeitsspeicherzuteilung f r die virtuellen Maschinen und die Ber cksichtigung des vSphere Overhead und der Konfiguration der virtuellen Maschinen vSphere Der vSphere Hypervisor kann mithilfe von Verfahren zur Arbeitsspeicher Arbeitsspeichervirtualisierung physische Hostressourcen wie Arbeitsspeicher management abstrahieren um Ressourcen auf mehreren virtuellen Maschinen zu isolieren ohne diese v llig zu ersch pfen Wenn fortschrittliche Prozessoren z B Intel Prozessoren mit EPT Unterst tzung bereitgestellt werden erfolgt diese Abstrahierung in der CPU Andernfalls findet di
143. h lt zwei Ports EMC EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 169 Anhang A Materiallisten 170 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Anhang B Datenblatt f r die Kundenkonfiguration AnhangB Datenblatt f r die Kundenkonfiguration In diesem Anhang werden die folgenden Themen behandelt Arbeitsblatt f r die Kundenkonfiguration 0s000000000s0s000000000000000000000000000 172 2 EMC VSPEX Anwender Computing 171 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Anhang B Datenblatt f r die Kundenkonfiguration Arbeitsblatt f r die Kundenkonfiguration Sammeln Sie vor Beginn der Konfiguration einige kundenspezifische Informationen zur Netzwerk und Hostkonfiguration Die folgende Tabelle enth lt Informationen zum Zusammenstellen der erforderlichen Informationen zu Netzwerk Hostadresse Nummerierung und Benennung Dieses Arbeitsblatt kann dem Kunden auch als gedrucktes Dokument zur sp teren Referenz berlassen werden Das Arbeitsblatt f r VNX File und Unified sollte zur Best tigung der Kundendaten verwendet werden Tabellen 36 Allgemeine Serverinformationen Servernam
144. h ist mit jedem Speicherprozessor auf dem Speicherarray verbunden Jede Fibre Channel Verbindung zwischen dem vSphere Host und dem Speicherarray sollte in eine separate Fibre Channel Zone platziert werden Konfigurieren des Speichernetzwerks FC Variante Abbildungen 37 zeigt ein Beispiel einer Fibre Channel Netzwerkarchitektur vSphere Host y au07 J3 FC Zone 1 Speicher Speicher prozessor B prozessor A Speicher Array EMC bdar Je Single Initiator Zoning 4 FC Zonen pro vSphere Host vSphere Host FC Port 1 Individuelles Zoning zu VNX SPA und SPB vSphere Host FC Port 2 Individuelles Zoning zu VNX SPA und SPB Abbildungen 37 Beispiel f r eine Fibre Channel Netzwerkarchitektur Stellen Sie sicher dass Sie ber eine angemessene Anzahl Switch Ports f r das Speicherarray und die vShpere Hosts verf gen die mit mindestens drei VLANs konfiguriert sind f r e Netzwerkverbindungen f r virtuelle Maschinen vSphere Management und CIFS Datenverkehr kundenorientierte Netzwerke die bei Bedarf getrennt werden k nnen Konfigurieren von VLANs e _NFS Netzwerk privates Netzwerk e vMotion privates Netzwerk 2 EMC VSPEX Anwender Computing 109 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Vervollst ndigen der Sorgen Sie daf r dass alle L sungsser
145. i Avamar EM wird das Dashboard angezeigt wie in Abbildung 71 dargestellt 1 Klicken Sie zum Fortfahren auf Client Manager Das Fenster Avamar Client Manager wird angezeigt wie in Abbildungen 70 gezeigt nterprise Manager Dashboard Windows Internet Explorer EMC Avamar Enterprise Manager 6 1 0 Dashboard System Policy Reports Replicator Coriguef Cent anager System maintenance gt gt Dashboard bsa04221 bs eme com B ago v 610 333 00 gt 90 days ief Kotavalabie iu Abbildungen 69 Avamar Enterprise Manager 2 Klicken Sie zum Fortfahren auf Activate wie inAbbildungen 70 gezeigt EMC Avamar Client Manager BE nenn Move one or more clients to a new server Move chests to a new domain Move one of more clients to a new domain BL vaie oni Delete clients Retire one or more chems from a server Delete one or more chens from a server ss Modity client and group associations View Log Change the groups associated with a client and the Open the management log cients with a group Abbildungen 70 Avamar Client Manager 150 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration 3 Klicken Sie auf den Men pfeil Client Information wie in Abbildungen 71 gezeigt f Abbildungen 71 Das Dialogfeld Avamar Activate Client
146. ich Das Laufwerk 0_2_14 ist ungebunden und kann bei Bedarf als Hot Spare Laufwerk verwendet werden Dieses Laufwerk ist in Abbildungen 25 als Hot Spare Laufwerk gekennzeichnet e F nf SAS Laufwerke 0_2_0 bis 0_2_4 auf dem RAID 5 Speicherpool 6 werden f r die Speicherung virtueller Infrastrukturmaschinen verwendet Eine LUN oder ein NFS Dateisystem mit je 1 TB wird aus dem Pool zur Verf gung gestellt und den vSphere Servern als VMFS oder NFS Datastore angezeigt e 16 NL SAS Laufwerke 0_2_5 bis 0_2_13 und 1_2_O bis 1_2_6 im RAID 6 Speicherpool 4 werden f r die Speicherung von Benutzerdaten und Roamingprofilen verwendet Zehn LUNs mit jeweils 1 TB werden aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei CIFS Dateisystemen erforderlichen Speicher bereitzustellen Wenn mehrere Laufwerkstypen implementiert wurden kann FAST VP aktiviert werden um ein automatisches Daten Tiering zu erreichen und die Unterschiede in Performance und Kapazit t zu nutzen FAST VP kommt auf der Poolebene des Blockspeichers zum Einsatz und regelt automatisch wo Daten gespeichert werden Dies geschieht auf der Grundlage der H ufigkeit der Zugriffe auf diese Daten H ufig verwendete Daten werden in Schritten von 1 GB auf h here Speicher Tiers heraufgestuft w hrend selten abgerufene Daten aus Gr nden der Kosteneffizienz an ein niedrigeres Tier migriert werden k nnen Diese Neubalancierung von 1 GB Dateieinheiten oder Slices erfolgt
147. icht dem Kunden jedoch die Implementierung der Anforderungen mit jeder beliebigen Netzwerkhardware die diese Anforderungen erf llt Speicher Die Speicherebene ist eine kritische Ressource f r die Implementierung der Anwender Computing Umgebung Aufgrund der Art und Weise der Desktopnutzung m ssen auf der Speicherebene hohe Aktivit tsbelastungsspitzen abgefangen werden k nnen ohne dass dabei die Benutzererfahrung berm ig beeintr chtigt wird Diese L sung verwendet EMC VNX FAST Cache um diese Workload effizient zu bew ltigen Backup und Recovery Die optionalen Backup und Recovery Komponenten der L sung stellen Datenschutz f r den Fall bereit dass die Daten im Prim rsystem gel scht oder besch digt wurden oder aus einem anderen Grund nicht mehr verwendet werden k nnen EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 27 Kapitel 3 Technologie bersicht ber die L sung e Sicherheit Die optionalen Sicherheitskomponenten der L sung von RSA stellen Kunden zus tzliche Optionen zur Steuerung des Zugriffs auf die Umgebung bereit und sorgen daf r dass ausschlie lich autorisierte Benutzer auf das System zugreifen k nnen Die L sungsarchitektur enth lt Details zu allen Komponenten der Referenzarchitektur Desktopvirtualisierung berblick Die Desktopvirtualisierung verkapselt die Desktops der Benutze
148. ie in diesem Dokument beschriebenen Desktopl sungen basieren auf den Speicherarrays EMC VNX5400 und EMC VNX5600 Vom VNX5400 k nnen maximal 250 Laufwerke vom VNX5600 maximal 500 Laufwerke gehostet werden EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 19 Kapitel 2 L sungs berblick Die VNX Serie unterst tzt zahlreiche Unternehmensfunktionen die sich ideal f r Anwender Computing Umgebungen eignen darunter e EMC Fully Automated Storage Tiering for Virtual Pools FAST VP e EMCFASTTM Cache e Datenduplikatsbereinigung und komprimierung auf Dateiebene e Blockdeduplizierung e Thin Provisioning e Replikation e Snapshots und Kontrollpunkte e Aufbewahrung auf Dateiebene e Quotenmanagement Funktionen und Die flashoptimierte VNX Unified Storage Plattform stellt Innovationen und Verbesserungen Funktionen der Enterprise Klasse f r File Block und Objektspeicher in einer einzigen skalierbaren und anwenderfreundlichen L sung bereit VNX ist ideal f r gemischte Workloads in physischen oder virtuellen Umgebungen geeignet und kombiniert leistungsstarke und flexible Hardware mit fortschrittlicher Software f r Effizienz Management und Schutz So erf llt es die anspruchsvollen Anforderungen der heutigen virtualisierten Anwendungsumgebungen VNX umfasst viele Funktionen und Verbesserungen die auf dem Erfolg der ersten Generati
149. ien zur Speicherkonfiguration wird das Festplattenspeicherlayout beschrieben Provisioning von Kerndatenspeicher ist ein Repository f r die Betriebssystemdaten der virtuellen Kerndatenspeicher Desktops Erkann VMFS Datastores f r die FC Variante und NFS Datastores f r die NFS Variante sein Abbildungen 18 und Abbildungen 19 stellen das Zielspeicherlayout f r die FC und die NFS Variante der drei L sungs Stacks in dieser VSPEX L sung dar In den folgenden Abschnitten werden die Schritte zur Bereitstellung f r die FC und die NFS Variante beschrieben Provisioning von Speicher f r VMFS Datastores nur FC Variante F hren Sie die folgenden Schritte in der EMC Unisphere Benutzeroberfl che aus um FC LUNs auf der VNX zu konfigurieren die zum Speichern dervirtuellen Desktops verwendet wird 1 Erstellen Sie einen blockbasierten RAID 5 Speicherpool der aus 10 20 oder 40 600 GB SAS Festplatten 10 Festplatten f r 500 virtuelle Desktops 20 f r 1 000 virtuelle Desktops oder 40 f r 2 000 virtuelle Desktops f r eine MCS Non PvD Konfiguration besteht Weitere Informationen zum Ausw hlen des richtigen RAID Typs und der richtigen Festplattenzahl bei MCS oder PVS Konfigurationen finden Sie unter Richtlinien zur Speicherkonfiguration Aktivieren Sie FAST Cache f r den Speicherpool a Melden Sie sich bei EMC Unisphere an b W hlen Sie das Array aus das f r diese L sung verwendet werden soll c Klicken Sie auf Storage Storage
150. ieren VNX kann eine Pool LUN verkleinern Diese Funktion ist nur f r LUNs verf gbar die von Windows Server 2008 oder h her unterst tzt werden Der Verkleinerungsprozess umfasst die folgenden Schritte 1 _ Verkleinern des Dateisystems ber die Windows Datentr gerverwaltung 2 Verkleinern der Pool LUN mithilfe eines Befehlsfensters und des Dienstprogramms DISKRAID Das Dienstprogramm ist ber den VDS Provider verf gbar der Bestandteil des EMC Solutions Enabler Pakets ist Die neue LUN Gr e wird sofort nach Abschluss des Verkleinerungsprozesses angezeigt Eine Hintergrundaufgabe bernimmt den gel schten oder verkleinerten Speicherplatz und gibt ihn an den Speicherpool zur ck Sobald die Aufgabe abgeschlossen ist kann jede andere LUN in diesem Pool den freigegebenen Speicherplatz verwenden Weitere detaillierte Informationen zur Erweiterung Verkleinerung von LUNs finden Sie im White Paper EMC VNX Virtual Provisioning Applied Technology EMC VSPEX Anwender Computing 37 2 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Benutzerwarnung durch Kapazit tsschwellenwert Einstellung Sie m ssen proaktive Warnmeldungen konfigurieren wenn Sie auf Thin Pools basierende Dateisysteme oder Speicherpools verwenden berwachen Sie diese Ressourcen damit Speicher f r die Bereitstellung verf gbar ist
151. iert wobei mehrere Ethernetports in einem einzigen virtuellen Ger t zusammengefasst werden Wenn eine Verbindung in diesem Ethernetport unterbrochen wird erfolgt ein Failover auf einen anderen Port Der gesamte Netzwerkdatenverkehr wird ber die aktiven Verbindungen verteilt 70 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Richtlinien zur Speicherkonfiguration berblick Es gibt mehrere M glichkeiten wie bei vSphere Speicher verwendet werden kann wenn virtuelle Maschinen gehostet werden Die in diesem Abschnitt und in Tabelle 10 beschriebenen L sungen wurden mit NFS getestet und das beschriebene Speicherlayout ber cksichtigt alle aktuellen Best Practices Ein geschulter Kunde oder Architekt kann auf Grundlage seiner Kenntnisse der Systemauslastung und Last bei Bedarf Modifikationen vornehmen Tabellen 10 Speicherhardware Konfiguration Anmerkungen Gemeinsamkeiten e 210 GbE Schnittstellen pro Data Mover e 2 8 Gbit FC Ports pro SP nur FC Variante F r 500 virtuelle Desktops e 2 Data Mover aktiv Stand by nur NFS Variante e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Laufwerksanzahl PvD Non PvD HSD PVS 16 8 8 MCS 13 10 10 e 3 3 5 Zoll Flashlaufwerke mit 100 GB F r 1 000 virtuelle Desktops e 2 Da
152. in Kontrollpunkt spiegelt den Zustand eines PFS zum Zeitpunkt der Erstellung des Kontrollpunkts wider Die SnapSure Funktion unterst tzt die folgenden Arten von Kontrollpunkten e Schreibgesch tzte Kontrollpunkte schreibgesch tzte Dateisysteme die aus einem PFS erstellt werden e Beschreibbare Kontrollpunkte beschreibbare Dateisysteme die aus einem schreibgesch tzten Kontrollpunkt erstellt werden SnapSure kann maximal 96 schreibgesch tzte Kontrollpunkte und 16 schreibf hige Kontrollpunkte pro PFS unterst tzen w hrend PFS Anwendungen weiterhin Zugriff auf Echtzeitdaten erhalten Hinweis Jeder schreibf hige Kontrollpunkt ist einem schreibgesch tzten Kontrollpunkt zugeordnet der als Basiskontrollpunkt bezeichnet wird Jeder Basiskontrollpunkt kann nur einen zugeh rigen schreibf higen Kontrollpunkt haben Weitere detaillierte Informationen finden Sie im Dokument Verwenden von VNX SnapSure EMC Virtual EMC Virtual ProvisioningTM erm glicht Unternehmen die Reduzierung der Provisioning Speicherkosten durch Steigerung der Kapazit tsauslastung Vereinfachung des Speichermanagements und Reduzierung der Ausfallzeiten von Anwendungen Dar ber hinaus hilft Virtual Provisioning Kunden den Strom und K hlungsbedarf zu reduzieren und Investitionsausgaben zu senken Virtual Provisioning bietet poolbasiertes Speicher Provisioning durch Implementieren von Pool LUNs die entweder Thin oder Thick sein k nnen Thin
153. inien zur VSPEX Konfiguration Definieren der Avamar Planungen sind wiederverwendbare Objekte die steuern wann Planungen Gruppenbackups und benutzerdefinierte Benachrichtigungen erfolgen Definieren Sie eine wiederkehrende Planung die Ihren Recovery Point Objectives RPO entspricht Zus tzliche Informationen zu Datasets finden Sie im Administrationshandbuch f r EMC Avamar 7 Anpassen der Die Avamar Serverwartung umfasst die folgenden wesentlichen Aktivit ten Wartungsfen e Kontrollpunkt ein Snapshot des Avamar Servers der eigens f r die sterplanung Vereinfachung von Server Rollbacks erstellt wurde e Kontrollpunktvalidierung ein interner Vorgang der die Integrit t eines bestimmten Kontrollpunkts validiert Wenn ein Kontrollpunkt die Validierung besteht kann er als zuverl ssig genug f r ein Server Rollback betrachtet werden e Garbage Collection ein interner Vorgang der Speicherplatz von gel schten oder abgelaufenen Backups wiederherstellt Jeder 24 Stunden Tag wird in drei betriebliche Zeitfenster eingeteilt in denen verschiedene Systemaktivit ten durchgef hrt werden e Backup e Stromausfall e Aufrechterhalten von Abbildungen 63 zeigt die Standard Avamar Zeitfenster f r Backup Blackout und Wartung Backup Window Start Time 2800 PM i Time Zone Amencaliiew_York z Backup Window Duration 12 Hours Blackout Window Duration gt Hours Backup Maintenance Windows 1300AM 20
154. ion ist erforderlich unabh ngig davon ob die Netzwerkinfrastruktur f r die L sung bereits vorhanden ist oder zusammen mit anderen Komponenten der L sung bereitgestellt wird Abbildungen 36 zeigt eine redundante Beispiel Ethernetinfrastruktur f r diese L sung Im Diagramm ist die Nutzung von redundanten Switche und Links dargestellt damit keine Single Points of Failure in der Netzwerkverbindung vorhanden sind Zus tzliche vSphere Blades Virtuelles Desktop Netzwerk peichemetzwerk Virtuelles Desktop Netzwerk 2 AS peichernatzwerk I Verwaltung virtueller Verwaltung virtueller 5 Maschinen vMolion Maschinen vMotion Kundennetzwerk Lklink IQ l E l 7 Oo l 5 2 x T u T x d 80_5 F A D 0354 G lt 0 Q D u sHnz L 270 w0 E Yan go 3 5 m Hie uswe euepy Abbildungen 36 Beispiel Ethernetnetzwerkarchitektur 108 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration F r das Infrastruktur Fibre Channel Netzwerk sind redundante Fibre Channel Switche sowie Links f r jeden vSphere Host und das Speicherarray erforderlich Diese Konfiguration stellt sowohl Redundanz als auch zus tzliche Speichernetzwerkbandbreite bereit Jeder vSphere Host ist mit beiden Fibre Channel Switche verbunden und jeder Switc
155. irtuellen Desktops ausreichend Ressourcen f r die aktuellen Anforderungen und Raum f r Wachstum In den meisten F llen kann die empfohlene Hardware f r Server und Speicher entsprechend dem zuvor beschriebenen Prozess dimensioniert werden In einigen F llen m ssen Sie die verf gbaren Hardwareressourcen jedoch eventuell weiter anpassen Eine vollst ndige Beschreibung der Systemarchitektur geht ber den Umfang dieses Leitfadens hinaus es kann jedoch eine zus tzliche Anpassung an diesem Punkt erfolgen Speicherressourcen In manchen Anwendungen kann es erforderlich sein einige Speicher Workloads von anderen Workloads zu trennen In den Speicherlayouts f r die VSPEX Architekturen werden alle virtuellen Desktops in einen einzigen Ressourcenpool platziert F r eine Workload Trennung m ssen Sie zus tzliche Laufwerke f r jede Gruppe die eine Workload Isolierung ben tigt erwerben und diese einem dedizierten Pool hinzuf gen Ohne zus tzliche Anleitung die ber den Umfang dieses Leitfadens hinausgeht sollten Sie weder die Gr e des Hauptspeicherressourcenpools noch die Kapazit t des Pools reduzieren um die Isolierung zu unterst tzen Die in diesem Leitfaden dargestellten Speicherlayouts sind auf einen Ausgleich der vielen verschiedenen Faktoren hinsichtlich hoher Verf gbarkeit Performance und Datensicherheit ausgelegt Eine nderung der Komponenten des Pools kann erhebliche und nur schwer vorhersagbare Folgen f r an
156. itepaper Management von Arbeitsspeicherressourcen in VMware vSphere 5 0 Performancestudie Grundlegende Abbildungen 47 zeigt die Parameter f r die Arbeitsspeichereinstellungen in der Informationen zum virtuellen Maschine Arbeitsspeicher virtueller Maschinen Konfigurierter Speicher WOHL nn Ye VI A 7 M Auslagerungsdatei LLULLU ULUI Reservierter Speicher Guest Speicher Belegter Guest VM Guest Reservierung Speicher genutzter Speicher Abbildungen 47 Arbeitsspeichereinstellungen f r virtuelle Maschinen Diese Arbeitsspeichereinstellungen sehen folgenderma en aus e Konfigurierter Arbeitsspeicher Physischer Speicher der der virtuellen Maschine bei der Erstellung zugeteilt wird e Reservierter Arbeitsspeicher Speicher der der virtuellen Maschine garantiert wird e Belegter Arbeitsspeicher Speicher der aktiv ist oder von der virtuellen Maschine verwendet wird e Auslagerbar Speicher der der virtuellen Maschine entzogen werden kann wenn der Host aufgrund von Speichererweiterungen Komprimierung oder Auslagerung bei anderen virtuellen Maschinen weiteren Speicher ben tigt Die empfohlenen Best Practices sind e Deaktivieren Sie die Standardmethoden zum Freisetzen von Speicher nicht Es handelt sich dabei um einfache Prozesse die mehr Flexibilit t erm glichen und dabei nur minimale Auswirkungen auf die Workloads haben e Teilen Sie Arbeitsspeicher f r virtuelle Maschinen durchdacht
157. itrix Receiver zwecks Benutzerauthentifizierung und Provisioning e Automatisierter Abgleich der ShareFile Cloud mit der StorageZones Bereitstellung des Unternehmens e Automatisierte Virenschutz berpr fungen f r hochgeladene Dateien e Datei Recovery aus einem Storage Center Backup Storage Center ist die Serverkomponente von StorageZones Mit StorageZones k nnen Sie die Dateidatens tze nach einem bestimmten Datum oder einer bestimmten Uhrzeit durchsuchen und beliebige Dateien und Ordner mit Tags markieren um sie bei einem Storage Center Backup wiederherzustellen EMC VSPEX Anwender Computing 47 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 48 Kapitel 3 Technologie bersicht ber die L sung ShareFile Abbildungen 16 zeigt die bergeordnete ShareFile StorageZones Architektur StorageZones Steuerungsebene Architektur Kontoinformationen Brokering Berichterstellung Zugriffskontrolle Speicherzentrum StorageZone Speicherzentren Back end Speicher In Rechenzentren des Kunden Abbildungen 16 bergeordnete ShareFile Architektur Die bergeordnete ShareFile Architektur besteht aus den folgenden Komponenten e Client Diese Komponente greift ber ein natives Tool wie einen Browser ber Citrix Receiver oder direkt ber die API auf den SharefFile Service zu e Steuerungsebene Diese Komponente f hrt u a
158. itrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops F hren Sie nach dem Installieren der PVS Serverkomponenten den Provisioning Services Konfigurationsassistenten aus und konfigurieren Sie wie folgt eine neue Serverfarm 1 Geben Sie den DHCP Service an der auf einem anderen Computer ausgef hrt werden soll 2 Geben Sie den PXE Service an der auf einem anderen Computer ausgef hrt werden soll 3 W hlen Sie Create farm aus um eine neue PVS Serverfarm mittels einer f r diesen Zweck vorgesehenen SQL Datenbankinstanz zu erstellen 4 Wenn Sie eine neue Serverfarm erstellen m ssen Sie auch einen Standort erstellen Vergeben Sie f r den neuen Standort und die Zielger tesammlung geeignete Namen 5 W hlen Sie den Lizenzserver aus der auf dem XenDesktop Controller ausgef hrt wird 6 Wenn Sie den TFTP Service auf der VNX ausf hren verwenden Sie nicht den auf dem PVS Server gehosteten TFTP Service indem Sie die Auswahl Use the Provisioning Services TFTP service aufheben Nachdem Sie eine zweite PVS Serverfarm konfiguriert haben k nnen Sie einen zweiten PVS Server hinzuf gen um hohe Verf gbarkeit bereitzustellen Installieren Sie die PVS Serverkomponenten und die Konsole auf dem zweiten Server und f hren Sie den Provisioning Services Konfigurationsassistenten aus um den zweiten Server mit der bestehenden Serverfarm zu verbinden Ein PVS Speicher ist ein logischer Container f r vDisks PVS un
159. lability Funktion HA k nnen virtuelle Maschinen in verschiedenen Fehlersituationen automatisch von der Virtualisierungsebene neu gestartet werden Wenn das Betriebssystem der virtuellen Maschine einen Fehler zur ckgibt kann die virtuelle Maschine automatisch auf derselben Hardware gestartet werden Wenn die physische Hardware fehlerhaft ist k nnen die betroffenen virtuellen Maschinen automatisch auf anderen Servern im Cluster neu gestartet werden EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 31 Kapitel 3 Technologie bersicht ber die L sung Hinweis Damit virtuelle Maschinen auf anderer Hardware von vSphere HA neu gestartet werden k nnen m ssen f r diese Server Ressourcen verf gbar sein Der Abschnitt Rechner enth lt spezifische Empfehlungen f r diese Funktion Mit vSphere HA k nnen Sie Policies konfigurieren um festzulegen welche Maschinen unter welchen Bedingungen automatisch neu gestartet werden sollen Rechner berblick Die Wahl der Serverplattform f r eine VSPEX Proven Infrastructure h ngt nicht nur von den technischen Anforderungen der Umgebung ab sondern auch von der Unterst tzbarkeit der Plattform vorhandenen Beziehungen zum Serveranbieter erweiterten Performance und Managementfunktionen und vielen weiteren Faktoren Aus diesem Grund k nnen VSPEX L sungen auf vielen verschiedenen Serv
160. layout f r 2 000 virtuelle Desktops zeeeasneensneneensnnnennnsnnnnnnnennennnenn 81 Hohe Verf gbarkeit und Failover eeeeereeecenesseseeeessnsesnennnsennnnnnennnnnnnnnnnnnnnnnnnnennnnnn 86 Einf hrung beleben E E 86 Virtuallsier ngsebene see shkesn sinken 86 Rechnerebene san ae 87 Netzwerkebene nn 87 Spelcherebeie nn ee 88 Profil der Validierungstests eeneseeseeessessensnsnsnnnensnnnnnennnnennnnnnnnnennnnnnnnnnnnnnnnnennnnnn 90 Pronlmerkmale sessen ea ree ieee a EEE SENEE 90 Richtlinien f r die Konfiguration der Backup Umgebung ssssssssessesssssssseresssss 91 berblick ee 91 Backup Merkmale aan 91 B ckup Layout a 40seeeenenelsenesnnikuneeshenikn 91 Richtlinien zur Dimensionierung esseesseeeeseeeseseseseeesesesesesesssssssssssssssssssssssssss 91 W151 514 5 14 SONDERE NND HERREN RICK NUN a EEAS EEEE EEE eea Ee AES SEI TEA FERNEN 91 Referenz Workload 2e2u0s0eseeessnsnnnnnnnnnnessensnnnnnsnnnnensnsnnnsnnnnnnensssensnsssnsnnnnene 92 Definieren der Referenz Workload uusussessesnnesssnnnsnnesnnnnnnnnnnnnnnnnnnnnnnnnnnsnnnn 92 Anwenden der Referenz Workload uusussessnsneesnnnnnnnsnnnnnnnennnnennnnnnnnnnnnnnennnn 93 Implementieren der Referenzarchitekturen ccssssessnnnnnsssnnnnnnesnnnnnnennnnnnnnnnnnnnnn 93 bel ee ee ee 93 Ress ureentypen uceseesiei einen EEEE ESE e EEN aE e ei 93 CPU RESSOUFCEN re 540ennkeenneentseunenntesgtesnnesnhengneenthengheete e e e n eiea aeee 94 Arbei
161. lgenden Best Practices f r die Rechnerebene e Verwenden Sie eine Reihe identischer oder zumindest kompatibler Server Bei VSPEX werden Technologien f r hohe Verf gbarkeit auf Hypervisor Ebene implementiert die hnliche Instruktionss tze auf der zugrunde liegenden physischen Hardware erfordern k nnen Durch die Implementierung von VSPEX auf identischen Servereinheiten k nnen Kompatibilit tsprobleme in diesem Bereich auf ein Minimum begrenzt werden e Wenn Sie hohe Verf gbarkeit auf der Hypervisor Ebene implementieren h ngt die Gr e der gr ten virtuellen Maschine die Sie erstellen k nnen vom kleinsten physischen Server in der Umgebung ab e implementieren Sie die verf gbaren Funktionen f r hohe Verf gbarkeit in der Virtualisierungsebene und achten Sie darauf dass die Rechnerebene gen gend Ressourcen aufweist um zumindest den Ausfall eines einzelnen Servers aufzufangen Auf diese Weise k nnen Sie Upgrades mit minimaler Ausfallzeit durchf hren und den Ausfall einzelner Einheiten auffangen Innerhalb der Grenzen dieser Empfehlungen und Best Practices kann die Rechnerebene f r VSPEX flexibel an Ihre speziellen Anforderungen angepasst werden Als wichtigste Bedingung m ssen gen gend Prozessorkerne und RAM pro Kern zur Verf gung stehen um die Anforderungen der Zielumgebung zu erf llen Netzwerk berblick Das Infrastrukturnetzwerk erfordert redundante Netzwerkverbindungen f r jeden vSphere Host das Speicherarra
162. lle Desktop Clients 9 W hlen Sie die virtuellen Maschinen Desktops aus die Sie zum Avamar Server hinzuf gen m chten wie in Abbildungen 76 hervorgehoben EMG Avamar C ent Manager ee Abbildungen 76 Avamar Client Manager Ausw hlen virtueller Desktop Clients 10 Klicken Sie auf die markierte Liste ziehen Sie diese auf die bereits erstellte Avamar Domain und lassen Sie die Maustaste los Das Fenster Select Groups wird angezeigt wie in Abbildungen 77 gezeigt EMC EMC VSPEX Anwender Computing 153 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration J guLTrese voran jilreme vo Kom vu IOW Term ort okers a Higa as enc com Dataset Schedsie Retenton Pobcy Aware Vinnerd Kin Demand Moniy Retenten Odtmare Viee iser Aufl in Demenz Aonta Retenen Yes P20 Aetna Orase Detant Schere Artal Betenten BPEX 250 10 WEX 280 10 WEX 250 10 WEX 250 10 WER 280 10 WEX 240 10 PEX 240 10 WPOC 240 108 BPUC 280 10 BPEX 280 10 BWPEX 250 10 BPEX 250 11 WER 2E0 11 jd d Page It gt gt WEX 250 17 ee fat el WER 2SO 11 Bo FPEX 240 1 14 Ina ome com Ospeyng 1 20 Abbildungen 77 Ausw hlen der Avamar Gruppen denen virtuelle Desktops hinzugef gt werden sollen 11 Klicken Sie auf die Kontrollk stchen um die Gruppen auszuw hlen zu denen diese Desktops hinzugef gt werden sollen und
163. llen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse Grundlegendes Speicherlayout mit MCS Provisioning Abbildungen 24 zeigt das Layout der Laufwerke die zur Speicherung von 500 virtuellen Desktops mit MCS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten UNGENUTZT a lt gt C TEE TEUER Bee a ee gt Bee EB Bus 1 EERSEERSRSESESESESESESENL Bus 1 Geh use 0 Bus 0 Enclosure 0 u lt a SSD z NL SAS UNGENUTZT Abbildungen 24 Grundlegendes Speicherlayout mit MCS Provisioning f r 500 virtuelle Desktops Grundlegendes Speicherlayout mit MCS Provisioning berblick Die folgende Kernkonfiguration wird in der Referenzarchitektur f r 500 virtuelle Desktop Maschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_0_4 und 1_1_2 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 24 als Hot Spare Laufwerke gekennzeichnet EMC VSPEX Anwen
164. m Kunden bereitgestellt wurden Installieren von vCenter Server Zum Warten von Lizenzen melden Sie sich bei vCenter Server an und w hlen Sie das Men Administration Licensing vom vSphere Client aus Verwenden Sie die vCenter Lizenzkonsole um die Lizenzschl ssel f r die vsphere Hosts einzugeben Wenden Sie diese Einstellungen anschlie end auf die vShpere Hosts an wenn sie in vCenter importiert werden Anwenden der vSphere Lizenzschl ssel EMC VSPEX Anwender Computing 127 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Bereitstellen des Das VAAI for NFS Plug in erm glicht die Unterst tzung f r die vSphere 5 1 NFS VNX VAAI for NFS Stammfunktionen Diese Stammfunktionen reduzieren die Last auf dem Plug ins NFS Hypervisor von bestimmten speicherrelevanten Aufgaben um Ressourcen f r Variante andere Vorg nge freizugeben Zus tzliche Informationen zum VAAI for NFS Plug in finden Sie im Download vSphere VAAI Plug in Weitere Informationen finden Sie in Anhang C Das VAAI for NFS Plug In wird mithilfe von vSphere Update Manager installiert Weitere Informationen finden Sie im Prozess f r die Installation des Plug ins im Anleitungsvideo zur Installation des EMC VNX VAAI NFS Plug ins das auf der YouTube Website zur Verf gung steht Zum Aktivieren des Plug Ins nach der Installation m ssen Sie de
165. m definierten NAS Pool bereit Jede LUN sollte 1 TB f r 500 virtuelle Desktops 2 TB f r 1 000 virtuelle Desktops oder 4 TB f r 2 000 virtuelle Desktops aufweisen 3 Erstellen Sie zwei Dateisysteme aus dem vom System definierten NAS Pool die die 10 neuen LUNs enthalten Exportieren Sie die Dateisysteme als CIFS Freigaben FAST VP Konfiguration optional Optional k nnen Sie FAST VP so konfigurieren dass die Datenverschiebung zwischen den Speicherebenen automatisiert wird Es gibt die folgenden zwei Methoden zur Konfigurierung von FAST VP 1 Konfigurieren Sie FAST VP auf der Poolebene Klicken Sie auf Properties f r einen bestimmten Speicherpool um das Fenster Storage Pool Properties zu ffnen Abbildungen 44 zeigt die Tiering Informationen f r einen bestimmten Pool mit aktiviertem FAST VP an APM001 21902839 Pool O Storage Pool Properties General Disks Advanced Terng Manual v Relocstion Schedule Data Relocation Status Ready Data to Move Down 116 23 GB Data to Move Up 116 23 GB Data to Move Within 00068 Estimated Tune for Data Relscation 2 83 Mours shomm top down from highest to lowest Tiar Free GB Allocated GB Total GB Move Within RAID Configu Extreme Pe 36 07 N6 360 70 900 RAIOS 4 1 Performance 12779 91 4381 54 1716145 000 RAIDS 8 1 lt apat 05341 6340 02 1099 4 000 RAIOS 6 2 Abbildungen 44 Fenster Storage Pool Properties 2 EMC VSPEX Anwender Computing 117 EMC Citri
166. me_Profien _ t li F yersan OLNE ENT View User Dra View ss Piafs iv F F yiana Pse oT View User Data Vers isar Prefira Alb San a 7 F yurma Paare DLT View_Uset Date Vinm_Liner_Prafien I F Seected f r Registration F F yns Peere OTT View User _Dsia View_User_Frafies TR activation Fahre Z F ysperzoram Oieee MIT Yan iaar Ra Van Jian fale 7g yiera ON ee OTT Vew Use Dra Ves Usa Aoiits Cantie mahema i Hi J yrat Pee oT Vew User Dra Vew Liner Prafien r Z Bysmamo on PIE OnT View _Uast_ Dis Vie Uns _Frafien 7 VIELE bpa mann OTT View User Dua Ves Dss Aniies Z F yiman e mT View User Data Viss Une Bretten 7 F yarmin begad ame OTT Vew User Date Vew Use Asias f F yie ttisse DORI ksero OMT View Use Doa Vea Uss Proiies U F vsr OTN anere OTT View User Des Vis Use Prefas IA me tob gt h Oaowyvg 1 14012350 Comme Cave Abbildungen 79 Anwenden der Avamar Clientaktivierung Es werden zwei Aufforderungen zur Angabe von Informationen angezeigt Die erste Aufforderung weist darauf hin dass die Clientaktivierung als Hintergrundprozess durchgef hrt wird 14 Klicken Sie auf OK wie in Abbildungen 80 gezeigt or Activation f 7 Cen Server Domen Group s 7 gi VSPEX 2SO Liss em Bd iss emc OTT View _User_Dsia View _User_Profies g VSPEX 240 101 dsg04231 iss emc OTLT View_User_Dsta View_User_Profies 7 g VSPEX 250 109 153 _ beg04231 ss emc ONT View User _Dsta View User Protes mus a i gJ VSPEX 250 101 Ins _ beg 42 i ssemc OT
167. mentieren Sie Personal vDisk mit MCS Provisioning mit 10 SAS Laufwerken f r 1 000 Desktops EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 79 Kapitel 4 bersicht ber die L sungsarchitektur e Zwei Flashlaufwerke 1_1_O und 1_1_1 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerkonfigurierbaren LUNs vorhanden e Die Laufwerke 0_0_4 bis 0_0_24 1_0_O bis 1_O_3 und 1_1_13 bis 1_1_14 sind ungenutzt Sie wurden f r das Testen dieser L sung nicht verwendet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden um mehr Kapazit t bereitzustellen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse Optionales Speicherlayout Bei Validierungstests der L sung wurde der Speicherplatz f r Benutzerdaten auf dem VNX Array zugewiesen wie in Abbildungen 28 gezeigt Dieser Speicher wird zus tzlich zu dem zuvor dargestellten Kernspeicher verwendet Wenn Speicher f r Benutzerdaten an anderer Stelle der Produktionsumgebung vorhanden ist ist dieser zus tzliche Speicher nicht erforderlich Bus 1 Geh use 3 vr 5E lt KT Te Te eg gt m ee gt z Bus 0 Geh use 3 Bus 0 Geh use 2 Bus 0 Geh use
168. n 29 als Hot Spare Laufwerke gekennzeichnet e 32 SAS Laufwerke 1_0_5 bis 1_0_14 0_1_Obis0_1_14 und 1_1_0 bis 1_1_6 im RAID 10 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 800 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von acht NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als acht NFS Datastores angezeigt F r FC werden acht LUNs mit jeweils 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als acht VMFS Datastores angezeigt e Vier Flashlaufwerke 1_1_12 bis 1_1_13 und 0_2_0 bis 0_2_1 werden f r FAST Cache verwendet Auf diesen Laufwerken sind keine benutzerkonfigurierbaren LUNs vorhanden 82 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 4 bersicht ber die L sungsarchitektur e F nf SAS Laufwerke 1_1_7 bis 1_1_11 im RAID 5 Speicherpool 2 werden f r die Speicherung von PVS vDisks und TFTP Images verwendet FAST Cache ist f r den gesamten Pool aktiviert e Die Laufwerke 0_0_4 bis 0_0_24 1_0_O bis 1_0_3 und 0_2_3 bis 0_2_14 sind ungenutzt Sie wurden f r das Testen dieser L sung nicht verwendet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden
169. n Ausf lle einer einzelnen Einheit mit minimalen oder keinen Auswirkungen auf den Gesch ftsbetrieb aufgefangen werden Virtualisierungsebene EMC empfiehlt die hohe Verf gbarkeit in der Virtualisierungsebene zu konfigurieren und den automatischen Neustart von fehlerhaften virtuellen Maschinen durch den Hypervisor zuzulassen Abbildungen 32 zeigt wie die Hyperwvisor Ebene auf einen Ausfall in der Rechnerebene reagiert VMware vSphere Cluster HA konfiguriert Hostausfall VMware vSphere Cluster HA konfiguriert Abbildungen 32 Hohe Verf gbarkeit auf der Virtualisierungsebene 86 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Durch die Implementierung von hoher Verf gbarkeit auf der Virtualisierungsebene kann die Infrastruktur selbst bei einem Hardwareausfall versuchen so viele Services wie m glich weiter auszuf hren Rechnerebene Auf der Rechnerebene k nnen viele verschiedene Server implementiert werden es empfiehlt sich jedoch Server der Enterprise Klasse einzusetzen die f r Rechenzentren ausgelegt sind Diese Server sollten wie in Abbildungen 33 gezeigt mit redundanten Netzteilen verbunden werden um die Power Distribution Units PDUs gem den Best Practices Ihres Serveranbieters voneinander zu trennen Netzteil 2 Netzteil 1
170. n die berbelegungsrate des Arbeitsspeichers jedoch so hoch ist dass das zugrunde liegende Speichersystem durch eine kontinuierliche berlastung aufgrund von VSwap Aktivit ten sehr beeintr chtigt ist m ssen weitere Festplatten hinzugef gt werden nicht aufgrund der Kapazit tsanforderungen sondern weil mehr Performance ben tigt wird An diesem Punkt muss der Administrator entscheiden ob es g nstiger ist mehr physischen Arbeitsspeicher f r den Server hinzuzuf gen oder die Speicherkapazit t zu erh hen Da Arbeitsspeichermodule inzwischen Massenware sind ist diese Option wahrscheinlich g nstiger Diese L sung wurde mit statisch zugewiesenem Arbeitsspeicher und ohne berbelegung von Arbeitsspeicherressourcen getestet Wenn in einer realen Umgebung eine Speicher berbelegung verwendet wird sollten Sie die Systemspeicherauslastung und die damit verbundene I O Aktivit t der Auslagerungsdatei regelm ig berwachen damit es nicht zu einem Speicherengpass kommt der unerwartete Ergebnisse nach sich ziehen kann 94 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Netzwerkressourcen In den Referenzarchitekturen sind die Mindestanforderungen des Systems angegeben Wenn zus tzliche Bandbreite ben tigt wird m ssen Ressourcen sowohl f r das Speicherarray als auch f
171. n vSphere Server neu starten Bereitstellen von PowerPath ist eine hostbasierte Software die automatisierte PowerPath VE Datenpfadverwaltung und Lastausgleich f r heterogene Server Netzwerke und FC Variante Speicher in physischen und virtuellen Umgebungen bereitstellt PowerPath nutzt mehrere I O Datenpfade zur Verteilung der Arbeitslast Der Lastenausgleich erfolgt automatisch sodass eine effiziente Auslastung der Datenpfade erzielt werden kann Das PowerPath VE Plug in wird mithilfe von vSphere Update Manager installiert Eine Beschreibung des Prozesses zum Verteilen des Plug ins und Anwenden der erforderlichen Lizenzen finden Sie im nstallations und Administrationshandbuch f r PowerPath VE f r VMware vSphere Zum Aktivieren des Plug ins nach der Installation starten Sie den vSphere Server neu Installieren der VSI Das VNX Speichersystem kann in vCenter ber die Unified Storage Management Unified Storage Funktion von VSI f r VMware vSphere integriert werden Mit Unified Storage Management Management k nnen Administratoren VNX Speicheraufgaben von vCenter Funktion managen Nach Installation der Funktion auf der vSphere Konsole k nnen Administratoren vCenter f r Folgendes nutzen e Erstellen von Datastores auf der VNX und Mounten der Datastores auf vSphere Servern e Erweitern von Datastores e Konfigurieren von FAST vollst ndigem Cloning von virtuellen Maschinen Installieren und Konfigurieren des XenDesktop Controllers
172. n verf gbar ist wird eine Fehlermeldung angezeigt und FAST Cache kann nicht erstellt werden EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 115 Kapitel 5 Richtlinien zur VSPEX Konfiguration 2 Aktivieren Sie FAST Cache im Speicherpool Wenn eine LUN in einem Speicherpool erstellt wird k nnen Sie FAST Cache nur f r diese LUN auf der Speicherpoolebene konfigurieren Das hei t FAST Cache wird bei allen in dem Speicherpool erstellten LUNs aktiviert oder deaktiviert sein Sie k nnen sie unter Advanced im Dialogfeld Create Storage Pool konfigurieren wie in Abbildungen 42 gezeigt FAST Cache wird nach der Installation auf der VNX standardm ig aktiviert wenn ein Speicherpool erstellt wird rtpsols4 Create Storage Pool General Advanced Pool Advanced Parameters Pool Description Pool Alerts Percent Full Threshold 70 vi FAST Cache Abbildungen 42 Aktivieren von FAST Cache im Dialogfeld Create Storage Pool Wenn der Speicherpool bereits erstellt wurde klicken Sie auf Advanced im Dialogfeld Storage Pool Properties um FAST Cache wie in Abbildung 44 gezeigt zu konfigurieren F rtpsoldd Desktopa SPool200tsks Stor General Disks Advanced Tiening Storage Pool Alerts Percent Ful Threshold 170 v 5 FAST Cache Abbildungen 43 Konfigurieren von FAST Cache im Di
173. n virtuellen Desktops basieren auf zus tzlichem gemeinsamem Speicher f r Benutzerprofildaten und Benutzerdokumente Diese Anforderung wird als eine optionale Komponente abgedeckt die mit dem Hinzuf gen einer bestimmten Speicherhardware aus der Referenzarchitektur oder mit vorhandenen Dateifreigaben in der Umgebung erf llt werden kann EMC VSPEX Anwender Computing 97 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Festlegen Wenn alle Ressourcen definiert sind legen Sie einen angemessenen Wert f r die entsprechender Zeile Entsprechende virtuelle Referenzdesktops in Tabellen 15 fest indem Sie virtueller Referenz die Beziehungen in Tabellen 16 verwenden Runden Sie alle Werte auf die Desktops n chste ganze Zahl auf Tabellen 16 Ressourcen f r virtuelle Referenz Desktops Desktoptyp Ressource Wert f r virtuellen Beziehung zwischen Anforderungen und Referenzdesktop entsprechenden virtuellen Referenz Desktops Desktopbetriebssystem CPU 1 Entsprechende virtuelle Referenz Desktops Ressourcenanforderungen Arbeitsspeicher 2 Entsprechende virtuelle Referenzdesktops Ressourcenanforderungen 2 IOPS 8 Entsprechende virtuelle Referenzdesktops Ressourcenanforderungen 8 Serverbetriebssystem CPU 0 2 Entsprechende virtuelle Referenzdesktops Ressourcenanforderungen 0 2 Arbeits
174. nager Installieren Sie vCenter Server Installieren Sie die vCenter Server Software Installations und Einrichtungshandbuch f r vSphere Installieren Sie vCenter Update Manager Installieren Sie die vCenter Update Manager Software Installieren und Verwalten von VMware vSphere Update Manager Erstellen Sie ein virtuelles Rechenzentrum Erstellen Sie ein virtuelles Rechenzentrum Handbuch f r vCenter Server und Hostverwaltung Wenden Sie die vSphere Lizenzschl ssel an Geben Sie die vSphere Lizenzschl ssel in das vCenter Lizenzierungsmen ein Installations und Einrichtungshandbuch f r vSphere F gen Sie vSphere Hosts hinzu Verbinden Sie vCenter mit vSphere Hosts Handbuch f r vCenter Server und Hostverwaltung Konfigurieren Sie vSphere Clustering Erstellen Sie ein vSphere Cluster und verschieben Sie die vSphere Hosts in das Cluster Handbuch zur vSphere Ressourcenverwaltung F hren Sie die Array vSphere Hosterkennung durch F hren Sie die vSphere Hosterkennung in der Unisphere Konsole durch Verwenden von EMC VNX Speicher mit VMware vSphere Installieren Sie das vCenter Update Manager Plug in Installieren Sie das vCenter Update Manager Plug in auf der Administrationskonsole Installieren und Verwalten von VMware vSphere Update Manager 126 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1
175. nderen L ndern Alle anderen in diesem Dokument erw hnten Marken sind das Eigentum ihrer jeweiligen Inhaber Eine aktuelle Liste der EMC Produktnamen finden Sie im Abschnitt zu Marken der EMC Corporation auf EMC com EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Unterst tzt durch EMC VNX der n chsten Generation und EMC Backup Handbuch zur Proven Infrastructure L sung Art Nr H11968 1 EMC VSPEX Anwender Computing p Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Inhalt Kapitel 1 Zusammenfassung 13 Einf hrung asien E heine EAT 14 PANAON o e eE EE REN EEE E S A 14 Zweck dieses Leitfadens ns 14 Gesch ftliche Anforderungen sessessesssesessessssssereeeessssssesereesssosereeerssssoseeeeeesssses 15 Kapitel 2 L sungs berblick 17 L sunes berDliCK u ner SE E oa S EE ENE 18 Desktop Broker sun ee ee ee ee 18 Virtualisiertungs asiscskieattesesikonkssisticchsnennehrlei eure EEES 18 Rechners sk en ned En EA E 18 Netzwerken 19 B ack auna ae re E EE 19 Speicher nannten A E 19 EMC VNX der n chsten Generatl n seen 19 Funktionen und Verbesserungen eeesssseesessssennensnsnnnnnnnsnnnennnnnnnnnnnnnnensnnnnnnnnn 20 Flashoptimiertes Hybridarray eereseeenenseneesssessnnnennnnnnnnnensnnnnnnnnnnnnnsnnnnnnnsn nennen 20 Kapitel 3 Technologie bersicht ber die L su
176. ndet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden um mehr Kapazit t bereitzustellen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse Optionales Speicherlayout Bei Validierungstests der L sung wurde der Speicherplatz f r Benutzerdaten auf dem VNX Array zugewiesen wie in Abbildungen 25 gezeigt Dieser Speicher wird zus tzlich zu dem zuvor dargestellten Kernspeicher verwendet Wenn Speicher f r Benutzerdaten an anderer Stelle der Produktionsumgebung vorhanden ist ist dieser Speicher nicht erforderlich Bus 0 Geh use 2 Bus 0 Geh use 2 EE NL SAS UNGENUTZT Abbildungen 25 Optionales Speicherlayout f r 500 virtuelle Desktops 76 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur bersicht ber das optionale Speicherlayout Das optionale Speicherlayout wird f r die Speicherung von Infrastrukturservern Benutzerprofilen Stammverzeichnissen und Personal vDisks verwendet Die folgende optionale Konfiguration wurde in der Referenzarchitektur f r 500 virtuelle Desktops verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderl
177. nem Fall geeignet ist F r die VSPEX L sung f r Anwender Computing wird der Referenz Workload als ein einziger virtueller Desktop definiert der mithilfe eines Desktop oder Serverbetriebssystems bereitgestellt werden kann Bei einem Desktopbetriebssystem greift jeder Benutzer auf eine dedizierte virtuelle Maschine zu der eine virtuelle CPU und 2 GB RAM zugewiesen werden Bei einem Serverbetriebssystem werden jeder virtuellen Maschine vier virtuelle CPUs und 12 GB RAM zugewiesen und jede dieser virtuellen Maschinen wird von 20 virtuellen Desktopsitzungen gemeinsam genutzt Tabellen 14 zeigt die Merkmale des virtuellen Referenzdesktops Tabellen 14 Eigenschaften des virtuellen Desktops Eigenschaft Wert Betriebssystem der virtuellen Desktops e Desktopbetriebssystem Microsoft Windows 7 Enterprise Edition 32 Bit SP1 e Serverbetriebssystem Windows Server 2008 R2 SP1 Virtuelle Prozessoren pro virtuellem e Desktopbetriebssystem 1 virtuelle CPU Desktop e Serverbetriebssystem 0 2 virtuelle CPUs RAM pro virtuellem Desktop e Desktopbetriebssystem 2 GB e Serverbetriebssystem 0 6 GB Verf gbare Speicherkapazit t pro e AGB PVS i virtuellem Desktop e 8GB MCS Durchschnittliche IOPS pro virtuellem 8 Desktop in station rem Zustand Die verf gbare Speicherkapazit t wurde auf Grundlage der in dieser L sung verwendeten Laufwerke berechnet Der Speicherplatz kann durch Hinzuf gen weiterer L
178. ng bertragen Der Benutzer und Managementdatenverkehr wird ber ein gemeinsam genutztes Netzwerk bertragen der NFS Speicherdatenverkehr dagegen ber ein privates nicht routingf higes Subnetz IP Netzwerk Die Ethernetnetzwerkinfrastruktur bietet IP Konnektivit t zwischen virtuellen Desktops vSphere Clustern und VNXe Speicher Bei der NFS Variante erm glicht die IP Infrastruktur den vSphere Servern den Zugriff auf NFS Datastores auf der VNX und Desktop Streaming von PVS Servern mit hoher Bandbreite und geringer Latenz Au erdem k nnen Desktopbenutzer ihre Benutzerprofile und Stammverzeichnisse an die zentral verwalteten CIFS Shares auf der VNX umleiten FC Netzwerk Bei der FC Variante erfolgt der Speicherdatenverkehr zwischen allen vSphere Hosts und dem VNX Speichersystem ber ein FC Netzwerk Der restliche Datenverkehr erfolgt ber das IP Netzwerk EMC VNX5400 Array Ein VNX5400 Array stellt Speicher bereit indem NFS FC Datastores f r vSphere Hosts f r bis zu 1 000 virtuelle Desktops bereitgestellt werden EMC VNX5600 Array Ein VNX5600 Array stellt Speicher bereit indem NFS FC Datastores f r vSphere Hosts f r bis zu 2 000 virtuelle Desktops bereitgestellt werden Die Speicherarrays der VNX Serie umfassen folgende Komponenten e SPs bieten Unterst tzung f r Blockdaten mit UltraFlex I O Technologie die FC iSCSI und FCoE Protokolle Fibre Channel over Ethernet unterst tzt Die SPs bieten Zugriff f r all
179. ng 25 L sungstechnologie u 0u0s0nB0 nenne sahne 26 bersicht ber die wichtigen Komponenten eeeeeeeessessensesnennessensnenennnnnnnsnnnnnnnnnn 27 Deskt pvirtualisieruie su nn 28 41032142 7 er ae SERAR GERN NIRAERFORNER SER ARHNNRNH E KRERENENRNG AR 28 Citrix XenDesktop Zeernssitasnereesiseinubeneeireen 28 Machine Creation Services na 30 Citrix Provisioning SerViceSccaeeeesessesesssnsnsnsnsennsnsnsnnnsnnnsnnnsnnnsnnsnnnnnnnnnnnsnnnnnnnnnnnn 30 CitriXPersonalVvDisk aueh 30 Citrix ProfileManagement ansehen oE eS E Eis 30 Virtualisierung nein insert EER EEEE a TONS oE se e ESS 31 ber ee ee ee een 31 VMware vSphere 5 1 sense eeeeeeen 31 VMware vCentersansssiee ass E o E TESE E ESES 31 VMware vSphere High Availability eeesseeessnsneessnsnnesssnnnsnnssnnnnnnnnnnnnennennnnnnn 31 Rechner akt E EE 32 15 2142 7 tarra E EEE AAEE E EE 32 NAAN A ERE E ee sense ee ee 33 berblick issons a e 33 Speicher eek sieben 35 berblick SRRBIROREAENDR PRRREEUE IEHESUEEIL ARE AFREHSERENEEDECRENEENN ERDERAEREREILARE ENDE EUT EENEG 35 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Inhalt EMC VNX Snapshots en een nal 35 EMC SnapSure a neeesien seen lbs 35 EMC Virtual Provisioning eeesesesesesesesesssenssensnenenennnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnenennen 36 EMC FAST Cache u 41 EMC FAST VP option
180. ning f r 1 000 virtuelle Desktops Grundlegendes Speicherlayout mit MCS Provisioning berblick Die folgende Kernkonfiguration wurde in der Referenzarchitektur f r 1 000 virtuelle Desktopmaschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_0_4 und 1_1_2 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 27 als Hot Spare Laufwerke gekennzeichnet e 20 SAS Laufwerke 1_0_5 bis 1_0O_14 und 1_1_3 bis 1_1_12 im RAID 5 Speicherpool 1 werden f r die Speicherung virtueller Desktops verwendet FAST Cache ist f r den gesamten Pool aktiviert F r NAS werden zehn LUNs mit jeweils 800 GB aus dem Pool zur Verf gung gestellt um den f r die Erstellung von vier NFS Dateisystemen erforderlichen Speicher bereitzustellen Die Dateisysteme werden den vSphere Servern als vier NFS Datastores angezeigt F r FC werden vier LUNs mit jeweils 2 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als vier VMFS Datastores angezeigt Hinweis Wenn Personal vDisk implementiert wird ist die H lfte der Laufwerke zehn SAS Laufwerke f r 1 000 Desktops ausreichend um die Performanceanforderungen zu erf llen Die Desktopkapazit t sinkt jedoch um 50 Prozent Wenn die Kapazit tsanforderungen Ihrer Umgebung erf llt werden imple
181. nnnnnnnnnnnnnnnnnnnnnnnnn 130 Installieren und Konfigurieren der Citrix Provisioning Services PVS une 131 berblicke oier S E EESE EE EEES ENS 131 Konfigurieren einer PVS Serverfarm ssessssssssssssssesssssseseressssssseseeeeeesssssreeeeese 132 Hinzuf gen eines zweiten PVS Servers eeeeesesenssssnnnnsnnnennsnnnnnensnnnnnnnnnnnssnnnnnn 132 Erstellen eines PVS Speichen u uensnnssnnsnennen 132 Konfigurieren der eingehenden Kommunikation uuuseersnsnneessnsnnnnnsnnnnnnnnnn 132 Konfigurieren einer Bootstrap Datei uessesesensesesnnnsnnnennennnnnnnnnnnnnnnnnnnnnnnnnnn 133 Einrichten eines TFTP Servers auf VNX aneseenneessnnnsnnssnnnnnnessnnnnnnnnsnnnnnnnnnnnsnnnnnnn 133 Konfigurieren der Boot Optionen 66 und 67 auf dem DHCP Server 134 Vorbereiten der virtuellen Master Maschine usssseressssssnsnseeesensnnnnnnnnn nenn 134 Provisioning der virtuellen Desktops sn 135 Einrichten von EMC Avamar ueesessessssssssnnnnnsnensnsnsnnnnnsnsnnnnnnnnsnnnsnnnnnnnssnnsnsssnsnnnn 135 bersicht ber die Avamar Konfiguration uussssseessesseensnensennennnnnnennnnnnnnnnnenn 135 GPO Erg nzungen f r Avyamar ueeeeeeesessssnsnsesnsnnnsnsnsnnnnnsnsnnnnnnnnnnnnnnnnnnnnnnnnnnnnn 136 Vorbereiten des Master Image f r Avamar sesesesesesssesesesesesesesesesesesesesss 140 Definieren von DatasetS eeeseaeeesessnsnnnnnnnnnnenssnennnnnnnsnnnnnennsnsnsnnnnnnnensnessnsnsnnnn 140 Definieren der Planungen s sesessseseses
182. nsleitfaden Provisioning von Erstellen Sie CIFS Dateisysteme Ihres Switch Anbieters optionalem Speicher die zum Speichern von Roaming f r Benutzerdaten Benutzerprofilen und Stammverzeichnissen verwendet werden Vorbereiten der VNX Anweisungen f r Montage Rack Aufbau Verkabelung und Stromanschluss von VNX finden Sie im nstallationshandbuch f r VNX5400 Unified Informationen zur L sung f r 2 000 virtuelle Desktops finden Sie im nstallationshandbuch f r VNX5600 Unified F r diese L sung gibt es keine spezifischen Konfigurationsschritte Einrichten der anf nglichen VNX Konfiguration Nach der anf nglichen VNX Einrichtung konfigurieren Sie wichtige Informationen zur vorhandenen Umgebung damit das Speicherarray mit anderen Komponenten im Netzwerk kommunizieren kann Konfigurieren Sie die folgenden Elemente gem den f r Ihr Rechenzentrum geltenden Policies mit den Informationen der vorhandenen Infrastruktur e DNS e NIP 110 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration e Schnittstellen des Speichernetzwerks e IP Adresse des Speichernetzwerks e CIFS Services und Active Directory Domain Mitgliedschaft Weitere Informationen zum Konfigurieren der VNX Plattform finden Sie in den in Tabellen 25 aufgelisteten Referenzdokumenten In den Richtlin
183. ntegration VAAI verschiebt die Funktionen im Zusammenhang mit VMware Speicher vom Server in das Speichersystem sodass der Server und die Netzwerkressourcen effizienter genutzt und Performance und Konsolidierung verbessert werden k nnen EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 25 Kapitel 2 L sungs berblick VMware vStorage APIs for Storage Awareness VMware vStorage APIs for Storage Awareness VASA ist eine VMware API zur Anzeige von Speicherinformationen ber vCenter Aufgrund der Integration zwischen VASA Technologie und der VNX wird das Speichermanagement in einer virtualisierten Umgebung zu einer nahtlosen Erfahrung 24 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Kapitel3 _Technologie bersicht ber die L sung In diesem Kapitel werden folgende Themen behandelt L sungstechnolosie i4ssisisiasissuniesestessstesestensnsehnesnnettrennere EEEO 26 bersicht ber die wichtigen Komponenten 2 22222222202202220022022002000200000200000 27 Desktopvirtualisierung s00000s00n0050600004000000000110 0400000440 00000 00 nennen 28 Virtualisierine ou n anaidia ianea dadaan ioiii aohia nahindot 31 RECHNET f aeusnssmnnnnnnai a aa E AA
184. nter Gastbetriebssystems eeseseeeesessnsennensnnnnnnnnnennnennnne 127 Erstellen von vCenter ODBC Verbindungen ssssesssessseseseseseseseseseseseseseseses 127 Installieren von vCenter Server eeeeesssnsnsesnensssnsnnnnnnnsnnnnnnnennnnnnnsnnnnnssnsnnsssnnnn 127 Anwenden der vSphere Lizenzschl ssel uuseseesssessssnnnnesnsnnnnennnnnnnnnnnnnnnnnn 127 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Inhalt Bereitstellen des VNX VAAI for NFS Plug ins NFS Variante eeseeneeeenenee 128 Bereitstellen von PowerPath VE FC Variante essssessseseeesssesesesssssssssse 128 Installieren der VSI Unified Storage Management Funktion ueseeseeeeeeeeenneee 128 Installieren und Konfigurieren des XenDesktop Controllers ueeesseenseessennneneneenne 128 berblick nee ee 128 Installieren der serverseitigen Komponenten von XenDesktop eeereneennnee 129 Konfigurieren eines StandortS eeeeessssessessssnsnnnnnnnsnnnnennennnnnnnnnnnnnnnnsnnnsnnnnnn 129 Hinzuf gen eines zweiten Controllers eesesesessssssnnnsnnsssnennnnnensnnnnnnnnnnnssnnnnn 130 Installieren von Citrix Studio eeeeerensnnnsnsnnensessnsnnnnnnnnnnnnnnssnnnnnnnnnnnnnnsnsnnnsnnnnnn 130 Vorbereiten einer virtuellen Master Maschine eessssssssssnsessnsnnesssnnnnnnnnnnnnn 130 Provisioning von virtuellen Desktops ueeesesessssesnnnsnnnnesnenn
185. o vSphere Server f r das Speichernetzwerk e 2FC CEE 10 GbE Ports pro SP f r Desktopdaten e 210 GbE Ports pro Data Mover f r Benutzerdaten Datei e 2 physische Switche e 4 10 GbE Ports pro vSphere Server e 1 1 GbE Port pro Control Station f r Management e 2 10 GbE Ports pro Data Mover f r Daten Hinweis Die L sung kann eine 1 Gbit Netzwerkinfrastruktur verwenden sofern die zugrunde liegenden Anforderungen an Bandbreite und Redundanz erf llt sind VLAN Als Best Practice sollte der Netzwerkverkehr isoliert werden sodass der Datenverkehr zwischen Hosts und Speicher bzw Hosts und Clients sowie der Managementdatenverkehr ber isolierte Netzwerke bertragen wird In einigen F llen ist aufgrund beh rdlicher Auflagen oder aus Gr nden der Policy Compliance eine physische Isolierung erforderlich oft ist die logische Isolierung mittels virtueller LANs jedoch ausreichend F r diese L sung sind mindestens drei virtuelle LANs erforderlich wie in Abbildungen 21 gezeigt e Clientzugriff e Speicher e Management Das Clientzugriffsnetzwerk erm glicht Benutzern des Systems oder Clients die Kommunikation mit der Infrastruktur Das Speichernetzwerk wird f r die Kommunikation zwischen der Rechnerebene und der Speicherebene verwendet Das Managementnetzwerk stellt f r Administratoren einen dedizierten Zugriff auf die Managementverbindungen auf dem Speicherarray den Netzwerk Switche und den Hosts bereit 2 E
186. oftware und Hardware schrittweisen Dimensionierungsanleitungen und Arbeitsbl ttern sowie gepr ften Bereitstellungsschritten Wenn die letzte Komponente installiert ist stehen Validierungstests zur Verf gung um sicherzustellen dass Ihr System ordnungsgem funktioniert Dieser Leitfaden erm glicht eine effiziente und reibungslose Desktopbereitstellung Gesch ftliche Anforderungen 2 EMC Gesch ftsanwendungen werden zunehmend in konsolidierte Rechner Netzwerk und Speicherumgebungen integriert Mit VSPEX Anwender Computing mit Citrix kann die komplexe Konfiguration aller Komponenten eines herk mmlichen Bereitstellungsmodells vereinfacht werden Mit VSPEX Anwender Computing mit Citrix k nnen Sie das Integrationsmanagement vereinfachen und die Design und Implementierungsoptionen von Anwendungen beibehalten Trotz einer einheitlichen Administration kann die Trennung von Prozessen angemessen kontrolliert und berwacht werden Die VSPEX L sung f r Anwender Computing f r Citrix Architekturen ist auf die folgenden gesch ftlichen Anforderungen ausgerichtet e Bereitstellen einer End to End Virtualisierungsl sung zur Nutzung der Funktionen von einheitlichen Infrastrukturkomponenten e Bereitstellen einer L sung f r die effiziente Virtualisierung von 500 1 000 oder 2 000 virtuellen Desktops f r verschiedene Kundenanwendungsbeispiele e Bereitstellen eines zuverl ssigen flexiblen und skalierbaren Referenzdesigns
187. ohe Verf gbarkeit und Failover sssssssssssesseesssesseessseeseeessseseessseecseccsecceeceseee 86 Profil der Validierungstests u uuuuesn iedee sane eiaei e iaiki 90 Richtlinien f r die Konfiguration der Backup Umgebung sssssssssssssssecscsosssssssseo 91 Richtlinien zur Dimensionierung sssssssesssessessssesssessseesseesseesseesseccosecseecesecseee 91 Implementieren der Referenzarchitekturen esssssssecscsessssssscccosssssssssoococessesese 93 Schnelle Evaluierung nie 96 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 53 Kapitel 4 bersicht ber die L sungsarchitektur L sungs berblick VSPEX verringert den Aufwand bei der Planung und Konfiguration der Servervirtualisierung durch Ber cksichtigung der umfassenden Interoperabilit ts Funktions und Performancetests durch EMC VSPEX beschleunigt die Umstellung Ihrer IT Umgebung auf eine Coud basierte Computing Umgebung indem es f r eine schnellere Bereitstellung mehr Auswahlm glichkeiten eine h here Effizienz und geringere Risiken sorgt Dieses Kapitel enth lt einen umfassenden Leitfaden zu den wichtigsten Aspekten dieser L sung Bei der Serverkapazit t werden die erforderlichen Mindestwerte f r CPU Arbeitsspeicher und Netzwerkschnittstellen im Allgemeinen angegeben Es steht Ihnen frei eine Server und Netzwerkhardware auszuw hlen di
188. olgende Themen behandelt Einf hrung u aaenishErkasmesnenieinn 14 ZIEIETURDE naeh 14 Zweck dieses LEifadens nn nee 14 Gesch ftliche Anforderungen ss 0000000000000000000000000000 0000 RR Rennen 15 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 15 Kapitel 1 Zusammenfassung Einf hrung Die validierten und modularen EMC VSPEXTM Architekturen werden mit bew hrten Technologien entwickelt und bieten vollst ndige Virtualisierungsl sungen die Ihnen eine fundierte Entscheidung bei der Auswahl der Hypervisor Rechner und Netzwerkebene erm glichen Mit VSPEX entf llt der Planungs und Konfigurationsaufwand bei der Servervirtualisierung Beim Einstieg in die Servervirtualisierung der Bereitstellung virtueller Desktops oder der IT Konsolidierung kann die Transformation Ihrer IT mit VSPEX durch eine schnellere Bereitstellung gr ere Auswahl h here Effizienz und ein geringeres Risiko beschleunigt werden Dieser VSPEX Proven Infrastructure Leitfaden ist als umfassendes Handbuch f r die technischen Aspekte dieser L sung gedacht Bei der Serverkapazit t werden die erforderlichen Mindestwerte f r CPU Speicher und Netzwerkschnittstellen im Allgemeinen angegeben Dem Kunden steht es frei eine Server und Netzwerkhardware auszuw hlen die die angegebenen Mindestwerte erf llt oder bertrifft Zielgru
189. ologie bersicht ber die L sung Nachfolgend werden die Komponenten der XenDesktop 7 Architektur beschrieben e Receiver Citrix Receiver wird auf Benutzerger ten installiert und bietet Benutzern einen schnellen und sicheren Selfservicezugriff auf Dokumente Anwendungen und Desktops von jedem beliebigen Ger t des Benutzers einschlie lich Smartphones Tablets und PCs Receiver erm glicht einen bedarfsgerechten Zugriff auf Windows Web und SaaS Anwendungen Software as a Service e StoreFront Mit StoreFront werden Benutzer an Hoststandorten f r Ressourcen authentifiziert und Speicher von Desktops und Anwendungen gemanagt auf die die Benutzer zugreifen e Studio Studio ist die Managementkonsole mit der Sie Ihre Bereitstellung konfigurieren und verwalten k nnen Separate Managementkonsolen f r die Bereitstellung von Anwendungen und Desktops sind nicht erforderlich In Studio stehen Ihnen verschiedene Assistenten zur Einrichtung Ihrer Umgebung zur Erstellung Ihrer Workloads f r das Hosten von Anwendungen und Desktops sowie zur Zuweisung von Anwendungen und Desktops zu Benutzern zur Verf gung e Delivery Controller Delivery Controller wird auf Servern im Rechenzentrum installiert und umfasst Services zur Kommunikation mit dem Hypervisor zwecks Verteilung von Anwendungen und Desktops zur Authentifizierung und Verwaltung des Benutzerzugriffs sowie zur Vermittlung von Verbindungen zwischen Benutzern und den virtuellen Desktop
190. on um die richtige Dateisystemgr e auszuw hlen a Wechseln Sie zu Storage gt Storage Configuration gt File Systems b Klicken Sie auf Create c W hlen Sie im Dialogfeld die Option Create from Storage Pool d Geben Sie die Storage Capacity ein z B 2 TB e Behalten Sie f r alle anderen Einstellungen die Standardwerte bei 4 Exportieren Sie die Dateisysteme mithilfe von NFS und gew hren Sie Root Zugriff auf die vSphere Server a Wechseln Sie zu Storage gt Shared Folders gt NFS b Klicken Sie auf Create c F gen Sie im Dialogfeld die IP Adressen getrennt durch Semikola aller vShpere Server in Root Hosts ein 5 In Unisphere a Wechseln Sie zu Settings gt Data Mover Parameters um nderungen an der Data Mover Konfiguration vorzunehmen b W hlen Sie das Listenfeld Set Parameters aus und anschlie end All Parameters wie in Abbildungen 38 gezeigt Data Mover Parameters Y Show Server Parameters for All Parameters v LAI Facilities v st Bacamsiacs Y Name a Facility Value Data Mover All Parameters et Parameters Abbildungen 38 Alle Data Mover Parameter anzeigen 2 EMC VSPEX Anwender Computing 113 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops 0 Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration c Bl ttern Sie nach unten zu nthreads wie in Abbildungen 39 gezeigt EMC Unisphere lt DED
191. on aufbauen z B e Mehr Kapazit t mit Multicore Optimierung mit Multicore Cache Multicore RAID und Multicore FAST Cache MCxTM e H here Effizienz mit einem Flash optimierten Hybridarray e Besserer Schutz durch die Erh hung der Anwendungsverf gbarkeit mithilfe von Active Active Speicherprozessoren e Einfachere Verwaltung und Bereitstellung durch h here Produktivit t mit der EMC UnisphereTM Management Suite VSPEX ist mit VNX der n chsten Generation ausgestattet um mehr Effizienz Performance und Skalierbarkeit als je zuvor zu erm glichen Flashoptimiertes VNX ist ein flashoptimiertes Hybridarray das dank automatisiertem Tiering eine Hybridarray optimale Performance f r Ihre gesch ftskritischen Daten erm glicht und gleichzeitig weniger h ufig genutzte Daten intelligent auf kosteng nstigere Festplattenlaufwerke auslagert Bei diesem hybriden Ansatz kann ein geringer Prozentsatz der Flashlaufwerke im gesamten System einen hohen Prozentsatz der gesamten I Os pro Sekunde IOPS bereitstellen Ein flashoptimiertes VNX System nutzt alle Vorteile der niedrigen Latenz von Flash um eine kostensparende Optimierung und Skalierbarkeit f r hohe Performance bereitzustellen Die EMC FAST Suite FAST Cache und FAST VP verteilt Block und File basierte Daten auf verschiedene Speicherebenen auf heterogenen Laufwerken und verschiebt die aktivsten Daten auf die Flashlaufwerke Auf diese Weise m ssen Kunden keine Kompromisse bei Kosten od
192. onfigurierbaren LUNs vorhanden e F nf SAS Laufwerke 1_1_9 bis 1_1_13 im RAID 5 Speicherpool 2 werden f r die Speicherung von PVS vDisks und TFTP Images verwendet FAST Cache ist f r den gesamten Pool aktiviert e Die Laufwerke 0_0_4 bis 0_0_24 und 1_0_0 bis 1_0_3 sowie 1_1_14 sind ungenutzt Sie wurden f r das Testen dieser L sung nicht verwendet Hinweis Es k nnen gr ere Laufwerke eingesetzt werden um mehr Kapazit t bereitzustellen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse 78 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung 2 EMC Kapitel 4 bersicht ber die L sungsarchitektur Grundlegendes Speicherlayout mit MCS Provisioning Abbildungen 27 zeigt das Layout der Laufwerke die zur Speicherung von 1 000 virtuellen Desktops mit MCS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten Bus 1 Geh use 1 Bus 1 Geh use 0 Bus 0 Enclosure 0 Abbildungen 27 Grundlegendes Speicherlayout mit MCS Provisio
193. ops ber Storefront ab 4 Browserclient zeigt Benutzern die Desktops an 5 Benutzer ffnet Desktop 6 Access Gateway stellt Proxy Verbindung zu Desktop her Abbildungen 13 Authentifizierungssteuerungsvorgang f r XenDesktop Zugriffsanforderungen von einem externen Netzwerk Hinweis In der Access Gateway Enterprise Edition AGEE von NetScaler festgelegte Authentifizierungs Policies steuern die Authentifizierung mit SecurlD und Active Directory Abbildungen 14 stellt den internen Zugriffsauthentifizierungsvorgang dar Die Active Directory Authentifizierung wird aus Citrix Storefront heraus initiiert Authentifizierungsprotokoll HTTP HTTPS XML Authentifizierung 2 Active Directory Benutzeranmeldung 1 e eo Benutzerdesktops abrufen 3 Verbindung zu Client 5 Webbrowser Benutzer ffnet Ressource 4 a 0 Citrix Client Citrix Citrix Storefront XenDesktop 2 0 70 1 Browserclient greift auf XenDesktop Umgebung zu und wird zur Angabe der AD Zugangsdaten und SecurlD Passphrase aufgefordert 2 Storefront validiert Active Directory Anmeldedaten 3 Empf nger ruft Benutzerdesktops ber Storefront ab 4 Benutzer ffnet Desktop 5 Empf nger ffnet Verbindung zu Desktop Abbildungen 14 Der Authentifizierungssteuerungsvorgang f r XenDesktop Anforderungen aus einem lokalen Netzwerk Hinweis Benutzer werden nur mit Active Directory authentifiziert EMC VSPEX Anwender Computin
194. p 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Netzwerk Stellen Sie gen gend Netzwerkports bereit um die beiden zus tzlich erforderlichen Storage Center Server zu unterst tzen Die Netzwerkkomponenten k nnen mithilfe von 1 Gbit oder 10 Gbit IP Netzwerken implementiert werden sofern gen gend Bandbreite und Redundanz f r die genannten Anforderungen zur Verf gung stehen Speicher F r ShareFile StorageZones ist eine CIFS Share zur Bereitstellung des privaten Datenspeichers f r Storage Center erforderlich VNX bietet sowohl Datei als auch Blockzugriff mit umfassenden Funktionen und ist damit die ideale Wahl f r jede StorageZones Speicherimplementierung Die VNX Serie unterst tzt zahlreiche Unternehmensfunktionen die sich ideal f r einen StorageZones Speicher eignen z B e FASTVP e FAST Cache e Datenkomprimierung und Dateideduplizierung e Thin Provisioning e Replikation e Kontrollpunkte e Aufbewahrung auf Dateiebene e Quotenmanagement In Tabellen 4 wird der empfohlene VNX Speicher aufgef hrt der f r die StorageZones CIFS Share erforderlich ist Tabellen 4 Empfohlener VNX Speicher der CIFS Share f r ShareFile StorageZones Speicher Konfiguration Anmerkungen CIFS Share F r 500 Benutzer F r diese Konfiguration wird vorausgesetzt dass jeder e 2xData Mover aktiv Stand by nur
195. p 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur F llen Sie zun chst das Arbeitsblatt f rjeden Benutzertyp aus der in die virtuelle Infrastruktur migriert werden soll Anschlie end berechnen Sie die Gesamtanzahl der im Pool erforderlichen virtuellen Referenzdesktops indem Sie die Summe der Spalte Gesamtanzahl der Referenzdesktops berechnen wie in Tabellen 18 gezeigt Tabellen 18 Beispielanwendungen Benutzertyp CPU Arbeitsspei IOPS Entsprechende Anzahl Gesamtanzahl der Virtuelle cher GB virtuelle der Referenzdesktops CPUs Referenzdesktops Benutzer Benutzer Ressourcenan 2 8 12 u _ _ mit h ufiger forderungen Nutzung Entsprechende 2 4 2 4 100 400 Referenzdesktops Ressourcenan 2 4 8 Benutzer forderungen mit mittlerer Nutzung Entsprechende 2 2 1 2 100 200 Referenzdesktops Ressourcenan 1 2 8 _ _ Typische forderungen Benutzer Entsprechende 1 1 1 1 300 300 Referenzdesktops Gesamt 900 Feinabstimmung der Hardwareressourcen In den VSPEX L sungen f r Anwender Computing sind abstrakte Ressourcenpoolgr en definiert F r diesen L sungsansatz enth lt der Pool 500 1 000 oder 2 000 virtuelle Desktops Im Fall von Tabellen 18 ben tigt der Kunde eine Kapazit t von 900 virtuellen Desktops aus dem Pool Daher bietet der Ressourcenpool mit 1 000 v
196. pare Node der 4 Generation e 3 3 9 TB Speicher Nodes der 4 Generation Server f r Kundeninfrastruktur Erforderliche Mindestanzahl e 2 physische Server e 20 GB RAM pro Server e 4 Prozessorkerne pro Server e 21 GbE Ports pro Server Server und die Funktionen die diese erf llen sind in der Kundenumgebung m glicherweise bereits vorhanden EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung EMC Kapitel 4 bersicht ber die L sungsarchitektur EMC Softwareressourcen In Tabellen 6 wird die in dieser L sung verwendete Software aufgelistet Tabellen 6 Software der L sung Software Konfiguration VNX5400 oder VNX5600 gemeinsamer Speicher Dateisysteme VNX OE f r Datei Version 8 1 0 34746 VNX OE f r Block Version 33 05 33 000 3 746 Viewer EMC VSI f r VMware vSphere Unified 5 6 Storage Management EMC VSI f r VMware vSphere Storage 5 6 XenDesktop Desktopvirtualisierung XenDesktop Controller Version 7 Platinum Edition Betriebssystem f r XenDesktop Controller Windows Server 2008 R2 Standard Edition Microsoft SQL Server Version 2008 R2 Standard Edition Backup der n chsten Generation Avamar 7 0 VMware vSphere vSphere Server 5 1 vCenter Server 5 1 Betriebssystem f r vCenter Server Windows Server 2008
197. pazit t sowie Percent Subscribed und Oversubscribed By f r die virtuelle Kapazit t angezeigt werden W PM00121000336 Pool D Storage Pool Properties ER General Disks Advanced Tiering Properties Name Pogi 0 Description 10 0 RAIO Type Mixed State Ready Disk Type Mixed Operation In Progress Physical Capacity Virtual Capacity Total 19376 771 GB Total Subscription 10571 607 GB Free 13243 8016 GB Snapshot Subscription 0 000 GB Percent Full 31 651 Percent Subserbied 54 558 Total Allocation 6132 955 GB Snapshot Alocation 0 000 GB Abbildungen 10 berpr fen der Speicherplatzauslastung des Speicherpools Wenn die Speicherpoolkapazit t ersch pft ist schlagen alle Anforderungen nach zus tzlicher Speicherplatzzuweisung auf bereitgestellten Thin LUNs fehl Anwendungen die versuchen Daten auf diese LUNs zu schreiben schlagen in der Regel ebenfalls fehl und es kommt wahrscheinlich zu einem Ausfall Zur Vermeidung dieser Situation k nnen Sie die Poolauslastung berwachen und Warnmeldungen erhalten wenn die Schwellenwerte erreicht sind Legen Sie die Option Percentage Full Threshold so fest dass ausreichend Puffer f r Gegenma nahmen vorhanden ist um einen Ausfall zu verhindern Bearbeiten Sie diese Einstellung indem Sie im Dialogfeld Storage Pool Properties die Option Advanced ausw hlen wie in Abbildungen 11 auf Seite 40 gezeigt Diese Warnmeldung ist nur aktiv wenn es im Pool eine oder mehrere LUNs
198. ppe In diesem Handbuch wird davon ausgegangen dass Sie ber die erforderliche Schulung und den entsprechenden Hintergrund verf gen um eine Anwender Computing L sung auf der Grundlage von Citrix XenDesktop mit VMware vSphere als Hypervisor mit Speichersystemen der EMC VNX Serie und mit der f r diese Implementierung erforderlichen Infrastruktur installieren und konfigurieren zu k nnen Externe Referenzen werden bei Bedarf bereitgestellt Sie sollten mit diesen Dokumenten vertraut sein Sie sollten au erdem mit den Infrastruktur und Datenbanksicherheits Policies der Kundeninstallation vertraut sein Wenn Sie sich haupts chlich mit dem Vertrieb und der Dimensionierung einer VSPEX Anwender Computing L sung f r Citrix XenDesktop besch ftigen konzentrieren Sie sich vor allem auf die ersten vier Kapitel dieses Dokuments Wenn Sie diese L sung implementieren konzentrieren Sie sich auf die Konfigurationsrichtlinien in Kapitel 5 die L sungsvalidierung in Kapitel 6 sowie die entsprechenden Referenzen und Anh nge Zweck dieses Leitfadens Dieser Proven Infrastructure Leitfaden bietet eine erste Einf hrung in die VSPEX Anwender Computing Architektur eine Erl uterung zur Vorgehensweise bei der nderung der Architektur f r besondere Projekte und Anweisungen zur effektiven Systembereitstellung Mit der VSPEX Anwender Computing Architektur wird ein modernes System bereitgestellt mit dem eine gro e Zahl virtueller Desktops auf einem
199. r mit hoher Verf gbarkeit durch die folgenden Funktionen e vMotion Erm glicht die Livemigration virtueller Maschinen innerhalb eines virtuellen Infrastrukturclusters ohne Ausfallzeiten der virtuellen Maschine und ohne Serviceunterbrechungen e Storage vMotion Erm glicht die Livemigration der Festplattendateien der virtuellen Maschinen in und ber Speicherarrays hinweg ohne Ausfallzeiten der virtuellen Maschine und ohne Serviceunterbrechungen e vSphere HA Bietet Erkennung und schnelle Recovery f r ausgefallene virtuelle Maschinen in einem Cluster e Distributed Resource Scheduler Erm glicht einen Lastenausgleich der Rechnerkapazit t in einem Cluster e Storage Distributed Resource Scheduler SDRS Erm glicht einen Lastenausgleich ber mehrere Datastores basierend auf Speicherplatzausnutzung und I O Latenz VMware vCenter Server 5 1 vCenter Server bietet eine skalierbare und erweiterbare Plattform die die Grundlage f r das Virtualisierungsmanagement f r das VMware vSphere 5 1 Cluster bildet Alle vSphere Hosts und ihre virtuellen Maschinen werden ber vCenter gemanagt Microsoft SQL Server F r vCenter Server XenDesktop Controllers und Provisioning Server sind Datenbankservice zur Speicherung der Konfigurations und Monitoringdetails erforderlich Zu diesem Zweck wird ein Microsoft SQL Server 2008 R2 verwendet der auf einem Windows 2008 R2 Server ausgef hrt wird Active Directory Server Damit die verschiedenen
200. r nkt den Zugriff von Services die ber das lokale Systemkonto angemeldet sind auf lokale Ressourcen ein In der Standardkonfiguration verwendet der Backup Agent das lokale Systemkonto zur Anmeldung Der Agent kann nicht auf Netzwerkressourcen zugreifen einschlie lich der XenDesktop Shares mit dem Profil und den Datendateien des Benutzers Um auf XenDesktop Shares mit dem Profil und den Datendateien des Benutzers zugreifen zu k nnen muss der Backup Agent als derzeit angemeldeter Benutzer ausgef hrt werden Dies wird erreicht indem Sie eine Batch Datei verwenden die den Backup Agent startet und ihn als Benutzer anmeldet wenn sich der Benutzer anmeldet Definieren von In den n chsten Abschnitten wird davon ausgegangen dass Avamar Grid Datasets betriebsbereit ist und ordnungsgem funktioniert und Sie sich bei Avamar Administrator angemeldet haben Weitere Informationen zum Zugriff auf Avamar Administrator finden Sie im Administrationshandbuch f r EMC Avamar 7 Avamar Datasets sind Listen mit Verzeichnissen und Dateien f r das Backup von einem Client Wenn Sie einem Client oder einer Gruppe ein Dataset zuweisen ersparen Sie sich die Backup Auswahl Zus tzliche Informationen zu Datasets finden Sie im Administrationshandbuch f r EMC Avamar 7 In diesem Abschnitt finden Sie spezifische Informationen zur Dataset Konfiguration von ber Citrix XenDesktop bereitgestellten virtuelle Desktops die f r erfolgreiche Backups von Benutz
201. r 1 000 virtuelle Desktops e 5 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min F r 2 000 virtuelle Desktops e 5 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min vSphere erm glicht Speichervirtualisierung auf Hostebene Physische Speichermedien werden virtualisiert und f r virtuelle Maschinen bereitgestellt Das Betriebssystem und alle anderen Dateien von virtuellen Maschinen die mit den Aktivit ten der virtuellen Maschinen zusammenh ngen werden auf einem virtuellen Laufwerk gespeichert Das virtuelle Laufwerk besteht aus einer oder mehreren Dateien vSphere verwendet einen virtuellen SCSI Controller um das virtuelle Laufwerk f r das Gastbetriebssystem bereitzustellen das in der virtuellen Maschine ausgef hrt wird Das virtuelle Laufwerk befindet sich in einem Datastore Abh ngig vom verwendeten Typ kann es sich entweder um einen VMFS Datastore oder NFS Datastore handeln wie in Abbildungen 22 gezeigt Freigegebener EN Ordner vMmoK 7 7 VMDK LUN f r VMFS 7 7 Zu A VMFS LUN f r RDM 9 2 Speicher Array Abbildungen 22 Virtuelle VMware Laufwerktypen Hypervisor Virtuelle Maschine VMFS VMFS ist ein Clusterdateisystem das f r virtuelle Maschinen optimierte Storage Virtualization erm glicht Es kann ber jeden beliebigen SCSI basierten lokalen Speicher oder Netzwerkspeicher bereitgestellt werden EMC VSPEX Speicherbaustein
202. r bei 2 000 virtuellen Desktops 2 EMC VSPEX Anwender Computing 59 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 0 Kapitel 4 bersicht ber die L sungsarchitektur Hardware Konfiguration Anmerkungen CPU e Desktopbetriebssystem 1 virtuelle CPU pro Desktop 8 Desktops pro Kern 63 Kerne f r alle Server bei 500 virtuellen Desktops 125 Kerne f r alle Server bei 1 000 virtuellen Desktops 250 Kerne f r alle Server bei 2 000 virtuellen Desktops e Serverbetriebssystem 0 2 virtuelle CPU pro Desktop 5 Desktops pro Kern 100 Kerne f r alle Server bei 500 virtuellen Desktops 200 Kerne f r alle Server bei 1 000 virtuellen Desktops 400 Kerne f r alle Server bei 2 000 virtuellen Desktops Netzwerk e 6 1 GbE NICs pro eigenst ndigem Server f r 500 virtuelle Desktops e 3 10 GbE NICs pro Blade Geh use oder 6 1 GbE NICs pro eigenst ndigem Server f r 1 000 2 000 Desktops Netzwerkinfrastruktur Switching Kapazit t Minimum f r NFS Variante e 2 physische Switche e 6 1 GbE Ports pro vSphere Server oder 3 10 GbE Ports pro Blade Geh use e 1 1 GbE Port pro Control Station f r Management e 2 10 GbE Ports pro Data Mover f r Daten Redundante LAN Konfiguration Switching Kapazit t Minimum f r FC Variante e 2 1 GbE Ports pro vSphere Server e 4 4 8 Gbit FC Ports f r
203. r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung In Tabellen 1 sind die Informationen zu Schwellenwerten und ihren Einstellungen aufgelistet Tabellen 1 Schwellenwerte und Einstellungen unter VNX OE Block Version 33 Schwellenwerttyp Schwellenwertbereich Schwellenwertstandard Schweregrad der Nebeneffekt Warnmeldung Vom Benutzer 1 84 70 Warnung Keine festlegbar Virtualisierung Datenquellen 85 Kritisch L scht die vom Benutzer festlegbare Warnmeldung Wenn Sie zulassen dass die Gesamtzuweisung 90 der Gesamtkapazit t berschreitet besteht die Gefahr dass der Speicherplatz ausgeht was sich auf alle Anwendungen auswirkt die Thin LUNs im Pool verwenden EMC FAST Cache EMC FAST Cache ist Teil der EMC FAST Suite und erm glicht die Verwendung von Flashlaufwerken als erweiterte Cacheebene f r das Array FAST Cache stellt im gesamten Array verf gbare unterbrechungsfreie Caches f r Datei und Blockspeicher bereit H ufig aufgerufene Daten werden in 64 KB Bl cken in den FAST Cache kopiert und nachfolgende Lese oder Schreibzugriffe auf den Datenblock werden von FAST Cache verarbeitet Damit ist eine sofortige Heraufstufung sehr aktiver Daten auf Flashlaufwerke m glich Dies sorgt f r deutlich bessere Reaktionszeiten der aktiven Daten und reduziert Daten Hotspots die innerhalb der LUN auftreten k nnen
204. r einer Nichtverf gbarkeit des Systems EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 89 60 Kapitel 4 bersicht ber die L sungsarchitektur Profil der Validierungstests Die VSPEX L sung wurde mit dem in Tabellen 12 aufgef hrten Umgebungsprofil validiert Profilmerkmale Tabellen 12 Validiertes Umgebungsprofil Profilmerkmal Wert Anzahl der virtuellen Desktops 500 f r 500 virtuelle Desktops 1 000 f r 1 000 virtuelle Desktops 2 000 f r 2 000 virtuelle Desktops Betriebssystem der virtuellen Desktops Desktopbetriebssystem Windows 7 Enterprise 32 Bit SP1 Serverbetriebssystem Windows Server 2008 R2 SP1 virtuelle CPU pro virtuellem Desktop Desktopbetriebssystem 1 virtuelle CPU Serverbetriebssystem 0 2 virtuelle CPUs Anzahl der virtuellen Desktops pro CPU Kern Desktopbetriebssystem 8 Serverbetriebssystem 5 RAM pro virtuellem Desktop Desktopbetriebssystem 2 GB Serverbetriebssystem 0 6 GB Desktop in station rem Zustand Desktop Provisioning Methode e PVS e MCS Durchschnittlich verf gbarer Speicher e 4 GB PVS f r jeden virtuellen Desktop e 8GB MCS Durchschnittliche IOPS pro virtuellem 8 IOPS Durchschnittliche Spitzen IOPS pro virtuellem Desktop w hrend Boot Storm 60 IOPS MCS NFS Variante 8 IOPS PVS NFS Variante 116 IOPS MCS
205. r f r 2 000 virtuelle Desktops verwendet e F r die VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_2_14 0_4_9 und 0_5_12 bis 0_5_13 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildungen 31 als Hot Spare Laufwerke gekennzeichnet e F nf SAS Laufwerke 1_2_O bis 1_2_4 im RAID 5 Speicherpool 6 werden f r die Speicherung virtueller Infrastrukturmaschinen verwendet Es wird eine LUN mit 1 TB aus dem Pool zur Verf gung gestellt und den vSphere Servern als Datastore angezeigt EMC VSPEX Anwender Computing 85 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur e 48 NL SAS Laufwerke 1_2_5 bis 1_2_13 0_3_0 bis 0_3_14 1_3_O bis 1_3_14 und 0_4_0 bis 0_4_8 im RAID 6 Speicherpool 4 werden f r die Speicherung von Benutzerdaten und Roamingprofilen verwendet 10 LUNs mit jeweils 4 TB werden aus dem Pool zur Verf gung gestellt um den f r die Erstellung von zwei CIFS Dateisystemen erforderlichen Speicher bereitzustellen Wenn mehrere Laufwerkstypen implementiert wurden kann FAST VP aktiviert werden um ein automatisches Daten Tiering zu erreichen und die Unterschiede in Performance und Kapazit t zu nutzen FAST VP kommt auf der Poolebene des Blockspeichers zum Einsatz und regelt automatisch wo Daten gespeichert werden Di
206. r und stellt sie auf Remoteclientger ten bereit Dabei kann es sich um Thin Clients Zero Clients Smartphones oder Tablets handeln Diese Technologie erm glicht es Abonnenten von verschiedenen Standorten aus auf virtuelle Desktops zuzugreifen die auf zentralen Computerressourcen in Remoterechenzentren gehostet werden In dieser L sung wird Citrix XenDesktop dazu verwendet die Desktop Virtualisierungsumgebung bereitzustellen zu verwalten zu vermitteln und zu berwachen Citrix In der XenDesktop 7 Architekturwerden Management und XenDesktop 7 Bereitstellungskomponenten gemeinsam von XenDesktop und XenApp genutzt was f r Administratoren eine einheitliche Managementerfahrung bedeutet Abbildungen 5 zeigt die Komponenten der XenDesktop 7 Architektur Empf nger kommuniziert mit dem Virtual Delivery Agent um Desktopzugriff zu erhalten Clientseitiges Netzwerk Serverseitiges Netzwerk StoreFront kommuniziert mit Controllern um Verbindungen zwischen Benutzern und virtuellen Desktops zu vermitteln Virtual Delivery Virtual Delivery Virtual Delivery Agent Agent Agent Controller kommunizieren mit Hypervisor Managementsuite um virtuelle Desktops bereitzustellen Abbildungen 5 Komponenten der XenDesktop 7 Architektur EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Techn
207. r virtuellen Desktop Images die den Benutzern des Systems bereitgestellt werden Diese Software ist entscheidend f r die bedarfsgerechte Erstellung von Desktop Images die die Wartung des Images ohne Beeintr chtigung der Benutzerproduktivit t erm glicht und verhindert dass die Umgebung unkontrolliert anw chst Virtualisierung Die Virtualisierungsebene erm glicht eine Trennung der physischen Implementierung von Ressourcen von den Anwendungen die diese verwenden Anders ausgedr ckt Die Verf gbarkeit der Ressourcen kann von der Anwendung nun unabh ngig von der Hardwareimplementierung ermittelt werden Auf diese Weise k nnen viele Hauptfunktionen des Anwender Computing Konzepts genutzt werden Rechner Die Rechnerebene stellt Speicher und Verarbeitungsressourcen f r die Software auf der Virtualisierungsebene und f r die Anforderungen der in der Private Cloud ausgef hrten Anwendungen zur Verf gung Das VSPEX Programm definiert die Mindestanzahl der auf der Rechnerebene ben tigten Ressourcen und gibt dem Benutzer die M glichkeit diese auf jeder Rechnerhardware zu implementieren die diese Anforderungen erf llt Netzwerk Die Netzwerkebene verbindet die Benutzer der Umgebung mit den ben tigten Ressourcen sowie die Speicherebene mit der Rechnerebene Das VSPEX Programm definiert die Mindestanzahl der f r die L sung erforderlichen Netzwerkports und stellt allgemeine Richtlinien zur Netzwerkarchitektur zur Verf gung erm gl
208. rastrukturkonfiguration e Mkernel Port f r NFS Datenverkehr nur NFS Variante e Mkernel Port f r VMware vMotion e Virtuelle Desktop Portgruppen verwendet von den virtuellen Desktops f r die Kommunikation im Netzwerk Im Handbuch f r vSphere Netzwerk wird das Verfahren f r die Konfiguration dieser Einstellungen beschrieben Weitere Informationen finden Sie in Anhang C Jumbo Frames Ein Jumbo Frame ist ein Ethernet Frame mit einer Nutzlast von mehr als 1 500 und bis zu ca 9 000 Bytes Dies wird auch als MTU Maximum Transmission Unit maximale bertragungseinheit bezeichnet Die allgemein akzeptierte maximale Gr e f r einen Jumbo Frame betr gt 9 000 Bytes Der Verarbeitungs Overhead ist proportional zur Anzahl der Frames Daher reduziert die Aktivierung von Jumbo Frames den Verarbeitungs Overhead durch die Reduzierung der Anzahl von zu sendenden Frames Damit wird der Netzwerkdurchsatz gesteigert F hren Sie eine End to End Aktivierung der Jumbo Frames aus Dies schlie t Netzwerk Switche vSphere Server und VNX SPs ein Jumbo Frames k nnen auf dem vSphere Server in zwei verschiedenen Stufen aktiviert werden Wenn Sie alle Portale auf dem virtuellen Switch f r Jumbo Frames aktivieren m ssen w hlen Sie die Eigenschaften f r den virtuellen Switch aus und bearbeiten Sie die MTU Einstellungen von vCenter Wenn Sie Jumbo Frames f r bestimmte VMkernel Ports aktivieren m ssen bearbeiten Sie den VMkernel Port unter den
209. re 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur 102 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Kapitel5 Richtlinien zur VSPEX Konfiguration In diesem Kapitel werden folgende Themen behandelt Bereltstell ngspi62es8 ni ae 104 Aufgaben vor der Bereitstellung 2 e2220000000000000000000000000000000000000000000000000 104 Sammeln der Konfigurationsdaten des Kunden 0s 200000000000000000000 107 Vorbereiten der Switche Verbinden mit dem Netzwerk und Konfigurieren der SWIEEBB a une 107 Vorbereiten und Konfigurieren des SpeicherarrayS 0000ssss0e00000000s0snnnse0ee 110 Installieren und Konfigurieren von VMware vSphere Hosts ssseessooossssssnssseeee 120 Konfiguration von Arbeitsspeicher eosss00000s0ssssssnnnnnnusssnsnsssnensnnnnsnsssnnnnee 122 Installieren und Konfigurieren der SQL Server Datenbank eeesossssssssssseeee 124 Installieren und Konfigurieren des VMware vCenter Servers esseesssossssssnsssseeee 126 Installieren und Konfigurieren des XenDesktop Controllers 00000000000000000 128 Installieren und Konfigurieren der Citrix Provisioning Services PVS 131 Einrichten von EMC
210. ren f hren Sie folgende Schritte aus 1 Aktivieren Sie den TFTP Service indem Sie den folgenden Befehl eingeben server _tftp lt movername gt servic start EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration 2 Geben Sie den folgenden Befehl ein um das TFTP Arbeitsverzeichnis festzulegen und den Lese Schreibzugriff f r die Datei bertragung zu aktivieren server tftp lt movername gt set path lt pathname gt readaccess all writeaccess all 3 Laden Sie die Bootstrap Datei ARDBP32 BIN mithilfe eines TFTP Clients aus dem Verzeichnis C ProgramData Citrix Provisioning Services Tftpboot des PVS Servers auf den VNX TFTP Server hoch 4 Legen Sie mithilfe des folgenden Befehls einen Schreibschutz f r das TFTP Arbeitsverzeichnis fest um versehentliche nderungen an der Bootstrap Datei zu verhindern server _tftp lt movername gt set path lt pathname gt writeaccess none Konfigurieren der Um f r die virtuellen Desktops einen PXE Boot aus dem von den PVS Servern Boot Optionen 66 bereitgestellten Bootstrap Image durchzuf hren legen Sie auf dem DHCP Server und 67 auf dem die Boot Optionen 66 und 67 fest DEPENEN F hren Sie die folgenden Schritte aus um die Boot Optionen auf dem Microsoft DHCP Server zu konfigurieren 1 Klicken Sie auf der DHCP Managemen
211. reten Diese Belastungsspitzen k nnen zu Phasen mit einer unregelm igen und unzuverl ssigen Performance der virtuellen Desktops f hren Benutzer gew hnen sich m glicherweise an eine langsame Performance aber eine unzuverl ssige Performance f hrt zu Frustration und verringert die Effizienz F r eine zuverl ssige Performance einer Anwender Computing L sung muss das Speichersystem die Spitzen I O Last der Clients bei minimaler Reaktionszeit verarbeiten k nnen Das Design f r diese Workload beinhaltet die Bereitstellung vieler Laufwerke um kurze Zeitr ume mit extremen I O Belastungen bew ltigen zu k nnen was eine teure Implementierung bedeutet In dieser L sung wird FAST Cache verwendet um die Anzahl der erforderlichen Laufwerke zu reduzieren 26 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung EMC Backup der n chsten Generation erm glicht den Schutz von Benutzerdaten und die Recovery durch Anwender Dies wird durch Nutzung von Avamar und dem damit verbundenen Desktopclient im Desktopimage erreicht bersicht ber die wichtigen Komponenten EMC 2 In diesem Abschnitt werden die wichtigen Komponenten der L sung beschrieben Desktop Der Desktop Virtualisierungs Broker verwaltet das Provisioning die Zuweisung die Wartung und das Entfernen de
212. rive die Option Hide this drive aus D roo Poky Manage wert Editor LIFE Re VE BESZIEZZEIETE BE Computer Corfigurition Garai Common u Pose ja u User Configuraiien I I Fider hedrechen e Poly 5 Uve frst van arting he u Intern Ergioner A 7 Adeinistnative Temgist I Preterences r Connect as optional Windows Settings wen aaa Appkeanors P Orve Maps Pass Cortrn psw E Ermronment g es Mdeon this dive J des al dives Feders E hoap G HE Z Portass E J s Send das G Corra Parel Sargs Ce u 2 preferences Bitended A EZT Last changed 6412 2012 6 25 08 AM Abbildungen 51 Konfigurieren der Einstellungen f r die Laufwerkzuordnung 7 Klicken Sie im Fenster Properties auf Common und w hlen Sie Run in logged on user s security context user policy option wie in Abbildungen 52 gezeigt 138 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Sreferercen Etena J Sandd 7 wd j Kant changed GNE 7 2505 PM f f Abbildungen 52 Konfigurieren der gemeinsamen Einstellungen f r die Laufwerkzuordnung Wiederholen Sie die vorherigen Schritte 1 bis 7 um das dem Benutzerprofil zugeordnete Laufwerk mit den folgenden Variablen zu erstellen Abbildungen 53 zeigt eine Beispielkonfiguration 1 Geben
213. s angezeigt wie in Abbildungen 82 dargestellt EMC Avamar Client Manager Fe Crese Doman B crume ar Bisnow Gop a fff bsga221 us emc cem l gt Ay cbents gt Aonr Actwate View teg Abbildungen 82 Avamar Client Manager aktivierte Clients 16 Melden Sie sich von Avamar Enterprise Manager ab 156 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Zusammenfassung In diesem Kapitel wurden die erforderlichen Schritte zum Bereitstellen und Konfigurieren der verschiedenen Aspekte der VSPEX L sung sowohl der physischen als auch der logischen Komponenten dargestellt An diesem Punkt sollten Sie ber eine voll funktionsf hige VSPEX L sung verf gen Das folgende Kapitel behandelt die Aktivit ten nach der Installation und die Validierung 2 EMC VSPEX Anwender Computing 157 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration 158 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 Kapitel 6 Validierung der L sung Kapitel6 Validierung der L sung In diesem Kapitel werden folgend
214. s tzliche Konfigurationseinstellungen erforderlich In Abbildungen 59 finden Sie eine Beispielkonfiguration x cou e Abbildungen 59 Ausschlusseinstellungen f r das Benutzerprofildaten Dataset Klicken Sie auf Exclusions W hlen Sie aus dem Listenfeld Select Plug in Type die Option Windows File System aus Geben Sie in Select Files and or Folders den Wert P avs ein und klicken Sie auf Plus Klicken Sie auf Options wie inAbbildungen 60 gezeigt EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 143 Kapitel 5 Richtlinien zur VSPEX Konfiguration Abbildungen 60 Dataset View User Profile Einstellungen f r Options 13 W hlen Sie aus dem Listenfeld Select Plug in Type die Option Windows File System aus 14 W hlen Sie Show Advanced Options aus 15 Bl ttern Sie in der Liste der Optionen nach unten bis Sie Volume Freezing Options gefunden haben wie in Abbildungen 61 gezeigt A New Datase Abbildungen 61 Dataset View User Profile Einstellungen f r Advanced Options 16 W hlen Sie aus dem Listenfeld Method to freeze volumes die Option None aus 17 Klicken Sie auf OK um das Dataset zu speichern 144 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtl
215. s mit mindestens 12 CPU Kernen und 10 GB RAM ausgef hrt werden Desktopbenutzer ICA Clients Virtueller Desktop Virtueller Desktop C Nr 1 Nr n VMware vSphere 5 1 virtuelle Desktops e e r le Pr 2 m 2 2 i Active Directory XenDesktop 5 SQL Server XenDesktop 5 yCenter Server DNS DHCP Controller 1 Controller 2 le VMware vSphere 5 1 virtuelle Server i VMware vSphere 5 1 Cluster Kl immen virtuelle Desktops s VMware vSphere 5 1 Clusterinfrastruktur NetScaler Authentication Storefront NetScaler Authentication Storefront Nr 1 Manager Nr 1 Nr 1 k Nr 2 Manager Nr 2 Nr 2 j Fibre Channel Speichernetzwerk VMware vSphere 5 1 virtuelle Maschinen sicherer Zugriff 1 Gbit Ethernetnetzwerk VMware vSphere 5 1 Cluster sicherer Zugriff auf virtuelle Maschinen Abbildungen 15 Logische Architektur VSPEX Anwender Computing f r Citrix XenDesktop mit RSA 46 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung In Tabellen 2 wird das Minimum der Hardwareressourcen zur Unterst tzung von SecurlD aufgelistet Tabellen 2 Minimum der Hardware Ressourcen zur Unterst tzung von SecurlD Komponente CPU Kerne Arbeitsspeicher Festplatte Referenz GB GB RSA 2 4 100 RSA A
216. s und Anwendungen Mit dem Controller werden der Status der Desktops gemanagt und diese nach Bedarf und auf Basis der administrativen Konfiguration gestartet und beendet In einigen Ausgaben k nnen Sie mit dem Controller das Profilmanagement zur Verwaltung der personalisierten Benutzereinstellungen in virtualisierten oder physischen Windows Umgebungen installieren Jeder Standort hat mindestens einen Delivery Controller e Virtual Delivery Agent VDA Der VDA wird auf dem Betriebssystem eines Servers oder einer Workstation installiert und erm glicht Verbindungen zu Desktops und Anwendungen F r einen PC Remotezugriff installieren Sie den VDA auf dem B ro PC e Maschinen mit Serverbetriebssystem Hierbei handelt es sich um virtuelle oder physische Maschinen mit dem Windows Server Betriebssystem die f r die Bereitstellung von Anwendungen oder gehosteten gemeinsam genutzten Desktops HSDs f r Benutzer verwendet werden e Maschinen mit Desktopbetriebssystem Hierbei handelt es sich um virtuelle oder physische Maschinen mit dem Windows Desktop Betriebssystem die f r die Bereitstellung von personalisierten Desktops oder von Anwendungen des Desktopbetriebssystems f r Benutzer verwendet werden 2 EMC VSPEX Anwender Computing 29 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung e PC Remotezugriff Mi
217. sa aa 71 Anzahl der erforderlichen Laufwerke f r verschiedene virtuelle Desktop Konfigurationen ererererereseseseneseneneneeeneeenn 73 Validiertes Umgebungsprofil ucuscssesesssssnnnnnnsnnnnennennnnnennn 90 Backup Profilmerkm le anna aa 91 Eigenschaften des virtuellen Desktops eneeeeeereeeeenensseeeeeenenn 92 Leere Arbeitsblattzeile uucsssseeseonnnnnnsnnnneeneonnnnensnnnnennnennnn 97 Ressourcen f r virtuelle Referenz Desktops usseseeeeeseeseseeneeee 98 Beispielarbeitsblattzeile uueeeeerenennnnnneeeeesssnsnnnnnnnenneennnnnnn 98 Beispielanwendungen uensessesssssssssnnnnsnnnennsnnnnnensnnnnnnsnnnnnn 99 Gesamtanzahl der Serverressourcenkomponenten 100 Leeres Kundenarbeitsblatt uuueeeressssnsnsnneesessssnnnnnnnnnnenennnn 101 bersicht ber den Bereitstellungsprozess unaeeseeeeeeeneeennenn 104 Aufgaben vor der Bereitstellung ueseseseseseseneesesnsnensnsnsnnnne 105 Checkliste f r die Bereitstellungsvoraussetzungen 105 Aufgaben f r die Switch und Netzwerkkonfiguration 107 Aufgaben f r die Speicherkonfiguration eseersesseeessenneneeenenn 110 EMC VSPEX Anwender Computing 2 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 12 Inhalt Tabellen 26 Tabellen 27 Tabellen 28 Tabellen 29 Tabellen 30 Tabellen 31 Tabellen 32 Tabellen 33 Tabellen
218. satz dazu erfordert der Ressourcenpool f r 1 000 virtuelle Desktops 2 000 GB Arbeitsspeicher und mindestens 125 physische Prozessorkerne In dieser Umgebung kann die L sung effektiv mit weniger Serverressourcen implementiert werden Hinweis Ber cksichtigen Sie bei der Anpassung der Hardware f r den Ressourcenpool auch die Anforderungen an die hohe Verf gbarkeit 100 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Tabellen 20 enth lt ein leeres Arbeitsblatt zur Erfassung von Kundeninformationen Tabellen 20 Leeres Kundenarbeitsblatt Benutzertyp CPU Arbeitsspeicher IOPS Entsprechende Anzahl Gesamtanzahl der Virtuelle GB virtuelle der Referenzdesktops CPUs Referenzdesktops Benutzer Ressourcenan forderungen Entsprechende Referenzdesktops Ressourcenan _ forderungen Entsprechende Referenzdesktops Ressourcenan forderungen Entsprechende Referenzdesktops Ressourcenan _ forderungen Entsprechende Referenzdesktops Ressourcenan forderungen Entsprechende Referenzdesktops Ressourcenan forderungen Entsprechende Referenzdesktops Gesamt 2 EMC VSPEX Anwender Computing 101 EMC Citrix XenDesktop 7 und VMware vSphe
219. sne 63 Dimensionierung f r die validierte Konfiguration ceeeesesensnsensnnneensnnnenennnennn 64 Richtlinien f r die Serverkonfiguration esssesesesesesesesesesesesesesesesesssssssssssssssssss 65 BErB IE ee E 65 VMware vSphere Arbeitsspeichervirtualisierung f r VSPEX ceeeessnessneneennenn 66 Richtlinien f r die Arbeitsspeicherkonfiguration cessssesessnnsessnsnnensnnnennnnnnnnn 68 Richtlinien f r die Netzwerkkonfiguration useeeesereeesensnseeeesensnnnnnnnnnnnnnnnnnnnnennnnnn 69 3 5 2142 124 oeei AEE r E EE STENERE RR RRRNEANENR 69 VIAN een ee E ee 69 Einrichten von Jumbo Frames nn essen 70 Verbindungsb ndelung 222222000000202000nnnnnnnnnnnsnnnnnnnnnnnnnnnnnnennnnnnnnnnnnnnennn 70 Richtlinien zur Speicherkonfiguration eusessesssessssnensnnennenesnnsnnnnnnnnnnnnnnnnnnennnnnn 71 Waleta e eE E EEEE AE S EEE E 71 VMware vSphere Speichervirtualisierung f r VSPEX c0c0s00sessoonsersonnnersonsnneee 72 VSPEX Speicherbaustein szene en 73 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Inhalt Validierte Maximalwerte f r VSPEX Anwender Computing esssersesnseeneeeenen 73 Speicherlayout f r 500 virtuelle Desktops eeeesesessnsnnnnnsnnnessssnnnnnnnnnennnnnennnnn 74 Speicherlayout f r 1 000 virtuelle Desktops zeeeasneenenennenennnennnennnnnnnennnnnnnn 77 Speicher
220. speicher 0 6 Entsprechende virtuelle Referenzdesktops Ressourcenanforderungen 0 6 IOPS 8 Entsprechende virtuelle Referenzdesktops Ressourcenanforderungen 8 Wenn Sie beispielsweise eine Gruppe von 100 Benutzern haben die zwei virtuelle CPUs und 12 IOPS pro Desktop wie vorher beschrieben zusammen mit 8 GB Arbeitsspeicher in einer Bereitstellung mit Desktopbetriebssystem ben tigen beschreiben Sie dass diese Gruppe zwei Referenzdesktops f r CPU vier Referenzdesktops f r Arbeitsspeicher und zwei Referenzdesktops f r IOPS basierend auf den Eigenschaften der virtuellen Desktops in Tabellen 14 ben tigen Geben Sie diese Zahlen in die Zeile Entsprechende virtuelle Referenzdesktops ein wie in Tabellen 17 gezeigt Verwenden Sie den maximalen Wert in der Zeile um die Spalte Entsprechende virtuelle Referenzdesktops auszuf llen Multiplizieren Sie die Anzahl der entsprechenden virtuellen Referenz Desktops mit der Anzahl der Benutzer um die Gesamtressourcenanforderungen f r diesen Benutzertypen zu berechnen Tabellen 17 Beispielarbeitsblattzeile Benutzertyp CPU Arbeitsspei IOPS Entsprechende Anzahl Gesamtanzahl der Virtuelle cher GB virtuelle der Referenzdesktops CPUs Referenzdesktops Benutzer Beispiel f r Ressourcenan 2 8 12 Benutzertyp forderungen Entsprechende 2 4 2 4 100 400 Referenzdesktops 98 EMC VSPEX Anwender Computing 2 Citrix XenDeskto
221. speicher f r das Gastbetriebssystem ab Zuteilen von Arbeitsspeicher f r virtuelle Maschinen Die richtige Dimensionierung des Arbeitsspeichers von virtuellen Maschinen in VSPEX Architekturen h ngt von vielen Faktoren ab In Anbetracht der vielen verf gbaren Anwendungsservices und Anwendungsbeispiele muss eine Baseline konfiguriert und getestet und durch Anpassungen optimiert werden um eine geeignete Konfiguration f r eine Umgebung zu bestimmen Dies wird im Folgenden besprochen Tabellen 14 auf Seite 92 enth lt die von einer einzigen virtuellen Maschine verwendeten Ressourcen 68 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Richtlinien f r die Netzwerkkonfiguration berblick Dieser Abschnitt enth lt Richtlinien f r die Einrichtung einer redundanten Netzwerkkonfiguration mit hoher Verf gbarkeit Diese Richtlinien ber cksichtigen Jumbo Frames virtuelles LAN und LACP auf EMC Unified Storage Tabellen 9 enth lt detaillierte Informationen zu den Netzwerkressourcenanforderungen Tabellen 9 Hardwareressourcen f r das Netzwerk Komponente Konfiguration Netzwerkinfra Switching Block e 2 physische Switche struktur kapazitat e 2 10 GbE Ports pro vSphere Server Minimum e 1 1 GbE Port pro Control Station f r Management e 2FC CEE 10 GbE Ports pr
222. sts und Infrastrukturserver bereitgestellt die zur Unterst tzung der Architektur erforderlich sind F hren Sie die in Tabellen 26 aufgef hrten erforderlichen Aufgaben aus Tabellen 26 Aufgaben f r die Serverinstallation Aufgabe Beschreibung Referenz Installieren von vSphere Installieren Sie den vSphere 5 1 Hypervisor auf den physischen Servern die f r die L sung bereitgestellt werden Installations und Einrichtungshandbuch f r vSphere L sung bereitgestellten vSphere Hosts Konfigurieren des vSphere Konfigurieren Sie das Handbuch f r vSphere Netzwerks vSphere Netzwerk Netzwerk einschlie lich NIC Trunking VMkernel Ports virtueller Maschinen Portgruppen und Jumbo Frames Hinzuf gen von vSphere Verwenden Sie die Hosts zum VNX Speicher Unisphere Konsole um die FC Variante vShpere Hosts zu den Speichergruppen hinzuzuf gen Verbinden der VMware Verbinden Sie die VMware Handbuch f r vSphere Datastores Datastores mit den f r die Speicher Best tigen oder aktivieren Sie nach dem ersten Einschalten der f r vShpere verwendeten Server im BIOS jedes Servers die Einstellungen f r die hardwaregest tzte CPU Virtualisierung und die hardwaregest tzte MMU Virtualisierung Memory Management Unit Wenn die Server mit einem RAID Controller ausgestattet sind ist es empfehlenswert eine Spiegelung auf den lokalen Festplatten zu konfigurieren Starten Sie die Installationsme
223. t und den vSphere Servern als vier VMFS Datastores angezeigt Speicherlayout f r Grundlegendes Speicherlayout mit PVS Provisioning 2 000 virtuelle Abbildungen 29 zeigt das Layout der Laufwerke die zur Speicherung von Desktops 2 000 virtuellen Desktops mit PVS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten 2 EMC VSPEX Anwender Computing 81 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Bus 0 Geh use 2 Bus 1 Geh use 1 Bus 0 Geh use 1 Bus 1 Geh use 0 Bus 0 Enclosure 0 g I SSD NL SAS UNGENUTZT Abbildungen 29 Grundlegendes Speicherlayout mit PVS Provisioning f r 2 000 virtuelle Desktops Grundlegendes Speicherlayout mit PVS Provisioning berblick Die folgende Kernkonfiguration wurde in der Referenzarchitektur f r 2 000 virtuelle Desktopmaschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet e F rdie EMC VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_O_4 1_1_14 und 0_2_2 sind ungebunden und k nnen bei Bedarf als Hot Spare Laufwerke verwendet werden Diese Laufwerke sind in Abbildunge
224. t virtuelle LANs VLANs um die verschiedenen Arten von Netzwerkdatenverkehr aufzuteilen und auf diese Weise Durchsatz Management Anwendungstrennung hohe Verf gbarkeit und Sicherheit zu verbessern EMC Unified Storage Plattformen erm glichen eine hohe Verf gbarkeit oder Redundanz des Netzwerks durch Link Zusammenfassung Bei der Link Zusammenfassung k nnen mehrere aktive Ethernetverbindungen als ein Link mit einer einzigen MAC Adresse und potenziell mehreren IP Adressen angezeigt werden In dieser L sung wird das Link Aggregation Control Protocol LACP auf der VNX konfiguriert wobei mehrere Ethernetports in einem einzigen virtuellen Ger t zusammengefasst werden Wenn eine Verbindung in diesem Ethernetport unterbrochen wird erfolgt ein Failover auf einen anderen Port Der gesamte Netzwerkdatenverkehr wird ber die aktiven Verbindungen verteilt 34 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Speicher berblick EMC VNX Snapshots EMC SnapSure EMC 2 Kapitel 3 Technologie bersicht ber die L sung Auch die Speicherebene ist eine Kernkomponente jeder Cloud Infrastrukturl sung die Speichereffizienz und Managementflexibilit t erh ht und die Total Cost of Ownership reduziert Diese VSPEX L sung verwendet die VNX Serie f r die Bereitstellung von Virtualisierung auf der Speicherebene Weiter
225. ta Mover aktiv Stand by nur NFS Variante e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Laufwerksanzahl PvD Non PvD HSD Gemeinsamer VNX Speicher f r virtuelle PVS 32 16 16 Desktops MCS 26 20 20 e 33 5 Zoll Flashlaufwerke mit 100 GB F r 2 000 virtuelle Desktops e 2 Data Mover aktiv Stand by nur NFS Variante e 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Laufwerksanzahl PvD Non PvD HSD PVS 64 32 32 MCS 26 40 40 e 5 3 5 Zoll Flashlaufwerke mit 100 GB 2 EMC VSPEX Anwender Computing 71 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur VMware vSphere Speichervirtuali sierung f r VSPEX 72 EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Konfiguration Anmerkungen F r 500 virtuelle Desktops Optional f r e 16x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min Benutzerdaten F r 1 000 virtuelle Desktops e 24x 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min F r 2 000 virtuelle Desktops e 48 3 5 Zoll NL SAS Laufwerke mit 2 TB und 7 200 U min F r 500 virtuelle Desktops Optional f r e 5 3 5 Zoll SAS Laufwerke mit 600 GB und 15 000 U min Infrastrukturspeicher F
226. tellungsvoraussetzungen Anforderung Beschreibung Hardware Physische Server zum Hosten virtueller Desktops Gen gend physische Serverkapazit t zum Hosten von Desktops VMware vSphere 5 1 Server zum Hosten der virtuellen Infrastrukturserver Hinweis Diese Anforderung wird m glicherweise durch die vorhandene Infrastruktur erf llt Vernetzung f r das Anwender Computing erforderliche Switch Portkapazit t und funktionen EMC VNX Multiprotokoll Speicherarray mit dem erforderlichen Laufwerkslayout EMC EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Anforderung Beschreibung Software Installationsmedien f r VMware vSphere 5 1 Installationsmedien f r VMware vCenter Server 5 1 Installationsmedien f r Citrix XenDesktop 7 Installationsmedien f r Citrix Provisioning Services 7 EMC VSI f r VMware vSphere Unified Storage Management Weitere Informationen finden Sie auf der EMC Online Support Website e Installationsmedien f r Microsoft Windows Server 2008 R2 empfohlenes Betriebssystem f r VMware vCenter und Citrix Desktop Controller e Installationsmedien f r Microsoft Windows Server 2012 AD DHCP DNS Hypervisor Installationsmedien f r Microsoft Windows 7 SP1 Installationsme
227. ten f r 500 virtuelle Desktops Komponente L sung f r 500 virtuelle Desktops VMware vSphere CPU Desktopbetriebssystem Server e 1vCPU pro virtuellem Desktop e 8 virtuelle Desktops pro physischem Kern e 500 vCPUs e Mindestens 63 physische Kerne Serverbetriebssystem e 0 2 vCPU pro virtuellem Desktop e 5 virtuelle Desktops pro physischem Kern e 100 vCPUs e Mindestens 100 physische Kerne Arbeitsspeicher Desktopbetriebssystem e 2 GB RAM pro Desktop e Mindestens 1 TB RAM Serverbetriebssystem e 0 6 GB RAM pro Desktop e Mindestens 300 GB RAM Netzwerk FC Option 2 4 8 GB FC HBAs pro Server Netzwerk 1 Gbit 6 1 GbE NICs pro Server Option Hinweis Zur Implementierung der vSphere HA Funktion und zur Erf llung der aufgelisteten Mindestwerte sollte die Infrastruktur ber mindestens einen zus tzlichen Server verf gen Netzwerkinfrastruktur FC e 2 physische Switche e 2 1 GbE Ports pro vSphere Server e 4 4 8 Gbit FC Ports f r VNX Back End 2 pro SP e 2 4 8 Gbit FC Ports pro vSphere Server 1 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 6 1 GbE Ports pro vSphere Server 10 Gbit Netzwerk e 2 physische Switche e 1 1 GbE Port pro Control Station f r Management e 2 10 GbE Ports pro Data Mover f r Daten Hinweis Bei der Fibre Channel Option m ssen Sie eine der IP Netzwerkoptionen ausw hlen um die vollst ndige Konnektivit t zu
228. terst tzt die Verwendung von CIFS Share als das Speicherziel eines Speichers Legen Sie beim Erstellen eines PVS Speichers den Standardspeicherpfad auf den Universal Naming Convention UNC Pfad eines CIFS Share fest der auf dem VNX Speicher gehostet wird Klicken Sie in der Provisioning Services Konsole mit der rechten Maustaste auf einen Speicher und w hlen Sie Properties und Validate aus um zu gew hrleisten dass alle PVS Server in der Serverfarm auf den CIFS Share zugreifen k nnen Jeder PVS Server verf gt ber eine Reihe von User Datagram Protocol UDP Ports um die gesamte eingehende Kommunikation der virtuellen Desktops zu verwalten Im Idealfall sollte f r jede Desktopsitzung ein eigener Thread zur Verf gung stehen Die Gesamtzahl der von einem PVS Server unterst tzten Threads wird wie folgt berechnet Total threads Number of UDP ports Threads per port Number of network adapters Passen Sie die Thread Zahl entsprechend an die Anzahl der bereitgestellten virtuellen Desktops an EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Konfigurieren Gehen Sie zum Aktualisieren der Bootstrap Datei die f r den PXE Boot der einer Bootstrap virtuellen Desktops erforderlich sind wie folgt vor Datei 1 Navigieren Sie in der Provisioning Services Konsole zu Farm gt Sites gt Site name gt Servers 2 Klicken Sie mit der rechten Maustaste auf einen Server und w hlen
229. thilfe von Benutzerger ten die auf einer Whitelist stehen k nnen Benutzer ber eine Remoteverbindung mit Citrix Receiver auf Ressourcen auf ihren B ro PCs zugreifen Machine Creation Machine Creation Services MCS ist in die XenDesktop Managementoberfl che Services Citrix Studio integriert und erm glicht so Provisioning Management und Au erbetriebnahme von Desktops w hrend des Desktop Lifecycle ber einen zentralen Managementpunkt Mit MCS k nnen in Citrix Studio verschiedene Maschinentypen in einem Katalog gemanagt werden Bei Maschinen mit Personal vDisk Funktion ist die Desktopanpassung dauerhaft Maschinen ohne Personal vDisk Funktion werden dann empfohlen wenn Desktop nderungen verworfen werden sollen nachdem der Benutzer sich abgemeldet hat ber MCS bereitgestellte Desktops verf gen ber ein gemeinsames Basis Image innerhalb eines Katalogs Daher wird in der Regel mit ausreichender H ufigkeit auf das Basisimage zugegriffen um FAST Cache auf nat rliche Weise zu verwenden Dabei werden h ufig verwendete Daten auf Flashlaufwerke hochgestuft um eine optimale I O Reaktionszeit mit weniger physischen Laufwerken zu erreichen Citrix Provisioning Citrix PVS w hlt einen anderen Ansatz als herk mmliche Desktop Imaging Services L sungen Die Beziehung zwischen Hardware und der auf ihr ausgef hrten Software wird grundlegend ver ndert Anstatt Images auf einzelne Maschinen zu kopieren wird ein einziges gemeinsam gen
230. toberfl che des Microsoft DHCP Servers mit der rechten Maustaste auf Scope Options und w hlen Sie anschlie end Configure Options aus 2 W hlen Sie 066 Boot Server Host Name aus Geben Sie in String value die IP Adresse des als TFTP Server konfigurierten Data Mover ein 3 W hlen Sie nun 067 Bootfile Name aus und geben Sie dann in String value den Wert ARDBP32 BIN ein Das Bootstrap Image ARDBP32 BIN wird auf einen virtuellen Desktop geladen bevor das vDisk Image von den PVS Servern gestreamt wird Vorbereiten der Optimieren Sie die virtuelle Master Maschine um zu verhindern dass unn tige virtuellen Master Hintergrundservices unwesentliche I O Vorg nge generieren die sich negativ auf Maschine die allgemeine Performance des Speicherarrays auswirken F hren Sie die folgenden Schritte aus um die virtuelle Master Maschine vorzubereiten 1 Installieren Sie das Gastbetriebssystem Windows 7 2 Installieren Sie entsprechende Integrationstools wie VMware Tools 3 Optimieren Sie die Betriebssystemeinstellungen mithilfe des folgenden Dokuments Optimierungshandbuch f r Citrix Windows 7 f r die Desktopvirtualisierung 4 Installieren Sie den Virtual Desktop Agent 5 Installieren Sie Drittanbietertools oder anwendungen wie Microsoft Office die f r Ihre Umgebung relevant sind 6 Installieren Sie die Software f r das PVS Zielger t auf der virtuellen Master Maschine 7 ndern Sie das BIOS der virtuellen Master Mas
231. top 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration rtpsob44 Storage System Properties General SP Cache FAST Cache Software Environment FAST Cache State N A Size 0 G8 RAID Type N A Disks Disk Capacity Model State Statistics Properties SPA SPB Percent Dirty Pages 0 0 OK Cancel Help Abbildungen 40 Dialogfeld Storage System Properties b Klicken Sie auf FAST Cache um Informationen zum FAST Cache anzuzeigen c Klicken Sie auf Create to um das Dialogfeld Create FAST Cache zu ffnen wie in Abbildungen 41 gezeigt Disks Aytomatic Total Raw Capacity 153 453 GB Manual Disk Capacty Model State Ed Bus 1 Enclosure 0 Disk 2 91 727 GB SS160510 CLAR Unbound CA Bus 1 Enciosure 0 Disk 1 91 727 GB 55160510 CLAR Unbound Abbildungen 41 Dialogfeld Create FAST Cache Das Feld RAID Type wird als RAID 1 angezeigt wenn der FAST Cache erstellt wurde d Sie k nnen auch die Anzahl der Flashlaufwerke ausw hlen Die zum Erstellen des FAST Cache verwendeten Flashlaufwerke werden unter Disk angezeigt Mit der Option Manual k nnen Sie die Laufwerke manuell ausw hlen Informationen zum Festlegen der in dieser L sung erforderlichen Anzahl von Flashlaufwerken finden Sie in den Richtlinien zur Speicherkonfiguration Hinweis Wenn keine ausreichende Anzahl an Flashlaufwerke
232. tsspeicherressourcen sssesssssessssssssssssseesseseesssseesssseeessereesssseesssseesssseeee 94 NetzwerkreSsoUTCEMvsssesrsosssoeiuiecer so enrii eierniie ieai i iee VEKE 95 SpeicherressOUTCEN asaressrsno inna ee 95 Backup Ressourfcen eeeeessnsnsnssssssnsnnnnnsnnnnnnssnsnnnnnsnsnnnnsnsnsnnnsnsnnnnssnsssnsnsnsnnnnnn 96 Erweitern vorhandener VSPEX Anwender Computing Umgebungen 96 Zusammenfassung der Implementierung uuueeeeensnnssssnsnnensnnnnnnennnnnnnnnnsnnnenn 96 Schnelle Evaluierungsasssessesiksesserss tsieeisgeigensenessssssteenkeesentn nennt anerkennen 96 Arbeits Dialer ee 96 GPU Anforderungen sn esse E S 97 Speicheranforderungen sssesssssessssseessssseeesssseesssseesssseessseressseseesssseesssseessssee 97 Anforderungen an die Speicher Performance sssssssssssssssesessseseesssseesssseesssseee 97 Anforderungen an die Speicherkapazit t eceessssessennnnnssnnnnnnennnnnnnnnnensnnnnnnnnnnn 97 Festlegen entsprechender virtueller Referenz Desktops cceseeersneennennenenn 98 Feinabstimmung der Hardwareressoufcen ssessssssssseseseesssssseseeeessssssesereesesss 99 Kapitel 5 Richtlinien zur VSPEX Konfiguration 103 Bereitstellungsproz amp SS eeeesenenensnnnnnesssnennnnnnnnnnnnsensnnnnnsnnnennennnsnsnsnnnnnnnsssnessnsnnnnnn 104 Berbl Keen een 104 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung
233. tzer gespeichert werden EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Entscheiden Sie auf Grundlage der Performance und Complianceanforderungen des Unternehmens wie viele StorageZones an welchen Standorten erforderlich sind Wenn die Benutzer sich beispielsweise in Europa befinden bietet die Speicherung der Daten in einem Storage Center in Europa sowohl Performance als auch Compliancevorteile Im Allgemeinen ist die Zuweisung von Benutzern zu einem StorageZones Standort in ihrer N he eine Best Practice zur Performanceoptimierung Storage Center ist ein Webservice von dem s mtliche HTTPS Vorg nge der Anwender und des SharefFile Steuerungssubsystems verarbeitet werden Vom ShareFile Steuerungssubsystem werden s mtliche Vorg nge verarbeitet die sich nicht auf Dateiinhalte beziehen z B Authentifizierung Autorisierung Dateisuche Konfiguration Metadaten Senden und Anfordern von Dateien und Lastenausgleich Des Weiteren werden vom Steuerungssubsystem Storage Center Integrit tspr fungen durchgef hrt und Anforderungen von Offlineservern verhindert Das ShareFile Steuerungssubsystem wird in Citrix Online Rechenzentren verwaltet Vom ShareFile Speichersubsystem werden Vorg nge bearbeitet die sich auf Dateiinhalte beziehen z B Uploads Downloads und Virenschutz
234. u einer berbelegung von Speicher kommt es wenn den virtuellen Maschinen mehr Speicher zugeteilt wird als physisch auf einem VMware vSphere Host vorhanden ist Mithilfe von fortschrittlichen Methoden wie Ballooning und der transparenten gemeinsamen Nutzung von Arbeitsspeicherseiten kann vSphere eine berbelegung von Speicher ausgleichen ohne dass es zu einer Performance Verschlechterung kommt Wenn jedoch mehr Arbeitsspeicher aktiv verwendet wird als auf dem Server vorhanden ist lagert vSphere m glicherweise Teile des Arbeitsspeichers einer virtuellen Maschine aus Non Uniform Memory Access vSphere verwendet einen NUMA Lastenausgleich um einer virtuellen Maschine einen Stamm Node zuzuweisen Da der Arbeitsspeicher f r die virtuelle Maschine von diesem Stamm Node zugewiesen wird erfolgt der Speicherzugriff lokal und liefert eine bestm gliche Performance Auch Anwendungen die NUMA nicht direkt unterst tzen profitieren von dieser Funktion 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Transparente gemeinsame Nutzung von Arbeitsspeicherseiten Virtuelle Maschinen auf denen hnliche Betriebssysteme und Anwendungen ausgef hrt werden verf gen normalerweise ber hnlichen Speicherinhalt Bei der gemeinsamen Nutzung von Arbeitsspeicherseiten kann der Hypervisor den
235. uch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Tabellen 8 enth lt detaillierte Informationen zur Konfiguration der Server und Netzwerkhardware f r die virtuellen Desktops Tabellen 8 Serverhardware Server f r virtuelle Konfiguration Desktops CPU e Desktopbetriebssystem 1 virtuelle CPU pro Desktop 8 Desktops pro Kern 63 Kerne f r alle Server bei 500 virtuellen Desktops 125 Kerne f r alle Server bei 1 000 virtuellen Desktops 250 Kerne f r alle Server bei 2 000 virtuellen Desktops e Serverbetriebssystem 0 2 virtuelle CPU pro Desktop 5 Desktops pro Kern 100 Kerne f r alle Server bei 500 virtuellen Desktops 200 Kerne f r alle Server bei 1 000 virtuellen Desktops 400 Kerne f r alle Server bei 2 000 virtuellen Desktops Arbeitsspeicher e Desktopbetriebssystem 2 GB RAM pro Desktop 1TBRAM f r alle Server bei 500 virtuellen Desktops 2 TB RAM f r alle Server bei 1 000 virtuellen Desktops 4 TB RAM f r alle Server bei 2 000 virtuellen Desktops 2 GB RAM Reservierung pro vSphere Host e Serverbetriebssystem 0 6 GB RAM pro Desktop 300 GB RAM f r alle Server bei 500 virtuellen Desktops 600 GB RAM f r alle Server bei 1 000 virtuellen Desktops 1 2 TB RAM f r alle Server bei 2 000 virtuellen Desktops 2 GB RAM Reservierung pro vSphere Host Netzwerk e 6 1 GbE NICs pro Server bei 500 virtuellen Desktops e 3 10 GbE NICs pro Blade Geh use
236. uf das Serverobjekt und w hlen Sie Database Properties aus Mit dieser Aktion wird ein Dialogfeld Properties ge ffnet ber das Sie die Standarddaten und Protokollverzeichnisse f r neu auf dem Server erstellte Datenbanken ndern k nnen Hinweis F r hohe Verf gbarkeit installieren Sie SQL Server in einem Microsoft Failover Cluster oder auf einer durch vShpere HA Clustering gesch tzten virtuellen Maschine Zum Verwenden von vCenter in dieser L sung m ssen Sie eine Datenbank erstellen die der Service verwenden kann Unter Vorbereiten von vCenter Server Datenbanken finden Sie die Anforderungen und Schritte f r die richtige Konfiguration der vCenter Server Datenbank Weitere Informationen finden Sie in Anhang C Hinweis Verwenden Sie f r diese L sung nicht die Microsoft SQL Server Express basierte Datenbankoption Als Best Practice sollten Sie individuelle Anmeldekonten f r jeden Service erstellen der auf eine Datenbank in SQL Server zugreift Zum Verwenden von Update Manager in dieser L sung m ssen Sie eine Datenbank erstellen die der Service verwenden kann Unter Vorbereiten der Update Manager Datenbank finden Sie die Anforderungen und Schritte f r die richtige Konfiguration der Update Manager Datenbank Weitere Informationen finden Sie in Anhang C Als Best Practice sollten Sie individuelle Anmeldekonten f r jeden Service erstellen der auf eine Datenbank in SQL Server zugreift Wenden Sie sich an Ihren
237. ufragen und klicken Sie auf OK Vorausgesetzt dass die im vorherigen Schritt eingegebenen Anmeldedaten korrekt authentifiziert wurden werden die Active Directory Informationen im Bereich Client Information des Fensters Avamar Client Manager angezeigt wie in Abbildungen 74 dargestellt EMC Avamar Cbent Manager Windows Internet Explorer A 2 Haproxy Quick and Orty H S Suggested Sites EB web Sice Galery X Find resource sess l res Nat Optons EMC Avamar Client Manager Upgrade V amp Server Information a peen Bu Creste Domain UZCreste Group EZ Show Groups MB Show Cients C Doren Controiers u f bsg04231 55 emc com O Eut Celerra di cheres C LosdGen Objects ont C Microsof Exchange Securty Groups C Profleunty User and Machnes O vsex JE AGINONP POD0001 iss eme com J AERAS1 POO0001 Iss emc com JR AV61 POD0001 iss eme com Abbildungen 74 Avamar Client Manager nach der Konfiguration 8 Navigieren Sie durch die Active Directory Baumstruktur bis Sie die ber XenDesktop bereitgestellten virtuellen Desktops finden In diesem Beispiel wurde eine Organisationseinheit namens VSPEX erstellt wie in Abbildungen 75 gezeigt 152 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Abbildungen 75 Avamar Client Manager virtue
238. um mehr Kapazit t bereitzustellen Um die Ladeempfehlungen zu erf llen m ssen alle Laufwerke 15 000 U Min und dieselbe Gr e haben Wenn unterschiedliche Gr en verwendet werden ergeben die Speicherlayoutalgorithmen m glicherweise suboptimale Ergebnisse Grundlegendes Speicherlayout mit MCS Provisioning Abbildungen 30 zeigt das Layout der Laufwerke die zur Speicherung von 2 000 virtuellen Desktops mit MCS Provisioning erforderlich sind Dieses Layout kann mit zuf lligen statischen Personal vDisk und gehosteten gemeinsam genutzten Desktop Provisioning Optionen verwendet werden Dieses Layout enth lt keinen Speicherplatz f r Benutzerprofildaten Bus 0 Geh use 2 Bus 1 Geh use 1 Bus 0 Geh use 1 Bus 1 Geh use 0 Bus 0 Enclosure 0 Abbildungen 30 Grundlegendes Speicherlayout mit MCS Provisioning f r 2 000 virtuelle Desktops Grundlegendes Speicherlayout mit MCS Provisioning berblick Die folgende Kernkonfiguration wird in der Referenzarchitektur f r 2 000 virtuelle Desktopmaschinen verwendet e Vier SAS Laufwerke 0_0_0 bis 0_0_3 werden f r die VNX Betriebsumgebung verwendet EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 83 Kapitel 4 bersicht ber die L sungsarchitektur e F rdie EMC VNX Serie ist kein dediziertes Hot Spare Laufwerk erforderlich Die Laufwerke 1_0_4 0_0_2 und 0_
239. und Reporting zur Validierung der Performance und Prognose der Kapazit tsanforderungen Wie in Abbildungen 3 gezeigt enth lt die Suite au erdem Unisphere Remote f r das zentrale Management von bis zu Tausenden von VNX und VNXe Systemen mit Unterst tzung f r EMC XtremSWTM Cache Unisphere Management Suite H here Managementproduktivit t Want Unisphere se ld Intuitives aufgabenbasiertes Ea F Management 7 Unisphere Remote E i berwachung von Tausenden von En Systemen gt VNX Monitoring and Reporting Interaktives Reporting Abbildungen 3 Unisphere Management Suite Virtualisierungsmanagement VMware Virtual Storage Integrator VMware Virtual Storage Integrator VSI ist ein kostenloses vCenter Plug in das allen VMware Benutzern mit EMC Speicher zur Verf gung steht VSPEX Kunden k nnen VSI zum einfachen Management des virtualisierten Speichers nutzen VMware Administratoren k nnen Transparenz f r ihren VNX Speicher mit derselben vertrauten vCenter Schnittstelle gewinnen die sie bereits gewohnt sind Mit VSI k nnen IT Administratoren mehr Arbeit in weniger Zeit erledigen VSI bietet eine bisher unerreichte Zugriffskontrolle sodass Speicheraufgaben effizient gemanagt und sicher delegiert werden k nnen T gliche Managementaufgaben k nnen mit bis zu 90 Prozent weniger Klicks und bis zu zehnmal h herer Produktivit t durchgef hrt werden VMware vStorage APIs for Array Integration VMware vStorage APIs for Array I
240. ung stehen Wichtige Nachfolgend sind die wichtigsten Komponenten der L sungen aufgef hrt Komponenten Citrix XenDesktop 7 Delivery Controller F r die redundante virtuelle Desktopbereitstellung die Authentifizierung von Benutzern das Management der Montage der virtuellen Desktopumgebungen von Benutzern sowie die Vermittlung von Verbindungen zwischen Benutzern und ihren virtuellen Desktops werden zwei Citrix XenDesktop Controller verwendet Citrix Provisioning Server F r die Bereitstellung redundanter Streaming Services f r das Streaming von Desktopimages von vDisks auf die Zielger te bei Bedarf wurden zwei Citrix PVS Server verwendet In dieser L sung werden vDisks auf einer CIFS Share gespeichert die vom VNX Speichersystem gehostet wird Virtuelle Desktops Virtuelle Desktops mit Windows 7 werden von MCS und PVS bereitgestellt 1 In diesem Leitfaden bezieht sich wir auf das EMC Solutions Engineering Team das die L sung validierte 56 EMC VSPEX Anwender Computing P Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung 2 EMC Kapitel 4 bersicht ber die L sungsarchitektur VMware vSphere 5 1 VMware vSphere bietet eine gemeinsame Virtualisierungsebene f r das Hosten einer Serverumgebung In Tabellen 14 auf Seite 92 werden die Merkmale der validierten Umgebung aufgelistet VMware vSphere 5 1 bietet eine Infrastruktu
241. ungen f r das Avamar Dataset 3 Entfernen Sie alle anderen Plug ins aus der Liste indem Sie jedes ausw hlen und auf Minus klicken 4 Geben Sie f r das neue Dataset in Name den Wert View User Files ein W hlen Sie Enter Explicitly aus 6 W hlen Sie aus dem Listenfeld Select Plug in Type die Option Windows File System aus 7 Geben Sie in Select Files and or Folders den Wert U ein und klicken Sie auf Plus 8 Klicken Sie auf OK um das Dataset zu speichern Wiederholen Sie die Schritte 1 bis 8 um ein neues Dataset f r Benutzerprofildaten zu erstellen Verwenden Sie dabei aber die folgenden Werte wie in Abbildungen 58 gezeigt Geben Sie f r das neue Dataset in Name den Wert View User Profile ein Geben Sie in Select Files and or Folders den Wert P ein 142 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung EMC 2 10 11 12 Kapitel 5 Richtlinien zur VSPEX Konfiguration AA New Dataset Nie fiem user Prosie Source Data Exdusions Indusiors Options Enter Exp city Select Plugin Type fr Windows File System C AA local Windows Sies e Selec Files andor Folders Pi Ej C Select All Data for All Local Filesystems Ha Abbildungen 58 Dataset f r Benutzerprofildaten F r ein richtiges Backup von User Profile Daten sind zu
242. ups CGs unterst tzt Mehrere Pool LUNs k nnen in einer CG kombiniert und gleichzeitig in einen Snapshot aufgenommen werden Bei Initiierung eines Snapshot von einer CG werden alle Schreibzugriffe auf die darin enthaltenen LUNs angehalten bis die Erstellung der Snapshots abgeschlossen ist CGs werden in der Regel f r LUNs verwendet die zur selben Anwendung geh ren EMC SnapSure M ist eine Softwarefunktion von EMC VNX File mit der Sie Kontrollpunkte erstellen und managen k nnen die logische Point in Time Images eines Production File System PFS darstellen SnapSure verwendet ein Copy On First Modify Prinzip Ein PFS besteht aus Bl cken Wenn ein Block innerhalb eines PFS ver ndert wird wird eine Kopie mit dem Originalinhalt des Blocks in einem separaten Volume namens SavVol gespeichert Nachfolgende nderungen die am selben Block im PFS vorgenommen werden werden nicht im SavVol gespeichert Die Originalblocks aus dem PFS im SavVol und die verbleibenden unver nderten PFS Block im PFS werden von SnapSure entsprechend einer Bitmap und Blockmap Datennachverfolgungsstruktur gelesen Diese Blocks werden zusammengefasst um ein vollst ndiges Point in Time Image bereitzustellen das als Kontrollpunkt bezeichnet wird EMC VSPEX Anwender Computing Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 35 Kapitel 3 Technologie bersicht ber die L sung E
243. urationsdaten des Kunden berblick Zum Reduzieren der vor Ort erforderlichen Zeit sollten Informationen wie IP Adressen und Hostnamen im Rahmen des Planungsprozesses gesammelt werden Anhang B enth lt ein Formular zum Verwalten eines Datensatzes mit relevanten Informationen Dieses Formular kann nach Bedarf erweitert oder verkleinert werden Bei fortschreitender Bereitstellung k nnen Informationen hinzugef gt ge ndert und aufgezeichnet werden F llen Sie dar ber hinaus das Konfigurationsarbeitsblatt f r VNX Block f r die FC Variante oder die Arbeitsbl tter f r VNX File und Unified f r die NFS Variante aus die auf der EMC Online Support Website zur Verf gung stehen um m glichst umfassende arrayspezifische Informationen bereitzustellen Vorbereiten der Switche Verbinden mit dem Netzwerk und Konfigurieren der Switche berblick Vorbereiten der Netzwerk Switche EMC In diesem Abschnitt werden die Anforderungen an die Netzwerkinfrastruktur zur Unterst tzung dieser Architektur dargestellt Tabellen 24 enth lt eine bersicht ber die zu erf llenden Aufgaben sowie Referenzen f r weitere Informationen Tabellen 24 Aufgaben f r die Switch und Netzwerkkonfiguration Aufgabe Beschreibung Referenz Konfigurieren des Infrastrukturnetzwerks Konfigurieren Sie das Speicherarray und das vSphere Hostinfrastrukturnetzwerk wie in der L sungsarchitektur angegeben Konfigurationsleitfaden Ihres
244. uthentication Authentication Manager 8 0 Manager Handbuch f r Performance und Skalierbarkeit Citrix NetScaler 2 4 40 Leitfaden f r die ersten Schritte mit Citrix NetScaler VPX Citrix Storefront 2 2 20 ShareFile berblick Sharefile ist ein cloudbasierter Dateifreigabe und Speicherservice der f r Speicher und Sicherheit der Enterprise Klasse entwickelt wurde ShareFile erm glicht Benutzern die sichere Freigabe von Dokumenten f r andere Benutzer Zu den ShareFile Benutzern geh ren Mitarbeiter und Benutzer au erhalb des Unternehmensverzeichnisses bezeichnet als Clients ShareFile Mit ShareFile StorageZones k nnen Unternehmen Dateien im Unternehmen StorageZones freigeben und gleichzeitig die Complianceanforderungen und beh rdliche Auflagen erf llen Kunden k nnen mit StorageZones ihre Daten auf lokalen Speichersystemen speichern Es erm glicht die Freigabe gro er Dateien mit vollst ndiger Verschl sselung und die Synchronisierung von Dateien auf mehreren Ger ten Da Daten lokal und in der N he der Benutzer und nicht in der Public Cloud gespeichert werden bietet StorageZones bessere Performance und h here Sicherheit Nachfolgend sind die wichtigsten Funktionen aufgelistet die f r ShareFile StorageZones Benutzer verf gbar sind e Verwendung von StorageZones mit oder anstelle von ShareFile verwaltetem Cloudspeicher e Konfiguration von Citrix CloudGateway Enterprise zur Integration von ShareFile Services in C
245. utztes Laufwerksimage vDisk gestreamt Auf diese Weise k nnen Unternehmen dank PVS die Anzahl der zu managenden Laufwerksimages reduzieren Bei einer steigenden Anzahl an Maschinen bietet PVS die Effizienz eines zentralen Managements und die Vorteile einer verteilten Verarbeitung Da die Maschinen die Laufwerksdaten dynamisch und in Echtzeit von einem einzigen gemeinsam genutzten Image streamen bleibt das Maschinenimage konsistent Au erdem k nnen Konfiguration Anwendungen und selbst das Betriebssystem gro er Maschinenpools vollst ndig w hrend eines Neustarts ge ndert werden In dieser L sung werden 500 1 000 oder 2 000 virtuelle Desktops mit Windows 7 ber PVS bereitgestellt Die Bereitstellung der Desktops erfolgt ber eine einzelne vDisk Citrix Personal Die Citrix Personal vDisk Funktion wird in XenDesktop 5 6 eingef hrt Mit Personal vDisk vDisk k nnen Benutzer Anpassungseinstellungen und vom Benutzer installierte Anwendungen in einem gepoolten Desktop beibehalten Diese M glichkeit wird durch die Umleitung der nderungen von der virtuellen gepoolten Maschine des Benutzers auf ein separates Personal vDisk erreicht W hrend der Laufzeit wird der Inhalt der Personal vDisk mit dem Inhalt aus der Basis VM vereinigt sodass der Anwender eine einheitliche Erfahrung erh lt Die Personal vDisk Daten bleiben w hrend Neustarts und Aktualisierungen erhalten Citrix Profile Citrix Profile Management beh lt Benutzerprofile bei und
246. ver Speicherarrays Switch Verbindungen Netzwerkverkabelung und Switch Uplinks ber redundante Verbindungen verf gen und in separate Switching Infrastrukturen eingesteckt sind Sorgen Sie daf r dass eine vollst ndige Verbindung zum vorhandenen Kundennetzwerk vorhanden ist Hinweis An diesem Punkt wird die neue Hardware mit dem vorhandenen Kundennetzwerk verbunden Achten Sie darauf dass unvorhergesehene Interaktionen keine Serviceprobleme im Kundennetzwerk hervorrufen Vorbereiten und Konfigurieren des Speicherarrays VNX Konfiguration berblick In diesem Abschnitt wird die Konfiguration des VNX Speicherarrays beschrieben In dieser L sung bietet VNX mit NFS oder FC SAN verbundene Blockspeicher f r VMware Hosts Tabellen 25 zeigt die Aufgaben f r die Speicherkonfiguration Tabellen 25 Aufgaben f r die Speicherkonfiguration Aufgabe Beschreibung Referenz Einrichten der VNX Konfigurieren Sie die IP e Installationshandbuch Erstkonfiguration Adressinformationen und andere f r VNX5400 Unified wichtige Parameter auf der VNX e etllationshandbuch Provisioning von Erstellen Sie FC LUNS FC f r VNX5600 Unified Kerndatenspeicher Variante oder NFS Dateisysteme e Arbeitsblatt f r XNX File NFS Variante die den vSphere und Unified Servern als VMFS oder NFS Datastores angezeigt werden e Leitfaden f r die ersten die die virtuellen Desktops Schritte miragem hosten Unisphere System e Konfiguratio
247. virtuelle Desktops oder 320 f r 2 000 virtuelle Desktops Gbit s aufweisen nicht blockierend und die folgenden Funktionen unterst tzen e Ethernet Datenflusssteuerung nach IEEE 802 1x e VLAN Tagging nach 802 1q e Ethernet Link Zusammenfassung ber das IEEE 802 1ax 802 3ad Link Aggregation Control Protocol e SNMP Managementfunktion e Jumbo Frames 64 EMC VSPEX Anwender Computing 2 Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops EMC Handbuch zur Proven Infrastructure L sung Kapitel 4 bersicht ber die L sungsarchitektur Menge und Typ der ausgew hlten Switche sollten eine hohe Verf gbarkeit unterst tzen Au erdem wird empfohlen Netzwerkanbieter auf Basis der Verf gbarkeit von Ersatzteilen Service und Support Vertr gen auszuw hlen Zus tzlich zu den obigen Funktionen sollte die Netzwerkkonfiguration Folgendes beinhalten e Mindestens zwei Switche zur Unterst tzung von Redundanz e Redundante Netzteile e Mindestens 40 1 GbE Ports f r 500 virtuelle Desktops 2 1 GbE und 14 10 GbE Ports f r 1 000 virtuelle Desktops oder 2 1 GbE und 22 10 GbE Ports f r 2 000 virtuelle Desktops verteilt f r hohe Verf gbarkeit e Die entsprechenden Uplink Ports f r die Kundenverbindung Die Verwendung von 10 GbE Ports sollte an den Ports auf dem Server und im Speicher ausgerichtet sein unter Ber cksichtigung der Anforderungen des Gesamtnetzwerks f r diese L sung und der erfor
248. von NetScaler managt die Authentifizierung mit RSA SecurlD prim r und Active Directory sekund r von Zugriffsanforderungen aus ffentlichen oder externen Netzwerken NetScaler bietet zudem eine Lastenausgleichsfunktion die hohe Verf gbarkeit von Authentication Manager und Citrix Storefront Servern unterst tzt e Citrix Storefront Version 2 0 oder h her Storefront bietet Authentifizierungs und andere Services und stellt Desktops von Benutzern auf browserbasierten oder mobilen Citrix Clients bereit e Citrix Receiver Receiver stellt eine Benutzeroberfl che bereit ber die der Benutzer mit dem virtuellen Desktop oder einer anderen virtuellen Citrix Umgebung wie XenApp oder XenServer interagiert Im Kontext dieser L sung wird der Benutzer Client als ein generischer Benutzerendpunkt angesehen Versionen des Receiver Client und Optionen und Optimierungen daf r werden also nicht bearbeitet 2 EMC VSPEX Anwender Computing 45 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung Rechner Abbildungen 15 zeigt das VSPEX Anwender Computing f r die XenDesktop Arbeitsspeicher Umgebung mit einer zus tzlichen Infrastruktur zur Unterst tzung von SecurlD Alle und erforderlichen Komponenten k nnen in einer redundanten Konfiguration mit Speicherressourcen hoher Verf gbarkeit auf zwei oder mehr vSphere Host
249. x XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung Kapitel 5 Richtlinien zur VSPEX Konfiguration Tier Status zeigt FAST VP Verlagerungsinformationen an die f r den ausgew hlten Pool spezifisch sind Sie k nnen die geplante Verlagerung auf der Poolebene aus dem Listenfeld Auto Tiering ausw hlen Sie k nnen hier die Einstellung Automatic oder Manual verwenden Unter Tier Details wird die genaue Verteilung der Benutzerdaten angezeigt Benutzer k nnen au erdem eine Verbindung zum Arrayweiten Relocation Schedule herstellen wodurch das Dialogfeld Manage Auto Tiering ge ffnet wird wie in Abbildungen 45 gezeigt Fi Manage Auto Tiering Pm E Auto Tiering Status Relocation Status Enabled Pause Reiocations Pools with data to be moved 0 Scheduled Pools 0 Active Pool Relocations 0 Quantity of data to be moved up 0 00 GB Quantity of data to be moved down 0 00 G8 Quantity of data to be moved within 0 00 G8 Estimated Relocation Time 0 00 Hours Data Relocation Rate Medium v Data Relocation Schedule Yi Enable v Monday i Tuesday Wednesday v Thursday iv Friday v Saturday v Sunday Data Relocation Start Time 23 vw Hours oo v Minutes Data Relocation Duration la Hours 00 v Minutes Calculated End Time 7 00 Abbildungen 45 Dialogfeld Manage Auto Tiering ber dieses Dialogfeld k nnen Benutzer die Data Relocation Rate kontrollieren
250. y die Switch Verbindungsports und die Switch Uplink Ports Diese Konfiguration stellt sowohl Redundanz als auch zus tzliche Netzwerkbandbreite bereit Diese Konfiguration ist erforderlich unabh ngig davon ob die Netzwerkinfrastruktur f r die L sung bereits vorhanden ist oder zusammen mit anderen Komponenten der L sung bereitgestellt wird Ein Beispiel f r eine solche Netzwerktopologie mit hoher Verf gbarkeit wird in Abbildungen 7 dargestellt Hinweis Das Beispiel gilt f r IP basierte Netzwerke aber das Prinzip der Mehrfachverbindungen und der Beseitigung von Single Points of Failure gilt ebenso f r Fibre Channel basierte Netzwerke 2 EMC VSPEX Anwender Computing 33 EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops 6 Handbuch zur Proven Infrastructure L sung Kapitel 3 Technologie bersicht ber die L sung der D Verbindungen von jedem Server zu Switch 1 Verbindungen von jedem Server zu Switch 2 Verbindung des 1 redundanten Switch Netzwerk Switch 1 ae EEE Netzwerk Switch 2 Verbindung von Switch 2 zu aktivem Data Mover Verbindung von Switch 1 zu aktivem Data Mover Verbindung von Switch 1 zu Stand by Data Mover Verbindung von Switch 2 zu Stand by Data Mover Data Mover Data Mover Stand by aktiv Abbildungen 7 Beispiel eines Netzwerkdesigns mit hoher Verf gbarkeit Diese validierte L sung verwende
251. zu Bei einer zu gro z gigen Zuteilung werden Ressourcen nicht optimal genutzt w hrend eine zu knappe Zuteilung zu Performanceeinbu en f hrt die sich auf andere virtuelle Maschinen mit gemeinsam genutzten Ressourcen auswirken k nnen Eine berbelegung kann eine Ressourcenersch pfung nach sich ziehen wenn der Hypervisor nicht mehr Arbeitsspeicherressourcen bereitstellen kann In extremen F llen kann es bei Hypervisor Swapping zu Performanceeinbu en bei den virtuellen Maschinen kommen Hier sind die Performancebaselines f r die Workloads von virtuellen Maschinen hilfreich 2 EMC VSPEX Anwender Computing EMC Citrix XenDesktop 7 und VMware vSphere 5 1 f r bis zu 2 000 virtuelle Desktops Handbuch zur Proven Infrastructure L sung 123 Kapitel 5 Richtlinien zur VSPEX Konfiguration Installieren und Konfigurieren der SQL Server Datenbank berblick In diesem Abschnitt wird beschrieben wie Sie eine SQL Server Datenbank f r die L sung einrichten und konfigurieren Am Ende des Abschnitts werden Sie SQL Server auf einer virtuellen Maschine installiert und die f r vCenter und XenDesktop erforderlichen Datenbanken zur Verwendung konfiguriert haben Tabellen 27 enth lt die Aufgaben f r die Einrichtung der SQL Server Datenbank Tabellen 27 Aufgaben f r die SQL Server Datenbankkonfiguration Erstellen einer virtuellen Maschine f r SQL Server Installieren von Microsoft Windows auf der virtuellen Maschine Aufgabe

Download Pdf Manuals

image

Related Search

Related Contents

P55 Deluxe3 - Diskontcomputer.com  Nummer 3/2012 - FachFrauen Umwelt  使用説明書[全文]    DeLOCK VGA 15pin F > DVI 24+5 M  SRS-BTS50  USER MANUAL - Pdfstream.manualsonline.com  ASUS T100TAM User's Manual    La chambre de bébé : mode d`emploi  

Copyright © All rights reserved.
Failed to retrieve file