Home
Sun Cluster Konzepthandbuch für Solaris OS
Contents
1. 1 Quorum Ger In dieser Konfiguration muss jedes Paar f r beide t Quorum Gert Paarknoten verf gbar sein um zu berleben Knoten A Knoten B Knoten C 1 1 1 O Quorum Quorum Gert Gert Gesamte konfigurierte Stimmen 6 F r Quorum erforderliche Stimmen 4 Gesamte konfigurierte Stimmen 5 F r Quorum erforderliche Stimmen 3 Iin dieser Konfiguration sind die Anwendungen in der Regel f r die Ausf hrung auf Knoten A und Knoten B konfiguriert und verwenden Knoten C als Hot Spare In dieser Konfiguration k nnen ein oder mehrere Knoten und das Quorum Ger t einen Cluster bilden Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Knoten A Knoten B Knoten C 1 1 1 O Quorum Gert Gesamte konfigurierte Stimmen 5 F r Quorum erforderliche Stimmen 3 Untypische Quorum Konfigurationen Abbildung 3 3 setzt voraus dass Sie Mission Critical Anwendungen z B Oracle Datembank auf Knoten A und Knoten B ausf hren Wenn Knoten A und Knoten B nicht verf gbar sind und nicht auf gemeinsam genutzte Daten zugreifen k nnen sollten Sie den gesamten Cluster herunterfahren Anderenfalls ist diese Konfiguration nicht optimal da sie keine Hochverf gbarkeit bietet Informationen zu der Empfehlung auf die sich diese Ausna
2. Copyright 2004 Sun Microsystems Inc 4150 Network Circle Santa Clara CA 95054 U S A Tous droits r serv s Ce produit ou document est prot g par un copyright et distribu avec des licences qui en restreignent l utilisation la copie la distribution et la decompilation Aucune partie de ce produit ou document ne peut tre reproduite sous aucune forme par quelque moyen que ce soit sans l autorisation pr alable et crite de Sun et de ses bailleurs de licence s il y en a Le logiciel d tenu par des tiers et qui comprend la technologie relative aux polices de caract res est prot g par un copyright et licenci par des fournisseurs de Sun Des parties de ce produit pourront tre d riv es du syst me Berkeley BSD licenci s par l Universit de Californie UNIX est une marque d pos e aux Etats Unis et dans d autres pays et licenciee exclusivement par X Open Company Ltd Sun Sun Microsystems le logo Sun docs sun com AnswerBook AnswerBook2 et Solaris sont des marques de fabrique ou des marques d pos es ou marques de service de Sun Microsystems Inc aux Etats Unis et dans d autres pays Toutes les marques SPARC sont utilis es sous licence et sont des marques de fabrique ou des marques d pos es de SPARC International Inc aux Etats Unis et dans d autres pays Les produits portant les marques SPARC sont bas s sur une architecture d velopp e par Sun Microsystems Inc L interface d utilisation graphique OPEN LOOK
3. Verbindungspunkt Verbindungspunkt Knoten 1 Prim rknoten Knoten 2 Prim rknoten Speicher ABBILDUNG 2 4 SPARC N 1 Topologie el Speicher Knoten 3 Prim rknoten Knoten 4 Sekund rknoten Speicher zes SPARC N N Scalable Iopologie Mit einer N N Topologie k nnen alle gemeinsam genutzten Speicherger te in einem Cluster mit allen Knoten im Cluster verbunden werden Mit dieser Topologie k nnen hoch verf gbare Anwendungen ohne Abfall der Dienstqualit t von einem Knoten auf einen anderen umgeleitet werden Bei einem Failover kann der neue Knoten ber einen lokalen Pfad auf das Speicherger t zugreifen anstatt den privaten Interconnect zu verwenden Die nachstehende Abbildung stellt eine N N Konfiguration dar Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 33 Verbindungspunkt Verbindungspunkt Knoten 1 Knoten 2 Knoten 3 Knoten 4 Speicher Speicher ABBILDUNG 2 5 SPARC N N Topologie x86 Sun Cluster Topologiebeispiele Eine Topologie ist das Verbindungsschema nach dem die Cluster Knoten mit den im Cluster verwendeten Speicherplattformen verbunden sind Sun Cluster unterst tzt jede Topologie die folgende Richtlinien einh lt m Sun Cluste
4. Fragen und Antworten zur Verwaltungskonsole finden Sie in Kapitel 4 Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 29 SPARC Sun Cluster Topologiebeispiele Eine Topologie ist das Verbindungsschema nach dem die Cluster Knoten mit den im Cluster verwendeten Speicherplattformen verbunden sind Sun Cluster unterst tzt jede Topologie die folgende Richtlinien einh lt m Sun Cluster unterst tzt in SPARC basierten Systemen maximal acht Knoten in einem Cluster unabh ngig von den Speicherkonfigurationen die Sie implementieren m Ein gemeinsam genutztes Speicherger t kann mit so vielen Knoten verbunden werden wie vom Speicherger t unterst tzt werden m Gemeinsam genutzte Speicherger te m ssen nicht mit allen Knoten im Cluster verbunden sein Diese Speicherger te m ssen jedoch mit mindestens zwei Knoten verbunden sein Sun Cluster schreibt f r die Konfiguration eines Clusters keine spezifischen Topologien vor Die Beschreibung der folgenden Topologien soll das Vokabular zur Erl uterung eines Cluster Verbindungsschemas erschlie en Diese Topologien zeigen typische Verbindungsschemata Geclusterte Paare Paar N N 1 Stern N N Scalable Die folgenden Abschnitte enthalten Beispielgrafiken f r jede Topologie SPARC Geclusterte Paare Iopologie Eine Geclusterte Paare Topologie besteht aus zwei oder mehr Knotenpaaren die unter einem einzigen Cluster Verwaltungs Framework arbeiten In dieser Konfiguration w
5. Scalable Ressourcengruppe Ressourcenabh ngigkeiten yeyosus g semuspusdap HH yeyb ueygeusddn uss4inossay Scalable Anwendungsressource apache Apache Server Ressource ABBILDUNG 3 7 SPARC Beispiel f r Failover und Scalable Ressourcengruppen Lastausgleichsverfahren Der Lastausgleich verbessert die Leistung der Scalable Dienste sowohl bei der Antwortzeit als auch beim Durchsatz Es gibt zwei Klassen von Scalable Datendiensten reine und sticky Ein reiner Dienst ist ein Dienst bei dem jede Instanz Client Anforderungen beantworten kann Ein Sticky Dienst ist ein Dienst bei dem ein Client Anforderungen an dieselbe Instanz sendet Diese Anforderungen werden nicht an andere Instanzen umgeleitet Ein reiner Dienst verwendet ein gewichtetes Lastausgleichsverfahren Bei diesem Lastausgleichsverfahren werden Client Anforderungen standardm ig gleichm ig auf die Serverinstanzen im Cluster verteilt Angenommen jeder Knoten in einem Drei Knoten Cluster hat eine Gewichtung von 1 Jeder Knoten bedient 1 3 der Anforderungen aller beliebigen Clients im Auftrag des Dienstes Gewichtungen k nnen jederzeit vom Verwalter ber die scrgadm 1M Befehlsschnittstelle oder ber die GUI von SunPlex Manager ge ndert werden Ein Sticky Dienst hat zwei Typen normal sticky und Platzhalter Sticky Mit Sticky Diensten k nnen Sitzungen auf Anwendungsebene gleichzeitig ber mehrere TCP Verbindungen ausgef hrt werden
6. Eine Abbildung einer Zwei Knoten Cluster Konfiguration finden Sie unter Sun Cluster Hardware Environment in Sun Cluster berblick f r Solaris OS Cluster Knoten Ein Cluster Knoten ist ein Rechner auf dem sowohl die Solaris Betriebsumgebung als auch die Sun Cluster Software l uft und der entweder ein aktuelles ein Cluster Mitglied oder ein potenzielles Mitglied des Clusters ist SPARC Mit der Sun Cluster Software k nnen Sie zwei bis acht Knoten in einen Cluster einbinden Die unterst tzten Knotenkonfigurationen finden Sie unter SPARC Sun Cluster Topologiebeispiele auf Seite 30 x86 Die Sun Cluster Software erm glicht die Verwendung von zwei Knoten in einem Cluster Die unterst tzten Knoten Konfigurationen finden Sie unter x86 Sun Cluster Iopologiebeispiele auf Seite 34 Cluster Knoten sind im Allgemeinen an mindestens ein Multihost Ger t angeschlossen Nicht an Multihost Ger te angeschlossene Knoten verwenden das Cluster Dateisystem zum Zugriff auf die Multihost Ger te In einer Scalable Dienste Konfiguration k nnen die Knoten beispielsweise Anfragen abwickeln ohne direkt mit den Multihost Ger ten verbunden zu sein Daneben teilen Knoten in Konfigurationen paralleler Datenbanken den gleichzeitigen Zugriff auf alle Platten Weitere Informationen zu Konfigurationen paralleler Datenbanken finden Sie unter Multihost Ger te auf Seite 24 und Kapitel 3 Alle Knoten im Cluster sind unter einem gemeinsame
7. Beispiele f r Quorum Konfigurationen die vermieden werden sollten erhalten Sie unter Unzul ssige Quorum Konfigurationen auf Seite 64 Beispiele f r empfohlene Quorum Konfigurationen erhalten Sie unter Empfohlene Quorum Konfigurationen auf Seite 61 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Empfohlene Quorum Konfigurationen Beispiele f r Quorum Konfigurationen die vermieden werden sollten erhalten Sie unter Unzul ssige Quorum Konfigurationen auf Seite 64 Quorum in Zwei Knoten Konfigurationen Zwei Quorum Stimmen sind erforderlich damit ein Zwei Knoten Cluster gebildet werden kann Diese beiden Stimmen k nnen von den beiden Cluster Knoten kommen oder von nur einem der Knoten und einem Quorum Ger t Knoten A Knoten B 1 1 Quorum Gert Gesamte konfigurierte Stimmen 3 F r Quorum erforderliche Stimmen 2 ABBILDUNG 3 2 Zwei Knoten Konfiguration Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 61 62 Quorum in Konfigurationen mit mehr als zwei Knoten Es ist zul ssig einen Cluster mit mehr als zwei Knoten ohne Quorum Ger t zu konfigurieren Wenn Sie dies tun k nnen Sie den Cluster jedoch nur starten wenn der Cluster ber die Mehrheit der Knoten verf gt Knoten C Knoten D Knoten A Knoten B 1 1 1
8. Cluster Interconnect m Welche Cluster Interconnect werden vom SunPlex System unterst tzt Derzeit unterst tzt das SunPlex System Ethernet 100BASE T Fast Ethernet and 1000BASE SX Gb Cluster Interconnect in SPARC basierten und in x86 basierten Clustern Das SunPlex System unterst tzt die Cluster Interconnect f r die SCSI Netzwerkschnittstelle nur in SPARC basierten Clustern m Was ist der Unterschied zwischen einem Kabel und einem Transportpfad Cluster Transportkabel werden unter Verwendung von Transportadaptern und Schaltern konfiguriert Kabel verbinden Adapter und Schalter auf einer Komponente zu Komponenten Basis Der Cluster Topologie Manager setzt die verf gbaren Kabel ein um durchgehende von Ende zu Ende Transportpfade zwischen den Knoten aufzubauen Ein Kabel ist einem Transportpfad nicht direkt zugeordnet Kabel werden von einem Verwalter statisch aktiviert und deaktiviert Bei Kabeln gibt es einen Zustand aktiv oder inaktiv aber keinen Status Ein inaktives Kabel ist wie ein nicht konfiguriertes Kabel Inaktive Kabel k nnen nicht als Transportpfade eingesetzt werden Sie werden nicht getestet und deswegen ist ihr Status nicht bekannt Der Zustand eines Kabels kann mit scconf p angezeigt werden Transportpfade werden dynamisch durch den Cluster Topologie Manager festgelegt Der Status eines Transportpfades wird vom Topologie Manager bestimmt Ein Pfad kann den Status onlin
9. Der Algorithmus versucht die Fehlererkennungszeit einzuhalten doch die tats chlich ben tigte Zeit h ngt von der Netzwerklast ab Kapitel 4 H ufig gestellte Fragen H ufige Fragen zu Cluster Mitgliedern Muss das Root Passwort f r alle Cluster Mitglieder gleich sein Sie sind nicht gezwungen dasselbe Root Passwort f r jedes Cluster Mitglied zu verwenden Sie k nnen jedoch die Cluster Verwaltung vereinfachen wenn Sie auf allen Knoten dasselbe Root Passwort verwenden m Istes wichtig in welcher Reihenfolge die Knoten gebootet werden In den meisten F llen nicht Die Boot Reihenfolge ist jedoch wichtig um Amnesie zu verhindern Details zu Amnesie finden Sie unter Informationen zum Fehlerschutz auf Seite 56 Wenn Knoten Zwei zum Beispiel der Eigent mer des Quorum Ger ts war Knoten Eins nicht aktiv ist und Sie dann Knoten Zwei herunterfahren m ssen Sie Knoten Zwei vor Knoten Eins wieder hochfahren Damit wird verhindert dass Sie versehentlich einen Knoten mit veralteten Cluster Konfigurationsinformationen starten m M ssen lokale Platten in einem Cluster Knoten gespiegelt werden Ja Diese Spiegelung ist zwar keine Voraussetzung aber das Spiegeln der Platten der Cluster Knoten beugt einem Ausfall einer nicht gespiegelten Platte vor der einen Knotenausfall nach sich zieht Der Nachteil beim Spiegeln lokaler Platten eines Cluster Knotens ist ein erh hter Systemverwaltungsaufwand m Welche Sicherungsl sun
10. Multihost Ger te auf Seite 24 m Lokale Platten auf Seite 26 m Wechselmedien auf Seite 26 m Cluster Interconnect auf Seite 27 m ffentliche Netzwerkschnittstellen auf Seite 27 m Client Systeme auf Seite 28 m Konsolenzugriffsger te auf Seite 28 m Verwaltungskonsole auf Seite 29 m SPARC Sun Cluster Topologiebeispiele auf Seite 30 m x86 Sun Cluster Iopologiebeispiele auf Seite 34 SunPlex System Hardware und Softwarekomponenten Diese Informationen richten sich in erster Linie an Hardwaredienstleister Diese Konzepte helfen Dienstleistern dabei die Beziehungen zwischen den Hardwarekomponenten zu verstehen bevor sie Cluster Hardware installieren konfigurieren oder warten Auch f r Cluster Systemverwalter k nnen diese Informationen als Hintergrund f r das Installieren Konfigurieren und Verwalten von Cluster Software n tzlich sein Ein Cluster besteht aus mehreren Hardwarekomponenten einschlie lich m Cluster Knoten mit lokalen Platten nicht gemeinsam genutzt 21 Multihost Speicher von Knoten gemeinsam benutzte Platten Wechselmedien B nder und CD ROM Cluster Interconnect ffentliche Netzwerkschnittstellen Client Systeme Verwaltungskonsole Konsolenzugriffsger te Mit dem SunPlex System k nnen Sie diese Komponenten in unterschiedlichen Konfigurationen kombinieren die unter SPARC Sun Cluster Topologiebeispiele auf Seite 30 beschrieben sind
11. hren k nnen Sie eine weit ber einer Sekundenfraktion liegende Zeit nderung erzwingen um die Systemuhr mit der Zeitquelle zu synchronisieren Diese erzwungene nderung kann zu Problemen bei den Zeitmarken f r Datei nderungen oder beim NTP Dienst f hren Wenn Sie die Solaris Betriebsumgebung auf jedem Cluster Knoten installieren k nnen Sie die Standardeinstellung f r Zeit und Datum f r den Knoten ndern Im Allgemeinen k nnen Sie die werkseitigen Standardeinstellungen akzeptieren Wenn Sie die Sun Cluster Software mit scinstall 1M installieren wird in einem Prozessschritt auch das NTP f r den Cluster konfiguriert Die Sun Cluster Software stellt eine Vorlagendatei zur Verf gung ntp cluster siehe etc inet ntp cluster auf einem installierten Cluster Knoten die eine Peer Beziehung zwischen allen Cluster Knoten mit einem Knoten als bevorzugtem Knoten festlegt Knoten werden durch ihre privaten Hostnamen identifiziert und die Zeitsynchronisierung erfolgt ber den Cluster Interconnect Anweisungen f r die Konfiguration des Clusters f r NTP erhalten Sie unter Installieren und Konfigurieren der Software Sun Cluster im Sun Cluster Handbuch Softwareinstallation f r Solaris OS Alternativ k nnen Sie einen oder mehrere NTP Server au erhalb des Clusters einrichten und die ntp conf Datei ndern um diese Konfiguration wiederzugeben Im Normalbetrieb sollten Sie die Cluster Zeit niemals anpassen m ssen Wenn jedoch
12. vor Knoten und Einzelplattenversagen Fragen und Antworten zum Multihostspeicher finden Sie in Kapitel 4 Multi Initiator SCSI Dieser Abschnitt betrifft nur SCSI Speicherger te und keine Glasfaserkanal Speicher die f r Multihost Ger te eingesetzt werden Auf einem Standalone Server steuert der Serverknoten die SCSI Busaktivit ten durch die SCSI Host Adapterschaltung die diesen Server mit einem bestimmten SCSI Bus verbindet Diese SCSI Host Adapterschaltung wird als SCSI Initiator bezeichnet Die Schaltung initiiert alle Busaktivit ten f r diesen SCSI Bus Die SCSI Standardadresse der SCSI Host Adapter in Sun Systemen ist 7 Cluster Konfigurationen teilen ihren Speicher unter Verwendung von Multihost Ger ten auf mehrere Serverknoten auf Wenn der Cluster Speicher aus symmetrischen oder unsymmetrischen SCSI Ger ten besteht wird die Konfiguration als Multi Initiator SCSI bezeichnet Wie aus dieser Terminologie hervorgeht ist mehr als ein SCSI Initiator auf dem SCSI Bus vorhanden ist Die SCSI Spezifikation erfordert dass jedes Ger t im SCSI Bus eine einmalige SCSI Adresse hat Der Host Adapter ist ebenfalls ein Ger t im SCSI Bus Die Standard Hardwarekonfiguration f hrt in einer Multi Initiator Umgebung zu einem Konflikt weil alle SCSI Host Adapter standardm ig auf 7 gesetzt werden Lassen Sie zur Beseitigung dieses Konflikts auf jedem SCSI Bus einen der SCSI Host Adapter mit der SCSI Adtesse 7 und stellen Sie f r die
13. Anwendung zur Verf gung steht kann sich jedoch je nach Anzahl der Anteile ndern die jedem Prozess mit CPU Zeit Bedarf zugewiesen werden Normalbetrieb 4 Anteile 1 Anteil 100 CPU ANW AnWw a 100 CPU Ressourcen geh rt zu RG 1 geh rt zu RG 2 Ressourcen j phys schost 1 phys schost 2 u Failover Betrieb Ausfall von Knoten phys schost 1 4 Anteil woz Anw 80 CPU N 4 geh rt zu RG 1 R essourcen IN VEN A 3 1 Anteil lie L 20 CPU geh rt zu RG 2 Ressourcen phys schost 1 phys schost 2 Zwei Knoten Cluster mit drei Anwendungen Auf einem Zwei Knoten Cluster mit drei Anwendungen k nnen Sie einen realen Host phys schost 1 als Standard Master f r eine Anwendung und den zweiten realen Host phys schost 2 als Standard Master f r die restlichen zwei Anwendungen konfigurieren Im folgenden Beispiel wird davon ausgegangen dass die Projekt Datenbankdatei auf jedem Knoten vorhanden ist Die Projekt Datenbankdatei wird bei einem Failover oder Switchover nicht ge ndert Prj_1 103 project for App 1l root project cpu shares privileged 5 none Prj_2 104 project for App _2 root project cpu shares privileged 3 none 86 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Prj_3 105 project for App _3 root project cpu shares privileged 2 none Im normalen Cluster Betrieb sind der Anwend
14. Cluster ben tigt Multihostspeicher f r Zwei Knoten Cluster zur Einrichtung des Quorums Cluster mit mehr als drei Knoten ben tigen keinen Multihostspeicher Multihost Ger te haben folgende Eigenschaften m Sie tolerieren das Versagen einzelner Knoten m Sie speichern Anwendungsdaten und k nnen auch bin re Anwendungsdateien und Konfigurationsdateien speichern m Sie sch tzen vor Knotenversagen Wenn Client Anfragen ber einen Knoten auf Daten zugreifen und dieser Knoten ausf llt werden die Anfragen umgeschaltet und ber einen anderen Knoten abgewickelt der mit denselben Platten direkt verbunden ist 24 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A m Der Zugriff erfolgt entweder global ber einen Prim rknoten der die Platten unterst tzt oder durch einen direkten gleichzeitigen Zugriff ber lokale Pfade Die derzeit einzige Anwendung die mit direkten gleichzeitigen Zugriffen arbeitet ist Oracle Real Application Clusters Ein Datentr ger Manager sorgt bei gespiegelten oder RAID 5 Konfigurationen f r die Datenredundanz der Multihost Ger te Derzeit unterst tzt Sun Cluster die Datentr ger Manager Solaris Volume Manager und VERITAS Volume Manager der in ausschlie lich SPARC basierten Clustern eingesetzt werden kann sowie den RDAC RAID 5 Hardware Controller auf verschiedenen RAID Hardwareplattformen Die Kombination aus Multihost Ger ten und Plattenspiegelung sowie Striping sch tzt
15. Failback Einstellungen Ressourcengruppen wechseln beim Failover von einem Knoten auf einen anderen In diesem Fall wird der urspr ngliche Sekund rknoten zum neuen Prim rknoten Die Failback Einstellungen legen die Aktionen fest die ausgef hrt werden sobald der urspr ngliche Prim rknoten wieder online gebracht wird Die Optionen sind entweder den urspr nglichen Prim rknoten wieder zum Prim rknoten zu machen Failback oder den aktuellen Prim rknoten als solchen zu belassen Sie geben die gew nschte Option mit der Einstellung der Failback Ressourcengruppeneigenschaft an Bei bestimmten Instanzen kann die Failback Einstellung zu einer reduzierten Verf gbarkeit der Ressourcengruppe f hren wenn der Originalknoten mit der Ressource ausf llt und mehrmals neu bootet Fehler Monitore der Datendienste Jeder SunPlex Datendienst stellt einen Fehler Monitor zur Verf gung der regelm ig den Datendienst auf einwandfreies Funktionieren pr ft Ein Fehler Monitor pr ft ob der bzw die Anwendungsd mon en ausgef hrt und die Clients bedient werden Aufgrund der von den Testsignalen zur ckgebenen Informationen k nnen vordefinierte Aktionen wie ein Neustart eines D mons oder das Einleiten eines Failovers ausgel st werden 72 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Entwickeln von neuen Datendiensten Sun stellt Vorlagen f r Konfigurationsdateien und Verwaltungsmethoden zur Verf gung mit denen S
16. Mit cconsole im CCP k nnen Sie mehr als eine Knotenkonsole gleichzeitig verbinden Weitere Informationen zur Verwendung des CCP finden Sie im Sun Cluster System Administration Guide Die Verwaltungskonsole ist kein Cluster Knoten Sie setzen die Verwaltungskonsole f r den Remote Zugriff auf Cluster Knoten entweder ber ffentliche Netzwerke oder optional ber einen netzwerkbasierten Terminal Konzentrator ein Wenn Ihr Cluster aus der Sun Enterprise E10000 Plattform besteht m ssen Sie die M glichkeit haben sich von der Verwaltungskonsole aus beim System Service Processor SSP anzumelden und die Verbindung mit dem Befehl netcon 1M herzustellen In der Regel konfigurieren Sie die Knoten ohne Monitore Dann greifen Sie mit einer telnet Sitzung von der Verwaltungskonsole aus die mit einem Terminal Konzentrator verbunden ist auf die Konsole des Knotens zu und vom Terminal Konzentrator aus auf den seriellen Port des Knotens Bei einem Sun Enterprise E10000 server stellen Sie die Verbindung ber den System Service Processor her Weitere Informationen finden Sie unter Konsolenzugriffsger te auf Seite 28 Sun Cluster erfordert zwar keine dedizierte Verwaltungskonsole aber diese bietet folgende Vorteile m Sie erm glicht eine zentralisierte Cluster Verwaltung durch das Gruppieren von Konsolen und Verwaltungstools auf demselben Rechner m Sie sorgt f r eine potenziell schnellere Probleml sung durch Ihren Hardware Dienstleister
17. Pseudotreiber ist fester Bestandteil der Zugriffsfunktion auf globale Ger te des Clusters Der DID Treiber testet alle Knoten des Clusters erstellt eine Liste von einmaligen Plattenger ten und weist jeder Platte eine einmalige Ger teklassen und Ger tenummer zu die auf allen Knoten des Clusters konsistent ist Der Zugriff auf globale Ger te erfolgt mithilfe der einmaligen vom DID Treiber zugewiesenen Ger te ID anstelle der herk mmlichen Solaris Ger te IDs wie c0t odo f r eine Platte Dieser Ansatz stellt sicher dass jede auf Platten zugreifende Anwendung wie Datentr ger Manager oder Anwendungen die im raw Modus betriebene Ger te verwenden im ganzen Cluster einen konsistenten Pfad verwenden Diese Konsistenz ist besonders bei Multihostplatten wichtig weil die lokale Ger teklassen und Ger tenummern f r jedes Ger t von Knoten zu Knoten unterschiedlich sein kann und sich damit auch die Solaris Konventionen zur Ger tebenennung ndern Knoteni kann eine Multihostplatte zum Beispiel als c1t2d0 f hren w hrend Knoten2 dieselbe Platte vollkommen anders n mlich als c3t2d0 f hrt Der DID Treiber weist einen globalen Namen zu wie d10 den der Knoten statt dessen verwendet und gibt jedem Knoten eine konsistente Zuordnung zur Multihostplatte Sie aktualisieren und verwalten die Ger te IDs mithilfe von scdidadm 1M und scgdevs 1M Weitere Informationen erhalten Sie auf den folgenden Man Pages m scdidadm 1M m scgdevs 1M 42
18. Sie k nnen auto boot mit eeprom 1M an der OpenBoot PROM ok Eingabeaufforderung einstellen Cluster Konfigurations Repository CCR Das CCR verwendet f r Aktualisierungen einen Zwei Phasen Commit Algorithmus Eine Aktualisierung muss auf allen Cluster Mitgliedern erfolgreich abgeschlossen werden sonst wird die Aktualisierung zur ckgenommen Das CCR verwendet den Cluster Interconnect f r die Umsetzung der verteilten Aktualisierungen Caution Das CCR besteht zwar aus Textdateien aber Sie d rfen die CCR Dateien unter keinen Umst nden manuell bearbeiten Jede Datei enth lt einen Pr fsummeneintrag um die Konsistenz zwischen den Knoten zu sichern Eine manuell Aktualisierung der CCR Dateien kann dazu f hren dass ein Knoten oder der ganze Cluster nicht mehr funktioniert Das CCR stellt mithilfe des CMM sicher dass ein Cluster nur mit einem festgelegten Quorum l uft Das CCR ist daf r zust ndig die Datenkonsistenz im ganzen Cluster zu berpr fen eine ggf erforderliche Wiederherstellung durchzuf hren und Aktualisierungen f r die Daten bereitzustellen Globale Ger te Das SunPlex System verwendet globale Ger te um einen Cluster weiten hoch verf gbaren Zugriff auf alle Ger te innerhalb eines Clusters von jedem Knoten aus zur Verf gung zu stellen und zwar unabh ngig davon wo das Ger t real angeschlossen ist Wenn ein Knoten ausf llt w hrend er Zugriff auf ein globales Ger t bietet erkennt die Sun Cluster Softw
19. Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Plattenger tegruppen Im SunPlex System m ssen alle Multihostger te von der Sun Cluster Software gesteuert werden Sie erstellen zun chst die Plattengruppen des Datentr ger Managers entweder Solaris Volume Manager Plattens tze oder VERITAS Volume Manager Plattengruppen nur in SPARC basierten Clustern verf gbar auf den Multihostplatten Dann registrieren Sie die Datentr ger Manager Plattengruppen als Plattenger tegruppen Eine Plattenger tegruppe ist ein globaler Ger tetyp Zudem erstellt die Sun Cluster Software automatisch eine im raw Modus betriebene Plattenger tegruppe f r jedes Platten und Bandger t im Cluster Diese Cluster Ger tegruppen bleiben jedoch im Offline Zustand bis Sie darauf als globale Ger te zugreifen Die Registrierung liefert dem SunPlex System Informationen zu den Pfaden zwischen Knoten und Datentr ger Manager Plattengruppen An diesem Punkt werden Datentr ger Manager Plattengruppen innerhalb des Clusters global zug nglich Wenn mehrere Knoten in eine Plattenger tegruppe schreiben k nnen die Gruppe unterst tzen k nnen werden die in dieser Plattenger tegruppe gespeicherten Daten hoch verf gbar Die hoch verf gbare Plattenger tegruppe kann zum Hosten von Cluster Dateisystemen verwendet werden Hinweis Plattenger tegruppen sind von Ressourcengruppen unabh ngig Ein Knoten kann eine Ressourcengruppe die eine Gruppe
20. Volume Manager oder VERITAS Volume Manager Ausgenommen sind Konfigurationen die Hardware RAID Hardware Redundant Array of Independent Disks verwenden Diese Konfiguration ben tigt ggf keinen Software Datentr ger Manager wie Solaris Volume Manager oder VERITAS Volume Manager Im Sun Cluster Software Installationshandbuch f r Solaris OS finden Sie Informationen zur Installation der Solaris Betriebsumgebung von Sun Cluster und der Datentr gerverwaltungs Software m Informationen zur Installation und Konfiguration der Datendienste finden Sie im Sun Cluster Data Services Planning and Administration Guide for Solaris OS m Konzeptionelle Informationen zu den vorgenannten Softwarekomponenten finden Sie in Kapitel 3 Die nachstehende Abbildung bietet einen groben berblick ber die Softwarekomponenten die zusammen die Sun Cluster Softwareumgebung bilden Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 23 Datendienstsoftware Benutzer Kernel Sun Cluster Software Datentr gerverwaltungs Software Solaris Betriebsumgebung ABBILDUNG 2 1 Die grobe Beziehung der Sun Cluster Softwarekomponenten Fragen und Antworten zu Cluster Mitgliedern finden Sie in Kapitel 4 Multihost Ger te Platten die mit mehr als einem Knoten gleichzeitig verbunden werden k nnen sind Multihost Ger te In einer Sun Cluster Umgebung sorgt die Multihostspeicherung f r hoch verf gbare Platten Sun
21. Wenn die Gewichtung f r einen Knoten nicht ausdr cklich angegeben ist betr gt die Standardgewichtung f r diesen Knoten Eins Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 71 Das gewichtete Verfahren leitet einen gewissen Prozentsatz des Datenverkehrs von Clients auf einen bestimmten Knoten Bei X Gewichtung und A Gesamtgewichtung aller aktiven Knoten ist davon auszugehen dass etwa X A aller neuen Verbindungen zu einem aktiven Knoten geleitet werden wenn die Gesamtanzahl der Verbindungen gro genug ist Dieses Verfahren befasst sich nicht mit einzelnen Anforderungen Beachten Sie dass es sich nicht um ein Round Robin Verfahren handelt Bei einem Round Robin Verfahren w rde jede Anforderung eines Clients an einen unterschiedlichen Knoten geleitet die erste Anforderung an Knoten 1 die zweite Anforderung an Knoten 2 und so weiter m Sticky Bei diesem Verfahren ist der Satz an Ports bei der Konfiguration der Anwendungsressourcen bekannt Dieses Verfahren wird mit dem LB_STICKY Wert der Load_balancing_policy Ressourceneigenschaft eingestellt m Sticky Platzhalter Dieses Verfahren ist eine Obermenge des normalen Sticky Verfahrens Bei einem durch die IP Adresse identifizierten Scalable Dienst werden die Ports vom Server zugewiesen und sind vorher nicht bekannt Die Ports k nnen sich ndern Dieses Verfahren wird mit dem LB_STICKY_WILDWert der Load_balancing_policy Ressourceneigenschaft eingestellt
22. alle Cluster Dateisysteme unter demselben Verzeichnis vereinfachen wie global Plattenger tegruppe Weitere Informationen erhalten Sie in der Sun Cluster 3 1 9 04 Software Collection for Solaris OS SPARC Platform Edition und im Sun Cluster System Administration Guide for Solaris OS HAStoragePlus Ressourcentyp Der HAStoragePlus Ressourcentyp ist darauf ausgelegt nicht globale Dateisystemkonfigurationen wie UFS und VxFS hoch verf gbar zu machen Mit HAStoragePlus integrieren Sie das lokale Dateisystem in die Sun Cluster Umgebung und machen das Dateisystem hoch verf gbar HAStoragePlus stellt zus tzliche Dateisystemfunktionen wie Pr fen Einh ngen und erzwungenes Aush ngen zur Verf gung mit denen Sun Cluster bei lokalen Dateisystemen ein Failover durchf hren kann Zum Ausf hren eines Failover Vorgangs muss sich das lokale Dateisystem auf globalen Plattengruppen mit aktivierten Affinit ts Switchover befinden Unter Enabling Highly Available Local File Systems in Sun Cluster Data Services Planning and Administration Guide for Solaris OS finden Sie Informationen zum Konfigurieren des HAStoragePlus Ressourcentyps HAStoragePlus kann auch zum Synchronisieren beim Start von Ressourcen und Plattenger tegruppen von denen die Ressourcen abh ngen eingesetzt werden Weitere Informationen finden Sie unter Ressourcen Ressourcengruppen und Ressourcentypen auf Seite 77 Syncdir Einh ngeoption Die syncdir Einh ngeoption kann
23. ausgef hrt und zeigt eine bessere Hochverf gbarkeit Client Server Standardanwendung Client Workstation Anwendungsserver 0 Geclusterte Client Server Anwendung Client Workstation Geclusterte Anwendungsserver x ABBILDUNG 3 4 Standardkonfiguration versus Client Server Konfiguration als Cluster Beim Einzelservermodell konfigurieren Sie die Anwendung f r den Zugriff auf den Server ber eine bestimmte ffentliche Netzwerkschnittstelle einen Hostnamen Der Hostname ist diesem realen Server zugeordnet Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 65 Beim geclusterten Servermodell ist die ffentliche Netzwerkschnittstelle ein logischer Hostname oder eine gemeinsam genutzte Adresse Der Begriff Netzwerkressourcen bezeichnet sowohl die logischen Hostnamen als auch die gemeinsam genutzten Adressen F r bestimmte Datendienste m ssen Sie entweder logische Hostnamen oder gemeinsam genutzte Adressen als Netzwerkschnittstellen angeben sie sind nicht austauschbar F r andere Datendienste k nnen Sie wahlweise logische Hostnamen oder gemeinsam genutzte Adressen angeben Details zum jeweils erforderlichen Schnittstellentyp finden Sie in den Angaben zur Installation und Konfiguration f r den jeweiligen Datendienst Eine Netzwerkressource ist keinem spezifischen realen Server zugeordnet sie kann zwischen den realen Servern migrieren Ei
24. die C Shell die Bourne Shell und die Korn Shell 8 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A TABELLE P 2 Shell Eingabeaufforderungen Shell Eingabeaufforderung C Shell Eingabeaufforderung Rechnername C Shell Superbenutzer Eingabeaufforderung Rechnername Bourne Shell und Korn Shell Eingabeaufforderung Bourne Shell und Korn Shell Superbenutzer Eingabeaufforderung Verwandte Dokumentation Informationen zu verwandten Sun Cluster Themen finden Sie in der Dokumentation die in der folgenden Tabelle genannt ist Au erdem stehen s mtliche Sun Cluster Dokumentationen unter http docs sun com zur Verf gung Thema Dokumentation berblick Sun Cluster berblick f r Solaris OS Konzepte Sun Cluster Konzepthandbuch f r Solaris OS Hardware Installation und Verwaltung Softwareinstallation Datendienstinstallation und verwaltung Datendienstentwicklung Systemverwaltung Fehlermeldungen Befehle und Funktionen Sun Cluster 3 x Hardware Administration Manual for Solaris OS Einzelne Hardwareverwaltungshandb cher Sun Cluster Handbuch Softwareinstallation f r Solaris OS Planungs und Verwaltungshandbuch f r den Sun Cluster Datendienst f r Solaris OS Einzelne Datendiensthandb cher Sun Cluster Entwicklerhandbuch Datendienste f r Solaris OS Sun Cluster Handbuch Systemverwaltung f r Solaris OS Sun Cluster Error Messages Guide for Solaris OS Sun Cluste
25. einem Ger teknoten im Dateisystem global devices node Knoten ID ersetzt wobei Knoten ID als Ganzzahl f r den Knoten im Cluster steht Die Sun Cluster Software zeigt die Datentr ger Manager Ger te auch weiterhin als symbolische Verkn pfungen an ihren Standard Speicherorten an Sowohl der globale Namensraum als auch der Datentr ger Manager Namensraum sind auf jedem Cluster Knoten verf gbar Zu den Vorteilen des globalen Namensraumes geh rt Folgendes m Jeder Knoten bleibt ziemlich unabh ngig und es gibt nur geringf gige nderungen im Ger teverwaltungsmodell m Ger te k nnen selektiv global gemacht werden m Verkn pfungsgeneratoren von Drittherstellern arbeiten weiterhin m Nach Vergabe eines lokalen Ger tenamens erfolgt eine einfache Zuordnung um den entsprechenden globalen Namen zu erhalten 46 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Beispiel f r lokale und globale Namensr ume Die nachstehende Tabelle zeigt die Zuordnungen zwischen lokalen und globalen Namensr umen f r eine Multihostplatte cot0dos0 TABELLE 3 2 Zuordnungen von lokalen und globalen Namensr umen Komponente Pfad Lokaler Knoten Namensraum Globaler Namensraum Logischer Solaris Name dev dsk c0t0d0sO0 global devices node Knoten ID dev dsk c0t0d0s0 DID Name dev did dsk d0sO global devices node Knoten ID aev did dsk d0s0 Solaris Volume Manager dev md global devices nodes Plattensatz dsk d0 Knote
26. et Sun a t d velopp e par Sun Microsystems Inc pour ses utilisateurs et licenci s Sun reconna t les efforts de pionniers de Xerox pour la recherche et le d veloppement du concept des interfaces d utilisation visuelle ou graphique pour l industrie de l informatique Sun d tient une licence non exclusive de Xerox sur l interface d utilisation graphique Xerox cette licence couvrant galement les licenci s de Sun qui mettent en place l interface d utilisation graphique OPEN LOOK et qui en outre se conforment aux licences crites de Sun CETTE PUBLICATION EST FOURNIE EN L ETAT ET AUCUNE GARANTIE EXPRESSE OU IMPLICITE N EST ACCORDEE Y COMPRIS DES GARANTIES CONCERNANT LA VALEUR MARCHANDE L APTITUDE DE LA PUBLICATION A REPONDRE A UNE UTILISATION PARTICULIERE OU LE FAIT QU ELLE NE SOIT PAS CONTREFAISANTE DE PRODUIT DE TIERS CE DENI DE GARANTIE NE S APPLIQUERAIT PAS DANS LA MESURE OU IL SERAIT TENU JURIDIQUEMENT NUL ET NON AVENU oO 7 g Adobe PostScript Q 041124 10536 Inhalt Vorwort 7 Einf hrung und berblick 13 Einf hrung in das SunPlex System 14 Drei Aspekte des SunPlex Systems 14 Hardwareinstallation und Service 15 Systemverwalter 16 Anwendungsprogrammierer 17 SunPlex Systemaufgaben 18 Schl sselkonzepte Hardwaredienstleister 21 SunPlex System Hardware und Softwarekomponenten Cluster Knoten 22 Multihost Ger te 24 Lokale Platten 26 Wechselmedien 26 Cluster Interconnect 27 ffentlic
27. f r auf UFS basierende Cluster Dateisysteme verwendet werden Sie erzielen jedoch eine wesentliche bessere Leistung wenn Sie syncdir nicht angeben Bei Angabe von syncdir sind die Eintr ge garantiert POSIX konform Wird die Option nicht angegeben verh lt sich das System wie ein NFS Dateisystem In einigen F llen w rden Sie ohne syncdir fehlende Speicherkapazit t zum Beispiel erst beim Schlie en der Datei feststellen Mit syncdir Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 49 und POSIX Verhalten w re das Fehlen von Speicherplatz w hrend des Schreibvorgangs erkannt worden Es treten selten Probleme auf wenn Sie syncdir nicht angeben Wir empfehlen Ihnen deswegen auf die Angabe von syncdir zu verzichten und den Leistungsgewinn zu nutzen Wenn Sie einen SPARC basierten Cluster verwenden hat Veritas VxFS keine Einh ngeoption die der Einh ngeoption syncdir f r UFS entspricht Das VxFS Verhalten entspricht dem UFS Verhalten wenn die syncdir Einh ngeoption nicht angegeben wurde H ufig gestellte Fragen zu globalen Ger ten und Cluster Dateisystemen finden Sie unter H ufige Fragen zu Dateisystemen auf Seite 98 Plattenpfad berwachung Die derzeitige Version der Sun Cluster Software unterst tzt die Plattenpfad berwachung DPM Dieser Abschnitt liefert konzeptionelle Informationen zu DPM zum DPM D mon und zu den Verwaltungstools f r die Plattenpfad berwachung Verfahrenstechnische Infor
28. gemeinsam genutzten Platten aus Wenn der Knoten ohne Quorum nun versucht auf die gemeinsam genutzten Platten zuzugreifen erh lt er einen Reservierungskonflikt als Antwort und ger t infolge des Failfast Mechanismus in Panik Nach der Panik kann der Knoten neu booten und versuchen dem Cluster wieder beizutreten oder in Clustern aus SPARC basierten Systemen an der OpenBoot PROM OBP Eingabeaufforderung bleiben Welche Aktion eingeleitet wird bestimmt Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 57 die Einstellung des auto boot Parameters Sie k nnen auto boot mit eeprom 1M in einem SPARC basierten Cluster an der OpenBoot PROM ok Eingabeaufforderung einstellen oder mit dem SCSI Dienstprogramm das Sie optional nach dem Starten der Bios in einem x86 basierten Cluster ausf hren Informationen zu Quorum Konfigurationen Die folgende Liste enth lt Informationen zu Quorum Konfigurationen m OQuorum Ger te k nnen Benutzerdaten enthalten m In einer N 1 Konfiguration bei der N Quorum Ger te jeweils mit einem der 1 bis N Knoten und dem N 1 Knoten verbunden sind berlebt der Cluster den Ausfall entweder aller 1 bis N Knoten oder eines beliebigen der N 2 Knoten Bei dieser Verf gbarkeit wird vorausgesetzt dass das Quorum Ger t ordnungsgem funktioniert m In einer N Knoten Konfiguration bei der ein einzelnes Quorum Ger t mit allen Knoten verbunden wird kann der Cluster den Ausfall s mtlicher
29. in SPARC basierten Clustern verf gbar ist Globales Ger t Prim r und Mehrere Pfade zum Ger t Sekund rknotenreplikate Cluster Transportverbindungspunkte Privates HA Transportsoftware Mehrere private Netzwerk hardwareunabh ngige Netzwerke Knoten CMM Failfast Treiber Mehrere Knoten Das Hochverf gbarkeits Framework der Sun Cluster Software erkennt einen Knotenfehler schnell und erstellt einen neuen gleichwertigen Server f r die Framework Ressourcen auf einem anderen Knoten im Cluster Zu keiner Zeit sind alle Framework Ressourcen nicht verf gbar Framework Ressourcen die von einem abgest rzten Knoten nicht betroffen sind sind w hrend der Wiederherstellung voll verf gbar Dar ber hinaus sind die Framework Ressourcen des ausgefallenen Knotens wieder verf gbar sobald sie wiederhergestellt sind Eine wiederhergestellte Framework Ressource muss nicht warten bis die Wiederherstellung aller anderen Framework Ressourcen abgeschlossen ist Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 39 Die meisten hoch verf gbaren Framework Ressourcen werden f r die Anwendungen Datendienste die sie verwenden transparent wieder hergestellt Die Semantik des Framework Ressourcenzugriffs bleibt bei einem Knotenfehler vollst ndig erhalten Die Anwendungen nehmen einfach nicht wahr dass der Framework Ressourcenserver auf einen anderen Knoten verschoben wurde Das Versagen eines einzigen Knotens ist f r die Programme
30. scdpmd Befehlszeilenschnittstelle usr cluster bin scdpm Gemeinsam genutzte Bibliotheken user cluster lib libscdpm so D mon Statusdatei zur Laufzeit erstellt var run cluster scdpm status Ein Multithread DPM D mon wird auf jedem Knoten ausgef hrt Der DPM D mon scdpmd wird durch ein rc d Skript gestartet wenn ein Knoten bootet Wenn ein Problem auftritt wird der D mon von pmfd verwaltet und startet automatisch neu In der nachstehenden Liste wird die Arbeitsweise von scdpmd beim ersten Start beschrieben Hinweis Beim Start wird der Status f r jeden Plattenpfad auf UNKNOWN initialisiert 1 Der DPM D mon sammelt Plattenpfad und Knotennameninformationen aus der vorherigen Statusdatei oder aus der CCR Datenbank Weitere Informationen zum CCR finden Sie unter Cluster Konfigurations Repository CCR auf Seite 41 Nach dem Start eines DPM D mons k nnen Sie den D mon zwingen die Liste der berwachten Platten aus einer angegebenen Datei zu lesen 2 Der DPM D mon initialisiert die Kommunikationsschnittstelle um Anforderungen von Komponenten zu beantworten die au erhalb des D mons liegen wie die Befehlszeilenschnittstelle 3 Der DPM D mon pingt jeden Plattenpfad der berwachten Liste alle 10 Minuten mit dem Befehl scsi_inquiry an Die Eintr ge werden gesperrt um die Kommunikationsschnittstelle daran zu hindern auf einen Eintrag zuzugreifen der gerade ge ndert wird 4 Der DPM D mon benachrichtigt das S
31. synchronisieren Dateisperren werden sofort von allen den Cluster verlassenden Knoten und von allen gesperrten und fehlgeschlagenen Anwendungen aufgehoben m Kontinuierlicher Datenzugriff ist auch bei Ausf llen gesichert Anwendungen sind von den Ausf llen nicht betroffen solange noch ein Pfad zu den Platten funktionsf hig ist Diese Garantie gilt f r den Plattenzugriff im raw Modus und f r alle Dateisystemvorg nge m Cluster Dateisysteme sind vom zugrunde liegenden Dateisystem und von der Datentr gerverwaltung unabh ngig Cluster Dateisysteme machen jedes unterst tzte auf den Platten vorhandene Dateisystem global Sie k nnen ein Dateisystem mit mount g global oder mit mount lokal auf einem globalen Ger t einh ngen Programme k nnen auf die Dateien in einem Cluster Dateisystem von jedem Knoten im Cluster aus und mit demselben Dateinamen zugreifen zum Beispiel global f oo Ein Cluster Dateisystem wird auf allen Cluster Mitgliedern eingeh ngt Sie k nnen ein Cluster Dateisystem nicht auf einer Untermenge von Cluster Mitgliedern einh ngen Ein Cluster Dateisystem ist kein anderer Typ von Dateisystem Das bedeutet der Client sieht das zugrunde liegende Dateisystem zum Beispiel UFS Verwenden von Cluster Dateisystemen Im SunPlex System sind alle Multihostplatten in Plattenger tegruppen eingebunden Hierbei kann es sich um Solaris Volume Manager Plattens tze VxVM Plattengruppen oder einzelne Platten handeln die ni
32. vier Knoten Knoten 3 und Knoten 4 den Cluster Interconnect f r den Speicherzugriff verwenden Diese Konfiguration kann um zus tzliche Knoten erweitert werden die keinen direkten Zugriff auf den gemeinsam genutzten Speicher haben Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 31 YVertindungspurkt YVerbindungspurkt Speicher Speicher ABBILDUNG 2 3 SPARC Paar N Iopologie SPARC N 1 Stern Topologie Eine N 1 Topologie umfasst mehrere Prim rknoten und einen Sekund rknoten Sie m ssen die Prim rknoten und den Sekund rknoten nicht identisch konfigurieren Die Prim rknoten stellen aktiv Anwendungsdienste zur Verf gung Der Sekund rknoten muss sich nicht im Leerlauf befinden w hrend er auf den Ausfall eines Prim rknotens wartet Der Sekund rknoten ist der einzige Knoten in der Konfiguration der real mit dem ganzen Multihostspeicher verbunden ist Wenn ein Fehler in einem Prim rknoten auftritt f hrt Sun Cluster ein Failover der Ressourcen auf den Sekund rknoten durch auf dem die Ressourcen bleiben bis sie entweder automatisch oder manuell wieder auf den Prim rknoten umgeschaltet werden Der Sekund rknoten muss immer ber eine ausreichende CPU berkapazit t verf gen um die Last bernehmen zu k nnen falls einer der Prim rknoten ausf llt Die nachstehende Abbildung stellt eine N 1 Konfiguration dar 32 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A
33. von Datendienstprozessen darstellt unterst tzen w hrend ein anderer die Plattengruppe n unterst tzen kann auf welche die Datendienste zugreifen Das optimale Vorgehen besteht aber darin die Plattenger tegruppe zur Speicherung bestimmter Anwendungsdaten und die Ressourcengruppe mit den Anwendungsressourcen Anwendungsd mon auf demselben Knoten zu speichern Weitere Informationen ber die Zuordnung zwischen Ressourcengruppen und Plattenger tegruppen finden Sie unter Beziehung zwischen Ressourcengruppen und Plattenger tegruppen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS Mit einer Plattenger tegruppe wird die Datentr ger Manager Plattengruppe global weil sie Multipathing f r die dazugeh rigen Platten unterst tzt Jeder mit den Multihostplatten real verbundener Cluster Knoten stellt einen Pfad zur Plattenger tegruppe zur Verf gung Plattenger tegruppen Failover Auf alle Plattenger tegruppen in einem Geh use kann ber einen alternativen Pfad zugegriffen werden wenn der derzeitige Knoten Master der Ger tegruppe ausf llt weil ein Plattengeh use an mehrere Knoten angeschlossen ist Der Ausfall des Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 43 Knotens der als Ger tegruppen Master fungiert beeintr chtigt den Zugriff auf die Ger tegruppe nur w hrend der Zeitspanne die zur Ausf hrung der Wiederherstellungs und Konsistenzpr fung erforderlich i
34. 2 Fehler Monitore der Datendienste 72 4 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Entwickeln von neuen Datendiensten 73 Datendienst API und API der Datendienst Entwicklungsbibliothek 74 Verwenden des Cluster Interconnect f r den Datendienstverkehr 75 Ressourcen Ressourcengruppen und Ressourcentypen 77 Resource Group Manager RGM 78 Zust nde und Einstellungen f r Ressourcen und Ressourcengruppen 78 Ressourcen und Resourcengruppeneigenschaften 80 Datendienst Projektkonfiguration 80 Bestimmen der Anforderungen der Projektkonfiguration 83 Einstellen virtueller Speicherbegrenzungen f r Prozesse 84 Failover Szenarien 84 ffentliche Netzwerkadapter und IP Network Multipathing 90 SPARC Unterst tzung der dynamischen Rekonfiguration 91 SPARC Allgemeine Beschreibung der dynamischen Rekonfiguration 92 SPARC Erw gungen zur DR von CPU Ger ten im Cluster 93 SPARC Erw gungen zur DR von Speichern im Cluster 93 SPARC Erw gungen zur DR von Platten und Bandlaufwerken im Cluster 93 SPARC Erw gungen zur DR von Quorum Ger ten im Cluster 94 SPARC Erw gungen zur DR von Cluster Interconnect Schnittstellen im Cluster 94 SPARC Erw gungen zur DR von ffentlichen Netzwerkschnittstellen im Cluster 94 H ufig gestellte Fragen 97 H ufig gestellte Fragen zur Hochverf gbarkeit 97 H ufige Fragen zu Dateisystemen 98 H ufige Fragen zur Datentr gerverwaltung 99 H ufige Fragen zu Datendiensten 100 H ufige Fra
35. 29 CMM 40 Failfast Mechanismus 40 Siehe auch Failfast CPU Zeit 80 D Dateisperrung 48 Dateisystem Cluster 47 98 Cluster Dateisystem 98 Datenspeicher 98 Einh ngen 47 98 FAQ 98 Global 98 Hochverf gbarkeit 98 Lokal 49 NFS 49 98 syncdir 49 UFS 49 VxFS 49 Dateisysteme Verwenden 48 Daten Speichern 98 Datendienste 65 66 APIs 73 Bibliotheks API 74 Cluster Interconnect 75 Entwickeln 73 Failover 68 FAQ 100 Fehler Monitor 72 Hoch verf gbar 40 Konfiguration 80 Methoden 68 Ressourcen 77 Datendienste Fortsetzung Ressourcengruppen 77 Ressourcentypen 77 Scalable 68 Unterst tzt 100 Datentr gerverwaltung FAQ 99 Lokale Platten 99 Multihost Ger te 25 Multihostplatten 99 Namensraum 46 RAID 5 99 Solaris Volume Manager 99 VERITAS Volume Manager 99 dev global Namensraum 46 DID 42 DR Siehe Dynamische Rekonfiguration DSDL API 78 Dynamische Rekonfiguration 91 Bandlaufwerke 93 Beschreibung 92 Cluster Interconnect 94 CPU Ger te 93 ffentliches Netzwerk 94 Platten 93 Quorum Ger te 94 Speicher 93 E E10000 Siehe Sun Enterprise E10000 Eigenschaften ndern 44 46 Resource_project_name 83 Ressourcen 80 Ressourcengruppen 80 RG_project_name 83 Einh ngen Dateisysteme 47 global 98 Globale Ger te 47 Mit syncdir 49 Einzelservermodell 65 F Failback 72 110 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Failf
36. 7 Ressourcentyp 49 H ufig gestellte Fragen Siehe FAO Herunterfahren 40 Hoch verf gbar Siehe auch Hochverf gbarkeit Datendienste 40 Hochverf gbarkeit Siehe auch Hoch verf gbar FAQ 97 Framework 39 Hostname 65 I ID Ger t 42 Knoten 46 ioctl 57 111 IP Adresse 100 IP Network Multipathing 90 91 Failover Zeit 101 IPMP Siehe IP Network Multipathing K Kabel Transport 103 Knoten 22 Boot Reihenfolge 102 Globale Schnittstelle 67 Knoten ID 46 Prim rknoten 44 46 66 Sekund rknoten 44 46 66 Sicherung 102 Konfiguration Client Server 65 Datendienste 80 Parallele Datenbank 22 Repository 41 Virtuelle Speicherbegrenzungen 84 Konfigurationen Quorum 58 59 Konsole System Service Processor 28 Verwaltung 28 29 FAQ 104 Zugriff 28 L Lastausgleich 70 local_mac_address 101 LogicalHostname Siehe Logischer Hostname Logischer Hostname 66 Failover Datendienste 68 Versus gemeinsam genutzte Adresse 100 Lokale Platten 26 Lokales Dateisystem 49 M MAC Adtresse 101 Medien Wechselbar 26 Mission Critical Anwendungen 63 Mitgliedschaft Siehe Cluster Mitglieder Multi Initiator SCSL 25 Multihost Ger t Siehe Ger te Multihost Multipathing 90 91 Multiport Plattenger tegruppen 44 N N 1 Stern Iopologie 32 N N Scalable Topologie 33 Namensraum Global 46 Lokal 47 Zuordnungen 47 Network Time Protocol 38 Netzwerk Adapter 27 90 91 Gemeinsam genutzte Adresse 66 La
37. C Allgemeine Beschreibung der dynamischen Rekonfiguration Die DR Funktion erm glicht bestimmte Vorg nge wie zum Beispiel das Entfernen von Systemhardware bei laufenden Systemen Die DR Prozesse sind so ausgelegt dass sie einen kontinuierlichen Systembetrieb sicherstellen ohne das System anhalten oder die Cluster Verf gbarkeit unterbrechen zu m ssen DR arbeitet auf Board Ebene Deswegen hat ein DR Vorgang Auswirkungen auf alle Komponenten eines Boards Jedes Board kann mehrere Komponenten enthalten einschlie lich CPUs Speicher und Peripherieschnittstellen f r Plattenlaufwerke Bandlaufwerke und Netzwerkverbindungen Das Entfernen eines Boards mit aktiven Komponenten f hrt zu Systemfehlern Vor dem Entfernen eines Boards fragt das DR Teilsystem andere Teilsysteme wie Sun Cluster ab um festzustellen ob die Komponenten des Boards genutzt werden Wenn das DR Teilsystem eine Board Nutzung feststellt wird der DR Vorgang zur Board Entfernung nicht ausgef hrt Ein DR Vorgang zur Board Entfernung ist insofern immer sicher als das DR Teilsystem Vorg nge an Boards mit aktiven Komponenten ablehnt Der DR Vorgang zur Board Hinzuf gung ist ebenfalls immer sicher CPUs und Speicher auf einem neu hinzugef gten Board werden automatisch vom System verf gbar gemacht Der Systemverwalter muss den Cluster jedoch manuell konfigurieren um Komponenten des neu hinzugef gten Boards aktiv nutzen zu k nnen Hinweis Das DR Teilsystem hat mehrere E
38. Multipathing Gruppen organisiert Jede Multipathing Gruppe hat mindestens einen ffentlichen Netzwerkadapter Jeder Adapter in einer Multipathing Gruppe kann aktiv sein oder Sie k nnen Standby Schnittstellen konfigurieren die bis zum Auftreten eines Failovers inaktiv bleiben Der in mpathd Mutlipathing D mon verwendet eine IP Testadresse um Fehler und Reparaturen zu erkennen Erkennt der Multipathing D mon einen Fehler auf einem der Adapter erfolgt ein Failover Der gesamte Netzwerkzugriff geht vom fehlerhaften Adapter auf einen anderen funktionsf higen Adapter in der Multipathing Gruppe unter Aufrechterhaltung der Konnektivit t des ffentlichen Netzwerkes f r den Knoten ber Wenn eine Standby Schnittstelle konfiguriert wurde w hlt der D mon die Standby Schnittstelle aus Andernfalls w hlt in mpathd die Schnittstelle mit der niedrigsten Anzahl von IP Adressen aus Da das Failover auf Adapterschnittstellenebene erfolgt sind Verbindungen auf h herer Ebene wie TCP mit Ausnahme einer kurzen Zeitspanne w hrend des Failover Vorgangs nicht betroffen Wenn das Failover der IP Adressen erfolgreich abgeschlossen ist werden freie ARP bertragungen gesendet Die Konnektivit t der Remote Clients bleibt damit erhalten Hinweis Aufgrund der TCP Wiederherstellungseigenschaften bei Stau kann an TCP Endpunkten nach einem erfolgreichen Failover eine weitere Verz gerung entstehen da einige Segmente beim Failover verloren gehen k nnen und der Sta
39. Ss 73 SUN microsystems Sun Cluster Konzepthandbuch f r Solaris OS Sun Microsystems Inc 4150 Network Circle Santa Clara CA 95054 Teilenr 819 0161 September 2004 Revision A Copyright 2004 Sun Microsystems Inc 4150 Network Circle Santa Clara CA 95054 U S A Alle Rechte vorbehalten Dieses Produkt und die Dokumentation sind urheberrechtlich gesch tzt und werden unter Lizenzen vertrieben durch die die Verwendung das Kopieren Verteilen und Dekompilieren eingeschr nkt werden Ohne vorherige schriftliche Genehmigung durch Sun und gegebenenfalls seiner Lizenzgeber darf kein Teil dieses Produkts oder Dokuments in irgendeiner Form reproduziert werden Die Software anderer Hersteller einschlie lich der Schriftentechnologie ist urheberrechtlich gesch tzt und von Lieferanten von Sun lizenziert Teile dieses Produkts k nnen von Berkeley BSD Systems abgeleitet sein lizenziert durch die University of California UNIX ist eine eingetragene Marke in den Vereinigten Staaten und anderen L ndern und wird ausschlie lich durch die X Open Company Ltd lizenziert Sun Sun Microsystems das Sun Logo docs sun com AnswerBook AnswerBook2 Sun Cluster SunPlex Sun Enterprise Sun Enterprise 10000 Sun Enterprise SyMON Sun Management Center Solaris Solaris Volume Manager Sun StorEdge Sun Fire SPARCstation OpenBoot und Solaris sind Marken eingetragene Marken oder Dienstleistungsmarken von Sun Microsystems Inc in den Vereinigten Staaten u
40. Vorgang betroffen w re Sie m ssen dieses Ger t als Quorum Ger t deaktivieren bevor Sie einen DR Vorgang zur Board Entfernung durchf hren k nnen Unter Aufgabenzuordnung Dynamische Rekonfiguration mit Quorum Ger ten im Sun Cluster System Administration Guide for Solaris OS erhalten Sie detaillierte Anweisungen zur Durchf hrung dieser Vorg nge SPARC Erw gungen zur DR von Cluster Interconnect Schnittstellen im Cluster Wenn der DR Vorgang zur Board Entfernung ein Board betrifft das zu einer aktiven Cluster Interconnect Schnittstelle geh rt lehnt Sun Cluster den Vorgang ab und identifiziert die Schnittstelle die von dem Vorgang betroffen w re Sie m ssen die aktive Schnittstelle mit einem Sun Cluster Verwaltungstool deaktivieren bevor der DR Vorgang erfolgen kann siehe auch den nachstehenden Abschnitt neben Achtung Unter Verwalten der Cluster Interconnects im Sun Cluster System Administration Guide for Solaris OS erhalten Sie detaillierte Anweisungen zur Durchf hrung dieser Vorg nge funktionsf higen Pfad zu jedem Cluster Knoten verf gt Deaktivieren Sie keine privaten Interconnect Schnittstellen die den letzten Pfad zu einem Cluster Knoten unterst tzen Caution Sun Cluster erfordert dass jeder Cluster Knoten ber mindestens einen SPARC Erw gungen zur DR von ffentlichen Netzwerkschnittstellen im Cluster Wenn der DR Vorgang zur Board Entfernung ein Board betrifft das aktive ffentliche Ne
41. agement Center SunPlex Siehe Cluster SunPlex Manager 37 syncdir Einh ngeoption 49 System Service Processor 28 29 FAQ 105 T Terminal Konzentrator FAQ 105 Topologien 30 34 Geclusterte Paare 30 Geclustertes Paar 34 N 1 Stern 32 N N Scalable 33 Paar N 31 Transport Kabel 103 Pfad 103 Treiber Ger te ID 42 U UFS 49 V VERITAS Volume Manager Multihost Ger te 25 Verwaltung Cluster 37 95 Verwaltungskonsole 29 FAO 104 Verwaltungsschnittstellen 37 VxFS 49 WwW Wechselmedien 26 Wiederherstellung 39 Failback 72 Z Zeit Zwischen Knoten 38 114 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A
42. alle dazugeh rigen aktivierten Ressourcen online Ressourcengruppen k nnen mehrere Ressourcen mit Abh ngigkeiten zwischen Ressourcen enthalten Aufgrund dieser Abh ngigkeiten m ssen die Ressourcen in einer bestimmten Reihenfolge online gebracht und offline genommen werden Die Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 79 Methoden um die Ressourcen online zu bringen und offline zu nehmen k nnen f r jede Ressource unterschiedlich lange dauern Die Zust nde online und offline k nnen f r Ressourcen einer einzigen Ressourcengruppe aufgrund von Ressourcenabh ngigkeiten und Unterschieden bei Start und Stoppzeit bei einer Cluster Rekonfiguration unterschiedlich sein Ressourcen und Resourcengruppeneigenschaften Sie k nnen Eigenschaftenwerte f r die Ressourcen und Ressourcengruppen Ihrer SunPlex Datendienste konfigurieren Standardeigenschaften sind f r alle Datendienste gleich Erweiterungseigenschaften sind f r jeden Datendienst spezifisch Einige Standard und Erweiterungseigenschaften sind mit Standardeinstellungen konfiguriert so dass Sie diese nicht ndern m ssen Andere m ssen im Rahmen der Erstellung und Konfiguration von Ressourcen eingestellt werden Die Dokumentation f r jeden Datendienst gibt an welche Ressourceneigenschaften eingestellt werden k nnen und wie diese einzustellen sind Die Standardeigenschaften werden zur Konfiguration von Ressourcen und Ressourcengruppeneigenschaften ei
43. anderen Host Adapter ungenutzte SCSI Adressen ein Eine zweckm ige Planung schreibt vor dass sowohl die derzeit ungenutzten als auch die potenziell ungenutzten Adressen zu den ungenutzten SCSI Adressen geh ren Ein Beispiel f r zuk nftige ungenutzte Adressen ist das Aufstocken des Speichers durch das Installieren neuer Laufwerke an freien Laufwerk Steckpl tzen In den meisten Konfigurationen ist 6 die verf gbare SCSI Adresse f r einen zweiten Host Adapter Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 25 Sie k nnen die ausgew hlten SCSI Adressen f r diese Host Adapter ndern indem Sie eines der folgenden Tools zum Einstellen der scsi initiator id Eigenschaft verwenden m eeprom 1M m Das OpenBoot PROM in einem SPARC basierten System m Das SCSI Dienstprogramm das Sie optional nach dem Booten der BIOS in einem x86 basierten System aufrufen Sie k nnen diese Eigenschaft global f r einen Knoten oder f r jeden Host Adapter einzeln einstellen Anweisungen zum Einstellen einer einmaligen scsi initiator id Eigenschaft f r jeden SCSI Host Adapter finden Sie im jeweiligen Kapitel f r jedes Plattengeh use im Sun Cluster Hardware Collection Lokale Platten Lokale Platten sind Platten die nur mit einem einzigen Knoten verbunden sind Sie sind aus diesem Grund nicht vor Knotenversagen gesch tzt nicht hoch verf gbar Dennoch sind alle Platten auch lokale Platten im globalen Namensraum enthalten und als glo
44. anderen Anwendungen teilen Anwendungen k nnen einen Knoten teilen wenn Sie mit konsolidierten Diensten arbeiten oder weil Anwendungen bei einem Failover den Knoten gewechselt haben Die Verwendung der hier beschriebenen Verwaltungsfunktion kann die Verf gbarkeit einer kritischen Awendung verbessern indem andere Anwendungen mit niedrigerer Priorit t daran gehindert werden zu viele Systemleistungen wie CPU Zeit in Anspruch zu nehmen Hinweis In der Solaris Dokumentation zu dieser Funktion werden CPU Zeit Prozesse Aufgaben und vergleichbare Komponenten als Ressourcen beschrieben In der Sun Cluster Dokumentation hingegen wird der Begriff Ressourcen zur Beschreibung von Entit ten verwendet die vom RGM gesteuert werden Im nachstehenden Abschnitt wird der Begriff Ressource f r Sun Cluster Entit ten verwendet die vom RGM gesteuert werden und der Begriff Leistungen f r CPU Zeit Prozesse und Aufgaben Dieser Abschnitt enth lt eine konzeptuelle Beschreibung zur Konfiguration von Datendiensten um die Prozesse in einem gegebenen Solaris 9 project 4 zu starten In diesem Abschnitt werden auch mehrere Failover Szenarien beschrieben Des Weiteren enth lt er Empfehlungen zur Planung wie die in der Solaris Umgebung zur Verf gung gestellte Verwaltungsfunktion eingesetzt werden kann Detaillierte konzeptionelle und verfahrenstechnische Dokumentation zur Verwaltungsfunktion finden Sie im System Administration Guide Resource Manageme
45. ann dieses Dateisystem zum Speichern von Daten verwendet werden die hoch verf gbar und global sein sollen Diese Dateisysteme speichern den Namensraum f r globale Ger te Sie sind nicht zum allgemeinen Gebrauch vorgesehen Sie sind zwar global aber der Zugriff auf sie erfolgt niemals global jeder Knoten kann nur auf seinen eigenen Namensraum f r globale Ger te zugreifen Wenn ein Knoten ausgefallen ist k nnen andere Knoten nicht auf den Namensraum f r den ausgefallenen Knoten zugreifen Diese Dateisysteme sind nicht hoch verf gbar Sie sollten nicht zum Speichern von Daten verwendet werden die global zug nglich oder hoch verf gbar sein m ssen H ufige Fragen zur Datentr gerverwaltung m M ssen alle Plattenger te gespiegelt werden Damit ein Plattenger t als hoch verf gbar gilt muss es gespiegelt werden oder RAID 5 Hardware verwenden Alle Datendienste sollten entweder hoch verf gbare Plattenger te oder Cluster Dateisysteme verwenden die auf hoch verf gbaren Plattenger ten eingeh ngt sind Solche Konfigurationen tolerieren einzelne Plattenausf lle Kann ein Datentr ger Manager f r die lokalen Platten Boot Platte und ein anderer f r die Multihostplatten verwendet werden SPARC Diese Konfiguration wird von der Solaris Volume Manager Software zur Verwaltung der lokalen Platten und von VERITAS Volume Manager zur Verwaltung der Multihostplatten unterst tzt Keine andere Kombination wird unterst tzt x86 N
46. annten Projekts konfiguriert sein Konzeptionelle Informationen zur Projektnamen Datenbank finden Sie unter Projects and Tasks in System Administration Guide Resource Management and Network Services in der Solaris 9 System Administrator Collection Eine Beschreibung der Syntax der Projektdatei finden Sie unter project 4 Wenn der RGM Ressourcen oder Ressourcengruppen online bringt startet er die verkn pften Prozesse unter dem Projektnamen Hinweis Benutzer k nnen die Ressource oder Ressourcengruppe jederzeit einem Projekt zuordnen Der neue Projektname ist jedoch erst g ltig wenn die Ressource oder Ressourcengruppe mit dem RGM offline genommen und wieder online gebracht wird Durch das Starten von Ressourcen und Ressourcengruppen unter dem Projektnamen k nnen Sie die folgenden Funktionen zur Verwaltung der Systemleistungen in Ihrem Cluster konfigurieren m Erweiterte Berechnung Ein flexibler Weg zur Aufzeichnung des Verbrauchs auf Aufgaben oder Prozessbasis Mit dieser Funktion k nnen Sie die historische Nutzung nachverfolgen und den Leistungsbedarf f r zuk nftige Arbeitslasten beurteilen m Steuerungen Ein Mechanismus zur Einschr nkung von Systemleistungen Damit kann verhindert werden dass Prozesse Aufgaben und Projekte gro e Anteile von bestimmten Systemleistungen verbrauchen m Faire Nutzungsplanung FSS Damit besteht die M glichkeit die Zuweisung der verf gbaren CPU Zeit auf die Arbeitslasten je nach ihr
47. apter ausf llt F r maximale Verf gbarkeit sollten Sie Ihren Cluster so planen dass der einzige Pfad zwischen zwei Knoten nicht von einem einzigen Netzwerkadapter abh ngt m Verbindungspunkte Die Schalter die au erhalb der Cluster Knoten liegen Sie bernehmen Pass Through und Umschaltfunktionen damit Sie mehr als zwei Knoten zusammenschlie en k nnen In einem Zwei Knoten Cluster ben tigen Sie keine Verbindungspunkte weil die Knoten mit redundanten realen Kabeln die an die redundanten Adapter auf jedem Knoten angeschlossen sind direkt miteinander verbunden werden k nnen F r Konfigurationen mit mehr als zwei Knoten sind normalerweise Verbindungspunkte erforderlich m Kabel Die realen Verbindungen die entweder zwischen zwei Netzwerkadaptern oder zwischen einem Adapter und einem Verbindungspunkt bestehen Fragen und Antworten zum Cluster Interconnect finden Sie in Kapitel 4 ffentliche Netzwerkschnittstellen Die Verbindung der Clients mit dem Cluster erfolgt ber die ffentlichen Netzwerkschnittstellen Jede Netzwerkadapterkarte kann an ein oder mehrere ffentliche Netzwerke angeschlossen sein je nachdem ob die Karte mehrere Kapitel 2 e Schl sselkonzepte Hardwaredienstleister 27 Hardwareschnittstellen hat Sie k nnen Knoten mit mehreren ffentlichen Netzwerkschnittstellenkarten einrichten die so konfiguriert sind dass mehrere Karten aktiv sind und dadurch gegenseitig als Failover Sicherung dienen Wenn eine
48. are im Allgemeinen automatisch einen anderen Pfad zum Ger t und leitet den Zugriff auf diesen Pfad um Zu den globalen Ger ten bei SunPlex geh ren Platten CD ROM und B nder Dabei sind die Platten jedoch die einzigen Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 41 globalen Multiport Ger te die unterst tzt werden Das bedeutet dass CD ROM und Bandger te derzeit keine hoch verf gbaren Ger te sind Die lokalen Platten auf jedem Server sind ebenfalls keine Multiport Ger te und deswegen nicht hoch verf gbar Der Cluster weist jeder Platte jedem CD Rom Laufwerk und jedem Bandger t im Cluster automatisch eine einmalige ID zu Diese Zuweisung erm glicht einen konsistenten Zugriff auf jedes Ger t von jedem Cluster Knoten aus Der Namensraum globaler Ger te ist im Verzeichnis dev global enthalten Weitere Informationen finden Sie unter Globaler Namensraum auf Seite 46 Globale Multiport Ger te stellen mehrere Pfade zu einem Ger t zur Verf gung Da Multihostplatten zu einer Plattenger tegruppe geh ren die von mehreren Knoten gehostet wird werden sie hoch verf gbar gemacht Ger te ID DID Die Sun Cluster Software verwaltet globale Ger te ber ein Gebilde das als DID Pseudotreiber Device ID DID bezeichnet wird Dieser Treiber wird verwendet um automatisch jedem Ger t im Cluster einschlie lich Multihostplatten Bandlaufwerken und CD ROM Laufwerken eine einmalige ID zuzuweisen Der DID
49. ast 40 Fehlerschutz 57 Failover Datendienste 68 FAQ 97 Plattenger tegruppen 43 Szenarien Solaris Ressourcen Manager 84 89 Versus Scalable 97 FAQ 97 Client Systeme 104 Cluster interconnect 103 Cluster Mitglieder 102 Cluster Speicher 103 Dateisysteme 98 Datendienste 100 Datentr gerverwaltung 99 Failover versus Scalable 97 Hochverf gbarkeit 97 ffentliches Netzwerk 101 System Service Processor 105 Terminal Konzentrator 105 Verwaltungskonsole 104 Fehler Erkennung 39 Failback 72 Schutz 56 Sch tzen 40 Wiederherstellung 39 Fehler Monitor 72 Framework Hochverf gbarkeit 39 G Geclusterte Paare Topologie 30 34 Geclustertes Servermodell 65 Gemeinsam genutzte Adresse 66 Globaler Schnittstellenknoten 67 Scalable Datendienste 68 Versus logischer Hostname 100 Ger t ID 42 Ger te Global 41 Multihost 24 Quorum 54 Ger tegruppe 43 ndern von Eigenschaften 44 46 GIF Knoten 97 Global Ger t 43 Einh ngen 47 Lokale Platten 26 Ger te 41 Namensraum 42 46 Lokale Platten 26 Schnittstelle 67 97 Scalable Dienste 69 global Einh ngepunkt 47 98 Globaler Schnittstellenknoten Siehe Globaler Schnittstellenknoten Gruppen Plattenger t Siehe Platten Ger tegruppen H HA Siehe Hochverf gbarkeit Hardware 15 21 91 Siehe auch Platten Siehe auch Speicher Cluster Interconnect Komponenten 27 Dynamische Rekonfiguration 91 Fehler 39 Wiederherstellung 39 HAStoragePlus 7
50. atelink_hostname_node Bei Verwendung des Cluster Interconnects auf Anwendungsebene wird ein einizger Interconnect zwischen jedem Knotenpaar eingesetzt wenn m glich werden jedoch getrennte Interconnects f r unterschiedliche Knotenpaare eingesetzt Angenommen eine Anwendung wird auf drei SPARC basierten Knoten ausgef hrt und kommuniziert ber den Cluster Interconnect Die Kommunikation zwischen den Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 75 Knoten 1 und 2 kann ber die Schnittstelle hmeo erfolgen w hrend die Kommunikation zwischen den Knoten 1 und 3 ber die Schnittstelle qfe1 erfolgen kann Das bedeutet dass die Anwendungskommunikation zwischen zwei beliebigen Knoten auf einen einzigen Interconnect beschr nkt ist w hrend die Cluster interne Kommunikation ber alle Interconnects verteilt wird Beachten Sie dass die Anwendung den Interconnect mit dem internen Cluster Datenverkehr teilt so dass die f r die Anwendung verf gbare Bandbreite von der Bandbreite abh ngt die f r anderen Cluster Datenverkehr verwendet wird Im Fall eines Versagens kann der interne Datenverkehr im Round Robin Verfahren auf die restlichen Interconnects umgeleitet werden w hrend die Anwendungsverbindungen mit einem versagenden Interconnect auf einen funktionierenden Interconnect umgeschaltet werden k nnen Zwei Adresstypen unterst tzen den Cluster Interconnect und mit gethostbyname 3N werden f r einen privaten Hostna
51. atendienst Entwicklungsbibliothek DSDL API oder der Ressourcenverwaltungs API RMAPI erstellt Der Cluster Verwalter erstellt und verwaltet die Ressourcen in Containern die als Ressourcengruppen bezeichnet werden Der RGM stoppt und startet die Ressourcengruppen auf den ausgew hlten Knoten je nach den nderungen in der Cluster Mitgliedschaft Der RGM verwaltet Ressourcen und Ressourcengruppen Durch RGM Aktionen wechseln Ressourcen und Ressourcengruppen zwischen dem Online und Offline Zustand Eine umfassende Beschreibung dieser Zust nde und der Einstellungen f r Ressourcen und Ressourcengruppen finden Sie im Abschnitt Zust nde und Einstellungen f r Ressourcen und Ressourcengruppen auf Seite 78 Informationen ber das Starten des Ressourcenverwaltungsprojekts unter der Steuerung des RGM finden Sie unter Ressourcen Ressourcengruppen und Ressourcentypen auf Seite 77 Zust nde und Einstellungen f r Ressourcen und Ressourcengruppen Ein Verwalter verwendet statische Einstellungen f r Ressourcen und Ressourcengruppen Diese Einstellungen k nnen nur ber Verwaltungsaktionen ge ndert werden Der RGM ndert die dynamischen Zust nde von Ressourcengruppen Diese Einstellungen und Zust nde sind in der nachstehenden Liste beschrieben m Verwaltet oder unverwaltet Diese Cluster weiten Einstellungen gelten nur f r Ressourcengruppen Ressourcengruppen werden vom RGM verwaltet Mit dem scrgadm 1M Befehl wird die Ver
52. ation der Ger te die f r die bertragung von Cluster privaten Kommunikationen und Datendienstkommunikationen zwischen Cluster Knoten eingesetzt wird Der Interconnect wird umfassend f r Cluster interne Kommunikationen verwendet und kann dadurch die Leistung begrenzen Nur Cluster Knoten k nnen mit dem Cluster Interconnect verbunden werden Das Sun Cluster Sicherheitsmodell setzt voraus dass nur Cluster Knoten real Zugriff auf den Cluster Interconnect haben Alle Knoten m ssen mit dem Cluster Interconnect ber mindestens zwei redundante real unabh ngige Netzwerke oder Pfade verbunden sein um einen Single Point of Failure Ausfallpunkt zu vermeiden Sie k nnen mehrere real unabh ngige Netzwerke bis zu sechs zwischen zwei beliebigen Knoten einrichten Der Cluster Interconnect besteht aus drei Hardwarekomponenten Adapter Verbindungspunkten und Kabeln Die nachstehende Liste beschreibt jede dieser Hardwarekomponenten m Adapter Die Netzwerk Schnittstellenkarte die sich in allen Cluster Knoten befindet Ihr Namen setzt sich aus dem Ger tenamen unmittelbar gefolgt von einer realen Einheitsnummer zum Beispiel qfe2 zusammen Manche Adapter haben nur eine reale Netzwerkverbindung andere hingegen wie die qfe Karte haben mehrere reale Verbindungen Manche enthalten auch sowohl Netzwerk als auch Speicherschnittstellen Ein Netzwerkadapter mit mehreren Schnittstellen kann zu einem Single Point of Failure werden wenn der ganze Ad
53. auf den restlichen Knoten vollst ndig transparent so lange ein alternativer Hardwarepfad zu den Platten eines anderen Knotens vorhanden ist den die mit diesem Knoten verbundenen Dateien Ger te und Datentr ger verwenden Ein Beispiel ist die Verwendung von Multihostger ten mit Ports f r mehrere Knoten Cluster Mitglieder Monitor Alle Knoten m ssen eine konsistente Einigung hinsichtlich der Cluster Mitgliedschaft erzielen um die Daten vor Besch digung zu sch tzen Der CMM koordiniert gegebenenfalls eine Cluster Rekonfiguration der Cluster Dienste Anwendungen infolge eines Fehlers Der CMM erh lt Informationen ber die Konnektivit t mit anderen Knoten aus der Cluster Transportschicht Der CMM verwendet w hrend einer Rekonfiguration den Cluster Interconnect zum Austauschen von Statusinformationen Nach dem Erkennen einer nderung bei der Cluster Mitgliedschaft f hrt der CMM eine synchronisierte Konfiguration des Clusters aus bei der die Cluster Ressourcen ggf auf Grundlage der neuen Mitgliedschaft im Cluster neu verteilt werden Im Unterschied zu fr heren Sun Cluster Softwareversionen wird der CMM vollst ndig im Kernel ausgef hrt Weitere Informationen dar ber wie sich der Cluster vor der Partitionierung in mehrere getrennte Cluster sch tzt finden Sie unter Informationen zum Fehlerschutz auf Seite 56 Failfast Mechanismus Wenn der CMM ein kritisches Knoten Problem erkennt fordert er das Cluster Framework au
54. bale Ger te konfiguriert Aus diesem Grund sind die Platten selbst von allen Cluster Knoten aus sichtbar Sie k nnen die Dateisysteme auf lokalen Platten f r andere Knoten verf gbar machen indem Sie diese unter einen globalen Einh ngepunkt stellen Versagt der Knoten an dem derzeit eines dieser globalen Dateisysteme eingeh ngt ist kann kein Knoten auf dieses Dateisystem zugreifen Mithilfe eines Datentr ger Managers k nnen Sie diese Platten spiegeln so dass ein Fehler nicht dazu f hrt dass kein Zugriff mehr auf diese Dateisysteme besteht Datentr ger Manager sch tzen aber nicht vor Knotenversagen Weitere Informationen zu globalen Ger ten finden Sie im Abschnitt Globale Ger te auf Seite 41 Wechselmedien Wechselmedien wie Band und CD ROM Laufwerke werden in einem Cluster unterst tzt Im Allgemeinen installieren konfigurieren und warten Sie diese Ger te ebenso wie in einer Nicht Cluster Umgebung Diese Ger te werden in Sun Cluster als globale Ger te konfiguriert so dass jeder Knoten im Cluster auf jedes Ger t zugreifen kann Im Sun Cluster 3 x Hardware Administration Manual for Solaris OS finden Sie Informationen zur Installation und Konfiguration von Wechselmedien Weitere Informationen zu globalen Ger ten finden Sie im Abschnitt Globale Ger te auf Seite 41 26 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Cluster Interconnect Der Cluster Interconnect ist die reale Konfigur
55. bei der Installation der Betriebsumgebung die Uhrzeit nicht richtig eingestellt wurde und Sie diese ndern m chten erfahren Sie unter Verwalten des Clusters im Sun Cluster System Administration Guide for Solaris OS wie Sie hierf r vorgehen m ssen 38 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Hoch verf gbares Framework Das SunPlex System macht alle Komponenten auf dem Pfad zwischen Benutzern und Daten hoch verf gbar einschlie lich der Netzwerkschnittstellen der Anwendungen selbst des Dateisystems und der Multihostger te Im Allgemeinen ist eine Cluster Komponente hoch verf gbar wenn sie trotz eines einzelnen Fehlers Software oder Hardware im System in Betrieb bleibt Die nachstehende Tabelle zeigt die Arten von SunPlex Komponentenfehlern bei Hardware und Software und die entsprechende Form der Wiederherstellung die in das Framework integriert ist TABELLE 3 1 Ebenen der SunPlex Fehlererkennung und Wiederherstellung Fehlerhafte Cluster Komponente Softwarewiederherstellung Hardwarewiederherstellung Datendienst HA API HA Framework N V ffentlicher IP Network Multipathing Mehrfache ffentliche Netzwerkadapter Netzwerkadapterkarten Cluster DateisystemPrim r und Multihostger te Sekund rknotenreplikate Gespiegeltes Datentr gerverwaltung Solaris RAID 5 Hardware zum Beispiel Multihostger t Volume Manager und VERITAS Sun StorEdge A3x00 Volume Manager das nur
56. benen Wenn ein Fehler auf einer unteren Ebene gemeldet wird meldet auch die bergeordnete Ebene einen Fehler Die untere Ebene meldet den spezifischen Fehler die bergeordnete Ebene meldet jedoch nur Unbekannter Fehler Systemverwalter sollten die Meldung Unbekannter Fehler aus der bergeordneten Ebene ignorieren Die folgenden Abschnitte enthalten DR spezifische Erw gungen zu den unterschiedlichen Ger tetypen 92 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A SPARC Erw gungen zur DR von CPU Ger ten im Cluster Die Sun Cluster Software wird einen DR Vorgang zur Board Entfernung aufgrund der vorhandenen CPU Ger te nicht ablehnen Wenn ein DR Vorgang zur Board Hinzuf gung erfolgt werden die CPU Ger te auf dem hinzugef gten Board automatisch in den Systembetrieb integriert SPARC Erw gungen zur DR von Speichern im Cluster F r DR Zwecke sind zwei Speichertypen zu ber cksichtigen Diese beiden Typen unterscheiden sich lediglich bei ihrer Nutzung Die aktuelle Hardware ist bei beiden Typen die gleiche Der vom Betriebssystem genutzte Speicher wird als Kernel Speichergeh use bezeichnet Die Sun Cluster Software unterst tzt die Board Entfernung bei dem Board mit dem Kernel Speichergeh use nicht und lehnt jeden derartigen Vorgang ab Wenn ein DR Vorgang zur Board Entfernung einen Speicher betrifft der nicht das Kernel Speichergeh use ist lehnt Sun Cluster den Vorgang nicht ab Wen
57. chl sselkonzepte Hardwaredienstleister 35 36 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A KAPITEL 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung Dieses Kapitel beschreibt die Schl sselkonzepte im Zusammenhang mit den Softwarekomponenten eines SunPlex Systems Zu den behandelten Themen geh ren m Verwaltungsschnittstellen auf Seite 37 m Cluster Zeit auf Seite 38 m Hoch verf gbares Framework auf Seite 39 m Globale Ger te auf Seite 41 m Plattenger tegruppen auf Seite 43 m Globaler Namensraum auf Seite 46 m Cluster Dateisysteme auf Seite 47 m Informationen zum Fehlerschutz auf Seite 56 m Datendienste auf Seite 65 m Entwickeln von neuen Datendiensten auf Seite 73 m Ressourcen Ressourcengruppen und Ressourcentypen auf Seite 77 m ffentliche Netzwerkadapter und IP Network Multipathing auf Seite 90 m SPARC Unterst tzung der dynamischen Rekonfiguration auf Seite 91 Diese Informationen richten sich in erster Linie an Systemverwalter und Anwendungsentwickler die mit der SunPlex API und dem SDK arbeiten Cluster Systemverwalter k nnen diese Informationen als Vorbereitung f r das Installieren Konfigurieren und Verwalten von Cluster Software nutzen Anwendungsentwickler k nnen die Informationen nutzen um die Cluster Umgebung zu verstehen in der sie arbeiten Verwaltungsschnittstellen Sie k
58. cht von einem softwarebasierten Datentr ger Manager gesteuert werden Damit ein Cluster Dateisystem hoch verf gbar ist muss der zugrunde liegende Plattenspeicher mit mehreren Knoten verbunden sein Deswegen ist ein lokales Dateisystem ein auf der lokalen Platte eines Knotens gespeichertes Dateisystem das zu einem Cluster Dateisystem gemacht wird nicht hoch verf gbar Wie bei normalen Dateisystemen k nnen Sie auch Cluster Dateisysteme auf zwei Arten einh ngen m Manuell Verwenden Sie den mount Befehl mit den Einh ngeoptionen g oder o global um das Cluster Dateisystem von der Befehlszeile aus einzuh ngen Beispiel SPARC mount g dev global dsk d0s0 global oracle data 48 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A m Automatisch Erstellen Sie einen Eintrag in der Datei etc vfstab mit einer global Einh ngeoption um das Cluster Dateisystem beim Booten einzuh ngen Dann k nnen Sie im global Verzeichnis auf allen Knoten einen Einh ngepunkt erstellen Das global Verzeichnis ist ein empfohlener Speicherplatz keine Anforderung Hier eine Beispielzeile f r ein Cluster Dateisystem aus einer etce v stab Datei SPARC dev md oracle dsk di1 dev md oracle rdsk di1 global oracle data ufs 2 yes global logging Hinweis Solange die Sun Cluster Software kein Benennungsverfahren f r Cluster Dateisysteme vorschreibt k nnen Sie die Verwaltung durch das Erstellen eines Einh ngepunktes f r
59. den mehrere Typen von Ressourcen Anwendungen wie Sun Java System Web Server fr her Sun Java System Web Server oder Apache Web Server verwenden Netzwerkadressen logische Hostnamen und gemeinsam genutzte Adressen von denen die Anwendungen abh ngen Anwendung und Netzwerkressourcen bilden eine grundlegende Einheit die vom RGM verwaltet wird Datendienste sind Ressourcentypen Sun Cluster HA for Oracle ist zum Beispiel der Ressourcentyp SUNW oracle server und Sun Cluster HA for Apache der Ressourcentyp SUNW apache Hinweis Der Ressourcentyp SUNW oracle server wird nur in SPARC basierten Clustern eingesetzt Eine Ressource ist eine Instanz eines Ressourcentyps der Cluster weit definiert ist Es gibt mehrere definierte Ressourcentypen Netzwerkressourcen sind entweder SUNW LogicalHostname oder SUNW SharedAddress Ressourcentypen Diese beiden Ressourcentypen sind in der Sun Cluster Software vorregistriert Die Ressourcentypen SUNW HAStorage und HAStoragePlus werden zur Synchronisierung beim Starten von Ressourcen und Plattenger tegruppen verwendet von denen die Ressourcen abh ngen Damit wird sichergestellt dass die Pfade zu Einh ngepunkten im Cluster Dateisystem globalen Ger ten und Ger tegruppennamen verf gbar sind bevor ein Datendienst startet Weitere Informationen fnden Sie unter Synchronisieren der Startvorg nge zwischen Ressourcengruppen und Plattenger tegruppen im Data Services Installation and Configuration Gu
60. der Ger tegruppe die keine Prim rknoten sind gesetzt werden Hinweis Wenn Sie Solaris Volume Manager verwenden m ssen Sie zuerst die Plattenger tegruppe erstellen bevor Sie die Eigenschaft numsecondaries auf einen anderen Wert als den Standardwert einstellen k nnen Die standardm ig eingestellte gew nschte Anzahl von Sekund rknoten f r Ger tedienste ist Eins Die tats chliche Anzahl der vom Replikat Framework verwalteten Sekund ranbieter entspricht der gew nschten Anzahl es sei denn die Anzahl der betriebsbereiten Anbieter die keine Prim rknoten sind ist kleiner als die gew nschte Anzahl Sie m chten ggf die numsecondaries Eigenschaft ndern und die Knotenliste querpr fen wenn Sie der Konfiguration Knoten hinzuf gen oder daraus entfernen Die Verwaltung der Knotenliste und der gew nschten Anzahl von Sekund rknoten verhindert Konflikte zwischen der konfigurierten und der tats chlichen vom Framework erlaubten Anzahl von Sekund rknoten Sie verwalten das Hinzuf gen oder Entfernen von Knoten aus Ihrer Konfiguration mit dem Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 45 metaset 1M Befehl f r Solaris Volume Manager Ger tegruppen oder mit dem sccon 1M Befehl f r VxVM Plattenger tegruppen wenn Sie Veritas Volume Manager verwenden zusammen mit der Einstellung der Eigenschaften preferenced und numsecondaries Verfahrenstechnische Informationen ber das ndern der Plattenger tegr
61. der N 1 Knoten berleben Bei dieser Verf gbarkeit wird vorausgesetzt dass das Quorum Ger t ordnungsgem funktioniert m In einer N Knoten Konfiguration bei der ein einzelnes Quorum Ger t mit allen Knoten verbunden wird kann der Cluster den Ausfall des Quorum Ger ts berleben sofern alle Cluster Knoten verf gbar sind Beispiele f r Quorum Konfigurationen die vermieden werden sollten erhalten Sie unter Unzul ssige Quorum Konfigurationen auf Seite 64 Beispiele f r empfohlene Quorum Konfigurationen erhalten Sie unter Empfohlene Quorum Konfigurationen auf Seite 61 Erf llen der Anforderungen f r Quorum Ger te Sie m ssen folgende Anforderungen erf llen Anderenfalls kann die Verf gbarkeit des Clusters beeintr chtigt sein m Stellen Sie sicher dass die Sun Cluster Software Ihr Ger t als Quorum Ger t unterst tzt Hinweis Eine Liste der Ger te die von der Sun Cluster Software als Quorum Ger te unterst tzt werden erhalten Sie bei Ihrem Sun Dienstanbieter Die Sun Cluster Software unterst tzt zwei Arten von Quorum Ger ten m Gemeinsam genutzte Multihostplatten die SCSI 3 PGR Reservierungen unterst tzen 58 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A m Gemeinsam genutzte Dual Host Platten die SCSI 2 Reservierungen unterst tzen m In einer Konfiguration mit zwei Knoten m ssen Sie mindestens ein Quorum Ger t konfigurieren um sicherzustellen dass ein ein
62. dnung von Benutzeraufgaben zu Dokumentation Fortsetzung F r diese Aufgabe Verwenden Sie diese Dokumentation Installieren und Konfigurieren der Datentr gerverwaltungs Software Installieren und Konfigurieren von Sun Cluster Datendiensten Warten der Cluster Hardware Verwalten der Sun Cluster Software Verwalten der Datentr gerverwaltungs Software Verwalten von Anwendungssoftware Problemidentifizierung und empfohlene Benutzeraktionen Erstellen eines neuen Datendienstes Sun Cluster Handbuch Softwareinstallation f r Solaris OS Ihre Dokumentation zur Datentr gerverwaltung Sun Cluster Data Services Planning and Administration Guide for Solaris OS Sun Cluster 3 x Hardware Administration Manual for Solaris OS Sun Cluster System Administration Guide for Solaris OS Sun Cluster Handbuch Systemverwaltung f r Solaris OS und die Dokumentation zur Datentr gerverwaltung Ihre Anwendungsdokumentation Sun Cluster Error Messages Guide for Solaris OS Sun Cluster Data Services Developer s Guide for Solaris OS Kapitel 1 Einf hrung und berblick 19 20 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A KAPITEL 2 Schl sselkonzepte Hardwaredienstleister In diesem Kapitel werden die Schl sselkonzepte im Zusammenhang mit den Hardwarekomponenten einer SunPlex Systemkonfiguration beschrieben Zu den behandelten Themen geh ren m Cluster Knoten auf Seite 22 m
63. e oder offline haben Der Status eines Transportpfades kann mit scstat 1M angezeigt werden Betrachten Sie das folgende Beispiel eines Zwei Knoten Clusters mit vier Kabeln Kapitel 4 e H ufig gestellte Fragen nodel adapterO0 to switchl porto nodel adapterl to switch2 porto node2 adapterO0 to switchl portil node2 adapterl to switch2 port1 Es gibt zwei m gliche Transportpfade die aus diesen vier Kabeln gebildet werden k nnen nodel adapterO to node2 adapterO node2 adapterl to node2 adapterl H ufige Fragen zu Client Systemen m M ssen bei der Verwendung eines Clusters besondere Client Anforderungen oder Einschr nkungen ber cksichtigt werden Client Systeme stellen mit dem Cluster die Verbindung auf dieselbe Weise wie mit einem anderen Server her Bei manchen Instanzen kann es je nach Datendienstanwendung erforderlich sein clientseitige Software zu installieren oder sonstige nderungen an der Konfiguration vorzunehmen damit der Client eine Verbindung mit der Datendienstanwendung herstellen kann Weitere Informationen zu clientseitigen Konfigurationsanforderungen finden Sie im Sun Cluster Data Services Planning and Administration Guide H ufige Fragen zur Verwaltungskonsole m Erfordert das SunPlex System eine Verwaltungskonsole Ja m Muss die Verwaltungskonsole dem Cluster zugewiesen werden oder kann sie auch f r andere Aufgaben eingesetzt werden Das SunPlex System erfordert keine dedizierte V
64. ein diese Konfiguration wird nicht unterst tzt da in x86 basierten Clustern nur Solaris Volume Manager unterst tzt wird Kapitel 4 e H ufig gestellte Fragen H ufige Fragen zu Datendiensten Welche SunPlex Datendienste sind verf gbar Die Liste der unterst tzten Datendienste finden Sie unter Unterst tzte Produkte in Sun Cluster 3 1 9 04 Versionshinweise f r Solaris OS m Welche Anwendungsversionen werden von SunPlex Datendiensten unterst tzt Die Liste der unterst tzten Anwendungsversionen finden Sie unter Unterst tzte Produkte in Sun Cluster 3 1 9 04 Versionshinweise f r Solaris OS m K nnen eigene Datendienste geschrieben werden Ja Weitere Informationen finden Sie in der Referenz f r die Datendienst Entwicklungsbibliothek im Sun Cluster Entwicklerhandbuch Datendienste f r Solaris OS m M ssen beim Erstellen von Netzwerkressourcen numerische IP Adressen oder Hostnamen angegeben werden Die bevorzugte Methode zur Angabe von Netzwerkressourcen ist die Verwendung des UNIX Hostnamens anstelle der numerischen IP Adresse m Was ist beim Erstellen von Netzwerkressourcen der Unterschied zwischen der Verwendung eines logischen Hostnamens LogicalHostname Ressource und einer gemeinsam genutzten Adresse SharedAddress Ressource Wenn in der Dokumentation die Verwendung einer LogicalHostname Ressource in einer Ressourcengruppe im Failover Modus beschrieben ist kann wahlweise eine SharedAddress Re
65. er Bedeutung zu steuern Die Bedeutung der Arbeitslast wird durch die Anteile an CPU Zeit ausgedr ckt die Sie jeder Arbeitslast zuweisen Eine Beschreibung der Befehlszeile um FSS als Ihren Standardplaner festzulegen finden Sie unter dispadmin 1M Weitere Informationen finden Sie unter priocntl 1 ps 1 und FSS 7 m Pools Damit besteht die M glichkeit Partitionen je nach Anwendungsanforderungen f r interaktive Anwendungen zu nutzen Pools k nnen zur Partitionierung eines Servers eingesetzt werden der eine Reihe unterschiedlicher Softwareanwendungen unterst tzt Die Verwendung von Pools f hrt zu einer besser vorhersehbaren Antwort f r jede Anwendung 82 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Bestimmen der Anforderungen der Projektkonfiguration Bevor Sie die Datendienste zur Verwendung der von Solaris zur Verf gung gestellten Steuerm glichkeiten in einer Sun Cluster Umgebung konfigurieren m ssen Sie entscheiden wie Sie die Ressourcen bei Switchover oder Failover Vorg ngen steuern und verfolgen m chten Identifizieren Sie vor der Konfiguration eines neuen Projekts die Abh ngigkeiten innerhalb Ihres Clusters Ressourcen und Ressourcengruppen h ngen zum Beispiel von Plattenger tegruppen ab Verwenden Sie die Ressourcengruppeneigenschaften nodelist failback maximum _primaries und desired_primaries die mit scrgadm 1M konfiguriert werden um die Priorit ten in der Knotenliste f r Ihre Re
66. erte Systeme und Sun Java System Directory Server fr her Sun Java System Directory Server zur Verf gung Datendienste werden erstellt indem Standard Anwendungen f r die Steuerung durch die Sun Cluster Software konfiguriert werden Die Sun Cluster Software stellt Konfigurationsdateien und Verwaltungsmethoden zum Starten Stoppen und berwachen der Anwendungen zur Verf gung Wenn Sie einen neuen Failover oder Scalable Dienst erstellen m ssen k nnen Sie mit der Anwendungsprogrammierungsschnittstelle API von SunPlex und der DSET API API der Datendienst Grundlagentechnologie die Konfigurationsdateien und Verwaltungsmethoden erstellen die zur Ausf hrung der Anwendung als Datendienst auf dem Cluster erforderlich sind Schl sselkonzepte Anwendungsprogrammierer Anwendungsprogrammierer m ssen Folgendes verstehen m Die Eigenschaften der Anwendung um festzustellen ob diese zur Ausf hrung als Failover oder Scalable Dienst eingerichtet werden kann m Die Sun Cluster API DSET API sowie den generischen Datendienst Die Programmierer m ssen entscheiden welches Tool sich am besten f r das Schreiben von Programmen oder Skripts eignet mit denen ihre Anwendung f r die Cluster Umgebung konfiguriert werden soll Kapitel 1 Einf hrung und berblick 17 Empfohlene Verweise auf Konzepte f r Anwendungsprogrammierer Die folgenden Abschnitte enthalten relevante Informationen zu den vorstehenden Schl sselkonzepten m Date
67. erwaltungskonsole aber diese hat folgende Vorteile m Sie erm glicht eine zentralisierte Cluster Verwaltung durch das Gruppieren von Konsolen und Verwaltungstools auf demselben Rechner m Sie sorgt f r eine potenziell schnellere Probleml sung durch Ihren Hardware Dienstleister Muss sich die Verwaltungskonsole in der N he des Clusters befinden zum Beispiel in demselben Raum Fragen Sie bei Ihrem Hardware Dienstleister nach Der Dienstleister kann ggf die r umliche N he der Konsole zum eigentlichen Cluster vorschreiben Es gibt keine technischen Gr nde die eine Unterbringung der Konsole in demselben Raum 104 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A erforderlich machen K nnen Verwaltungskonsolen mehr als einen Cluster verwalten wenn ggf vorhandene Abstandsvorgaben eingehalten werden Ja Sie k nnen von einer einzigen Verwaltungskonsole aus mehrere Cluster steuern Sie k nnen auch einen einzigen Terminal Konzentrator zwischen den Clustern teilen H ufige Fragen zu Terminal Konzentrator und System Service Processor Erfordert das SunPlex System einen Terminal Konzentrator Softwareversionen ab Sun Cluster 3 0 ben tigen keinen Terminal Konzentrator Anders als das Produkt Sun Cluster 2 2 das einen Terminal Konzentrator als Fehlerschutz ben tigte h ngen neuere Produkte nicht vom Terminal Konzentrator ab Die meisten SunPlex Server verwenden einen Terminal Konzentrato
68. f den Knoten zwangsweise herunterzufahren Panik und aus der Cluster Mitgliedschaft zu entfernen Der Mechanismus f r diesen Vorgang wird als Failfast bezeichnet Ein Failfast bewirkt das Herunterfahren eines Knotens auf zwei Arten m Wenn ein Knoten den Cluster verl sst und dann versucht einen neuen Cluster ohne Quorum zu starten wird er vom Zugriff auf die gemeinsam genutzten Platten gesch tzt Weitere Details zur Verwendung von Failfast finden Sie unter Informationen zum Fehlerschutz auf Seite 56 m Wenn ein oder mehr Cluster spezifische D monen ausfallen clexecd rpc pmfd rgmd oder rpc ed wird der Fehler vom CMM erkannt und der Knoten ger t in Panik Wenn der Ausfall eines Cluster D mons einen Knoten in 40 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Panik versetzt wird in der Konsole f r diesen Knoten eine Meldung angezeigt die in etwa folgenderma en aussieht panic cpu0 thread 40e60 Failfast Aborting because pmfd died 35 seconds ago 409b8 cl_runtime _OFZsc_syslog_msg_log_no_argsPviTCPCCTB 48 70 900 30 70df54 407acc 0 1l0 7 1006c80 000000a 000000a 10093bc 406d43c80 7110340 0000000 4001 fbfO0 Nach der Panik kann der Knoten neu booten und versuchen dem Cluster wieder beizutreten oder in Clustern aus SPARC basierten Systemen an der OpenBoot M PROM OBP Eingabeaufforderung bleiben Welche Aktion eingeleitet wird bestimmt die Einstellung des auto boot Parameters
69. f jedem Knoten ber ein TCP IP Netzwerk Damit kann auf Konsolenebene von einer Remote Workstation im Netzwerk aus auf jeden Knoten zugegriffen werden Der System Service Processor SSP stellt Konsolenzugriff f r Sun Enterprise E10000 server zur Verf gung Der SSP ist ein Rechner in einem Ethernet Netzwerk der so konfiguriert wurde dass er den Sun Enterprise E10000 server unterst tzt Der SSP ist die Verwaltungskonsole f r den Sun Enterprise E10000 server Mit der Sun Enterprise E10000 Netzwerkkonsolenfunktion kann jede Workstation im Netzwerk eine Host Konsolensitzung ffnen 28 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Zu den weiteren Zugriffsmethoden auf die Konsole geh ren andere Terminal Konzentratoren tip 1 Zugriff ber den seriellen Port von einem anderen Knoten aus und unintelligente Terminals Sie k nnen Tastaturen und Monitore von Sun oder andere Ger te f r den seriellen Port verwenden wenn Ihr Hardwaredienstleister diese unterst tzt Verwaltungskonsole Sie k nnen eine dedizierte UltraSPARC Workstation oder einen Sun Fire M V65x Server die als Verwaltungskonsole bezeichnet werden f r die Verwaltung des aktiven Clusters verwenden Normalerweise wird Verwaltungstool Software wie der Cluster Steuerbereich CCP und das Sun Cluster Modul f r das Sun Management Center M Produkt nur zur Verwendung in SPARC basierten Clustern auf der Verwaltungskonsole installiert und ausgef hrt
70. folgt und die preferenced Eigenschaft auf true eingestellt ist folgen die Knoten bei der Auswahl eines Sekund rknotens der Reihenfolge in der Knotenliste Die mit der preferenced Eigenschaft eingerichtete Knotenliste definiert die Reihenfolge in der die Knoten versuchen die Steuerung als Prim rknoten oder den bergang von Spare Knoten zu Sekund rknoten zu bernehmen Sie k nnen den Vorrang eines Ger tedienstes mit dem Dienstprogramm scsetup 1M dynamisch ndern Der Vorrang der abh ngigen Dienste zum Beispiel eines globalen Dateisystems entspricht dem des Ger tedienstes Im Normalbetrieb f hrt der Prim rknoten Checkpoint Vorg nge f r Sekund rknoten durch In einer Multiport Plattenkonfiguration f hrt das Durchf hren des Checkpoint Vorgangs an jedem Sekund rknoten zu einer Leistungsverminderung des Clusters und zu Speicher berlastung Die Spare Knoten Unterst tzung wurde implementiert um die Checkpoint bedingte Leistungsminderung und Speicher berlastung zu minimieren Standardm ig hat Ihre Plattenger tegruppe einen Prim r und einen Sekund rknoten Die restlichen verf gbaren Anbieterknoten werden im Spare Zustand online gebracht Bei einem Failover wird der Sekund rknoten zum Prim rknoten und der Knoten mit der h chsten Priorit t in der Knotenliste wird zum Sekund rknoten Die gew nschte Anzahl von Sekund rknoten kann auf jede beliebige Ganzzahl zwischen Eins und der Anzahl der betriebsbereiten Anbieterknoten in
71. formationen zur Anzahl der fehlgeschlagenen Pings zu liefern Zur Verwaltung der Plattenpfade verwenden Sie die Informationen der GUI von SunPlex Manager zusammen mit dem scdpm 1M Befehl Informationen ber SunPlex Manager finden Sie unter Administering Sun Cluster With the Graphical User Interfaces in Sun Cluster System Administration Guide for Solaris OS Verwenden des scdpm Befehls zur Plattenpfad berwachung Der scdpm 1M Befehl stellt DMP Verwaltungsbefehle zur Verf gung mit denen Sie folgende Aufgaben ausf hren k nnen m berwachen eines neuen Plattenpfades m Aufheben der berwachung eines Plattenpfades m Neues Lesen der Konfigurationsdaten aus der CCR Datenbank m Lesen der Platten die berwacht werden sollen oder deren berwachung aufgehoben werden soll von einer angegebenen Datei aus m Berichten des Status eines Plattenpfades oder aller Plattenpfade im Cluster m Drucken aller Plattenpfade auf die von einem Knoten aus zugegriffen werden kann Geben Sie den scdpm 1M Befehl mit dem Plattenpfad Argument von einem beliebigen aktiven Knoten aus um DPM Verwaltungsaufgaben auf dem Cluster auszuf hren Das Plattenpfad Argument besteht immer aus einem Knotennamen und einem Plattennamen Der Knotenname ist nicht erforderlich und wird standardm ig auf all gesetzt wenn kein Name angegeben wurde In der nachstehenden Tabelle werden die Benennungskonventionen f r den Plattenpfad beschrieben 52 Sun Cluster Konze
72. ftware l uft auf zwei Plattformen SPARC und x86 Die Informationen in diesem Dokument beziehen sich auf beide Plattformen wenn nicht in einem eigenen Kapitel Abschnitt Anmerkung Unterpunkt Abbildung Tabelle oder Beispiel anderweitige Angaben erfolgen Typografische Konventionen Die folgende Tabelle beschreibt die in diesem Buch verwendeten typografischen nderungen TABELLE P 1 Typografische Konventionen Schriftart oder Symbol Bedeutung Beispiel AaBbCc123 AaBbCc123 Die Namen von Befehlen Dateien Verzeichnissen Bildschirmausgabe Die Eingaben des Benutzers im Gegensatz zu den Bildschirmausgaben des Computers Bearbeiten Sie Ihre login Datei Verwenden Sie 1s a um eine Liste aller Dateien zu erhalten Rechnername Sie haben eine neue Nachricht Rechnername su Passwort AaBbCc123 Befehlszeilen Variable durch einen realen Namen oder Wert ersetzen Der Befehl zum Entfernen einer Datei lautet rm filename AaBbCc123 Buchtitel neue Begriffe und Ausdr cke die hervorgehoben werden sollen Lesen Sie hierzu Kapitel 6 im Benutzerhandbuch Sie werden als Klassenoptionen bezeichnet Speichern Sie die Datei nicht Online erfolgt die Hervorhebung manchmal mittels Fettdruck Beispiele f r Shell Eingabeaufforderungen in Befehlen Die folgende Tabelle zeigt die Standard Systemeingabeaufforderung und die Superbenutzer Eingabeaufforderung f r
73. gen gibt es f r Cluster Mitglieder Sie k nnen mehrere Sicherungsmethoden f r einen Cluster verwenden Eine Methode besteht darin einen Knoten als Sicherungsknoten mit angeschlossenem Bandlaufwerk Bibliothek zu verwenden Dann sichern Sie die Daten mit dem Cluster Dateisystem Verbinden Sie diesen Knoten nicht mit den gemeinsam genutzten Platten Weitere Informationen zur Sicherung und Wiederherstellung von Daten finden Sie unter Sichern und Wiederherstellen eines Clusters im Sun Cluster Handbuch Systemverwaltung f r Solaris OS m Wann ist ein Knoten stabil genug um als Sekund rknoten eingesetzt zu werden Nach dem erneuten Booten ist ein Knoten stabil genug um als Sekund rknoten eingesetzt zu werden wenn der Knoten die Anmelde Eingabeaufforderung anzeigt 102 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A H ufige Fragen zum Cluster Speicher Was macht den Multihost Speicher hoch verf gbar Multihost Speicher ist hoch verf gbar weil er den Verlust einer Einzelplatte dank der Spiegelung oder dank hardwarebasierter RAID 5 Controller bersteht Ein Multihost Speicherger t hat mehr als eine Hostverbindung Deswegen widersteht es dem Verlust eines einzelnen Knotens an den es angeschlossen ist Zudem sorgen redundante Pfade von jedem Knoten zum angeschlossenen Speicher daf r dass ein Versagen eines Hostbusadapters Kabels oder Platten Controllers toleriert wird H ufige Fragen zum
74. gen zum ffentlichem Netzwerk 101 H ufige Fragen zu Cluster Mitgliedern 102 H ufige Fragen zum Cluster Speicher 103 H ufige Fragen zum Cluster Interconnect 103 H ufige Fragen zu Client Systemen 104 H ufige Fragen zur Verwaltungskonsole 104 H ufige Fragen zu Terminal Konzentrator und System Service Processor 105 Index 109 6 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Vorwort Das Sun Cluster Konzepthandbuch f r Solaris OS enth lt konzeptionelle und Verweisinformationen zum SunPlex M System auf SPARCTY und x86 basierten Systemen Hinweis In diesem Dokument bezieht sich der Begriff x86 auf die Intel 32 Bit Familie von Mikroprozessorchips sowie auf kompatible von AMD hergestellte Mikroprozessorchips Zum SunPlex System geh ren alle Hardware und Softwarekomponenten aus denen die Sun Cluster L sung besteht Dieses Dokument richtet sich an erfahrene Systemverwalter die mit der Sun Cluster Software vertraut sind Verwenden Sie dieses Dokument weder als Planungs noch als Presales Unterlage Vor der Lekt re dieses Dokuments sollten die Systemanforderungen feststehen und Sie sollten im Besitz der geeigneten Ger te und Software sein Zum Verst ndnis der in diesem Buch beschriebenen Konzepte m ssen Sie mit der Solaris M Betriebsumgebung vertraut sein und Erfahrung mit der Datentr ger Manager Software besitzen die im SunPlex System eingesetzt wird Hinweis Sun Cluster So
75. genschaften 80 Einstellungen 78 Zust nde 78 Ressourcengruppe Failover 68 Ressourcengruppen 77 Eigenschaften 80 Einstellungen 78 Zust nde 78 Ressourcengruppen Manager Siehe RGM Ressourcentypen 77 HAStoragePlus 49 Ressourcenverwaltung 80 RG_project name Eigenschaft 83 RGM 68 77 80 RMAPI 78 Root Passwort 102 S Scalable Datendienste 68 FAQ 97 Ressourcengruppen 68 Versus Failover 97 Schnittstellen Siehe Netzwerk Schnittstellen Verwaltung 37 Schutz 56 Sch tzen 40 SCSI Fehlerschutz 56 Multi Initiator 25 Persistent Group Reservation 57 Reservierungskonflikt 57 scsi initiator id Eigenschaft 26 Sekund rknoten 66 Server Einzelservermodell 65 Geclustertes Servermodell 65 SharedAddress Siehe Gemeinsam genutzte Adresse Sicherung 102 Sicherungsknoten 102 Software Fehler 39 Wiederherstellung 39 Softwarekomponenten 23 Solaris Projekte 80 Solaris Ressourcen Manager 80 Failover Szenarien 84 89 Konfigurationsanforderungen 83 113 Solaris Ressourcen Manager Fortsetzung Konfigurieren virtueller Speicherbegrenzungen 84 Solaris Volume Manager Multihost Ger te 25 Speicher 24 Dynamische Rekonfiguration 93 FAQ 103 SCSI 25 Split Brain 54 Fehlerschutz 56 SSP Siehe System Service Processor Stimmenanzahl Knoten 55 Quorum Ger te 55 Sun Cluster Siehe Cluster Sun Enterprise E10000 105 Verwaltungskonsole 29 Sun Management Center 37 SunMC Siehe Sun Man
76. handbuch f r Solaris OS September 2004 Revision A Befehl Funktion showrev p Gibt die installierten Korrekturversionen zur ck SPARC prtdiag Zeigt Informationen zu Systemdiagnosen an EV scinstall pv Zeigt Informationen zu Sun Cluster Software und Packetversion an scstat Liefert einen Schnappschuss des Cluster Status scconf p Listet die Cluster Konfigurationsinformationen auf scrgadm p Zeigt Informationen zu installierten Ressourcen Ressourcengruppen und Ressourcentypen an Halten Sie zudem den Inhalt der Datei var adm messages bereit 11 12 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A KAPITEL 1 Einf hrung und berblick Das SunPlex System ist eine integrierte L sung aus Hardware und Sun Cluster Software zur Erstellung hoch verf gbarer und von Scalable Diensten Das Sun Cluster Konzepthandbuch f r Solaris OS liefert die ben tigten konzeptionellen Informationen f r die wichtigste Zielgruppe der SunPlex Dokumentation Zu dieser Zielgruppe geh ren Dienstleister die Cluster Hardware installieren und warten Systemverwalter die Sun Cluster Software installieren konfigurieren und verwalten Anwendungsentwickler welche die derzeit noch nicht in Sun Cluster enthaltenen Failover und Scalable Dienste entwickeln Dieses Buch vermittelt zusammen mit der restlichen SunPlex Dokumentationsreihe einen vollst ndigen berblick ber das SunPlex System Kapiteli
77. he Netzwerkschnittstellen 27 Client Systeme 28 Konsolenzugriffsger te 28 Verwaltungskonsole 29 SPARC Sun Cluster Iopologiebeispiele 30 SPARC Geclusterte Paare Iopologie 30 SPARC Paar N Topologie 31 SPARC N 1 Stern Topologie 32 SPARC N N Scalable Topologie 33 21 x86 Sun Cluster Topologiebeispiele 34 x86 Geclusterte Paare Topologie 34 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung 37 Verwaltungsschnittstellen 37 Cluster Zeit 38 Hoch verf gbares Framework 39 Cluster Mitglieder Monitor 40 Cluster Konfigurations Repository CCR 41 Globale Ger te 41 Ger te ID DID 42 Plattenger tegruppen 43 Plattenger tegruppen Failover 43 Multiport Plattenger tegruppen 44 Globaler Namensraum 46 Beispiel f r lokale und globale Namensr ume 47 Cluster Dateisysteme 47 Verwenden von Cluster Dateisystemen 48 HAStoragePlus Ressourcentyp 49 Syncdir Einh ngeoption 49 Plattenpfad berwachung 50 berblick 50 berwachen von Plattenpfaden 52 Quorum und Quorum Ger te 54 Informationen zur Quorum Stimmenanzahl 55 Informationen zum Fehlerschutz 56 Informationen zu Quorum Konfigurationen 58 Erf llen der Anforderungen f r Quorum Ger te 58 Anwenden der Empfehlungen f r den Umgang mit Quorum Ger te 59 Empfohlene Quorum Konfigurationen 61 Untypische Quorum Konfigurationen 63 Unzul ssige Quorum Konfigurationen 64 Datendienste 65 Datendienstmethoden 68 Failover Datendienste 68 Scalable Datendienste 68 Failback Einstellungen 7
78. hme bezieht erhalten Sie unter Anwenden der Empfehlungen f r den Umgang mit Quorum Ger te auf Seite 59 Knoten A Knoten B Knoten C Knoten D 1 1 1 1 Quorum Quorum Quorum Gert Gert Gert ABBILDUNG 3 3 Untypische Konfiguration Gesamte konfigurierte Stimmen 10 F r Quorum erforderliche Stimmen 6 Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 63 64 Unzul ssige Quorum Konfigurationen Beispiele f r empfohlene Quorum Konfigurationen erhalten Sie unter Empfohlene Quorum Konfigurationen auf Seite 61 Knoten A Knoten B 1 1 m Quorum Quorum Gert Gert Diese Konfiguration verst t gegen die Empfehlung dass die Stimmen von Quorum Ger ten grunds tzlich weniger sein sollten als die Stimmen von Knoten Gesamte konfigurierte Stimmen 4 F r Quorum erforderliche Stimmen 3 Knoten A Knoten B Knoten C Knoten D 1 1 1 1 m Gesamte konfigurierte Stimmen 6 F r Quorum erforderliche Stimmen 4 Quorum Quorum Gert Gert Diese Konfiguration verst t gegen die Empfehlung dass Sie keine Quorum Ger te hinzuf gen sollten um eine gerade Gesamtanzahl an Stimmen zu erzielen Durch diese Konfiguration wird keine Verf gbarkeit h
79. ide Der HAStoragePlus Ressourcentyp ist ab Sun Cluster 3 0 5 02 verf gbar und damit eine weitere Funktion um lokale Dateisysteme hoch verf gbar zu machen Weitere Informationen zu dieser Funktion finden Sie unter HAStoragePlus Ressourcentyp auf Seite 49 RGM verwaltete Ressourcen werden in Gruppen zusammengefasst die als Ressourcengruppen bezeichnet werden so dass sie als Einheit verwaltet werden k nnen Eine Ressourcengruppe migriert als Einheit wenn ein Failover oder ein Switchover f r die Ressourcengruppe eingeleitet wird Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 77 Hinweis Wenn Sie eine Ressourcengruppe mit Anwendungsressourcen online bringen wird die Anwendung gestartet Die Datendienst Startmethode wartet bis die Anwendung aktiv ist und ausgef hrt wird bevor sie erfolgreich beendet wird Die Feststellung wann die Anwendung aktiv ist und ausgef hrt wird erfolgt auf dieselbe Weise in der Datendienst Fehler Monitor feststellt ob ein Datendienst Clients bedient Im Sun Cluster Data Services Planning and Administration Guide for Solaris OS erhalten Sie weitere Informationen ber diesen Vorgang Resource Group Manager RGM Der RGM steuert Datendienste Anwendungen als Ressourcen die mit Ressourcentypen Implementierungen verwaltet werden Diese Implementierungen werden entweder von Sun geliefert oder von einem Entwickler mithilfe einer generischen Datendienstvorlage der API f r die D
80. ie unterschiedliche Anwendungen zu Failover oder Scalable Diensten innerhalb eines Clusters machen k nnen Wenn die Anwendung die Sie als Failover oder Scalable Dienst ausf hren m chten von Sun derzeit nicht angeboten wird k nnen Sie diese Anwendung mit einer API oder mit der DSET API als Failover oder Scalable Dienst konfigurieren Es gibt eine Reihe von Kriterien mit denen Sie feststellen k nnen ob eine Anwendung als Failover Dienst ausgef hrt werden kann Die Beschreibung des spezifischen Kriteriums finden Sie in den SunPlex Dokumenten zu den APls die Sie f r Ihre Anwendung verwenden k nnen Wir stellen Ihnen hier einige Richtlinien vor mit deren Hilfe Sie erkennen k nnen ob Ihr Dienst die Scalable Datendienst Architektur nutzbringend einsetzen kann Allgemeine Informationen zu Scalable Diensten finden Sie unter scalable Datendienste auf Seite 68 Neue Dienste die folgende Richtlinien erf llen k nnen Scalable Dienste verwenden Wenn ein vorhandener Dienst diese Richtlinien nicht genau einh lt m ssen Teile davon m glicherweise neu geschrieben werden damit der Dienst den Richtlinien entspricht Ein Scalable Datendienst weist folgende Merkmale auf Erstens Ein solcher Dienst besteht aus einer oder mehreren Serverinstanz en Jede Instanz wird auf einem anderen Knoten des Clusters ausgef hrt Zwei oder mehr Instanzen desselben Dienstes k nnen nicht auf demselben Knoten ausgef hrt werden Zweitens Wenn der D
81. iele des SunPlex Systems m Reduzieren oder Beseitigen der Systemausfallzeiten aufgrund von Softwarefehlern oder Hardwareausf llen m Sicherstellen der Verf gbarkeit von Daten und Anwendungen f r Endbenutzer unabh ngig von der Art des Fehlers der normalerweise zum Ausfall eines Einzelserversystems f hrt m Erh hen der Durchsatzleistung von Anwendungen indem Dienste durch die Aufnahme weiterer Knoten in den Cluster auf zus tzliche Prozessoren skalierbar gemacht werden m Verbessern der Systemverf gbarkeit weil Sie das System pflegen k nnen ohne den ganzen Cluster herunterfahren zu m ssen Weitere Informationen zu Fehlertoleranz und Hochverf gbarkeit finden Sie unter Making Applications Highly Available With Sun Cluster in Sun Cluster Overview for Solaris OS Fragen und Antworten zur Hochverf gbarkeit finden Sie unter H ufig gestellte Fragen zur Hochverf gbarkeit auf Seite 97 Drei Aspekte des SunPlex Systems In diesem Abschnitt werden drei unterschiedliche Aspekte des SunPlex Systems sowie die Schl sselkonzepte und die Dokumentation beschrieben die f r den jeweiligen Aspekt wichtig sind Diese drei Aspekte sind vertreten durch 14 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A m Hardware Installations und Servicepersonal m Systemverwalter Anwendungsprogrammierer Hardwareinstallation und Service F r Hardwarespezialisten stellt sich das SunPlex System als eine Samm
82. ienst einen externen logischen Datenspeicher zur Verf gung stellt muss der gleichzeitige Zugriff auf diesen Speicher durch mehrere Serverinstanzen synchronisiert werden um den Verlust von Aktualisierungen oder das Lesen von Daten zu verhindern wenn diese gerade ge ndert werden Beachten Sie dass die Bezeichnung extern verwendet wird um den Speicher vom Arbeitsspeicherstatus zu unterscheiden und der Begriff logisch weil der Speicher als einzelne Entit t angezeigt wird auch wenn er m glicherweise repliziert ist Au erdem hat dieser logische Datenspeicher die Eigenschaft dass eine Aktualisierung des Speichers durch eine beliebige Instanz sofort von anderen Instanzen erkannt wird Das SunPlex System stellt einen solchen externen Speicher ber das Cluster Dateisystem und die globalen Partitionen im raw Modus zur Verf gung Angenommen ein Dienst schreibt neue Daten in eine externe Protokolldatei oder ndert die dort vorhandenen Daten Wenn mehrere Instanzen dieses Dienstes ausgef hrt werden hat jede Instanz Zugriff auf dieses externe Protokoll und jede kann Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 73 gleichzeitig auf dieses Protokoll zugreifen Jede Instanz muss den Zugriff auf dieses Protokoll synchronisieren andernfalls kommt es zu Interferenzen zwischen den Instanzen Der Dienst kann die normale Solaris Dateisperrung ber ent1 2 und lockf 3C verwenden um die gew nschte Synchronisieru
83. inem Failover werden neue ARP Pakete Address Resolution Protocol Pakete generiert und an alle gesendet Diese ARP Pakete enthalten die neue MAC Adresse des neuen tats chlichen Adapters zu dem der Knoten gewechselt ist und die alte IP Adresse Wenn ein anderer Rechner im Netzwerk eines dieser Pakete erh lt l scht er die alte MAC IP Zuordnung aus seinem ARP Cache und verwendet die neue Unterst tzt das SunPlex System die Einstellung local mac address true Ja Tats chlich erfordert IP Network Multipathing dass local mac address auf true gesetzt sein muss Sie k nnen local mac address mit eeprom 1M in einem SPARC basierten Cluster an der OpenBoot PROM ok Eingabeaufforderung einstellen oder mit dem SCSI Dienstprogramm das Sie optional nach dem Starten der BIOS in einem x86 basierten Cluster ausf hren Welche Verz gerung ist zu erwarten wenn IP Network Multipathing ein Switchover zwischen Adaptern ausf hrt Die Verz gerung kann mehrere Minuten betragen Der Grund daf r ist dass ein IP Network Multipathing Switchover das Senden eines freien ARP beinhaltet Es gibt jedoch keine Garantie daf r dass der Router zwischen Client und Cluster dieses ARP auch verwendet Bis zum Ablauf der G ltigkeit des ARP Cache Eintrags f r diese IP Adresse auf dem Router wird m glicherweise die veraltete MAC Adresse verwendet Wie schnell werden Fehler an einem Netzwerkadapter erkannt Die Standard Fehlererkennungszeit betr gt 10 Sekunden
84. inkaufskorb mit Kreditkarte zu bezahlen Platzhalter Sticky Dienste verwenden dynamisch zugewiesene Port Nummern erwarten jedoch trotzdem dass die Client Anforderungen an denselben Knoten geleitet werden Der Client ist in Bezug auf dieselbe IP Adresse Sticky Platzhalter bei den Ports Ein gutes Beispiel dieses Verfahrens ist der passive FTP Modus Ein Client stellt an Port 21 eine Verbindung mit einem FTP Server her und wird vom Server angewiesen eine neue Verbindung mit einem Listener Port Server im dynamischen Port Bereich herzustellen Alle Anforderungen an diese IP Adresse werden an denselben Knoten weitergeleitet den der Server dem Client mit den Steuerinformationen angegeben hat Beachten Sie dass das gewichtete Lastausgleichsverfahren f r jedes dieser Sticky Verfahren standardm ig g ltig ist so dass die urspr ngliche Client Anforderung an die vom Lastausgleich vorgegebene Instanz geleitet wird Nachdem der Client eine Affinit t zum Knoten mit der ausgef hrten Instanz aufgebaut hat werden zuk nftige Anforderungen an diese Instanz geleitet solange der Knoten zug nglich ist und das Lastausgleichsverfahren nicht ge ndert wird Weitere Details zu spezifischen Lastausgleichsverfahren werden nachstehend erl utert m Gewichtet Die Last wird entsprechend den angegebenenen Gewichtungswerten auf mehrere Knoten verteilt Dieses Verfahren wird mit dem LB_WEIGHTED Wert f r die Load_balancing_weights Eigenschaft eingestellt
85. inzugef gt Knoten A Knoten B Knoten C 1 1 1 0O Quorum Quorum Gert Gert Gesamte konfigurierte Stimmen 5 F r Quorum erforderliche Stimmen 3 Diese Konfiguration verst t gegen die Empfehlung dass die Stimmen von Quorum Ger ten grunds tzlich weniger sein sollten als die Stimmen von Knoten Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Datendienste Der Begriff Datendienst beschreibt eine Anwendung von Drittherstellern wie Sun Java System Web Server fr her Sun Java System Web Server oder Oracle f r SPARC basierte Cluster die eher zur Ausf hrung auf einem Cluster als auf einem Einzelserver konfiguriert wurde Ein Datendienst besteht aus einer Anwendung spezialisierten Sun Cluster Konfigurationsdateien und Sun Cluster Verwaltungsmethoden mit denen die nachfolgenden Anwendungsaktionen gesteuert werden m Start m Stopp m berwachen und Ergreifen von Korrekturma nahmen m Informationen zu Datendienst TIypen finden Sie unter Data Services in Sun Cluster Overview for Solaris OS In Abbildung 3 4 wird eine Anwendung die auf einem einzigen Anwendungsserver ausgef hrt wird Einzelservermodell mit derselben Anwendung auf einem Cluster Cluster Servermodell verglichen Beachten Sie dass aus der Benutzerperspektive kein Unterschied zwischen den beiden Konfigurationen besteht Die Cluster Anwendung wird ggf schneller
86. ion f r ein Band oder Plattenlaufwerk eingesetzt m Stellen Sie fest ob das Platten oder Bandlaufwerk zu einer aktiven Ger tegruppe geh rt Wenn das Laufwerk zu keiner aktiven Ger tegruppe geh rt k nnen Sie den DR Entfernungsvorgang ausf hren m Wenn der DR Vorgang zur Board Entfernung ein aktives Platten oder Bandlaufwerk betrifft lehnt das System den Vorgang ab und identifiziert die betroffenen Laufwerke Wenn das Laufwerk zu einer aktiven Ger tegruppe geh rt gehen Sie zu SPARC Erw gungen zur DR von Platten und Bandlaufwerken im Cluster auf Seite 93 m Stellen Sie fest ob das Laufwerk eine Komponente des Prim r oder Sekund rknotens ist Wenn das Laufwerk eine Komponente des Sekund rknotens ist k nnen Sie den DR Entfernungsvorgang ausf hren m Wenn das Laufwerk eine Komponente des Prim rknotens ist m ssen Sie vom Prim r auf den Sekund rknoten umschalten bevor Sie den DR Entfernungsvorgang f r das Ger t durchf hren k nnen 106 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Caution Wenn der aktuelle Prim rknoten ausf llt w hrend Sie den DR Vorgang auf einem Sekund rknoten ausf hren wirkt sich das auf die Cluster Verf gbarkeit aus Der Prim rknoten kann kein Failover auf einen anderen Knoten ausf hren bis ein neuer Sekund rknoten bereitgestellt wird Kapitel 4 H ufig gestellte Fragen 108 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Rev
87. ird ein Failover nur zwischen einem Paar ausgef hrt Dabei sind jedoch alle Knoten ber den Cluster Interconnect verbunden und arbeiten unter der Sun Cluster Softwaresteuerung Mit dieser Topologie k nnen Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover oder Scalable Anwendung auf einem anderen Paar ausf hren Mithilfe des Cluster Dateisystems k nnen Sie auch eine Konfiguration mit zwei Paaren erstellen bei der mehr als zwei Knoten einen Scalable Dienst oder eine parallele Datenbank ausf hren selbst wenn nicht alle Knoten mit den Platten verbunden sind auf denen die Anwendungsdaten gespeichert werden Die nachstehende Abbildung zeigt eine Geclusterte Paare Konfiguration 30 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Verbindungspunkt Verbindungspunkt Knoten 1 Knoten 2 Knoten 3 Knoten 4 7 7 Na nA N 2 7 A A DEN DER Speicher Speicher Speicher Speicher ABBILDUNG 2 2 SPARC Geclusterte Paare Topologie SPARC Paar N Iopologie Die Paar N Iopologie umfasst ein direkt mit einem gemeinsam genutzten Speicher verbundenes Knotenpaar und einen weiteren Knotensatz der den Cluster Interconnect f r den Zugriff auf den gemeinsam genutzten Speicher einsetzt ndash sie sind nicht direkt miteinander verbunden Die nachstehende Abbildung stellt eine Paar N Topologie dar in der zwei der
88. is OS Zwei Arten von Problemen k nnen aufgrund der Partitionierung von Clustern auftreten m Split Brain m Amnesie Split Brain tritt auf wenn der Cluster Interconnect zwischen Knoten verloren geht und der Cluster partitioniert wird Jede Partition verh lt sich so als sei sie die einzige vorhandene Partition da die Knoten in einer Partition nicht mit den Knoten in anderen Partitionen kommunizieren k nnen Zur Amnesie kommt es wenn der Cluster nach dem Herunterfahren mit Cluster Konfigurationsdaten neu startet die lter als die Daten zum Zeitpunkt des Herunterfahrens sind Dieses Problem kann auftreten wenn Sie den Cluster auf einem Knoten starten der sich nicht in der letzten funktionierenden Cluster Partition befindet 54 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Die Sun Cluster Software vermeidet das Autreten von Split Brain und Amnesie durch folgende Vorg nge m Zuweisung einer Stimme f r jeden einzelnen Knoten m Festlegung einer Stimmenmehrheit f r einen betriebsbereiten Cluster Eine Partition mit der Mehrheit der Stimmen erh lt ein Quorum und erh lt die Erlaubnis zum Arbeiten Dieser auf einer Stimmenmehrheit basierende Mechanismus vermeidet Split Brain und Amnesie f r den Fall dass mehr als zwei Knoten in einem Cluster konfiguriert wurden Das Z hlen der Knotenstimmen allein reicht jedoch nicht aus wenn mehr als zwei Knoten in einem Cluster konfiguriert wurden In einem Zwei Kno
89. ision A Index A Adapter Siehe Netzerk Adapter Agenten Siehe Datendienste Amnesie 54 Anwendung Siehe Datendienste Anwendungsentwicklung 37 95 Anwendungsverteilung 60 APIs 73 78 Attribute Siehe Eigenschaften auto boot Parameter 40 B Bandlaufwerk 26 Board Entfernung Dynamische Rekonfiguration lt 93 Boot Platte Siehe Platten lokal Boot Reihenfolge 102 C CCP 29 CCR 41 CD ROM Laufwerk 26 Client Server Konfiguration 65 Client Systeme 28 Einschr nkungen 104 FAQ 104 Cluster Anwendungsentwicklung 37 95 Anwendungsprogrammierer 17 Cluster Fortsetzung Aufgabenliste 18 Beschreibung 14 Board Entfernung 93 Boot Reihenfolge 102 Dateisystem 47 98 FAQ Siehe auch Dateisystem HAStoragePlus 49 Verwenden 48 Datendienste 65 Hardware 15 21 Interconnect 22 27 Adapter 27 Datendienste 75 Dynamische Rekonfiguration 94 FAQ 103 Kabel 27 Schnittstellen 27 Unterst tzt 103 Verbindungspunkte 27 Knoten 22 Konfiguration 41 Solaris Ressourcen Manager 80 Medien 26 Mitglieder 22 40 FAQ 102 Rekonfiguration 40 ffentliche Netzwerkschnittstelle 66 ffentliches Netzwerk 27 Passwort 102 Service 15 Sicherung 102 109 Cluster Fortsetzung Softwarekomponenten 23 Speicher FAQ 103 Systemverwalter 16 Topologien 30 34 Verwaltung 37 95 Vorteile 14 Zeit 38 Ziele 14 Cluster Konfigurations Repository 41 Cluster Mitglieder Monitor 40 Cluster Steuerbereich
90. it der jeder Anwendung zur Verf gung steht kann sich jedoch je nach Anzahl der Anteile ndern die jeder Anwendung mit CPU Zeit Bedarf zugewiesen werden Normalbetrieb 1 Anteil Anwil 33 3 CPU Anw en geh rt zu RG 1 2 Anteile Anw 3 a FERA es Anw 2 Ressourcen geh rt zu RG 2 phys schost 1 phys schost 2 Failover Betrieb Failover von RG 2 auf phys schost 2 2 Anteile Anw 2 al 50 CPU geh rt zu RG 2 Ressourcen 1 Anteil 100 CPU Anw 1 Ressourcen geh rt zu RG 1 2 Anteile Anw 3 h rt zu RG 3 90 CPU N Ressourcen phys schost 1 phys schost 2 Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 89 ffentliche Netzwerkadapter und IP Network Multipathing Clients f hren ber das ffentliche Netzwerk Datenanforderungen an den Cluster durch Jeder Cluster Knoten ist ber ein Paar ffentlicher Netzwerkadapter mit mindestens einem ffentlichen Netzwerk verbunden Die Solaris IPMP Software Internet Protocol Network Multipathing von Sun Cluster liefert den Basismechanismus f r die berwachung ffentlicher Netzwerkadapter und das Wechseln von IP Adressen von einem Adapter auf einen anderen wenn ein Fehler erkannt wird Jeder Cluster Knoten hat seine eigene IP Network Multipathing Konfiguration die sich von der auf anderen Cluster Knoten unterscheiden kann ffentliche Netzwerkadapter sind als IPMP Gruppen
91. jeweils nur auf einem Knoten online Alle Knoten die einen Scalable Dienst hosten verwenden dieselbe gemeinsam genutzte Adresse um den Dienst zu hosten 68 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Dienstanforderungen erreichen den Cluster ber eine einzige Netzwerkschnittstelle die globale Schnittstelle und werden anhand unterschiedlicher vordefinierter Algorithmen auf die Knoten verteilt die im Rahmen des Lastausgleichsverfahrens eingestellt wurden Der Cluster kann die Dienstlast mithilfe des Lastausgleichsverfahrens zwischen mehreren Knoten ausgleichen Beachten Sie dass mehrere globale Schnittstellen auf anderen Knoten weitere gemeinsam genutzte Adressen hosten k nnen Bei Scalable Diensten werden die Anwendungsinstanzen auf mehreren Knoten gleichzeitig ausgef hrt Wenn der Knoten mit der globalen Schnittstelle ausf llt wird die globale Schnittstelle auf einen anderen Knoten verschoben Wenn eine Anwendunssinstanz fehlschl gt versucht die Instanz auf demselben Knoten neu zu starten Wenn eine Anwendungsinstanz nicht auf demselben Knoten neu gestartet werden kann und ein anderer nicht verwendeter Knoten f r die Ausf hrung des Dienstes konfiguriert ist wird der Dienst im Rahmen eines Failover Vorgangs auf den nicht verwendeten Knoten verschoben Andernfalls wird er weiter auf den restlichen Knoten ausgef hrt und f hrt m glicherweise zu einer Reduzierung des Dienstdurchsatzes Hinweis De
92. lung aus Standard Hardware dar zu der Server Netzwerke und Speicher geh ren Diese Komponenten werden mit Kabeln verbunden so dass jede Komponente eine Sicherung hat und kein Single Point of Failure Ausfallpunkt mehr gegeben ist Schl sselkonzepte Hardware Hardwarespezialisten m ssen die folgenden Cluster Konzepte verstehen m Cluster Hardwarekonfiguration und Verkabelung Installation und Wartung Hinzuf gen Entfernen Ersetzen Netzwerkschnittstellen Komponenten Adapter Verbindungspunkte Kabel Schnittstellenkarten f r Platten Platten Arrays Plattenlaufwerke Verwaltungskonsole und Konsolenzugriffsger t m Konfiguration der Verwaltungskonsole und des Konsolenzugriffsger ts Empfohlene Verweise auf Hardwarekonzepte Die folgenden Abschnitte enthalten relevante Informationen zu den vorstehenden Schl sselkonzepten m Cluster Knoten auf Seite 22 m Multihost Ger te auf Seite 24 m Lokale Platten auf Seite 26 m Cluster Interconnect auf Seite 27 m ffentliche Netzwerkschnittstellen auf Seite 27 m Client Systeme auf Seite 28 m Verwaltungskonsole auf Seite 29 m Konsolenzugriffsger te auf Seite 28 m SPARC Geclusterte Paare Topologie auf Seite 30 m SPARC N 1 Stern Iopologie auf Seite 32 Relevante SunPlex Dokumentation Folgendes SunPlex Dokument enth lt Verfahren und Informationen zu Konzepten f r den Hardwareservice Kapitel 1 Einf h
93. luster verl sst aufgrund eines Ausfalls oder Partitionierung wird mit dem Fehlerschutz sichergestellt dass der Knoten keinen Zugriff mehr auf die Platte hat Nur aktuelle Mitgliederknoten haben Zugriff auf die Platten Das sichert die Datenintegrit t Plattenger tedienste stellen Failover Funktionen f r Dienste zur Verf gung die Multihostger te verwenden Wenn ein aktuell als Prim rknoten Eigent mer der Plattengruppe fungierendes Cluster Mitglied ausf llt oder nicht mehr erreicht werden kann wird ein neuer Prim rknoten ausgew hlt und nach einer einer unbedeutenden Unterbrechung kann wieder auf die Plattenger tegruppe zugegriffen werden W hrend dieses Prozesses muss der alte Prim rknoten den Zugriff auf die Ger te abgeben bevor der neue Prim rknoten gestartet werden kann Wenn ein Mitglied jedoch aus dem Cluster ausscheidet und nicht mehr erreichbar ist kann der Cluster diesen Knoten nicht zur Freigabe der Ger te auffordern f r die er als Prim rknoten fungierte Sie brauchen also ein Mittel mit dessen Hilfe die funktionsf higen Mitglieder die Steuerung und den Zugriff auf die globalen Ger te der ausgefallenen Mitglieder bernehmen k nnen Das SunPlex System verwendet SCSI Plattenreservierungen zur Implementierung des Fehlerschutzes Mit den SCSI Reservierungen werden die Multihostger te vor den ausgefallenen Knoten gesch tzt und der Zugriff auf diese Platten wird verhindert SCSI 2 Plattenreservierungen unte
94. mationen zur berwachung zum Aufheben der berwachung und zum Pr fen des Plattenpfadstatus finden Sie im Sun Cluster System Administration Guide for Solaris OS Hinweis DPM wird auf Knoten mit Versionen vor Sun Cluster 3 1 4 04 Software nicht unterst tzt Verwenden Sie w hrend einer Aufr stung keine DPM Befehle Nach der Aufr stung m ssen alle Knoten online sein um die DPM Befehle verwenden zu k nnen berblick DPM verbessert die gesamte Zuverl ssigkeit der Failover und Switchover Vorg nge durch die berwachung der Verf gbarkeit des Plattenpfades f r den Sekund rknoten Mit dem scdpm Befehl berpr fen Sie die Verf gbarkeit des von einer Ressource verwendeten Plattenpfades bevor die Ressource umgeschaltet wird Mit den vom scdpm Befehl zur Verf gung gestellten Optionen k nnen Sie die Plattenpfade zu einem einzelnen oder zu allen Knoten im Cluster berwachen Weitere Informationen zu Befehlszeilenoptionen finden Sie unter scdpm 1M Die DPM Komponenten werden aus dem SUNWscu Paket installiert Das SUNWscu Paket wird im Rahmen der Sun Cluster Standardinstallation installiert Details zur Installationsoberfl che finden Sie in der Online Dokumentation scinstall 1M In der nachstehenden Tabelle wird der Standardspeicherort f r die Installation der DPM Komponenten beschrieben 50 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Speicherort Komponente Daemon usr cluster lib sc
95. men in der Regel zwei IP Adressen zur ckgegeben Die erste Adresse wird als logische Pro Paar Adresse bezeichnet die zweite Adresse als logische Pro Knoten Adresse Jedem Knotenpaar wird eine eigene logische Pro Paar Adresse zugewiesen Dieses kleine logische Netzwerk unterst tzt Failover Vorg nge von Verbindungen Jedem Knoten wird au erdem eine feste Pro Knoten Adresse zugewiesen Mit anderen Worten die logischen Pro Paar Adressen f r clusternodel priv sind auf jedem Knoten anders w hrend die logische Pro Knoten Adresse f r clusternodel priv f r jeden Knoten gleich ist Ein Knoten hat jedoch f r sich selbst keine Pro Paar Adresse so dass mit gethostbyname clusternodel priv auf Knoten 1 nur die logische Pro Knoten Adresse zur ckgegeben wird Beachten Sie dass Anwendungen die Verbindungen ber den Cluster Interconnect zulassen und dann aus Sicherheitsgr nden die IP Adresse berpr fen alle IP Adressen berpr fen m ssen die mit gethostbyname zur ckgegeben werden und nicht nur die erste IP Adresse Wenn Sie in Ihrer Anwendung an allen Stellen konsistente IP Adressen ben tigen konfigurieren Sie Anwendung so dass die Pro Knoten Adresse sowohl an die Client als auch an die Serverseite angebunden ist so scheinen alle Verbindungen ber die Pro Knoten Adtresse zu laufen 76 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Ressourcen Ressourcengruppen und Ressourcentypen Datendienste verwen
96. n N t 3 Anteile A ee m 30 CPU 2 x g Ressourcen Anw 3 2 Anteile geh rt zu RG 3 1 20 CPU phys schost 1 phys schost 2 Ressourcen Failover der Ressourcengruppe In einer Konfiguration in der mehrere Ressourcengruppen denselben Standard Master haben kann eine Ressourcengruppe und die zugeordneten Anwendungen bei einem Failover oder Switchover auf einen Sekund rknoten wechseln Dabei l uft der Standard Master im Cluster weiter Hinweis Die Anwendung die den Failover Vorgang durchf hrt erh lt dabei die Ressourcen auf dem Sekund rknoten zugewiesen die in der Konfigurationsdatei angegeben sind In diesem Beispiel haben die Projekt Datenbankdateien auf Prim r und Sekund rknoten dieselbe Konfiguration Diese Beispielskonfigurationsdatei gibt an dass Anwendung 1 ein Anteil Anwendung 2 zwei Anteile und Anwendung 3 zwei Anteile zugewiesen werden 88 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Prj_1 106 project for App _l1 root project cpu shares privileged 1 none Prj_2 107 project for App _2 root project cpu shares privileged 2 none Prj_3 108 project for App _3 root project cpu shares privileged 2 none Die nachstehende Abbildung illustriert den normalen und den Failover Betrieb in dieser Konfiguration wobei RG 2 mit Anwendung 2 zu phys schost 2 wechselt Beachten Sie dass sich die Anzahl der zugewiesenen Anteile nicht ndert Der Prozentsatz an CPU Ze
97. n auf die sie zugreifen Hierzu geh ren auch die Quorum Platten Dieses ioctl ist eine Anweisung f r den Plattentreiber Damit kann sich der Knoten selbst in einen Panik Zustand versetzen wenn er nicht auf die Platte zugreifen kann weil diese von anderen Knoten reserviert wurde Das MHIOCENFAILFAST ioctl l st eine Pr fung der Fehlerr ckgaben aus jedem Lese und Schreibvorgang aus die von einem Knoten f r den Fehlercode Reservation Conflict an die Platte zur ckgegeben werden Das ioctl f hrt im Hintergrund regelm ige Testvorg nge auf der Platte aus um sie auf Reservation Conflict zu pr fen Sowohl der Kontrollflusspfad im Vordergrund als auch der im Hintergrund geraten in Panik wenn Reservation Conflict zur ckgegeben wird Bei SCSI 2 Platten sind die Reservierungen nicht dauerhaft sie werden beim erneuten Booten von Knoten gel scht Bei SCSI 3 Platten mit PGR Persistent Group Reservation werden die Reservierungsinformationen auf der Platte gespeichert und bleiben auch nach dem Booten von Knoten erhalten Der Failfast Mechanismus arbeitet immer gleich unabh ngig davon ob Sie SCSI 2 oder SCSI 3 Platten verwenden Wenn ein Knoten die Konnektivit t mit anderen Knoten im Cluster verliert und nicht zu einer Partition geh rt die ein Quorum erzielen kann wird er erzwungenerma en von einem anderen Knoten aus dem Cluster entfernt Ein anderer Knoten f hrt als Teil der Partition die ein Quorum erzielt Reservierungen auf den
98. n ID dev md Plattensatz ask d0 SPARC VERITAS Volume dev vx dsk Plattengruppe global devices node KnotenID Manager dev vx dsk Plattengruppe vo Der globale Namensraum wird automatisch bei der Installation erzeugt und bei jedem Neubooten der Rekonfiguration aktualisiert Sie k nnen den globalen Namensraum auch durch Ausf hren des scgdevs 1M Befehls generieren Cluster Dateisysteme Das Cluster Dateisystem hat folgende Merkmale m Die Speicherorte f r den Dateizugriff sind transparent Ein Prozess kann eine Datei an einem beliebigen Speicherort im System ffnen und die Prozesse k nnen die Datei auf allen Knoten mithilfe desselben Pfadnamens suchen Hinweis Wenn das Cluster Dateisystem Dateien liest wird die Zugriffszeit f r diese Dateien nicht aktualisiert m Mit Koh renzprotokollen wird die UNIX Dateizugriffssemantik auch dann bewahrt wenn mehrere Knoten gleichzeitig auf die Datei zugreifen m Umfassendes Caching wird zusammen mit Bulk E A Bewegungen ohne Zwischenspeicherung Zero Copy eingesetzt um Dateidaten effizient zu verschieben Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 47 m Das Cluster Dateisystem stellt mit den fent1 2 Schnittstellen eine hoch verf gbare kooperative Dateisperrfunktion zur Verf gung Anwendungen die auf mehreren Knoten ausgef hrt werden k nnen den Datenzugriff unter Verwendung der kooperativen Dateisperrung f r eine Cluster Dateisystem Datei
99. n Namen zusammengefasst dem Cluster Namen der f r den Cluster Zugriff und die Cluster Verwaltung verwendet wird ffentliche Netzwerkadapter verbinden die Knoten mit den ffentlichen Netzwerken und erm glichen den Zugriff der Clients auf den Cluster Cluster Mitglieder kommunizieren ber mindestens ein real unabh ngiges Netzwerk miteinander Dieser Satz aus real unabh ngigen Netzwerken wird als Cluster Interconnect bezeichnet 22 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Jeder Knoten im Cluster nimmt wahr wenn ein anderer Knoten dem Cluster beitritt oder diesen verl sst Daneben nimmt jeder Knoten sowohl die lokalen Ressourcen als auch die Ressourcen auf den anderen Cluster Knoten wahr Knoten innerhalb desselben Clusters sollten eine vergleichbare Verarbeitungs Speicher und E A Kapazit t aufweisen so dass ein Failover ohne nennenswerten Leistungsabfall m glich ist Aufgrund eines m glichen Failovers muss jeder Knoten ber gen gend berkapazit t verf gen um die Arbeitslast aller Knoten zu bernehmen f r die sie als Sicherung oder Sekund rknoten fungieren Jeder Knoten bootet sein eigenes individuelles Root Dateisystem Softwarekomponenten f r Cluster Hardware Mitglieder Folgende Software muss installiert sein um als Cluster Mitglied funktionieren zu k nnen m Solaris Betriebsumgebung m Sun Cluster Software m Datendienstanwendung m Datentr gerverwaltung Solaris
100. n Switchover oder Failover auch phys schost 2 oder phys schost 3 sein Auf allen drei Knoten phys schost 1 phys schost 2 und phys schost 3 muss Zugriff auf das der Anwendung 1 zugeordnete Projekt bestehen Hinweis Die Projektdatenbank Informationen k nnen eine lokale etc project Datenbankdatei sein oder in der NIS Karte oder im LDAP Verzeichnisdienst gespeichert sein Die Solaris Umgebung erm glicht eine flexible Konfiguration der Nutzungsparameter und Sun Cluster erlegt nur wenige Einschr nkungen auf Die Konfigurationsauswahl h ngt von den Standortbed rfnissen ab Beachten Sie die allgemeinen Richtlinien in den nachfolgenden Abschnitten bevor Sie Ihre Systeme konfigurieren Kapitel 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung 83 Einstellen virtueller Speicherbegrenzungen f r Prozesse Stellen Sie die process max address space Steuerung ein um den virtuellen Speicher auf Prozessbasis zu begrenzen Detaillierte Informationen zur Einstellung des process max address space Wertes finden Sie unter rctladm 1M Konfigurieren Sie bei Verwendung von Verwaltungssteuerungen die Speicherbegrenzung angemessen um unn tige Failover Vorg nge von Anwendungen und einen Ping Pong Effekt bei den Anwendungen zu vermeiden Im Allgemeinen gilt Folgendes m Stellen Sie die Speicherbegrenzungen nicht zu niedrig ein Wenn eine Anwendung die Speicherbegrenzung erreicht kann ein Failover erfolgen Diese Richtlinie ist beso
101. n ein den Speicher betreffender DR Vorgang zur Board Hinzuf gung durchgef hrt wird wird der Speicher auf dem hinzugef gten Board automatisch in den Systembetrieb integriert SPARC Erw gungen zur DR von Platten und Bandlaufwerken im Cluster Sun Cluster lehnt DR Vorg nge zur Board Entfernung auf aktiven Laufwerken des Prim rknotens ab DR Vorg nge zur Board Entfernung k nnen auf nicht aktiven Laufwerken des Prim rknotens und auf allen Laufwerken der Sekund rknoten durchgef hrt werden Der Cluster Datenzugriff unterliegt durch den DR Vorgang keinerlei nderungen Hinweis Sun Cluster lehnt DR Vorg nge ab die sich auf die Verf gbarkeit von Quorum Ger ten auswirken Weitere Erw gungen zu Quorum Ger ten und dem Verfahren zur Ausf hrung von DR Vorg ngen bei Cluster Ger ten finden Sie unter SPARC Erw gungen zur DR von Quorum Ger ten im Cluster auf Seite 94 Unter Aufgabenzuordnung Dynamische Rekonfiguration mit Quorum Ger ten im Sun Cluster System Administration Guide for Solaris OS erhalten Sie detaillierte Anweisungen zur Durchf hrung dieser Vorg nge Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 93 SPARC Erw gungen zur DR von Quorum Ger ten im Cluster Wenn der DR Vorgang zur Board Entfernung ein Board betrifft das eine Schnittstelle zu einem f r das Quorum konfigurierten Ger t enth lt lehnt Sun Cluster den Vorgang ab und identifiziert das Quorum Ger t das von diesem
102. nd anderen L ndern S mtliche SPARC Marken werden unter Lizenz verwendet und sind Marken oder eingetragene Marken von SPARC International Inc in den Vereinigten Staaten und anderen L ndern Produkte mit der SPARC Marke basieren auf einer von Sun Microsystems Inc entwickelten Architektur ORACLE Netscape Die grafischen Benutzeroberfl chen von OPEN LOOK und Sun wurden von Sun Microsystems Inc f r seine Benutzer und Lizenznehmer entwickelt Sun erkennt dabei die von Xerox Corporation geleistete Forschungs und Entwicklungsarbeit auf dem Gebiet der visuellen oder grafischen Benutzeroberfl chen f r die Computerindustrie an Sun ist Inhaber einer einfachen Lizenz von Xerox f r die Xerox Graphical User Interface Diese Lizenz gilt auch f r Lizenznehmer von SUN die mit den OPEN LOOK Spezifikationen bereinstimmende grafische Benutzerschnittstellen implementieren und die schriftlichen Lizenzvereinbarungen einhalten U S Government Rights Commercial software Regierungsbenutzer unterliegen der standardm igen Lizenzvereinbarung von Sun Microsystems Inc sowie den anwendbaren Bestimmungen der FAR und ihrer Zus tze DIE DOKUMENTATION WIRD AS IS BEREITGESTELLT UND JEGLICHE AUSDR CKLICHE ODER IMPLIZITE BEDINGUNGEN DARSTELLUNGEN UND HAFTUNG EINSCHLIESSLICH JEGLICHER STILLSCHWEIGENDER HAFTUNG F R MARKTFAHIGKEIT EIGNUNG F R EINEN BESTIMMTEN ZWECK ODER NICHT BERTRETUNG WERDEN IM GESETZLICH ZULASSIGEN RAHMEN AUSDR CKLICH AUSGESCHLOSSEN
103. nders f r Datenbankanwendungen von Bedeutung wo das Erreichen einer virtuellen Speicherbegrenzung unerwartete Folgen haben kann m Stellen Sie die Speicherbegrenzungen f r Prim r und Sekund rknoten nicht identisch ein Identische Begrenzungen k nnen einen Ping Pong Effekt ausl sen wenn eine Anwendung die Speichergrenze erreicht und ein Failover auf einen Sekund rknoten mit einer identischen Speicherbegrenzung erfolgt Stellen Sie die Speicherbegrenzung auf dem Sekund rknoten etwas h her ein Network MultipathingDer Unterschied bei den Speicherbegrenzungen tr gt zur Vermeidung des Ping Pong Szenarios bei und gibt dem Systemverwalter Zeit die Parameter nach Bedarf zu korrigieren m Verwenden Sie die Speicherbegrenzung der Ressourcenverwaltung f r den Lastausgleich Sie k nnen zum Beispiel eine fehlerhaft arbeitende Anwendung mit Speicherbegrenzungen davon abhalten zu viel Auslagerungsspeicher zu belegen Failover Szenarien Sie k nnen die Verwaltungsparameter so konfigurieren dass die Zuweisung in der Projektkonfiguration etc project im normalen Cluster Betrieb und in Switchover und Failover Situationen funktioniert Die nachfolgenden Abschnitte sind als Beispiel gedachte Szenarien m Inden ersten beiden Zwei Knoten Cluster mit zwei Anwendungen und Zwei Knoten Cluster mit drei Anwendungen werden Failover Szenarien f r ganze Knoten beschrieben Der Abschnitt Failover der Ressourcengruppe illu
104. ndienste auf Seite 65 m Ressourcen Ressourcengruppen und Ressourcentypen auf Seite 77 Kapitel 4 Relevante SunPlex Dokumentation Anwendungsprogrammierer Die folgenden SunPlex Dokumente enthalten Verfahren und Informationen zu Konzepten f r Anwendungsprogrammierer Sun Cluster Data Services Developer s Guide for Solaris OS Sun Cluster Data Services Planning and Administration Guide for Solaris OS SunPlex Systemaufgaben Alle SunPlex Systemaufgaben erfordern ein gewisses konzeptionelles Vorverst ndnis Die nachstehende Tabelle gibt einen groben berblick ber die Aufgaben und die Dokumentation in der die Aufgabenschritte beschrieben sind Die den Konzepten gewidmeten Abschnitte in diesem Buch beschreiben wie die Konzepte den Aufgaben zugeordnet sind TABELLE 1 1 Task Map Zordnung von Benutzeraufgaben zu Dokumentation F r diese Aufgabe Verwenden Sie diese Dokumentation Installieren von Cluster Hardware Sun Cluster 3 x Hardware Administration Manual for Solaris OS Installieren der Solaris Software auf Sun Cluster Software Installation Guide for Solaris OS dem Cluster SPARC Installieren der Sun Sun Cluster Software Installation Guide for Solaris OS Management Center Software Installieren und Konfigurieren der Sun Cluster Software Installation Guide for Solaris OS Sun Cluster Software 18 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A TABELLE 1 1 Task Map Zor
105. ne Netzwerkressource ist zun chst einem Knoten zugeordnet dem Prim rknoten Wenn der Prim rknoten ausf llt werden Netzwerkressource und Anwendungsressource mit einem Failover Vorgang auf einen anderen Cluster Knoten umgeleitet einen Sekund rknoten Wenn die Netzwerkressource ein Failover durchf hrt wird die Anwendungsressource nach einer kurzen Verz gerung auf dem Sekund rknoten weiter ausgef hrt In Abbildung 3 5 wird das Einzelservermodell mit dem geclusterten Servermodell verglichen Beachten Sie dass eine Netzwerkressource in diesem Beispiel ein logischer Hostname in einem geclusterten Servermodell zwischen mindestens zwei Cluster Knoten wechseln kann Die Anwendung ist zur Verwendung dieses logischen Hostnamens anstelle eines Hostnamens konfiguriert der einem bestimmten Server zugeordnet ist Client Server Standardanwendung Client Workstation Anwendungsserver 0 Hostname iws 1 Failover geclusterte Client Server Anwendung Client Workstation Geclusterte Anwendungsserver tar Logischer Hostname iws 1 ABBILDUNG 3 5 Festgelegter Hostname versus logischer Hostname 66 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Eine gemeinsam genutzte Adresse ist zun chst ebenfalls einem Knoten zugeordnet Dieser Knoten wird als globaler Schnittstellenknoten GIF Knoten bezeichnet Eine gemeinsam genutzte Adresse wird als einzige Netzwe
106. ng zu erreichen Ein weiteres Beispiel f r diese Art des Speichers ist eine Backend Datenbank wie beispielsweise Oracle mit hoher Verf gbarkeit oder Oracle Real Application Clusters f r SPARC basierte Cluster Beachten Sie dass bei diesem Typ von Backend Datenbankserver die Synchronisierung ber Datenbankabfragen oder Aktualisierungstransaktionen integriert ist so dass bei mehreren Serverinstanzen nicht jede einzelne Instanz eine eigene Synchronisierung durchf hren muss Ein Beispiel f r einen nicht skalierbaren Dienst ist die aktuelle Zusammensetzung des IMAP Servers von Sun Der Dienst aktualisiert einen Speicher aber dieser Speicher ist privat Wenn mehrere IMAP Instanzen in diesen Speicher schreiben werden die jeweiligen Eintr ge berschrieben weil die Aktualisierungen nicht synchronisiert sind Der IMAP Server muss f r die Synchronisierung eines gleichzeitigen Zugriffs umgeschrieben werden Beachten Sie schlie lich dass Instanzen ber private Daten verf gen k nnen die von den Daten anderer Instanzen getrennt sind In einem solchen Fall muss der Dienst den gleichzeitigen Zugriff nicht selbst sznchronisieren weil die Daten privat sind und nur diese Instanz sie bearbeiten kann In diesem Fall m ssen Sie darauf achten diese privaten Daten nicht unter dem Cluster Dateisystem zu speichern weil die M glichkeit eines globalen Zugriffs besteht Datendienst API und API der Datendienst Entwicklungsbibliothek Das SunPlex Sys
107. ngesetzt die in der Regel von keinem bestimmten Datendienst abh ngen Die Standardeigenschaften werden unter Standardeigenschaften im Sun Cluster Data Services Planning and Administration Guide for Solaris OS aufgef hrt Die RGM Erweiterungseigenschaften liefern Informationen wie zum Beispiel den Speicherort von bin ren Anwendungsdateien und Konfigurationsdateien Sie ndern die Erweiterungseigenschaften beim Konfigurieren der Datendienste Die Erweiterungseigenschaften werden im Handbuch zum Datendienst im beschrieben Datendienst Projektkonfiguration Datendienste k nnen f r einen Start mit einem Solaris Projektnamen konfiguriert werden wenn sie mit dem RGM online gebracht werden Die Konfiguration ordnet einer vom RGM verwalteten Ressource oder Ressourcengruppe eine Solaris Projekt ID zu Durch die Zuordnung der Ressource oder Ressourcengruppe zu einer Projekt ID k nnen Sie anspruchsvolle Steuerfunktionen die in der Solaris Umgebung verf gbar sind f r die Verwaltung von Arbeitslasten und Verbrauch in Ihrem Cluster einsetzen Hinweis Diese Konfiguration k nnen Sie nur dann durchf hren wenn Sie mit der aktuellen Version der Sun Cluster Software unter Solaris 9 arbeiten 80 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Mithilfe der Solaris Verwaltungsfunktion in einer Cluster Umgebung k nnen Sie sicherstellen dass die wichtigsten Anwendungen Priorit t erhalten wenn sie einen Knoten mit
108. nhalt m Einf hrung und grober berblick ber das SunPlex System m Beschreibung der unterschiedlichen Standpunkte der jeweiligen SunPlex Zielgruppen m Identifizierung der Schl sselkonzepte deren Verst ndnis f r das Arbeiten mit dem SunPlex System notwendig ist m Zuordnung der Schl sselkonzepte zur SunPlex Dokumentation die Verfahren und verwandte Informationen enth lt E Zuordnung Cluster spezifischer Aufgaben zur Dokumentation in der die Verfahren zur Ausf hrung dieser Aufgaben enthalten sind Einf hrung in das SunPlex System Das SunPlex System erweitert die Solaris Betriebsumgebung zu einem Cluster Betriebssystem Ein Cluster oder Plex ist eine Reihe von locker gekoppelten Computerknoten die sich f r den Client als ein einziges Netzwerk bzw eine einzige Anwendung mit Datenbanken Webdiensten und Dateidiensten darstellt Jeder Cluster Knoten ist ein Standalone Server der seine eigenen Prozesse ausf hrt Diese Prozesse kommunizieren miteinander und treten f r einen Netzwerk Client als ein einziges System auf Im Zusammenspiel stellen sie Benutzern Anwendungen Systemressourcen und Daten zur Verf gung Ein Cluster bietet im Vergleich zu traditionellen Einzelserversystemen mehrere Vorteile Zu diesen Vorteilen geh rt die Unterst tzung von Failover und Scalable Diensten die F higkeit zum modularen Wachsen und ein niedriger Anschaffungspreis im Vergleich zu traditionellen fehlertoleranten Hardwaresystemen Z
109. nnen ausw hlen wie Sie das SunPlex System von unterschiedlichen Benutzeroberflachen aus installieren konfigurieren und verwalten m chten Sie k nnen Systemverwaltungsaufgaben entweder ber die grafische Benutzeroberfl che Graphical User Interface GUI von SunPlex Manager oder ber die dokumentierte 37 Befehlszeilenschnittstelle ausf hren Neben der Befehlszeilenschnittstelle befinden sich mehrere Dienstprogramme wie scinstall und scsetup um bestimmte Installations und Konfigurationsaufgaben zu vereinfachen Zum SunPlex System geh rt auch ein Modul das als Teil von Sun Management Center l uft und eine GUI f r bestimmte Cluster Aufgaben zur Verf gung stellt Dieses Modul ist nur f r SPARC basierte Cluster verf gbar Unter Verwaltungstools im Sun Cluster Handbuch Systemverwaltung f r Solaris OS finden Sie vollst ndige Beschreibungen der Verwaltungsschnittstelle Cluster Zeit Die Zeit muss zwischen allen Knoten eines Clusters synchronisiert sein Ob die Zeitsynchronisierung der Cluster Knoten mit einer externen Zeitquelle erfolgt hat f r den Cluster Betrieb keine Bedeutung Das SunPlex System verwendet das NTP Protokoll Network Time Protocol zum Synchronisieren der Uhren zwischen den Knoten Im Allgemeinen verursacht eine nderung der Systemuhr um eine Sekundenfraktion keine Probleme Wenn Sie jedoch date 1 rdate 1M oder xntpdate 1M interaktiv oder innerhalb von cron Skripts auf einem aktiven Cluster ausf
110. nt and Network Services aus der Solaris 9 System Administrator Collection Bei der Konfiguration von Ressourcen und Ressourcengruppen zur Verwendung der Solaris Verwaltungsfunktion in einem Cluster k nnen Sie folgenden grob definierten Ebene einsetzen Konfigurieren von Anwendungen als Teil der Ressource Konfigurieren von Ressourcen als Teil einer Ressourcengruppe Aktivieren von Ressourcen in der Ressourcengruppe Aktivieren der Verwaltung einer Ressourcengruppe Erstellen eines Solaris Projekts f r die Ressourcengruppe IN LER SE N Ea Konfigurieren von Standardeigenschaften um den Ressourcengruppennamen dem unter Punkt 5 erstellten Projekt zuzuordnen 7 Online bringen der Ressourcengruppe Kapitel 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung 81 Verwenden Sie zur Konfiguration der Standardeigenschaften Resource project _name oder RG_project_name die y Option mit dem scrgadm 1M Befehl um die Solaris Projekt ID der Ressource oder Ressourcengruppe zuzuordnen Stellen Sie die Eigenschaftenwerte f r die Ressource oder die Ressourcengruppe ein Die Definitionen der Eigenschaften finden sie unter Standard Properties in Sun Cluster Data Services Planning and Administration Guide for Solaris OS Eigenschaftsbeschreibungen finden Sie unter r_ properties 5 und rg_properties 5 Der angegebene Projektname muss in der Projektdatenbank etc project vorhanden sein und der Root Benutzer muss als Mitglied des gen
111. ochverf gbarkeit HA als die F higkeit eines Clusters eine Anwendung auch dann aktiv und am Laufen zu halten wenn ein Fehler aufgetreten ist der normalerweise die Verf gbarkeit eines Serversystems unterbricht m Mit welchem Prozess sorgt der Cluster f r Hochverf gbarkeit Mit einem Prozess der als Failover bezeichnet wird sorgt das Cluster Framework f r eine hoch verf gbare Umgebung Ein Failover ist eine Reihe von Schritten mit denen der Cluster Datendienstressourcen von einem versagenden Knoten auf einen anderen funktionsf higen Knoten im Cluster migriert m Was ist der Unterschied zwischen einem Failover und einem Scalable Dienst Es gibt zwei Typen von hoch verf gbaren Datendiensten Failover und Scalable Ein Failover Datendienst f hrt eine Anwendung jeweils nur auf einem Prim rknoten im Cluster aus Andere Knoten k nnen andere Anwendungen ausf hren aber jede Anwendung wird nur einmal auf einem einzigen Knoten ausgef hrt Wenn ein Prim rknoten ausf llt wird die auf dem ausgefallenen Knoten ausgef hrte Anwendung mit einem Failover auf einen anderen Knoten verschoben und dort weiter ausgef hrt 97 Ein Scalable Dienst verteilt eine Anwendung auf mehrere Knoten um einen einzigen logischen Dienst zu erstellen Scalable Dienste setzen die Anzahl der Knoten und Prozessoren auf dem ganzen Cluster auf dem sie durchgef hrt werden wirksam ein F r jede Anwendung hostet ein Knoten die reale Schnittstelle zum Cluste
112. onnects um die Hochverf gbarkeit und die Leistung zu verbessern F r den internen Datenverkehr zum Beispiel Dateisystemdaten oder Scalable Dienstdaten werden Meldungen ber alle verf gbaren Interconnects im Round Robin Verfahren gesendet Der Cluster Interconnect steht auch Anwendungen zur hoch verf gbaren Kommunikation zwischen den Knoten zur Verf gung Eine verteilte Anwendung kann zum Beispiel Komponenten auf unterschiedlichen Knoten ausf hren die miteinander kommunizieren m ssen Indem der Cluster Interconnect anstelle des ffentlichen Netzwerks verwendet wird bleiben diese Verbindungen beim Versagen einer einzelnen Verkn pfung bestehen Um den Cluster Interconnect f r die Datenverbindung zwischen den Knoten zu verwenden muss eine Anwendung die w hrend der Cluster Installation konfigurierten privaten Hostnamen verwenden Wenn zum Beispiel der private Hostname f r Knoten 1 clusternodel priv ist kommunizieren Sie mit diesem Namen ber den Cluster Interconnect mit Knoten 1 TCP Sockets die mit diesem Namen ge ffnet wurden werden ber den Cluster Interconnect geleitet und k nnen bei einem Netzwerkfehler transparent umgeleitet werden Beachten Sie dass der Cluster Interconnnect jeden beliebigen w hrend der Installation gew hlten Namen verwenden kann da die privaten Hostnamen w hrend der Installation konfiguriert werden k nnen Den tats chlichen Namen erhalten Sie ber scha_cluster_get 3HA mit dem Argument scha_priv
113. pthandbuch f r Solaris OS e September 2004 Revision A Hinweis Die Verwendung des globalen Plattenpfadnamens wird dringend empfohlen weil der globale Plattenpfadname auf dem ganzen Cluster konsistent ist Der UNIX Plattenpfadname ist nicht auf dem ganzen Cluster konsistent Der UNIX Plattenpfad f r eine Platte kann von einem Cluster Knoten zum anderen unterschiedlich sein Der Plattenpfad kann auf einem Knotenc1t0d0 und auf einem anderen Knoten c2t0d0 sein Verwenden Sie bei UNIX Plattenpfadnamen den Befehl scdidadm L um die UNIX Plattenpfadnamen den globalen Plattenpfadnamen zuzuordnen bevor Sie DPM Befehle ausgeben Weitere Informationen finden Sie in der Online Dokumentation scdidadm 1M TABELLE 3 3 Beispiele f r Plattenpfadnamen Namenstyp Beispiel Plattenpfadname Beschreibung Globaler Plattenpfad schost 1 dev did dsk di1 Plattenpfad d1 auf dem Knoten schost 1 all d Plattenpfad d1 auf allen Cluster Knoten UNKX Plattenpfad schost 1 dev rdsk c0t0d0s0 Plattenpfad cotodoso auf dem Knoten schost 1 schost 1 all Alle Plattenpfade auf dem Knoten schost 1 Alle Plattenpfade all all Alle Plattenpfade auf allen Cluster Knoten Verwenden von SunPlex Manager zur Plattenpfad berwachung Mit SunPlex Manager k nnen Sie folgende grundlegende DPM Verwaltungsaufgaben durchf hren m berwachen eines Plattenpfades m Aufheben der berwachung eines Plattenpfades m Anzeigen des Status aller Plattenpfade im Cluster Verfahrens
114. r Dieser Knoten wird als globaler Schnittstellenknoten GIF Knoten bezeichnet Im Cluster k nnen mehrere GIF Knoten vorhanden sein Jeder GIF Knoten hostet eine oder mehr logische Schnittstellen die von Scalable Diensten genutzt werden k nnen Diese logischen Schnittstellen werden als globale Schnittstellen bezeichnet Ein GIF Knoten hostet eine globale Schnittstelle f r alle Anforderungen einer bestimmten Anwendung und sendet sie an mehrere Knoten auf denen der Anwendungsserver l uft Wenn der GIF Knoten ausf llt wird die globale Schnittstelle auf einen auch weiterhin laufenden Knoten umgeleitet Wenn einer der Knoten auf denen die Anwendung ausgef hrt wird ausf llt wird die Anwendung mit einem geringen Leistungsverlust auf anderen Knoten weiter ausgef hrt bis der ausgefallene Knoten wieder zum Cluster hinzukommt H ufige Fragen zu Dateisystemen Kann mindestens ein Cluster Knoten als hoch verf gbare r NFS Server mit anderen Cluster Knoten als Clients konfiguriert werden Nein schaffen Sie keine Schleifeneinh ngung Kann ein Cluster Dateisystem f r Anwendungen verwendet werden die nicht von Resource Group Manager gesteuert werden Ja Allerdings m ssen die Anwendungen ohne Steuerung durch den RGM nach dem Ausfall des Knotens auf dem sie ausgef hrt werden manuell neu gestartet werden m M ssen alle Cluster Dateisysteme einen Einh ngepunkt unter dem global Verzeichnis haben Nein Aber Cluster Dateisys
115. r aber Sun Enterprise E10000 server nicht Warum Der Terminal Konzentrator ist f r die meisten Server tats chlich ein Seriell zu Ethernet Konverter Sein Konsolen Port ist ein serieller Port Der Sun Enterprise E10000 server hat keine serielle Konsole Der System Service Processor SSP ist die Konsole entweder ber einen Ethernet oder einen jtag Port Bei Sun Enterprise E10000 server verwenden Sie immer den SSP als Konsole Welches sind die Vorteile eines Terminal Konzentrators Mit einem Terminal Konzentrator k nnen Sie auf Konsolenebene von einer Remote Workstation an einer beliebigen Stelle im Netzwerk selbst dann auf jeden Knoten zugreifen wenn sich der Knoten am OpenBoot PROM OBP in einem SPARC basierten Knoten oder einem Boot Teilsystem in einem x86 basierten Knoten befindet Welches sind die f r die Qualifizierung eines nicht von Sun unterst tzten Terminal Konzentrators erforderlichen Kenntnisse Der Hauptunterschied zwischen dem von Sun unterst tzen Terminal Konzentrator und anderen Konsolenger ten besteht darin dass der Terminal Konzentrator von Sun mit spezieller Firmware ausgestattet ist die ihn daran hindert einen Abbruch an die bootende Konsole zu senden Beachten Sie dass der Knoten durch ein Konsolenger t heruntergefahren wird wenn das Ger t einen Abbruch oder ein von der Konsole als Abbruch interpretiertes Signal senden kann Kann ein gesperrter Port am von Sun unterst tzten Terminal Konzentrator freige
116. r Referenzhandbuch f r Solaris OS Eine vollst ndige Liste der Sun Cluster Dokumentation finden Sie in den Versionshinweisen zu Ihrer Sun Cluster Version unter http docs sun com Zugriff auf die Online Dokumentation von Sun ber die Website docs sun com erhalten Sie Zugriff auf die technische Online Dokumentation von Sun Sie k nnen das Archiv unter docs sun com durchsuchen oder nach einem bestimmten Buchtitel oder Thema suchen Die URL lautet http docs sun com Bestellen von Sun Dokumentation Ausgew hlte Produktdokumentationen bietet Sun Microsystems auch in gedruckter Form an Eine Liste dieser Dokumente und Hinweise zum Bezug finden Sie unter Gedruckte Dokumentation kaufen auf der Website http docs sun com Hilfe anfordern Wenden Sie sich im Falle von Problemen bei Installation oder Verwendung des SunPlex Systems an Ihren Dienstleister und geben Sie folgende Informationen an Ihren Namen und E Mail Adresse ggf Firmennamen Adresse Telefonnummer Modell und Seriennummern des Systems Versionsnummer des Betriebssystems z B Solaris 9 Versionsnummer der Sun Cluster Software z B 3 1 4 04 Sammeln Sie f r Ihren Dienstleister mithilfe folgender Befehle Informationen zu allen Knoten Befehl Funktion prtconf v Zeigt die Gr e des Systemspeichers an und gibt Informationen zu Peripherieger ten zur ck psrinfo v Zeigt Informationen zu Prozessoren an 10 Sun Cluster Konzept
117. r TCP Zustand f r jede Anwendungsinstanz bleibt auf dem Knoten mit der Instanz nicht auf dem Knoten mit der globalen Schnittstelle Deswegen hat ein Ausfall des Knotens mit der globalen Schnittstelle keine Auswirkung auf die Verbindung Abbildung 3 7 zeigt ein Beispiel f r eine Failover und eine Scalabe Ressourcengruppe und die Abh ngigkeiten f r Scalable Dienste Dieses Beispiel enth lt drei Ressourcengruppen Die Failover Ressourcengruppe enth lt Anwendungsressourcen f r hoch verf gbaren DNS und Netzwerkressourcen die sowohl vom hoch verf gbaren DNS als auch vom hoch verf gbaren Apache Web Server genutzt werden nur f r SPARC basierte Cluster verf gbar Die Scalable Ressourcengruppen enthalten nur Anwendungsinstanzen des Apache Web Servers Beachten Sie dass Ressourcengruppenabh ngigkeiten zwischen den Scalable und den Failover Ressourcengruppen durchgezogene Linien bestehen und dass alle Apache Anwendungsressourcen von der Netzwerkressource schost 2 abh ngen die eine gemeinsam genutzte Adresse ist gestrichelte Linien Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 69 Scalable Ressourcengruppe Scalable Anwendungsressource apache Apache Server Ressource Failover Ressourcengruppe Eigenschaft Failover Anwendungsressource in named DNS Ressource Netzwerkressourcen schost 1 logischer Hostname gt schost 2 gemeinsam genutzte IP Adresse Network_resources_used
118. r der Adapter ausf llt wird die IP Network Multipathing Software aufgerufen um ein Failover von der fehlerhaften Schnittstelle auf einen anderen Adapter in der Gruppe auszuf hren Es gibt keine hardwarespezifischen Erw gungen im Zusammenhang mit der Cluster Bildung f r ffentliche Netzwerke Fragen und Antworten zu ffentlichen Netzwerken finden Sie in Kapitel 4 Client Systeme Client Systeme beinhalten Workstations oder andere Server die ber das ffentliche Netzwerk auf den Cluster zugreifen Clientseitige Programme verwenden Daten oder andere Dienste die von auf dem Cluster laufenden serverseitigen Anwendungen zur Verf gung gestellt werden Client Systeme sind nicht hoch verf gbar Daten und Anwendungen auf dem Cluster sind hoch verf gbar Fragen und Antworten zu Client Systemen finden Sie in Kapitel 4 Konsolenzugriffsger te Sie ben tigen Konsolenzugriff auf alle Cluster Knoten Verwenden Sie f r den Konsolenzugriff den Terminal Konzentrator den Sie mit Ihrer Cluster Hardware erworben haben den System Service Processor SSP auf Sun Enterprise E10000 M Servern f r SPARC basierte Cluster den System Controller auf Sun FireTM Servern ebenfalls f r SPARC basierte Cluster oder ein anderes Ger t das auf ttya auf jedem Knoten zugreifen kann Bei Sun ist nur ein unterst tzter Terminal Konzentrator verf gbar dessen Verwendung optional ist Der Terminal Konzentrator erm glicht den Zugriff auf dev console au
119. r unterst tzt in x86 basierten Systemen zwei Knoten in einem Cluster m Gemeinsam genutzte Speicherger te m ssen mit beiden Knoten verbunden sein Sun Cluster schreibt f r die Konfiguration eines Clusters keine spezifischen Topologien vor Die Beschreibung der folgenden Geclusterte Paare Topologie soll das Vokabular zur Erl uterung eines Cluster Verbindungsschemas erschlie en Es handelt sich um die einzig m gliche Topologie f r Cluster aus x86 basierten Knoten Diese Topologie stellt ein typisches Verbindungsschema dar Der folgende Abschnitt enth lt eine Beispielgrafik der Topologie x86 Geclusterte Paare Iopologie Eine Geclustertes Paar Topologie besteht aus zwei Knoten die unter einem gemeinsamen Cluster Verwaltungs Framework arbeiten In dieser Konfiguration wird ein Failover nur zwischen einem Paar ausgef hrt Dabei sind jedoch alle Knoten ber 34 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A den Cluster Interconnect verbunden und arbeiten unter der Sun Cluster Softwaresteuerung Mit dieser Topologie k nnen Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover oder Scalable Anwendung auf einem anderen Paar ausf hren Die nachstehende Abbildung zeigt eine Geclusterte Paare Konfiguration ffentlich Privat Knoten 1 Knoten 2 Speicher Speicher ABBILDUNG 2 6 x86 Geclustete Paar Iopologie Kapitel 2 e S
120. rkschnittstelle zum Cluster eingesetzt Sie wird als globale Schnittstelle bezeichnet Der Unterschied zwischen dem Modell logischer Hostname und dem Modell Scalable Dienst besteht darin dass beim letztgenannten auf jedem Knoten die gemeinsam genutzte Adresse auf der Schleifenschnittstelle ebenfalls aktiv konfiguriert ist Dank dieser Konfiguration k nnen mehrere Instanzen eines Datendienstes auf mehreren Knoten gleichzeitig aktiv sein Der Begriff Scalable Dienst bedeutet dass Sie die CPU Leistung f r die Anwendung durch Hinzuf gen zus tzlicher Cluster Knoten erh hen k nnen und die Leistung verbessert wird Wenn der globale Schnittstellenknoten ausf llt kann die gemeinsam genutzte Adresse auf einen anderen Knoten verlegt werden auf dem ebenfalls eine Instanz der Anwendung ausgef hrt wird wobei dieser andere Knoten zum globalen Schnittstellenknoten wird Oder die gemeinsam genutzte Adresse wird mit einem Failover auf einen anderen Cluster Knoten verschoben auf dem die Anwendung zuvor nicht ausgef hrt wurde In Abbildung 3 6 wird die Einzelserverkonfiguration mit der Cluster Konfiguration mit Scalable Diensten verglichen Beachten Sie dass die gemeinsam genutzte Adresse in der Scalable Dienst Konfiguration auf allen Knoten vorhanden ist hnlich wie bei der Verwendung eines logischen Hostnamens f r Failover Datendienste wird die Anwendung zur Verwendung dieser gemeinsam genutzten Adresse anstelle eines einem bestimmten Server
121. rst tzen eine Form der Reservierung die entweder allen mit der Platte verbundenen Knoten Zugriff erteilt wenn keine Reservierung vorliegt oder den Zugriff auf einen einzigen Knoten beschr nkt auf den Knoten f r den die Reservierung gilt 56 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Wenn ein Cluster Mitglied erkennt dass ein anderer Knoten nicht mehr ber den Cluster Interconnect kommuniziert leitet er ein Fehlerschutzverfahren ein um den anderen Knoten am Zugriff auf die gemeinsam genutzten Platten zu hindern Bei einem solchen Fehlerschutz ist es normal dass der gesch tzte Knoten in Panik ger t und mit einer Meldung reservation conflict in der Konsole reagiert Der Reservierungskonflikt tritt nach der Feststellung auf dass ein Knoten kein Cluster Mitglied mehr ist da auf allen Platten die dieser Knoten mit den restlichen Knoten teilt eine SCSI Reservierung erfolgte Der gesch tzte Knoten nimmt den Schutz m glicherweise nicht wahr Wenn er versucht auf eine der gemeinsam genutzten Platten zuzugreifen erkennt er die Reservierung und ger t in Panik Failfast Mechanismus zum Fehlerschutz Der Mechanismus mit dem Cluster Framework sicherstellt dass ein ausgefallener Knoten nicht neu booten und in gemeinsam genutzte Speicher schreiben kann wird als Failfast bezeichnet Knoten die Cluster Mitglieder sind aktivieren kontinuierlich ein spezifisches ioctl MHIOCENFAILFAST f r die Platte
122. rung und berblick 15 Sun Cluster 3 x Hardware Administration Manual for Solaris OS Systemverwalter F r den Systemverwalter stellt sich das SunPlex System als Satz aus verkabelten Servern Knoten und gemeinsam genutzten Speicherger ten dar Der Systemverwalter sieht Folgendes In die Solaris Software integrierte Cluster Spezialsoftware zum berwachen der Konnektivit t zwischen den Cluster Knoten Spezialsoftware zum berwachen des Zustands der auf den Cluster Knoten laufenden Benutzer Anwendungsprogramme Datentr gerverwaltungs Software zum Konfigurieren und Verwalten von Platten Cluster Spezialsoftware die allen Knoten Zugriff auf alle Speicherger te erm glicht auch auf solche die nicht direkt mit Platten verbunden sind Cluster Spezialsoftware dank der Dateien auf allen Knoten angezeigt werden als seien sie lokal mit diesem Knoten verbunden Schl sselkonzepte Systemverwaltung Systemverwalter m ssen die folgenden Konzepte und Prozesse verstehen Interaktion zwischen Hardware und Softwarekomponenten Allgemeiner Ablauf der Cluster Installation und Konfiguration einschlie lich m Installieren der Solaris Betriebsumgebung m Installieren und Konfigurieren der Sun Cluster Software m Installieren und Konfigurieren eines Datentr ger Managers m Installieren und Konfigurieren der Anwendungssoftware f r den Cluster Betrieb m Installieren und Konfigurieren der Sun Cluster Datendienstsoftware Cluster Verwal
123. schaltet werden ohne ihn neu zu booten Kapitel 4 H ufig gestellte Fragen Ja Beachten Sie dass die Port Nummer neu eingestellt werden muss und geben Sie folgende Befehle ein telnet tc Enter Annex port name or number cli annex su annex admin admin reset port_number admin quit annex hangup Weitere Informationen zur Konfiguration und Verwaltung des von Sun unterst tzten Terminal Konzentrators finden Sie in den folgenden Handb chern berblick ber die Sun Cluster Verwaltung im Sun Cluster Handbuch Systemverwaltung f r Solaris OS m Installation und Konfiguration des Terminal Konzentrators im Sun Cluster 3 x Hardware Administration Manual for Solaris OS m Was geschieht wenn der Terminal Konzentrator selbst ausf llt Ist ein zweiter als Standby Ger t erforderlich Nein Bei einem Versagen des Terminal Konzentrators geht keine Cluster Verf gbarkeit verloren Sie k nnen erst dann wieder eine Verbindung mit den Knotenkonsolen herstellen wenn der Konzentrator wieder arbeitet m Wie sieht es bei einem Terminal Konzentrator in puncto Sicherheit aus Im Allgemeinen ist der Terminal Konzentrator mit einem kleinen Netzwerk verbunden das von Systemverwaltern verwendet wird und nicht mit einem Netzwerk das f r sonstigen Client Zugriff eingesetzt wird Sie k nnen die Sicherheit durch einen beschr nkten Zugriff auf dieses Netzwerk steuern a SPARC Wie wird die dynamische Rekonfigurat
124. scrgadm 1M Befehl kann zur Aktivierung oder Deaktivierung einer Ressource verwendet werden Diese Einstellungen werden bei einer Cluster Neukonfiguration nicht ge ndert Bei einer normalen Einstellung ist eine Ressource aktiviert und wird aktiv im System ausgef hrt Wenn die Ressource aus bestimmten Gr nden auf keinem Cluster Knoten verf gbar sein soll deaktivieren Sie die Ressource Eine deaktivierte Ressource steht nicht zur allgemeinen Verwendung zur Verf gung Online oder offline Diese dynamischen Zust nde gelten sowohl f r Ressourcen als auch f r Ressourcengruppen Diese Zust nde ndern sich bei den Cluster bergangen im Verlauf der Cluster Rekonfigurationsschritte bei einem Switchover oder Failover Sie k nnen auch durch Verwaltungsaktionen ge ndert werden Mit scswitch 1M k nnen Sie den Zustand einer Ressource oder einer Ressourcengruppe von online zu offline und umgekehrt ndern Eine Failover Ressource oder Ressourcengruppe kann nur auf jeweils einem Knoten gleichzeitig online sein Eine Scalable Ressource oder Ressourcengruppe kann gleichzeitig auf mehreren Knoten online und auf anderen offline sein W hrend eines Switchovers oder Failovers werden Ressourcengruppen mit den darin enthaltenen Ressourcen auf einem Knoten offline genommen und auf einem anderen Knoten online gebracht Wenn eine Ressourcengruppe offline ist sind alle dazugeh rigen Ressourcen offline Wenn eine Ressourcengruppe online ist sind
125. ssource oder eine LogicalHostname Ressource verwendet werden Die einzige Ausnahme bildet Sun Cluster HA for NFS Die Verwendung einer SharedAddress Ressource sorgt f r zus tzlichen berlauf weil die Cluster Netzwerksoftware f r eine SharedAddress aber nicht f r einen LogicalHostname konfiguriert ist Der Vorteil einer SharedAddress ergibt sich wenn Sie sowohl Scalable als auch Failover Datendienste konfigurieren und m chten dass Clients mithilfe desselben Hostnamens auf beide Dienste zugreifen k nnen In diesem Fall ist bzw sind die SharedAddress Ressource n zusammen mit der Failover Anwendungsressource in einer Ressourcengruppe zusammengefasst w hrend die Scalable Dienstressource in einer separaten Ressourcengruppe untergebracht und f r die Verwendung der SharedAddress konfiguriert ist Sowohl Scalable als auch Failover Dienste k nnen denselben Satz von Hostnamen Adressen verwenden der in der SharedAddress Ressource konfiguriert ist 100 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A H ufige Fragen zum ffentlichem Netzwerk Welche ffentlichen Netzwerkadapter werden vom SunPlex System unterst tzt Derzeit unterst tzt das SunPlex System ffentliche Netzwerkadapter f r Ethernet 10 100BASE T und 1000BASE SX Gb Zuk nftig werden ggf neue Schnittstellen unterst tzt Aktuelle Informationen erhalten Sie von Ihrem Sun Vertreter Welche Rolle spielt die MAC Adresse beim Failover Bei e
126. ssourcengruppe zu identifizieren Eine kurze Erl uterung der Abh ngigkeiten in der Knotenliste zwischen Ressourcengruppen und Plattenger tegruppen finden Sie unter Relationship Between Resource Groups and Disk Device Groups in Sun Cluster Data Services Planning and Administration Guide for Solaris OS Detaillierte Beschreibungen der Eigenschaften finden Sie unter rg_properties b Legen Sie die Priorit ten der Knotenliste f r die Plattenger tegruppe mit den Eigenschaften preferenced und failback fest die mit scrgadm 1M und scsetup 1M konfiguriert werden Verfahrenstechnische Informationen finden Sie unter So ndern Sie die Plattenger teeigenschaften unter Administering Disk Device Groups in Sun Cluster System Administration Guide for Solaris OS Konzeptionelle Informationen zur Knotenkonfiguration und dem Verhalten von Failover und Scalable Datendiensten finden Sie unter SunPlex System Hardware und Softwarekomponenten auf Seite 21 Wenn Sie alle Cluster Knoten gleich konfigurieren werden die Nutzungsgrenzen auf Prim r und Sekund rknoten identisch durchgesetzt Die Konfigurationsparameter der Projekte m ssen nicht f r alle Anwendungen in den Konfigurationsdateien auf allen Knoten gleich sein Auf alle der Anwendung zugeordneten Projekte muss zumindest die Projektdatenbank auf allen potenziellen Mastern der Anwendung zugreifen k nnen Angenommen der Master f r Anwendung 1 ist phys schost 1 kann aber durch ei
127. st W hrend dieser Zeit werden alle Anforderungen f r die Anwendung transparent gesperrt bis das System die Ger tegruppe verf gbar macht Vor Plattenger tegruppen Failover Prim rknoten Sekund rknoten lient zum Knoten 1 Knoten 2 Daten zugriff IR Platten Multihost ger te Platten gruppen Nach Plattenger tegruppen Failover Sekund rknoten Prim rknoten Client Daten zugriff 4 g SW Platten Multihost ger te Platten gruppen ABBILDUNG 3 1 Plattenger tegruppen Failover Multiport Plattenger tegruppen In diesem Abschnitt werden Plattengruppeneigenschaften beschrieben mit denen Sie Leistung und Verf gbarkeit in einer Multiport Plattenkonfiguration ausgleichen k nnen Die Sun Cluster Software stellt Ihnen zwei Eigenschaften zur Verf gung mit 44 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A denen Sie eine Multiport Plattenkonfiguration konfigurieren k nnen preferenced und numsecondaries Mit der preferenced Eigenschaft k nnen Sie die Reihenfolge steuern in der die Knoten versuchen die Steuerung im Fall eines Failover zu bernehmen Mit der numsecondaries Eigenschaft legen Sie eine gew nschte Anzahl von Sekund rknoten f r eine Ger tegruppe fest Ein hoch verf gbarer Dienst gilt als ausgefallen wenn der Prim rknoten ausf llt und kein Sekund rknoten die Rolle des Prim rknotens bernehmen kann Wenn ein Dienst Failover er
128. stausgleich 70 Logischer Hostname 66 ffentlich 27 Dynamische Rekonfiguration 94 FAQ 101 IP Network Multipathing 90 91 Schnittstellen 101 Privat Siehe Cluster Interconnect Ressourcen 66 77 Schnittstellen 27 90 91 NFS 49 NTP 38 0 ffentliches Netzwerk Siehe Netzwerk ffentliches Oracle Parallel Server Siehe Oracle Real Application Cluster Oracle Real Application Cluster 74 P Paar N Topologie 31 Panik 40 41 57 Parallele Datenbanken Konfigurationen 22 Passwort Root 102 112 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Persistent Group Reservation 57 Pfad Transport 103 Platten Dynamische Rekonfiguration 93 Fehlerschutz 56 Ger tegruppen 43 Failover 43 Multiport 44 Prim re Eigent merschaft 44 46 Globale Ger te 41 46 Lokal 26 41 46 Datentr gerverwaltung 99 Spiegelung 102 Multihost 41 43 46 SCSI Ger te 25 Plattenpfad berwachung 50 Prim re Eigent merschaft Plattenger tegruppen 44 46 Prim rknoten 66 Privates Netzwerk Siehe Cluster Interconnect Programmierer Cluster Anwendungen 17 Projekte 80 Q Quorum 54 Anforderungen 58 59 Empfehlungen 59 Empfohlene Konfigurationen 61 63 Ger t Dynamische Rekonfiguration 94 Ger te 54 Konfigurationen 58 Stimmenanzahl 55 Untypische Konfigurationen 63 Unzul ssige Konfigurationen 64 65 R Reservierungskonflikt 57 Resource_project_name Eigenschaft 83 Ressourcen 77 Ei
129. striert den Failover Vorgang einer einzigen Anwendung 84 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A In einer Cluster Umgebung wird eine Anwendung als Teil einer Ressource und eine Ressource als Teil einer Ressourcengruppe RG konfiguriert Wenn ein Fehler auftritt wechselt die Ressourcengruppe zusammen mit den zugeordneten Anwendungen auf einen anderen Knoten In den nachstehenden Beispielen sind die Ressourcen nicht explizit angegeben Angenommen jede Ressource umfasst nur eine Anwendung Hinweis Ein Failover erfolgt in der bevorzugten Reihenfolge wie sie in der Knotenliste im RGM angegeben ist F r die nachstehenden Beispiele gelten folgende Beschr nkungen Anwendung 1 Anw l ist in der Ressourcengruppe RG 1 konfiguriert m Anwendung 2 Anw 2 ist in der Ressourcengruppe RG 2 konfiguriert m Anwendung 3 Anw 3 ist in der Ressourcengruppe RG 3 konfiguriert Obwohl die Anzahl der zugeordneten Anteile gleich bleibt ndert sich der jeder Anwendung zugewiesene Prozentsatz an CPU Zeit nach dem Failover Dieser Prozentsatz h ngt von der Anzahl der auf dem Knoten ausgef hrten Anwendungen sowie von der Anzahl an Anteilen ab die jeder aktiven Anwendung zugeordnet sind In diesen Szenarien werden folgende Konfigurationen vorausgesetzt Alle Anwendungen sind unter einem gemeinsamen Projekt konfiguriert Jede Ressource enth lt nur eine einzige Anwendung Die Anwendungen sind die einzigen aktiven Pro
130. technische Informationen zur Plattenpfadverwaltung mit SunPlex Manager finden Sie in der Online Hilfe zu SunPlex Manager Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 53 Quorum und Quorum Ger te Dieses Kapitel umfasst die folgenden Themen Informationen zur Quorum Stimmenanzahl auf Seite 55 Informationen zum Fehlerschutz auf Seite 56 Informationen zu Quorum Konfigurationen auf Seite 58 Erf llen der Anforderungen f r Quorum Ger te auf Seite 58 Anwenden der Empfehlungen f r den Umgang mit Quorum Ger te auf Seite 59 Empfohlene Quorum Konfigurationen auf Seite 61 Untypische Quorum Konfigurationen auf Seite 63 m Unzul ssige Quorum Konfigurationen auf Seite 64 Hinweis Eine Liste der Ger te die von der Sun Cluster Software als Quorum Ger te unterst tzt werden erhalten Sie bei Ihrem Sun Dienstanbieter Da Cluster Knoten Daten und Ressourcen gemeinsam nutzen darf ein Cluster nie in getrennte Partitionen aufgeteilt werden die zur gleichen Zeit aktiv sind Mehrere aktive Partitionen k nnen zur Besch digung von Daten f hren Durch den Cluster Mitglied Monitor CMM und den Quorum Algorithmus wird gew hrleistet dass immer h chstens eine Instanz desselben Clusters in Betrieb ist auch wenn der Cluster Interconnect partitioniert ist Weitere Informationen zum CMM erhalten Sie unter Cluster Mitgliedschaft im Sun Cluster Overview for Solar
131. tem stellt Folgendes zur Verf gung um Anwendungen hoch verf gbar zu machen Datendienste die zum Lieferumfang des SunPlex Systems geh ren Eine Datendienst API Eine API f r die Datendienst Entwicklungsbibliothek Einen generischen Datendienst Im Sun Cluster Data Services Planning and Administration Guide for Solaris OS wird beschrieben wie die mit dem SunPlex System gelieferten Datendienste installiert und konfiguriert werden In der Sun Cluster 3 1 9 04 Software Collection for Solaris OS SPARC Platform Edition wird beschrieben wie andere Anwendungen so eingerichtet werden dass Sie im Sun Cluster Framework eine hohe Verf gbarkeit aufweisen 74 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Mit den Sun Cluster APlIs k nnen Anwendungsprogrammierer Fehler Monitore sowie Skripts zum Starten und Anhalten von Datendienstinstanzen entwickeln Mit diesen Tools kann eine Anwendung als Failover oder Scalable Datendienst eingerichtet werden Zudem stellt das SunPlex System einen generischen Datendienst zur Verf gung mit dem die ben tigten Start und Stoppmethoden f r eine Anwendung die als Failover oder Scalable Dienst ausgef hrt werden soll schnell generiert werden k nnen Verwenden des Cluster Interconnect f r den Datendienstverkehr Ein Cluster ben tigt mehrere Netzwerkverbindungen zwischen den Knoten die den Cluster Interconnect bilden Die Cluster Software verwendet mehrere Interc
132. teme mit demselben Einh ngepunkt wie zum Beispiel global erm glichen eine bessere Organisation und Verwaltung dieser Dateisysteme m Welches sind die Unterschiede zwischen der Verwendung eines Cluster Dateisystems und dem Exportieren von NFS Dateisystemen Es gibt mehrere Unterschiede 1 Das Cluster Dateisystem unterst tzt globale Ger te NFS unterst tzt keinen Remote Zugriff auf Ger te 2 Das Cluster Dateisystem hat einen globalen Namensraum Nur ein einziger Einh ngebefehl ist erforderlich Bei NFS m ssen Sie das Dateisystem auf jedem Knoten einh ngen 98 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A 3 Das Cluster Dateisystem speichert die Dateien in mehr F llen als NFS im Cache Dies geschieht zum Beispiel dann wenn auf eine Datei von mehreren Knoten aus zum Lesen Schreiben f r Dateisperren oder asynchronen E A zugegriffen wird 4 Das Cluster Dateisystem ist auf die Nutzung zuk nftiger schneller Cluster Interconnects ausgelegt die DMA Funktionen und Funktionen ohne Zwischenspeicherung Zero Copy im Fernzugriff zur Verf gung stellen 5 Wenn Sie die Attribute f r eine Datei zum Beispiel mit chmod 1M in einem Cluster Dateisystem ndern wird diese nderung sofort auf alle Knoten gespiegelt Bei einem exportierten NFS Dateisystem kann das wesentlich mehr Zeit in Anspruch nehmen m Das Dateisystem global devices node lt Knoten ID gt wird auf den Cluster Knoten angezeigt K
133. ten Cluster ist zwei eine Mehrheit Wenn ein solcher Zwei Knoten Cluster partitioniert wird ben tigen beide Partitionen jeweils eine externe Stimme um ein Quorum zu erhalten Diese externe Stimme wird von einem Quorum Ger t beigesteuert Informationen zur Quorum Stimmenanzahl Verwenden Sie den Befehl scstat q um folgende Informationen festzulegen m Gesamte konfigurierte Stimmen m Aktuell vorhandene Stimmen m F r Quorum erforderliche Stimmen Weitere Informationen zu diesem Befehl erhalten Sie unter scstat 1M Beide Knoten und Quorum Ger te steuern Stimmen f r den Cluster bei um ein Quorum zu bilden Ein Knoten steuert Stimmen in Abh ngigkeit von seinem Status bei m Ein Knoten hat eine Stimmenanzahl von eins wenn er gestartet wird und ein Cluster Mitglied wird m Ein Knoten verf gt ber null Stimmen wenn er installiert wird m Wenn ein Systemadministrator einen Knoten in den Wartungszustand versetzt hat der Knoten eine Stimmenanzahl von null Quorum Ger te steuern Stimmen basierend auf der Anzahl der mit dem Ger t verbundenen Stimmen bei Wenn Sie ein Quorum Ger t konfigurieren weist die Sun Cluster Software dem Quorum Ger t eine Stimmenanzahl von N 1 zu wobei N die Anzahl der mit dem Quorum Ger t verbundenen Stimmen ist Ein Quorum Ger t das zum Beispiel mit zwei Knoten mit einer Stimmenanzahl von nicht null verbunden ist hat einen Quorum Z hlwert von eins zwei minus eins Ein Quorum Ger t steuert S
134. tendienste Wenn der Knoten ausf llt auf dem der Datendienst ausgef hrt wird der Prim rknoten migriert der Dienst ohne Benutzereingriff auf einen anderen funktionsf higen Knoten Failover Dienste verwenden eine Failover Ressourcengruppe die Ressourcen f r Anwendungsinstanzen und Netzwerkressourcen enth lt logische Hostnamen Logische Hostnamen sind IP Adressen die auf einem Knoten als aktiv konfiguriert werden k nnen Sp ter werden sie auf dem Originalknoten automatisch als inaktiv und auf einem anderen Knoten als aktiv konfiguriert F r Failover Datendienste werden die Anwendungsinstanzen nur auf einem einzigen Knoten ausgef hrt Wenn der Fehler Monitor einen Fehler erkennt versucht er entweder die Instanz auf demselben Knoten erneut zu starten oder die Instanz auf einem anderen Knoten zu starten Failover je nachdem wie der Datendienst konfiguriert wurde Scalable Datendienste Der Scalable Datendienst kann aktive Instanzen auf mehreren Knoten ausf hren Scalable Dienste verwenden zwei Ressourcengruppen Eine Scalable Ressourcengruppe mit den Anwendungsressourcen und eine Failover Ressourcengruppe mit den Netzwerkressourcen gemeinsam genutzte Adressen von denen der Scalable Dienst abh ngt Die Scalable Ressourcengruppe kann auf mehreren Knoten online sein so dass mehrere Instanzen dieses Dienstes gleichzeitig ausgef hrt werden k nnen Die Failover Ressourcengruppe welche die gemeinsam genutzten Adressen hostet ist
135. ter installiert ist Version des Betriebssystems Anweisungen siehe Solaris 8 Betriebsumgebung IP Network Multipathing Administration Guide Solaris 9 Betriebsumgebung Themen zu IP Network Multipathing im System Administration Guide IP Services SPARC Unterst tzung der dynamischen Rekonfiguration Die Softwarefunktion zur Unterst tzung der dynamischen Rekonfiguration DR in Sun Cluster 3 1 4 04 wird schrittweise umgesetzt In diesem Abschnitt werden Konzepte und Erw gungen im Hinblick auf die Unterst tzung der DR Funktion durch Sun Cluster 3 1 4 04 beschrieben Beachten Sie dass alle f r die DR Funktion von Solaris dokumentierten Anforderungen Verfahren und Einschr nkungen auch f r die DR Unterst tzung von Sun Cluster gelten mit Ausnahme des Vorgangs zur Stilllegung der Betriebsumgebung Sehen Sie deswegen die Dokumentation zur Solaris DR Funktion nochmals durch bevor Sie die DR Funktion mit der Sun Cluster Software verwenden Lesen Sie insbesondere nochmals die Themen die sich mit nicht vernetzten Kapitel 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung 91 E A Ger ten w hrend eines DR Trennungsvorgangs besch ftigen Das Sun Enterprise 10000 Dynamic Reconfiguration User Guide und das Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual aus den Dokumentationsreihen Solaris 8 on Sun Hardware oder Solaris 9 on Sun Hardware k nnen von http docs sun com heruntergeladen werden SPAR
136. timmen bei wenn eine der beiden folgenden Bedingungen erf llt ist m Bei mindestens einem der Knoten an die das Quorum Ger t derzeit angeschlossen ist handelt es sich um ein Cluster Mitglied Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 55 m Mindestens einer der Knoten an die das Quorum Ger t derzeit angeschlossen ist wird gerade gestartet und der entsprechende Knoten war ein Mitglied der Cluster Partition die zuletzt Eigent mer des Quorum Ger ts war Sie konfigurieren Quorum Ger te w hrend der Cluster Installation F r eine sp tere Installation befolgen Sie die unter Verwalten von Quorum Ger ten im Sun Cluster System Administration Guide for Solaris OS beschriebene Vorgehensweise Informationen zum Fehlerschutz Ein wichtiges Thema bei Clustern ist ein Fehler der zur Partitionierung des Clusters f hrt als Split Brain bezeichnet In diesem Fall k nnen nicht mehr alle Knoten miteinander kommunizieren so dass einzelne Knoten oder Knoten Teils tze ggf versuchen Einzel oder Untermengen Cluster zu bilden Jede Untermenge oder Partition kann davon berzeugt sein alleinigen Zugriff auf die Multihostger te und die Eigent merschaft zu haben Der Versuch mehrerer Knoten auf die Platten zu schreiben kann zur Besch digung von Daten f hren Der Fehlerschutz schr nkt den Knotenzugriff auf die Multihostger te ein indem der Zugriff auf die Platten real verhindert wird Wenn ein Knoten den C
137. tungsverfahren f r das Hinzuf gen Entfernen Ersetzen und Pflegen der Cluster Hardware und Softwarekomponenten Konfigurations nderungen zur Leistungssteigerung Empfohlene Verweise auf Konzepte f r Systemverwalter Die folgenden Abschnitte enthalten relevante Informationen zu den vorstehenden Schl sselkonzepten Verwaltungsschnittstellen auf Seite 37 Cluster Zeit auf Seite 38 16 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Hoch verf gbares Framework auf Seite 39 Globale Ger te auf Seite 41 Plattenger tegruppen auf Seite 43 Globaler Namensraum auf Seite 46 Cluster Dateisysteme auf Seite 47 Plattenpfad berwachung auf Seite 50 Informationen zum Fehlerschutz auf Seite 56 Datendienste auf Seite 65 Relevante SunPlex Dokumentation Systemverwalter Die folgenden SunPlex Dokumente enthalten Verfahren und Informationen zu Konzepten der Systemverwaltung m Sun Cluster Software Installationshandbuch f r Solaris OS m Sun Cluster Handbuch Systemverwaltung f r Solaris OS m Sun Cluster Error Messages Guide for Solaris OS m Sun Cluster 3 1 9 04 Versionshinweise f r Solaris OS m Sum Cluster 3 x Release Notes Supplement Anwendungsprogrammierer Das SunPlex System stellt Datendienste f r Anwendungen wie Oracle SPARC basierte Systeme NFS DNS Sun Java System Web Server fr her Sun Java System Web Server Apache Web Server SPARC basi
138. tzwerkschnittstellen enth lt lehnt Sun Cluster den Vorgang ab und identifiziert die Schnittstelle die von dem Vorgang betroffen w re Bevor ein Board mit einer aktiven ffentlichen Netzwerkschnittstelle entfernt werden kann muss der gesamte Datenverkehr mithilfe des i _mpadm 1M Befehls von dieser Schnittstelle auf eine andere funktionsf hige Schnittstelle in der Multipathing Gruppe umgeleitet werden 94 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Caution Wenn der verbleibende Netzwerkadapter w hrend des DR Entfernungsvorgangs f r den deaktivierten Netzwerkadapter ausf llt wird die Verf gbarkeit beeintr chtigt Der verbleibende Adapter hat keine M glichkeit f r die Dauer des DR Vorgangs zu wechseln Unter Verwalten des ffentlichen Netzwerks im Sun Cluster System Administration Guide for Solaris OS erhalten Sie detaillierte Anweisungen zur Durchf hrung eines DR Entfernungsvorgangs in einem ffentlichen Netzwerk Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 95 96 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A KAPITEL 4 H ufig gestellte Fragen INDEXTERM 343 In diesem Kapitel finden Sie Antworten auf die am h ufigsten gestellten Fragen zum SunPlex System Die Fragen sind nach Thema geordnet H ufig gestellte Fragen zur Hochverf gbarkeit m Was genau ist ein hoch verf gbares System Das SunPlex System definiert H
139. um den Zustandsspeicher Anwendungssitzungszustand gemeinsam zu nutzen 70 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Mit normalen Sticky Diensten kann ein Client den Zustand zwischen mehreren gleichzeitigen TCP Verbindungen teilen Der Client wird als sticky bezeichnet weil die Serverinstanz einen einzigen Port abh rt Der Client hat die Sicherheit dass alle seine Anforderungen an dieselbe Serverinstanz gehen Voraussetzung hierf r ist dass die Instanz aktiv und zug nglich bleibt und das Lastausgleichsverfahren nicht ge ndert wird solange der Dienst online ist Ein Webbrowser auf dem Client stellt zum Beispiel mithilfe von drei verschiedenen TCP Verbindungen eine Verbindung mit einer gemeinsam genutzten IP Adresse an Port 80 her aber die Verbindungen tauschen zwischengespeicherte Sitzungsinformationen mit dem Dienst aus Eine Verallgemeinerung eines Sticky Verfahrens erstreckt sich auf mehrere Scalable Dienste die im Hintergrund Sitzungsinformationen bei derselben Instanz austauschen Wenn diese Dienste im Hintergrund Sitzungsinformation bei derselben Instanz austauschen wird der Client als sticky bezeichnet weil mehrere Serverinstanzen auf demselben Knoten unterschiedliche Ports abh ren Ein E Commerce Kunde f llt seinen Einkaufskorb zum Beispiel mit Artikeln und verwendet das normale HTTP an Port 80 wechselt dann jedoch zum Senden sicherer Daten mit SSL auf Port 443 um die Artikel im E
140. un Cluster Ereignis Framework und protokolliert den neuen Pfadstatus ber den UNIX syslogd 1M Mechanismus Hinweis Alle mit dem D mon zusammenh ngenden Fehler werden von pm fd 1M aufgezeichnet Alle API Funktionen geben 0 f r erfolgreich und 1 f r einen Fehler zur ck Der DPM D mon berwacht die Verf gbarkeit des logischen Pfades der ber Multipath Treiber wie MPxIO HDLM und PowerPath sichtbar ist Die jeweiligen realen Pfade die von diesen Treibern verwaltet werden werden nicht berwacht weil der Multipath Treiber einzelne Ausf lle vor dem DPM D mon verbirgt Kapitel 3 Schl sselkonzepte Verwaltung und Anwendungsentwicklung 51 berwachen von Plattenpfaden In diesem Abschnitt werden zwei Methoden zur berwachung von Plattenpfaden in Ihrem Cluster beschrieben Die erste Methode wird mit dem scdpm Befehl zur Verf gung gestellt Mit diesem Befehl k nnen Sie die Plattenpfade im Cluster berwachen die berwachung aufheben oder deren Status anzeigen Dieser Befehl dient auch dem Drucken der Liste von ausgefallenen Platten und der berwachung der Plattenpfade aus einer Datei Die zweite Methode zur berwachung von Plattenpfaden im Cluster wird von der grafischen Benutzeroberfl che Grafical User Interface GUI von SunPlex Manager zur Verf gung gestellt SunPlex Manager gibt Ihnen einen topologischen berblick ber die berwachten Plattenpfade im Cluster Die Ansicht wird alle 10 Minuten aktualisiert um In
141. ung 1 f nf Anteile auf dem entsprechenden Standard Master phys schost 1 zugewiesen Dies entspricht 100 Prozent der CPU Zeit weil es die einzige Anwendung ist die CPU Zeit auf diesem Knoten ben tigt Den Anwendungen 2 und 3 sind jeweils drei und zwei Anteile auf dem dazugeh rigen Standard Master phys schost 2 zugewiesen Damit entf llt auf Anwendung 2 60 Prozent der CPU Zeit und auf Anwendung 3 40 Prozent der CPU Zeit im normalen Betrieb Wenn Anwendung 1 bei einem Failover oder Switchover auf phys schost 2 wechselt bleiben die Anteile f r alle drei Anwendungen gleich Aber der Prozentsatz der CPU Ressourcen wird anhand der Projekt Datenbankdatei neu zugewiesen Anwendung 1 erh lt mit 5 Anteilen 50 Prozent der CPU Anwendung 2 erh lt mit 3 Anteilen 30 Prozent der CPU Anwendung 3 erh lt mit 2 Anteilen 20 Prozent der CPU Die nachstehende Abbildung illustriert den normalen und den Failover Betrieb in dieser Konfiguration Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 87 Normalbetrieb 3 Anteile Ann L 60 CPU r m geh rt zu RG 2 Ressourcen 5 Anteile Anw 1 100 CPU A g Ressourcen genon zu RGT ER PER 2 Anteile En 1 40 CPU geh rt zu RG 3 Ressourcen u phys schost 1 phys schost 2 5 Failover Betrieb Ausfall von Knoten phys schost 1 Bj N j a 5 Anteile Anw 1 geh rt zu RG 1 50 CPU Ressource
142. uppen Eigenschaften finden Sie unter Administering Cluster File Systems Overview in Sun Cluster System Administration Guide for Solaris OS Globaler Namensraum Der Sun Cluster Softwaremechanismus zur Aktivierung globaler Ger te ist der globale Namensraum Der globale Namensraum beinhaltet die dev global Hierarchie ebenso wie die Datentr ger Manager Namensr ume Der globale Namensraum gibt sowohl Multihostplatten als auch lokale Platten wieder und jedes andere Cluster Ger t wie CD Rom Laufwerke und B nder und stellt mehrere Failover Pfade f r die Multihostplatten zur Verf gung Jeder real an die Multihostplatten angeschlossene Knoten stellt f r alle Knoten im Cluster einen Pfad zum Speicher zur Verf gung In der Regel befinden sich die Namensr ume des Datentr ger Managers f r Solaris Volume Manager in den Verzeichnissen dev md Plattensatz dsk und rdsk Die Namensr ume des Datentr ger Managers f r Veritas VxVM befinden sich in den Verzeichnissen dev vx dsk Plattengruppe und dev vx rdsk Plattengruppe Diese Namensr ume bestehen aus Verzeichnissen f r jeden Solaris Volume Manager Plattensatz bzw jede VxVM Plattengruppe auf dem ganzen Cluster Jedes dieser Verzeichnisse enth lt einen Ger teknoten f r jedes Metager t oder jeden Datentr ger in diesem Plattensatz bzw in dieser Plattengruppe Im SunPlex System wird jeder Ger teknoten im lokalen Datentr ger Manager Namensraum durch eine symbolische Verkn pfung mit
143. usteuermechanismus im TCP aktiviert wird Multipathing Gruppen bilden die Bausteine f r logische Hostnamen und gemeinsam genutzte Adressen Sie k nnen auch unabh ngig von logischen Hostnamen und gemeinsam genutzten Adressen Multipathing Gruppen erstellen um die Konnektivit t der Cluster Knoten mit dem ffentlichen Netzwerk zu berwachen 90 Sun Cluster Konzepthandbuch f r Solaris OS September 2004 Revision A Dieselbe Multipathing Gruppe kann auf einem Knoten eine beliebige Anzahl logischer Hostnamen oder gemeinsam genutzter Adressen hosten Weitere Informationen zum logischen Hostnamen und zu gemeinsam genutzten Adressen erhalten Sie im Sun Cluster Data Services Planning and Administration Guide for Solaris OS Hinweis Der IP Network Multipathing Mechanismus ist auf das Erkennen und Verbergen von Adapterfehlern ausgelegt Zweck dieser Gestaltung ist nicht die Wiederherstellung von einem Verwalter durchzuf hren und mit ifconfig 1M eine der logischen oder gemeinsam genutzten IP Adressen zu entfernen Die Sun Cluster Software zeigt die logischen und gemeinsam genutzten IP Adressen als Ressourcen an die vom RGM verwaltet werden Ein Verwalter muss eine IP Adresse mit scrgadm 1M entfernen oder hinzuf gen um die Ressourcengruppe mit der Ressource zu ndern Weitere Informationen zur Solaris Implementierung von IP Network Multipathing finden Sie in der entsprechenden Dokumentation zur Solaris Betriebsumgebung die auf Ihrem Clus
144. waltung einer Ressourcengruppe durch den RGM aktiviert bzw deaktiviert Diese Einstellungen werden bei einer Cluster Neukonfiguration nicht ge ndert 78 Sun Cluster Konzepthandbuch f r Solaris OS e September 2004 Revision A Wenn eine Ressourcengruppe zum ersten Mal erstellt wird ist sie unverwaltet Sie muss verwaltet werden bevor enthaltene Ressourcen aktiv werden k nnen Bei einigen Datendiensten zum Beispiel einem Scalable Webserver muss diese Arbeit vor dem Starten und nach dem Anhalten der Netzwerkressourcen erledigt werden Dies wird durch die Datendienstmethoden zum lInitialisieren INIT und Beenden FINI erledigt Die INIT Methoden werden nur ausgef hrt wenn die Ressourcengruppe zu der die Ressource geh rt den Zustand Verwaltet hat Wenn der Status einer Ressourcengruppe von unverwaltet auf verwaltet gesetzt wird werden alle registrierten INIT Methoden f r die in der Gruppe enthaltenen Ressourcen ausgef hrt Wenn der Status einer Ressourcengruppe von verwaltet auf unverwaltet gesetzt wird werden alle registrierten FINI Methoden aufgerufen um eine Bereinigung durchzuf hren Am h ufigsten werden INIT und FINI Methoden f r Netzwerkressourcen f r Scalable Dienste eingesetzt aber sie k nnen f r alle beliebigen Initialisierungs oder Bereinigungsaufgaben eingesetzt werden die nicht von der Anwendung erledigt werden Aktiviert oder deaktiviert Diese Cluster weiten Einstellungen gelten f r Ressourcen Der
145. wendungsentwicklung 59 60 Hinweis In bestimmten Umgebungen ist es manchmal sinnvoll Ihre gesamte Cluster Verf gbarkeit herabzusetzen um Ihren Bed rfnissen gerecht zu werden Ignorieren Sie in diesen F llen die genannte Empfehlung Wenn diese Empfehlung jedoch nicht wahrgenommen wird wird die Verf gbarkeit insgesamt beeintr chtigt In der Konfiguration die unter Untypische Quorum Konfigurationen auf Seite 63 beschrieben wird ist die Verf gbarkeit des Clusters beispielsweise geringer Die Quorum Stimmen bersteigen hier die Knotenstimmen Der Cluster hat die Eigenschaft dass bei einem Abbruch des Zugriffs auf den gemeinsam genutzten Speicher zwischen Knoten A und Knoten B der gesamte Cluster ausf llt Unter Untypische Quorum Konfigurationen auf Seite 63 wird die Ausnahme zu dieser Empfehlung beschrieben m Geben Sie ein Quorum Ger t f r s mtliche Knotenpaare an die auf ein gemeinsam genutztes Speicherger t zugreifen Diese Quorum Konfiguration beschleunigt den Fehlerschutzprozess Siehe Quorum in Konfigurationen mit mehr als zwei Knoten auf Seite 62 m Im Allgemeinen steigt die Cluster Verf gbarkeit falls durch das Hinzuf gen eines Quorum Ger ts die Gesamtanzahl der Cluster Stimmen gerade wird m Quorum Ger te verlangsamen die Neukonfiguration nach dem Beitritt eines Knotens bzw dem Ausfall eines Knotens geringf gig F gen Sie aus diesem Grund nicht mehr Quorum Ger te als erforderlich hinzu
146. zelner Knoten weiterbesteht wenn der andere Knoten ausf llt Siehe Abbildung 3 2 Beispiele f r Quorum Konfigurationen die vermieden werden sollten erhalten Sie unter Unzul ssige Quorum Konfigurationen auf Seite 64 Beispiele f r empfohlene Quorum Konfigurationen erhalten Sie unter Empfohlene Quorum Konfigurationen auf Seite 61 Anwenden der Empfehlungen f r den Umgang mit Quorum Ger te Ermitteln Sie mithilfe der folgenden Informationen welche Quorum Konfiguration am besten f r Ihre Topologie geeignet ist m Verf gen Sie ber ein Ger t das an alle Knoten des Clusters angeschlossen werden kann m Falls ja konfigurieren Sie dieses Ger t als Ihr Quorum Ger t Sie m ssen kein weiteres Quorum Ger t konfigurieren da Ihre Konfiguration bereits optimal ist Achtung Wenn Sie diese Anforderung ignorieren und ein weiteres Quorum Ger t konfigurieren wird die Verf gbarkeit des Clusters durch das zus tzliche Quorum Ger t verringert m Falls nicht konfigurieren Sie Ihr Ger t bzw Ihre Ger te mit zwei Anschl ssen m Stellen Sie sicher dass die Gesamtanzahl der Stimmen die von Quorum Ger ten bereitgestellt werden grunds tzlich geringer ist als die Gesamtanzahl der von Knoten bereitgestellten Stimmen Ist dies nicht der Fall k nnen die Knoten keinen Cluster bilden wenn alle Platten verf gbar sind auch wenn s mtliche Knoten funktionsf hig sind Kapitel 3 e Schl sselkonzepte Verwaltung und An
147. zesse auf den Knoten Die Projektdatenbanken sind auf allen Knoten des Clusters gleich konfiguriert Zwei Knoten Cluster mit zwei Anwendungen Auf einem Zwei Cluster Knoten k nnen Sie zwei Anwendungen konfigurieren um sicherzustellen dass jeder reale Host phys schost 1 phys schost 2 als Standardmaster f r eine Anwendung fungiert Jeder reale Host fungiert als Sekund rknoten f r den anderen realen Host Alle Projekte die Anwendung 1 und Anwendung 2 zugeordnet sind m ssen in den Datenbankdateien der Projekte auf beiden Knoten vertreten sein Im normalen Cluster Betrieb wird jede Anwendung auf dem eigenen Standard Master ausgef hrt und erh lt ber die Verwaltungsfunkton die gesamte CPU Zeit zugewiesen Nach einem Failover oder Switchover werden beide Anwendungen auf einem einzigen Knoten ausgef hrt und erhalten die Anteile zugewiesen die in der Konfigurationsdatei angegeben wurden Dieser Eintrag in der etc project Datei gibt zum Beispiel an dass Anwendung 1 vier Anteile und Anwendung 2 ein Anteil zugewiesen wird Prj_1 100 project for App 1 root project cpu shares privileged 4 none Prj_2 10l1 project for App 2 root project cpu shares privileged 1 none Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 85 Die nachstehende Abbildung illustriert den normalen und den Failover Betrieb in dieser Konfiguration Die Anzahl der zugewiesenen Anteile ndert sich nicht Der Prozentsatz an CPU Zeit der jeder
148. zugeordneten Hostnamens konfiguriert Client Server Standardanwendung Client Workstation Anwendungsserver j gt Hostname iws 1 Scalable geclusterte Client Server Anwendung Client Workstation Geclusterte Anwendungsserver GIF iws 1 4 iws 1 Gemeinsam genutzte t x Adresse iws 1 iws 1 ABBILDUNG 3 6 Festgelegter Hostname versus gemeinsam genutzte Adresse Kapitel 3 e Schl sselkonzepte Verwaltung und Anwendungsentwicklung 67 Datendienstmethoden Die Sun Cluster Software stellt eine Reihe von Dienstverwaltungsmethoden zur Verf gung Diese Methoden werden vom Resource Group Manager RGM gesteuert und eingesetzt um die Anwendung auf den Cluster Knoten zu starten anzuhalten und zu berwachen Mit diesen Methoden der Cluster Framework Software und den Multihostger ten k nnen die Anwendungen als Failover oder Scalable Datendienste verwendet werden Der RGM verwaltet auch Ressourcen im Cluster einschlie lich der Anwendungsinstanzen und Netzwerkressourcen logische Hostnamen und gemeinsam genutzte Adressen Zus tzlich zu den Methoden der Sun Cluster Software stellt das SunPlex System auch eine API und verschiedene Datendienst Entwicklungstools zur Verf gung Mit diesen Tools k nnen Anwendungsprogrammierer die Datendienstmethoden entwickeln die sie zum Ausf hren anderer Anwendungen als hoch verf gbare Datendienste mit der Sun Cluster Software ben tigen Failover Da
Download Pdf Manuals
Related Search
Related Contents
Manuale Cyber128 - Audio-luci 取扱説明書 SD-BM103 OPERATORTS MANUAL - Troy-Bilt Manual – ELP15A Télécharger la Newsletter 2 Installation Guide Copyright © All rights reserved.
Failed to retrieve file