Home
Red Hat Enterprise Linux 6 Konfiguration des Red Hat High
Contents
1. Started Erlaubt einen Start der Ressource im Falle von Multi Status Ressourcen werden diese nichtin den Master Status hochgestuft Master Erlaubt einen Start der Ressource sowie ggf das Hochstufen is managed true Darf der Cluster die Ressource stoppen und starten Zul ssige Werte true false resource stickiness 0 Wert der anzeigt wie stark die Ressource an ihrem derzeitigen Standort bleiben m chte 30 Feld requires migration threshold failure timeout Standard Berechnet INFINITY deaktiviert 0 deaktiviert Kapitel 5 Konfigurieren von Cluster Ressourcen Beschreibung Legt fest unter welchen Umst nden die Ressource gestartet werden kann Standardm ig Fencing ausgenommen in den unten genannten Situationen M gliche Werte nothing Der Cluster kann die Ressource immer starten quo rum Der Cluster kann diese Ressource nur starten wenn die Mehrzahl der konfigurierten Knoten aktiv ist Dies ist der Standardwert wenn stonith enabled den Wert false hat oder falls der Standardwert standard der Ressource stonith lautet fencing Der Cluster kann diese Ressource nur starten wenn die Mehrzahl der konfigurierten Knoten aktiv ist und wenn jegliche ausgefallene oder unbekannte Knoten abgeschaltet wurden unfencing Der Cluster kann diese Ressource nur starten wenn die Mehrzahl der konfigurierten Knoten aktiv ist und wenn jegliche ausgefallene oder unbekannte Knoten
2. Beschreibung Ein eindeutiger Name f r die Beschr nkung Dieser wird vom System festgelegt wenn Sie eine Standortbeschr nkung mit pcs Konfigurieren Ein Ressourcenname Ein Knotenname Gewichtung die festlegt ob eine Ressource einen Knoten bevorzugen oder meiden soll Der Wert INFINITY ndert soll auf muss INFINITY ist die standardm ige Gewichtung f r eine Standortbeschr nkung einer Ressource Der folgende Befehl erstellt eine Standortbeschr nkung f r eine Ressource um den angegebenen Knoten zu bevorzugen pcs constraint location rsc prefers node score Der folgende Befehl erstellt eine Standortbeschr nkung f r eine Ressource um den angegebenen Knoten zu meiden 39 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker pcs constraint location rsc avoids node score Es gibt zwei alternative Strategien zur Angabe von Knoten auf denen eine Ressource laufen soll Opt In Cluster Konfigurieren Sie einen Cluster in dem standardm ig auf keinem Knoten eine Ressource laufen darf und aktivieren Sie anschlie end einzelne erlaubte Knoten f r bestimmte Ressourcen Das Verfahren zur Konfiguration eines Opt In Clusters wird in Abschnitt 6 1 1 Konfigurieren eines Opt In Clusters beschrieben 0 Opt Out Cluster Konfigurieren Sie einen Cluster in dem standardm ig auf allen Knoten alle Ressourcen laufen d rfen und erstellen Sie anschlie end Standortbes
3. Anzeigen der vollst ndigen Cluster Konfiguration 2 2 pcs Hilfebildschirm Sie k nnen die Option h f r pcs verwenden um die Parameter eines pcs Befehls samt einer Beschreibung dieser Parameter anzuzeigen Beispielsweise zeigt der folgende Befehl die Parameter des Befehls pcs resource Nur ein Ausschnitt der Ausgabe ist hier dargestellt 11 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker pcs resource h Usage pcs resource commands Manage pacemaker resources Commands show resource id all Show all currently configured resources or if a resource is specified show the options for the configured resource If all is specified resource options will be displayed start lt resource id gt Start resource specified by resource_id 2 3 Anzeigen der unformatierten Cluster Konfiguration Obwohl Sie die Cluster Konfigurationsdatei niemals direkt bearbeiten sollten k nnen Sie die unformatierte Cluster Konfiguration mithilfe des Befehls pcs cluster cib anzeigen lassen Sie k nnen diese unformatierte Cluster Konfiguration in einer angegebenen Datei mithilfe des 2 4 Speichern einer Konfigurations nderung in eine Datei Sie k nnen die Option f zum pcs Befehl verwenden um eine Konfigurations nderung in eine Datei zu speichern ohne Auswirkungen auf die aktive CIB Falls Sie zuvor bereits einen Cluster konfiguriert hatten und es bereits eine aktive CIB gibt k nnen
4. berschriften von Men s und Untermen s Zum Beispiel W hlen Sie System Einstellungen Maus in der Hauptmen leiste aus um die Mauseinstellungen zu ffnen W hlen Sie im Reiter Tasten auf das Auswahlk stchen Mit links bediente Maus und anschlie end aufSchlie en um die prim re Maustaste von der linken auf die rechte Seite zu ndern d h um die Maus auf Linksh nder anzupassen Um ein Sonderzeichen in eine gedit Datei einzuf gen w hlen Sie Anwendungen Zubeh r Zeichentabelle aus der Hauptmen leiste W hlen Sie als N chstes Suchen Suchen aus der Men leiste der Zeichentabelle geben Sie im Feld Suchbegriff den Namen des Zeichens ein und klicken Sie aufWeitersuchen Das gesuchte Zeichen wird daraufhin in der Zeichentabelle hervorgehoben Doppelklicken Sie auf dieses hervorgehobene Zeichen umes in das Feld Zu kopierender Text zu bernehmen und klicken Sie anschlie end auf die Schaltfl che Kopieren Gehen Sie nun zur ck in Ihr Dokument und w hlen Sie Bearbeiten Einf gen aus der gedit Men leiste Der oben aufgef hrte Text enth lt Applikationsnamen systemweite Men namen und elemente applikationsspezifische Men namen sowie Schaltfl chen und Text innerhalb einer grafischen LJ M Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Oberfl che Alle werden proportional fett dargestellt und sind anhand des Kontextes unterscheidbar Nichtproporti
5. berwachungsoperationen Die einfachste Methode zum Stoppen einer wiederkehrenden Uberwachungsoperation ist das L schen derselben Allerdings ist es in einigen Situationen ggf sinnvoller diese nur vor bergehend zu deaktivieren Fugen Sie dazu enabled false zur Definition der Operation hinzu Wenn Sie die berwachungsoperation wieder aktivieren m chten f gen Sie enabled true zur Definition der Operation hinzu 7 6 Verwaltete Ressourcen Sie k nnen eine Ressource in einen nicht verwalteten Modus versetzen Dadurch verbleibt die Ressource in der Konfiguration wird allerdings nicht von Pacemaker verwaltet Der folgende Befehl versetzt die angegebenen Ressourcen in den nicht verwalteten Modus pcs resource unmanage resource1 resource2 50 Der folgende Befehl versetzt Ressourcen in den verwalteten Modus was der standardm ige Status ist pcs resource manage resourcei resource2 Sie k nnen zu dem Befehl pcs resource manage oder pcs resource unmanage den Namen einer Ressourcengruppe angeben Der Befehl wirkt sich auf alle Ressourcen in der Gruppe aus sodass Sie alle Ressourcen in der Gruppe mit einem einzigen Befehl in einen verwalteten oder nicht verwalteten Modus versetzen k nnen um dann die enthaltenen Ressourcen einzeln zu verwalten Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Kapitel 8 Erweiterte Ressourcentypen Dieses Kapitel beschreibt erweiterte Ressourcentyp
6. location Eine Standortbeschr nkung legt fest auf welchen Knoten eine Ressource laufen darf Standortbeschrankungen werden in Abschnitt 6 1 Standortbeschr nkungen beschrieben order Eine Reihenfolgebeschr nkung legt fest in welcher Reihenfolge die Ressourcen laufen Reihenfolgebeschr nkungen werden in Abschnitt 6 2 Reihenfolgebeschrankungen beschrieben colocation Eine relative Standortbeschr nkung legt fest wo eine Ressource relativ zu anderen Ressourcen platziert werden darf Beschr nkungen des relativen Standorts werden in Abschnitt 6 3 Relative Standortbeschr nkung f r Ressourcen beschrieben Pacemaker unterst tzt das Konzept der Ressourcengruppen als verk rzte Methode zur Konfiguration einer Reihe von Beschr nkungen die eine Gruppe von Ressourcen zusammen platziert und sicherstellt dass die Ressourcen in der richtigen Reihenfolge starten und in der umgekehrten Reihenfolge stoppen Weitere Informationen ber Ressourcengruppen finden Sie in Abschnitt 6 5 ss 68 8 esa 6 1 Standort beschrankungen Standortbeschrankungen legen fest auf welchen Knoten eine Ressource laufen darf Mithilfe von Standortbeschr nkungen k nnen Sie festlegen ob eine Ressource einen bestimmten Knoten meidet oder bevorzugt Tabelle 6 1 Optionen f r Standortbeschr nkungen zeigt eine bersicht der Optionen zur Konfiguration von Standortbeschr nkungen Tabelle 6 1 Optionen f r Standortbeschr nkungen
7. Konfigurieren eines LVM Datentragers mit einem ext4 Dateisystem Dieses Beispiel erfordert dass Sie einen logischen LVM Datentr ger auf Speicher anlegen der von den Knoten im Cluster gemeinsam genutzt werden kann Das folgende Verfahren erstellt einen logischen LVM Datentrager und legt anschlie end ein ext4 Dateisystem auf diesem Datentr ger an In diesem Beispiel wird die gemeinsam verwendete Partition dev sdb1 zur Speicherung des physischen LVM Datentr gers verwendet auf dem der logische LVM Datentr ger erstellt wird Anmerkung LVM Datentr ger und zugeh rige Partitionen und Ger te die von Cluster Knoten verwendet werden d rfen ausschlie lich mit den Cluster Knoten verbunden werden Da es sich bei der Partition dev sdb1 um gemeinsam verwendeten Speicher handelt f hren Sie dieses Verfahren nur aufeinem Knoten aus 1 Erstellen Sie einen physischen LVM Datentr ger auf der Partition dev sdb1 pvcreate dev sdbi Physical volume dev sdb1 successfully created 2 Erstellen Sie die Datentr gergruppe my_vg die den physischen Datentr ger dev sdb1 umfasst vgcreate my_vg dev sdb1 Volume group my_vg successfully created 3 Erstellen Sie einen logischen Datentr ger auf der Datentr gergruppe my_vg lvcreate L450 n my_lv my_vg Rounding up size to full physical extent 452 00 MiB Logical volume my_lv created Sie k nnen den Lvs Befehl verwenden um den logischen Datentr ger anzuzeigen lvs
8. pcs acl Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker User rouser Roles read only User wuser Roles write access Role read only Description Read access to cluster Permission read xpath cib read only read Role write access Description Full Access Permission write xpath cib write access write Weitere Informationen Uber Cluster ACLs finden Sie auf dem Hilfebildschirm des Befehls pcs acl 3 4 Entfernen der Cluster Konfiguration Mithilfe des folgenden Befehls k nnen Sie s mtliche Cluster Konfigurationsdateien entfernen und alle Cluster Dienste stoppen wodurch der Cluster dauerhaft gel scht wird Dieser Befehl entfernt dauerhaft jegliche erstellte Cluster Konfiguration Es wird empfohlen dass Siepcs cluster stop ausf hren bevor Sie den Cluster l schen pcs cluster destroy 3 5 Anzeigen des Cluster Status Der folgende Befehl zeigt den derzeitigen Status des Clusters und der Cluster Ressourcen an pcs status Mithilfe der folgenden Befehle k nnen Sie Informationen mit etwas eingeschr nktem Umfang ber den aktuellen Cluster Status anzeigen Der folgende Befehl zeigt den Status des Clusters nicht jedoch der Cluster Ressourcen pcs cluster status Der folgende Befehl zeigt den Status der Cluster Ressourcen pcs status resources 18 Kapitel 4 Fencing Konfigurieren von STONITH Kapitel 4 Fencing Konfigurieren von STONITH STONITH ist ein Akronym f r
9. stop interval s timeout 40s VirtualIP name stop interval Os timeout 40s Verwenden Sie den folgenden Befehl um globale Standardwerte f r berwachungsoperationen festzulegen pcs resource op defaults options Beispielsweise legt der folgende Befehl einen globalen Standardwert f r timeout von 240 Sekunden f r alle berwachungsoperationen fest pcs resource op defaults timeout 240s Um die derzeit konfigurierten Standardwerte f r berwachungsoperationen anzuzeigen geben Sie keine Optionen an wenn Sie den Befehl pcs resource op defaults ausf hren Beispielsweise zeigt der folgende Befehl die Standardwerte f r berwachungsoperationen in einem Cluster der miteinem timeout Wert von 240 Sekunden konfiguriert wurde pcs resource op defaults timeout 240s 35 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker 5 6 Anzeigen konfigurierter Ressourcen Verwenden Sie den folgenden Befehl um eine Liste aller konfigurierten Ressourcen anzuzeigen pcs resource show Falls Ihr System beispielsweise mit einer Ressource namens VirtualIP und einer Ressource namens WebSite konfiguriert ist dann zeigt der Befehl pcs resource show die folgende Ausgabe pcs resource show VirtualIP ocf heartbeat IPaddr2 Started WebSite ocf heartbeat apache Started Verwenden Sie die Option full des Befehls pcs resource show wie im folgenden Beispiel um eine Liste aller konfigurierten Resso
10. 2 pcs Hilfebildschirm 11 2 3 Anzeigen der unformatierten Cluster Konfiguratio n 12 2 4 Speichern einer Konfigurations nderung in eine Datei 12 2 5 Anzeigen des Status 12 2 6 Anzeigen der vollst ndigen Cluster Konfig uration 13 2 7 Anzeigen der aktuellen pcs Version 13 Kapitel 3 Cluster Erstellung und Verwaltung 20 e eee ees 14 3 1 Erstellen eines Clusters 14 3 1 1 Authentifizieren der Cluster Knoten 14 3 1 2 Konfigurieren und Starten der Cluster Knoten 14 3 2 Verwalten von Cluster Knoten 15 3 2 1 Stoppen von Cluster Diensten 15 3 2 2 Aktivieren und Deaktivieren der Cluster Dienste 15 3 2 3 Hinzuf gen und Entfernen von Cluster Knoten 15 3 2 4 Standby Modus 16 3 3 Festlegen von Benutzerberechtigungen 16 3 4 Entfernen der Cluster Konfiguration 18 3 5 Anzeigen des Cluster Status 18 Kapitel 4 Fencing Konfigurieren von STONITH uuenenen es 19 4 1 Verf gbare STONITH Fencing Agenten 19 4 2 Allgemeine Eigenschaften von Fencing Ger ten 19 4 3 Anzeigen ger tespezifischer Fencing Optionen 20 4 4 Erstellen eines Fencing Ger ts 21 4 5 Konfigurieren von Storage basierten Fencing Ger ten mit Aufheben der Abgrenzung 21 4 6 Anzeigen von Fencing Ger ten 22 4 7 Bearbeiten und L schen von Fencing Ger ten 22 4 8 Verwalten von Knoten mit Fencing Ger ten 22 4 9 Weitere Fencing Konfigurationsoptionen 23 4 10 Konfigurieren von Fencing Levels 26 Kapitel 5 Konfigurieren von Cluster Ressourcen sunnsun nn nn
11. 2014 Implementierung von sort_order auf der RHEL 6 Splash Seite Version 2 0 5 Thu Oct 9 2014 Version f r 6 6 GA Release Version 2 0 4 Wed Oct 8 2014 Behebt 1131544 F gt Dokumentation f r ACLs hinzu Version 2 0 2 Wed Aug 7 2014 Version f r 6 6 Beta Release Version 2 0 1 Wed Jul 23 2014 Entwurf f r 6 6 Beta Hedda Peters Hedda Peters Steven Levine Steven Levine Steven Levine Steven Levine Steven Levine Behebt 1126896 1126018 986462 1045406 1122145 1079340 Kleine redaktionelle und technische nderungen Behebt 1081225 1081248 1092720 Aktualisiert das Dokument mit Informationen Uber die Unterst tzung der Konfigurationssynchronisation und anderer Funktionen zur Kommunikation unter den Knoten Version 1 1 2 Wed Nov 20 2013 Version f r 6 5 GA Release Version 0 1 4 Wed Oct 2 2013 Erste Erstellung des Entwurfs f r 6 5 Beta 86 Steven Levine Steven Levine
12. 79 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker LV VG Attr LSize Pool Origin Data Move Log Copy Convert my_lv my_vg wi a 452 00m 4 Legen Sie ein ext4 Dateisystem auf dem logischen Datentr ger my_lv an mkfs ext4 dev my_vg my_lv mke2fs 1 42 7 21 Jan 2013 Filesystem label OS type Linux B 3 2 Webserver Konfiguration Die folgenden Schritte beschreiben wie ein Apache Webserver konfiguriert wird 80 1 Vergewissern Sie sich dass der HTTPD Server auf jedem Knoten im Cluster installiert ist Dar ber hinaus muss das Tool wget auf dem Cluster installiert sein um den Status des Apache Webservers zu pr fen F hren Sie auf jedem Knoten den folgenden Befehl aus yum install y httpd wget Damit der Apache Ressourcenagent den Status des Apache Webservers abrufen kann vergewissern Sie sich dass der folgende Text auf jedem Knoten im Cluster in der Datei etc httpd conf httpd conf enthalten ist und dass dieser Text nicht auskommentiert wurde Falls dieser Text noch nicht enthalten ist f gen Sie inn am Ende der Datei hinzu lt Location server status gt SetHandler server status Order deny allow Deny from all Allow from 127 0 0 1 lt Location gt Erstellen Sie eine Webseite die Apache anzeigen soll Hangen Sie auf einem Knoten im Cluster das Dateisystem ein das Sie in Abschnitt B 3 1 Konfigurieren eines LVM auf diesem Dateisystem und h n
13. Ereignisbenachrichtigungen mit berwachungsressourcen Ein Pacemaker Cluster ist ein ereignisgesteuertes System wobei ein Ereignis beispielsweise ein Ausfall einer Ressource oder eine nderung in der Konfiguration sein kann Die Ressource ocf pacemaker ClusterMon kann den Status des Clusters berwachen und bei jedem Cluster Ereignis Benachrichtigungen ausgeben Diese Ressource f hrt in regelm igen Abst nden crm_mon im Hintergrund aus und verwendet Funktionen von crm_mon zum Senden von E Mail Nachrichten SMTP oder SNMP Traps Sie kann mithilfe des Parameters extra_options auch externe Programme ausf hren Das folgende Beispiel konfiguriert eine CLusterMon Ressource namens ClusterMon SMTP die E Mail Benachrichtigungen sendet Pacemaker Ereignisse veranlassen den Versand einer E Mail an pacemaker example com von pacemaker nodeX example commitmail example comals Mail Host Diese Ressource wird als Klon erstellt damit sie auf jedem Knoten im Cluster l uft pcs resource create ClusterMon SMTP ClusterMon clone user root update 30 extra_options T pacemaker example com F pacemaker nodeX example com P PACEMAKER H mail example com 56 Das folgende Beispiel konfiguriert eine CLusterMon Ressource namens ClusterMon SNMP die SNMP Traps mit dem root SNMP Benutzer an Host snmphost example com sendet Diese Ressource wird als Klon erstellt damit sie auf jedem Knoten im Cluster l uft pcs resource create ClusterMon SNMP Cl
14. Ger te festlegen k nnen Anmerkung Informationen ber erweiterte Fencing Konfigurationseigenschaften finden Sie in Abschnitt 4 9 Weitere Fencing Konfigurationsoptionen Tabelle 4 1 Allgemeine Eigenschaften von Fencing Ger ten 19 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Standard Beschreibung stonith timeout Zeitspanne Wert fur die Zeituberschreitung einer STONITH Aktion pro stonith Ger t Setzt die Cluster Eigenschaft stonith timeout au er Kraft priority Ganzzahl Die Priorit t der stonith Ressource Ger te werden in der Reihenfolge von h chster nach niedrigster Priorit t versucht pcmk_host_map Zeichenfolg Eine Zuordnung von Hostnamen zu e Portnummern f r Ger te die keine Hostnamen unterst tzen Zum Beispiel node1 1 node2 2 3 weist den Cluster dazu an Port 1 fur Knoten 1 und Ports 2 und 3 fur Knoten 2 zu verwenden pcmk_host_list Zeichenfolg Eine Liste aller Rechner die von diesem e Ger t gesteuert werden Optional es sei denn pcemk_host_check static list pcmk_host_check Zeichenfolg dynamic list Wie bestimmt werden soll welche e Rechner von dem Ger t gesteuert werden Zul ssige Werte dynamic list fragt das Ger t ab static list pr ft das Attribut pcmk_host_list kein Wert nimmt an dass jedes Ger t jeden Rechner abgrenzen kann 4 3 Anzeigen ger tespezifischer Fencing Optionen Verwenden Sie den folgenden Befehl u
15. Konfiguration des Red Hat High Availability Add Ons mit Pacemaker 8 1 2 Klonbeschrankungen In den meisten Fallen hat ein Klon eine Instanz auf jedem aktiven Cluster Knoten Sie k nnen jedoch clone max fur den Ressourcenklon auf einen Wert festlegen der geringer ist als die Gesamtanzahl der Knoten im Cluster In diesem Fall k nnen Sie mithilfe von Standortbeschr nkungen f r die Ressource angeben welchen Knoten der Cluster diese Klone vorzugsweise zuweisen soll Diese Beschr nkungen werden analog Zur jenen f r regul re Ressourcen angegeben jedoch mit dem Unterschied dass die Klon ID verwendet werden muss Der folgende Befehl erstellt eine Standortbeschr nkung damit der Cluster den Ressourcenklon webfarm clone vorzugsweise nodei zuweist pcs constraint location webfarm clone prefers nodeil Reihenfolgebeschr nkungen verhalten sich etwas anders f r Klone In dem nachfolgenden Beispiel wartetwebfarm stats bis alle Instanzen von webfarm clone die gestartet werden m ssen gestartet wurden bevor er selbst startet Nur wenn keine Instanzen von webfarm clone gestartet werden k nnen hindert dies webfarm stats daran selbst gestartet zu werden Umgekehrt wartet webfarm clone bis webfarm stats gestoppt wurde bevor dieser selbst stoppt pcs constraint order start webfarm clone then webfarm stats Eine relative Standortbeschr nkung einer regul ren oder Gruppenressource mit einem Klon bedeutet dass die Ressource auf jedem Rechner
16. Tabelle 9 4 Eigenschaften einer Datumsspezifikation Beschreibung id Ein eindeutiger Name fur das Datum hours Zul ssige Werte 0 23 monthdays Zul ssige Werte 0 31 abh ngig vom Monat und Jahr weekdays Zul ssige Werte 1 7 1 Montag 7 Sonntag yeardays Zul ssige Werte 0 366 abh ngig vom Jahr months Zul ssige Werte 0 12 weeks Zul ssige Werte 0 53 abh ngig von weekyear years Jahr nach Gregorianischem Kalender weekyears Gegebenenfalls abweichend von Gregorianischem Jahren zum Beispiel entspricht 2005 001 Ordinal der Angabe 2005 01 01 Gregorian und der Angabe 2004 W53 6 Weekly Zul ssige Werte 0 7 O Neumond 4 Vollmond 9 4 Dauer Die Dauer wird zur Berechnung eines Werts f r end verwendet wenn in in_range Operationen keiner angegeben wurde Die Dauer verwendet dieselben Felder wie date_spec Objekte jedoch ohne Begrenzungen z B k nnen Sie eine Dauer von 19 Monaten festlegen Wie bei date_specs wird auch hier jedes nicht angegebene Feld ignoriert 9 5 Konfigurieren von Regeln mit pcs Verwenden Sie den folgenden Befehl um eine Regel zu konfigurieren Falls Sie score weglassen wird standardm ig INFINITY verwendet Falls Sie die id weglassen wird eine ID aus der constraint_id generiert Der rule_type sollte expression oder date_expression sein pcs constraint rule add constraint_id rule_type score score id rule_id expression date_expression date_spec options Verwenden Sie den folgenden
17. Wert poweroff ist ebenfalls erlaubt wird jedoch nur f r veraltete Ger te verwendet Verz gerung beim Senden ber das Netzwerk Ausf hrung der Aktion ausgenommen Der empfohlene Wert h ngt von der Geschwindigkeit und der Auslastung des Netzwerks und der Cluster Knoten ab Legt fest ob gel schte Ressourcen gestoppt werden sollen Legt fest ob gel schte Aktionen abgebrochen werden sollen Legt fest ob ein fehlgeschlagener Start als fataler Fehler f r die Ressource gehandhabt wird Falls auf false gesetzt verwendet der Cluster stattdessen den failcount und den Wertf rmigration threshold der Ressource Informationen ber das Einstellen der Option migration threshold f r eine Ressource finden Sie in Abschnitt 7 2 Verlegen von Die Anzahl der PE Eingaben die in Fehlern beim Speichern resultieren Verwendet zur Fehlermeldung Die Anzahl der PE Eingaben die in Warnungen beim Speichern resultieren Verwendet zur Fehlermeldung Die Anzahl normaler PE Eingaben zum Speichern Verwendet zur Fehlermeldung Der Nachrichten Stack auf dem Pacemaker derzeit l uft Verwendet f r Informations und Diagnosezwecke nicht konfigurierbar Version von Pacemaker auf dem Designated Controller DC des Clusters Verwendet f r Diagnosezwecke nicht konfigurierbar Letzte Aktualisierung des lokalen Ressourcenverwalters angegeben in Sekunden seit der Epoche Verwendet f r Diagnosezwecke nicht konfigurierbar Polling Intervall f
18. der Cluster eine Ressource starten und stoppen darf Es wird empfohlen diesen Wert als Ressourcen Operationsstandard festzulegen statt als Cluster Option enable acl Red Hat Enterprise Linux 6 6 und h her Legt fest ob der Cluster Zugriffssteuerungslisten verwenden kann die mit dem Befehl pcs acl eingestellt werden 10 2 Festlegen und Entfernen von Cluster Eigenschaften Verwenden Sie den folgenden pcs Befehl um den Wert f r eine Cluster Eigenschaft festzulegen pcs property set property value Um beispielsweise den Wert f r symmetric cluster auf false zu setzen f hren Sie den folgenden Befehl aus pcs property set symmetric cluster false Mithilfe des folgenden Befehls k nnen Sie eine Cluster Eigenschaft aus der Konfiguration entfernen pcs property unset property Alternativ k nnen Sie eine Cluster Eigenschaft aus einer Konfiguration entfernen indem Sie das Wertefeld des Befehls pcs property set leer lassen Dadurch wird die Eigenschaft auf ihren Standardwert zur ckgesetzt Falls Sie beispielsweise die Eigenschaft symmetric cluster bislang auf false eingestellt hatten dann entfernt der folgende Befehl diesen Wert aus der Konfiguration und setzt den Wert f r symmetric cluster stattdessen auf seinen Standardwert true pcs property set symmetic cluster 67 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker 10 3 Abfragen der Einstellungen f r Cluster Eigenschaften Wenn S
19. des Red Hat High Availability Add Ons mit Pacemaker Der folgende Befehl listet alle derzeit konfigurierten Ressourcengruppen auf pcs resource group list Das folgende Beispiel erstellt eine Ressourcengruppe namens shortcut welche die vorhandenen Ressourcen IPaddr und Email enth lt pcs resource group add shortcut IPaddr Email Die Anzahl m glicher Ressourcen in einer Gruppe ist nicht begrenzt Die wesentlichen Eigenschaften einer Gruppe sind wie folgt Ressourcen werden in der Reihenfolge gestartet in der Sie sie angegeben in diesem Beispiel als Erstes IPaddr danach Email Ressourcen werden in der umgekehrten Reihenfolge gestoppt in der Sie sie angeben Email zuerst danach IPaddr Falls eine Ressource in dieser Gruppe nirgendwo im Cluster laufen kann dann darf auch keine der Ressourcen laufen die nach dieser Ressource angegeben wurden Falls IPaddr nirgends laufen darf kann auch Email nirgends laufen Falls Email nirgends laufen darf hat dies jedoch keinerlei Auswirkungen auf IPaddr Mitwachsendem Umfang der Gruppe wird auch der eingesparte Konfigurationsaufwand bei der Erstellung von Konfigurationsgruppen deutlich 6 5 1 Gruppenoptionen Eine Ressourcengruppe erbt die folgenden Optionen von den darin enthaltenen Ressourcen priority target role is managed Informationen ber Ressourcenoptionen finden Siein 6 5 2 Gruppentreue Gruppentreue ein Ma daf r wie sehr eine Ressource bleiben m chte wo sie is
20. die Option migration threshold f r diese Ressource festlegen Sobald dieser Grenzwert erreicht wurde darf die Ressource nicht l nger auf diesem Knoten ausgef hrt werden bis der Administrator den Ausfallz hler der Ressource manuell mithilfe des Befehls pcs resource failcount zur cksetzt oder der Wert f r failure timeout f r diese Ressource erreicht wird Standardm ig gibt es keinen Grenzwert Anmerkung Das Einstellen einermigration threshold f r eine Ressource ist nicht dasselbe wie das Konfigurieren einer Ressource f r die Migration bei der eine Ressource ohne Zustandsverlust von einem Standort aufeinen anderen verlegt wird Das folgende Beispiel f gt einen Migrationsgrenzwert von 10 zu der Ressource namens dummy_resource hinzu was dazu f hrt dass die Ressource nach 10 Ausf llen auf einen anderen Knoten wechselt pcs resource meta dummy_resource migration threshold 10 Mithilfe des folgenden Befehls k nnen Sie einen Migrationsgrenzwert zu den Standards f r den gesamten Cluster hinzuf gen pcs resource defaults migration threshold 10 Verwenden Sie den Befehlpcs resource failcount um den aktuellen Status und die aktuellen Grenzwerte f r Ausf lle f r die Ressource Zu bestimmen Es gibt zwei Ausnahmen bei Migrationsgrenzwerten wenn der Start oder der Stopp einer Ressource fehlschl gt Ein Fehler beim Starten f hrt dazu dass der Failcount auf INFINITY gesetzt wird und die Ressource sofort verlegt wi
21. gestartet haben und dann die Cluster Dienste auf jedem Knoten mit dem folgenden Befehl starten pcs cluster start all B 3 4 Erstellen der Ressourcen und Ressourcengruppen mit dem pcs Befehl Dieser Anwendungsfall erfordert dass Sie vier Cluster Ressourcen erstellen Um sicherzustellen dass diese Ressourcen alle auf demselben Knoten laufen werden Sie als Mitglieder der Ressourcengruppe apachegroup konfiguriert Nachfolgend sehen Sie die zu erstellenden Ressourcen angegeben in der Reihenfolge in der sie starten werden 1 Eine LVM Ressource namens my_lvm welche die LVM Datentragergruppe verwendet die Sie in Abschnitt B 3 1 Konfigurieren eines LVM Datentragers mit einem ext4 Dateisystem erstellt 2 Eine Filesystem Ressource namens my_fs die das Dateisystemgerat d ev my_ vg my_ lv verwendet das Sie in Abschnitt B 3 1 Konfigurieren eines LVM 3 Eine IPaddr2 Ressource die eine Floating IP Adresse f r die apacheg roup Ressourcengruppe ist Die IP Adresse darf nicht bereits einem physischen Knoten zugewiesen sein Falls das NIC Ger t der IPaddr2 Ressource nicht angegeben wird muss sich die Floating IP Adresse auf demselben Netzwerk befinden wie die statisch zugewiesenen IP Adressen die von den Cluster Knoten verwendet werden Andernfalls kann das der Floating IP Adresse zuzuweisende NIC Ger t nicht richtig erkannt werden 4 Eine apache Ressource namens Website welche die index html Datei und die Apache Konfigura
22. hinzugef gten Knoten pcs cluster node add node 15 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Der folgende Befehl fahrt den angegebenen Knoten herunter und entfernt inn auf allen anderen Knoten im Cluster aus der Cluster Konfigurationsdatei cLuster conf Informationen Uber das Entfernen s mtlicher Informationen Uber den Cluster von den Cluster Knoten um den Cluster pcs cluster node remove node 3 2 4 Standby Modus Der folgende Befehl versetzt den angegebenen Knoten in den Standby Modus Der angegebene Knoten ist dadurch nicht l nger in der Lage Ressourcen zu hosten Jegliche derzeit auf dem Knoten aktive Ressourcen werden aufeinen anderen Knoten verlegt Falls Sie die Option all angeben versetzt dieser Befehl alle Knoten in den Standby Modus Sie k nnen diesen Befehl bei der Aktualisierung von Paketen einer Ressource verwenden Der Befehl kann auch zum Testen einer Konfiguration verwendet werden um die Wiederherstellung zu testen ohne tats chlich den Knoten herunterzufahren pcs cluster standby node all Der folgende Befehl hebt den Standby Modus f r den angegebenen Knoten auf Nach Ausf hren dieses Befehls ist der angegebene Knoten wieder in der Lage Ressourcen zu hosten Falls Sie die Option all angeben hebt dieser Befehl den Standby Modus f r alle Knoten auf pcs cluster unstandby node all Beachten Sie dass die Ausf hrung des Befehls pcs cluster stan
23. ip 192 168 0 120 cidr_netmask 24 op monitor interval 30s Alternativ k nnen Sie die Felder standard und provider weglassen und den folgenden Befehl verwenden Dadurch werden die Standardwerte ocf und heartbeat verwendet pcs resource create VirtualIP IPaddr2 ip 192 168 0 120 cidr_netmask 24 op monitor interval 30s Verwenden Sie den folgenden Befehl um eine konfigurierte Ressource zu l schen pcs resource delete resource_id Beispielsweise l scht der folgende Befehl eine vorhandene Ressource mit der Ressourcen ID Virtual IP pcs resource delete VirtualIP Informationen ber die Felder resource_id standard provider und type im Befehl pcs resource create finden Sie in Abschnitt 5 2 Ressourceneigenschaften Informationen ber das Definieren von Ressourcenparametern f r einzelne Ressourcen finden Sie in Abschnitt 5 3 Ressourcenspezifische Parameter Informationen ber das Definieren von Ressourcen Metaoptionen die der Cluster verwendet um ber das Verhalten der Ressource zu entscheiden finden Sie in Abschnitt 5 4 Ressourcen Metaoptionen Informationen Uber das Definieren der Operationen die auf einer Ressource auszuf hren sind finden Sie in Abschnitt 5 5 Ressourcenoperationen 5 2 Ressourceneigenschaften Die Eigenschaften die Sie f r eine Ressource definieren teilen dem Cluster mit welches Skript f r die Ressource zu verwenden ist wo dieses Skript zu finden ist und welchen Standards
24. nicht an anderer Stelle starten restart Ressource stoppen und neu starten m glicherweise auf einem anderen Knoten fence Knoten auf dem die Ressource ausgefallen ist mit STONITH abgrenzen standby Alle Ressourcen von dem Knoten auf der die Ressource ausgefallen ist wegverlegen Die stop Operation lautet Fence wenn STONITH aktiviert ist andernfalls lautet sie block Alle anderen Operationen lauten standardm ig restart Falls false wird die Operation so behandelt als existierte sie nicht Zul ssige Werte true false Mit dem folgenden Befehl k nnen Sie bei der Erstellung einer Ressource berwachungsoperationen Konfigurieren pcs resource create resource_id standard provider type type resource_options op operation_action operation_options operation_type operation_options Beispielsweise erstellt der folgende Befehl eine IPaddr2 Ressource mit einer berwachungsoperation Die neue Ressource tr gt den Namen Virtual IP hat die IP Adresse 192 168 0 99 und die Netzmaske 24 auf eth2 Eine Uberwachungsoperation wird alle 30 Sekunden durchgef hrt pcs resource create VirtualIP ocf heartbeat IPaddr2 ip 192 168 0 99 cidr_netmask 24 nic eth2 op monitor interval 30s pcs resource create my_address IPaddr2 ip 10 20 30 40 cidr_netmask 24 op monitor Alternativ k nnen Sie mit dem folgenden Befehl eine Uberwachungsoperation zu einer vorhandenen Ressource hinzuf gen pcs resource op add resource_
25. pcmk_status_timeout Zeitspanne 60s Ein alternativer Wert f r die Zeit berschreitung bei status Aktionen der anstelle von stonith timeout verwendet werden soll Einige Ger te ben tigen sehr viel weniger bzw mehr Zeit f r diese Aktion als normal Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Werts f r die Zeit berschreitung bei status Aktionen pcmk_status_retries Ganzzahl Die maximale Anzahl von Neuversuchen f r den status Befehl innerhalb der Zeitspanne f r die Zeit berschreitung Einige Ger te unterst tzen keine mehrfachen Verbindungen Operationen k nnen fehlschlagen falls das Ger t mit einer anderen Operation besch ftigt ist weshalb Pacemaker die Operation automatisch erneut versucht falls noch gen gend Zeit bleibt Verwenden Sie diese Option um die Anzahl der Neuversuche von Pacemaker f r status Aktionen zu ver ndern bevor aufgegeben werden soll 4 10 Konfigurieren von Fencing Levels Pacemaker unterst tzt die Abgrenzung von Knoten unter Verwendung mehrerer Ger te mithilfe eines Features namens Fencing Topologien Um Topologien zu implementieren erstellen Sie einzelne Ger te auf normalem Weg und definieren Sie anschlie end einen oder mehrere Fencing Levels im Konfigurationsabschnitt f r Fencing Topologien Die Levels werden nacheinander in aufsteigender Reihenfolge probiert beginnend bei 1 Falls ein Ger t ausf llt wird die Verarbeitung f r den derzei
26. r zeitbasierte nderungen an Optionen Ressourcenparametern oder Beschr nkungen Zul ssige Werte Null deaktiviert das Polling positive Ganzzahlwerte sind ein Intervall in Sekunden es sei denn andere SI Einheiten werden festgelegt wie z B 5min Kapitel 10 Pacemaker Cluster Eigenschaften Standard Beschreibung default action Wert f r die Zeit berschreitung einer Pacemaker timeout Aktion Die Einstellung f r eine Operation in einer Ressource selbst hat immer Vorrang vor dem Standardwert der als Cluster Option festgelegt wurde maintenance mode Dieser Wartungsmodus versetzt den Cluster in einen Wartezustand in dem der Cluster keine Dienste startet oder stoppt sofern nicht dazu aufgefordert Sobald der Wartungsmodus abgeschlossen ist f hrt der Cluster eine Zustandspr fung aller Dienste durch und stoppt oder startet jegliche n tige Dienste shutdown escalation Die Zeit nach der ein Versuch zum ordnungsgem en Herunterfahren aufgegeben und einfach beendet werden soll Nur zur fortgeschrittenen Verwendung stonith timeout Zeitspanne die auf den Abschluss einer STONITH Aktion gewartet werden soll stop all resources Legt fest ob der Cluster alle Ressourcen stoppen soll default resource Legt fest wie stark eine Ressource an ihrem derzeitigen stickiness Standort bleiben m chte Es wird empfohlen diesen Wert als Ressourcen Operationsstandard festzulegen statt als Cluster Option is managed default Legt fest ob
27. und Pacemaker Konfigurationsdateien cluster conf und cib xml geschieht automatisch bei der Einrichtung des Clusters und beim Hinzuf gen einer Ressource cluster Erstellung in Red Hat Enterprise Linux Release 6 5 und Konfigurationskom rgmanager Red Hat Enterprise Linux Release 6 6 Pacemaker ponente Globale Cluster Eigenschaften Protokollierung Pr fen des Clusters Quorum in 2 Knoten Clustern Cluster Status rgmanager unterst tzt die folgenden Features Sie k nnen das System so konfigurieren dass das System die zu verwendende Multicast Adresse f r das IP Multicasting im Cluster Netzwerk w hlt Falls IP Multicasting nicht verf gbar ist k nnen Sie den UDP Unicast bertragungsmechanismus verwenden Sie k nnen einen Cluster zur Verwendung des RRP Protokolls Konfigurieren Sie k nnen eine globale und eine Daemon spezifische Protokollkonfiguration festlegen Die Cluster Pr fung erfolgt mitluci und mitccs automatisch anhand des Cluster Schemas Der Cluster wird automatisch beim Start gepr ft F r einen 2 Knoten Cluster k nnen Sie konfigurieren wie das System das Quorum bestimmt Konfigurieren Sie einen Quorum Datentr ger Verwenden Sie ccs oder bearbeiten Sie die Datei cluster conf um two_node 1 und expected_votes 1 festzulegen um es einem einzigen Knoten zu erm glichen das Quorum zu bewahren In luci ist der aktuelle Status des Clusters in den versch
28. werden wird das Fencing Level von allen Knoten entfernt pcs stonith level remove level node_id stonith_id stonith_id Der folgende Befehl l scht die Fencing Levels auf dem angegebenen Knoten oder der angegebenen stonith ID Falls Sie keine Knoten oder stonith IDs angeben werden alle Fencing Levels gel scht pcs stonith level clear node stonith_id s Falls Sie mehr als eine stonith ID angeben m ssen diese durch Kommas getrennt sein und d rfen keine Leerzeichen enthalten wie im folgenden Beispiel veranschaulicht pcs stonith level clear dev_a dev_b Der folgende Befehl berpr ft ob alle Fencing Ger te und Knoten die in Fencing Levels angegeben wurden existieren pcs stonith level verify Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Kapitel 5 Konfigurieren von Cluster Ressourcen Dieses Kapitel liefert Informationen Uber die Konfiguration von Ressourcen in einem Cluster 5 1 Ressourcenerstellung Verwenden Sie den folgenden Befehl um eine Cluster Ressource zu erstellen pcs resource create resource_id standard provider type type resource options Beispielsweise erstellt der folgende Befehl eine Ressource namens VirtuallP mit dem Standard ocf Provider heartbeat und Typ IPaddr2 Die Floating IP Adresse dieser Ressource ist 192 168 0 120 und das System pr ft alle 30 Sekunden ob die Ressource l uft pcs resource create VirtualIP ocf heartbeat IPaddr2
29. 1t gt lte gte eq ne value date start start end end operation gt 1t in range date spec date_spec_options 64 Kapitel 9 Pacemaker Regeln Kapitel 10 Pacemaker Cluster Eigenschaften Cluster Eigenschaften legen fest wie sich der Cluster in bestimmten Situationen wahrend des Cluster Betriebs verhalt Tabelle 10 1 Cluster Eigenschaften beschreibt die Optionen der Cluster Eigenschaften Eigen sch Aften festgelegt werden Abschnitt 10 3 Abfragen der Einstellungen fur Cluster Eigenschaften beschreibt wie die derzeit festgelegten Cluster Eigenschaften angezeigt werden 10 1 berblick ber Cluster Eigenschaften und Optionen Tabelle 10 1 Cluster Eigenschaften fasst die Pacemaker Cluster Eigenschaften zusammen und Zus tzlich zu den in dieser Tabelle beschriebenen Eigenschaften gibt es weitere Cluster Eigenschaften die in der Cluster Software bereitgestellt werden F r diese Eigenschaften wird jedoch empfohlen dass die Standardwerte nicht ver ndert werden Tabelle 10 1 Cluster Eigenschaften Option Standard Beschreibung batch limit 30 Die Anzahl der Jobs die von der Transition Engine TE gleichzeitig ausgef hrt werden d rfen Der empfohlene Wert h ngt von der Geschwindigkeit und der Auslastung des Netzwerks und der Cluster Knoten ab migration limit 1 Die Anzahl der Migrationsjobs die von der TE unbegrenzt gleichzeitig auf einem Knoten ausgef hrt werden d rfe
30. 3 redhat Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Referenzhandbuch f r das High Availability Add On fur Red Hat Enterprise Linux 6 Ausgabe 1 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Referenzhandbuch fur das High Availability Add On fur Red Hat Enterprise Linux 6 Ausgabe 1 Rechtlicher Hinweis Copyright 2014 Red Hat Inc and others This document is licensed by Red Hat under the Creative Commons Attribution ShareAlike 3 0 Unported License If you distribute this document or a modified version of it you must provide attribution to Red Hat Inc and provide a link to the original Ifthe documentis modified all Red Hat trademarks must be removed Red Hat as the licensor of this document waives the right to enforce and agrees notto assert Section 4d of CC BY SA to the fullest extent permitted by applicable law Red Hat Red Hat Enterprise Linux the Shadowman logo JBoss MetaMatrix Fedora the Infinity Logo and RHCE are trademarks of Red Hat Inc registered in the United States and other countries Linux is the registered trademark of Linus Torvalds in the United States and other countries Java is aregistered trademark of Oracle and or its affiliates XFS is a trademark of Silicon Graphics International Corp or its subsidiaries in the United States and or other countries MySQL is a registered t
31. 69 Cluster Erstellung in Red Hat Enterprise Linux Release 6 5 und Red Hat Enterprise Linux Release 6 6 70 A 1 Cluster Erstellung mitrgmanager und mit Pacemaker 70 A 2 Cluster Erstellung mit Pacemaker in Red Hat Enterprise Linux Release 6 5 und Red Hat Enterprise Linux Release 6 6 74 Konfigurationsbeispiel unter Verwendung der pcs Befehle 000 c eee eee es 76 B 1 Erste Systemeinrichtung 76 B 1 1 Installieren der Cluster Software 76 B 1 2 Erstellen und Starten des Clusters 76 B 2 Fencing Konfiguration 78 B 3 Konfigurieren eines Apache Webservers in einem Red Hat High Availability Cluster mithilfe des pcs Befehls 79 B 3 1 Konfigurieren eines LVM Datentragers mit einem ext4 Dateisystem 80 B 3 2 Webserver Konfiguration 81 B 3 3 Exklusive Archivierung einer Datentragergruppe in einem Cluster 82 B 3 4 Erstellen der Ressourcen und Ressourcengruppen mit dem pcs Befehl 83 B 3 5 Testen der Ressourcenkonfig uration 85 VELSIOHSGESCHICHTLE ve Cie i E ke Ua ake UE le BE ae lel ade la el ta eh ta ale 87 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Einfuhrung Dieses Handbuch liefert Informationen zur Installation Konfiguration und Verwaltung der Komponenten des Red Hat High Availability Add Ons Die Komponenten des Red Hat High Availability Add Ons erlauben Ihnen das Verbinden einer Gruppe von Computern genannt Knoten oder Mitglieder um als Cluster zusammenzuarbeiten In diesem Doku
32. Ausdrucksobjekte kombiniert werden sollen Zul ssige Werte and und or Der Standardwert ist and 9 1 Knotenattribut Ausdr cke Knotenattribut Ausdr cke werden verwendet um eine Ressource basierend auf den Attributen zu steuern die von den Knoten definiert sind Tabelle 9 2 Eigenschaften eines Ausdrucks Beschreibung value Ein benutzerdefinierter Wert zum Vergleich attribute Ein Knotenattribut zum Testen type Bestimmt wie die Werte getestet werden sollen Zul ssige Werte string integer version 61 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker operation Beschreibung Der auszuf hrende Vergleich Zul ssige Werte 1t Ergibt true falls der Wert des Knotenattributs weniger als value betragt gt Ergibt true falls der Wert des Knotenattributs gr er als value ist Lte Ergibt true falls der Wert des Knotenattributs weniger als oder gleich value ist gte Ergibt true falls der Wert des Knotenattributs gr er als oder gleich value ist eq Ergibt true falls der Wert des Knotenattributs gleich value ist ne Ergibt true falls der Wert des Knotenattributs nicht gleich value ist defined Ergibt true falls der Knoten das genannte Attribut hat defined Ergibt true falls der Knoten nicht das genannte Attribut hat 9 2 Zeit Datumsbasierte Ausdr cke Datumsausdr cke werden verwendet um eine Ressource oder Cluster Option basiere
33. Befehl um eine Regel zu entfernen Falls die Regel die Sie entfernen die letzte Regel in der Beschr nkung ist wird die Beschr nkung entfernt pcs constraint rule remove rule_id 9 6 Beispiel fur zeitbasierte Ausdrucke Der folgende Befehl konfiguriert einen Ausdruck der true ergibt falls der aktuelle Zeitpunkt im Jahr 2005 liegt 63 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker pcs constraint location Webserver rule score INFINITY date spec years 2005 Der folgende Befehl konfiguriert einen Ausdruck der true ergibt zwischen 9 und 17 Uhr montags bis freitags Beachten Sie dass der angegebene Wert fur die Stunden 16 bis 16 59 59 Uhr reicht da der numerische Wert f r die Stunde bis dahin bereinstimmt pcs constraint location Webserver rule score INFINITY date spec hours 9 16 weekdays 1 5 Der folgende Befehl konfiguriert einen Ausdruck der true ergibt falls es an einem Freitag den 13 einen Vollmond gibt pcs constraint location Webserver rule date spec weekdays 5 monthdays 13 moon 4 9 7 Verwenden von Regeln zum Bestimmen von Ressourcenstandorten Mithilfe des folgenden Befehls k nnen Sie eine Regel verwenden um den Standort einer Ressource zu bestimmen pcs resource constraint location resource_id rule rule_id role master slave score score expression Der Ausdruck expression kann einer der folgenden sein defined not_defined attribute attribute
34. Cluster Ressource manuell stoppen und den Cluster daran hindern diese wieder zu starten Abh ngig von der brigen Konfiguration Beschr nkungen Optionen Ausf lle etc l uft die Ressource unter Umst nden weiter Falls Sie die Option wait angeben wartet pcs bis zu 30 Sekunden oder n Sekunden wie festgelegt auf den Stopp der Ressource und gibt anschlie end O zur ck falls die Ressource gestoppt ist oder 1 falls die Ressource nicht gestoppt wurde pcs resource disable resource_id wait n Mithilfe des folgenden Befehls k nnen Sie dem Cluster das Starten einer Ressource erlauben Abh ngig von der brigen Konfiguration bleibt die Ressource unter Umst nden gestoppt Falls Sie 49 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker die Option wait angeben wartet pcs bis zu 30 Sekunden oder n Sekunden wie festgelegt auf den Start der Ressource und gibt anschlie end O zur ck falls die Ressource gestartet ist oder 1 falls die Ressource nicht gestartet wurde pcs resource enable resource_id wait n Verwenden Sie den folgenden Befehl um eine Ressource daran zu hindern aufdem angegebenen Knoten zu laufen bzw auf dem aktuellen Knoten zu laufen falls kein Knoten angegeben wird pcs resource ban resource_id node Beachten Sie dass die Ausf hrung des Befehls pcs resource ban der Ressource eine Beschr nkung auferlegt um diese daran zu hindern auf dem ang
35. Einige Ger te unterst tzen die standardm igen Befehle nicht oder bieten zus tzliche Befehle Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Befehls f r die list Aktion Ein alternativer Wert f r die Zeit berschreitung bei list Aktionen der anstelle von stonith timeout verwendet werden soll Einige Ger te ben tigen sehr viel weniger bzw mehr Zeit f r diese Aktion als normal Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Werts f r die Zeit berschreitung bei list Aktionen Feld Typ pcmk_list_retries Ganzzahl 2 pcmk_monitor_action Zeichenfolg monitor e pcmk_monitor_timeout Zeitspanne 60s pcmk_monitor_retries Ganzzahl 2 pcmk_status_action Zeichenfolg status e Standard Kapitel 4 Fencing Konfigurieren von STONITH Beschreibung Die maximale Anzahl von Neuversuchen fur den List Befehl innerhalb der Zeitspanne fur die Zeituberschreitung Einige Ger te unterst tzen keine mehrfachen Verbindungen Operationen k nnen fehlschlagen falls das Ger t mit einer anderen Operation besch ftigt ist weshalb Pacemaker die Operation automatisch erneut versucht falls noch gen gend Zeit bleibt Verwenden Sie diese Option um die Anzahl der Neuversuche von Pacemaker f r list Aktionen zu ver ndern bevor aufgegeben werden soll Ein alternativer Befehl der anstelle von monitor ausgef hrt werden soll Einige Ger te unterst tzen die
36. Ressourcen auf mehreren Knoten aktive Ressourcen auf mehreren Knoten in mehreren Modi Fencing einzelnes Fencing Ger t pro Knoten Mehrere Backup Fencing Ger te pro Knoten Mithilfe von luci k nnen Sie Cluster einzelne Cluster Knoten und Cluster Dienste verwalten Mithilfe des ccs Befehls k nnen Sie Cluster verwalten Mithilfe des clusvadm Befehls k nnen Sie Cluster Dienste verwalten Mithilfe von luci k nnen Sie alle Knoten in einem Cluster zum L schen ausw hlen um diesen Cluster vollst ndig zu l schen Sie k nnen auch die cluster conf Datei von jedem Knoten im Cluster entfernen Keine Entsprechung Erstellen Sie Fencing Ger te global oder lokal und f gen Sie diese zu den Knoten hinzu Sie k nnen Werte fur post fail delay und post join delay f r den gesamten Cluster definieren Definieren Sie Backup Gerate mit luci dem ccs Befehl oder durch direktes Bearbeiten der cluster conf Datei Mithilfe des Befehls pcs cluster standby k nnen Sie einen Knoten vorubergehend deaktivieren sodass dieser keine Ressourcen hosten kann und die Ressourcen auf einen anderen Knoten migrieren Mithilfe des Befehls pcs resource disable k nnen Sie eine Ressource stoppen Mithilfe des Befehls pcs cluster destroy k nnen Sie eine Cluster Konfiguration von einem Knoten entfernen Mit Pacemaker k nnen Sie Ressourcen klonen sodass diese auf mehreren Knoten laufen k nnen und Sie k nnen die geklonten Res
37. Shoot The Other Node In The Head und soll Ihre Daten vor der Besch digung durch fehlerhafte Knoten oder durch Zeitgleichen Zugriff sch tzen Nur weil ein Knoten nicht mehr reagiert bedeutet dies nicht dass er nicht mehr auf Ihre Daten zugreift Die einzige zuverl ssige Methode um zu gew hrleisten dass Ihre Daten sicher sind ist das Abgrenzen des Knotens mit STONITH Erst dann ist sichergestellt dass der Knoten offline ist und einem anderen Knoten darf Zugriff auf die Daten gew hrt werden STONITH spielt ebenfalls eine Rolle in Situationen in denen ein geclusterter Dienst nicht gestoppt werden kann In diesem Fall verwendet der Cluster STONITH um den gesamten Knoten offline zu zwingen woraufhin es sicher ist den Dienst auf einem anderen Knoten zu starten 4 1 Verf gbare STONITH Fencing Agenten Verwenden Sie den folgenden Befehl um eine Liste aller verf gbaren STONITH Agenten anzuzeigen Wenn Sie einen Filter angeben zeigt dieser Befehl nur jene STONITH Agenten die diesem Filter entsprechen 4 2 Allgemeine Eigenschaften von Fencing Ger ten Anmerkung Um ein Fencing Ger t zu deaktivieren k nnen Sie die target role einstellen wie f r eine normale Ressource auch Anmerkung Um einen bestimmten Knoten daran zu hindern ein Fencing Ger t zu verwenden k nnen Sie Standortbeschr nkungen verwenden Tabelle 4 1 Allgemeine eh von Fencing Ger ten beschreibt die allgemeinen f r bestimmte Fencing
38. Sie mithilfe des folgenden Befehls das unformatierte XML in eine Datei speichern pcs cluster cib filename Beispielsweise speichert der folgende Befehl das unformatierte XML der CIB in eine Datei namens testfile pcs cluster cib testfile Der folgende Befehl erstellt eine Ressource in der Datei testfile1 f gt diese Ressource jedoch nicht der derzeit laufenden Cluster Konfiguration hinzu pcs f testfile1 resource create VirtualIP ocf heartbeat IPaddr2 1p 192 168 0 120 cidr_netmask 24 op monitor interval 30s Sie k nnen den aktuellen Inhalt der Datei testfile mit dem folgenden Befehl an die CIB bertragen pcs cluster cib push filename 2 5 Anzeigen des Status 12 Kapitel 2 Die pcs Befehlszeilenschnitt stelle Sie k nnen den Status des Clusters und der Cluster Ressourcen mithilfe des folgenden Befehls anzeigen pcs status commands Falls Sie keinen commands Parameter angeben zeigt dieser Befehl alle Informationen ber den Cluster und die Ressourcen Sie k nnen den Status bestimmter Cluster Komponenten anzeigen indem Sie resources groups cluster nodes oder pcsd angeben 2 6 Anzeigen der vollst ndigen Cluster Konfiguration Verwenden Sie den folgenden Befehl um die aktuelle vollst ndige Cluster Konfiguration anzuzeigen pcs config 2 7 Anzeigen der aktuellen pcs Version Der folgende Befehl zeigt die Version von pcs an die derzeit ausgef hrt wird pcs version 13 Red Hat Enterprise Linux 6 Konf
39. Slave Status starten muss Mit dem folgenden Befehl k nnen Sie eine Ressource als Master Slave Klon erstellen 54 Kapitel 8 Erweiterte Ressourcentypen pcs resource create resource_id standard provider type type resource options master meta master_options Der Name des Master Slave Klons lautet resource_id master Alternativ k nnen Sie mithilfe des folgenden Befehls eine Master Slave Ressource einer zuvor erstellten Ressource oder Ressourcengruppe erstellen Wenn Sie diesen Befehl verwenden k nnen Sie einen Namen f r den Master Slave Klon angeben Falls Sie keinen Namen angeben lautet der Name des Master Slave Klons resource_id master bzw group_name master pcs resource master master slave_name resource_id group_name master_options Informationen Uber Ressourcenoptionen finden Sie in Abschnitt 5 1 Ressourcenerstellung Multi Status Ressource festlegen k nnen Tabelle 8 2 Eigenschaften einer Multi Status Ressource Beschreibung id Der Name Ihrer Multi Status Ressource priority target role is Siehe Tabelle 5 3 Ressourcen Metaoptionen managed clone max clone node max notify globally unique ordered interleave master max Wie viele Instanzen der Ressource k nnen in den master Status hochgestuft werden standardm ig 1 master node max Wie viele Instanzen der Ressource k nnen aufeinem einzigen Knoten in den master Status hochgestuft werden standardm ig 1 8 2 1 berwa
40. _cluster z1 example com z2 example com zi example com Succeeded zi example com Starting Cluster z2 example com Succeeded z2 example com Starting Cluster 5 Optional k nnen Sie die Cluster Dienste so konfigurieren dass diese auf beiden Knoten im Cluster starten sobald der Knoten gebootet wird Konfigurationsbeispiel unter Verwendung der pcs Befehle Anmerkung F r Ihre Umgebung k nnen Sie diesen Schritt jedoch auch berspringen und somit die Cluster Dienste deaktiviert lassen Dies erm glicht Ihnen im Falle eines Knotenausfalls eine Suche und Bereinigung von Fehlern bevor der Knoten wieder dem Cluster beitritt Falls Sie die Cluster Dienste deaktiviert lassen und Sie einen Knoten neu starten m ssen Sie die Cluster Dienste manuell durch Ausf hren des Befehls pcs cluster start auf diesem Knoten starten pcs cluster enable all Sie k nnen den derzeitigen Status des Clusters mit dem Befehl pcs cluster status anzeigen root z1 pcs cluster status Cluster Status Last updated Thu Jul 25 13 01 26 2013 Last change Thu Jul 25 13 04 45 2013 via crmd on z2 example com Stack corosync Current DC z2 example com 2 partition with quorum Version 1 1 10 5 el7 9abe687 2 Nodes configured Resources configured B 2 Fencing Konfiguration Sie m ssen ein Fencing Ger t f r jeden Knoten im Cluster konfigurieren Allgemeine Informationen Anmerkung Bei der Konfiguration eines Fencing Ger ts sollt
41. abgeschaltet wurden und nur auf Knoten deren Abgrenzung aufgehoben wurde Dies ist der Standardwert falls die stonith Metaoption provides unfencing f r ein Fencing Ger t festgelegt wurde Informationen ber die stoni th Metaoption provides unfencing finden Sie in Abschnitt 4 5 a inate von Storage Wie viele Ausf lle d rfen f r diese Ressource auf einem Knoten auftreten bevor dieser Knoten als ungeeignet zum Hosten dieser Ressource gekennzeichnet wird Informationen ber die Konfiguration der Option migration threshold finden Sie in Abschnitt 7 2 Verlegen von Verwendet zusammen mit der Option migration threshold zeigt an wie viele Sekunden gewartet wird bevor fortgefahren wird als sei der Ausfall nicht geschehen wodurch die Ressource m glicherweise wieder auf dem Knoten erlaubt wird auf dem sie ausgefallen ist Informationen ber die Konfiguration der Option failure timeout finden Sie in N 7 2 Verlegen von 31 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Standard Beschreibung multiple active stop_start Was soll der Cluster tun falls er feststellt dass die Ressource auf mehr als einem Knoten aktiv ist Zulassige Werte block Ressource als nicht verwaltet markieren stop_only alle aktiven Instanzen stoppen und sie so belassen stop_start alle aktiven Instanzen stoppen und die Ressource an nur einem Standort starten Verwenden Sie den folg
42. adaten Optionen Konfigurieren um die Ressource als Remote Knoten zu konfigurieren und die Verbindungsparameter zu definieren Tabelle 8 3 Metadaten Optionen zur Konfiguration von KVM LXC Rsesourcen als Tabelle 8 3 Metadaten Optionen zur Konfiguration von KVMILXC Rsesourcen als Remote Knoten Standard Beschreibung remote node lt none gt Der Name des Remote Knotens der diese Ressource definiert Dies aktiviert die Ressource als Remote Knoten und definiert den eindeutigen Namen zur Identifizierung des Remote Knotens Falls keine Parameter festgelegt sind wird dieser Wert auch als Hostname zur Verbindung mit Port 3121 angenommen WARNUNG Dieser Wert darf sich nicht mit anderen Ressourcen oder Knoten IDs Uberschneiden remote port Konfiguriert einen benutzerdefinierten Port zur Verwendung fur die Gastverbindung mit pacemaker_remote remo te addr Wert von Die IP Adresse oder der Hostname mit dem remote node verbunden wird falls der Name des Remote verwendet als Knotens nicht der Hostname des Gasts ist Hostname remo te connect 60s Zeitspanne fur eine ausstehende Gastverbindung timeout bevor eine Zeituberschreitung erfolgt Der folgende Befehl erstellt eine Vi rtualDomain Ressource namens vm guesti bei der es sich um einen Remote Knoten handelt der mithilfe des Meta Attributs remote node dazu in der Lage ist Ressourcen auszuf hren 58 Kapitel 8 Erweiterte Ressourcentypen pcs resource create vm guesti VirtualDomain
43. ass die virtuelle Maschine ein Remote Knoten f hig zur Ausf hrung von Ressourcen ist In dem Beispiel unten teilt das Meta Attribut remo te node guesti Pacemaker mit dass diese Ressource ein Remote Knoten mit dem Hostnamen guest1 ist der in den Cluster integriert werden kann Der Cluster wird versuchen den Dienst pacemaker_remote der virtuellen Maschine unter dem Hostnamen guesti zu kontaktieren nachdem er gestartet wurde pcs resource create vm guesti VirtualDomain hypervisor qemu system config vm guesti xml meta remote node guesti 6 Nach Erstellung der VirtualDomain Ressource k nnen Sie diesen Remote Knoten wie jeden anderen Knoten im Cluster behandeln Beispielsweise k nnen Sie eine Ressource erstellen und diese Ressource mit einer Ressourcenbeschr nkung belegen damit diese nur auf dem Remote Knoten l uft pcs resource create webserver apache params configfile etc httpd conf httpd conf op monitor interval 30s pcs constraint webserver prefers guesti Sobald ein Remote Knoten in den Cluster integriert wurde k nnen Sie pcs Befehle auf dem Remote Knoten selbst ausf hren ganz so als liefe Pacemaker auf dem Remote Knoten Kapitel 8 Erweiterte Ressourcentypen Kapitel 9 Pacemaker Regeln Mithilfe von Regeln k nnen Sie Ihre Konfiguration dynamischer gestalten Ein h ufiges Anwendungsbeispiel ist das Festlegen eines Werts f r resource stickiness w hrend der Gesch ftszeiten um Ressourcen daran zu hindern
44. asselbe Passwort f r den Benutzer hacluster zu w hlen passwd hacluster Changing password for user hacluster New password Retype new password passwd all authentication tokens updated successfully 2 Bevor der Cluster konfiguriert werden kann muss der pesd Daemon gestartet werden Dieser Daemon arbeitet zusammen mit dem pcs Befehl um die Konfiguration auf den Knoten im Cluster zu verwalten F hren Sie auf jedem Knoten im Cluster die folgenden Befehle aus um den pcsd Dienst zu starten und pcsd beim Systemstart zu aktivieren service pcsd start service pcsd enable 3 Authentifizieren Sie den pcs Benutzer hacluster f r jeden Knoten im Cluster aufdem Knoten auf dem Sie pcs ausf hren werden Der folgende Befehl authentifiziert den Benutzer hacluster auf z1 example com f r beide Knoten in unserem Zwei Knoten Cluster z1 example com und z2 example com root z1 pcs cluster auth z1 example com z2 example com Username hacluster Password zi example com Authorized z2 example com Authorized 4 F hren Sie den folgenden Befehl auf z1 example com aus um den Zwei Knoten Cluster mycluster zu erstellen der aus den Knoten z1 example com und z2 example com besteht Dies bertr gt die Cluster Konfigurationsdateien auf beide Knoten im Cluster Dieser Befehl enth lt die Option start wodurch die Cluster Dienste auf beiden Knoten im Cluster gestartet werden root z1 pcs cluster setup start name my
45. auf Ihre bevorzugten Standorte zur ckzuwechseln und einen anderen Wert f r Wochenenden wenn niemand etwaige Serviceausf lle bemerkt Ein anderer Anwendungsfall f r Regeln ist das Zuweisen von Rechnern Zu verschiedenen Rechengruppen mithilfe eines Knotenattributs basierend auf Zeit um dann dieses Attribut bei der Erstellung von Standortbeschr nkungen zu verwenden Jede Regel kann eine Reihe von Ausdr cken Datumsausdr cken sowie andere Regeln enthalten Die Ergebnisse der Ausdr cke werden kombiniert basierend auf dem booleschen Operator boolean op um zu bestimmen ob die Regel letztlich true oder false ergibt Was danach geschieht h ngt vom Zusammenhang ab in dem die Regel verwendet wird Tabelle 9 1 Eigenschaften einer Regel Beschreibung Legt fest dass die Regel nur dann angewendet wird falls die Ressource diese Rolle einnimmt Zul ssige Werte Started Slave und Master HINWEIS Eine Regel mit role Master kann nicht den urspr nglichen Standort einer Kloninstanz bestimmen Sie wirktsich nur darauf aus welche der aktiven Instanzen hochgestuft werden score Die anzuwendende Gewichtung wenn die Regel true ergibt Kann nur in Regeln verwendet werden die Teil von Standortbeschr nkungen sind score attribute Das abzurufende und als Gewichtung zu verwendende Knotenattribut falls die Regel true ergibt Kann nur in Regeln verwendet werden die Teil von Standortbeschr nkungen sind boolean op Wie die Ergebnisse mehrerer
46. aus zwei Knoten mit Power Fencing f r jeden Eine ffentliche virtuelle IP Adresse erforderlich f r den Apache Webserver Gemeinsam verwendeten Speicherplatz f r die Knoten im Cluster mittels iSCSI oder Fibre Channel Der Cluster wird mit einer Apache Ressourcengruppe konfiguriert welche die Cluster Komponenten enth lt die vom Webserver ben tigt werden eine LVM Ressource eine Dateisystemressource eine IP Adressressource und eine Webserverressource Diese Ressourcengruppe kann im Falle eines Ausfalls von einem Knoten im Cluster auf einen anderen verlegt werden sodass beide Knoten den Webserver ausf hren k nnen Bevor Sie die Ressourcengruppe f r diesen Cluster erstellen f hren Sie die folgenden Aufgaben durch 1 Konfigurieren Sie ein ext4 Dateisystem das auf dem logischen Datentr ger my_lv 78 Konfigurationsbeispiel unter Verwendung der pcs Befehle eingehangt ist wie in Abschnitt B 3 1 Konfigurieren eines LVM Datentr gers mit einem ext4 beschrieben 3 Vergewissern Sie sich dass nur der Cluster dazu in der Lage ist die Datentr gergruppe zu aktivieren die my_lv enth lt und dass die Datentr gergruppe beim Systemstart nicht au erhalb des Clusters aktiviert wird wie in Abschnitt B 3 3 Exklusive Archivierung einer Nachdem Sie diese Aufgaben durchgef hrt haben k nnen Sie die Ressourcengruppe und die darin enthaltenen Ressourcen erstellen wie in Abschnitt B 3 4 Erstellen der Ressourcen und B 3 1
47. ce dev my_vg my_lv directory var www fstype ext4 group apachegroup root z1 pcs resource create VirtualIP IPaddr2 1p 198 51 100 3 cidr_netmask 24 group apachegroup root z1 pcs resource create Website apache configfile etc httpd conf httpd conf statusurl http 127 0 0 1 server status group apachegroup 3 Nach der Erstellung der Ressourcengruppen und der darin enthaltenen Ressourcen k nnen Sie den Status des Clusters pr fen Beachten Sie dass alle vier Ressourcen auf demselben Knoten laufen root z1 pcs status Cluster name my_cluster Last updated Wed Jul 31 16 38 51 2013 Last change Wed Jul 31 16 42 14 2013 via crm_attribute on z1 example com Stack corosync Current DC z2 example com 2 partition with quorum Version 1 1 10 5 el7 9abe687 2 Nodes configured 6 Resources configured Online z1i1 example com z2 example com Full list of resources myapc stonith fence_apc_snmp Started z1 example com Resource Group apachegroup Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker my_lvm ocf heartbeat LVM Started z1 example com my_fs ocf heartbeat Filesystem Started z1 example com VirtualIP ocf heartbeat IPaddr2 Started z1 example com Website ocf heartbeat apache Started z1 example com Beachten Sie dass die Ressourcen standardm ig nicht starten wenn Sie kein Fencing Ger t fur Ihren Cluster konfiguriert habe
48. chen von Multi Status Ressourcen Um eine berwachungsoperation nur f r die Master Ressource hinzuzuf gen k nnen Sie eine zus tzliche berwachungsoperation zur Ressource hinzuf gen Beachten Sie jedoch dass jede Uberwachungsoperation auf einer Ressource ein anderes Intervall haben muss Das folgende Beispiel konfiguriert eine berwachungsoperation mit einem Intervall von 11 Sekunden auf der Master Ressource f rms_resource Diese berwachungsoperation l uft zus tzlich zur standardm igen Uberwachungsoperation mit dem standardm igen Uberwachungsintervall von 10 Sekunden pcs resource op add ms_resource interval 11s role Master 8 2 2 Multi Status Beschr nkungen In den meisten Fallen hat eine Multi Status Ressource eine einzelne Instanz auf jedem aktiven Cluster Knoten Ist dies nicht der Fall k nnen Sie mithilfe von Standortbeschr nkungen der Ressource angeben welchen Knoten der Cluster diese Klone vorzugsweise zuweisen soll Diese Beschr nkungen werden analog zur jenen f r regul re Ressourcen geschrieben 55 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Weitere Informationen Uber Standortbeschrankungen f r Ressourcen finden Sie in Abschnitt 6 1 otandortbeschrankungen Sie k nnen eine relative Standortbeschr nkung erstellen die festlegt ob es sich bei den Ressourcen um Master oder Slave Ressourcen handelt Der folgende Befehl erstellt eine relative Standortb
49. chr nkungen f r Ressourcen die nicht auf bestimmten Knoten laufen d rfen Das Verfahren zur Konfiguration eines Opt Out Clusters wird in Abschnitt 6 1 2 Konfigurieren eines Opt Out Clusters Te a E tea omnes ta Ob Sie einen Opt In oder Opt Out Cluster konfigurieren sollten h ngt sowohl von Ihren pers nlichen Pr ferenzen als auch vom Aufbau Ihres Clusters ab Falls die meisten Ihrer Ressourcen auf der Mehrheit Ihrer Knoten laufen k nnen erzielen Sie mit dem Opt Out Verfahren wahrscheinlich eine einfachere Konfiguration Falls die meisten Ihrer Ressourcen jedoch nur auf einer kleinen Untergruppe von Knoten laufen k nnen ist eine Opt In Konfiguration wahrscheinlich einfacher 6 1 1 Konfigurieren eines Opt In Clusters Setzen Sie zum Erstellen eines Opt In Clusters die Cluster Eigenschaft symmetric cluster auf false um Ressourcen daran zu hindern irgendwo standardm ig zu laufen pcs property set symmetric cluster false Aktivieren Sie Knoten f r einzelne Ressourcen Die folgenden Befehle konfigurieren Standortbeschr nkungen sodass die Ressource Webserver den Knoten example 1 bevorzugt die Ressource Database den Knoten example 2 bevorzugt und beide Ressourcen auf Knoten example 3 ausweichen k nnen falls ihr bevorzugter Knoten ausf llt pcs constraint location Webserver prefers example 1 200 pcs constraint location Webserver prefers example 3 0 pcs constraint location Database prefers example 2 200 pcs constrai
50. com login apc passwd apc Anmerkung Wenn Sie ein stonith Gerat mit fence_apc_snmp konfigurieren sehen Sie gegebenenfalls die folgende Warnmeldung die Sie jedoch problemlos ignorieren k nnen Warning missing required option s port action for resource type stonith fence_apc_snmp Der folgende Befehl zeigt die Parameter eines vornandenen STONITH Ger ts root rh7 1 pcs stonith show myapc Resource myapc class stonith type fence_apc_snmp Attributes ipaddr zapc example com pcmk_host_map z1 example com 1 z2 example com 2 pcmk_host_check static list pcmk_host_list z1 example com z2 example com login apc passwd apc Operations monitor interval 60s myapc monitor interval 60s B 3 Konfigurieren eines Apache Webservers in einem Red Hat High Availability Cluster mithilfe des pcs Befehls Dieser Abschnitt beschreibt die Konfiguration eines Apache Webservers in einem Red Hat Enterprise Linux High Availability Add On Cluster mit zwei Knoten unter Verwendung von pcs zur Konfiguration von Cluster Ressourcen In diesem Beispiel greifen Clients ber eine Floating IP Adresse auf den Apache Webserver zu Der Webserver l uft auf einem der zwei Knoten im Cluster Falls der Knoten auf dem der Webserver l uft ausf llt startet der Webserver auf dem zweiten Knoten im Cluster ohne gro e Serviceunterbrechung F r dieses Beispiel ben tigt Ihr System die folgenden Komponenten Einen Red Hat High Availability Cluster bestehend
51. dby den Ressourcen eine Beschr nkung auferlegt um diese daran zu hindern auf dem angegebenen Knoten zu laufen Wenn Sie den Befehl pcs cluster unstandby ausf hren wird diese Beschr nkung entfernt Dadurch werden die Ressourcen nicht automatisch auf den angegebenen Knoten zur ckverlegt wo die Ressourcen Zu diesem Zeitpunkt ausgef hrt werden k nnen h ngt von der urspr nglichen Konfiguration Ihrer Ressourcen ab Informationen ber Ressourcenbeschr nkungen finden Sie in 3 3 Festlegen von Benutzerberechtigungen Ab Red Hat Enteprise Linux 6 6 k nnen Sie den Befehl pcs acl dazu verwenden um mittels Zugriffssteuerungslisten engl Access Control Lists oder ACLs Berechtigungen f r lokale Benutzer einzustellen die Leseberechtigungen oder Lese und Schreibberechtigungen f r die Cluster Konfiguration gew hren Das Einstellen der Berechtigungen f r lokale Benutzer erfordert zwei Schritte 1 F hren Sie den Befehl pcs acl role create aus umeine Rolle zu erstellen welche die Berechtigungen f r diese Rolle definiert 2 Diese von Ihnen erstellte Rolle k nnen Sie mithilfe des Befehls pcs acl user create einem Benutzer zuweisen Das folgende Beispielverfahren gew hrt einem lokalen Benutzer namens rouser Lesezugriff aufeine Cluster Konfiguration 1 Dieses Verfahren erfordert dass der Benutzer rouser auf dem lokalen System existiert und dass der Benutzer rouser Mitglied der Gruppe hacluster ist 16 adduser rouser us
52. e resource_id des Knotens an pcs resource move resource_id Falls Sie festlegen m chten wohin die Ressource verlegt werden soll verwenden Sie den folgenden Befehl um den Zielknoten mitdestination_node anzugeben pcs resource move resource_id destination_node Verwenden Sie den folgenden Befehl um die Ressource zur ck auf den Knoten zu verlegen auf dem sie urspr nglich lief sodass der Cluster wieder seinen normalen Betrieb aufnehmen kann Dies entfernt die Beschr nkung die der Befehlmove resource_id definiert hat pcs resource clear resource_id node Beachten Sie dass die Ausf hrung des Befehls pcs resource move der Ressource eine Beschr nkung auferlegt um diese daran zu hindern auf dem angegebenen Knoten zu laufen Wenn Sie den Befehl pcs resource clear ausf hren wird diese Beschr nkung entfernt Dadurch werden die Ressourcen nicht automatisch auf den angegebenen Knoten zur ckverlegt wo die Ressourcen zu diesem Zeitpunkt ausgef hrt werden k nnen h ngt von der urspr nglichen Konfiguration Ihrer Ressourcen ab Informationen ber Ressourcenbeschr nkungen finden Sie in Kapitel 6 Ressourcenbeschr nkungen 7 2 Verlegen von Ressourcen wegen Ausfall 47 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Beim Erstellen einer Ressource k nnen Sie diese so konfigurieren dass diese nach einer festgelegten Anzahl von Ausf llen auf einen anderen Knoten verlegt wird indem Sie
53. efehl installieren yum install lvm2 cluster gfs2 utils Nachdem Sie die Red Hat High Availability Add On Pakete installiert haben sollten Sie sicherstellen dass Ihre Einstellungen zur Softwareaktualisierung keine automatische Installation erlaubt Eine Installation auf einem laufenden Cluster kann unerwartetes Verhalten nach sich ziehen 1 2 Konfigurieren der iptables Firewall zum Erlauben von Cluster Komponenten Das Red Hat High Availability Add On erfordert dass die folgenden Ports ge ffnet sind Fur TCP Ports 2224 3121 21064 Fur UDP Ports 5405 1 3 Cluster und Pacemaker Konfigurationsdateien Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Die Konfigurationsdateien fur das Red Hat High Availability Add On sind cluster conf und cib xml Bearbeiten Sie diese Dateien nicht direkt sondern verwenden Sie stattdessen die pcs oder pcsd Oberflache Die cluster conf Datei liefert die Cluster Parameter die von corosync verwendet werden dem Cluster Verwalter auf dem Pacemaker aufgebaut ist Die cib xml Datei ist eine XML Datei die sowohl die Cluster Konfiguration als auch den derzeitigen Status aller Ressourcen im Cluster abbildet Diese Datei wird von Pacemakers Cluster Information Base CIB verwendet Die Inhalte der CIB werden automatisch im gesamten Cluster synchron gehalten 10 Kapitel 2 Die pcs Befehlszeilenschnittstelle Kapitel 2 Die pcs Befehlszeilensc
54. egebenen Knoten zu laufen Wenn Sie den Befehl pcs resource clear ausf hren wird diese Beschr nkung entfernt Dadurch werden die Ressourcen nicht automatisch auf den angegebenen Knoten zur ckverlegt wo die Ressourcen zu diesem Zeitpunkt ausgef hrt werden k nnen h ngt von der urspr nglichen Konfiguration Ihrer Ressourcen ab Informationen ber Ressourcenbeschr nkungen finden Sie in pcs resource clear resource_id node Sie k nnen den Parameter debug start des Befehls pcs resource verwenden um eine angegebene Ressource zum Starten auf dem aktuellen Knoten zu zwingen wobei die Cluster Empfehlungen ignoriert werden und die Ausgabe vom Ressourcenstart angezeigt wird Dies wird hauptsachlich zur Suche und Bereinigung von Programmfehlern in Ressourcen verwendet Das Starten von Ressourcen auf einem Cluster wird fast ausschlie lich von Pacemaker gehandhabt und nicht direkt mit einem pcs Befehl Falls Ihre Ressource nicht startet liegt dies in der Regel an einer fehlerhaften Konfiguration der Ressource was Sie im Systemprotokoll diagnostizieren k nnen an Beschr nkungen die die Ressource am Starten hindern oder daran dass die Ressource deaktiviert ist Mithilfe dieses Befehls k nnen Sie die Ressourcenkonfiguration testen er sollte jedoch normalerweise nicht zum Starten von Ressourcen in einem Cluster verwendet werden Das Format des Befehls debug start lautet wie folgt pcs resource debug start resource_id 7 5 Deaktivieren von
55. ein stonith Gerat pcs stonith create stonith_id stonith_device_type stonith_device_options pcs stonith create MyStonith fence_virt pcmk_host_list f1 op monitor interval 30s Wenn Sie ein einziges Fencing Gerat f r mehrere Knoten nutzen und einen anderen Port f r jeden Knoten verwenden dann brauchen Sie nicht f r jeden Knoten ein separates Ger t zu erstellen Sie k nnen stattdessen die Option pcmk_host_map verwenden um zu definieren welcher Port zu welchem Knoten geh rt Beispielsweise erstellt der folgende Befehl ein einziges Fencing Ger t namens myapc west 13 das einen APC Powerswitch namens west apc verwendet und Port 15 f r Knoten west 13 nutzt pcs stonith create myapc west 13 fence_apc pcmk_host_list west 13 ipaddr west apc login apc passwd apc port 15 Das folgende Beispiel dagegen verwendet den APC Powerswitch namens west apc zum Abgrenzen von Knoten west 13 auf Port 15 west 14 aufPort17 west 15 aufPort18 und west 16 auf Port 19 pcs stonith create myapc fence_apc pcmk_host_list west 13 west 14 west 15 west 16 pcmk_host_map west 13 15 west 14 17 west 15 18 west 16 19 ipaddr west apc login apc passwd apc 4 5 Konfigurieren von Storage basierten Fencing Geraten mit Aufheben der Abgrenzung Bei der Erstellung eines SAN Storage Fencing Gerats also ein Fencing Gerat mit einem Fencing Agent der nicht auf der Stromversorgung basiert m ssen Sie die Metaoption provides unfencing beim Erst
56. eine Webserver Ressource enth lt Container Remote Knoten Ein virtueller Remote Gast Knoten der den Dienst pacemaker_remote ausf hrt Dies beschreibt einen bestimmten Anwendungsfall eines Remote Knotens bei dem eine vom Cluster verwaltete virtuelle Gastressource vom Cluster gestartet und in den Cluster als Remote Knoten integriert wird pacemaker_remote Ein Dienst Daemon mit der F higkeit zur Remote Applikationsverwaltung innerhalb von Gastknoten KVM und LXC in sowohl Pacemaker Cluster Umgebungen als auch eigenst ndigen nicht geclusterten Umgebungen Dieser Dienst ist eine erweiterte Version von Pacemakers lokalem Daemon zur Ressourcenverwaltung Local Resource Management Daemon oder kurz LRMD der f hig ist zur Remote Verwaltung und berwachung von LSB OCF upstart und systemd Ressourcen auf einem Gast Zudem erm glicht er dass pcs auf Remote Knoten ausgef hrt werden kann LXC Ein Linux Container definiert durch den Linux Container Treiber Libvirt 1xc Ein Pacemaker Cluster der den Dienst pacemaker_remote ausf hrt hat die folgenden Charakteristiken Die virtuellen Remote Knoten f hren den Dienst pacemaker_remote aus mit nur wenig erforderlicher Konfiguration auf Seiten der virtuellen Maschine Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Der Cluster Stack pacemaker und corosync der auf den Cluster Knoten l uft startet die virtuellen Maschinen und verbi
57. ellen Arbeitsverzeichnis zu sehen geben Sie den Befehl cat my_next_bestselling_novel in den Shell Prompt ein und dr cken Sie Enter um den Befehl auszuf hren Das oben aufgef hrte Beispiel beinhaltet einen Dateinamen einen Shell Befehl und eine Taste Alle werden nichtproportional fett dargestellt und alle k nnen dank des Kontextes leicht unterschieden werden Tastenkombinationen unterscheiden sich von einzelnen Tasten durch das Pluszeichen das die einzelnen Teile einer Tastenkombination miteinander verbindet Zum Beispiel Dr cken Sie Enter um den Befehl auszuf hren Dr cken Sie Strg Alt F2 um zu einem virtuellen Terminal zu wechseln Das erste Beispiel hebt die zu dr ckende Taste hervor Das zweite Beispiel hebt eine Tastenkombination hervor eine Gruppe von drei Tasten die gleichzeitig gedr ckt werden m ssen Falls Quellcode diskutiert wird werden Klassennamen Methoden Funktionen Variablennamen und R ckgabewerte die innerhalb eines Abschnitts erw hnt werden wie oben gezeigt nichtproportional fett dargestellt Zum Beispiel Zu dateiverwandten Klassen z hlen filesystem f r Dateisysteme file f r Dateien und dir f r Verzeichnisse Jede Klasse hat ihren eigenen Satz an Berechtigungen Proportional Fett Dies kennzeichnet W rter oder S tze die auf einem System vorkommen einschlie lich Applikationsnamen Text in Dialogfeldern beschriftete Schaltfl chen Bezeichnungen f r Auswahlk stchen und Radio Buttons
58. ellen des stoni th Ger ts angeben Dadurch wird sichergestellt dass die Abgrenzung eines abgegrenzten Knotens wieder aufgehoben wird bevor der Knoten neu gestartet wird und die Cluster Dienste auf diesem Knoten gestartet werden Das Angeben der Metaoption provides unfencing ist bei der Konfiguration eines strombasierten Fencing Ger ts nicht notwendig da das Ger t selbst die Stromversorgung f r den Knoten stellt damit dieser booten und einen Wiederbeitritt zum Cluster versuchen kann In diesem Fall impliziert 21 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker der Neustart dass die Aufhebung der Abgrenzung erfolgt ist Der folgende Befehl konfiguriert ein stonith Gerat namens my scsi shooter das den Fencing Agent fence_scsi verwendet und die Aufhebung der Abgrenzung f r das Ger t erm glicht pcs stonith create my scsi shooter fence_scsi devices dev sda meta provides unfencing 4 6 Anzeigen von Fencing Ger ten Der folgende Befehl zeigt alle derzeit konfigurierten Fencing Ger te Falls eine stonith_id angegeben wird zeigt der Befehl nur die Optionen f r das konfigurierte stonith Ger t Falls die Option full angegeben ist werden alle konfigurierten stonith Optionen angezeigt pcs stonith show stonith_id full 4 7 Bearbeiten und L schen von Fencing Ger ten Verwenden Sie den folgenden Befehl um Optionen zu einem derzeit konfigurierten Fencing Ger t hinzuzuf gen
59. en Deaktivieren und Ausschlie en von Cluster Ressourcen 7 5 Deaktivieren von berwachungsoperationen 7 6 Verwaltete Ressourcen 8 1 Ressourcen Klone 8 1 1 Erstellen und Entfernen einer geklonten Ressource 8 1 2 Klonbeschr nkungen 8 1 3 Standorttreue von Klons 8 2 Multi Status Ressourcen Ressourcen mit mehreren Modi 8 2 1 berwachen von Multi Status Ressourcen 8 2 2 Multi Status Beschr nkungen 8 2 3 Multi Status Standorttreue 8 3 Ereignisbenachrichtigungen mit berwachungsressourcen 8 4 Der Dienst pacemaker_remote 8 4 1 Ressourcenoptionen f r Container Remote Knoten 8 4 2 Host und Gastauthentifizierung 8 4 3 ndern der standardm igen pacemaker_remote Optionen 8 4 4 Konfigurations bersicht KVM Remote Knoten 9 1 Knotenattrib ut Ausdr cke 9 2 Zeit Datumsbasierte Ausdr cke 9 3 Datumsspezifikationen 9 4 Dauer 9 5 Konfigurieren von Regeln mit pcs 36 37 37 37 39 39 40 40 41 42 42 42 43 43 44 44 44 45 45 46 47 47 48 48 49 50 51 51 53 53 53 55 55 55 56 56 57 57 58 59 60 60 60 62 63 63 64 64 9 6 Beispiel f r zeitbasierte Ausdr cke 64 9 7 Verwenden von Regeln zum Bestimmen von Ressourcenstandorten 65 Kapitel 10 Pacemaker Cluster Eigenschaften 1 0 ccc cece eee nn 66 10 1 berblick ber Cluster Eigenschaften und Optionen 66 10 2 Festlegen und Entfernen von Cluster Eig enschaften 68 10 3 Abfragen der Einstellungen f r Cluster Eigenschaften
60. en cluster conf ber die Konfiguration von Cluster Konfigurationsdatei manuell Ressourcen mit Pacemaker finden bearbeiten Siein on 5 Konfigurieren von Ressourcenverhalten Definieren Sie Cluster Dienste um Pacemaker bietet mit Gruppierung und zu konfigurieren wie Ressourcen Ressourcengruppen eine schnelle Start miteinander interagieren Methode um eine Gruppe von Stoppreihenfolge Ressourcen zu definieren die zusammen platziert und in bestimmter Reihenfolge gestartet und gestoppt werden m ssen Dar ber hinaus definieren Sie das Verhalten und die Interaktion von Ressourcen wie folgt Sie k nnen einige Aspekte des Ressourcenverhaltens als Ressourcenoptionen festlegen Siek nnen Standortbeschr nkungen auferlegen um festzulegen auf welchen Knoten eine Ressource laufen darf Sie k nnen Reihenfolgebeschr nkungen verwenden um die Reihenfolge festzulegen in der die Ressourcen laufen Sie k nnen relative Standortbeschr nkungen verwenden um festzulegen dass der Standort einer Ressource vom Standort einer anderen Ressource abh ngt Weitere Informationen ber dieses Thema finden Sie in Kapitel 5 72 cluster Erstellung in Red Hat Enterprise Linux Release 6 5 und Red Hat Enterprise Linux Release 6 6 Konfigurationskom rgmanager Pacemaker ponente Ressourcenverwaltung Verlegen Starten und Stoppen von Ressourcen Vollst ndiges Entfernen einer Cluster Konfiguration Aktive
61. en die von Pacemaker unterst tzt werden 8 1 Ressourcen Klone Sie k nnen eine Ressource klonen sodass die Ressource auf mehreren Knoten aktiv sein kann Beispielsweise k nnen Sie geklonte Ressourcen verwenden um mehrere Instanzen einer IP Ressource zu konfigurieren und diese zwecks Lastverteilung im Cluster zu verteilen Sie k nnen jede beliebige Ressource klonen vorausgesetzt der Ressourcenagent unterst tzt dies Ein Klon besteht aus einer Ressource oder einer Ressourcengruppe Anmerkung Nur Ressourcen die auf mehreren Knoten gleichzeitig aktiv sein k nnen sind f r das Klonen geeignet Beispielsweise sollte eine Filesystem Ressource die ein nicht geclustertes Dateisystem wie ext4 aufeinem gemeinsam verwendeten Speicherger t einh ngt nicht geklont werden Da die ext4 Partition nicht clusterfahig ist ist das Dateisystem nicht geeignet f r Lese und Schreiboperationen die von mehreren Knoten gleichzeitig erfolgen 8 1 1 Erstellen und Entfernen einer geklonten Ressource Mithilfe des folgenden Befehls k nnen Sie gleichzeitig eine Ressource und einen Klon dieser Ressource erstellen f pcs resource create resource_id standard provider type type resource options Clone meta clone_options Der Name des Klons lautet resource _id clone Sie k nnen jedoch nicht gleichzeitig eine Ressourcengruppe und einen Klon dieser Ressourcengruppe mit einem einzigen Befehl erstellen Alternativ k nnen Sie mithilfe des fol
62. en Sie darauf achten dass Ihr Fencing Ger t nicht an dieselbe Stromversorgung angeschlossen ist wie der Knoten f r den es zust ndig ist Dieses Beispiel verwendet den APC Power Switch mit dem Hostnamen zapc example com zur Abgrenzung der Knoten und es verwendet den Fencing Agent fence_apc_snmp Da beide Knoten von demselben Fencing Agent abgegrenzt werden k nnen Sie beide Fencing Ger te als eine einzige Ressource konfigurieren mithilfe der Optionen pemk_host_map und pcmk_host_list Sie erstellen ein Fencing Ger t indem Sie das Ger t mithilfe des Befehls pcs stonith create als stonith Ressource konfigurieren Der folgende Befehl konfiguriert eine stonith Ressource namens myapc die den Fencing Agent fence_apc_snmp f r die Knoten z1 example com und z2 example com verwendet Die Option pcmk_host_map weist z1 example com zu Port1 und z2 example com zu Port2 zu Der Benutzername und das Passwort f r das APC Ger t lauten beide apc Standardm ig nutzt dieses Ger t ein Pr fintervall von 60 Sekunden aufjedem Knoten Beachten Sie dass Sie zur Angabe des Hostnamens f r die Knoten auch eine IP Adresse verwenden k nnen root z1 pcs stonith create myapc fence_apc_snmp params 77 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker ipaddr zapc example com pcmk_host_map z1 example com 1 z2 example com 2 pcmk_host_check static list pcmk_host_list z1 example com z2 example
63. en auf demselben Knoten laufen sollen Negative Werte zeigen an dass die Ressourcen nicht auf demselben Knoten laufen sollen Der Wert INFINITY der Standardwert zeigtan dass die source_resource auf demselben Knoten wie die target_resource laufen muss Der Wert INFINITY zeigt an dass die source_resource nicht auf demselben Knoten wie die target_resource laufen darf 6 3 1 Zwingende Platzierung Eine zwingende Platzierung erfolgt immer dann wenn die Gewichtung der Beschr nkung INFINITY oder INFINITY lautet Falls die Bedingung der Beschr nkung nicht erf lltwerden kann darf source_resource nicht laufen Im Falle von score INFINITY geh ren dazu Situationen in denen die target_resource nicht aktiv ist Angenommen myresourceil muss stets auf demselben Rechner wie myresource2 laufen dann f gen Sie die folgende Beschr nkung hinzu pcs constraint colocation add myresourcei with myresource2 score INFINITY 43 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Da INFINITY verwendet wurde wird myresource1 nicht laufen d rfen falls myresource2 aus irgendeinem Grund auf keinem der Cluster Knoten laufen kann Alternativ k nnen Sie das Gegenteil konfigurieren einen Cluster in dem myresourcez nicht auf demselben Rechner laufen darf wie myresource2 Verwenden Sie in diesem Fall score INFINITY pcs constraint colocation add myresource1 myresource2 with score INFINITY Durch A
64. ende Aufgabe Das Ignorieren von Anmerkungen sollte keine negativen Auswirkungen haben aber Sie verpassen so vielleicht einen Trick der Ihnen das Leben vereinfachen k nnte Wichtig Die Wichtig Schauk sten lenken die Aufmerksamkeit auf Dinge die sonst leicht bersehen werden k nnen Konfigurations nderungen die nur f r die aktuelle Sitzung gelten oder Dienste f r die ein Neustart n tig ist bevor eine Aktualisierung wirksam wird Das Ignorieren von Wichtig Schauk sten w rde keinen Datenverlust verursachen kann aber unter Umst nden zu rgernissen und Frustration f hren Eine Warnung sollte nicht ignoriert werden Das Ignorieren von Warnungen f hrt mit hoher Wahrscheinlichkeit zu Datenverlust 2 Feedback Falls Sie einen Fehler in diesem Handbuch finden oder eine Idee haben wie dieses verbessert werden k nnte freuen wir uns ber Ihr Feedback Bitte reichen Sie einen Berichtin Bugzilla ein Enterprise Linux 6 und die Komponente doc Cluster_General ein Vergewissern Sie sich beim Einreichen eines Fehlerberichts dass Sie die Kennung des Handbuchs mit angeben Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Configuring High_Availability_With_Pacemaker EN 6 2014 8 7T16 26 Indem Sie die Kennung des Handbuchs angeben wissen wir genau welche Version des Handbuchs Sie vorliegen haben Falls Sie uns einen Vorschlag zur Verbesserung der Dokumentation senden m chten s
65. enden Verfahren 1 Starten Sie rgmanager cman und falls n tig cl ymd und gfs2 2 Starten Sie ricci und zudem Sie Luci falls Sie die luci Oberflache verwenden 3 Fuhren Sie chkconfig on fur die ben tigten Dienste aus damit diese aufjedem relevanten Runlevel starten Alternativ k nnen Sieccs start ausf hren um die Cluster Dienste zu starten und zu aktivieren F rluci gilt dass der root Benutzer oder ein Benutzer mit luci Berechtigungen aufluci zugreifen kann Jeglicher Zugriff erfordert das ricci Passwort f r den Knoten Verwenden Sie luci oder ccs oder bearbeiten Sie die cluster conf Datei direkt um den Cluster zu benennen und um zu definieren welche Knoten im Cluster enthalten sein sollen Bei der Konfiguration eines Clusters mit luci geschieht die Verbreitung automatisch Verwenden Sie mit ccs die Option sync Sie k nnen auch den Befehl cman_tool version r verwenden Starten und aktivieren Sie die Cluster Dienste mit dem folgenden Verfahren 1 F hren Sie aufjedem Knoten service pcsd start aus und anschlie end service pcsd enable um pcsd zum Starten zur Laufzeit zu Konfigurieren 2 F hren Sie aufeinem Knoten im Cluster pcs cluster start all aus umcman und pacemaker zu starten Es gibt keine grafische Konfigurationsoberfl che Verwenden Sie den Befehl pcs cluster setup um den Cluster zu benennen und um Knoten zum Cluster hinzuzuf gen Die Verbreitung der Cluster
66. enden Befehl um den Standardwert einer Ressourcenoption zu ndern pcs resource defaults options Beispielsweise setzt der folgende Befehl den Standardwert f r resource stickiness auf100 pcs resource defaults resource stickiness 100 Wenn Sie den Parameter options vom Befehl pcs resource defaults weglassen zeigt dieser eine Liste aller derzeit konfigurierten Standardwerte fur Ressourcenoptionen an Das folgende Beispiel zeigt die Ausgabe dieses Befehls nachdem Sie den Standardwert fur resource stickiness auf 100 geandert haben pcs resource defaults resource stickiness 100 Ungeachtet dessen ob Sie den Standardwert einer Ressourcen Metaoption verandert haben oder nicht k nnen Sie eine Ressourcenoption f r eine bestimmte Ressource w hrend der Ressourcenerstellung auf einen anderen Wert als den Standardwert festlegen Nachfolgend sehen Sie das Format des Befehls pcs resource create den Sie zur Angabe eines Werts f r eine Ressourcen Metaoption verwenden pcs resource create resource_id standard provider type type resource options meta meta_options Beispielsweise erstellt der folgende Befehl eine Ressource mit einem Wert von 50 fur resource stickiness pcs resource create VirtualIP ocf heartbeat IPaddr2 ip 192 168 0 120 cidr_netmask 24 meta resource stickiness 50 Mit dem folgenden Befehl k nnen Sie auch den Wert einer Ressourcen Metaoption f r eine vorhandene Ressource Gruppe geklonte Ressource oder Master Ressou
67. er Erstellung in Red Hat Enterprise Linux Release 6 5 und Red Hat Enterprise Linux Release 6 6 Die Konfiguration eines Red Hat High Availability Clusters in Red Hat Enterprise Linux 6 6 mit Pacemaker erfordert eine andere Reihe von Konfigurationstools mit einer anderen administrativen Oberfl che als die Konfiguration eines Clusters in Red Hat Enterprise Linux 6 mitrgmanager Abschnitt A 1 Cluster Erstellung mit rgmanager und mit Pacemaker fasst die Konfigurationsunterschiede zwischen den verschiedenen Cluster Komponenten zusammen Die Red Hat Enterprise Linux 6 6 Release bietet einige neue Features zur Cluster Konfiguration mit Pacemaker Abschnitt A 2 Cluster Erstellung mit Pacemaker in Red Hat Enterprise Linux Release 6 5 der pcs Unterst tzung in der Red Hat Enterprise Linux Release 6 5 und der pcs Unterst tzung in der Red Hat Enterprise Linux Release 6 6 A 1 Cluster Erstellung mit rgmanager und mit Pacemaker Tabelle A 1 Vergleich der Cluster Konfiguration mit rgmanager und mit Pacemaker liefert eine vergleichende Ubersicht Uber die Konfiguration der Komponenten eines Clusters bei der Verwendung von rgmanager und bei der Verwendung von Pacemaker in der Red Hat Enterprise Linux Release 6 6 Tabelle A 1 Vergleich der Cluster Konfiguration mit rgmanager und mit Pacemaker Konfigurationskom rgmanager Pacemaker ponente Cluster Konfigurationsdatei Netzwerkkonfiguration Tools zur Cluster K
68. ermod a G hacluster rouser 2 Aktivieren Sie Pacemaker ACLs mit der Cluster Eigenschaft enable acl pcs property set enable acl true force 3 Erstellen Sie eine Rolle namens read only mit Leseberechtigungen fur die CIB pcs acl role create read only description Read access to cluster read xpath cib 4 Erstellen Sie den Benutzer rouser im ACL System von pcs und weisen Sie diesem Benutzer die Rolle read only Zu pcs acl user create rouser read only 5 Zeigen Sie alle derzeitigen ACLs an pcs acl User rouser Roles read only Role read only Description Read access to cluster Permission read xpath cib read only read Das folgende Beispielverfahren gew hrt einem lokalen Benutzer namens wuser Schreibzugriff auf eine Cluster Konfiguration 1 Dieses Verfahren erfordert dass der Benutzer wuser auf dem lokalen System existiert und dass der Benutzer wuser Mitglied der Gruppe hacluster ist adduser wuser usermod a G hacluster wuser 2 Aktivieren Sie Pacemaker ACLs mit der Cluster Eigenschaftenable acl pcs property set enable acl true force 3 Erstellen Sie eine Rolle namens write access mit Schreibberechtigungen f r die CIB pcs acl role create write access description Full access write xpath cib 4 Erstellen Sie den Benutzer wuser im ACL System von pcs und weisen Sie diesem Benutzer die Rollewrite access zu pcs acl user create wuser write access 5 Zeigen Sie alle derzeitigen ACLs an
69. es entspricht Tabelle 5 1 Ressourceneigenschaften beschreibt diese Eigenschaften 28 Kapitel 5 Konfigurieren von Cluster Ressourcen Tabelle 5 1 Ressourceneigenschaften Beschreibung resource id Ihr Name f r die Ressource standard Der Standard dem das Skript entspricht Zul ssige Werte ocf service upstart systemd lsb stonith type Der Name des Ressourcen Agents den Sie verwenden m chten z B IPaddroder Filesystem provider Die OCF Spezifikationen erlauben es mehreren Anbietern denselben Ressourcen Agent bereitzustellen Die meisten der von Red Hat bereitgestellten Agents verwenden heartbeat als Provider Tabelle 5 2 Befehle zum Anzeigen von Ressourceneigenschaften zeigt eine bersicht ber die Befehle welche die verf gbaren Ressourceneigenschaften anzeigen Tabelle 5 2 Befehle zum Anzeigen von Ressourceneigenschaften pcs Anzeigebefehl Ausgabe resource list Zeigt eine Liste aller verf gbaren Ressourcen resource standard Zeigteine Liste der verf gbaren Standards f r Ressourcen Agents resource providers Zeigt eine Liste der verfugbaren Provider fur Ressourcen Agents resource list string Zeigt eine Liste verfugbarer Ressourcen gefiltert nach der angegebenen Zeichenfolge Sie k nnen mit diesem Befehl Ressourcen gefiltert nach dem Namen eines Standards Providers oder Typs anzeigen 5 3 Ressourcenspezifische Parameter F r eine einzelne Ressource k nnen Sie den folgenden Befehl ve
70. eschr nkung f r Ressourcen pcs constraint colocation add master slave source_resource with master slave target_resource score options Weitere Informationen ber relative Standortbeschr nkungen f r Ressourcen finden Sie in Abschnitt 6 3 Relative Standortbeschr nkung f r Ressourcen Bei der Konfiguration einer Reihenfolgebeschr nkung die Multi Status Ressourcen umfasst lautet eine der Aktionen die Sie f r die Ressourcen angeben k nnen promote dies gibtan dass die Ressource vom Slave zum Master hochgestuft werden soll Sie k nnen auch die Aktion demote angeben dies gibt an dass die Ressource vom Master zum Slave heruntergestuft werden soll Der Befehl zur Konfiguration einer Reihenfolgebeschr nkung lautet wie folgt pcs constraint order action resource_id then action resource_id options Weitere Informationen ber Reihenfolgebeschr nkungen f r Ressourcen finden Sie in Abschnitt 6 2 Reihenfolgebeschr nkungen 8 2 3 Multi Status Standorttreue Um ein stabiles Zuweisungsmuster zu erreichen sind Multi Status Ressourcen standardm ig eher standorttreu Falls f r resource stickiness kein Wert angegeben wird verwendet die Multi Status Ressource den Wert 1 Da dies nur ein kleiner Wert ist hat er geringe St rwirkung bei der Kalkulation der Gewichtung anderer Ressourcen dieser Wert istjedoch genug um Pacemaker daran zu hindern unn tig Klone im Cluster hin und herzuverlegen 8 3
71. euerte Datentr gergruppe zu aktivieren Aktualisieren Sie das initramfs Ger t mit dem folgenden Befehl Es kann unter Umst nden bis zu einer Minute dauern bis der Befehl abgeschlossen ist dracut H f boot initramfs uname r img uname r 4 Starten Sie den Knoten neu 81 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Anmerkung Falls Sie nach dem Booten des Knotens auf dem Sie das Boot Image erstellt haben einen neuen Linux Kernel installiert haben dann giltdas initrd Image f r den Kernel der zum Zeitpunkt der Boot Image Erstellung installiert war und nicht f r den neuen Kernel der nach dem Neustart des Knotens ausgef hrt wird Sie k nnen sich vergewissern dass das richtige initrd Ger t verwendet wird indem Sie den Befehl uname r vor und nach dem Neustart ausf hren um die derzeit laufende Kernel Release anzuzeigen Falls die beiden Angaben nicht bereinstimmen aktualisieren Sie die initrd Datei nach dem Neustart mit dem neuen Kernel und starten Sie den Knoten neu 5 Sobald der Knoten neu gestartet wurde vergewissern Sie sich ob die Cluster Dienste auf dem Knoten wieder gestartet wurden indem Sie den Befehl pcs cluster status aufdem Knoten ausf hren Falls die Meldung Error cluster is not currently running on this node angezeigt wird f hren Sie folgenden Befehl aus pcs cluster start Alternativ k nnen Sie warten bis Sie jeden Knoten im Cluster neu
72. example com als auch auf z2 example com aus root rhel6 5 pcs cluster setup name my_cluster z1 example com z2 example com root rhel6 5 pcs cluster start In Red Hat Enterprise Linux 6 6 f hren Sie den Befehl zur Cluster Erstellung auf einem Knoten im Cluster aus Der folgende Befehl der nur auf einem Knoten ausgef hrt wird erstellt einen Cluster namens my_cluster der aus den Knoten z1 example com und z2 example com besteht und startet Cluster Dienste auf diesen Knoten root rhel6 6 pcs cluster setup start name my_cluster z1 example com z2 example com 74 luster Erstellung in Red Hat Enterprise Linux Release 6 5 und Red Hat Enterprise Linux Release 6 6 Konfigurationsbeispiel unter Verwendung der pcs Befehle Dieser Anhang liefert eine schrittweise Anleitung zur Konfiguration eines Red Hat Enterprise Linux High Availability Add On Clusters mit zwei Knoten unter Verwendung des pcs Befehls in der Red Hat Enterprise Linux Release 6 6 und h her Auch die Konfiguration eines Apache Webservers in diesem Cluster wird erl utert F r die Konfiguration des in diesem Kapitel beschriebenen Clusters ben tigt Ihr System die folgenden Komponenten 2 Knoten aus denen der Cluster gebildet wird In diesem Beispiel werden die Knoten z1 example com und z2 example com verwendet Netzwerk Switches f r das private Netzwerk die zur Kommunikation zwischen den Cluster Knoten und anderer Cluster Hardware wie z B Network Power S
73. gen Sie das Dateisystem anschlie end aus mount dev my_vg my_lv var www mkdir var www html mkdir var www cgi bin mkdir var www error restorecon R var www cat lt lt END gt var www html index html lt html gt lt body gt Hello lt body gt lt html gt END umount var www HHH HF Konfigurationsbeispiel unter Verwendung der pcs Befehle B 3 3 Exklusive Archivierung einer Datentragergruppe in einem Cluster Das folgende Verfahren konfiguriert die Datentr gergruppe derart um sicherzustellen dass nur der Cluster dazu in der Lage ist die Datentr gergruppe zu aktivieren und dass die Datentr gergruppe beim Systemstart nicht au erhalb des Clusters aktiviert werden kann Falls die Datentr gergruppe von einem System au erhalb des Clusters aktiviert wird besteht das Risiko die Metadaten der Datentr gergruppe zu besch digen Dieses Verfahren ndert den Eintrag f r volume_listin der Konfigurationsdatei etc lvm lvm conf Die im Eintrag volume_list aufgef hrten Datentr gergruppen d rfen automatisch auf dem lokalen Knoten au erhalb der Kontrolle des Cluster Managers aktiviert werden Datentr gergruppen die mit den lokalen root und Benutzerverzeichnissen des Knotens in Verbindung stehen sollten in dieser Liste aufgef hrt sein Alle Datentragergruppen die vom Cluster Manager verwaltet werden m ssen vom Eintrag volume_list ausgenommen sein Beachten Sie dass dieses Verfahren nicht die Verwendung von clv
74. genden Befehls einen Klon einer zuvor erstellen Ressource oder Ressourcengruppe erstellen pcs resource clone resource_id group_name clone_options Der Name des Klons lautet resource_id clone oder group_name clone Anmerkung Sie brauchen nderungen an der Ressourcenkonfiguration nur an einem Knoten vorzunehmen 52 Kapitel 8 Erweiterte Ressourcentypen Anmerkung Verwenden Sie bei der Konfiguration von Beschrankungen stets den Namen der Gruppe oder des Klons Wenn Sie einen Klon einer Ressource erstellen tr gt dieser Klon den Namen der Ressource mit nachgestelltem clone Der folgende Befehl erstellt eine Ressource vom Typ apache namens webfarm und ein Klon dieser Ressource namens webfarm clone pcs resource create webfarm apache clone Verwenden Sie den folgenden Befehl um den Klon einer Ressource oder Ressourcengruppe zu entfernen Die Ressource oder die Ressourcengruppe selbst wird dadurch nicht entfernt pcs resource unclone resource_id group_name Informationen ber Ressourcenoptionen finden Sie in Abschnitt 5 1 Ressourcenerstellung Ressource festlegen k nnen Tabelle 8 1 Optionen f r Ressourenklone Beschreibung priority target Optionen die von der zu klonenden Ressource geerbt werden wie in role is managed Tabelle 5 3 Ressourcen Metaoptionen beschrieben clone max Legt die Anzahl der zu startenden Instanzen der Ressource fest Entspricht standardm ig der Anzahl der K
75. h quorum Version 1 1 10 5 el7 9abe687 2 Nodes configured 6 Resources configured Node zi1 example com 1 standby Online z2 example com Full list of resources myapc stonith fence_apc_snmp Started z1 example com Resource Group apachegroup 84 Konfigurationsbeispiel unter Verwendung der pcs Befehle my_lvm ocf heartbeat LVM Started z2 example com my_fs ocf heartbeat Filesystem Started z2 example com VirtualIP ocf heartbeat IPaddr2 Started z2 example com Website ocf heartbeat apache Started z2 example com Die Website unter der definierten IP Adresse sollte nach wie vor angezeigt werden ohne Serviceunterbrechung 3 Umden Standby Modus f r z1 aufzuheben f hren Sie den folgenden Befehl aus root z1 pcs cluster unstandby z1 example com Anmerkung Das Aufheben des Standby Modus allein f hrt nicht dazu dass die Ressource wieder zur ck auf diesen Knoten wechselt Informationen dar ber wie Sie steuern k nnen auf welchen Knoten die Ressourcen laufen k nnen finden Sie im Kapitel ber die Konfiguration von Cluster Ressourcen im Handbuch Red Hat High Availability Add On Reference 85 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Versionsgeschichte Version 2 0 7 2 Fri Apr 24 2015 Deutsche Ubersetzung fertiggestellt Version 2 0 7 1 Fri Apr 24 2015 bersetzungsdateien synchronisiert mit XML Quellen 2 0 7 Version 2 0 7 Tue Dec 16
76. hnittstelle Die pcs Befehlszeilenschnittstelle erm glicht die Steuerung und Konfiguration von corosync und pacemaker Das allgemeine Format des pcs Befehls lautet wie folgt pcs f file h commands 2 1 pcs Befehle Die pcs Befehle lauten wie folgt cluster Konfiguriert Cluster Optionen und Knoten Informationen ber den Befehl pcs cluster finden Sie in Kapitel 3 Cluster Erstellung und Verwaltung resource Erstellt und verwaltet Cluster Ressourcen Informationen ber den Befehl pcs cluster finden Siein Kapitel D Konfigurieren von Cluster Ressourcen Kapitel 7 Verwalten von Cluster Ressourcen stonith Konfiguriert Fencing Ger te zur Verwendung mit Pacemaker Informationen ber den Befehl pcs stonith finden Sie in Kapitel 4 Fencing Konfigurieren von STONITH constraint Verwaltet Ressourcenbeschrankungen Informationen Uber den Befehl pcs constraint finden Sie in Kapitel 6 Ressourcenbeschr nkungen property Legt Pacemaker Eigenschaften fest Informationen ber das Festlegen der Eigenschaften mit dem Befehl pcs property finden Sie in Kapitel 10 Pacemaker Cluster Eigenschaften status Zeigt den aktuellen Cluster und Ressourcenstatus an Informationen ber den Befehl pcs status finden Sie in Abschnitt 2 5 Anzeigen des Status config Zeigt die vollst ndige Cluster Konfiguration in einer f r den Benutzer lesbaren Forman Informationen ber den Befehl pes config finden Sie in Abschnitt 2 6
77. hungsintervall vorgibt erstellt der pcs Befehl eine berwachungsoperation mit einem Intervall von 60 Sekunden Tabelle 5 4 Eigenschaften einer Operation zeigteine bersicht ber die Eigenschaften einer Operation zur Ressourcen berwachung Tabelle 5 4 Eigenschaften einer Operation Beschreibung id Eindeutiger Name f r die Aktion Das System weist diesen Zu wenn Sie eine Operation konfigurieren name Die auszuf hrende Aktion bliche Werte monitor start stop interval In welchen Abst nden in Sekunden die Operation ausgef hrt werden soll Standardwert 0 also nie timeout Wie lange gewartet werden soll bevor die Aktion als fehlgeschlagen gilt Falls Sie feststellen dass Ihr System eine Ressource enth lt die eine lange Zeitzum Starten oder Stoppen oder zur Durchf hrung einer sich nicht wiederholenden Uberwachungsaktion beim Start ben tigt und dass es mehr Zeit als vom System erlaubt erfordert bevor die Startaktion als gescheitert gilt k nnen Sie diesen Wert vom Standardwert 20 erh hen oder den Wert f r timeout in op defaults ndern 33 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Beschreibung on fail Die durchzuf hrende Aktion falls diese Aktion fehlschl gt Zul ssige Werte ignore Fortfahren als sei die Ressource nicht ausgefallen block Keine weiteren Operationen auf der Ressource ausf hren stop Ressource stoppen und
78. hypervisor qemu system config vm guesti xml meta remote node guesti 8 4 2 Host und Gastauthentifizierung Die Authentifizierung und Verschl sselung der Verbindung zwischen Cluster Knoten und Remote Knoten erfolgt mittels TLS mit PSK Verschl sselung Authentifizierung auf TCP Port 3121 Das bedeutet dass sowohl der Cluster Knoten als auch der Remote Knoten ber denselben privaten Schl ssel verf gen m ssen Standardm ig muss dieser Schl ssel auf den Cluster Knoten und den Remote Knoten unter etc pacemaker authkey abgelegt werden 8 4 3 ndern der standardm igen pacemaker_remote Optionen Falls Sie den standardm igen Port oder Speicherort von authkey f r entweder Pacemaker oder pacemaker_remote ndern m chten gibt es Umgebungsvariablen zu diesem Zweck die diese beiden Daemons betreffen Sie k nnen diese Umgebungsvariablen aktivieren indem Sie sie wie folgt in die Datei etc sysconfig pacemaker einf gen Pacemaker Remote Use a custom directory for finding the authkey PCMK_authkey_location etc pacemaker authkey Specify a custom port for Pacemaker Remote connections PCMK_remote_port 3121 8 4 4 Konfigurations bersicht KVM Remote Knoten Dieser Abschnitt liefert eine bersicht ber die notwendigen Schritte um mit Pacemaker eine virtuelle Maschine zu starten und diese als Remote Knoten zu integrieren unter Verwendung von libvirt und virtuellen KVM G sten 1 Nachdem Sie die Virtualis
79. id operation_action operation_properties Verwenden Sie den folgenden Befehl um eine konfigurierte Ressourcenoperation zu l schen pcs resource op remove resource_id operation_name operation_properties 34 Kapitel 5 Konfigurieren von Cluster Ressourcen Anmerkung Sie m ssen die exakten Operationseigenschaften angeben um eine vorhandene Operation richtig zu entfernen Um die Werte einer berwachungsoption zu ndern entfernen Sie die vorhandene Operation und f gen Sie anschlie end die neue Operation hinzu Beispielsweise k nnen Sie eine VirtualIP mit dem folgenden Befehl erstellen pcs resource create VirtualIP ocf heartbeat IPaddr2 1p 192 168 0 99 cidr_netmask 24 nic eth2 Standardm ig erstellt dieser Befehl diese Operationen Operations start interval 0Os timeout 20s VirtualIP start timeout 20s stop interval s timeout 20s VirtualIP stop timeout 20s monitor interval 10s timeout 20s VirtualIP monitor interval 10s F hren Sie die folgenden Befehle aus um die Stopp Timeout Operation zu ndern pcs resource op remove VirtualIP stop interval 0s timeout 20s pcs resource op add VirtualIP stop interval 0s timeout 40s pcs resource show VirtualIP Resource VirtualIP class ocf provider heartbeat type IPaddr2 Attributes 1p 192 168 0 99 cidr_netmask 24 nic eth2 Operations start interval 0s timeout 20s VirtualIP start timeout 20s monitor interval 10s timeout 20s VirtualIP monitor interval 10s
80. ie den pcs Befehl zum Anzeigen von Werten der verschiedenen Cluster Komponenten verwenden k nnen in den meisten F llen die Befehlepcs listoderpcs show austauschbar verwendet werden In den folgenden Beispielen ist pcs list das verwendete Format zum Anzeigen einer umfassenden Liste aller Einstellungen f r mehr als eine Eigenschaft w hrend pcs show das verwendete Format zum Anzeigen der Werte einer bestimmten Eigenschaft ist Verwenden Sie den folgenden pcs Befehl um die Werte der Eigenschaften anzuzeigen die f r den Cluster eingestellt wurden pcs property list Verwenden Sie den folgenden Befehl um alle Werte der Eigenschaften anzuzeigen die f r den Cluster eingestellt wurden einschlie lich jener Standardwerte die nicht ausdr cklich festgelegt wurden pcs property list all Verwenden Sie den folgenden Befehl um den derzeitigen Wert f r eine bestimmte Cluster Eigenschaft anzuzeigen pcs property show property Um beispielsweise den derzeitigen Wert der Eigenschaft cLuster infrastructure anzuzeigen f hren Sie den folgenden Befehl aus pcs property show cluster infrastructure Cluster Properties cluster infrastructure cman Zu Informationszwecken k nnen Sie mithilfe des folgenden Befehls eine Liste aller Standardwerte der Eigenschaften anzeigen ungeachtet dessen ob diesen ein davon abweichender Wert zugewiesen wurde pcs property list show defaults 68 Kapitel 10 Pacemaker Cluster Eigenschaften Clust
81. iedenen Komponenten der Oberflache sichtbar und kann aktualisiert werden Mithilfe der Option gethost des ccs Befehls k nnen Sie die aktuelle Konfigurationsdatei sehen Sie k nnen den clustat Befehl verwenden um den Cluster Status anzuzeigen Pacemaker unterst tzt die folgenden Features f r einen Cluster Sie k nnen f r den Cluster eine no quorum policy festlegen um anzugeben was das System tun soll falls der Cluster kein Quorum hat Weitere konfigurierbare Cluster Eigenschaften finden Sie in Tabelle 10 1 Cluster Siehe etc sysconfig pacemaker Datei fur Informationen Uber die manuelle Konfiguration der Protokollierung Der Cluster wird automatisch beim Start gepr ft oder Sie k nnen den Cluster mitpcs cluster verify selbst pr fen pcs f gt die notwendigen Optionen f r einen 2 Knoten Cluster automatisch zu cman hinzu Sie k nnen den derzeitigen Status des Clusters mit dem Befehl pcs status anzeigen 71 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Konfigurationskom rgmanager Pacemaker ponente Ressourcen Sie k nnen Ressourcen mit Sie k nnen Ressourcen Mit definierten Typen hinzuf gen und definierten Typen hinzuf gen und ressourcenspezifische ressourcenspezifische Eigenschaften konfigurieren indem Eigenschaften konfigurieren mit Sie luci oder den ccs Befehl dem Befehl pcs resource verwenden oder die create Allgemeine Information
82. ierungssoftware installiert und den Libvirtd Dienst auf den Cluster Knoten aktiviert haben platzieren Sie einen authkey mit dem Pfad etc pacemaker authkey auf jedem Cluster Knoten und auf jeder virtuellen Maschine Dies sichert die Remote Kommunikation und die Authentifizierung Der folgende Befehl erstellt einen authkey dd if dev urandom of etc pacemaker authkey bs 4096 count 1 2 Installieren Sie auf jeder virtuellen Maschine die pacemaker_remo te Pakete starten Sie den pacemaker_remote Dienst aktivieren Sie dessen Start beim Systemboot und ffnen Sie den TCP Port 3121 in der Firewall yum install pacemaker remote resource agents systemctl start pacemaker_remote service systemctl enable pacemaker_remote service firewall cmd add port 3121 tcp permanent 3 Geben Sie jeder virtuellen Maschine eine statische Netzwerkadresse und einen eindeutigen Hostnamen 59 4 Umden VirtualDomain Ressourcen Agent zur Verwaltung der virtuellen Maschine zu erstellen erfordert Pacemaker dass ein Auszug der XML Konfigurationsdatei der virtuellen Maschine in einer Datei auf der Festplatte gespeichert wird Falls Sie beispielsweise eine virtuelle Maschine namens guest1i erstellt haben speichern Sie mithilfe des folgenden Befehls das XML in einer Datei auf dem Host ab virsh dumpxml guesti1 gt virtual_machines guesti xml 5 Erstellen Sie die VirtualDomain Ressource wobei die Ressourcen Metaoption remote note angeben sollte d
83. iguration des Red Hat High Availability Add Ons mit Pacemaker Kapitel 3 Cluster Erstellung und Verwaltung Dieses Kapitel beschreibt die grundlegende Cluster Verwaltung mit Pacemaker einschlie lich der Erstellung des Clusters Verwaltung der Cluster Komponenten und Anzeigen des Cluster Status 3 1 Erstellen eines Clusters Gehen Sie folgenderma en vor um einen laufenden Cluster zu erstellen 1 Authentifizieren Sie die Knoten aus denen der Cluster gebildet werden soll 2 Konfigurieren und synchronisieren Sie die Cluster Knoten 3 Starten Sie die Cluster Dienste auf den Cluster Knoten Die folgenden Abschnitte beschreiben die Befehle die Sie fur diese Schritte ben tigen 3 1 1 Authentifizieren der Cluster Knoten Der folgende Befehl authentifiziert pcs beim pcs Daemon auf den Knoten im Cluster Der Benutzername f r den pcs Administrator muss auf jedem Knoten hacluster lauten Es wird empfohlen dass auf jedem Knoten dasselbe Passwort f r den hacluster Benutzer verwendet wird Falls Sie keinen Benutzernamen und kein Passwort angeben fordert Sie das System f r jeden Knoten zu deren Eingabe auf wenn Sie den Befehl ausf hren Falls Sie keine Knoten angeben authentifiziert dieser Befehl pcs auf jenen Knoten die mit dem Befehl pcs cluster setup angegeben wurden falls Sie diesen Befehl zuvor ausgef hrt haben pcs cluster auth node u username p password Autorisierungs Tokens werden in der Datei pcs token
84. m die Optionen f r den angegebenen STONITH Agenten anzuzeigen pcs stonith describe stonith_agent Beispielsweise zeigt der folgende Befehl die Optionen f r den Fencing Agenten f r APC ber Telnet SSH pcs stonith describe fence_apc Stonith options for fence_apc ipaddr required IP Address or Hostname login required Login Name passwd Login password or passphrase passwd_script Script to retrieve password cmd_prompt Force command prompt secure SSH connection port required Physical plug number or name of virtual machine identity_file Identity file for ssh Switch Physical switch number on device inet4_only Forces agent to use IPv4 addresses only inet6_only Forces agent to use IPv6 addresses only ipport TCP port to use for connection with device action required Fencing Action 20 Kapitel 4 Fencing Konfigurieren von STONITH verbose Verbose mode debug Write debug information to given file version Display version information and exit help Display help and exit separator Separator for CSV created by operation list power_timeout Test X seconds for status change after ON OFF shell timeout Wait X seconds for cmd prompt after issuing command login_timeout Wait X seconds for cmd prompt after login power_wait Wait X seconds after issuing ON OFF delay Wait X seconds before fencing is started retry_on Count of attempts to retry power on 4 4 Erstellen eines Fencing Gerats Der folgende Befehl erstellt
85. md erfordert F hren Sie das folgende Verfahren auf jedem Knoten im Cluster aus 1 Finden Sie mithilfe des folgenden Befehls heraus welche Datentr gergruppen derzeit auf Ihrem lokalen Speicher konfiguriert sind Sie erhalten eine Ausgabe mit den derzeit konfigurierten Datentr gergruppen Falls Sie auf diesem Knoten in separaten Datentr gergruppen Speicherplatz zugewiesen haben f r Ihre root und Benutzerverzeichnisse dann sehen Sie diese Datentr ger in der Ausgabe wie in diesem Beispiel vgs noheadings o vg_name my_vg rhel_home rhel_root 2 F gen Sie die Datentr gergruppen mit Ausnahme von my_vg die Datentragergruppe die Sie eben f r den Cluster definiert haben als Eintr ge zu volume_listin der Konfigurationsdatei etce lvm lvm conf hinzu Falls Sie beispielsweise Speicherplatz in einer separaten Datentr gergruppe f r Ihre root und Benutzerverzeichnisse zugewiesen haben w rden Sie die Zeile volume_listin der Datei Llvm conf auskommentieren und diese Datentragergruppen wie folgt als Eintr ge zu volume_list hinzuf gen volume_list rhel_root rhel_home Anmerkung Falls keine lokalen Datentr gergruppen auf einem Knoten existieren die au erhalb des Cluster Manager aktiviert werden sollen m ssen Sie dennoch den Eintrag volume_listalsvolume_list initialisieren 3 Erstellen Sie das Boot Image initramfs neu um zu gew hrleisten dass das Boot Image nicht versuchen wird eine vom Cluster gest
86. ment bezieht sich das Wort Cluster auf eine Gruppe von Computern auf denen das Red Hat High Availability Add On l uft Die Zielgruppe dieses Handbuchs sollte bereits ber umfassende Kenntnisse von Red Hat Enterprise Linux verf gen und die Grundlagen von Clustern Storage und Server Rechnern verstehen Weitere Informationen ber Red Hat Enterprise Linux 6 finden Sie in den folgenden Quellen Red Hat Enterprise Linux Installationshandbuch Liefert Informationen bez glich der Installation von Red Hat Enterprise Linux 6 Red Hat Enterprise Linux Bereitstellungshandbuch Liefert Informationen bez glich der Implementierung der Konfiguration und der Administration von Red Hat Enterprise Linux 6 Weitere Informationen ber das High Availability Add On und zugeh rige Produkte f r Red Hat Enterprise Linux 6 finden Sie in den folgenden Quellen berblick ber das High Availability Add On Liefert einen allgemeinen berblick ber das High Availability Add On Cluster Administration Liefert Informationen zur Installation Konfiguration und Verwaltung des High Availability Add Ons Administration des Logical Volume Manager Liefert eine Beschreibung des Logical Volume Managers LVM inklusive Informationen zum Einsatz von LVM in einer Cluster Umgebung Global File System 2 Konfiguration und Administration Liefert Informationen zur Installation Konfiguration und Pflege von Red Hat GFS Red Hat Global File System 2 das Bes
87. mit einer aktiven Instanz des Klons laufen kann Der Cluster w hlt eine Instanz basierend darauf wo der Klon l uft und auf den Standortpr ferenzen der Ressource selbst Es ist ebenfalls m glich relative Standortbeschr nkungen zwischen Klons einzurichten In solchen F llen wird die Liste der erlaubten Standorte f r den Klon auf Knoten beschr nkt auf denen der Klon aktiv istbzw aktiv sein wird Die Zuweisung erfolgt dann ganz normal Der folgende Befehl erstellt eine relative Standortbeschr nkung um sicherzustellen dass die Ressource webfarm stats auf demselben Knoten l uft wie eine aktive Instanz von webfarm clone pcs constraint colocation add webfarm stats with webfarm clone 8 1 3 Standorttreue von Klons Um ein stabiles Zuweisungsmuster zu erreichen sind Klone standardm ig leicht standorttreu Falls f rresource stickiness kein Wert angegeben wird verwendet der Klon den Wert 1 Da dies nur ein kleiner Wert ist hat er geringe St rwirkung bei der Kalkulation der Gewichtung anderer Ressourcen dieser Wert ist jedoch genug um Pacemaker daran zu hindern unn tig Klone im Cluster hin und herzuverlegen 8 2 Multi Status Ressourcen Ressourcen mit mehreren Modi Multi Status Ressourcen sind spezielle Klonressourcen Sie erlauben den Instanzen die Ausf hrung in einem von zwei Betriebsmodi entweder Master oder Slave Die Namen der Modi haben keine weitere Bewandtnis es istlediglich vorgeschrieben dass eine Instanz im
88. n no quorum policy stop Vorgehensweise falls der Cluster kein Quorum hat Zul ssige Werte ignore Mit der Ressourcenverwaltung fortfahren freeze Mit der Ressourcenverwaltung fortfahren aber keine Ressourcen auf Knoten in der betroffenen Partition wiederherstellen stop Alle Ressourcen in der betroffenen Cluster Partition stoppen suicide Alle Knoten in der betroffenen Cluster Partition abgrenzen symmetric cluster true Legt fest ob Ressourcen standardm ig auf einem beliebigen Knoten laufen k nnen 65 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Option stonith enabled stonith action cluster delay stop orphan resources stop orphan actions start failure is fatal pe error series max pe warn series max pe input series max cluster infrastructure dc version last lrm refresh cluster recheck interval 66 Standard true reboot 60s true true true 1 alle 1 alle 1 alle 60 Beschreibung Legt fest dass ausgefallene Knoten sowie Knoten mit Ressourcen die nicht gestoppt werden k nnen abgegrenzt werden sollen Zur Sicherung Ihrer Daten muss dies auf true eingestellt werden Falls true oder nicht festgelegt wird der Cluster keine Ressourcen starten bis nicht eine oder mehr STONITH Ressourcen konfiguriert wurden An das STONITH Ger t zu sendende Aktion Zul ssige Werte reboot off Der
89. n Reihenfolge gestoppt Der Standardwert ist true 41 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker 6 2 1 Zwingende Reihenfolge Zwingende mandatory Beschr nkungen bedeuten dass die zweite angegebene Ressource nicht laufen kann ohne dass die erste angegebene Ressource aktiv ist Dies ist der Standardwert der kind Option Die Standardwerte stellen sicher dass die zweite angegebene Ressource reagiert wenn die erste angegebene Ressource ihren Status ndert Falls die erste angegebene Ressource lief und nun gestoppt wird wird die zweite angegebene Ressource sofern sie l uft ebenfalls gestoppt Falls die erste angegebene Ressource nicht lief und nicht gestartet werden kann wird die zweite angegebene Ressource sofern sie l uft gestoppt Falls die erste angegebene Ressource neu gestartet wird w hrend die zweite angegebene Ressource l uft wird die zweite angegebene Ressource gestoppt und neu gestartet 6 2 2 Optionale Reihenfolge Wenn die Option kind Optional f r eine Reihenfolgebeschr nkung angegeben ist dann wird die Beschr nkung als optional betrachtet und greift nur dann wenn beide Ressourcen gestoppt oder gestartet werden Jegliche Status nderung der ersten angegebenen Ressource hat keinerlei Auswirkung auf die zweite angegebene Ressource Der folgende Befehl konfiguriert eine optionale Reihenfolgebeschr nkung f r die Ressourcen namens VirtualIP und dummy_res
90. n Ressource B bekannt ist Bei der Konfiguration von relativen Standortbeschr nkungen sollten Sie infolgedessen darauf achten ob Sie Ressource A relativ zu Ressource B oder Ressource B relativ zu Ressource A platzieren Ein anderer Effekt den es bei der Konfiguration von relativen Standortbeschr nkungen zu bedenken gilt ist der Umstand dass der Cluster bei der Auswahl eines Knotens f r Ressource B auch die Ressourcenpr ferenzen von Ressource A ber cksichtigt wenn Ressource Arelativ zu Ressource B platziert werden soll Der folgende Befehl erstellt eine relative Standortbeschr nkung pcs constraint colocation add master slave source_resource with master slave target_resource score options Informationen ber Master und Slave Ressourcen finden Sie in Abschnitt 8 2 Multi Status Ressourcen Ressourcen mit mehreren Modi Eigenschaften und Optionen zur Konfiguration von relativen Standortbeschr nkungen Tabelle 6 3 Eigenschaften einer relativen Standortbeschr nkung Feld Beschreibung source_resource Die Quelle f r die relative Standortbeschr nkung Falls die Bedingungen der Beschr nkung nicht erf llt werden k nnen kann der Cluster entscheiden die Ressource nicht auszuf hren target_resource Das Ziel f r die relative Standortbeschr nkung Der Cluster entscheidet zun chst ber den Standort dieser Ressource bevor er den Standort der Quellressource festlegt score Positive Werte zeigen an dass die Ressourc
91. n wie in Abschnitt B 2 Fencing Konfiguration beschrieben A Sobald der Cluster l uft k nnen Sie in einem Browser die IP Adresse aufrufen die Sie als IPaddr2 Ressource definiert haben um die einfache Beispielanzeige Hello zu sehen Hello Falls Sie feststellen dass die von Ihnen konfigurierten Ressourcen nicht laufen k nnen Sie den Befehl pcs resource debug start resource ausf hren um die Ressourcenkonfiguration zu testen Informationen ber den Befehl pcs resource debug start finden Sie im Handbuch High Availability Add On Reference B 3 5 Testen der Ressourcenkonfiguration In der Cluster Statusanzeige aus a B 3 4 Erstellen der Ressourcen und k nnen testen ob die ne im Fehlerfall auf Knoten z2 Sample com Ausweicht indem Sie mittels des folgenden Verfahrens den ersten Knoten in den Standby Modus versetzen woraufhin der Knoten nicht l nger dazu in der Lage sein wird Ressourcen zu hosten 1 Der folgende Befehl versetzt Knoten z1 example com in den Standby Modus root z1 pcs cluster standby z1 example com 2 Nachdem Sie den Knoten z1 in den Standby Modus versetzt haben pr fen Sie den Cluster Status Beachten Sie dass die Ressourcen nun alle auf z2 laufen sollten root z1 pcs status Cluster name my_cluster Last updated Wed Jul 31 17 16 17 2013 Last change Wed Jul 31 17 18 34 2013 via crm_attribute on z1 example com Stack corosync Current DC z2 example com 2 partition wit
92. nd auf dem aktuellen Datum oder der aktuellen Zeit zu steuern Sie k nnen eine optionale Datumsspezifikation enthalten Tabelle 9 3 Eigenschaften eines Datumsausdrucks start end operation Beschreibung Eine Datums Zeitangabe nach ISO8601 Spezifikation Eine Datums Zeitangabe nach ISO8601 Spezifikation Vergleicht das aktuelle Datum und die aktuelle Uhrzeit mit dem Start und oder dem Enddatum abh ngig vom Kontext Zul ssige Werte gt Ergibt true falls das aktuelle Datum und die aktuelle Uhrzeit nach start liegt 1t Ergibt true falls das aktuelle Datum und die aktuelle Uhrzeit vor end liegt in range Ergibt true falls das aktuelle Datum und die aktuelle Uhrzeit nach start und vor end liegt date spec F hrteinen cron artigen Vergleich zum aktuellen Datum und zur aktuellen Zeit durch 9 3 Datumsspezifikationen Datumsspezifikationen werden dazu verwendet um cron artige Ausdr cke der Zeitzu erstellen Jedes Feld kann eine einzelne Zahl oder einen einzelnen Bereich enthalten Wird ein Feld nicht spezifiziert wird daf r nicht der Standardwert Null angenommen sondern das Feld ignoriert 62 Kapitel 9 Pacemaker Regeln Beispielsweise bedeutet monthdays 1 der erste Tag eines jeden Monats und hours 09 17 bedeutet die Stunden zwischen 9 Uhr morgens und 17 Uhr abends einschlie lich Allerdings k nnen Sie nicht weekdays 1 2 oder weekdays 1 2 5 6 angeben da dies mehrere Bereiche darstellt
93. ndet sofort mit dem Dienst pacemaker_remote sodass die virtuellen Maschinen in den Cluster integriert werden k nnen Der wesentliche Unterschied zwischen den virtuellen Remote Maschinen und den Cluster Knoten besteht darin dass die Remote Knoten nicht den Cluster Stack ausf hren Dies bedeutet dass die Remote Knoten keinen Anteil am Quorum haben Andererseits bedeutet dies auch dass die Remote Knoten nicht der begrenzten Skalierbarkeit des Cluster Stacks unterliegen Abgesehen von der Quorum Einschr nkung verhalten sich Remote Knoten im Hinblick auf die Ressourcenverwaltung ganz wie Cluster Knoten Der Cluster ist dazu in der Lage die Ressourcen auf jedem Remote Knoten vollst ndig zu verwalten und zu berwachen Sie k nnen Beschr nkungen f r Remote Knoten anlegen sie in den Standby Modus versetzen oder jede andere Aktion auf ihnen ausf hren die Sie auch auf Cluster Knoten ausf hren k nnen Remote Knoten erscheinen in der Ausgabe des Cluster Status ganz wie normale Cluster Knoten 8 4 1 Ressourcenoptionen f r Container Remote Knoten Zur Konfiguration einer virtuellen Maschine oder LXC Ressource als Remote Knoten erstellen Sie eine VirtualDomain Ressource welche die virtuelle Maschine verwaltet Mit dem folgenden Befehl erhalten Sie eine Beschreibung der Optionen die Sie f r eine VirtualDomain Ressource festlegen k nnen pcs resource describe VirtualDomain Zus tzlich zu den VirtualDomain Ressourcenoptionen k nnen Sie Met
94. ndortbeschr nkungen mit source_resource zu entfernen pcs constraint colocation remove source_resource target_resource 6 4 Anzeigen von Beschrankungen Es gibt mehrere Befehle mit denen Sie konfigurierte Beschr nkungen anzeigen k nnen Der folgende Befehl listet alle aktuellen Reihenfolge Standort und relativen Standortbeschr nkungen auf pcs constraint list show 44 ACeC KI rranhacnrhr anl nr na r essourcenbeschr nkun gen Der folgende Befehl listet alle aktuellen Standortbeschr nkungen auf Falls resources angegeben ist werden die Standortbeschr nkungen pro Ressource angezeigt Dies ist das Standardverhalten Falls nodes angegeben ist werden Standortbeschr nkungen pro Knoten angezeigt Falls bestimmte Ressourcen oder Knoten angegeben sind werden nur Informationen ber diese Ressourcen bzw Knoten angezeigt pcs constraint location show resources nodes specific nodes resources full Der folgende Befehl listet alle aktuellen Reihenfolgebeschr nkungen auf Falls die Option full angegeben ist werden die internen Beschr nkungs IDs angezeigt pcs constraint order show full Der folgende Befehl listet alle aktuellen relativen Reihenfolgebeschr nkungen auf Falls die Option full angegeben ist werden die internen Beschr nkungs IDs angezeigt pcs constraint colocation show full Der folgende Befehl listet die Beschr nkungen auf die sich auf bestimmte Ressourcen beziehen pcs const
95. nenn 28 5 1 Ressourcenerstellung 28 5 2 Ressourceneigenschaften 28 5 3 Ressourcenspezifische Parameter 29 5 4 Ressourcen Metaoptionen 29 5 5 Ressourcenoperationen 33 5 6 Anzeigen konfigurierter Ressourcen 36 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker N Kapitel 6 Ressourcenbeschr nkungen Kapitel 7 Verwalten von Cluster Ressourcen Kapitel 8 Erweiterte Ressourcentypen Kapitel 9 Pacemaker Regeln 5 7 ndern von Ressourcenparametern 5 8 Mehrere berwachung so peratio nen 5 9 Aktivieren und Deaktivieren von Cluster Ressourcen 5 10 Bereinigen von Cluster Ressourcen 6 1 Standortbeschr nkungen 6 1 1 Konfigurieren eines Opt In Clusters 6 1 2 Konfigurieren eines Opt Out Clusters 6 2 Reihenfolgebeschr nkungen 6 2 1 Zwingende Reihenfolge 6 2 2 Optionale Reihenfolge 6 2 3 Geordnete Ressourcengruppen 6 2 4 Entfernen von Ressourcen aus Reihenfolgebeschrankungen 6 3 Relative Standortbeschr nkung f r Ressourcen 6 3 1 Zwingende Platzierung 6 3 2 Optionale Platzierung 6 3 3 Relative Standortbeschr nkung f r Ressourcengruppen 6 3 4 Entfernen von relativen Standortbeschr nkungen 6 4 Anzeigen von Beschr nkungen 6 5 Ressourcenruppen 6 5 1 Gruppenoptionen 6 5 2 Gruppentreue 7 1 Manuelles Verlegen von Ressourcen im Cluster 7 2 Verlegen von Ressourcen wegen Ausfall 7 3 Verlegen von Ressourcen wegen nderungen der Verbindungsf higkeit 7 4 Aktivier
96. ngabe von INFINITY ist auch hier die Beschr nkung zwingend Falls der einzige verbleibende Ort zur Ausf hrung bereits von myresource2 belegt ist dann darfmyresourceil nirgends laufen 6 3 2 Optionale Platzierung Im Gegensatz zur zwingenden Platzierung die ein m ssen und nicht d rfen vorschreibt geht es bei der optionalen Platzierung um ein vorzugsweise Bei Bedingungen mit Gewichtungen gr er als INFINITY und kleiner als INFINITY versucht der Cluster Ihre W nsche zu erf llen wird diese jedoch ignorieren falls andernfalls einige der Cluster Ressourcen gestoppt werden m ssten Optionale relative Standortbedingungen k nnen mit anderen Elementen der Konfiguration kombiniert werden um sich wie zwingende Bedingungen zu verhalten 6 3 3 Relative Standortbeschr nkung f r Ressourcengruppen Verwenden Sie den folgenden Befehl um eine relative Standortbeschr nkung aufeiner Ressourcengruppe zu erstellen Sie k nnen die sequential Option auf true oder false setzen um anzugeben ob es sich bei der Ressourcengruppe mit relativer Standortbeschr nkung um eine geordnete Gruppe handelt colocation set resourcel resource2 resourceN setoptions name value set resourceX resourceY setoptions name value Sie k nnen die role Option f r eine Gruppe mit relativer Standortbeschr nkung auf master oder 6 3 4 Entfernen von relativen Standortbeschr nkungen Verwenden Sie den folgenden Befehl um relative Sta
97. noten im Cluster clone node max Legt die Anzahl der Ressourcen fest die auf einem einzigen Knoten gestartet werden k nnen Der Standarwert ist 1 notify Legt fest ob beim Stoppen und Starten eines Klons alle anderen Klone vor der Aktion sowie nach erfolgter Aktion benachrichtigt werden sollen Zul ssige Werte false true Der Standardwert ist false globally unique Legt fest ob jeder Klon eine andere Funktion aus bt Zul ssige Werte false true Falls der Wert dieser Option false ist verhalten sich diese Ressourcen berall gleich ungeachtet dessen wo sie ausgef hrt werden Demnach kann in diesem Fall pro Rechner nur eine Instanz des Klons aktiv sein Falls der Wert dieser Option true ist dann istein Klon auf einem Rechner nicht identisch mit einer anderen Instanz des Klons auf einem anderen Knoten oder auf demselben Knoten Der Standardwert lautet true falls der Wert von clone node max gr er als 1 ist andernfalls lautet der Standardwert false ordered Legt fest ob die Klone nacheinander statt gleichzeitig gestartet werden sollen Zul ssige Werte false true Der Standardwert ist false interleave ndert das Verhalten hinsichtlich der Reihenfolge zwischen Klonen und Master sodass die Instanzen starten bzw stoppen k nnen sobald ihre Peer Instanz gestartet bzw gestoppt wurde statt auf jede Instanz des Klons zu warten Zul ssige Werte false true Der Standardwert ist false 53 Red Hat Enterprise Linux 6
98. ns mit Pacemaker Feld pcmk_off_action pcmk_off_timeout pcmk_off_retries pcmk_list_action pcmk_list_timeout 24 Typ Standard Zeichenfolg off e Zeitspanne 60s Ganzzahl 2 Zeichenfolg list e Zeitspanne 60s Beschreibung Ein alternativer Befehl der anstelle von off ausgef hrt werden soll Einige Ger te unterst tzen die standardm igen Befehle nicht oder bieten zus tzliche Befehle Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Befehls fur die off Aktion Ein alternativer Wert f r die Zeit berschreitung bei off Aktionen der anstelle von stonith timeout verwendet werden soll Einige Ger te ben tigen sehr viel weniger bzw mehr Zeit f r diese Aktion als normal Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Werts f r die Zeit berschreitung bei off Aktionen Die maximale Anzahl von Neuversuchen f r den off Befehl innerhalb der Zeitspanne f r die Zeit berschreitung Einige Ger te unterst tzen keine mehrfachen Verbindungen Operationen k nnen fehlschlagen falls das Ger t mit einer anderen Operation besch ftigt ist weshalb Pacemaker die Operation automatisch erneut versucht falls noch gen gend Zeit bleibt Verwenden Sie diese Option um die Anzahl der Neuversuche von Pacemaker f r off Aktionen zu ver ndern bevor aufgegeben werden soll Ein alternativer Befehl der anstelle von list ausgef hrt werden soll
99. nt location Database prefers example 3 0 6 1 2 Konfigurieren eines Opt Out Clusters Setzen Sie zum Erstellen eines Opt Out Clusters die Cluster Eigenschaft symmetric cluster auf true um Ressourcen zu erlauben standardm ig berall zu laufen pcs property set symmetric cluster true Die folgenden Befehle aA eine SO LULSUO hnlich des Beispiels in Abschnitt 6 1 1 falls ihr bevorzugter Knoten ausf llt da jeder Knoten die implizite Gewichtung O hat pcs constraint location Webserver prefers example 1 200 pcs constraint location Webserver avoids example 2 INFINITY pcs constraint location Database avoids example 1 INFINITY pcs constraint location Database prefers example 2 200 40 Kapitel 6 Ressourcenbeschrankungen Beachten Sie dass es nicht notwendig ist in diesen Befehlen die Gewichtung INFINITY anzugeben da dies der Standardwert f r die Gewichtung ist 6 2 Reihenfolgebeschr nkungen Reihenfolgebeschr nkungen bestimmen die Reihenfolge in der die Ressourcen laufen Sie k nnen eine Reihenfolgebeschr nkung konfigurieren um die Reihenfolge festzulegen in der die Ressourcen starten und stoppen Verwenden Sie den folgenden Befehl um eine Reihenfolgebeschr nkung zu konfigurieren pcs constraint order action resource_id then action resource_id options Tabelle 6 2 Eigenschaften einer Reihenfolgebeschrankung zeigt eine Ubersicht der Eigenschaften und Optionen zur Konfiguration von Reihenfolgebe
100. oder zu bearbeiten pcs stonith update stonith_id stonith_device_options Verwenden Sie den folgenden Befehl um ein Fencing Gerat aus der derzeitigen Konfiguration zu entfernen pcs stonith delete stonith_id 4 8 Verwalten von Knoten mit Fencing Ger ten Sie k nnen einen Knoten mithilfe des folgenden Befehls manuell abgrenzen Falls Sie die Option off angeben wird der API Aufrufoff an stonith verwendet um den Knoten abzuschalten statt ihn neu zu starten pcs stonith fence node off Mithilfe des folgenden Befehls k nnen Sie pr fen ob ein angegebener Knoten derzeit angeschaltet ist normalerweise vom Cluster gesteuert werden hat dies eine Besch digung der Daten und einen Ausfall des Clusters zur Folge pcs stonith confirm node Kapitel 4 Fencing Konfigurieren von STONITH 4 9 VVEILEIE FCMULINIY NUVUMIIYUPALIVIISUPLIVIICH Tabelle 4 2 Fortgeschrittene Eigenschaften von Fencing Ger ten gibt einen berblick ber weitere Eigenschaften nur f r eine fortgeschrittene Verwendung n tig sind Tabelle 4 2 Fortgeschrittene Eigenschaften von Fencing Ger ten Feld Typ Standard Beschreibung pcmk_host_argument Zeichenfolg Port Ein alternativer Parameter der anstelle e des Ports angegeben werden soll Einige Gerate unterstutzen den standardm igen port Parameter nicht oder bieten zusatzliche Parameter Verwenden Sie dies zur Angabe eines alternativen geratespezifischen Parameters der den abzug
101. ollten Sie hierzu m glichst genaue Angaben machen Wenn Sie einen Fehler gefunden haben geben Sie bitte die Nummer des Abschnitts und einen Ausschnitt des Textes an damit wir diesen leicht finden k nnen Kapitel 1 Uberblick iber Konfiguration und Verwaltung des Red Hat High Availability Add Ons Kapitel 1 berblick ber Konfiguration und Verwaltung des Red Hat High Availability Add Ons Dieses Dokument liefert Beschreibungen der Optionen und Funktionen die vom Red Hat High Availability Add On mit Pacemaker unterst tzt werden Dieses Handbuch dokumentiert die Verwendung der pcs Konfigurationsoberfl che f r die Red Hat Enterprise Linux Release 6 6 und h her Anmerkung Informationen ber bew hrte Verfahren zur Bereitstellung und Aktualisierung von Red Hat Enterprise Linux Clustern unter Verwendung des High Availability Add Ons und Red Hat Global File System 2 GFS2 finden Sie im Artikel Red Hat Enterprise Linux Cluster High Availability and GFS Deployment Best Practices im Red Hat Kundenportal unter 1 1 Installieren der Pacemaker Konfigurationstools Sie k nnen den folgenden yum install Befehl verwenden um die Softwarepakete f r das Red Hat High Availability Add On sowie alle verf gbaren Fencing Agenten aus dem High Availability Channel zu installieren yum install pcs fence agents Die Pakete Lvm2 cluster und gfs2 utils sind Teil des ResilientStorage Channels Sie k nnen sie bei Bedarf mit dem folgenden B
102. onal Fett Kursiv oder Proportional Fett Kursiv Sowohl bei nichtproportional fett als auch bei proportional fett weist ein zus tzlicher Kursivdruck auf einen ersetzbaren oder variablen Text hin Kursivdruck kennzeichnet Text der nicht w rtlich eingeben wird oder angezeigten Text der sich abh ngig von den gegebenen Umst nden unterscheiden kann Zum Beispiel Um sich mit einer Remote Maschine via SSH zu verbinden geben Sie an einem Shell Prompt ssh username domain name ein Falls die Remote Maschine example com ist und Ihr Benutzername auf dieser Maschine John lautet geben Sie also ssh john example com ein Der Befehl mount o remount file system h ngtdas angegebene Dateisystem wieder ein Um beispielsweise das home Dateisystem wieder einzuh ngen verwenden Sie den Befehl mount o remount home Um die Version des derzeit installierten Pakets zu sehen verwenden Sie den Befehl rpm q package Die Ausgabe sieht wie folgt aus package version release Beachten Sie die kursiv dargestellten Begriffe oben username domain name file system package version und release Jedes Wort ist ein Platzhalter entweder f r Text den Sie f r einen Befehl eingeben oder f r Text der vom System angezeigt wird Neben der Standardbenutzung f r die Darstellung des Titels eines Werks zeigt der Kursivdruck auch die erstmalige Verwendung eines neuen und wichtigen Begriffs an Zum Beispiel Publican ist ein DocBook Publishing System 1 2 Konven
103. onfiguration Installation Die Cluster Konfigurationsdatei auf jedem Knoten lautet cluster conf die direkt bearbeitet werden kann falls gew nscht Verwenden Sie andernfalls die luci oder ccs Benutzerschnittstellen zum Definieren der Cluster Konfiguration Konfigurieren Sie IP Adressen und SSH bevor Sie den Cluster Konfigurieren luci ccs Befehl manuelles Bearbeiten der cluster conf Datei Installieren Sie rgmanager wodurch ebenfalls dessen Abhangigkeiten installiert werden darunter ricci luci und die Ressourcen und Fencing Agents Falls n tig installieren Sie Lvm2 cluster und gfs2 utils Die Cluster und Pacemaker Konfigurationsdateien lauten cluster conf und cib xml Bearbeiten Sie diese Dateien nicht direkt sondern verwenden Sie stattdessen die pcs Benutzerschnittstelle Konfigurieren Sie IP Adressen und SSH bevor Sie den Cluster konfigurieren pcs Installieren Sie pacemaker cman pcs und die von Ihnen ben tigten Ressourcen und Fencing Agents Falls n tig installieren Sie Lvm2 cluster und gfs2 utils 69 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Konfigurationskom rgmanager Pacemaker ponente Starten der Cluster Dienste Zugriffssteuerung fur Konfigurationstools Cluster Erstellung Verbreiten der Cluster Konfiguration auf alle Knoten 70 Starten und aktivieren Sie die Cluster Dienste mit dem folg
104. ource pcs constraint VirtualIP then dummy_resource kind Optional 6 2 3 Geordnete Ressourcengruppen Ein haufiger Anwendungsfall fur Administratoren ist die Erstellung einer Kette von geordneten Ressourcen in der z B Ressource A vor Ressource B startet die wiederum vor Ressource C startet Sie k nnen eine derartige Kette von geordneten Ressourcen mit dem folgenden Befehl erstellen Die Ressourcen starten in der angegebenen Reihenfolge pcs constraint order set resourcel resource2 resourceN options set resourcel resource2 Wenn Sie drei Ressourcen namens D1 D2 und D3 haben konfiguriert der folgende Befehl sie als geordnete Ressourcengruppe pcs constraint order set D1 D2 D3 6 2 4 Entfernen von Ressourcen aus Reihenfolgebeschrankungen Verwenden Sie den folgenden Befehl um Ressourcen aus einer Reihenfolgebeschrankung zu entfernen pcs constraint order remove resourcei resourceN 6 3 Relative Standort beschrankung f r Ressourcen 42 Kapitel 6 Ressourcenbeschrankungen Eine relative Standortbeschrankung legt fest dass der Standort einer Ressource vom Standort einer anderen Ressource abhangt Die Erstellung von relativen Standortbeschrankungen zwischen zwei Ressourcen hat einen wichtigen Nebeneffekt Sie hat Auswirkungen auf die Reihenfolge in der Ressourcen einem Knoten zugewiesen werden Dies liegt daran dass Ressource Anichtrelativ zu Ressource B platziert werden kann bevor nicht der Standort vo
105. rademark of MySQL AB in the United States the European Union and other countries Node js is an official trademark of Joyent Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node js open source or commercial project The OpenStack Word Mark and OpenStack Logo are either registered trademarks service marks or trademarks service marks of the OpenStack Foundation in the United States and other countries and are used with the OpenStack Foundation s permission We are not affiliated with endorsed or sponsored by the OpenStack Foundation or the OpenStack community All other trademarks are the property of their respective owners Zusammenfassung Das Handbuch Konfiguration des Red Hat High Availability Add Ons mit Pacemaker liefert Informationen Uber die Konfiguration des Red Hat High Availability Add Ons mithilfe von Pacemaker Inhaltsverzeichnis Einf hrung zssss32 er era 4 1 Dokumentkonventionen 4 1 1 Typografische Konventionen 4 1 2 Konventionen f r Seitenansprachen 6 1 3 Anmerkungen und Warnungen 7 2 Feedback 7 Kapitel 1 berblick ber Konfiguration und Verwaltung des Red Hat High Availability Add Ons 1 1 Installieren der Pacemaker Konfigurationstools 9 9 1 2 Konfigurieren der iptables Firewall zum Erlauben von Cluster Komponenten 9 1 3 Cluster und Pacemaker Konfig urationsdateien 9 Kapitel 2 Die pcs Befehlszeilenschnittstelle 0 0 ccc es 11 2 1 pcs Befehle 11 2
106. raint ref resource 6 5 Ressourcenruppen Eines der h ufigsten Elemente eines Clusters ist eine Gruppe von Ressourcen die zusammen platziert nacheinander gestartet und in der umgekehrten Reihenfolge gestoppt werden m ssen Um diese Konfiguration zu vereinfachen unterst tzt Pacemaker das Konzept der Ressourcengruppen Mithilfe des folgenden Befehls erstellen Sie eine Ressourcengruppe und geben dabei die Ressourcen an die in der Gruppe enthalten sein sollen Falls die Gruppe noch nicht existiert erstellt dieser Befehl die Gruppe Falls die Gruppe bereits existiert f gt der Befehl die zus tzlich angegebenen Ressourcen zur Gruppe hinzu Die Ressourcen werden in der Reihenfolge starten in der sie in diesem Befehl angegeben wurden und werden in der umgekehrten Reihenfolge stoppen pcs resource group add group_name resource _ id Mithilfe des folgenden Befehls k nnen Sie auch eine neue Ressource w hrend deren Erstellung zu einer vorhandenen Gruppe hinzuf gen Die erstellte Ressource wird zur Gruppe namens group_name hinzugef gt pcs resource create resource id standard provider type type resource_options op operation_action operation_options group group_name Mithilfe des folgenden Befehls entfernen Sie eine Ressource aus einer Gruppe Falls in dieser Gruppe keine Ressourcen vorhanden sind entfernt dieser Befehl die Gruppe selbst pcs resource group remove group_name resource_id Red Hat Enterprise Linux 6 Konfiguration
107. rce festlegen pcs resource meta resource_id group_id clone_id master_id meta_options In dem folgenden Beispiel gibt es eine vorhandene Ressource namens dummy_resource Dieser Befehl setzt die Metaoption failure timeout auf 20 Sekunden sodass die Ressource nach 20 Sekunden einen Neustart auf derselben Ressource versuchen kann 32 Kapitel 5 Konfigurieren von Cluster Ressourcen pcs resource meta dummy_resource failure timeout 20s Nach Ausf hren dieses Befehls k nnen Sie die Werte f r die Ressource anzeigen lassen um Zu berpr fen ob failure timeout 20s eingestellt wurde pcs resource show dummy_resource Resource dummy_resource class ocf provider heartbeat type Dummy Meta Attrs failure timeout 20s Operations start interval 0s timeout 20 dummy_resource start timeout 20 stop interval s timeout 20 dummy_resource stop timeout 20 monitor interval 10 timeout 20 dummy_resource monitor interval 10 Informationen ber Ressourcenklon U finden Sie in n Abschnitt 8 L Ressourcen Klone 5 5 Ressourcenoperationen Um sicherzugehen dass Ressourcen funktionst chtig bleiben k nnen Sie eine Uberwachungsoperation zur Ressourcendefinition hinzuf gen Falls Sie keine Uberwachungsoperation f r eine Ressource angeben wird der pcs Befehl standardm ig eine berwachungsoperation erstellen mit einem Intervall das vom Ressourcen Agent bestimmt wird Falls der Ressourcen Agent kein standardm iges Uberwac
108. rd Beachten Sie dass Fehler beim Stoppen dagegen anders gehandhabt werden Falls der Stopp einer Ressource fehlschl gt und STONITH aktiviert ist dann grenzt der Cluster den Knoten ab um die Ressource woanders starten zu k nnen Falls STONITH nicht aktiviert ist kann der Cluster nicht fortfahren und wird nicht versuchen die Ressource woanders zu starten Er wird dagegen erneut versuchen nach Ablauf der Zeit berschreitung die Ressource zu stoppen 7 3 Verlegen von Ressourcen wegen nderungen der Verbindungsf higkeit Das Konfigurieren des Clusters zum Verlegen von Ressourcen wenn die externe Verbindungsf higkeit verloren ist erfordert zwei Schritte 1 F gen Sie eine ping Ressource zum Cluster hinzu Die ping Ressource verwendet das gleichnamige Systemdienstprogramm um zu testen ob eine Reihe von Rechnern angegeben anhand deren DNS Hostnamen oder IPv4 IPv6 Adressen erreichbar sind und verwendet die Ergebnisse um ein Knotenattributnamens pingd zu pflegen 48 Kapitel 7 Verwalten von Cluster Ressourcen 2 Konfigurieren Sie fur die Ressource eine Standortbeschrankung welche die Ressource auf einen anderen Knoten verlegt falls die Verbindungsfahigkeit verloren geht Ressource festlegen k nnen Tabelle 7 1 Eigenschaften von ping Ressourcen Beschreibung Zeitspanne w hrend der auf weitere nderungen gewartet wird Dies verhindert dass eine Ressource im Cluster wiederholt umherwechselt wenn Cluster Knoten den Ve
109. renzenden Rechner angibt Der Wert none kann verwendet werden um den Cluster anzuweisen keine weiteren Parameter zu bergeben pcmk_reboot_action Zeichenfolg reboot Ein alternativer Befehl der anstelle von e reboot ausgef hrt werden soll Einige Ger te unterst tzen die standardm igen Befehle nicht oder bieten zus tzliche Befehle Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Befehls f r die reboot Aktion pcmk_reboot_timeout Zeitspanne 60s Ein alternativer Wert f r die Zeit berschreitung bei Neustarts der anstellevon stonith timeout verwendet werden soll Einige Ger te ben tigen sehr viel weniger bzw mehr Zeit f r diese Aktion als normal Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Werts f r die Zeit berschreitung bei reboot Aktionen pcmk_reboot_retries Ganzzahl 2 Die maximale Anzahl von Neuversuchen f r den reboot Befehl innerhalb der Zeitspanne f r die Zeit berschreitung Einige Ger te unterst tzen keine mehrfachen Verbindungen Operationen k nnen fehlschlagen falls das Ger t mit einer anderen Operation besch ftigt ist weshalb Pacemaker die Operation automatisch erneut versucht falls noch gen gend Zeit bleibt Verwenden Sie diese Option um die Anzahl der Neuversuche von Pacemaker f r reboot Aktionen zu ver ndern bevor aufgegeben werden soll 23 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add O
110. resource update VirtualIP ip 192 169 0 120 pcs resource show VirtualIP Resource VirtualIP type IPaddr2 class ocf provider heartbeat Attributes 1p 192 169 0 120 cidr_netmask 24 Operations monitor interval 30s 5 8 Mehrere Uberwachungsoperationen Sie k nnen eine einzelne Ressource mit so vielen Uberwachungsoperationen konfigurieren wie ein Ressourcen Agent unterst tzt Auf diese Weise k nnen Sie jede Minute einen oberfl chlichen Funktionstest durchf hren sowie in gr eren Abst nden zunehmend intensive Funktionstests Anmerkung Bei der Konfiguration von mehreren berwachungsoperationen m ssen Sie sicherstellen dass keine zwei Operationen mit demselben Intervall durchgef hrt werden Um weitere berwachungsoperationen f r eine Ressource hinzuzuf gen die intensivere Tests auf verschiedenen Levels unterst tzt k nnen Sie die Option OCF_CHECK_LEVEL n hinzuf gen Falls Sie beispielsweise die folgende IPaddr2 Ressource konfigurieren erstellt dies standardm ig eine berwachungsoperation mit einem Intervall von 10 Sekunden und einem Timeout Wert von 20 Sekunden pcs resource create VirtualIP ocf heartbeat IPaddr2 ip 192 168 0 99 cidr_netmask 24 nic eth2 Falls die VirtuallP einen anderen Test mit einer Tiefe von 10 unterst tzt veranlasst der folgende Befehl Packemaker dazu alle 60 Sekunden einen umfassenderen berwachungstest durchzuf hren zus tzlich zum normalen VirtuallP Test alle 10 Sekunden Wie bereit
111. rlust der Verbindungsf higkeit leicht zeitversetzt bemerken multiplier Die Anzahl der verbundenen Ping Knoten wird mit dieser Zahl multipliziert um eine Gewichtung zu erhalten Dies ist hilfreich wenn mehrere Ping Knoten konfiguriert sind host_list Den zu kontaktierenden Rechner um den aktuellen Verbindungsstatus zu bestimmen Zul ssige Werte sind aufl sbare DNS Hostnamen und IPv4 und IPv6 Adressen Das folgende Beispiel erstellt eine ping Ressource welche die Verbindungsfahigkeit mit www example com pr ft In der Praxis w rden Sie die Verbindungsfahigkeit zu Ihrem Netzwerk Gateway oder Router prufen Konfigurieren Sie die ping Ressource als Klon damit die Ressource auf allen Cluster Knoten l uft pcs resource create ping ocf pacemaker ping dampen 5s multiplier 1000 host_list www example com clone Das folgende Beispiel konfiguriert eine Standortbeschr nkungsregel fur die vorhandene Ressource namens Webserver Dies veranlasst dieWebserver Ressource dazu auf einen Host zu wechseln der www example com anpingen kann falls ihr derzeitiger Host nicht mehr dazu in der Lage ist www example com anzupingen pcs constraint location Webserver rule score INFINITY pingd 1t 1 or not_defined pingd 7 4 Aktivieren Deaktivieren und Ausschlie en von Cluster Ressourcen Neben dem Befehl pcs resource move der in Abschnitt 7 1 Manuelles Verlegen von Ressourcen Mithilfe des folgenden Befehls k nnen Sie eine laufende
112. rwenden um die Parameter anzuzeigen die Sie f r diese Ressource festlegen k nnen pcs resource describe standard provider type type Beispielsweise zeigt der folgende Befehl die Parameter die Sie fur eine Ressource des Typs LVM festlegen k nnen pcs resource describe LVM Resource options for LVM volgrpname required The name of volume group exclusive If set the volume group will be activated exclusively partial_activation If set the volume group will be activated even only partial of the physicalvolumes available It helps to set to true when you are using mirroring logical volumes 5 4 Ressourcen Metaoptionen Zus tzlich zu den ressourcenspezifischen Parametern k nnen Sie weitere Ressourcenoptionen fur jede Ressource festlegen Diese Optionen werden vom Cluster verwendet um ber das Verhalten Ihrer Ressource zu entscheiden Tabelle 5 3 Ressourcen Metaoptionen beschreibt diese Optionen 29 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Tabelle 5 3 Ressourcen Metaoptionen Standard Beschreibung priority 0 Falls nicht alle Ressourcen aktiv sein k nnen wird der Cluster Ressourcen mit niedriger Priorit t stoppen um jene mit hoher Priorit t weiterhin aktiv ausf hren zu k nnen target role Started In welchem Status soll der Cluster die Ressource zu halten versuchen Zul ssige Werte Stopped Zwingt die Ressource in einen gestoppten Status
113. s oder var lib pcsd tokens gespeichert 3 1 2 Konfigurieren und Starten der Cluster Knoten Der folgende Befehl konfiguriert die Cluster Konfigurationsdatei und synchronisiert die Konfiguration auf den angegebenen Knoten Falls Sie die Option start angeben startet der Befehl zudem die Cluster Dienste auf den angegebenen Knoten Falls notwendig k nnen Sie die Cluster Dienste auch mit dem separaten Befehlpcs cluster start starten Falls Sie die Option local angeben f hrt der Befehl die nderungen nur auf dem lokalen Knoten durch pcs cluster setup start local name cluster_ name nodei1 node2 Der folgende Befehl startet die Cluster Dienste auf einem oder mehreren angegebenen Knoten Falls Sie die Option all angeben startet der Befehl die Cluster Dienste auf allen Knoten 14 Kapitel 3 Cluster Erstellung und Verwaltung Falls Sie keine Knoten angeben werden die Cluster Dienste nur auf dem lokalen Knoten gestartet pcs cluster start all node 3 2 Verwalten von Cluster Knoten Die folgenden Abschnitte beschreiben die Befehle die Sie zur Verwaltung von Cluster Knoten verwenden darunter Befehle zum Starten und Stoppen von Cluster Diensten und zum Hinzuf gen und Entfernen von Cluster Knoten 3 2 1 Stoppen von Cluster Diensten Der folgende Befehl stoppt Cluster Dienste auf einem oder mehreren angegebenen Knoten Wie auch beim Befehl pcs cluster start stoppt die Option all die Clus
114. s erw hnt sollten Sie die zus tzliche Uberwachungsoperation nicht ebenfalls mit einem 10 Sekunden Intervall konfigurieren pcs resource op add VirtualIP monitor interval 60s OCF_CHECK_LEVEL 10 5 9 Aktivieren und Deaktivieren von Cluster Ressourcen Der folgende Befehl aktiviert die anhand der resource_id angegebene Ressource pcs resource enable resource_id Der folgende Befehl deaktiviert die anhand der resource_id angegebene Ressource pcs resource disable resource_id 5 10 Bereinigen von Cluster Ressourcen 37 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Falls eine Ressource ausgefallen ist erscheint eine Fehlermeldung wenn Sie den Cluster Status anzeigen Falls Sie diese Ressource anschlie end wiederherstellen k nnen Sie den Fehlerstatus mithilfe des Befehls pcs resource cleanup bereinigen Dieser Befehl setzt den Status und den Ausfallz hler der Ressource zur ck und weist den Cluster an die Operationschronik einer Ressource zu vergessen und deren aktuellen Status neu zu erkennen Der folgende Befehl bereinigt die anhand der resource_id angegebene Ressource pcs resource cleanup resource_id 38 Kapitel 6 Ressourcenbeschrankungen Kapitel 6 Ressourcenbeschrankungen Sie k nnen das Verhalten einer Ressource im Cluster bestimmen indem Sie Ressourcenbeschr nkungen f r diese Ressource festlegen Die folgenden Kategorien f r Beschr nkungen stehen zur Verf gung
115. schrankungen Tabelle 6 2 Eigenschaften einer Reihenfolgebeschr nkung Beschreibung resource id Der Name der Ressource auf der eine Aktion durchgef hrt wird action Die Aktion die aufeiner Ressource durchgef hrt werden soll M gliche Werte der action Eigenschaft sind start Startet die Ressource stop Stoppt die Ressource promote Stuft die Ressource von einer Slave Ressource Zu einer Master Ressource hoch demote Stuft die Ressource von einer Master Ressource zu einer Slave Ressource zur ck Falls keine Aktion angegeben wird lautet die Standardaktion start Informationen Uber Master und Slave Ressourcen finden Sie in Abschnitt 8 2 Multi Status Ressourcen Ressourcen mit mehreren Modi kind Option Wie die Beschr nkung erzwungen wird M gliche Werte der kind Option sind Optional Nur zutreffend falls beide Ressourcen starten bzw stoppen Informationen ber eine optionale Reihenfolge finden Siein Abschnitt 6 2 2 Optionale Reihenfolge Mandatory Immer Standardwert Falls die erste angegebene Ressource gestoppt ist oder nicht starten kann muss die zweite angegebene Ressource gestoppt werden Informationen ber die Mandatory Reihenfolge finden Sie in Abschnitt 6 2 1 Zwingende Reihenfolge Serialize Gew hrleistet dass keine zwei Stopp Startaktionen gleichzeitig f r eine Gruppe von Ressourcen erfolgen symmetrical Option Falls true werden die Ressourcen in der umgekehrte
116. sourcen als Master bzw Slave Ressource definieren sodass diese in mehreren Modi laufen k nnen Weitere Informationen ber geklonte Ressourcen und Master Slave Ressourcen finden Sie in Kapitel 8 Erstellen Sie ein Fencing Ger t f r jeden Knoten mit dem Befehl pcs stonith create Ger te die mehrere Knoten abgrenzen k nnen brauchen Sie nur einmal zu definieren statt separat f r jeden Knoten Siek nnen auch pcmk_host_map definieren um mit einem einzigen Befehl Fencing Ger te f r alle Knoten zu konfigurieren Weitere Informationen ber pcmk_host_map finden Sie in Tabelle 4 1 Allgemeine Bennnsunuunnunuuuuuneum Sie k nnen den Wert f r den stonith timeout f r den gesamten Cluster definieren Konfigurieren Sie Fencing Level A 2 Cluster Erstellung mit Pacemaker i in Red Hat Enterprise Linux mr _ I__ _ _ r r_ lm__l Pins PP ink amp 22 5 m_ I__ _ DRPR A 73 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker KEeIease 0 9 UNG KEG Hal ENLErprise LINUX KEICASE 0 0 Um in Red Hat Enterprise Linux 6 5 einen Pacemaker Cluster zu erstellen m ssen Sie den Cluster erstellen und die Cluster Dienste auf jedem Knoten im Cluster starten Um beispielsweise einen Cluster namens my_cluster zu erstellen der aus den Knoten z1 example com und z2 example com besteht und Cluster Dienste auf diesen Knoten zu starten f hren Sie die folgenden Befehle sowohl auf z1
117. standardm igen Befehle nicht oder bieten zus tzliche Befehle Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Befehls f r die monitor Aktion Ein alternativer Wert f r die Zeit berschreitung bei monitor Aktionen der anstelle von stonith timeout verwendet werden soll Einige Ger te ben tigen sehr viel weniger bzw mehr Zeit f r diese Aktion als normal Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Werts f r die Zeit berschreitung bei monitor Aktionen Die maximale Anzahl von Neuversuchen f r den monitor Befehl innerhalb der Zeitspanne f r die Zeit berschreitung Einige Ger te unterst tzen keine mehrfachen Verbindungen Operationen k nnen fehlschlagen falls das Ger t mit einer anderen Operation besch ftigt ist weshalb Pacemaker die Operation automatisch erneut versucht falls noch gen gend Zeit bleibt Verwenden Sie diese Option um die Anzahl der Neuversuche von Pacemaker f r monitor Aktionen zu ver ndern bevor aufgegeben werden soll Ein alternativer Befehl der anstelle von status ausgef hrt werden soll Einige Ger te unterst tzen die standardm igen Befehle nicht oder bieten zus tzliche Befehle Verwenden Sie dies zur Angabe eines alternativen ger tespezifischen Befehls f r die status Aktion 25 Red Hat Enterprise Linux 6 Konfiguration des Red Hat High Availability Add Ons mit Pacemaker Standard Beschreibung
118. t istin Gruppen kumulativ Jede aktive Ressource der Gruppe tr gt seinen Treuewert zum Gesamtwert der Gruppe bei Falls die standardm ige Gruppentreue einer Ressource resource stickiness 100 betr gt und eine Gruppe sieben Mitglieder hat von denen f nf inaktiv sind dann m chte die Gruppe insgesamt am derzeitigen Standort bleiben mit einem Treuewert von 500 46 Kapitel 6 Ressourcenbeschrankungen Kapitel 7 Verwalten von Cluster Ressourcen Dieses Kapitel beschreibt die verschiedenen Befehle die Sie zur Verwaltung der Cluster Ressourcen verwenden k nnen Es liefert Informationen zu den folgenden Verfahren Abschnitt 7 1 Manuelles Verlegen von Ressourcen im Cluster 7 1 Manuelles Verlegen von Ressourcen im Cluster Sie k nnen die Einstellungen des Clusters au er Kraft setzen und Ressourcen an einen anderen Standort zwingen Daf r gibt es zwei Anwendungsf lle Wenn ein Knoten gewartet wird und Sie alle auf diesem Knoten laufenden Ressourcen aufeinen anderen Knoten verlegen m ssen Wenn eine einzelne Ressource verlegt werden muss Um alle auf einem Knoten laufenden Ressourcen aufeinen anderen Knoten zu verlegen versetzen Sie den Knoten in den Standby Modus Informationen ber das Versetzen eines Cluster Knotens in den Standby Modus finden Sie in Abschnitt 3 2 4 Standby Modus Um eine Ressource von dem Knoten auf dem sie derzeit l uft wegzuverlegen verwenden Sie den folgenden Befehl und geben Sie dabei di
119. tandteil des Resilient Storage Add Ons ist DM Multipath Liefert Informationen ber die Verwendung des Device Mapper Multi Pathing Features von Red Hat Enterprise Linux 6 Verwaltung der Lastverteilung Liefert Informationen zur Konfiguration von Hochleistungssystemen und diensten mit dem Red Hat Load Balancer Add On einer Gruppe integrierter Softwarekomponenten die Linux Virtual Server LVS bereitstellen um IP Lasten ber eine Gruppe realer Server zu verteilen Versionshinweise Liefert Informationen ber die jeweils aktuelle Version der Red Hat Produkte Die Dokumentation der Red Hat Cluster Suite und andere Red Hat Dokumente stehen als HTML PDF und RPM Versionen auf der Red Hat Enterprise Linux Dokumentations CD und online unter 1 Dokumentkonventionen Dieses Handbuch verwendet mehrere Konventionen um bestimmte W rter und S tze hervorzuheben und Aufmerksamkeit auf bestimmte Informationen zu lenken 1 1 Typografische Konventionen Es werden vier typografische Konventionen verwendet um die Aufmerksamkeit auf bestimmte W rter und Satze zu lenken Diese Konventionen und die Umstande unter denen sie auftreten sind folgende Nichtproportional Fett Dies wird verwendet um Systemeingaben hervorzuheben einschlie lich Shell Befehle Dateinamen und pfade Es wird ebenfalls zum Hervorheben von Tasten und Tastenkombinationen verwendet Zum Beispiel Um den Inhalt der Datei my_next_bestselling_ novel in Ihrem aktu
120. ter Dienste auf allen Knoten und falls Sie keinen Knoten angeben werden die Cluster Dienste nur auf dem lokalen Knoten gestoppt pcs cluster stop all node Sie k nnen den Stopp der Cluster Dienste auf dem lokalen Knoten mithilfe des folgenden Befehls erzwingen wodurch der Befehl kill 9 ausgef hrt wird pcs cluster kill 3 2 2 Aktivieren und Deaktivieren der Cluster Dienste Verwenden Sie den folgenden Befehl um die Cluster Dienste auf einem oder mehreren angegebenen Knoten so zu konfigurieren dass diese beim Systemstart starten Falls Sie die Option all angeben aktiviert der Befehl die Cluster Dienste auf allen Knoten Falls Sie keine Knoten angeben werden die Cluster Dienste nur auf dem lokalen Knoten aktiviert pcs cluster enable all node Verwenden Sie den folgenden Befehl um die Cluster Dienste auf einem oder mehreren angegebenen Knoten so zu konfigurieren dass diese nicht beim Systemstart starten Falls Sie die Option all angeben deaktiviert der Befehl die Cluster Dienste auf allen Knoten Falls Sie keine Knoten angeben werden die Cluster Dienste nur auf dem lokalen Knoten deaktiviert pcs cluster disable all node 3 2 3 Hinzuf gen und Entfernen von Cluster Knoten Der folgende Befehl f gt einen neuen Knoten zu einem vorhandenen Cluster hinzu Dieser Befehl synchronisiert zudem die Cluster Konfigurationsdatei cluster conf auf allen Knoten im Cluster einschlie lich dem neu
121. tigen Level beendet In diesem Level werden keine weiteren Ger te versucht stattdessen wird mit dem n chsten Level fortgefahren Falls alle Ger te erfolgreich abgegrenzt werden dann war dieser Level erfolgreich und keine anderen Levels werden probiert Die Operation istabgeschlossen wenn ein Level erfolgreich war oder wenn alle Levels erfolglos versucht wurden Verwenden Sie den folgenden Befehl um ein Fencing Level zu einem Knoten hinzuzuf gen Die Ger te werden als kommagetrennte Liste mit stonith IDs angegeben die f r diesen Knoten auf diesem Level versucht werden pcs stonith level add level node devices Der folgende Befehl listet alle Fencing Levels auf die derzeit konfiguriert sind pcs stonith level In dem folgenden Beispiel sind f r den Knoten rh7 2 zwei Fencing Ger te konfiguriert ein ilo 26 Fencing Gerat namens my_ilo und ein apc Fencing Gerat namens my_apc Diese Befehle richten Fencing Levels ein sodass im Falle eines Ausfalls des Ger ts my_1lo Pacemaker stattdessen das Ger tmy_apc zu verwenden versuchen wird Dieses Beispiel zeigt auch die Ausgabe des Befehls pcs stonith level nachdem die Levels konfiguriert wurden pcs stonith level add 1 rh7 2 my_ilo pcs stonith level add 2 rh7 2 my_apc pcs stonith level Node rh7 2 Level 1 my_ilo Level 2 my_apc Der folgende Befehl entfernt das Fencing Level f r den angegebenen Knoten und die angegebenen Ger te Falls keine Knoten oder Ger te angegeben
122. tion verwendet die Sie in Abschnitt B 3 2 Webserver Konfiguration definiert haben Das folgende Verfahren erstellt die Ressourcengruppe apachegroup sowie die Ressourcen die diese Gruppe enth lt Die Ressourcen starten in der Reihenfolge in der Sie diese zur Gruppe hinzuf gen und sie stoppen in der umgekehrten Reihenfolge in der Sie zur Gruppe hinzugef gt wurden F hren Sie dieses Verfahren nur auf einem Knoten im Cluster aus 82 1 Der folgende Befehl erstellt die LVM Ressource my_lvm Dieser Befehl legt den Parameter exclusive true fest um sicherzustellen dass nur der Cluster dazu in der Lage ist den logischen LVM Datentrager zu aktivieren Da die Ressourcengruppe apachegroup noch nicht existiert erstellt dieser Befehl diese Ressourcengruppe root z1 pcs resource create my_lvm LVM volgrpname my_vg exclusive true group apachegroup Wenn Sie eine Ressource erstellen wird die Ressource automatisch gestartet Mithilfe des folgenden Befehls k nnen Sie best tigen dass die Ressource erstellt und gestartet wurde pcs resource show Resource Group apachegroup my_lvm ocf heartbeat LVM Started Sie k nnen eine einzelne Ressource manuell stoppen und starten mit den Befehlen pcs resource disable bzw pcs resource enable 2 Die folgenden Befehle erstellen die brigen Ressourcen f r die Konfiguration und f gen diese zur Ressourcengruppe apachegroup hinzu root z1 pcs resource create my_fs Filesystem devi
123. tionen f r Seitenansprachen Ausgaben des Terminals und Ausz ge aus dem Quellcode werden visuell vom umliegenden Text hervorgehoben durch sogenannte Seitenansprachen auch Pull Quotes genannt Eine an das Terminal gesendete Ausgabe wird in den Schrifttyp nichtproportional Roman gesetzt und wie folgt dargestellt books Desktop documentation drafts mss photos stuff svn books_tests Desktop1 downloads images notes scripts svgs Ausz ge aus dem Quellcode werden ebenfalls in den Schrifttyp nichtproportional Roman gesetzt doch wird zusatztlich noch die Syntax hervorgehoben static int kvm_vm_ioctl_deassign_device struct kvm kvm struct kvm_assigned_pci_dev assigned_dev inter 0 struct kvm_assigned_dev_kernel match mutex_lock amp kvm gt lock match kvm_find_assigned_dev amp kvm gt arch assigned_dev_head assigned_dev gt assigned_dev_id if match printk KERN_INFO s device hasn t been assigned before Einf hrung so cannot be deassigned n __func__ r EINVAL goto out kvm_deassign_device kvm match kvm_free_assigned_device kvm match out mutex_unlock amp kvm gt lock return r 1 3 Anmerkungen und Warnungen Zu guter Letzt verwenden wir drei visuelle Stile um die Aufmerksamkeit auf Informationen zu lenken die andernfalls vielleicht bersehen werden k nnten Anmerkung Eine Anmerkung ist ein Tipp ein abgek rztes Verfahren oder ein alternativer Ansatz f r die vorlieg
124. urcen und deren konfigurierten Parameter anzuzeigen pcs resource show full Resource VirtualIP type IPaddr2 class ocf provider heartbeat Attributes ip 192 168 0 120 cidr_netmask 24 Operations monitor interval 30s Resource WebSite type apache class ocf provider heartbeat Attributes statusurl http localhost server status configfile etc httpd conf httpd conf Operations monitor interval imin Verwenden Sie den folgenden Befehl um die konfigurierten Parameter fur eine Ressource anzuzeigen pcs resource show resource_id Beispielsweise zeigt der folgende Befehl die derzeit konfigurierten Parameter der Ressource VirtualIP an pcs resource show VirtualIP Resource VirtualIP type IPaddr2 class ocf provider heartbeat Attributes ip 192 168 0 120 cidr_netmask 24 Operations monitor interval 30s 5 7 Andern von Ressourcenparametern Verwenden Sie den folgenden Befehl um die Parameter einer konfigurierten Ressource Zu ndern pcs resource update resource id resource_options Die folgende Befehlssequenz zeigt die urspr nglichen Werte der konfigurierten Parameter f r die Ressource VirtualIP die Befehle zum ndern des Werts f r den Parameter ip sowie die Werte nach erfolgter nderung pcs resource show VirtualIP Resource VirtualIP type IPaddr2 class ocf provider heartbeat 36 Kapitel 5 Konfigurieren von Cluster Ressourcen Attributes ip 192 168 0 120 cidr_netmask 24 Operations monitor interval 30s pcs
125. usterMon user root update 30 extra_options S snmphost example com C public clone Das folgende Beispiel konfiguriert eine CLusterMon Ressource namens ClusterMon External die das Programm usr local bin example sh ausf hrt das bestimmt wie mit Cluster Benachrichtigungen umzugehen ist Diese Ressource wird als Klon erstellt damit sie aufjedem Knoten im Cluster l uft pcs resource create ClusterMon External ClusterMon clone user root update 30 extra_options E usr local bin example sh e 192 168 12 1 8 4 Der Dienst pacemaker_remote Der Dienst pacemaker_remote erm glicht es Knoten die corosync nicht ausf hren in den Cluster zu integrieren und deren Ressourcen Zu verwalten als handele es sich um echte Cluster Knoten Dies bedeutet dass Pacemaker Cluster nun dazu in der Lage sind virtuelle Umgebungen KVM LXC sowie die Ressourcen innerhalb dieser Umgebungen zu verwalten ohne dass in diesen virtuellen Umgebungen pacemaker oder corosync ausgef hrt werden muss Die folgenden Begriffe beschreiben den Dienst pacemaker_remote Cluster Knoten Ein Knoten der die Hochverf gbarkeitsdienste pacemaker und corosync ausf hrt Remote Knoten Ein Knoten der pacemaker_remote ausf hrt um sich von Remote aus in den Cluster zu integrieren ohne eine corosync Cluster Mitgliedschaft zu erfordern Container Eine Pacemaker Ressource die weitere Ressourcen enth lt Beispielsweise eine virtuelle KVM Maschine die
126. witches und Fibre Channel Switches notwendig sind Ein Power Fencing Ger t f r jeden Knoten im Cluster Dieses Beispiel verwendet zwei Ports des APC Power Switches mit dem Hostnamen zapc example com B 1 Erste Systemeinrichtung Dieser Abschnitt beschreibt die ersten Einrichtungsschritte fur das System das Sie zur Erstellung des Clusters nutzen werden B 1 1 Installieren der Cluster Software F hren Sie die folgenden Schritte aus um die Cluster Software zu installieren 1 Vergewissern Sie sich dass pacemaker cman und pcs installiert sind yum install y pacemaker cman pcs 2 F hren Sie nach der Installation den folgenden Befehl auf allen Knoten im Cluster aus um zu verhindern dass corosync ohne cman startet chkconfig corosync off 3 Falls Sie sichergehen m chten dass cman auch ohne Quorum bei mehr als zwei Knoten im Cluster vollst ndig startet f hren Sie den folgenden Befehl aus sed 1 sed s CMAN_QUORUM_TIMEOUT CMAN_QUORUM_TIMEOUT 0 g etc sysconfig cman B 1 2 Erstellen und Starten des Clusters Dieser Abschnitt zeigt die notwendigen Schritte zum Erstellen des anf nglichen Clusters auf dem Sie dann die Cluster Ressourcen konfigurieren 75 1 Um pcs zur Konfiguration der Knoten und zur Kommunikation der Knoten untereinander Zu verwenden m ssen Sie auf jedem Knoten ein Passwort f r die Benutzer ID hacluster den pcs Administrationsaccount festlegen Es empfiehltsich auf allen Knoten d
Download Pdf Manuals
Related Search
Related Contents
Da-Lite Fast-Fold Mini-Fold CRU ToughTech Duo QR Manual de Instruções Brodit ProClip 855018 Operation Manual - SPX Corporation page 15-27 Mode d`emploi INDUCAST anglais Deutsch - M&C TechGroup Fujifilm EF-42 mCamView for iPhone User Manual Copyright © All rights reserved.
Failed to retrieve file