Home
Global File System 2 - Red Hat Customer Portal
Contents
1. Weitere Informationen ber Bind Mounts und kontextabh ngige Pfade in GFS2 finden Sie in Abschnitt 4 12 Bind Mounts und kontextabh ngige Pfade B 2 Verfahren zur Konvertierung von GFS in GFS2 Verwenden Sie folgendes Verfahren um ein GFS Dateisystem in ein GFS2 Dateisystem zu konvertieren 1 Erstellen Sie auf einem Red Hat Enterprise Linux System eine Datensicherung Ihres vorhandenen GFS Dateisystems 2 H ngen Sie das GFS Dateisystem auf allen Knoten im Cluster aus 3 F hren Sie den gfs_fsck Befehl auf dem GFS Dateisystem aus um sicherzustellen dass das Dateisystem fehlerfrei ist 4 F hren Sie den Befehl gfs2_convert gfsfilesystem aus Das System zeigt daraufhin Warnmeldungen und fordert zur Best tigung auf bevor das gfsfilesystem nach GFS2 konvertiert wird 5 Aktualisieren Sie auf Red Hat Enterprise Linux 6 Das folgende Beispiel konvertiert ein GFS Dateisystem auf dem Blockger t dev shell_vg 500g in ein GFS2 Dateisystem root shell 01 root cluster gfs2 convert gfs2_convert dev shell_vg 500g gfs2_convert version 2 built May 10 2010 10 05 40 Copyright C Red Hat Inc 2004 2006 All rights reserved Examining file SV SECM oo ea ec cy ey This program will convert a gfsi filesystem to a gfs2 filesystem WARNING This can t be undone It is strongly advised that you Back up your entire filesystem first Run gfs_fsck first to ensure filesystem integrity Make sure the filesystem is NOT mo
2. Der Zeitpunkt an dem zum letzten Mal der Inode Status verandert wurde mtime Der Zeitpunkt an dem zum letzten Mal die Datei oder das Verzeichnis ver ndert wurde atime Der Zeitpunkt an dem zum letzten Mal auf die Datei oder das Verzeichnis zugegriffen wurde Falls die atime Aktualisierung aktiviert ist was standardm ig bei GFS2 und anderen Linux Dateisystemen der Fall ist dann muss jedes Mal wenn die Datei gelesen wird dessen Inode aktualisiert werden Da nur wenige Applikationen die atime Informationen nutzen k nnen diese Aktualisierungen eine gro e Menge unn tiger Schreibvorgange und Dateisperrvorg nge verursachen Diese Vorg nge k nnen die Leistung beeintr chtigen daher kann es ggf empfehlenswert sein die atime Aktualisierung zu deaktivieren oder deren H ufigkeit einzuschr nken Zwei Methoden stehen zur Verf gung um die Auswirkungen von atime Aktualisierungen zu reduzieren H ngen Sie das Dateisystem mit relatime relative atime ein wodurch atime aktualisiert wird falls die vorherige atime Aktualisierung lter als die mtime oder die ctime Aktualisierung ist H ngen Sie das Dateisystem mitnoatime ein wodurch atime Aktualisierungen f r dieses Dateisystem deaktiviert werden 4 9 1 Einh ngen mit relatime Die Linux Einh ngeoption relatime relative atime kann beim Einh ngen des Dateisystems angegeben werden Dadurch wird atime aktualisiert falls die vorherige atime Aktualisierung lter
3. lsattr mnt gfs2 gfs2_dir j mnt gfs2 gfs2_dir newfile Die folgenden Befehle deaktivieren das Datenjournaling auf der Datei mnt gfs2 gfs2_dir newfile und berpr fen anschlie end ob das Flag richtig gesetzt wurde root roth 01 chattr j mnt gfs2 gfs2_dir newfile root roth 01 lsattr mnt gfs2 gfs2_dir mnt gfs2 gfs2_dir newfile fr larnha mila Cisrctam 9 Global File System 2 Sie k nnen den chattr Befehl auch dazu verwenden um das j Flag auf einem Verzeichnis zu setzen Wenn Sie dieses Flag auf einem Verzeichnis setzen werden alle nachfolgend in diesem Verzeichnis erstellten Dateien und Unterverzeichnisse journalisiert Die folgenden Befehle setzen das j Flag auf dem gfs2_dir Verzeichnis und berpr fen danach ob das Flag richtig gesetzt wurde Anschlie end erstellen diese Befehle eine neue Datei namens newfile im Verzeichnis mnt gfs2 gfs2_dir und berpr fen danach ob das j Flag f r die Datei gesetzt wurde Da das j Flag f r das Verzeichnis gesetzt wurde sollte auch f r die newfile Datei das Journaling aktiviert sein root roth 01 chattr j mnt gfs2 gfs2_dir root roth 01 lsattr mnt gfs2 j mnt gfs2 gfs2_dir root roth 01 touch mnt gfs2 gfs2_dir newfile root roth 01 lsattr mnt gfs2 gfs2_dir j mnt gfs2 gfs2_dir newfile 4 9 Konfigurieren der atime Aktualisierungen Jeder Datei Inode und Verzeichniss Inode hat drei Timestamps ctime
4. Anhang B Konvertieren eines Dateisystems von GFS auf GFS2 Da die Red Hat Enterprise Linux 6 Release keine GFS Dateisysteme unterst tzt m ssen Sie jegliche vorhandenen GFS Dateisysteme mithilfe des gfs2_convert Befehls in GFS2 Dateisysteme konvertieren Beachten Sie dass Sie diesen Konvertierungsprozess auf dem Red Hat Enterprise Linux 5 System ausf hren m ssen noch bevor Sie auf Red Hat Enterprise Linux 6 aktualisieren Bevor Sie das GFS Dateisystem konvertieren m ssen Sie eine Sicherungskopie des Dateisystems anlegen da der Konvertierungsprozess nicht umkehrbar ist und m glicherweise auftretende Fehler w hrend der Konvertierung zu einem pl tzlichen Abbruch des Programms und infolgedessen zu einem irreparabel besch digten Dateisystem f hren k nnen Bevor Sie das GFS Dateisystem konvertieren verwenden Sie den gfs_fsck Befehl um das Dateisystem zu berpr fen und eventuelle Fehler zu beseitigen Falls die Konvertierung von GFS zu GFS2 durch einen Stromausfall oder hnliches unterbrochen wird starten Sie das Konvertierungstool neu Versuchen Sie nicht den fsck gfs2 Befehl auf dem Dateisystem auszuf hren ehe der Konvertierungsvorgang abgeschlossen wurde Wenn Sie ein volles oder beinahe volles Dateisystem konvertieren bietet dies unter Umst nden nicht mehr ausreichend Platz f r die GFS2 Dateisystemstrukturen In diesem Fall wird die Gr e aller Journale gleichm ig reduziert sodass alles in den verf gbaren Platz
5. Dieser Anhang basiert in Ausz gen auf einer Ver ffentlichung von Steve Whitehouse das beim Linux Symposium 2009 Va Eu ee unter http Higit kernel SLA Informationen ber das trace cmd Dienstprogramm finden Sie unter http Iwn net Articles 341902 80 Anhang D Versionsgeschichte Version 7 1 3 2 Fri Jun 26 2015 Hedda Peters Deutsche Ubersetzung fertiggestellt Version 7 1 3 1 Fri Jun 26 2015 Hedda Peters Ubersetzungsdateien synchronisiert mit XML Quellen 7 1 3 Version 7 1 3 Tue Dec 16 2014 Steven Levine Implementierung von sort_order auf der RHEL 6 Splash Seite Version 7 0 9 Wed Oct 8 2014 Steven Levine Version fur 6 6 GA Release Version 7 0 8 Thu Aug 7 2014 Steven Levine Version f r 6 6 Beta Release Version 7 0 4 Thu Jul 17 2014 Steven Levine Behebt 1102591 Fugt eine Prozedur zur Konfiguration von GFS2 in einem Pacemaker Cluster hinzu Version 7 0 3 Wed Jul 16 2014 Steven Levine Behebt 1035119 Aktualisiert die Tabelle der Glock Flags und f gt einen Abschnitt ber Glock Statistiken hinzu Version 7 0 1 Thu Jun 5 2014 Steven Levine Erster Entwurf f r 6 6 Release Version 6 0 6 Wed Nov 13 2013 Steven Levine Version f r 6 5 GA Release Version 6 0 5 Fri Sep 27 2013 Steven Levine Version f r 6 5 Beta Release Version 6 0 3 Fri Sep 27 2013 Steven Levine Behebt 960841 Verdeutlicht die fehlende Unterst tzung f r SELinux mit GFS2 Dateisystemen Version 6 0 1 Fri Sep 06 2013 Steven Levine Hinweis ber Samba u
6. Zum Lesen der Tracepoint Daten steht ein Dienstprogramm namens trace cmd zur Verf gung Weitere ERREN zu diesem Dienstprogramm finden Sie unter dem Link i in Abschnitt C 10 Diensiprogramm verwendet werden zum Beispiel zur Ausf hrung eines Befehls w hrend Trace Daten aus verschiedenen Quellen gesammelt werden C 3 Glocks F r das Verst ndnis von GFS2 istes notwendig das wichtigste Konzept zu verstehen das es von anderen Dateisystemen unterscheidet Das Konzept der Glocks In Quellcode Begriffen ist ein Glock eine Datenstruktur die DLM und Caching in einem Single State Rechner vereinigt Jedes Glock hat eine 1 1 Beziehung mit einer einzigen DLM Sperre und bietet Caching f r diesen Sperrstatus sodass wiederholt durchgef hrte Operationen von einem einzelnen Knoten des Dateisystems nicht immer wieder den DLM aufrufen m ssen was unn tigen Netzwerkverkehr vermeidet Es gibt zwei wesentliche Kategorien von Glocks Solche die Metadaten cachen und solche die dies nicht tun Die Inode Glocks und die Ressourcengruppen Glocks cachen beide Metadaten andere Arten von Glocks cachen Metadaten nicht Der Inode Glock cacht dar berhinaus auch Daten und hatvon allen Glocks die aufwendigste Logik Tabelle C 1 Glock Modus und DLM Sperrmodus Glock Modus DLM Sperrmodus Anmerkungen UN IV NL Nicht gesperrt keine DLM Sperre Zu Glock oder NL Sperre zugewiesen abh ngig vom I Flag SH PR Gemeinsame Sperre gesch tztes Lesen EX EX Exklusiv
7. gesetzt Um bei diesen Konflikten um eine Sperre das Verhungern engl starvation zu verhindern wird jeder Sperre eine Mindesthaltezeit zugewiesen Ein Knoten der die Sperre noch nicht f r die Mindesthaltezeit gehalten hat darf diese Sperre behalten bis diese Zeitspanne abgelaufen ist Wenn die Zeit abgelaufen ist wird das D demote Flag gesetzt und der ben tigte Status wird aufgezeichnet In diesem Fall wird wenn es das n chste Mal keine erteilten Sperren in der Halter Warteschlange gibt die Sperre herabgestuft werden Wenn das Zeitintervall noch nicht abgelaufen ist dann wird stattdessen das d demote pending Flag gesetzt Dies weist auch die State Machine dazu an das Flag d demote pending zu l schen und stattdessen D demote zu setzen sobald die Mindesthaltezeit abgelaufen ist Das initial Flag wird gesetzt wenn dem Glock eine DLM Sperre zugewiesen wurde Dies geschieht wenn das Glock zum ersten Mal verwendet wird das I Flag bleibt anschlie end gesetzt bis das Glock schlie lich freigegeben wird was die DLM Sperre aufhebt C 5 Glock Halter Tabelle C 5 Glock Halter Flags Flag Name Bedeutung a Async Nicht auf das Glock Ergebnis warten Ergebnis wird sp ter abgerufen A Any Jeder kompatible Sperrmodus ist zul ssig c No cache Wenn nicht gesperrt sofort DLM Sperre herabstufen e No expire Nachfolgende Anfragen zur Aufhebung der Sperre ignorieren Exact Muss den exakten Sperrmodus haben F Fir
8. gfs2 Befehl auszuf hren bevor Sie das Dateisystem wieder einh ngen Um in diesem Fall zu verhindern dass Ihr Dateisystem beim Neustart wieder eingeh ngt wird f hren Sie die folgenden Schritte aus 1 Deaktivieren Sie vor bergehend das Startup Skript auf dem betroffenen Knoten mit dem folgenden Befehl chkconfig gfs2 off 2 Starten Sie den betroffenen Knoten neu und starten Sie die Cluster Software Das GFS2 Dateisystem wird nicht eingeh ngt werden 3 H ngen Sie das Dateisystem auf allen Knoten im Cluster aus 4 F hren Sie auf nur einem Knoten den fsck gfs2 Befehl auf dem Dateisystem aus um sicherzustellen dass das Dateisystem nicht besch digt ist 5 Aktivieren Sie wieder das Startup Skript auf dem betroffenen Knoten mit dem folgenden Befehl chkconfig gfs2 on 6 H ngen Sie das GFS Dateisystem auf allen Knoten im Cluster neu ein Ein Beispiel f r eine Inkonsistenz die zu einem GFS2 R ckzug f hrt ist eine fehlerhafte Blockanzahl Wenn der GFS Kernel eine Datei aus einem Dateisystem l scht entfernt er systematisch s mtliche zu dieser Datei geh rende Daten und Metadaten Bl cke Sobald er damit fertig ist berpr ft er die Blockanzahl Falls die Blockanzahl nicht eins ist was bedeutet dass nur der Festplatten Inode selbst Ubrig ist weist dies auf eine Dateisysteminkonsistenz hin da die Blockanzahl nicht mit der Liste der gefundenen Bl cke bereinstimmt Sie k nnen die GFS2 Ruckzugsfunktion au
9. k nnen Sie das jdata Flag auf dem Verzeichnis setzen oder Sie k nnen den chattr Befehl verwenden um das Flag j auf dem Verzeichnis zu setzen Die Verwendung des chattr Befehls ist die bevorzugte Methode um das Daten Journaling aufeiner Datei zu aktivieren bzw zu deaktivieren Anmerkung Ab der Red Hat Enterprise Linux 6 2 Release unterst tzt GFS2 den tuneg fs2 Befehl der einige der Funktionen des gfs2_tool Befehls ersetzt Weitere Informationen finden Sie auf der man Seite von tunegfs2 Die Funktionen settune und gettune des gfs2_tool Befehls wurden durch Befehlszeilenoptionen des mount Befehls ersetzt was es Ihnen erm glicht diese bei Bedarf mithilfe der fstab Datei einzustellen 1 4 2 9 Der gfs2_edit Befehl Der gfs2_edit Befehl unterst tzt eine andere Reihe von Optionen f r GFS2 als der gfs_edit Befehl f r GFS Weitere Informationen ber die einzelnen Optionen die jede Version des Befehls unterst tzt finden Sie aufden man Seiten f rgfs2_edit und gfs_edit 1 4 3 Verbesserung der GFS2 Leistung Viele Funktionen des GFS2 Dateisystems bringen zwar keine Ver nderung an der Benutzerschnittstelle des GFS Dateisystems mit sich verbessern jedoch die Leistung des Dateisystems Ein GFS2 Dateisystem bietet in den folgenden Aspekten eine verbesserte Dateisystemleistung Bessere Leistung bei intensiver Benutzung eines einzelnen Verzeichnisses Schnellere synchrone I O Operationen Schnelleres Lesen des Caches kein Sperr Mehrau
10. k nnen Sie die Gr e der Journale festlegen Wenn Sie keine Gr e angeben wird sie auf 128 MB festgelegt was f r die meisten Anwendungen optimal sein d rfte Einige Systemadministratoren k nnten meinen dass 128 MB zu gro ist und versuchen die Gr e des Journals auf das Minimum von 8 MB oder auf konservativere 32 MB zu reduzieren Dies k nnte zwar funktionieren kann sich jedoch stark auf den Durchsatz auswirken Wie in vielen Journaling Dateisystemen werden jedes Mal wenn GFS2 Metadaten schreibt die Metadaten in das Journal bergeben bevor sie an ihren Platz geschrieben werden Dadurch wird sichergestellt dass im Falle eines Systemabsturzes oder Stromausfalls alle Metadaten wiederhergestellt werden wenn das Journal automatisch beim Einh ngen wieder eingespielt wird Allerdings ist nicht viel Aktivit t auf dem Dateisystem notwendig um ein 8 MB kleines Journal zu f llen und wenn das Journal voll ist verlangsamt sich die Leistung da GFS2 auf die Schreibvorg nge in den Speicher warten muss Es wird allgemein empfohlen die standardm ige Journalgr e von 128 MB zu verwenden Wenn Ihr Dateisystem sehr klein ist z B 5 GB k nnte ein 128 MB Journal unpraktisch sein Wenn Sie ein gr eres Dateisystem nutzen und den Platz daf r haben k nnten Journale mit 256 MB die Leistung verbessern 2 1 5 Gr e und Anzahl der Ressourcengruppen Wenn ein GFS2 Dateisystem mit dem Befehl mkfs gfs2 erstellt wird teiltes den S
11. schon sagt eine Versuchssperre die nichts besonderes macht Die T try 1CB Sperre ist identisch mit der t Sperre mit dem Unterschied dass der DLM einen einzelnen Callback an die derzeitigen Halter der inkompatiblen Sperre sendet Ein Anwendungsfall der T try 1CB Sperre ist zusammen mit den iopen Sperren die verwendet werden um zwischen den Knoten zu vermitteln wenn die 1_nlink Anzahl eines Inodes Null ist um zu bestimmen welche der Knoten f r das Freigeben des Inodes verantwortlich ist Das Lopen Glock wird normalerweise im gemeinsam verwendeten Status gehalten wenn jedoch diei_nlink Anzahl auf Null sinkt und gt delete_inode aufgerufen wird fragt es eine exklusive Sperre mit gesetztem T try 1CB Flag an Es wird weiterhin den Inode freigeben wenn die Sperre gew hrt wird Wenn die Sperre nicht gew hrt wird kennzeichnen die Knoten die die Gew hrung der Sperre verhinderten ihre Glocks mit dem D demote Flag das beim Zeitpunktvon gt drop_inode kontrolliert wird um sicherzustellen dass die Aufhebung der Zuordnung nicht vergessen wird Dies bedeutet dass Inodes die eine Linkanzahl von Null haben aber noch offen sind durch denjenigen Knoten aufgehoben werden auf dem das endg ltige close stattfindet Zur selben Zeit wie der Linkz hler des Inodes auf Null gesetzt wird wird der Inode f r den speziellen Status gekennzeichnet dass dieser zwar die Linkanzahl Null hat aber immer noch in der Ressourcengruppen Bitmap
12. tigen d Pending demote Eine wartende Anfrage zum Herabstufen remote D Demote Eine Anfrage zum Herabstufen lokal oder remote f Log flush Das Protokoll muss festgeschrieben werden bevor dieses Glock freigegeben werden kann F Frozen Antworten von Remote Knoten werden ignoriert eine Wiederherstellung l uft Dieses Flag hat nichts mit dem Dateisystem Freeze zu tun das einen anderen Mechanismus verwendet sondern wird nur zur Wiederherstellung verwendet Invalidate in progress Seiten unter diesem Glock werden derzeit ung ltig gemacht invalidiert Initial Gesetzt wenn eine DLM Sperre mit diesem Glock verkn pft ist Locked Das Glock ndert derzeit seinen Status L LRU Gesetzt wenn das Glock auf der LRU Liste ist Object Gesetzt wenn das Glock einem Objekt zugeordnet ist d h einem Inode f r Typ 2 Glocks und einer Ressourcengruppe f r Typ 3 Glocks 26 Kapitel 2 Uberlegungen zur Konfiguration und zum Betrieb von GFS2 Flag Name Bedeutung p Demote in progress Das Glock antwortet derzeit auf eine Anfrage zum Herabstufen q Queued Gesetzt wenn ein Halter der Warteschlange eines Glocks hinzugef gt wird und gel scht wenn das Glock noch gehalten wird es jedoch keine verbleibenden Halter gibt Verwendet als Teil des Algorithmus der die minimale Haltezeit fur ein Glock berechnet r Reply pending Von Remote Knoten erhaltene Antwort wartet auf Verarbeitung y Dirty Daten m ssen auf die Festplatte b
13. tzt GFS2 die standardm igen Linux Funktionen f r Festplattenkontingente Um diese nutzen zu k nnen m ssen Sie das quota RPM installieren Dies ist die bevorzugte Methode zur Verwaltung von Festplattenkontingenten aufGFS2 und sollte f r alleneuen GFS2 Bereitstellungen die Kontingente nutzen verwendet werden Dieser Abschnitt dokumentiert die GFS2 Kontingentverwaltung mithilfe dieser Funktionen In fr heren Releases von Red Hat Enterprise Linux erforderte GFS2 den gfs2_quota Befehl zur Verwaltung von Festplattenkontingenten Informationen ber die Verwendung des 4 5 1 Konfigurieren von Festplattenkontingenten Um Festplattenkontingente zu implementieren f hren Sie die folgenden Schritte aus 1 Richten Sie Kontingente im Erzwingen oder Berechnen Modus ein 2 Initialisieren Sie die Kontingentdatenbankdatei mit den aktuellen Informationen zum Blockverbrauch 3 Weisen Sie Kontingentrichtlinien zu Wurde lediglich der Berechnen Modus eingestellt werden diese Richtlinien jedoch nicht erzwungen Jeder dieser Schritte wird in den nachfolgenden Abschnitten detailliert behandelt 4 5 1 1 Einrichten von Kontingenten im Erzwingen oder Berechnen Modus In GFS2 Dateisystemen sind Kontingente standardm ig deaktiviert Um Kontingente f r ein Dateisystem zu aktivieren h ngen Sie das Dateisystem mit der Option quota onein Es istm glich den Festplattenverbrauch nachzuverfolgen und Kontingente f r alle Benutzer und Gruppen z
14. tzt GFS2 nicht f r Cluster Dateisystem Bereitstellungen mit mehr als 16 Knoten GFS2 basiert auf einer 64 Bit Architektur die theoretisch ein 8 EB Dateisystem handhaben kann Allerdings betr gt die derzeit maximal unterst tzte Gr e f r ein GFS2 Dateisystem f r 64 Bit Hardware 100 TB Die derzeit maximal unterst tzte Gr e f r ein GFS2 Dateisystem f r 32 Bit Hardware betr gt 16 TB Falls Ihr System ein gr eres GFS2 Dateisystem erfordert setzen Sie sich bitte mit Ihrem Red Hat Service Vertreter in Verbindung Wenn Sie die Gr e Ihres Dateisystems festlegen sollten Sie auch Ihre Anspr che an die Wiederherstellung ber cksichtigen Das Ausf hren des fsck gfs2 Befehls auf einem sehr gro en Dateisystem kann eine lange Zeitin Anspruch nehmen und zudem viel Speicherkapazit t verbrauchen Dar ber hinaus wird bei einem Ausfall der Festplatte oder eines Untersystems die Wiederherstellungszeit durch die Schnelligkeit Ihres Sicherungsmediums begrenzt Weitere Informationen ber die Menge an Arbeitsspeicher die der fsck gfs2 Befehl ben tigt finden Sie in Wenn Red Hat GFS2 Knoten als Teil eines Clusters konfiguriert werden k nnen diese mithilfe der Konfigurations und Verwaltungstools des High Availability Add Ons konfiguriert und verwaltet werden Red Hat GFS2 erm glicht in diesem Fall eine gemeinsame Verwendung von Daten unter den GFS2 Knoten in einem Cluster wobei eine einzelne konsistente Ansicht des Dateisystem Namensrau
15. var log on root tmp type none rw bind Angenommen Sie haben mit einem Dateisystem das kontextabh ngige Pfade unterst tzt das bin Verzeichnis als kontextabh ngigen Pfad definiert der abh ngig von der Systemarchitektur in einen der folgenden Pfade aufgel st wird usr 1386 bin usr x86_64 bin usr ppc64 bin Sie k nnen das gleiche Ergebnis erreichen indem Sie ein leeres bin Verzeichnis erstellen Anschlie end k nnen Sie entweder mithilfe eines Skripts oder mithilfe eines Eintrags in der etc fstab Datei jedes der einzelnen Architekturverzeichnisse unter dem bin Verzeichnis mit dem Befehlmount bind einh ngen Beispielsweise k nnten Sie den folgenden Befehl als eine Zeile in einem Skript verwenden mount bind usr i386 bin bin Alternativ k nnen Sie den folgenden Eintrag in der etc fstab Datei verwenden usr 1386 bin bin none bind 00 Ein Bind Mount bietet mehr Flexibilit t als ein kontextabh ngiger Pfad da Sie mithilfe dieser Funktion verschiedene Verzeichnisse abh ngig von verschiedenen von Ihnen definierten Kriterien einh ngen k nnen z B abh ngig vom fill Wert f r das Dateisystem Kontextabh ngige Pfade sind dagegen eher eingeschr nkt in ihren M glichkeiten Beachten Sie jedoch dass Sie Ihr eigenes Skript schreiben m ssen um Dateisysteme abh ngig von Kriterien wie dem fil1 Wert einhangen zu k nnen Wenn Sie ein Dateisystem mit der bind Option einh ngen und das Originaldateisystem als rw ei
16. 10 GB gro es Dateisystem haben das in f nf Ressourcengruppen zu je 2 GB aufgeteilt ist werden die Knoten in Ihrem Cluster um diese f nf Ressourcengruppen fter k mpfen als wenn das gleiche Dateisystem in 320 Ressourcengruppen zu je 32 MB aufgeteilt w re Das Problem wird noch versch rft wenn Ihr Dateisystem fast voll ist da jede Blockzuweisung ggf durch mehrere Ressourcengruppen suchen muss bevor sie eine mit einem freien Block findet GFS2 versucht dieses Problem auf zwei Arten zu verhindern Erstens Wenn eine Ressourcengruppe g nzlich voll ist merktsich GFS2 das und versucht diese f r sp tere Zuweisungen nicht mehr zu pr fen bis ein Block freigegeben wird Wenn Sie niemals Dateien l schen werden die Konflikte weniger schwerwiegend sein Wenn Ihre Anwendung allerdings st ndig auf einem fast vollen Dateisystem Bl cke l scht und neue Bl cke zuweist werden die Konflikte sehr hoch sein was sich stark auf die Leistung auswirken wird Zweitens Wenn neue Bl cke zu einer vorhandenen Datei hinzugef gt werden z B durch Anh ngen wird GFS2 versuchen die neuen Bl cke in derselben Ressourcengruppe wie die Datei zu gruppieren Dies geschieht um die Leistung zu erh hen Auf einer sich drehenden Festplatte wird die Suche weniger Zeit ben tigen wenn die Bl cke physisch nahe beisammen liegen Der schlimmste Fall ist ein zentrales Verzeichnis in dem alle Knoten Dateien erstellen da in diesem Fall alle Knoten st ndig daru
17. Befehlsnamen Weitere Unterschiede zwischen GFS und GFS2 1 4 2 1 Kontextabhangige Pfade 1 4 2 2 gfs2 ko Modul 1 4 2 3 Erzwingen von Speicherkontingenten in GFS2 1 4 2 4 Daten Journaling 1 4 2 5 Journale dynamisch hinzuf gen 1 4 2 6 atime_quantum Parameter entfernt 1 4 2 7 Die data Option des mount Befehls 1 4 2 8 Das gfs2_tool Befehl 1 4 2 9 Der gfs2_edit Befehl 1 4 3 Kapitel 2 Verbesserung der GFS2 Leistung Uberlegungen zur Konfiguration und zum Betrieb von GFS2 2 1 Uberlegungen zur Formatierung 2 1 1 2 1 2 2213 2 1 4 215 Dateisystemgrdfe Kleiner ist besser Blockgr e Standardbl cke AK werden bevorzugt Anzahl der Journale Eines f r jeden einh ngenden Knoten Journalgr e Standard 128 MB istin der Regel optimal Gr e und Anzahl der Ressourcengruppen 2 2 Dateisystemfrag mentierung 2 3 Probleme mit der Blockzuweisung 2 3 1 2 3 2 2 3 3 2 4 Clu Freien Speicherplatz im Dateisystem belassen Dateizuweisung durch die jeweiligen Knoten wenn m glich Vorabzuweisung wenn m glich ster berlegungen 2 5 berlegungen zur Verwendung 2 5 1 2 5 2 2 5 3 2 5 4 2 5 5 2 5 6 Einh ngeoptionen noatime und nodiratime DLM Optimierungsoptionen Erh hen der DLM Tabellengr e VFS Optimierungsoptionen Recherchieren und Ausprobieren SELinux Vermeiden von SELinux auf GFS2 Einrichten von NFS auf GFS2 Samba SMB oder Windows File Serving ber GFS2 2 6 Datensi
18. Datei zu erstellen im Abstand von ein paar Sekunden oder ein bis zwei Minuten Vergleichen Sie in den zwei Kopien nun die Halterinformationen derselben Glock Nummer Anhand dessen sollten Sie feststellen k nnen ob die Verarbeitung Fortschritte macht also nur langsam ist oder ob sie h ngen geblieben ist was immer auf einen Fehler hindeutet und umgehend dem Red Hat Support gemeldet werden sollte Jede Zeile in der debug fs Datei die mit H Halter beginnt steht f r eine Sperranfrage die entweder bereits gew hrt wurde oder darauf wartet gew hrt zu werden Das Flags Feld auf der Halterzeile f zeigt an was von beidem der Fall ist Das W Flag kennzeichnet eine wartende Anfrage das H Flag kennzeichnet eine gew hrte Anfrage Diejenigen Glocks mit einer hohen Anzahl wartender Anfragen sind wahrscheinlich diejenigen mit Konflikten Tabelle 2 1 Glock Flags zeigt die Bedeutungen der verschiedenen Glock Flags und Tabelle 2 2 Reihenfolge in der Sie in den Glock Dumps auftreten Tabelle 2 1 Glock Flags Flag Name Bedeutung b Blocking G ltig wenn das locked Flag gesetzt ist Zeigt an dass die Operation die vom DLM angefordert wurde sperren k nnte Dieses Flag wird f r demote Operationen und f r try Sperren entfernt Der Zweck dieses Flags ist es das Sammeln von Statistiken ber die DLM Antwortzeiten zu erm glichen unabh ngig von der Zeit die andere Knoten zum Herabstufen von Sperren ben
19. Filesystem blocks soft hard inodes soft hard dev VolGroup00 LogVol02 440400 0 0 Das GFS2 Dateisystem pflegt keine Kontingente f r Inodes diese Spalten sind f r GFS2 Dateisysteme demnach irrelevant und bleiben leer Ver ndern Sie die Grenzen wie gew nscht und speichern Sie die Datei Um zu berpr fen ob das Kontingent wie gew nscht f r die Gruppe festgelegt wurde f hren Sie den folgenden Befehl aus quota g devel 4 5 2 Verwalten von Festplattenkontingenten Wenn Kontingente implementiert sind erfordern diese ein gewisses Ma an Pflege haupts chlich sollte berwacht werden ob Kontingente berschritten werden und ob die gesetzten Grenzen noch angemessen sind Sollten Benutzer wiederholt ihre Kontingentgrenzen berschreiten oder dauerhaft die weichen Grenzen erreichen muss der Systemadministrator abh ngig von der Art des Benutzers und der Auswirkungen des begrenzten Speicherplatzes auf ihre Arbeit die Entscheidung treffen wie vorzugehen ist Der Administrator kann dem Benutzer entweder dabei helfen seinen Speicherplatzverbrauch zu verringern oder er kann das Festplattenkontingent des Benutzers erh hen Sie k nnen mithilfe des repquo ta Befehls einen Bericht des Festplattenverbrauchs generieren Beispielsweise erzeugt der Befehl repquota home die folgende Ausgabe Report for user quotas on device dev mapper VolGroup00 LogVol02 Block grace time 7days Inode grace time 7days Block limits File limits Us
20. Verwaltung des High Availability Add Ons Administration des Logical Volume Manager Liefert eine Beschreibung des Logical Volume Managers LVM inklusive Informationen zum Einsatz von LVM in einer Cluster Umgebung DM Multipath Liefert Informationen ber die Verwendung der Device Mapper Multipath Funktionen von Red Hat Enterprise Linux Verwaltung des Load Balancer Add Ons Liefert Informationen zur Konfiguration von Hochleistungssystemen und diensten mit dem Red Hat Load Balancer Add On einer Gruppe integrierter Software Komponenten die Linux Virtual Server LVS bereitstellen um IP Lasten ber eine Gruppe realer Server zu verteilen Versionshinweise Liefert Informationen ber die jeweils aktuelle Release der Red Hat Produkte Red Hat Cluster Suite Dokumentation und andere Red Hat Dokumente stehen als HTML PDF und RPM Versionen auf der Red Hat Enterprise Linux Dokumentations CD und online unter 3 Wir freuen uns auf Ihr Feedback Global File System 2 Falls Sie einen Fehler in diesem Handbuch finden oder eine Idee haben wie dieses verbessert werden k nnte freuen wir uns Uber Ihr Feedback Bitte reichen Sie einen Fehlerbericht in Bugzilla doc Global File System 2 ein Vergewissern Sie sich beim Einreichen eines Fehlerberichts dass Sie die Kennung des Handbuchs mit angeben rh gfs2 EN 6 2014 10 8T15 15 Falls Sie uns einen Vorschlag zur Verbesserung der Dokumentation senden m chten sollten Sie hierz
21. als die mtime oder die ctime Aktualisierung ist 4 9 1 1 Verwendung mount BlockDevice MountPoint o relatime BlockDevice Gibt das Blockgerat an auf dem sich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingehangt werden soll 4 9 1 2 Beispiel In diesem Beispiel befindet sich das GFS2 Dateisystem auf dev vg01 1vol0 und wird unter dem Verzeichnis myg fs2 eingehangt Die atime Aktualisierung wird nur dann durchgef hrt wenn die vorherige atime Aktualisierung lter als die mtime oder die ctime Aktualisierung ist mount dev vg01 lvolO mygfs2 o relatime 4 9 2 Einh ngen mit noatime Die Linux Einh ngeoption noatime kann beim Einh ngen des Dateisystems angegeben werden wodurch die atime Aktualisierung auf diesem Dateisystem deaktiviert wird 4 9 2 1 Verwendung mount BlockDevice MountPoint o noatime BlockDevice Gibt das Blockgerat an auf dem sich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingeh ngt werden soll 4 9 2 2 Beispiel In diesem Beispiel befindet sich das GFS2 Dateisystem auf dev vg01 1vol0 und wird unter dem Verzeichnis mygfs2 mit deaktivierter atime Aktualisierung eingehangt mount dev vg01 1volO mygfs2 o noatime 4 10 Unterbrechen der Aktivit t auf einem Dateisystem Sie k nnen die Schreibaktivit t auf einem Dateisystem unterbrechen indem Sie den Befehl dmsetupsuspend benutzen Das Un
22. auf das Glock selbst oder aber mit einem anderen Buchstaben um ein Leerzeichen einger ckt und bezieht sich auf die Strukturen die mit dem Glock in der Datei unmittelbar dar ber verkn pft sind H ist ein Halter I ein Inode und R eine Ressourcengruppe Nachfolgend sehen Sie ein Beispiel daf r wie der Inhalt dieser Datei aussehen k nnte G s SH n 5 75320 f I t SH d EX a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 G s EX n 3 258028 f yI t EX d EX O a 3 r 4 H s EX f tH e 0 p 4466 postmark gfs2_inplace_reserve_i 0x177 0x780 gfs2 R n 258028 f 05 b 22256 22256 1 16800 G s EX n 2 219916 f yfI t EX d EX 0O a 0 r 3 I n 75661 219916 t 8 f 0x10 d 0x00000000 s 7522 7522 G s SH n 5 127205 f I t SH d EX O a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 G SEX n 2750382 Tiyfl t EX d EX 0 a 0 r2 G s SH n 5 302519 f I t SH d EX O a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 G s SH n 5 313874 f I t SH d EX O a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 G SSH n 5 271916 f I t SH d EX O a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 G s SH n 5 312732 f I t SH d EX O a 0 r 3 H s SH f EH e 0 p 4466 postmark gfs2_inode_lookup 0x14e 0x260 gfs2 Das obige Beispiel zeigt eine Reihe von Ausz gen aus einer etwa 18 MB Datei die durch den Befehl cat sys ke
23. einer Aktiv Passiv Konfiguration mit den folgenden Eigenschaften verwenden Das zugrunde liegende Dateisystem ist ein GFS2 Dateisystem das auf einem Cluster mit 2 bis 16 Knoten l uft Ein NFSv3 Server ist als ein Dienst definiert der das gesamte GFS2 Dateisystem zu jeder Zeit von nur einem einzigen Cluster Knoten exportiert Der NFS Server kann im Rahmen der Ausfallsicherung von einem Cluster Knoten aufeinen anderen wechseln Aktiv Passiv Konfiguration Au er ber den NFS Server ist keinerlei Zugriff auf das GFS2 Dateisystem gestattet Das betrifft sowohl lokalen GFS2 Dateisystemzugriff als auch den Zugriff ber Samba oder Clustered Samba Es gibt keine NFS Kontingentunterst tzung auf dem System 21 flatkha Fila Ciurctam 9 O lo D al rl e systemz Diese Konfiguration bietet Hochverf gbarkeit f r das Dateisystem und reduziert Ausfallzeiten da ein ausgefallener Knoten nicht dazu f hrt dass der fsck Befehl ausgef hrt werden muss wenn der NFS Server von einem Knoten aufeinen anderen wechselt Die NFS Option fsid istzwingend erforderlich f r NFS Exporte auf GFS2 Falls Probleme mit Ihrem Cluster auftreten falls z B der Cluster das Quorum verliert und das Fencing nicht erfolgreich ist werden die geclusterten logischen Datentr ger und das GFS2 Dateisystem eingefroren und der Zugriff ist erst wieder m glich wenn der Cluster wieder ein Quorum erlangt Sie sollten diese M glichkeit bei der Entscheidung ber cksichtig
24. listet die zus tzlichen Unterschiede hinsichtlich der Administration von GFS und 1 4 2 1 Kontextabh ngige Pfade GFS2 Dateisysteme unterst tzen keine kontextabh ngigen Pfade Context Dependent Path Names oder kurz CDPNs die es Ihnen erm glichen symbolische Links zu erzeugen die auf verschiedene Zieldateien oder verzeichnisse zeigen Um dieselbe Funktionalit tin GFS2 Dateisystemen zu erreichen k nnen Sie die bind Option des mount Befehls verwenden Weitere Informationen ber Kapitel 1 Uberblick iber GFS2 Bind Mounts und kontextabhangige Pfade in GFS2 finden Sie in Abschnitt 4 12 Bind Mounts und kontextabh ngige Pfade 1 4 2 2 gfs2 ko Modul Das Kernel Modul welches das GFS Dateisystem implementiert ist gfs ko Das Kernel Modul welches das GFS2 Dateisystem implementiert ist gfs2 ko 1 4 2 3 Erzwingen von Speicherkontingenten in GFS2 In GFS2 Dateisystemen werden Festplattenkontingente standardm ig nicht erzwungen sodass dieses Verhalten explizit aktiviert werden muss Informationen ber das Aktivieren und Deaktivieren von Festplattenkontingenten finden Sie in Abschnitt 4 5 Verwalten von GFS2 Festplattenkontingenten 1 4 2 4 Daten Journaling GFS2 Dateisysteme unterst tzen die Verwendung des chattr Befehls um das j Flag auf einer Datei oder einem Verzeichnis zu setzen bzw zu entfernen Wird das Flag j auf einer Datei gesetzt so wird das Daten Journaling auf dieser Datei aktiviert Wird das Fl
25. mit aktivierten Kontingenten im mygfs2 Verzeichnis eingeh ngt mount o quota on dev vg01 1vol mygfs2 In diesem Beispiel wird das GFS2 Dateisystem dev vg01 1vol10 mit Kontingentberechnung jedoch ohne Erzwingen von Kontingentgrenzen im mygfs2 Verzeichnis eingehangt mount o quota account dev vg01i lvolO mygfs2 4 5 1 2 Erstellen der Kontingent Datenbankdateien Nachdem jedes Dateisystem mit aktivierten Kontingenten eingehangt wurde kann das System nun mit Kontingenten arbeiten Allerdings ist das System selbst noch nicht dazu eingerichtet Kontingente zu unterst tzen Der n chste Schritt ist daher das Ausf hren des quotacheck Befehls Der quotacheck Befehl untersucht die Dateisysteme mit aktivierten Kontingenten und erzeugt eine Tabelle des aktuellen Festplattenverbrauchs pro Dateisystem Diese Tabelle wird dann verwendet um f r das Betriebssystem eine laufend aktualisierte Kopie des Verbrauchs zu pflegen Zudem werden die Kontingentdateien des Dateisystems aktualisiert Um die Kontingentdateien auf dem Dateisystem zu erstellen verwenden Sie die Optionen u und g des quotacheck Befehls beide Optionen m ssen angegeben werden damit sowohl Benutzer als auch Gruppenkontingente initialisiert werden Wenn Kontingente beispielsweise auf dem home Dateisystem aktiviert sind erstellen Sie die Dateien im home Verzeichnis quotacheck ug home 4 5 1 3 Kontingente pro Benutzer zuweisen Weisen Sie abschlie end die Festpl
26. sungen GFS2 kann auf billigeren Hardware L sungen f r gemeinsam verwendeten Speicher arbeiten wie iSCSI oder Fibre Channel over Ethernet FCoE aber Sie erreichen eine bessere Leistung wenn Sie Speicher h herer Qualit t mit gr erer Caching Kapazit t anschaffen Red Hat f hrt die meisten Qualit ts Fehler und Leistungstests auf SAN Speichersystemen mit Fibre Channel Verbindung durch In der Regel ist es immer besser etwas bereitstellen das zuvor getestet wurde Pr fen der Netzwerkausr stung vor der Bereitstellung Eine qualitativ h herwertige und schnellere Netzwerkausr stung f hrt dazu dass auch die Cluster Kommunikation und GFS2 schneller und zuverl ssiger l uft Allerdings m ssen Sie nicht die teuerste Hardware kaufen Einige der teuersten Netzwerk Switches haben Probleme beim Transport von Multicast Paketen die f r die Weitergabe von fcntl Sperren flocks verwendet werden w hrend billigere Allerwelts Netzwerk Switches manchmal schneller und zuverl ssiger sind Im Allgemeinen empfiehlt es sich die Hardware zu testen bevor sie f r den vollen Einsatz in einer Produktionsumgebung implementiert wird 2 8 Leistungsprobleme Mehr Informationen im Red Hat Kundenportal Informationen ber bew hrte Verfahren zur Bereitstellung und Aktualisierung von Red Hat Enterprise Linux Clustern unter Verwendung des High Availability Add Ons und Red Hat Global File System 2 GFS2 finden Sie im Artikel Red Hat Enterprise Linux C
27. was beispielsweise helfen kann aufzuzeigen dass das Protokoll f r die Auslastung zu klein ist Der Tracepointgfs2_ail_flush Red Hat Enterprise Linux 6 2 und h her hnelt dem Tracepoint gfs2_log_flush insofern als er den Beginn und das Ende der Leerung der AlL Liste verfolgt Die AIL Liste enth lt Puffer die durch das Protokoll gegangen sind aber noch nicht wieder an ihren Ort zur ckgeschrieben wurden diese werden regelm ig entleert um mehr Protokollspeicherplatz f r die Verwendung durch das Dateisystem freizugeben oder wenn ein Prozess ein sync oder fsync anfordert C 9 Glock Statistiken GFS2 pflegt Statistiken die dabei helfen die Vorgange im Dateisystem nachzuverfolgen Dies erm glicht es Ihnen Leistungsprobleme zu identifizieren GFS2 pflegt zwei Z hler dcount der die Anzahl angefragter DLM Operationen z hlt Dies zeigt wie viele Daten in die Berechnungen von Mittel und Varianzwerten einflie en qcount der die Anzahl angefragter syscall Operationen z hlt Im Allgemeinen ist qcount gleich oder gr er als dcount Global File System 2 Dar ber hinaus pflegt GFS2 drei Mittel Varianzpaare Die Mittel Varianzpaare sind geglattete exponentielle Sch tzungen der verwendete Algorithmus ist jener der zur Berechnung von Rundtrips im Netzwerkcode verwendet wird Die Mittel Varianzpaare die in GFS2 gepflegt werden sind nicht skaliert sondern in Einheiten von ganzzahligen Nanosekunden srtt srttvar Gegl
28. zum Herabstufen remote D Demote Eine Anfrage zum Herabstufen lokal oder remote f Log flush Das Protokoll muss festgeschrieben werden bevor dieses Glock freigegeben werden kann F Frozen Antworten von Remote Knoten werden ignoriert eine Wiederherstellung l uft Invalidate in progress Seiten unter diesem Glock werden derzeit ung ltig gemacht invalidiert Initial Gesetzt wenn eine DLM Sperre mit diesem Glock verkn pft ist Locked Das Glock ndert derzeit seinen Status L LRU Gesetzt wenn das Glock auf der LRU Liste ist o Object Gesetzt wenn das Glock einem Objekt zugeordnet ist d h einem Inode f r Typ 2 Glocks und einer Ressourcengruppe f r Typ 3 Glocks p Demote in progress Das Glock antwortet derzeit auf eine Anfrage zum Herabstufen q Queued Gesetzt wenn ein Halter der Warteschlange eines Glocks hinzugef gt wird und gel scht wenn das Glock noch gehalten wird es jedoch keine verbleibenden Halter gibt Verwendet als Teil des Algorithmus der die minimale Haltezeit f r ein Glock berechnet Flag NETTE Bedeutung r Reply pending Von Remote Knoten erhaltene Antwort wartet auf Verarbeitung y Dirty Daten m ssen auf die Festplatte berschrieben werden bevor dieses Glock freigegeben werden kann Wenn ein Remote Callback von einem Knoten empfangen wird der eine Sperre in einem Modus erhalten will der mit dem Modus des lokalen Knoten kollidiert dann wird entweder das Flag D demote oder d demote pending
29. 2 demo dev mapper cluster_vg cluster_lv on mnt gfs2 demo type gfs2 rw noatime seclabel 5 Optional Starten Sie alle Cluster Knoten neu um die GFS2 Persistenz und Wiederherstellung zu testen Global File System 2 Anhang A GFS2 Kontingentverwaltung mit dem Befehl gfs2_quota Ab der Red Hat Enterprise Linux 6 1 Release unterst tzt GFS2 die standardm igen Linux Funktionen f r Festplattenkontingente Um diese nutzen zu k nnen m ssen Sie das quota RPM installieren Dies ist die bevorzugte Methode zur Verwaltung von Festplattenkontingenten auf GFS2 und sollte f r alle neuen GFS2 Implementierungen die Kontingente nutzen verwendet werden Informationen Uber die Verwendung der standardmafigen Linux Funktionen f r Festplattenkontingente finden Sie in Abschnitt 4 5 Verwalten von GFS2 Festplattenkontingenten In fr heren Releases von Red Hat Enterprise Linux erforderte GFS2 den gfs2_quota Befehl zur Verwaltung von Festplattenkontingenten Dieser Anhang dokumentiert die Verwendung des gfs2_quota Befehls zur Verwaltung von GFS2 Dateisystemkontingenten A 1 Kontingente festlegen mit dem Befehl gfs2_quota Zwei Kontingenteinstellungen stehen f r jede Benutzer ID UID oder Gruppen ID GID zur Verf gung eine harte Grenze und eine weiche Grenze letztere auch Warngrenze genannt Eine harte Grenze ist der Speicherplatz der maximal in Anspruch genommen werden darf Das Dateisystem l sst den Benutzer oder die Gruppe
30. 3 redhat Red Hat Enterprise Linux 6 Global File System 2 Red Hat Global File System 2 Ausgabe 7 Red Hat Enterprise Linux 6 Global File System 2 Red Hat Global File System 2 Ausgabe 7 Rechtlicher Hinweis Copyright 2014 Red Hat Inc and others This document is licensed by Red Hat under the Creative Commons Attribution ShareAlike 3 0 Unported License If you distribute this document or a modified version of it you must provide attribution to Red Hat Inc and provide a link to the original Ifthe documentis modified all Red Hat trademarks must be removed Red Hat as the licensor of this document waives the right to enforce and agrees notto assert Section 4d of CC BY SA to the fullest extent permitted by applicable law Red Hat Red Hat Enterprise Linux the Shadowman logo JBoss MetaMatrix Fedora the Infinity Logo and RHCE are trademarks of Red Hat Inc registered in the United States and other countries Linux is the registered trademark of Linus Torvalds in the United States and other countries Java is aregistered trademark of Oracle and or its affiliates XFS is a trademark of Silicon Graphics International Corp or its subsidiaries in the United States and or other countries MySQL is a registered trademark of MySQL AB in the United States the European Union and other countries Node js is an official trademark of Joyent Red Hat Software Collections is not formally related to or endor
31. 8 Dokumentiert die Unterst tzung der standardm igen Linux Kontingentfunktionen in Red Hat Enterprise Linux 6 1 Behebt 608750 Verdeutlicht die Beschreibung der GFS2 R ckzugsfunktion Behebt 660364 Korrigiert Angaben zur maximalen GFS2 Dateisystemgr e Behebt 687874 F gt Kapitel zur Suche und Bereinigung von GFS2 Problemen hinzu Behebt 664848 F gt Informationen ber das Auffinden von kontextabh ngigen Pfaden vor der Konvertierung von GFS nach GFS2 hinzu Version 1 0 1 Wed Nov 15 2010 Steven Levine Erste Release f r Red Hat Enterprise Linux 6 Stichwortverzeichnis acl Send Ee a eines Dateisystems Bind Mount Einh ngereihenfolge Einh ngereihenfolge f r Bind Mounts und Dateisysteme Dateisystem Aktivit t unterbrechen Unterbrechen der Aktivit t auf einem en 83 Global File System 2 84 Aush ngen une eines Dateisystems Spezielle berlegungen zum Einrichtung erste Erste Schritte Schritte zur erstmaligen Einrichtung Erste Schritte Einrichtung erste Schritte zur erstmaligen Einrichtung Feedback Stichwortverzeichnis Kontaktinformationen f r dieses Handbuch Wir freuen uns auf Ihr Feedback Festplattenkontingente Aktivieren Konfigurieren von Festplatten kontingenten GFS2 GFS2 spezifische Optionen zum Eiweienn von Dale syalemen Tabelle ee ee 85 Global File System 2 86 gfs2_jadd Befehl Sh bales von Journalen zu einem Dateisystem Kontestabh ngigr Pfade CD
32. FS2 Dateisystem hat sich unter Umst nden zur ckgezogen Suchen Sie in den Nachrichtenprotokollen das Wort withdraw und prufen Sie ob Sie Nachrichten und Calltraces von GFS2 finden die darauf hinweisen dass das Dateisystem zur ckgezogen wurde Ein R ckzug kann aufein schadhaftes Dateisystem einen Speicherausfall oder einem Bug hindeuten H ngen Sie das Dateisystem aus aktualisieren Sie das gfs2 utils Paket und f hren Sie den fsck Befehl auf dem Dateisystem durch um es wieder funktionsf hig zu machen Reichen Sie beim Red Hat Support ein Support Ticket ein Informieren Sie den Support ber den GFS2 R ckzug und stellen Sie sosreport Daten und Protokolle zur Verf gung Weitere Informationen ber die GFS2 R ckzugsfunktion finden Sie in Abschnitt 4 14 Die GFS2 Ruckzugsfunktion Dieser Fehler kann auf ein Sperrproblem oder einen Bug hindeuten Sammeln Sie Daten wahrend dieser Fehler das nachste Mal auftritt und reichen Sie beim Red Hat Support ein Ticket ein wie in Abschnitt 5 2 GFS2 Dateisystem h ngt sich auf und erfordert Neustart eines Knotens beschrieben 5 4 GFS2 Dateisystem wird auf neu erstelltem Cluster Knoten nicht eingehangt Falls Sie einen neuen Knoten zum Cluster hinzufugen und feststellen dass Sie Ihr GFS2 Dateisystem auf diesem Knoten nicht einhangen k nnen dann haben Sie ggf weniger Journale auf dem GFS2 Dateisystem als Knoten die auf das GFS2 Dateisystem zuzugreifen versuchen Sie ben tigen ein J
33. File System 2 Einf hrung Einf hrung Dieses Buch liefert Informationen ber die Konfiguration und Wartung von Red Hat GFS2 Red Hat Global File System 2 das Bestandteil des Red Hat Resilient Storage Add Ons ist 1 Zielgruppe Dieses Buch richtet sich in erster Linie an Linux Systemadministratoren die mit den folgenden Arbeitsvorg ngen bereits vertraut sind Verfahren zur Linux Systemadministration einschlie lich Kernel Konfiguration Installation und Konfiguration von gemeinsam genutzten Speichernetzwerken wie Z B Fibre Channel SANs 2 Erganzende Dokumentation Werfen Sie einen Blick auf die folgenden Quellen f r weitere Informationen zur Verwendung von Red Hat Enterprise Linux Installationshandbuch Liefert Informationen bez glich der Installation von Red Hat Enterprise Linux 6 Deployment Guide Liefert Informationen zur Bereitstellung zur Konfiguration und zur Verwaltung von Red Hat Enterprise Linux 6 Storage Administration Guide Liefert Informationen Uber die effiziente Verwaltung von Speicherger ten und Dateisystemen auf Red Hat Enterprise Linux 6 Weitere Informationen ber das High Availability Add On und das Resilient Storage Add On f r Red Hat Enterprise Linux 6 finden Sie in den folgenden Quellen High Availability Add On Overview Liefert einen allgemeinen berblick ber das High Availability Add On Cluster Administration Liefert Informationen zur Installation Konfiguration und
34. GFS2 Dateisystemen finden Sie in Abschnitt 4 1 Erstellen eines Dateisystems H ngen Sie auf jedem Knoten die GFS2 Dateisysteme ein Weitere Informationen ber das Einhangen von GFS2 Dateisystemen finden Sie in Abschnitt 4 2 Einh ngen eines Dateisystems Befehlsverwendung mount BlockDevice MountPoint mount o acl BlockDevice MountPoint Die Einh ngeoption o acl erlaubt die Ver nderung der Datei ACLs Wird ein Dateisystem ohne die Einh ngeoption o acl eingeh ngt k nnen Benutzer die ACLs zwar einsehen mittels getfacl d rfen diese jedoch nicht ver ndern mittels setfacl Anmerkung Sie k nnen die im Red Hat High Availability Add On enthaltenen init d Skripte verwenden um das Ein und Aush ngen von GFS2 Dateisystemen zu automatisieren Kapitel 4 Verwaltung von GFS2 Kapitel 4 Verwaltung von GFS2 Dieses Kapitel beschreibt die Aufgaben und Befehle Zur Verwaltung von GFS2 und umfasst die folgenden Abschnitte Abschnitt 4 1 Erstellen eines Dateisystems 4 1 Erstellen eines Dateisystems Mit dem mkfs gfs2 Befehl erstellen Sie ein GFS2 Dateisystem Sie k nnen dazu auch den mkfs Befehl mit der Option t gfs2 verwenden Ein Dateisystem wird auf einem aktivierten LVM Datentr ger erstellt Folgende Informationen sind erforderlich um den mkfs gfs2 Befehl auszuf hren Sperrprotokoll Modulname das Sperrprotokoll f r einen Cluster ist Lock_d1m Clustername falls Teil einer Cluster Konf
35. GFS2 hinaus Sie werden insbesondere zur Implementierung der blktrace Infrastruktur verwendet und die blktrace Tracepoints k nnen zusammen mit jenen von GFS2 verwendet werden um ein umfassenderes Bild der Systemleistung zu erhalten Aufgrund ihrer Funktionsebene k nnen Tracepoints innerhalb von k rzester Zeit gro e Datenmengen produzieren Zwar wurden sie so konzipiert dass die Belastung des Systems m glichst gering ist doch eine gewisse Auswirkung ist unvermeidlich Es kann hilfreich sein die Ereignisse mithilfe einer Vielzahl von Instrumenten zu filtern und so das Volumen der Daten zu verringern um das Hauptaugenmerk auf jene Informationen zu richten die n tzlich f r das Verst ndnis der jeweiligen Situation sind C 2 Tracepoints Sie finden die Tracepoints im Verzeichnis sys kernel debug tracing sofern debugfs im standardm igen Verzeichnis sys kernel debug eingeh ngt ist Das events Unterverzeichnis enth lt alle Ereignisse die nachverfolgt werden k nnen Sofern das gfs2 Modul geladen ist gibt es ebenfalls ein gfs2 Unterverzeichnis mit weiteren Unterverzeichnissen eins f r jedes GFS2 Ereignis Der Inhalt des Verzeichnisses sys kernel debug tracing events gfs2 sieht etwa wie folgt aus root chywoon gfs2 ls enable gfs2_bmap gfs2_glock_queue gfs2_log_flush filter gfs2_demote_rq gfs2_glock_state_change gfs2_pin gfs2_block_alloc gfs2_glock_put gfs2_log_blocks gfs2_promote Um alle GFS2 Tracepoints zu aktivieren fuhren S
36. PNs Konvertierung von GFS zu GFS2 Konvertierung kontextabh ngiger Pfade Stichwortverzeichnis Pfade kontextabhangig warn Bind Mounts und kontextabh ngige Pfade uade Befehl Genauigkeit der Kontingente berpr fen mit Pflegen der Genauigkeit von Kontingenten Tabellen zen Vollst ndige Verwendung Vorbereitungen Konfiguration erstmalige Grundlegende Vorbereitungen Vorwort Siehe Einf hrung Zielgruppe Zielgruppe 87
37. Point Device MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingeh ngt ist Device Gibt den Ger teknoten des Dateisystems an die GFS2 spezifischen Optionen die Sie beim Erweitern eines GFS2 Dateisystems verwenden k nnen Tabelle 4 3 Verf gbare GFS2 spezifische Optionen zum Erweitern eines Dateisystems Optionen Beschreibung h Hilfe Zeigt kurze Informationen zur Verwendung an q Verringert die Ausf hrlichkeit der Ausgabe r MegaBytes Gibt die Gr e der neuen Ressourcengruppe an Die standardm ige Gr e ist 256 MB T Test Fuhrt samtliche Berechnungen durch schreibt jedoch keine Daten auf den Datentrager und erweitert das Dateisystem nicht V Zeigt Informationen zur Befehlsversion an 4 7 Hinzuf gen von Journalen zu einem Dateisystem Der gfs2_jadd Befehl wird dazu verwendet um Journale zu einem GFS2 Dateisystem hinzuzuf gen Sie k nnen jederzeit Journale zu einem GFS2 Dateisystem dynamisch hinzuf gen ohne den zugrunde liegenden logischen Datentr ger zu erweitern Der gfs2_jadd Befehl muss auf einem eingeh ngten Dateisystem ausgef hrt werden allerdings braucht er nur auf einem Knoten im Cluster ausgef hrt zu werden Alle anderen Knoten merken automatisch dass eine Erweiterung stattgefunden hat Anmerkung Falls ein GFS2 Dateisystem voll ist schl gt der gfs2_jadd Befehl fehl selbst wenn der logische Datentr ger der das Dateisystem enth lt erweitert wurde und gr er
38. Zugriff im Falle eines Knotenausfalls Dieser Aufbau nutzt den Seiten Cache von GFS2 optimal aus und macht dar ber hinaus Ausf lle f r die Applikation imap oder smtp transparent Die Datensicherung Backup ist ebenfalls oft problematisch Falls m glich ist es sehr von Vorteil das Working Set eines jeden Knotens direkt von dem Knoten zu sichern der diese bestimmte Gruppe von Inodes cacht Falls Sie zur Datensicherung ein Skript nutzen das regelm ig zu einem bestimmten Zeitpunkt ausgef hrt wird und dieser Zeitpunkt mit einer Spitze in der Reaktionszeit einer auf GFS2 laufenden Applikation zusammenf llt dann deutet dies mit ziemlicher Sicherheit darauf hin dass der Cluster den Seiten Cache nicht effizient genug verwendet Falls Sie sich in der gl cklichen Position befinden die Applikation zur Datensicherung stoppen Zu k nnen stellt dies nat rlich kein Problem dar Wird die Datensicherung nur von einem Knoten durchgef hrt wird andererseits nach Abschluss der Sicherung ein gro er Teil des Dateisystems auf diesem Knoten gecacht was Leistungseinbu en f r nachfolgende Zugriffe von anderen Knoten zur Folge hat Bis zu einem gewissen Grad kann dies vermieden werden indem Sie nach Abschluss der Datensicherung den VFS Seiten Cache auf dem Backup Knoten mit dem folgenden Befehl bereinigen echo n 3 gt proc sys vm drop_caches Eine bessere L sung besteht jedoch darin sicherzustellen dass das Working Set auf jedem Knoten gemein
39. a I status restart 0 stop 0 start reload 0 start x I echo Usage 0 start stop restart reload status exit 1 esac exit 0 4 14 Die GFS2 R ckz ugsfunktion Die GFS2 R ckzugsfunktion auch engl Withdraw Funktion istein Feature zur Sicherung der Datenintegritat auf GFS2 Dateisystemen in einem Cluster Falls das GFS2 Kernel Modul nach einer O Operation eine Inkonsistenz in einem GFS2 Dateisystem entdeckt wird dem Cluster der Zugriff auf das Dateisystem verwehrt Die I O Operation stoppt und das System wartet bis weitere I O Operationen ebenfalls mit einem Fehler fehlschlagen um weiteren Schaden zu verhindern Sie k nnen in dieser Situation andere Dienste oder Applikationen manuell stoppen anschlie end neu starten und das GFS2 Dateisystem wieder einh ngen um anhand der Journale wiederherzustellen Wenn das Problem weiterhin besteht k nnen Sie das Dateisystem auf allen Knoten im Cluster aush ngen und mitdem fsck gfs2 Befehl eine Wiederherstellung des Dateisystems durchf hren Die GFS R ckzugsfunktion ist weniger schwerwiegend als eine Kernel Panic bei der ein anderer Knoten diesen Knoten abgrenzen w rde Falls auf Ihrem System das gfs2 Startup Skript aktiviert ist und das GFS2 Dateisystem in der etc fstab Datei enthalten ist wird das GFS2 Dateisystem bei einem Neustart neu eingeh ngt Falls sich das GFS2 Dateisystem aufgrund eines besch digten Dateisystems zur ckgezogen hat ist es empfehlenswert den fsck
40. achdem Sie die Cluster Software GFS2 und die geclusterten LVM Pakete auf jedem Knoten installiert haben starten Sie die Dienste cman clvmd und pacemaker aufjedem Knoten und erstellen Sie den Pacemaker Cluster Sie m ssen zudem das Fencing f r den Cluster konfigurieren Informationen ber die Konfiguration eines Pacemaker Clusters finden Sie im Handbuch Konfiguration des Red Hat High Availability Add Ons mit Pacemaker 62 1 Setzen Sie den globalen Pacemaker Parameter no_quorum_policy auf freeze Anmerkung Standardm ig ist no quorum policy auf den Wert stop festgelegt was bewirkt dass bei Verlust des Quorums alle Ressourcen auf der verbleibenden Partition sofort gestoppt werden In der Regel ist diese Standardeinstellung die sicherste und beste Option allerdings ben tigt GFS2 im Gegensatz zu den meisten Ressourcen ein Quorum um zu funktionieren Beim Verlust des Quorums k nnen weder die Applikationen die die GFS2 Mounts verwenden noch der GFS2 Mount selbst richtig gestoppt werden Jegliche Versuche diese Ressourcen ohne Quorum zu stoppen werden fehlschlagen und letztlich dazu f hren dass bei jedem Quorum Verlust der gesamte Cluster abgegrenzt wird Um dieses Problem zu umgehen k nnen Sie bei der Verwendung von GFS2 no quorum policy freeze einstellen Das bedeutet dass im Falle eines Quorum Verlusts die verbleibende Partition nichts tun wird bis das Quorum wieder hergestellt ist pcs property set no quorum pol
41. ag j auf einem Verzeichnis gesetzt bedeutet dies dass f r alle nachfolgend in diesem Verzeichnis erstellten Dateien oder Verzeichnisse ebenfalls das Daten Journaling aktiviert ist inherit jdata Die Verwendung des chattr Befehls ist die bevorzugte Methode zum Aktivieren und Deaktivieren des Daten Journalings auf einer Datei 1 4 2 5 Journale dynamisch hinzuf gen In GFS Dateisystemen sind Journale eingebettete Metadaten die sich au erhalb des Dateisystems befinden weshalb zun chst der logische Datentr ger mit dem Dateisystem vergr ert werden muss bevor Journale hinzugef gt werden k nnen In GFS2 Dateisystemen sind Journale einfache versteckte Dateien Dies bedeutet dass f r GFS2 Dateisysteme Journale dynamisch hinzugef gt werden k nnen sobald weitere Server das Dateisystem einh ngen sofern noch gen gend Platz auf dem Dateisystem f r zus tzliche Journale vorhanden ist Informationen ber das Hinzuf gen von Journalen zu einem GSF2 Dateisystem finden Sie unter Abschnitt 4 7 Hinzuf gen von Journalen zu einem Dateisystem 1 4 2 6 atime_quantum Parameter entfernt Das GFS2 Dateisystem unterst tzt nicht den einstellbaren Parameter atime_quantum der vom GFS Dateisystem dazu verwendet werden kann um festzulegen wie oft atime Aktualisierungen erfolgen Stattdessen unterst tzt GFS2 die Einh ngeoptionen relatime und noatime Die relatime Einhangeoption wird empfohlen um ein hnliches Verhalten zu erreichen wie
42. als das Dateisystem ist Der Grund hierf r liegt in den Journalen des GFS2 Dateisystems denn bei den Journalen handelt es sich um einfache Dateien statt um eingebettete Metadaten sodass ein einfaches Erweitern des zugrunde liegenden logischen Datentr gers nicht mehr Platz f r die Journale verf gbar macht 47 Bevor Sie Journale zu einem GFS Dateisystem hinzuf gen k nnen Sie die journals Option des gfs2_tool Befehls verwenden um herauszufinden wie viele Journale das GFS2 Dateisystem derzeit enth lt Das folgende Beispiel zeigt die Anzahl und die Gr e der Journale im unter mnt gfs2 eingeh ngten Dateisystem an root roth 01 cluster gfs2 gfs2_tool journals mnt gfs2 journal2 128MB journali 128MB journal 128MB 3 journal s found 4 7 1 Verwendung gfs2_jadd j Number MountPoint Number Gibt die Anzahl der neu hinzuzuf genden Journale an MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingehangt ist 4 7 2 Beispiele In diesem Beispiel wird ein Journal zum Dateisystem im myg fs2 Verzeichnis hinzugef gt gfs2_jadd j1 mygfs2 In diesem Beispiel werden zwei Journale zum Dateisystem im myg fs2 Verzeichnis hinzugef gt gfs2_jadd j2 mygfs2 4 7 3 Vollst ndige Verwendung gfs2_jadd Options MountPoint Device MountPoint Device MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingeh ngt ist Device Gibt den Ger teknoten des Dateisystems an Tab
43. altung von GFS2 Anmerkung Der umount Befehl ist ein Linux Systembefehl Informationen zu diesem Befehl finden Sie auf der man Seite des umount Linux Befehls 4 3 1 Verwendung umount MountPoint MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem derzeit eingehangt ist 4 4 Spezielle berlegungen zum Einh ngen von GFS2 Dateisystemen GFS2 Dateisysteme die manuell eingeh ngt wurden statt automatisch durch einen Eintrag in der fstab Datei sind dem System nicht bekannt wenn dieses beim Herunterfahren die Dateisysteme aush ngt Infolgedessen wird das GFS2 Skript das GFS2 Dateisystem nicht aush ngen Nachdem das GFS2 Shutdown Skript ausgef hrt wurde beendet der standardm ige Shutdown Prozess alle verbleibenden Benutzerprozesse einschlie lich der Cluster Infrastruktur und versucht das Dateisystem auszuh ngen Dieses Aush ngen schl gt jedoch ohne die Cluster Infrastruktur fehl sodass sich das System aufh ngt Um ein Aufh ngen des Systems zu verhindern wenn die GFS2 Dateisysteme ausgeh ngt werden haben Sie zwei M glichkeiten Verwenden Sie grunds tzlich einen Eintrag in der fstab Datei um das GFS2 Dateisystem einzuh ngen Falls ein GFS2 Dateisystem manuell mit dem mount Befehl eingeh ngt wurde h ngen Sie dies auch manuell wieder mit dem umount Befehl aus bevor Sie einen Neustart durchf hren oder das System herunterfahren Falls sich Ihr Dateisystem beim Aush ngen w hrend des System Shutd
44. alwerten angegeben aber f r die Tracepoints wurden Dezimalwerte gew hlt sodass die Nummern leicht mit anderen Tracepoint Ausgaben zum Beispiel von blktrace und mit der Ausgabe von stat 1 verglichen werden k nnen 75 Eine a Liste aller Flags sowohl f r den Halter als auch den Glock sehen Siein Tabelle C 4 nicht ber die Glock d ebug fs Schnittstelle zur N none Tabelle C 3 Glock Typen zeigt die Bedeutung der verschiedenen Glock Typen Tabelle C 3 Glock Typen Typnumm Sperrtyp Verwendung er 1 trans Transaktionssperre 2 Inode Inode Metadaten und Daten 3 rgrp Ressourcengruppen Metadaten 4 meta Der Superblock 5 iopen Feststellung der letzten Schlie ers des Inodes 6 flock flock 2 Systemaufruf 8 quota Kontingentoperationen 9 journal Journal Mutex Einer der wichtigsten Glock Flags ist das l Flag gesperrt Dies ist die Bit Sperre mit der der Zugriff auf den Glock Status vermittelt wird wenn ein Statuswechsel durchgef hrt werden soll Es wird gesetzt wenn die State Machine eine externe Sperranforderung ber den DLM zu senden bereit ist und wird erst gel scht wenn der komplette Vorgang abgeschlossen wurde Manchmal kann dies dazu f hren dass mehr als eine Sperranforderung gesendet wurde mit verschiedenen Invalidierungen dazwischen Tabelle C 4 Glock Flags zeigt die Bedeutung der verschiedenen Glock Flags Tabelle C 4 Glock Flags Flag Name Bedeutung d Pending demote Eine wartende Anfrage
45. artpriorit t von 26 hat 73 ist die Stopppriorit t was in diesem Fall bedeutet dass das Skript w hrend des Herunterfahrens vor dem GFS2 Skript gestoppt wird welches eine Stopppriorit tvon 74 hat Die Start und Stoppwerte zeigen dass Sie die angegebene Aktion manuell durch Ausf hren der Befehle service start und service stop vornehmen k nnen Falls das Skript beispielsweise fredwilma hei t k nnen Sie service fredwilma start ausf hren Dieses Skript sollte im etc init d Verzeichnis abgelegt werden mit denselben Berechtigungen wie die anderen Skripte in dem Verzeichnis Sie k nnen anschlie end den Befehl chkconfig on ausf hren um das Skript mit den angegebenen Runlevels zu verkn pfen Falls das Skript beispielsweise fredwilma hei t k nnen Siechkconfig fredwilma on ausf hren bin bash chkconfig 345 29 73 description mount unmount my custom bind mounts onto a gfs2 subdirectory HHH BEGIN INIT INFO Provides HHH END INIT INFO etc init d functions case 1 in start In this example fred and wilma want their home directories bind mounted over the gfs2 directory mnt gfs2a which has been mounted as mnt gfs2a mkdir p mnt gfs2a home fred amp gt dev null mkdir p mnt gfs2a home wilma amp gt dev null bin mount bind mnt gfs2a home fred home fred bin mount bind mnt gfs2a home wilma home wilma I stop bin umount mnt gfs2a home fred bin umount mnt gfs2a home wilm
46. attenkontingente mit dem edquota Befehl zu Beachten Sie dass Kontingente nicht erzwungen werden wenn Sie Ihr Dateisystem nur im Berechnen Modus eingeh ngt haben durch Angabe der Option quota account Global File System 2 Um ein Festplattenkontingent f r einen Benutzer zu konfigurieren f hren Sie als Root in einer Shell den folgenden Befehl aus edquota username Fuhren Sie diesen Schritt fur jeden Benutzer durch dem ein Kontingent Zugewiesen werden soll Wenn beispielsweise in der etc fstab Datei Kontingente fur die home Partition dev Vo1lGroup00 LogVo102 im nachfolgenden Beispiel aktiviert sind und Sie den Befehl edquota testuser ausf hren sehen Sie Folgendes im Standard Editor des Systems Disk quotas for user testuser uid 501 Filesystem blocks soft hard inodes soft hard dev VolGroup LogVol B2 440436 0 0 Anmerkung Der edquota Befehl nutzt den Texteditor der durch die EDITOR Umgebungsvariable definiert wurde Um den Editor zu ndern setzen Sie die EDITOR Umgebungsvariable in Ihrer bash_profile Datei auf den vollst ndigen Pfad zum Editor Ihrer Wahl Die erste Spalte zeigt den Namen des Dateisystems auf dem Kontingente aktiviert wurden Die zweite Spalte zeigt wie viele Bl cke der Benutzer derzeit verbraucht Die n chsten zwei Spalten legen die weichen und harten Blockgrenzen f r den Benutzer auf dem Dateisystem fest Die weiche Blockgrenze definiert den maximalen Speicherplatz der verbraucht we
47. beziehen kann 2 9 2 Leistungsoptimierung mit GFS2 Normalerweise ist es mdglich fur eine problematische Applikation die Art und Weise anzupassen wie diese ihre Daten speichert um dadurch eine erheblich bessere Leistung zu erreichen Ein typisches Beispiel f r eine problematische Applikation ist ein E Mail Server Diese verf gen oft ber ein Spool Verzeichnis das Dateien f r jeden Benutzer enth lt mbox oder ber ein Verzeichnis 24 Dntr nh nn Ores Betrieb von GFS2 J Kapitel 2 Uberlegungen zur Konfiguration und zum B vw LA LA J J fur jeden Benutzer das eine Datei fur jede Nachricht enthalt maildir Wenn Anfragen Uber IMAP eingehen wird idealerweise jedem Benutzer eine Affinit t zu einem bestimmten Knoten zugewiesen Auf diese Weise werden deren Anfragen zum Ansehen und L schen von E Mails tendenziell vom Cache auf diesem Knoten bedient Falls dieser Knoten ausf llt kann die Sitzung nat rlich auf einem anderen Knoten neu gestartet werden Wenn E Mail ber SMTP eingeht k nnen die einzelnen Knoten so eingerichtet werden dass sie die E Mails eines bestimmten Benutzers standardm ig an einen bestimmten Knoten weiterleiten Falls dieser Knoten nicht l uft kann der empfangende Knoten die Nachricht direkt im Mail Spool Verzeichnis des Benutzers speichern Dieser Aufbau dient dazu eine bestimmte Gruppen von Dateien im Normalfall vorrangig auf einem einzigen Knoten zwischenzuspeichern erlaubt jedoch direkten
48. cal Volume Manager Informationen zur Installation und Verwaltung der Red Hat Cluster Suite finden Sie im Handbuch Cluster Administration 3 2 Schritte zur erstmaligen Einrichtung Die erstmalige Einrichtung von GFS2 umfasst die folgenden Schritte 1 Einrichten von logischen Datentr gern 2 Erstellen der GFS2 Dateisysteme 3 Einh ngen der Dateisysteme F hren Sie die folgenden Schritte aus um GFS2 zum ersten Mal einzurichten 1 Verwenden Sie LVM um einen logischen Datentr ger f r jedes Red Hat GFS2 Dateisystem zu erstellen 29 Global File System 2 30 Anmerkung Sie k nnen die in der Red Hat Cluster Suite enthaltenen init d Skripte verwenden um das Aktivieren und Deaktivieren der logischen Datentrager zu automatisieren Weitere Informationen ber init d Skripte finden Sie unter Konfiguration und Verwaltung eines Red Hat Clusters 2 Erzeugen Sie auf den in Schritt 1 erstellten logischen Datentr gern GFS2 Dateisysteme W hlen Sie einen eindeutigen Namen f r jedes Dateisystem Weitere Informationen ber das Erstellen von GFS2 Dateisystemen finden Sie in Abschnitt 4 1 Erstellen eines Dateisystems Sie k nnen eines der folgenden Befehlsformate verwenden um ein geclustertes GFS2 Dateisystem zu erstellen mkfs gfs2 p lock_dlm t ClusterName FSName j NumberJournals BlockDevice mkfs t gfs2 p lock_dlm t LockTableName j NumberJournals BlockDevice Weitere Informationen ber das Erstellen von
49. cherung 2 7 Hardware berlegungen 2 8 Leistungsprobleme Mehr Informationen im Red Hat Kundenportal O1 N oO O O 0 10 10 10 11 11 11 12 12 13 13 13 13 13 13 13 14 14 16 16 16 17 17 17 18 18 18 19 19 19 20 20 20 20 21 21 22 22 22 23 nhal Cila Cvctam 2 lobal File System L 2 9 GFS2 Knotensperrung 2 9 1 Probleme mit Posix Sperren 2 9 2 Leistungsoptimierung mit GFS2 2 9 3 Suche und Bereinigung von Problemen bei der GFS2 Leistung mit GFS2 Lock Dump Kapitel 3 Erste Schritte zer I rere rer ire ere eers 3 1 Grundlegende Vorbereitungen 3 2 Schritte zur erstmaligen Einrichtung Kapitel 4 Verwaltung von GFS2 cc run nn 4 1 Erstellen eines Dateisystems 4 1 1 Verwendung 4 1 2 Beispiele 4 1 3 Vollstandige Optionen 4 2 Einhangen eines Dateisystems 4 2 1 Verwendung 4 2 2 Beispiel 4 2 3 Vollst ndige Verwendung 4 3 Aushangen eines Dateisystems 4 3 1 Verwendung 4 4 Spezielle Uberlegungen zum Einhangen von GFS2 Dateisystemen 4 5 Verwalten von GFS2 Festplattenkonting enten 4 5 1 Konfigurieren von Festplattenkonting enten 4 5 1 1 Einrichten von Kontingenten im Erzwingen oder Berechnen Modus 4 5 1 1 1 Verwendung 4 5 1 1 2 Beispiele 4 5 1 2 Erstellen der Konting ent Datenb ankdateien 4 5 1 3 Kontingente pro Benutzer zuweisen 4 5 1 4 Kontingente pro Gruppe zuweisen 4 5 2 Verwalten von Festplattenkontingenten 4 5 3 Pflegen der Genauigkeit von Kontingenten 4 5 4 Synch
50. chreibt die verf gbaren GFS2 spezifischen Werte f r o option die zum Zeitpunkt des Einh ngens an GFS2 bergeben werden k nnen Anmerkung Diese Tabelle enth lt Beschreibungen der Optionen die ausschlie lich mit lokalen Dateisystemen verwendet werden Beachten Sie jedoch dass Red Hatf r die Red Hat Enterprise Linux 6 Release den Einsatz von GFS2 nicht f r ein Ein Knoten System unterst tzt Red Hat unterst tzt auch weiterhin Ein Knoten GFS2 Dateisysteme zum Einh ngen von Snapshots von Cluster Dateisystemen z B zwecks Datensicherung Tabelle 4 2 GFS2 spezifische Einh ngeoptionen Optionen Beschreibung acl Erlaubt das Ver ndern von Datei ACLs Wird ein Dateisystem ohne die Einh ngeoption acl eingeh ngt k nnen Benutzer die ACLs zwar einsehen mittels getfacl d rfen diese jedoch nicht ver ndern mittels setfacl data ordered writeback Wenn data ordered gesetzt ist werden die Benutzerdaten die von einer Transaktion ver ndert wurden auf die Festplatte gespeichert bevor die Transaktion auf die Festplatte festgeschrieben wird Dies sollte verhindern dass der Benutzer nach einem Absturz in einer Datei nicht initialisierte Bl cke sieht Wenn dagegen data writeback gesetzt ist werden die Benutzerdaten zu einem beliebigen Zeitpunkt nach deren nderung auf die Festplatte geschrieben Dies garantiert zwar nicht dieselbe Konsistenz wie der ordered Modus sollte aber bei einer gewissen Auslastung etwas schnell
51. dieser Fall bei Ihnen eintreten sollten Sie die folgenden Daten sammeln Den GFS2 Sperr Dump f r das Dateisystem auf jedem Knoten cat sys kernel debug gfs2 fsname glocks gt glocks fsname nodename Den DLM Sperr Dump f r das Dateisystem auf jedem Knoten Sie erhalten diese Informationen mit dim_tool dlm_tool lockdebug sv Isname In diesem Befehl ist Isname der Lockspace Name der von DLM f r das fragliche Dateisystem genutzt wird Sie finden diesen Wert in der Ausgabe des group_tool Befehls Die Ausgabe des Befehls sysrq t Die Inhalte der var log messages Datei Sobald Sie diese Daten gesammelt haben k nnen Sie ein Ticket beim Red Hat Support erstellen und die gesammelten Daten einreichen 5 3 GFS2 Dateisystem h ngt sich auf und erfordert Neustart aller Knoten Falls sich Ihr GFS2 Dateisystem aufh ngt und darauf ausgef hrte Befehle nicht zur ckkehren das System nach dem Neustart aller Knoten im Cluster jedoch wieder einwandfrei l uft sollten Sie die folgenden Dinge berpr fen Unter Umst nden ist das Fencing fehlgeschlagen GFS2 Dateisysteme frieren im Falle einer fehlgeschlagenen Abgrenzung ein um die Datenintegrit t zu gew hrleisten berpr fen Sie die Protokolldateien auf Nachrichten bez glich einer fehlgeschlagener Abgrenzung zum Zeitpunkt des Ausfalls Vergewissern Sie sich dass das Fencing einwandfrei konfiguriert ist Kapitel 5 Diagnose und Behebung von Problemen mit GFS2 Dateisystemen Das G
52. e Sperre DF CW Zeitversetzt gleichzeitiges Schreiben verwendet f r Direct I O und Dateisystem Freeze Global File System 2 Glocks bleiben im Speicher bis sie entsperrt werden auf Anforderung eines anderen Knotens oder auf Anforderung der VM und es keine lokalen Benutzer gibt Zu diesem Zeitpunkt werden sie aus der Glock Hash Tabelle entfernt und freigegeben Beim Erstellen eines Glocks wird die DLM Sperre nicht sofort mit dem Glock verkn pft Die DLM Sperre wird bei der ersten Anforderung an den DLM mit dem Glock verkn pft und wenn diese Anforderung erfolgreich ist dann wird das Flag I Initial auf dem Glock gesetzt Tabelle C 4 Glock Flags zeigt die Bedeutungen der verschiedenen Glock Flags Sperrmodus NL Null bis das Glock freigegeben wird Eine Herabstufung der DLM Sperre von NL auf entsperrt ist immer die letzte Operation im Leben eines Glocks Anmerkung Dieser besondere Aspekt des DLM Sperrverhaltens hatsich seit Red Hat Enterprise Linux 5 ver ndert in dem manchmal die mit Glocks verkn pften DLM Sperren v llig entsperrt werden Daher hat Red Hat Enterprise Linux 5 einen anderen Mechanismus um sicherzustellen dass LVbs Lock Value Blocks bewahrt werden wo erforderlich Die neue Regelung die in Red Hat Enterprise Linux 6 verwendet wird wurde erst durch die Integration des Llock_d1m Sperrmoduls nicht mit dem DLM selbst zu verwechseln in GFS2 erm glicht Jedem Glock kann eine Reihe von Haltern z
53. e in die Kontingentdatei bertragen wird Dies ist die bevorzugte Methode zum Einstellen dieses Parameters Der Parameter istein ganzzahliger Wert gr er als Null Der Standard betr gt 60 Sekunden Kleinere Werte f hren zu schnelleren Aktualisierungen der Kontingentinformationen und einer geringeren Wahrscheinlichkeit dass Benutzer oder Gruppen ihre Kontingente berschreiten Gr ere Werte machen Dateisystemoperationen mit aktiven Kontingenten schneller und effizienter Das Einstellen von statfs_quantum auf 0 ist die bevorzugte Methode zum Festlegen der langsamen Version von statfs Der Standardwert betr gt 30 Sekunden was die maximale Zeit festlegt bevor statfs nderungen mit der Master statfs Datei synchronisiert werden Dies kann angepasst werden um schnellere weniger genaue statfs Werte oder langsamere genauere Werte zu erm glichen Wenn diese Option auf O gesetzt ist wird statfs immer die echten Werte berichten Implementiert eine maximale Grenze prozentualer nderungen in den statfs Informationen auf lokaler Basis bevor diese mit der Master statfs Datei synchronisiert werden selbst wenn die festgelegte Zeitspanne noch nicht berschritten wurde Falls die statfs_quantum Einstellung O lautet wird diese Einstellung ignoriert 4 3 Aush ngen eines Dateisystems Das GFS2 Dateisystem kann auf dieselbe Art und Weise wie jedes andere Linux Dateisystem ausgeh ngt werden mithilfe des umount Befehls Kapitel 4 Verw
54. e mit den Optionen noatime und nodiratime einzuh ngen Dadurch wendet GFS2 weniger Zeit zur Aktualisierung der Festplatten Inodes f r jeden Zugriff auf 2 5 2 DLM Optimierungsoptionen Erh hen der DLM Tabellengr e DLM verwendet mehrere Tabellen um Informationen ber Sperren auf allen Knoten im Cluster Zu verwalten zu koordinieren und zu verteilen Eine Erh hung der DLM Tabellengr e kann m glicherweise die Leistung steigern In Red Hat Enterprise Linux 6 1 und h her wurden die Standardgr en dieser Tabellen angehoben Sie k nnen diese jedoch auch manuell mit den folgenden Befehlen erh hen echo 1024 gt sys kernel config dlm cluster lkbtbl_size echo 1024 gt sys kernel config dlm cluster rsbtbl_size echo 1024 gt sys kernel config dlm cluster dirtbl_size Die durch diese Befehle vorgenommenen nderungen sind nicht persistent und berdauern keinen Neustart Deshalb m ssen Sie diese Befehle zu einem der Startup Skripte hinzuf gen und vor dem Einh ngen eines GFS2 Dateisystemes ausf hren andernfalls werden die nderungen ohne jegliche Benachrichtigung ignoriert 2 5 3 VFS Optimierungsoptionen Recherchieren und Ausprobieren Wie alle Linux Dateisysteme befindet sich GFS2 auf einer Schicht namens virtuelles Dateisystem virtual file system oder kurz VFS Sie k nnen die VFS Ebene mithilfe des sysctl Befehls optimieren um die zugrunde liegende GFS2 Leistung zu verbessern Zum Beispiel k nnen die Werte f rdirty_back
55. eiben sodass eine Dateifragmentierung sehr viel wahrscheinlicher ist Diese Dateifragmentierung kann Leistungsprobleme verursachen Nan 7 r nnf r rat nr IAN siim Ratrinh nn CEC gen zur Konfiguration und zum Betrieb von GFS2 LA J Kapitel 2 Uberlegun IT Dar ber hinaus verbringt die GFS2 Blockzuweisung auf einem fast vollen Dateisystem mehr Zeit damit mehrere Ressourcengruppen zu durchsuchen Dies verursacht Sperrkonflikte die auf einem Dateisystem mit ausreichend freiem Speicherplatz vermeidbar gewesen w ren Auch dies kann auch zu Leistungsproblemen f hren Aus diesen Gr nden wird empfohlen kein Dateisystem auszuf hren das ber 85 Prozent voll ist wobei diese Zahl jenach Workload abweichen kann 2 3 2 Dateizuweisung durch die jeweiligen Knoten wenn m glich Aufgrund der Funktionsweise des Distributed Lock Managers DLM treten mehr Sperrkonflikte auf wenn alle Dateien von einem Knoten zugeordnet wurden und andere Knoten Bl cke zu diesen Dateien hinzuf gen m ssen In GFS Version 1 wurden alle Sperren von einem zentralen Sperrmanager verwaltet dessen Aufgabe es war die Sperren im gesamten Cluster zu steuern Dieser zentrale Sperrmanager Grand Unified Lock Manager oder kurz GULM war problematisch da er einen Single Point of Failure bildete Das neue Sperrschema in GFS2 DLM verteilt die Sperren im gesamten Cluster Wenn ein Knoten im Cluster ausf llt werden die Sperren von den anderen Knoten wiederhe
56. eim Start nicht feststellen ob das Dateisystem auf einem anderen Knoten im Cluster eingehangt ist Sie sollten den fsck gfs2 Befehl erst nach dem Systemstart manuell durchf hren Um sicherzustellen dass der fsck gfs2 Befehl nicht auf einem GFS2 Dateisystem beim Systemstart ausgef hrt werden kann ndern Sie die etc fstab Datei sodass die beiden letzten Spalten f r den Einh ngepunkt des GFS2 Dateisystems O 0 statt 1 1 anzeigen oder beliebige andere Zahlen wie im folgenden Beispiel dev VG12 1lv_svr_home svr_home gfs2 defaults noatime nodiratime noquota 0 52 Kapitel 4 Verwaltung von GFS2 Anmerkung Falls Sie bereits Erfahrungen mit dem gfs_fsck Befehl auf GFS Dateisystemen haben beachten Sie bitte dass sich der fsck gfs2 Befehl von einigen lteren gfs_fsck Versionen wie folgt unterscheidet Wenn Sie Strg C w hrend der Ausf hrung von fsck gfs2 dr cken wird die Verarbeitung unterbrochen und eine Eingabeaufforderung angezeigt die Sie fragt ob Sie den Befehl abbrechen m chten den Rest des aktuellen Durchlaufs berspringen m chten oder die Verarbeitung fortsetzen m chten Sie k nnen den Grad der Ausf hrlichkeit der Ausgabe erh hen indem Sie das v Flag verwenden Ein weiteres v erh ht die Ausf hrlichkeitnochmals Sie k nnen den Grad der Ausf hrlichkeit der Ausgabe verringern indem Sie das q Flag verwenden Ein weiteres q verringert die Ausf hrlichkeit nochmals Die Option n
57. eingeh ngt wird k nnen Sie Ihre fstab Datei wie folgt ordnen 1 Einh ngen der lokalen Dateisysteme die f r den Bind Mount notwendig sind 2 Bind Mount des Verzeichnisses auf dem das GFS2 Dateisystem eingeh ngt werden soll 3 Einh ngen des GFS2 Dateisystems Falls Ihre Konfiguration erfordert dass Sie ein lokales Verzeichnis oder Dateisystem mittels Bind Mount auf einem GFS2 Dateisystem einh ngen w rde auch die richtige Reihenfolge der Dateisysteme in der fstab Datei die Dateisysteme nicht richtig einh ngen da das GFS2 Dateisystem erst eingeh ngt wird wenn das GFS2 init Skript ausgef hrt wird In diesem Fall sollten Sie ein init Skript schreiben um den Bind Mount derart zu konfigurieren dass der Bind Mount erst durchgef hrt wird nachdem das GFS2 Dateisystem eingeh ngt wurde Das folgende Skript ist ein Beispiel f r ein benutzerdefiniertes init Skript Dieses Skript f hrt einen Bind Mount von zwei Verzeichnissen auf zwei Verzeichnisse eines GFS2 Dateisystems durch In diesem Beispiel gibt es einen vorhandenen GFS2 Einh ngepunkt unter mnt gfs2a der eingeh ngt wird wenn das GFS2 init Skript nach dem Cluster Start ausgef hrt wird In diesem Beispielskript bedeuten die Werte der chkconfig Anweisung Folgendes 345 steht f r die Runlevels in denen das Skript gestartet wird 29 ist die Startpriorit t was in diesem Fall bedeutet dass das Skript zum Startzeitpunktnach dem GFS2 init Skript ausgef hrt wird welches eine St
58. eisystem einh ngen Informationen ber das Hinzuf gen von Journalen zu einem GFS2 Dateisystem finden Sie in Abschnitt 4 7 Hinzuf gen von Journalen zu einem Dateisystem Speicherger te und Partitionen Legen Sie die Speicherger te und Partitionen fest die zum Erstellen von logischen Datentr gern via CLVM in den Dateisystemen verwendet werden sollen 10 Kapitel 1 berblick ber GFS2 Anmerkung Mit GFS2 kann es unter Umst nden zu Leistungseinbu en kommen wenn gleichzeitig von mehr als einem Knoten in demselben Verzeichnis viele Operationen zum Erstellen und L schen ausgef hrt werden Falls dies auf Ihrem System Probleme verursacht sollten Sie die Dateierstellung und l schung in einem Verzeichnis m glichst lokal auf einem Knoten durchf hren Weitere Empfehlungen zur Erstellung Verwendung und Wartung eines GFS2 Dateisystems finden Sie in Kapitel 2 berlegungen zur Konfiguration und zum Betrieb von GFS2 1 3 Installation von GFS2 Zus tzlich zu den vom Red Hat High Availability Add On ben tigten Paketen m ssen Sie das gfs2 utils Paket fur GFS2 und das Lvm2 cluster Paket f r den Clustered Logical Volume Manager CLVM installieren Die Pakete Lvm2 cluster und gfs2 utils sind Teil des ResilientStorage Channels der vor der Installation dieser Pakete aktiviert sein muss Sie k nnen den folgenden yum install Befehl verwenden um die Software Pakete f r das Red Hat High Availability Add On zu installier
59. elle 4 4 GFS2 spezifische Optionen zum Hinzuf gen von Journalen beschreibt die GFS2 spezifischen Optionen die Sie beim Hinzuf gen von Journalen zu einem GFS2 Dateisystem verwenden k nnen Tabelle 4 4 GFS2 spezifische Optionen zum Hinzuf gen von Journalen Flag Parameter Beschreibung h Hilfe Zeigt kurze Informationen Zur Verwendung an Flag Parameter Beschreibung J MegaBytes Gibt die Gr e der neuen Journale in Megabytes an Die standardm ige Journalgr e ist 128 Megabytes Die minimale Gr e ist 32 Megabytes Um Journale mit verschiedenen Gr en zum Dateisystem hinzuzuf gen muss der gfs2_jadd Befehl f r jede gew nschte Journalgr e ausgef hrt werden Die angegebene Gr e wird abgerundet sodass diese einem Vielfachen der Journal Segmentgr e entspricht die bei der Erstellung des Dateisystems festgelegt wurde j Number Gibt die Anzahl der neuen Journale an die vom gfs2_jadd Befehl hinzugef gt werden Der standardm ige Wert ist 1 q Verringert die Ausf hrlichkeit der Ausgabe V Zeigt Informationen Zur Befehlsversion an 4 8 Datenjournale Gew hnlich schreibt GFS2 nur Metadaten in die Journale Dateiinhalte werden nachtr glich auf die Festplatte geschrieben wenn der Kernel seine regelm ige Synchronisation durchf hrt die alle Dateisystempuffer auf die Platte schreibt Ein fsync Aufruf auf einer Datei verursacht dass die Daten der Datei sofort auf die Platte geschrieben werden D
60. en yum install rgmanager lvm2 cluster gfs2 utils Allgemeine Informationen Uber das Red Hat High Availability Add On und Uber die Cluster Verwaltung finden Sie im Handbuch Cluster Administration 1 4 Unterschiede zwischen GFS und GFS2 Dieser Abschnitt listet die Verbesserungen und nderungen auf die GFS2 gegen ber GFS bietet Die Migration von GFS auf GFS2 erfordert dass Sie Ihre GFS Dateisysteme mithilfe des gfs2_convert Dienstprogramms auf GFS2 konvertieren Informationen ber das gfs2_convert Dienstprogramm finden Sie in Anhang B Konvertieren eines Dateisystems von GFS auf GFS2 1 4 1 GFS2 Befehlsnamen Im Allgemeinen ist die Funktionalit t von GFS2 mit der von GFS identisch Allerdings verweisen die Namen der Dateisystembefehle auf GFS2 anstelle von GFS Tabelle 1 1 GFS und GFS2 Befehle zeigt die GFS Befehle samt entsprechender GFS2 Befehle Tabelle 1 1 GFS und GFS2 Befehle GFS Befehl GFS2 Befehl Beschreibung mount mount Einh ngen eines Dateisystems Das System ermittelt selbst ob das Dateisystem ein GFS oder ein GFS2 Dateisystemtyp ist F r mehr Informationen zu den GFS2 Einh ngeoptionen siehe die man Seite f r gfs2 _mount 8 umount umount Aush ngen eines Dateisystems 11 GFS Befehl GFS2 Befehl Beschreibung feck fsck Uberprufen und Reparieren eines ausgeh ngten Dateisystems gfs_fsck fsck gfs2 gfs_grow gfs2_grow Erweitern eines eingehangten Dateisystems gfs_jadd gfs2_jadd Hinzuf
61. en ob eine einfache Ausfallsicherungsl sung wie in diesem Verfahren beschrieben f r Ihr System geeignet ist 2 5 6 Samba SMB oder Windows File Serving ber GFS2 Ab der Red Hat Enterprise Linux 6 2 Release k nnen Sie Samba SMB oder Windows File Serving von einem GFS2 Dateisystem mit CTDB verwenden das Aktiv Aktiv Konfigurationen erm glicht Informationen Uber geclusterte Samba Konfigurationen finden Sie im Cluster Administrationshandbuch Ein zeitgleicher Zugriff von au erhalb Sambas auf die Daten auf der Samba Freigabe wird nicht unterstutzt Es gibt derzeit keine Unterstutzung fur GFS2 Cluster Leases was das File Serving mit Samba verlangsamt 2 6 Datensicherung Es ist wichtig regelm ig Sicherungskopien Ihres GFS2 Dateisystems f r den Notfall zu erstellen unabh ngig von der Gr e des Dateisystems Viele Systemadministratoren f hlen sich sicher weil sie durch RAID Multipath Spiegelung Snapshots und andere Formen der Redundanz gesch tzt sind aber man kann nie sicher genug sein Das Anlegen einer Sicherungskopie eines Knotens oder einer Gruppe von Knoten kann problematisch sein da dieser Vorgang f r gew hnlich das sequenzielle Lesen des gesamten Dateisystems erfordert Wenn dies von einem einzelnen Knoten durchgef hrt wird beh lt dieser Knoten alle Daten im Cache bis die anderen Knoten im Cluster beginnen Sperren anzufordern Die Durchf hrung dieser Artvon Sicherungsprogramm im laufenden Betrieb des Clust
62. en Operationen genutzt die Daten ver ndern z B der wri te Systemaufruf Falls ein anderer Knoten ein Glock anfordert das jedoch nicht sofort zugewiesen werden kann dann sendet der DLM eine Nachricht an die Knoten die derzeit das Glock halten und dadurch die Anfrage blockieren damit diese ihre Sperren verwerfen Das Verwerfen von Glocks kann gemessen an den Ma st ben der meisten Dateisystemoperationen ein langwieriger Vorgang sein Das Verwerfen Global File System 2 eines gemeinsam verwendeten Glocks erfordert lediglich dass der Cache f r ung ltig erkl rt wird Invalidierung was vergleichsweise schnell und proportional zur Menge der gecachten Daten ist Das Verwerfen eines exklusiven Glocks erfordert die Bereinigung der Protokolle und das Schreiben s mtlicher ver nderter Daten auf die Festplatte gefolgt von der Invalidierung des Caches wie beim gemeinsam verwendeten Glock Der Unterschied zwischen einem Ein Knoten Dateisystem und GFS2 besteht darin dass ein Ein Knoten Dateisystem ber einen einzigen Cache verf gt w hrend GFS2 ber separate Caches auf jedem Knoten verf gt In beiden F llen ist die Latenz beim Zugriff auf gecachte Daten hnlich gro allerdings ist die Latenz beim Zugriff aufnicht gecachte Daten deutlich gr er mit GFS2 wenn ein anderer Knoten bereits dieselben Daten gecacht hatte Anmerkung Aufgrund der Artund Weise wie Caching in GFS2 implementiert ist erreichen Sie die beste Leistung i
63. en den Systemaufruf fallocate 1 mit dem Sie Datenbl cke vorab zuweisen 2 4 Cluster berlegungen Beachten Sie bei der Festlegung der Anzahl der Knoten die Ihr System enthalten wird dass ein Kompromiss zwischen hoher Verf gbarkeit und Leistung geschlossen werden muss Bei einer gr eren Anzahl von Knoten wird es zunehmend schwierig die Arbeitsbelastung zu skalieren Aus diesem Grund unterst tzt Red Hat die Verwendung von GFS2 nicht f r Cluster Dateisystembereitstellungen von mehr als 16 Knoten Die Implementierung eines Cluster Dateisystems ist kein einfacher Ersatz f r eine Bereitstellung mit einem einzelnen Knoten Wir empfehlen dass Sie einen Zeitraum von etwa 8 12 Wochen zum Testen auf neuen Installationen einplanen um das System zu testen und sicherzustellen dass es die erforderliche Leistung bringt W hrend dieser Zeit k nnen jegliche Leistungs oder Funktionsprobleme gel st werden wobei Sie Fragen an das Red Hat Support Teamrichten sollten a CO minha mila Curctam O lo D al File oystem Wir empfehlen dass Kunden die eine Bereitstellung von Clustern erwagen Ihre Konfigurationen noch vor der Implementierung vom Red Hat Support untersuchen lassen um m gliche sp tere Support Probleme zu vermeiden 2 5 berlegungen zur Verwendung Dieser Abschnitt enth lt generelle Empfehlungen zur Verwendung von GFS2 2 5 1 Einh ngeoptionen noatime und nodiratime Es wird allgemein empfohlen die GFS2 Dateisystem
64. en f r einen Benutzer gfs2_quota get u User f MountPoint Anzeigen von Kontingentgrenzen f r eine Gruppe gfs2_quota get g Group f MountPoint Anzeigen der gesamten Kontingentdatei gfs2_quota list f MountPoint minha mila Curctam O lo D al File oystem User Die Benutzer ID eines bestimmten Benutzers Uber den Informationen angezeigt werden sollen Dabei kann es sich entweder um einen Benutzernamen aus der Passwortdatei oder um die UID Nummer handeln Group Die Gruppen ID einer bestimmten Gruppe ber die Informationen angezeigt werden sollen Dabei kann es sich entweder um einen Gruppennamen aus der Gruppendatei oder um die GID Nummer handeln MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion ausgef hrt werden soll A 2 2 Befehlsausgabe Die GFS2 Kontingentinformationen vom gfs2_quota Befehl wird folgenderma en dargestellt user User limit LimitSize warn WarnSize value Value group Group limit LimitSize warn WarnSize value Value Die Werte LimitSize WarnSize und Value werden standardm ig in Megabyte Einheiten angegeben Wenn Sie auf der Befehlszeile die Flags k s oder b hinzuf gen ndert dies die Einheiten auf Kilobytes Sektoren bzw Dateisystembl cke User Ein Benutzername oder eine Benutzer ID auf den die sich diese Daten beziehen Group Ein Gruppenname oder eine Gruppen ID auf den die sich diese Daten beziehen LimitSize Die f r den Benutzer oder die Gruppe festgelegte harte Gr
65. enze Dieser Wert ist Null falls keine Grenze festgelegt wurde Value Der tats chlich vom Benutzer oder von der Gruppe verwendete Festplattenplatz A 2 3 Anmerkungen Beim Anzeigen der Kontingentinformationen l st der Befehl gfs2_quota die UIDs und GIDs nicht in Namen auf wenn die Option n auf der Befehlszeile hinzugef gt wird Der Platz der den versteckten Dateien von GFS2 zugewiesen ist kann f r die Root UID und GID aus der Anzeige herausgelassen werden indem Sie die Option d auf der Befehlszeile hinzuf gen Dies ist hilfreich wenn Sie die Werte von gfs2_quota mit den Ergebnissen des du Befehls abgleichen m chten A 2 4 Beispiele Dieses Beispiel zeigt Kontingentinformationen f r alle Benutzer und Gruppen f r die Grenzen Anhana A co C94 _Mantinnantrwannaltinn mit dam Rafah afes Anhang A GFS2 Kontingentverwaltung mit dem Befehl gfs gesetzt wurden oder die Festplattenplatz auf dem Dateisystem mygfs2 verwenden gfs2_quota list f mygfs2 Dieses Beispiel zeigt Kontingentinformationen in Sektoren f r die Gruppe users aufdem Dateisystem mygfs2 gfs2_quota get g users f mygfs2 s A 3 Synchronisieren von Kontingenten mit dem gfs2_quota Befehl GFS2 speichert s mtliche Kontingentinformationen auf seiner eigenen internen Datei auf der Festplatte Ein GFS2 Knoten aktualisiert diese Datei jedoch nicht nach jedem Schreibvorgang auf dem Dateisystem sondern standardm ig nur alle 60 Sekunden Dies ist no
66. er Aufruf kehrt zur ck wenn die Platte meldet dass s mtliche Daten sicher geschrieben wurden Das Pflegen von Datenjournale kann die ben tigte Zeit f r fsync Operationen f r sehr kleine Dateien verk rzen da zus tzlich zu den Metadaten auch die Dateidaten in das Journal geschrieben werden Dieser Vorteil verringert sich jedoch rapide bei gr eren Dateien Das Schreiben in mittlere und gro e Dateien ist sehr viel langsamer mit aktivierten Datenjournalen Applikationen dieauffsync zur Synchronisation von Dateidaten angewiesen sind erzielen eine bessere Leistung durch die Verwendung von Datenjournalen Das Datenjournaling kann automatisch f r jede GFS2 Datei aktiviert werden die in einem entsprechend gekennzeichneten Verzeichnis und all seinen Unterverzeichnissen erstellt wird Vorhandene Dateien mit Null L nge k nnen ebenfalls das Datenjournaling aktiviert oder deaktiviert haben Ist das Datenjournaling in einem Verzeichnis aktiviert wird das Verzeichnis auf inherit jdata gesetzt was bedeutet dass alle in diesem Verzeichnis erstellten Dateien und Unterverzeichnisse journalisiert werden Sie k nnen das Datenjournaling auf einer Datei mithilfe des chattr Befehls aktivieren bzw deaktivieren Die folgenden Befehle aktivieren das Datenjournaling auf der Datei mnt gfs2 gfs2_dir newfile und berpr fen anschlie end ob das Flag richtig gesetzt wurde root roth 01 chattr j mnt gfs2 gfs2_dir newfile root roth 01
67. er Kraft setzen indem Sie das Dateisystem mit der Option o errors panic einh ngen Wenn diese Option angegeben wird f hren Fehler die normalerweise zu einem R ckzug des Systems f hren stattdessen zu einer Panic des Systems Dadurch stoppt die Cluster Kommunikation des Knotens woraufhin der Knoten abgegrenzt wird Intern funktioniert die GFS2 R ckzugsfunktion indem der Kernel eine Nachrichtan den Daemon gfs_controld sendet und den R ckzug fordert Der Daemon gfs_controld f hrt das dmsetup Programm aus um das Device Mapper Error Ziel unter das Dateisystem zu platzieren um weitere Zugriffe auf das Blockger t zu verhindern Es teilt dem Kernel mit wenn dieser Vorgang abgeschlossen wurde Aus diesem Grund wird zur Unterst tzung von GFS2 vorausgesetzt dass immer ein CLVM Ger t unter GFS2 verwendet wird denn andernfalls ist es nicht m glich ein Device Mapper Ziel einzuf gen LZ oe J f W Ben m Is a ax aie Ee KAKNVIT Ql A LJQVKFIA NITIINAN Ar f ben amp gt na PICI 4 VCIWAIL ung von GFod Der Zweck des Device Mapper Error Ziels besteht darin sicherzustellen dass alle nachfolgenden O Operationen zu einem I O Fehler f hren wodurch es dem Dateisystem erm glicht wird ordnungsgem ausgeh ngt zu werden Deshalb ist es im Falle eines RUckzugs v llig normal eine Reihe von I O Fehlern vom Device Mapper Gerat in den Systemprotokollen vorzufinden Gelegentlich schl gt der R ckzug fehl falls es dem dmsetup Programm nich
68. er sein Standardm ig ist der ordered Modus gesetzt 36 D i D O se J A h Optionen ignore_local_fs Achtung Diese Option sollte nicht eingesetzt werden wenn GFS2 Dateisysteme gemeinsam verwendet werden localflocks Achtung Diese Option sollte nicht eingesetzt werden wenn GFS2 Dateisysteme gemeinsam verwendet werden lockproto LockModuleName locktable LockTableName quota off account on errors panic withdraw discard nodiscard Beschreibung Zwingt GFS2 dazu das Dateisystem als Multihost Dateisystem zu behandeln Standardm ig schaltet lock_nolock automatisch das localflocks Flag ein Teilt GFS2 mit dass die VFS Schicht Virtual File System alle flocks und fentl ausf hren soll Das localflocks Flag wird automatisch durch lock_nolock eingeschaltet Erlaubt dem Benutzer die Angabe welches Sperrprotokoll mit dem Dateisystem verwendet werden soll Falls LockModuleName nicht spezifiziert wurde wird der Name des Sperrprotokolls vom Dateisystem Superblock gelesen Erlaubt dem Benutzer die Angabe welche Sperrtabelle vom Dateisystem verwendet werden soll Aktiviert oder deaktiviert Festplattenkontingente f r das Dateisystem Werden die Festplattenkontingente in den account Status gesetzt f hrt dies dazu dass die Verbrauchsstatistiken pro UID GID korrekt vom Dateisystem gepflegt werden Grenzen und Warnwerte werden ignoriert Der Standardwert ist of F Wenn errors panic
69. er used soft hard grace used soft hard grace root 36 6 6 4 6 6 kristin 540 6 0 125 0 0 testuser 440400 500000 550000 37418 6 0 Um einen Bericht zum Festplattenverbrauch fur alle Option a Dateisysteme mit aktivierten Kontingenten zu erhalten fuhren Sie den folgenden Befehl aus repquota a Der Bericht ist zwar recht einfach verstandlich aber einige Punkte sollten dennoch erlautert werden Die Zeichen nach jedem Benutzer bieten einen schnellen Weg um festzustellen ob die Blockgrenzen berschritten wurden Falls die weiche Blockgrenze berschritten wurde erscheint ein anstelle des ersten in der Ausgabe Das zweite repr sentiert die Inode Grenze da GFS2 Global File System 2 Dateisysteme jedoch keine Inode Grenzen unterst tzen bleibt an dieser Stelle stets das Zeichen GFS2 Dateisysteme unterst tzen keine Schonfristen die grace Spalte bleibt demzufolge leer Beachten Sie dass der repquota Befehl nicht Uber NFS unterst tzt wird unabh ngig vom Zugrunde liegenden Dateisystem 4 5 3 Pflegen der Genauigkeit von Kontingenten Falls Sie Kontingente auf Ihrem Dateisystem aktivieren nachdem Sie einige Zeit mit deaktivierten Kontingenten gearbeitet haben sollten Sie den quotacheck Befehl ausf hren um die Kontingentdateien zu erstellen zu berpr fen und zu reparieren Au erdem sollten Sie den quotacheck Befehl ausf hren wenn Sie den Eindruck haben dass Ihre Kontingentdateien nicht genau s
70. erle gungen zul Konfiguration und zum Betrieb von GFS2 Ab der Red Hat Enterprise Linux 6 Release versucht der Befehl mkfs gfs2 eine optimale Blockgr e basierend auf der Ger tetopologie zu sch tzen Im Allgemeinen ist 4 K die bevorzugte Blockgr e da AK die standardm ige Seitengr e Arbeitsspeicher f r Linux ist Im Gegensatz zu einigen anderen Dateisystemen f hrt GFS2 die meisten seiner Operationen mit 4 K Kernel Puffern durch Wenn Ihre Blockgr e AK betr gt hat der Kernel weniger Arbeit bei der Handhabung der Puffer Es wird empfohlen dass Sie die Standardblockgr e verwenden da diese die beste Leistung bringen sollte Sie m ssen Sie eine andere Blockgr e wahrscheinlich nur dann verwenden wenn Sie eine effiziente Speicherung von vielen sehr kleinen Dateien ben tigen 2 1 3 Anzahl der Journale Eines f r jeden einh ngenden Knoten GFS2 erfordert ein Journal f r jeden Knoten im Cluster der das Dateisystem einh ngen muss Wenn Sie zum Beispiel einen 16 Knoten Cluster haben aber das Dateisystem von nur zwei Knoten eingeh ngt werden muss ben tigen Sie nur zwei Journale Wenn Sie von einem dritten Knoten einh ngen m chten k nnen Sie jederzeit ein Journal mit dem Befehl gfs2_jadd hinzuf gen Mit GFS2 k nnen Sie jederzeit Journale im laufenden Betrieb hinzuf gen 2 1 4 Journalgr e Standard 128 MB ist in der Regel optimal Wenn Sie den Befehl mkfs gfs2 ausf hren um ein GFS2 Dateisystem zu erstellen
71. erprise Linux unterst tzt wurden erhalten werden k nnen Tracepoints Punkte zur Ablaufverfolgung sind besonders n tzlich wenn ein Problem wie ein Aufh nger oder ein Leistungsproblem reproduzierbar ist und daher eine Tracepoint Ausgabe w hrend der problematischen Operation erhalten werden kann In GFS2 sind Glocks der prim re Mechanismus zur Cache Steuerung und der Schl ssel zum Verst ndnis der Kernleistung von GFS2 Die Bmap Tracepoints k nnen verwendet werden um Blockzuweisungen und Block Mapping Lookup von bereits zugewiesenen Bl cken in der Metadatenstruktur der Festplatte zu berwachen und eventuelle Probleme in Bezug auf den Ort des Zugangs zu kontrollieren Die Log Tracepoints verfolgen die Daten die in das Journal geschrieben und von ihm freigegeben werden und k nnen n tzliche Informationen ber diesen Aspekt von GFS2 liefern Die Tracepoints sind darauf ausgelegt so allgemein wie m glich zu sein Das bedeutet dass es nicht n tig sein sollte die APl im Laufe von Red Hat Enterprise Linux 6 zu ndern Auf der anderen Seite sollten sich die Nutzer dieser Schnittstelle bewusst sein dass sie eine Debugging Schnittstelle und nicht Teil des normalen Red Hat Enterprise Linux 6 API Sets ist weshalb Red Hat nicht garantieren kann dass keinerlei Ver nderungen in der GFS2 Tracepoints Schnittstelle vorkommen Tracepoints sind eine generische Funktion von Red Hat Enterprise Linux 6 und ihr Anwendungsbereich geht weit ber
72. ers wirkt sich negativ auf die Leistung aus Durch ein L schen der Caches sobald die Datensicherung abgeschlossen ist wird die Zeit reduziert die von anderen Knoten ben tigt wird um wieder in den Besitz ihrer Cluster Sperren Caches zu gelangen Dies ist allerdings immer noch nicht optimal da die anderen Knoten das Cachen der Daten die sie vor Beginn der Datensicherung im Cache hatten gestoppt haben Sie k nnen Caches mit dem folgenden Befehl l schen nachdem die Datensicherung abgeschlossen ist echo n 3 gt proc sys vm drop_caches Es ist schneller wenn jeder Knoten im Cluster seine eigenen Dateien sichert sodass diese Aufgabe auf die Knoten verteilt wird Sie k nnten dies auch mit einem Skript erreichen das den rsync Befehl auf knotenspezifische Verzeichnisse anwendet Der beste Weg zum Anlegen einer GFS2 Sicherungskopie ist das Erstellen eines Hardware Snapshots auf dem SAN um diesen Snapshot dann einem anderen System zur Verf gung zu stellen und dort zu sichern Das Backup System sollte den Snapshot mit o lockproto lock_nolock einh ngen da es nicht Teil eines Clusters sein wird 2 7 Hardware berlegungen anit ea 9 i h aria y NAAN 7 ir f mah fi fN rat m Ar j a eA 5 rr Patri ry uam Ores Kapitel 2 Uberlegungen zur Konfiguration und zum Betrieb von GFS2 Sie sollten die folgenden Hardware Aspekte beim Bereitstellen eines GFS2 Dateisystems ber cksichtigen Verwenden von qualitativ h herwertigen Speicherl
73. erschrieben werden bevor dieses Glock freigegeben werden kann Tabelle 2 2 Glock Halter Flags Flag Name Bedeutung a Async Nicht auf das Glock Ergebnis warten Ergebnis wird sp ter abgerufen A Any Jeder kompatible Sperrmodus ist zulassig c No cache Wenn nicht gesperrt sofort DLM Sperre herabstufen No expire Nachfolgende Anfragen zur Aufhebung der Sperre ignorieren E exact Muss den exakten Sperrmodus haben F First Gesetzt wenn der Halter der Erste ist dem diese Sperre gew hrt wird H Holder Zeigt an dass die angeforderte Sperre gewahrt wird p Priority Reiht Halter an der Spitze der Warteschlange ein t Try Eine try Sperre T Try 1CB Eine try Sperre die einen Callback sendet W Wait Gesetzt w hrend auf den Abschluss einer Anfrage gewartet wird Nachdem Sie herausgefunden haben welches Glock das Problem verursacht m ssen Sie nun feststellen auf welchen Inode es sich bezieht Dies wird angezeigt durch die Glock Nummer n auf der Zeile G im Format type number Falls type 2 ist dann ist das Glock ein Inode Glock und die number ist eine Inode Nummer Um den Inode zu finden k nnen Sie den Befehl find inum number ausf hren wobei number die Inode Nummer ist die aus dem Hexadezimalformat in der Glocks Datei in ein Dezimalformat konvertiert wurde Falls Sie den find Befehl auf eine
74. eschreibt die Einschr nkungen die Sie bei der Konfiguration eines NFS Dienstes auf einem GFS2 Dateisystem ber cksichtigen sollten Falls das GFS2 Dateisystem per NFS exportiert wird und NFS Client Applikationen POSIX Sperren verwenden dann m ssen Sie das Dateisystem mit der Option Llocalflocks einh ngen Dadurch werden POSIX Sperren von jedem Server dazu gezwungen lokale sperren zu sein d h nicht geclustert und unabh ngig voneinander Es k nnen eine Reihe von Problemen auftreten falls GFS2 versuchen sollte POSIX Sperren von NFS auf den Knoten in einem Cluster zu implementieren F r Applikationen die auf NFS Clients laufen bedeuten lokale POSIX Sperren dass zwei Clients gleichzeitig dieselbe Sperre halten k nnen falls die beiden Clients von verschiedenen Servern aus einh ngen Wenn alle Clients NFS nur von einem Server aus einh ngen dann stellt sich das Problem nicht dass verschiedene Server unabhangig voneinander dieselbe Sperre vergeben Wenn Sie nicht sicher sind ob Sie Ihr Dateisystem mit der local flocks Option einhangen sollen dann sollten Sie die Option nicht verwenden Es ist immer sicherer die Sperren auf einer geclusterten Grundlage Zu verwenden Zus tzlich zu den berlegungen hinsichtlich der Sperren sollten Sie Folgendes bedenken wenn Sie einen NFS Dienst auf einem GFS2 Dateisystem konfigurieren Red Hat unterst tzt nur solche Konfigurationen des Red Hat High Availability Add Ons die NFSv3 mit Sperren in
75. evice Gibt das Blockgerat an auf dem sich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an unter dem das GFS2 Dateisystem eingehangt werden soll A 4 2 Beispiele In diesem Beispiel wird das GFS2 Dateisystem auf dev vg01 1vol0 unter dem Verzeichnis mygfs2 eingehangt und das Erzwingen von Kontingenten ist aktiviert mount o quota on dev vg01 lvolO mygfs2 A 5 Aktivieren der Kontingentberechnung ni gfs2_quota ue r D gt Anhang A GFS2 Kontingentverwaltung mit dem Befe Es ist m glich den Verbrauch von Festplattenplatz nachzuverfolgen und f r jeden Benutzer und jede Gruppe Kontingentberechnungen anzustellen ohne dabei die weichen und harten Grenzen zu erzwingen H ngen Sie daf r das Dateisystem mit der Option quota account ein A 5 1 Verwendung mount o quota account BlockDevice MountPoint 0 quota account Gibt an dass Verbrauchsstatistiken fur Benutzer und Gruppen vom Dateisystem gepflegt werden ohne jedoch die Kontingentgrenzen zu erzwingen BlockDevice Gibt das Blockgerat an auf dem sich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an unter dem das GFS2 Dateisystem eingehangt werden soll A 5 2 Beispiel In diesem Beispiel wird das GFS2 Dateisystem auf dev vg01 1vol0 unter dem Verzeichnis mygfs2 eingeh ngt und die Berechnung von Kontingenten ist aktiviert mount o quota account dev vg01 lvolO mygfs2 LO im Us oJ Global File System 2
76. ffnet ein Dateisystem schreibgesch tzt und beantwortet alle Anfragen automatisch mit no Diese Option bietet eine M glichkeit den Befehl auszuprobieren um Fehler aufzudecken ohne dass der fsck gfs2 Befehl jedoch tats chlich wirksam ist Weitere Informationen ber andere Befehlsoptionen finden Sie auf der man Seite f r fsck gfs2 Das Ausf hren des fsck gfs2 Befehls erfordert Systemspeicher noch ber den Speicher f r das Betriebssystem und den Kernel hinaus Jeder Speicherblock im GFS2 Dateisystem selbst erfordert ungef hr f nf Bits zus tzlichen Speicher oder 5 8 eines Bytes Um abzuschatzen wie viele Bytes an Speicher Sie zur Ausf hrung des fsck gfs2 Befehls auf Ihrem Dateisystem ben tigen bestimmen Sie wie viele Bl cke das Dateisystem umfasst und multiplizieren Sie diese Zahl mit 5 8 Um beispielsweise abzusch tzen wie viel Speicher erforderlich ist um den fsck gfs2 Befehl auf einem GFS2 Dateisystem auszuf hren das 16 TB gro ist und eine Blockgr e von 4 K aufweist bestimmen Sie zun chst wie viele Speicherbl cke das Dateisystem umfasst indem Sie 16 TB durch 4 K teilen 17592186044416 4096 4294967296 Dieses Dateisystem umfasst 429496 7296 Bl cke multiplizieren Sie diese Zahl also mit 5 8 um zu bestimmen wie viele Bytes an Speicher erforderlich sind 4294967296 5 8 2684354560 Dieses Dateisystem erfordert ungef hr 2 6 GB an freiem Speicher um den fsck gfs2 Befehl auszuf hren Beachten Sie das
77. fs gfs2 p lock_dlm t alpha mydatai j 8 dev vg01 1volO mkfs t gfs2 p lock_dlm t alpha mydatai j 8 dev vg01 lvol0 In diesen Beispielen wird ein zweites Lock_d1m Dateisystem erstellt das im Cluster alpha verwendet werden kann Der Dateisystemname lautetmydata2 Das Dateisystem beinhaltet 8 Journale und wird auf dev vg01 1lvo11 erstellt mkfs gfs2 p lock_dlm t alpha mydata2 j 8 dev vg01 lvol1 mkfs t gfs2 p lock_dlm t alpha mydata2 j 8 dev vg01 lvol1 4 1 3 Vollst ndige Optionen Tabelle 4 1 Befehlsoptionen mkfs gfs2 beschreibt diemkfs gfs2 Befehlsoptionen Flags und Tabelle 4 1 Befehlsoptionen mkfs gfs2 Flag Parameter Beschreibung C Megabytes Legt die anf ngliche Gr e der Kontingentdatei aller Journal auf Megabytes fest D Aktiviert Ddebugging Ausgabe h Hilfe Zeigt verf gbare Optionen an J MegaBytes Gibt die Gr e des Journals in Megabytes an Die standardm ige Journalgr e betr gt 128 Megabytes die minimale Gr e ist 8 Megabytes Gr ere Journale verbessern die Leistung allerdings verbrauchen sie mehr Speicher als kleinere Journale j Number Gibt die Anzahl der Journale an die vom mkfs gfs2 Befehl erzeugt werden Es wird jeweils ein Journal f r jeden Knoten ben tigt der das Dateisystem einh ngt Falls diese Option nicht spezifiziert ist wird 1 Journal angelegt Im GFS2 Dateisystem k nnen Sie sp ter Journale hinzuf gen ohne dass das Dateisystem vergr ert we
78. fwand Schnellere direkte I O mit bereits zugewiesenen Dateien vorausgesetzt der I O Umfang ist relativ gro z B 4M Bl cke Allgemein schnellere O Operationen Schnellere Ausf hrung des df Befehls aufgrund von schnelleren statfs Aufrufen Verbesserter atime Modus um die Anzahl der durch atime erzeugten Schreibvorg nge im Vergleich mit GFS zu verringern GFS2 Dateisysteme bieten in den folgenden Punkten eine breitere und allgemeinere Unterst tzung 14 GFS2 ist ein Teil des Upstream Kernels integriert in 2 16 19 GFS2 unterst tzt die folgenden Funktionen erweiterte Dateiattribute xattr die Attributeinstellungen Lsattr und chattr ber standardm ige 1octl Aufrufe Timestamps im Nanosekundenbereich Ein GFS2 Dateisystem bietet folgende Verbesserungen f r die Gesamteffizienz des Dateisystems GFS2 verbraucht weniger Kernel Speicher GFS2 braucht keine Metadaten Generierungsnummern Das Zuweisen von GFS2 Metadaten erfordert keine Lesevorg nge Kopien von Metadatenbl cken in mehreren Journalen werden gehandhabt indem Bl cke vom Journal widerrufen werden bevor die Sperrung aufgehoben wird GFS2 beinhaltet eine deutlich einfachere Protokollverwaltung die keine Kenntnis von nicht verlinkten Inodes oder nderungen der Speicherkontingente hat Die Befehlegfs2_grow und gfs2_jadd verwenden Sperren um zu verhindern dass mehrere Instanzen gleichzeitig ausgef hrt werden Der ACL Code wurde f r Aufrufe wie creat und
79. gef hrt zu werden Die anderen Knoten merken dass eine Erweiterung stattgefunden hat und benutzen den neuen Speicherplatz automatisch Anmerkung Nachdem Sie ein GFS2 Dateisystem mit dem mkfs gfs2 Befehl erstellt haben k nnen Sie es nicht mehr verkleinern 4 6 1 Verwendung gfs2_grow MountPoint MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion durchzuf hren ist 4 6 2 Anmerkungen Bevor Sie den gfs2_grow Befehl ausf hren Sichern Sie alle wichtigen Daten auf dem Dateisystem Ermitteln Sie den Datentr ger der von dem zu erweiternden Dateisystem verwendet wird indem Sie den Befehl df MountPoint ausf hren Erweitern Sie den zugrunde liegenden Cluster Datentr ger mit LVM Mehr Informationen ber die Verwaltung von LVM Datentr gern finden Sie im Handbuch Administration des Logical Volume Manager F hren Sie nach dem gfs2_grow Befehl nun den df Befehl aus um zu berpr fen ob der neue Speicher jetzt im Dateisystem verf gbar ist 4 6 3 Beispiele In diesem Beispiel wird das Dateisystem auf dem myg fs2fs Verzeichnis erweitert root dash 01 gfs2_grow mygfs2fs FS Mount Point mygfs2fs FS Device dev mapper gfs2testvg gfs2testlv FS Size 524288 0x80000 46 Kapitel 4 Verwaltung von GFS2 FS RG size 65533 Oxfffd DEV Size 655360 0xa0000 The file system grew by 512MB gfs2_grow complete 4 6 4 Vollst ndige Verwendung gfs2_grow Options MountPoint Device Mount
80. gen eines Journals zu einem eingehangten Dateisystem gfs_mkfs mkfs gfs2 Erstellen eines Dateisystems auf einem Speichergerat mkfs t gfs mkfs t gfs2 gfs_quota gfs2_quota Verwalten von Festplattenkontingenten auf einem eingehangten Dateisystem Ab der Red Hat Enterprise Linux 6 1 Release unterst tzt GFS2 die standardm igen Linux Funktionen f r Festplattenkontingente F r weitere Informationen ber GFS2 Kontingentverwaltung siehe gfs_tool tunegfs2 Konfigurieren Einstellen oder Anzeigen von Informationen ber ein Dateisystem Der tunegfs2 Befehl wird ab der Einhangeparamet Red Hat Enterprise Linux 6 2 Release unterst tzt Es gibt er auch einen gfs2_tool Befehl dmsetup suspend gfs_edit gfs2_edit Anzeigen Drucken oder Bearbeiten der internen Struktur eines Dateisystems Der gfs2_edit Befehl kann f r GFS Dateisysteme wie auch fur GFS2 Dateisysteme verwendet werden gfs_tool chattr j Aktivieren des Journalings auf einer Datei oder einem setflag bevorzugt Dateisystem jdata inherit _jdata setfacl getfa setfacl getfa Anzeigen oder Einstellen der Zugriffskontrollliste einer cl cl Datei oder eines Verzeichnisses setfattr getfa setfattr getfa Anzeigen oder Einstellen der erweiterten Parameter einer ttr ttr Datei Eine vollst ndige Liste der unterst tzten Optionen f r die GFS2 Dateisystembefehle finden Sie auf den man Seiten der jeweiligen Befehle 1 4 2 Weitere Unterschiede zwischen GFS und GFS2 Dieser Abschnitt
81. gente von dem Knoten auf dem der Befehl ausgef hrt wird auf die Kontingentdatei des Datentr gers f r das Dateisystem mnt myg fs2 quotasync ug mnt mygfs2 In diesem Beispiel wird der standardm ige Zeitraum zwischen den regelm igen Aktualisierungen der Kontingentdatei auf eine Stunde 3600 Sekunden f r das Dateisystem mnt mygfs2 beim Wiedereinh ngen dieses Dateisystems auf dem logischen Datentr ger dev volgroup logical_volume ge ndert mount o quota_quantum 3600 remount dev volgroup logical_volume mnt mygfs2 4 5 5 Referenzen Weitere Informationen ber Festplattenkontingente finden Sie auf den man Seiten der folgenden Befehle quotacheck edquota repquota quota Global File System 2 4 6 Vergr ern eines Dateisystems Der gfs2_grow Befehl wird zum Erweitern des GFS2 Dateisystems verwendet nachdem der Speicher auf dem das Dateisystem liegt erweitert wurde Startet man den gfs2_grow Befehl auf einem existierenden GFS2 Dateisystem wird s mtlicher freier Platz zwischen dem derzeitigen Ende des Dateisystems und dem Ende des Ger ts mit einer neu initialisierten GFS2 Dateisystemerweiterung gef llt Wenn der F llvorgang abgeschlossen ist wird der Ressourcenindex des Dateisystems aktualisiert Alle Knoten im Cluster k nnen dann den zus tzlich hinzugef gten Speicherplatz verwendet Der gfs2_grow Befehl muss auf einem eingeh ngten Dateisystem laufen braucht jedoch nur auf einem Knoten im Cluster aus
82. gr ert wird 28 Kapitel 3 Erste Schritte Kapitel 3 Erste Schritte Dieses Kapitel beschreibt wie Sie bei der Erstinstallation von GFS2 vorgehen m ssen und beinhaltet folgende Abschnitte Abschnitt 3 1 Grundlegende Vorbereitungen 3 1 Grundlegende Vorbereitungen Bevor Sie Red Hat GFS2 einrichten sollten Sie die folgenden Schritte durchf hren Stellen Sie sicher dass Sie sich die wesentlichen Charakteristiken der GFS2 Knoten notiert haben siehe Abschnitt 1 2 Vor der Einrichtung von GFS2 Stellen Sie sicher dass die Systemuhren aufden GFS2 Knoten synchronisiert sind Es wird empfohlen dass Sie die Network Time Protocol NTP Software verwenden die in Ihrer Red Hat Enterprise Linux Distribution integriert ist Anmerkung Die Systemuhren der GFS2 Knoten d rfen nur ein paar Minuten voneinander abweichen um unn tiges Aktualisieren der Inode Timestamps zu vermeiden Unn tige Aktualisierungen der Inode Timestamps haben schwerwiegende Auswirkungen auf die Leistung des Clusters Um GFS2 in einer Cluster Umgebung zu verwenden m ssen Sie Ihr System zur Verwendung des Clustered Logical Volume Manager CLVM konfigurieren der eine Reihe von Clustering Erweiterungen f r den LVM Logical Volume Manager bereitstellt Um CLVM verwenden zu k nnen muss die Red Hat Cluster Suite Software laufen einschlie lich dem clvmd Daemon Informationen zur Verwendung von CLVM finden Sie im Handbuch Administration des Logi
83. ground_ratio und vfs_cache_pressure abh ngig von Ihrer Situation angepasst werden Um die aktuellen Werte abzurufen verwenden Sie die folgenden Befehle sysctl n vm dirty_background_ratio sysctl n vm vfs_cache_pressure Die folgenden Befehle passen die Werte an sysctl w vm dirty_background_ratio 20 sysctl w vm vfs_cache_pressure 500 Sie k nnen die Werte dieser Parameter dauerhaft durch Bearbeiten der Datei etc sysctl conf ndern Kapitel 2 Uberlegungen zur Konfiguration und zum Betrieb von GFS2 Um die optimalen Werte f r Ihre Anwendungsf lle zu finden recherchieren Sie die verschiedenen VFS Optionen und probieren Sie diese vor der Bereitstellung in der Produktionsumgebung aufeinem Test Cluster aus 2 5 4 SELinux Vermeiden von SELinux auf GFS2 In den meisten Situationen wird aus Sicherheitsgr nden dringend der Einsatz von Security Enhanced Linux SELinux empfohlen dies wird jedoch f r GFS2 nicht unterst tzt SELinux speichert Informationen zu jedem Objekt im Dateisystem mittels erweiterter Attribute Das Lesen Schreiben und die Pflege dieser erweiterten Attribute ist m glich verlangsamt GFS2 allerdings erheblich Sie m ssen SELinux auf GFS2 Dateisystemen deaktivieren 2 5 5 Einrichten von NFS auf GFS2 Durch die zus tzliche Komplexit t des GFS2 Sperrsubsystems und dessen vernetzter Natur erfordert das Einrichten von NFS ber GFS2 viele Vorsichtsmaf snahmen und sorgf ltige Konfiguration Dieser Abschnitt b
84. h ngeoption o acl einh ngen Wird ein Dateisystem ohne die Einhangeoption o acl eingeh ngt k nnen Benutzer die ACLs zwar einsehen mittels getfacl d rfen diese jedoch nicht ver ndern mittels setfacl 4 2 1 Verwendung Einh ngen ohne ACL Ver nderung mount BlockDevice MountPoint Einh ngen mit ACL Ver nderung mount o acl BlockDevice MountPoint 0 acl GFS2 spezifische Option um Ver nderungen an Datei ACLs zu erlauben BlockDevice Gibt das Blockgerat an auf dem sich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingehangt werden soll 4 2 2 Beispiel In diesem Beispiel ist das GFS2 Dateisystem auf dev vg01 1vol0 im mygfs2 Verzeichnis eingeh ngt mount dev vg01 1volO mygfs2 4 2 3 Vollst ndige Verwendung 35 Global File System 2 mount BlockDevice MountPoint o option Der Parameter 0 option enth lt GFS2 spezifische Optionen oe Tabelle 4 2 GES2 oder einer Kombination aus beiden Mehrere option Parameter werden durch ein Komma getrennt ohne Leerzeichen Anmerkung Der mount Befehl ist ein Linux Systembefehl Zus tzlich zu den in diesem Abschnitt beschriebenen GFS2 spezifischen Optionen k nnen Sie weitere standardm ige mount Befehlsoptionen z B r verwenden Weitere Informationen ber andere mount Befehlsoptionen f r Linux finden Sie auf der man Seite f r mount Tabelle 4 2 GFS2 spezifische Einhangeoptionen bes
85. icy freeze 2 Vergewissern Sie sich zun chst dass der Sperrtyp in der Datei etc lvm lvm conf auf3 eingestellt ist um geclusterte Sperren zu unterst tzen Erstellen Sie dann den geclusterten logischen Datentr ger und formatieren Sie den Datentr ger mit einem GFS2 Dateisystem Stellen Sie dabei sicher dass Sie gen gend Journale f r jeden Knoten in Ihrem Cluster anlegen pvcreate dev vdb vgcreate Ay cy cluster_vg dev vdb Ivcreate L5G n cluster_lv cluster_vg mkfs gfs2 j2 p lock_dlm t rhel7 demo gfs2 demo dev cluster_vg cluster_lv Konfigurieren Sie eine cLusterfs Ressource Sie sollten das Dateisystem nicht zur Datei etc fstab hinzuf gen da es als Pacemaker Cluster Ressource verwaltet wird Einh ngepunkte k nnen als Teil der Ressourcenkonfiguration mit optLons options festgelegt werden F hren Sie den Befehl pcs resource describe Filesystem aus um alle Konfigurationsoptionen zu sehen K n tnl a Zanker un 0 Der a ro Nat aaa A Aa DEN A An Pirat Kapitel 6 Konfigurieren eines GFS2 Dateisystems in einem Pacemaker Cluste Dieser Befehl zur Cluster Ressourcenerstellung gibt die Einh ngeoption noatime an pcs resource create clusterfs Filesystem device dev cluster_vg cluster_lv directory var mountpoint fstype gfs2 options noatime op monitor interval 10s on fail fence clone interleave true 4 berpr fen Sie ob das GFS2 Dateisystem wie erwartet eingeh ngt wurde mount grep mnt gfs
86. ie den folgenden Befehl aus root chywoon gfs2 echo n 1 gt sys kernel debug tracing events gfs2 enable Um einen bestimmten Tracepoint zu aktivieren gibtes eine enable Datei in jedem der Ereignis Unterverzeichnisse Das gleiche gilt f r die filter Datei die verwendet werden kann um eine Filterfunktion f r jedes Ereignis oder eine Reihe von Ereignissen einzustellen Die Bedeutung der einzelnen Ereignisse wird im Folgenden n her erl utert Die Ausgabe der Tracepoints ist in ASCll oder Bin r Format verf gbar Dieser Anhang behandelt derzeit nicht die bin re Schnittstelle Die ASCII Schnittstelle ist auf zwei Arten verf gbar Um den aktuellen Inhalt des Ringpuffers anzuzeigen f hren Sie den folgenden Befehl aus root chywoon gfs2 cat sys kernel debug tracing trace Diese Schnittstelle ist n tzlich in F llen in denen Sie einen lang andauernden Prozess f r einen bestimmten Zeitraum verwenden und nach einem bestimmten Ereignis einen R ckblick auf die letzten erfassten Informationen im Puffer wollen Eine alternative Schnittstelle sys kernel debug tracing trace_pipe kann verwendet werden wenn die gesamte Ausgabe ben tigt wird Die Ereignisse werden aus dieser Datei gelesen wie sie auftreten ber diese Schnittstelle sind keine historischen Informationen verf gbar Das Format der Ausgabe ist dasselbe f r beide Schnittstellen und wird f r jedes der GFS2 Ereignisse in den sp teren Abschnitten dieses Anhangs beschrieben
87. iguration Anzahl der Journale jeweils ein Journal ist erforderlich f r jeden Knoten der das Dateisystem einh ngen soll Beim Erstellen eines GFS2 Dateisystems k nnen Sie den mkfs gfs2 Befehl direkt verwenden oder Sie k nnen den mkfs Befehl mit dem Parameter t verwenden um den Dateisystemtyp gfs2 anzugeben gefolgtvon den GFS2 Dateisystemoptionen Anmerkung Sobald Sie mitdemmkfs gfs2 Befehl ein GFS2 Dateisystem erstellt haben k nnen Sie die Gr e dieses Dateisystems nicht mehr nach unten korrigieren Sie k nnen ein vorhandenes Dateisystem jedoch mithilfe des Befehls gfs2_grow vergr ern wie in Abschnitt 4 6 Vergr ern eines Dateisystems beschrieben 8 ss s s 31 Global File System 2 4 1 1 Verwendung Beim Erstellen eines Cluster GFS2 Dateisystems k nnen Sie eines der folgenden Formate verwenden mkfs gfs2 p LockProtoName t LockTableName j NumberJournals BlockDevice mkfs t gfs2 p LockProtoName t LockTableName j NumberJournals BlockDevice Beim Erstellen eines lokalen GFS2 Dateisystems k nnen Sie eines der folgenden Formate verwenden Anmerkung F r die Red Hat Enterprise Linux 6 Release unterst tzt Red Hat nicht l nger den Einsatz von GFS2 als Ein Knoten Dateisystem mkfs gfs2 p LockProtoName j NumberJournals BlockDevice mkfs t gfs2 p LockProtoName j NumberJournals BlockDevice Sie sollten sich unbedingt mit der Verwendung der Parameter LockProtoName und LockTab
88. im Einsatz ist Dies hnelt der Waisenliste engl orphan list im ext3 Dateisystem insofern als es jedem sp teren Leser der Bitmap mitteilt dass es m glicherweise Platz gibt der zur ckgefordert werden k nnte und diesen dazu auffordert den Platz zur ckzufordern C 6 Glock Tracepoints Die Tracepoints wurden auch konzipiert um die Richtigkeit der Cache Steuerung zu best tigen indem sie mit der blktrace Ausgabe und mit der Kenntnis des Layouts der Festplatte kombiniert werden Es ist dann m glich zu berpr fen dass eine bestimmte I O unter der richtigen Sperre ausgegeben und abgeschlossen wurde und dass keine Race Bedingungen vorliegen Von allen Tracepoints istes am wichtigsten den Tracepointgfs2_glock_state_change zu verstehen Er verfolgt jede Status nderung des Glocks von der urspr nglichen Erstellung bis hin zur endg ltigen Herabstufung die mitgfs2_glock_put und dem endg ltigen bergang von NL auf entsperrt endet Das Glock Flag locked ist immer gesetzt bevor eine Status nderung erfolgt und wird erst gel scht nachdem diese abgeschlossen ist W hrend einer Statusanderung gibt es niemals gew hrte Halter das Glock Halter Flag H Wenn es Halter in der Warteschlange gibt werden sie immer im W waiting Status sein Wenn die Status nderung abgeschlossen ist dann k nnen die Halter gew hrt werden welches die letzte Operation ist bevor das Glock Flag gel scht wird Der Tracepointgfs2_demote_rg verfolgt Herabst
89. in 8 EB Dateisystem handhaben kann Allerdings betr gt die derzeit maximal unterst tzte Gr e f r ein GFS2 Dateisystem f r 64 Bit Hardware 100 TB Die derzeit maximal unterst tzte Gr e f r ein GFS2 Dateisystem f r 32 Bit Hardware betr gt 16 TB Beachten Sie dass gro e Dateisysteme nicht unbedingt empfehlenswert sind auch wenn diese mit GFS2 m glich sind Als Faustregel gilt dass kleine Dateisysteme mit GFS2 vorzuziehen sind Es ist besser 10 Dateisysteme mit1 TB Kapazit tzu haben als ein Dateisystem mit 10 TB Kapazit t Es gibt mehrere Gr nde warum Sie Ihre GFS2 Dateisysteme klein halten sollten Es wird weniger Zeit ben tigt um eine Sicherungskopie jedes Dateisystems zu erstellen Es wird weniger Zeit ben tigt wenn Sie das Dateisystem mit dem Befehl fsck gfs2 berpr fen m ssen Es wird weniger Arbeitsspeicher ben tigt wenn Sie das Dateisystem mit dem Befehl fsck gfs2 berpr fen m ssen Dar ber hinaus bedeutet die Pflege von weniger Ressourcengruppen eine bessere Leistung Andererseits sollten Sie Ihr GFS2 Dateisystem nicht zu klein machen da ungen gender Speicherplatz eine Reihe anderer Probleme mit sich bringt Sie sollten sich ber Ihre eigenen Anforderungen im Klaren sein bevor Sie sich f r eine bestimmte Gr e entscheiden 2 1 2 Blockgr e Standardbl cke 4 K werden bevorzugt 16 Imanit anl S Ih arilars nr an s r Vantftinitrrpratinn ind s m Datriah unn ererey apitel 2 Ub
90. ind was in Situationen der Fall sein kann in denen ein Dateisystem nach einem Systemabsturz nicht ordnungsgem ausgeh ngt wurde Weitere Informationen ber den quotacheck Befehl finden Sie auf der man Seite f r quotacheck Anmerkung F hren Sie den quotacheck Befehl zu einem Zeitpunkt durch an dem das Dateisystem auf allen Knoten relativ unt tig ist da Festplattenaktivit t die Berechnung der Kontingentwerte st ren kann 4 5 4 Synchronisieren von Kontingenten mit dem quotasync Befehl GFS2 speichert alle Kontingentinformationen in seiner eigenen internen Datei auf der Festplatte Ein GFS2 Knoten aktualisiert diese Kontingentdatei nicht bei jedem Schreibvorgang im Dateisystem sondern aktualisiert sie standardm ig nur alle 60 Sekunden Dies ist notwendig um Konflikte zwischen Knoten zu vermeiden die in die Kontingentdatei schreiben was sich andernfalls nachteilig auf die Leistung auswirken w rde Wenn ein Benutzer oder eine Gruppe sich seiner bzw ihrer Kontingentgrenze n hert verk rzt GFS2 dynamisch die zeitlichen Abst nde zwischen den Aktualisierungen der Kontingentdatei um das berschreiten der Grenze zu vermeiden Der normale Zeitabstand zwischen Kontingentsynchronisationen ist ein einstellbarer Parameter quota_quantum Sie k nnen dessen Standardwert von 60 Sekunden mithilfe der Einhangeoption quota_quantum ndern wie in Tabelle 4 2 GFS2 spezifische Einh ngeoptionen beschrieben Der quo ta_quantum Para
91. leName vertraut machen Eine unsachgem ge Verwendung der Parameter LockProtoName und LockTableName kann zur Besch digung des Dateisystems oder des Lock Space f hren LockProtoName Gibt den Namen des zu verwendenden Sperrprotokolls an Das Sperrprotokoll f r einen Cluster ist Lock_d1m LockTableName Dieser Parameter wird fur ein GFS2 Dateisystem in einer Cluster Konfiguration spezifiziert Er besteht aus zwei Teilen durch einen Doppelpunkt voneinander getrennt ohne Leerstellen also ClusterName FSName ClusterName der Name des Clusters fur den das GFS2 Dateisystem erstellt wird FSName der Dateisystemname darf zwischen 1 und 16 Zeichen lang sein Der Name muss eindeutig f r alle Lock_d1m Dateisysteme im Cluster sein und fur alle Dateisysteme Lock_dlm und lock_nolock auf jedem lokalen Knoten Number Gibt die Anzahl der Journale an die vommkfs gfs2 Befehl erzeugt werden sollen Es wird jeweils ein Journal f r jeden Knoten ben tigt der das Dateisystem einh ngt F r GFS2 Dateisysteme k nnen sp ter mehr Journale hinzugef gt werden ohne dass das 32 BlockDevice Gibt einen logischen oder physischen Datentrager an 4 1 2 Beispiele In diesen Beispielen ist Lock_d1m das vom Dateisystem verwendete Sperrprotokoll da es sich hierbei um ein Cluster Dateisystem handelt Der Cluster Name ist alpha und der Dateisystemname istmydatai1 Das Dateisystem beinhaltet 8 Journale und wird auf dev vg01 1vol6 erstellt mk
92. luster High Availability and GFS Deployment Best Practices im Red Hat Kundenportal unter 2 9 GFS2 Knotensperrung Um die beste Leistung aus einem GFS2 Dateisystem herauszuholen ist es wichtig einige Aspekte der zugrunde liegenden Theorie zu verstehen Ein Ein Knoten Dateisystem wird zusammen mit einem Cache implementiert um die Latenz der Plattenzugriffe f r h ufig aufgerufene Daten zu verringern In Linux erf llt der Seiten Cache und historisch der Puffer Cache diese Caching Funktion Bei GFS2 besitzt jeder Knoten seinen eigenen Seiten Cache der einen Teil der Festplattendaten enthalten kann GFS2 verwendet ein Sperrverfahren namens Glocks ausgesprochen Dschie Locks um die Integrit t der Caches auf allen Knoten zu bewahren Das Glock Untersystem liefert eine Cache Verwaltungsfunktion die unter Verwendung des Distributed Lock Managers DLM als zugrunde liegende Kommunikationsschicht implementiert ist Glocks sch tzen den Cache auf Inode Basis das hei t es gibt eine Sperre pro Inode die zur Steuerung der Caching Schicht verwendet wird Wird das Glock im gemeinsamen Modus DLM Sperrmodus PR zugewiesen so d rfen die Daten unter diesem Glock auf einem oder mehreren Knoten gleichzeitig gecacht werden sodass alle Knoten lokalen Zugriff auf diese Daten haben Wird das Glock im exklusiven Modus DLM Sperrmodus EX zugewiesen so darf nur ein einziger Knoten die Daten unter diesem Glock cachen Dieser Modus wird von all
93. m Dateisystem durchf hren w hrend dort Sperrkonflikte auftreten werden Sie wahrscheinlich das Problem dadurch noch verschlimmern Wenn Sie nach Inode Konflikten suchen ist es ratsam die Applikation vor der Ausf hrung des find Befehls zu stoppen Tabelle 2 3 Glock Typen 27 Global File System 2 Typnumm Sperrtyp Verwendung er Trans Transaktionssperre Inode Inode Metadaten und Daten Rgrp Ressourcengruppen Metadaten Meta Der Superblock lopen Feststellung des letzten Schlie ers des Inodes Flock flock 2 Systemaufruf Quota Kontingentoperationen Journal Journal Mutex 1 2 3 4 5 6 8 9 Falls das identifizierte Glock einem anderen Typ angeh rt dann am ehesten Typ 3 Ressourcengruppe Falls Sie unter normaler Auslastung eine erhebliche Anzahl von Prozessen sehen die auf andere Glock Typen warten dann melden Sie dies bitte dem Red Hat Support Falls Sie eine Reihe von Anfragen in der Warteschlange sehen die auf eine Ressourcengruppensperre warten k nnte dies eine Reihe von Ursachen haben Zum einen gibt es unter Umst nden eine hohe Anzahl von Knoten im Vergleich zur Anzahl von Ressourcengruppen im Dateisystem Zum anderen k nnte das Dateisystem unter Umst nden beinahe voll sein wodurch die Suche nach freien Bl cken durchschnittlich l nger braucht In beiden F llen kann die Situation verbessert werden indem mehr Speicher hinzugef gt wird und das Dateisystem mithilfe des Befehls gfs2_grow ver
94. m erzeugt wird nur Mitgliedern des Clusters ist es erlaubt dieses Dateisystem zu benutzen Der Clustername wird in der etc cluster cluster conf Datei mithilfe des Cluster Configuration Tool festgelegt und wird im Cluster Status Tool in der Cluster Verwaltungsoberflache der Red Hat Cluster Suite angezeigt FSName der Dateisystemsname kann 1 bis 16 Zeichen lang sein Der Name muss eindeutig im gesamten Dateisystem des Cluster sein u MegaBytes Gibt die anf ngliche Gr e der nicht verlinkten Tag Datei jedes Journals an V Zeigt Informationen zur Befehlsversion an 4 2 Einh ngen eines Dateisystems Kapitel 4 Verwaltung von GFS2 Bevor Sie ein GFS2 Dateisystem einh ngen k nnen muss das Dateisystem existieren siehe muss aktiviert sein und die unterst tzenden Clustering und Sperrsysteme m ssen gestartet sein siehe Konfiguration und Verwaltung eines Red Hat Clusters Nachdem dies sichergestellt wurde k nnen Sie das GFS2 Dateisystem genauso einh ngen wie Sie es von jedem anderen Linux Dateisystem gewohntsind Anmerkung Sollten Sie versuchen ein GFS2 Dateisystem einzuh ngen wenn der Cluster Manager cman nicht gestartet wurde wird die folgende Fehlermeldung ausgegeben root gfs a24c 01 mount t gfs2 o noatime dev mapper mpathap1 mnt gfs_controld join connect error Connection refused error mounting lockproto lock_dlm Um die Datei ACLs zu ver ndern m ssen Sie das Dateisystem mit der Ein
95. m k mpfen werden die gleiche Ressourcengruppe zu sperren 2 2 Dateisystemfragmentierung Red Hat Enterprise Linux 6 4 f hrt Verbesserungen an der Fragmentierungsverwaltung in GFS2 ein Unter Red Hat Enterprise Linux 6 4 f hren gleichzeitige Schreibvorg nge zu weniger Fragmentierung und damit zu einer besseren Leistung f r diese Workloads Zwar gibt es kein Defragmentierungstool f r GFS2 auf Red Hat Enterprise Linux aber Sie k nnen einzelne Dateien defragmentieren indem Sie diese mit dem filefrag Dienstprogramm identifizieren sie in tempor re Dateien kopieren und die tempor ren Dateien umbenennen um die Originale zu ersetzen Dieses Verfahren kann auch in Versionen vor Red Hat Enterprise Linux 6 4 durchgef hrt werden sofern die Schreibvorg nge sequentiell erfolgen 2 3 Probleme mit der Blockzuweisung Dieser Abschnitt enth lt eine bersicht ber Probleme bei der Blockzuweisung in GFS2 Dateisystemen Auch wenn Anwendungen die lediglich Daten schreiben in der Regel nicht beachten wie oder wo ein Block zugewiesen wird kann Ihnen ein wenig Wissen ber die Funktionsweise der Blockzuweisung dabei helfen die Leistung zu optimieren 2 3 1 Freien Speicherplatz im Dateisystem belassen Wenn ein GFS2 Dateisystem fast voll ist wird es f r die Blockzuweisung schwierig Platz f r die Zuweisung neuer Bl cke zu finden Infolgedessen werden Bl cke oftmals an das Ende einer Ressourcengruppe gezw ngt oder aber in sehr kleinen Sch
96. meter nderungen am quota_quantum Parameter sind ber Aush ngevorg nge hinweg nicht persistent Sie k nnen den quota_quantum Wert mit dem Befehl mount o remount aktualisieren Sie k nnen den quotasync Befehl verwenden um zwischen den automatischen Aktualisierungen durch GFS2 die Kontingentinformationen manuell von einem Knoten auf die Kontingentdatei auf der Festplatte zu synchronisieren 4 5 4 1 Verwendung Synchronisation der Kontingentinformationen quotasync ug a mntpnt u 44 an t al A nar n altf ncr wan Mr ECCS Kapitel 4 Verwaltung von GFS2 A i J Synchronisiert die Benutzer Kontingentdateien g Synchronisiert die Gruppen Kontingentdateien a Synchronisiert alle Dateisysteme die derzeit Kontingente aktiviert haben und die Synchronisation unterst tzen Wenn a nicht angegeben ist sollte ein Einh ngepunktim Dateisystem angegeben werden mntpnt Gibt das GFS2 Dateisystem an auf dem diese Aktion durchzuf hren ist Anpassen der Zeitabst nde zwischen Synchronisationen mount o quota_quantum secs remount BlockDevice MountPoint MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion durchzuf hren ist secs Gibt den Zeitabstand zwischen regul ren Synchronisationen der Kontingentdatei durch GFS2 an Kleinere Werte k nnen zu mehr Konflikten f hren und sich nachteilig auf die Leistung auswirken 4 5 4 2 Beispiele Dieses Beispiel synchronisiert alle gecachten ver nderten Kontin
97. mit dem atime_quantum Parameter in GFS eingestellt werden kann 1 4 2 7 Die data Option des mount Befehls Wenn Sie ein GFS2 Dateisystem einh ngen k nnen Sie die Option data ordered oder data writeback des mount Befehls angeben Wenn data ordered gesetzt ist werden die Benutzerdaten die von einer Transaktion ver ndert wurden auf die Festplatte gespeichert bevor die Transaktion auf die Festplatte festgeschrieben wird Dies sollte verhindern dass der Benutzer nach einem Absturz nicht initialisierte Bl cke in einer Datei sieht Wenn data writeback gesetzt ist werden die Benutzerdaten zu einem beliebigen Zeitpunkt nach deren nderung auf die Festplatte geschrieben Dies garantiert zwar nicht dieselbe Konsistenz wie der ordered Modus sollte aber bei gewissen Workloads etwas schneller sein Standardm ig ist der ordered Modus gesetzt 1 4 2 8 Das gfs2_tool Befehl r oo Global File System 2 Der gfs2_tool Befehl unterst tzt eine andere Reihe von Optionen als dergfs_tool Befehl f r GFS Der gfs2_tool Befehl unterst tzt einen journals Parameter der s mtliche Informationen ber die derzeit konfigurierten Journale ausgibt einschlie lich der Anzahl an Journalen aufdem Dateisystem Der gfs2_tool Befehl unterst tzt nicht das counters Flag das der gfs_tool Befehl zum Anzeigen von GFS Statistiken verwendet Der gfs2_tool Befehl unterst tzt nicht das inherit_jdata Flag Um ein Verzeichnis als inheritjdata zu kennzeichnen
98. mkdir vereinfacht Nicht verlinkte Inodes nderungen der Festplattenkontingente und statfs nderungen werden wiederhergestellt ohne dass das Journal neu eingeh ngt werden muss Global File System 2 Kapitel 2 Uberlegungen zur Konfiguration und zum Betrieb von GFS2 Das GFS2 Dateisystem Global File System 2 erm glicht es mehreren Computern Knoten in einem Cluster kooperativ denselben Speicher zu verwenden Um diese Zusammenarbeit zu erreichen und die Datenkonsistenz zwischen den Knoten aufrechtzuerhalten verwenden die Knoten ein clusterweites Sperrschema f r die Dateisystemressourcen Dieses Sperrschema verwendet Kommunikationsprotokolle wie TCP IP um Sperrinformationen auszutauschen Sie k nnen die Leistung verbessern indem Sie den in diesem Kapitel beschriebenen Empfehlungen folgen darunter Empfehlungen zur Erstellung Verwendung und Pflege eines GFS2 Dateisystems Wichtig Stellen Sie sicher dass Ihre Bereitstellung des Red Hat High Availability Add Ons Ihren Anforderungen gerecht wird und unterst tzt werden kann Beratschlagen Sie sich dazu ggf mit einem autorisierten Red Hat Vertreter um Ihre Konfiguration vor der Bereitstellung Zu pr fen 2 1 berlegungen zur Formatierung Dieser Abschnitt gibt Empfehlungen wie Sie Ihr GFS2 Dateisystem formatieren sollten um die Leistung Zu optimieren 2 1 1 Dateisystemgr e Kleiner ist besser GFS2 basiert auf einer 64 Bit Architektur die theoretisch e
99. ms ber die GFS2 Knoten hinweg geboten wird Dies erm glicht es Prozessen auf verschiedenen Knoten GFS2 Dateien in der gleichen Art und Weise gemeinsam zu verwenden wie Prozesse desselben Knotens Dateien auf dem lokalen Dateisystem gemeinsam verwenden k nnen und das ohne erkennbaren Unterschied Weitere Informationen ber das High Availability Add On finden Sie unter Konfiguration und Verwaltung eines Red Hat Clusters Global File System 2 Obwohl ein GFS2 Dateisystem auch au erhalb von LVM eingesetzt werden kann unterst tzt Red Hat nur solche GFS2 Dateisysteme die auf einem logischen CLVM Datentr ger angelegt wurden CLVM ist Bestandteil des Resilient Storage Add Ons und ist eine clusterweite Implementierung von LVM betrieben vom CLVM Daemon cl vmd der logische LVM Datentrager im Cluster verwaltet Der Daemon erlaubt die Verwendung von LVM2 um logische Datentrager im Cluster zu verwalten und erm glicht es allen Knoten im Cluster die logischen Datentr ger gemeinsam zu verwenden Weitere Informationen zur Datentr gerverwaltung mit LVM finden Sie im Handbuch Administration des Logical Volume Manager Das Kernel Modul gfs2 ko implementiert das GFS2 Dateisystem und wird auf GFS2 Cluster Knoten geladen Anmerkung Wenn Sie ein GFS2 Dateisystem als ein Cluster Dateisystem konfigurieren m ssen Sie sicherstellen dass alle Knoten im Cluster Zugriff auf den gemeinsamen Speicher haben Asymmetrische Cluster Konfigurationen bei de
100. n einer dieser beiden F lle Ein Inode wird auf allen Knoten nur zum Lesezugriff verwendet Schreibzugriffe auf einen Inode erfolgen nur von einem einzigen Knoten aus Beachten Sie dass das Einf gen und Entfernen von Eintr gen aus einem Verzeichnis bei der Dateierstellung oder loschung als Schreibvorgang in den Verzeichnis Inode gilt Es istm glich diese Regel zu ignorieren sofern dies nur selten geschieht Wird diese Regel zu oft missachtet sind erhebliche Leistungseinbu en die Folge Falls Sie mmap f r eine Datei auf einem GFS2 Dateisystem mit einem Lese Schreib Mapping anwenden diese Datei jedoch nur lesen z hlt dies als Lesevorgang AufGFS dagegen z hlt dies als Schreibvorgang sodass GFS2 sehr viel skalierbarer ist mit mmap I O Falls Sie den Parameter noatime mount nicht setzen f hren Lesevorg nge auch zu Schreibvorg ngen um die Timestamps der Datei zu aktualisieren Wir empfehlen im Allgemeinen dass alle GFS2 Benutzer mitnoatime einh ngen sollten sofern kein besonderer Grund f r die Verwendung von atime vorliegt 2 9 1 Probleme mit Posix Sperren Bei der Verwendung von Posix Sperren sollten Sie die folgenden Aspekte ber cksichtigen Die Verwendung von Flocks erm glicht eine schnellere Verarbeitung als die Verwendung von POSIX Sperren Programme die POSIX Sperren in GFS2 verwenden sollten die GETLK Funktion vermeiden da sich in einer Cluster Umgebung die Prozess ID auf einen anderen Knoten im Cluster
101. n leerem Dateisystem Kapitel 6 Konfigurieren eines GFS2 Dateisystems in einem Pacemaker Cluster Anhang A GFS2 Kontingentverwaltung mit dem Befehl gfs2_quota A 1 Kontingente festlegen mit dem Befehl gfs2_quota A 1 1 Verwendung A 1 2 Beispiele A 2 Anzeigen von Kontingentgrenzen und verbrauch mit dem gfs2_quota Befehl A 2 1 Verwendung A 2 2 Befehlsausgabe A 2 3 Anmerkungen A 2 4 Beispiele A 3 Synchronisieren von Kontingenten mit dem gfs2_quota Befehl A 3 1 Verwendung A 3 2 Beispiele A 4 Erzwingen von Kontingenten aktivieren deaktivieren A 4 1 Verwendung A 4 2 Beispiele A 5 Aktivieren der Kontingentberechnung A 5 1 Verwendung A 5 2 Beispiel Anhang B Konvertieren eines Dateisystems von GFS auf GFS2 scnenrernen nennen B 1 Konvertierung kontextabh ngiger Pfade B 2 Verfahren zur Konvertierung von GFS in GFS2 Anhang C GFS2 Tracepoints und die debugfs Glocks Datei 0 0 0 cee ernennen nn C 1 Arten von GFS2 Tracepoints C 2 Tracepoints C 3 Glocks C 4 Die Glock debugfs Schnittstelle C 5 Glock Halter C 6 Glock Tracepoints C 7 Bmap Tracepoints C 8 Log Tracepoints C 9 Glock Statistiken C 10 Verweise Annang D Versionsgeschichte 2 Sticnhwortverzeiehnls zer sr Hr rare JL 52 52 53 54 54 56 57 60 60 60 60 61 61 62 64 64 64 65 65 65 66 66 66 67 67 68 68 68 68 68 69 69 70 70 71 72 12 12 13 74 77 78 79 79 79 80 Global
102. nd GFS2 hinzugef gt Version 5 0 7 Mon Feb 18 2013 Steven Levine Version f r 6 4 GA Release Version 5 0 5 Mon Nov26 2012 Steven Levine Version f r 6 4 Beta Release Version 5 0 4 Tue Nov 13 2012 Steven Levine Behebt 860324 Aktualisiert Kapitel ber GFS2 Konfiguration und operative berlegungen mit kleinen Klarstellungel Behebt 807057 F gt Hinweis auf Empfehlung hinzu R cksprache mit einem autorisierten Red Hat Vertreter zu halte um Ihre Konfiguration vor dem Einsatz berpr fen Version 5 0 1 Mon Oct 15 2012 Steven Levine Kapitel ber operative berlegungen aktualisiert Version 4 0 2 Thu Mar 28 2012 Steven Levine Version f r 6 3 GA Release Version 4 0 1 Thu Mar 23 2012 Steven Levine Behebt 782482 663944 F gt Kapitel ber GFS2 Konfiguration und funktionale berlegungen hinzu Behebt 757742 Klart Notwendigkeit fur die Verwendung von GFS2 mit CLVM Behebt 786621 Behebt kleinen Tippfehler Version 3 0 2 Thu Dec 1 2011 Steven Levine Release fur GA von Red Hat Enterprise Linux 6 2 Version 3 0 1 Mon Sep 19 2011 Steven Levine Erste Revision fur Red Hat Enterprise Linux 6 2 Beta Release Behebt 704179 Dokumentiert Unterst tzung f r den tuneg fs2 Befehl Behebt 712390 F gt neues Kapitel ber GFS2 Tracepoints hinzu Behebt 705961 Korrigiert kleine Tippfehler Version 2 0 1 Thu May19 2011 Steven Levine Stichwortverzeichnis Erste Release fur Red Hat Enterprise Linux 6 1 Behebt 54983
103. nd einmal am Ende um das Ergebnis anzuzeigen Dies macht es einfach die Anforderungen und Ergebnisse einander zuzuordnen und die Zeitzu messen die ben tigt wurde um Bl cke in verschiedenen Teilen des Dateisystems in verschiedenen Datei Offsets oder sogar in verschiedenen Dateien zuzuweisen Es istauch m glich festzustellen welche Gr en physischer Extents durchschnittlich zur ckgegeben wird im Vergleich zu denen die angefordert werden Um den berblick ber die zugewiesenen Bl cke zu behalten wird gfs2_block_alloc nicht nur bei Zuweisungen sondern auch bei der Freigabe von Bl cken aufgerufen Da die Zuweisungen anhand des Inodes referenziert werden f r den der Block beabsichtigt ist kann dies dazu verwendet werden um nachzuverfolgen welche physischen Bl cke zu welchen Dateien in einem aktiven Dateisystem geh ren Dies ist besonders in Kombination mitblktrace n tzlich was problematische O Muster zeigen kann die dann den jeweiligen Inodes zugeordnet werden k nnen die Uber diesen Tracepoint herausgefunden werden k nnen C 8 Log Tracepoints Die Tracepoints in diesem Subsystem verfolgen Bl cke die zum Journal hinzugef gt und daraus entfernt werden gfs2_pin sowie die ben tigte Zeit um die Transaktionen in das Protokoll zu bergeben gfs2_log_flush Dies kann bei der Fehlersuche f r Leistungsprobleme beim Journaling sehr n tzlich sein Der Tracepointgfs2_log_blocks verfolgt die reservierten Bl cke im Protokoll
104. nd zwischen den regularen Synchronisationen der Kontingentdatei durch GFS2 an Kleinere Werte k nnen vermehrt zu Konflikten und zu Leistungseinbu en f hren Inha Gila Cvet am 9 WwIOVDA rl I c SO YS SLCI s A 3 2 Beispiele Dieses Beispiel synchronisiert die Kontingentinformationen von dem Knoten auf dem der Befehl ausgef hrt wird auf das Dateisystem mygfs2 gfs2_quota sync f mygfs2 In diesem Beispiel wird der standardm ige Zeitabstand zwischen regelm igen Aktualisierungen der Kontingentdatei auf eine Stunde 3600 Sekunden f r das Dateisystem mnt mygfs2 beim Wiedereinh ngen dieses Dateisystems auf dem logischen Datentr ger dev volgroup logical_volume ge ndert mount o quota_quantum 3600 remount dev volgroup logical_volume mnt mygfs2 A 4 Erzwingen von Kontingenten aktivieren deaktivieren In GFS2 Dateisystemen werden Festplattenkontingente standardm ig nicht erzwungen Um Kontingente f r ein Dateisystem zu erzwingen geben Sie beim Einh ngen des Dateisystems die Option quota onan A 4 1 Verwendung mount o quota on BlockDevice MountPoint Um ein Dateisystem ohne das Erzwingen von Kontingenten einzuh ngen geben Sie beim Einh ngen des Dateisystems die Option quota off an Dies ist die Standardeinstellung mount o quota off BlockDevice MountPoint o quota on off Gibt an ob das Erzwingen von Kontingenten beim Einhangen des Dateisystems aktiviert oder deaktiviert werden soll BlockD
105. nen einige Knoten Zugriff auf den Speicher haben und andere nicht werden nicht unterst tzt Es ist jedoch nicht n tig dass alle Knoten das GFS2 Dateisystem auch tats chlich selbst einh ngen Dieses Kapitel liefert einige kurze grundlegende Informationen zum besseren Verst ndnis von GFS2 Es umfasst die folgenden Abschnitte Abschnitt 1 1 Neue und ver nderte Funktionen 1 1 Neue und ver nderte Funktionen Dieser Abschnitt f hrt die neuen bzw ver nderten Funktionen des GFS2 Dateisystems und der GFS2 Dokumentation auf die in der ersten Release und nachfolgenden Releases von Red Hat Enterprise Linux 6 enthalten sind 1 1 1 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 0 Red Hat Enterprise Linux 6 0 f hrt die folgenden nderungen und Aktualisierungen an Dokumentationen und Funktionen ein F r die Red Hat Enterprise Linux 6 Release unterst tzt Red Hat nicht l nger den Einsatz von GFS2 als Ein Knoten Dateisystem In der Red Hat Enterprise Linux 6 Release wurde der gfs2_convert Befehl zur Aktualisierung von einem GFS aufein GFS2 Dateisystem verbessert F r weitere Informationen ber diesen Befehl siehe Anhang B Konvertieren eines Dateisystems von GFS auf GFS2 Die Red Hat Enterprise Linux 6 Release unterst tzt die Einhangeoptionen discard nodiscard barrier nobarrier quota_quantum statfs_quantum und statfs_percent F r weitere Informationen ber das Einh ngen eines GFS2 Dateisystems siehe Ab
106. ngehangt war dann wird das neue Dateisystem genauso eingeh ngt rw selbst wenn Sie das ro Flag verwenden Das ro Flag wird ohne jegliche Meldung ignoriert In diesem Fall kann das neue Dateisystem im proc mounts Verzeichnis unter Umst nden dennoch als ro gekennzeichnet sein was irref hrend sein kann 55 CP Inha Fila Ciurctam 9 O lo D al rl e systemz 4 13 Einh ngereihenfolge f r Bind Mounts und Dateisysteme Wenn Sie die bind Option des mount Befehls verwenden m ssen Sie sicherstellen dass die Dateisysteme in der richtigen Reihenfolge eingeh ngt werden In dem folgenden Beispiel muss das var log Verzeichnis eingeh ngt werden bevor der Bind Mount auf dem tmp Verzeichnis ausgef hrt wird mount bind var log tmp Die Reihenfolge in der Dateisysteme eingeh ngt werden wird wie folgt bestimmt blicherweise folgt die Reihenfolge in der Dateisysteme eingeh ngt werden der Reihenfolge in der diese in der fstab Datei aufgef hrt sind Ausnahmen davon betreffen Dateisysteme die mit dem _netdev Flag eingeh ngt werden oder Dateisysteme die ber eigene init Skripte verf gen Ein Dateisystem mit eigenem init Skript wird sp ter im Initialisierungsprozess eingehangt nach den Dateisystemen in der fstab Datei Dateisysteme mit dem _netdev Flag werden eingeh ngt sobald das Netzwerk auf dem System aktiviert wurde Falls Ihre Konfiguration erfordert dass Sie ein Bind Mount erstellen auf dem ein GFS2 Dateisystem
107. nicht mehr als diese festgelegte Menge an Speicherplatz belegen Ein Wert von Null f r eine harte Grenze bedeutet dass keine Grenze eingehalten werden muss Der Wert der weichen Grenze liegt in der Regel unter dem der harten Grenze Das Dateisystem benachrichtigt den Benutzer oder die Gruppe wenn die weiche Grenze erreicht ist um sie ber die Menge an Speicherplatz die sie verwenden zu warnen Ein Wert von Null fur eine weiche Grenze bedeutet dass keine Grenze eingehalten werden muss Sie k nnen diese Grenzen mithilfe des Befehls gfs2_quota festlegen Der Befehl muss nur auf einem einzigen Knoten ausgef hrt werden auf dem GFS2 eingeh ngt ist In GFS2 Dateisystemen werden Festplattenkontingente standardm ig nicht erzwungen Um die Berechnung von Kontingenten zu aktivieren verwenden Sie beim Einh ngen des GFS2 Dateisystems die Option quota zum mount Befehl wie in Abschnitt A 4 Erzwingen von Micmac A 1 1 Verwendung Festlegen von Kontingenten harte Grenze gfs2_quota limit u User l Size f MountPoint gfs2_quota limit g Group 1 Size f MountPoint Festlegen von Kontingenten weiche Grenze gfs2_quota warn u User l Size f MountPoint gfs2_quota warn g Group l Size f MountPoint User R p gt yO Atala nated Pau At A DCIC OTSZ quota Anhan A A OCC nnti nnantvumar lt nn mit dam Annang A GFS2 Kontin gent verw altun U mit dem Ot Die Benutzer ID fur die eine Grenze festgelegt werden s
108. oll Dabei kann es sich entweder um einen Benutzernamen aus der Passwortdatei oder um die UID Nummer handeln Group Die Gruppen ID f r die eine Grenze festgelegt werden soll Dabei kann es sich entweder um einen Gruppennamen aus der Gruppendatei oder um die GID Nummer handeln Size Legt den Wert f r die harte oder weiche Grenze fest Standardm ig wird dieser Wert in Megabytes angegeben Die zus tzlichen Flags k s oder b ndern die Einheit auf Kilobytes Sektoren bzw Dateisystembl cke MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion ausgef hrt werden soll A 1 2 Beispiele Dieses Beispiel legt die harte Grenze f r den Benutzer Bert auf 1024 Megabytes 1 Gigabyte auf dem Dateisystem myg fs2 fest gfs2_quota limit u Bert 1 1024 f mygfs2 Dieses Beispiel legt die weiche Grenze f r die Gruppen ID 21 auf 50 Kilobytes auf dem Dateisystem mygfs2 fest gfs2_quota warn g 21 1 50 k f mygfs2 A 2 Anzeigen von Kontingentgrenzen und verbrauch mit dem gfs2_quota Befehl Sie k nnen Kontingentgrenzen und den derzeitigen Verbrauch f r einen bestimmten Benutzer oder eine bestimmte Gruppe mithilfe des Befehls gfs2_quota get anzeigen Sie k nnen sich auch den gesamten Inhalt der Kontingentdatei mithilfe des Befehls gfs2_quota list anzeigen lassen wobei alle IDs angezeigt werden die eine harte Grenze oder weiche Grenze von ungleich Null aufweisen A 2 1 Verwendung Anzeigen von Kontingentgrenz
109. on und zum 1 1 6 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 6 F r die Red Hat aie Linux 6 6 Release enthalt dieses Dokument ein neues Kapitel Kapitel 6 Z gen die notwendigen Schritte auf die zur Son eines Pacemaker Clusters mit einem GFS2 Dateisystem erforderlich sind Zusatzlich wurden im gesamten Dokument kleinere Korrekturen vorgenommen und einige Sachverhalte verdeutlicht 1 2 Vor der Einrichtung von GFS2 Bevor Sie GFS2 installieren und einrichten legen Sie bitte die folgenden grundlegenden Charakteristiken Ihres GFS2 Dateisystems fest GFS2 Knoten Legen Sie fest welche Knoten im Cluster die GFS2 Dateisysteme einhangen sollen Anzahl der Dateisysteme Legen Sie fest wie viele GFS2 Dateisysteme zu Beginn erstellt werden sollen Es k nnen sp ter mehr Dateisysteme hinzugef gt werden Namen der Dateisysteme Legen Sie einen eindeutigen Namen f r jedes Dateisystem fest Jeder Name muss eindeutig f r alle Lock_d1m Dateisysteme im Cluster sein Jeder Dateisystemname muss in Form einer Parametervariable vorliegen F r dieses Handbuch werden beispielsweise die Dateisystemnamen mydatal und mydata2 f r einige Beispielverfahren verwendet Journale Legen Sie die Anzahl der Journale f r Ihre GFS2 Dateisysteme fest F r jeden Knoten der ein GFS2 Dateisystem einh ngt istein Journal erforderlich GFS2 erlaubt Ihnen Journale sp ter dynamisch hinzuzuf gen wenn nachtr glich weitere Server das Dat
110. ournal pro GFS2 Host auf dem das Dateisystem eingeh ngt werden soll ausgenommen sind GFS2 Dateisysteme die mit der Einhangeoption spectator eingehangt wurden da diese kein Journal erfordern Sie k nnen mithilfe des gfs2_jadd Befehls Journale zu einem GFS2 Dateisystem hinzuf gen wie in Abschnitt 4 7 Hinzuf gen von Journalen zu einem I a 5 5 Verbrauchter Platz in leerem Dateisystem Wenn Sie ein leeres GFS2 Dateisystem haben zeigt der df Befehl dennoch an dass etwas Platz verbraucht ist Der Grund hierf r liegt in den GFS2 Dateisystem Journalen die eine gewisse Menge Speicherplatz verbrauchen Anzahl der Journale Journalgr e Falls Sie ein GFS2 Dateisystem mit einer gro en Anzahl an Journalen erstellt haben oder eine gro e Journalgr e festgelegt haben dann sehen Sie den Speicherplatz Anzahl der Journale Journalgr e bereits verbraucht wenn Sie den df Befehl ausf hren Selbst wenn Sie weder eine gro e Anzahl an Journalen noch gro e Journale konfiguriert haben werden kleine GFS2 Dateisysteme in der Gr enordnung von 1 GB oder kleiner mit der srandardm igen GFS2 Journalgr e dennoch einen gro en Teil des Speicherplatzes als verbraucht ausweisen 61 Global File System 2 Kapitel 6 Konfigurieren eines GFS2 Dateisystems in einem Pacemaker Cluster Das folgende Verfahren zeigt eine berblick ber die notwendigen Schritte zur Einrichtung eines Pacemaker Clusters der ein GFS2 Dateisystem verwendet N
111. owns unter diesen Umst nden aufh ngt f hren Sie einen Hardware Neustart aus Es ist unwahrscheinlich dass Daten verloren gehen da das Dateisystem zu einem fr heren Zeitpunkt im Shutdown Vorgang synchronisiert wurde 4 5 Verwalten von GFS2 Festplattenkontingenten Dateisystemkontingente werden dazu verwendet um die Menge des Dateisystemspeichers zu begrenzen den ein Benutzer oder eine Gruppe verbrauchen darf Ein Benutzer oder eine Gruppe hat standardm ig kein begrenztes Kontingent bevor nicht eines gesetzt wird Wenn ein GFS2 Dateisystem mit der Option quota on oder der quota account eingeh ngt wird verfolgt GFS2 den Speicherverbrauch von jedem Benutzer und jeder Gruppe nach selbst wenn keine Grenzen gesetzt wurden GFS2 aktualisiert die Kontingentinformationen auftransaktionale Weise sodass nach einem Systemabsturz der Kontingentverbrauch nicht rekonstruiert werden muss Um nachteilige Auswirkungen auf die Leistung zu vermeiden synchronisiert ein GFS2 Knoten die Aktualisierungen an der Kontingentdatei nur periodisch Die demzufolge etwas ungenaue Nachverfolgung der Kontingente erm glicht es Benutzern oder Gruppen unter Umst nden ihre gesetzten Grenzen leicht zu berschreiten Um diesen Effekt zu minimieren verkleinert GFS2 die 39 Global File System 2 zeitlichen Abst nde der Synchronisation dynamisch wenn sich die harte Kontingentgrenze n hert Anmerkung Ab der Red Hat Enterprise Linux 6 1 Release unterst
112. passt B 1 Konvertierung kontextabh ngiger Pfade GFS2 Dateisysteme unterst tzen keine kontextabh ngigen Pfade Context Dependent Path Names oder kurz CDPNs die es Ihnen erm glichen symbolische Links zu erzeugen die auf verschiedene Zieldateien oder verzeichnisse zeigen Um dieselbe Funktionalit t wie kontextabh ngige Pfade in GFS2 Dateisystemen zu erreichen k nnen Sie die bind Option des mount Befehls verwenden Der gfs2_convert Befehl identifiziert kontextabh ngige Pfade und ersetzt sie durch leere Verzeichnisse desselben Namens Um Bind Mounts als Ersatz f r kontextabh ngige Pfade zu Konfigurieren ben tigen Sie die vollst ndigen Pfade der Link Ziele aller kontextabh ngigen Pfade die Sie ersetzen m chten Bevor Sie Ihr Dateisystem konvertieren k nnen Sie mithilfe des find Befehls die Links identifizieren Der folgende Befehl listet die symbolischen Links auf die auf den kontextabh ngigen Pfad hostname verweisen root smoke 01 gfs find mnt gfs lname hostname mnt gfs log Auf die gleiche Weise k nnen Sie den find Befehl f r andere kontextabh ngige Pfade ausf hren mach os sys uid gid jid Beachten Sie dass kontextabh ngige Pfade entweder in der Form hostname oder hostname vorliegen k nnen Sie m ssen den find Befehl also f r jeweils beide Varianten ausf hren 70 gt L K n art naran na nac Nyrat arciusct ame mn CEC ay gt P Anhang B K vertieren eines Dateisystems von GFS auf GFS2
113. peicher in gleichm ige Abschnitte die Ressourcengruppen genannt werden Dabei wird versucht die optimale Gr e f r die Ressourcengruppen zwischen 32 MB und 2 GB abzuschatzen Sie k nnen diesen Standard mit der Option r des Befehls mkfs gfs2 berschreiben Die optimale Gr e f r Ihre Ressourcengruppen h ngt davon ab wie Sie das Dateisystem verwenden werden Bedenken Sie dabei wie voll es sein wird und ob es stark fragmentiert sein wird oder nicht Sie sollten mit anderen Gr en der Ressourcengruppen experimentieren um zu sehen welche Gr e eine optimale Leistung erzielt Eine bew hrte Methode ist das Experimentieren mit einem Test Cluster bevor GFS2 f r den Einsatz in der Produktionsumgebung bereitgestellt wird Wenn Ihr Dateisystem zu viele Ressourcengruppen hat von denen jede zu klein ist k nnen die Alaha Dila S ctam 2 O lo D al rl e system Blockzuweisungen zu viel Zeit mit der Suche von Zehntausenden oder Hunderttausenden von Ressourcengruppen f r einen freien Block verschwenden Je voller das Dateisystem desto mehr Ressourcengruppen m ssen durchsucht werden und jede von ihnen erfordert eine clusterweite Sperre Dies f hrt zu einer verlangsamten Leistung Wenn Ihr Dateisystem jedoch zu wenige Ressourcengruppen hat von denen jede zu gro ist k nnten Blockzuweisungen oft die Sperre der gleichen Ressourcengruppe verlangen was ebenfalls Auswirkungen auf die Leistung hat Wenn Sie beispielsweise ein
114. rden kann Die harte Blockgrenze definiert den absolut maximalen Speicherplatz den ein Benutzer oder eine Gruppe verbrauchen kann Sobald diese Grenze erreicht wurde kann kein weiterer Festplattenplatz verbraucht werden Das GFS2 Dateisystem pflegt keine Kontingente f r Inodes diese Spalten sind f r GFS2 Dateisysteme demnach irrelevant und bleiben leer Falls einer der Werte auf 0 gesetzt ist wurde diese Grenze nicht gesetzt ndern Sie im Texteditor die Grenzen auf die gew nschten Werte Zum Beispiel Disk quotas for user testuser uid 501 Filesystem blocks soft hard inodes soft hard dev VolGroupOO LogVol02 440436 500000 550000 Um zu berpr fen ob das Kontingent wie gew nscht f r den Benutzer festgelegt wurde f hren Sie den folgenden Befehl aus quota testuser 4 5 1 4 Kontingente pro Gruppe zuweisen Kontingente k nnen auch pro Gruppe zugewiesen werden Beachten Sie dass Kontingente nicht erzwungen werden wenn Sie Ihr Dateisystem nur im Berechnen Modus eingeh ngt haben durch Angabe der Option account on 42 anita Yar n a FIINA won GES NAD iteli 4 verwaltung von GFod i d Um ein Gruppenkontingent f r die devel Gruppe festzulegen die Gruppe muss bereits existieren ehe das Gruppenkontingent festgelegt werden kann verwenden Sie den folgenden Befehl edquota g devel Dieser Befehl zeigt die vorhandenen Kontingente f r die Gruppe im Texteditor Disk quotas for group devel gid 505
115. rden muss 0 Verhindert dass der mkfs gfs2 Befehl nach einer Best tigung fragt bevor das Dateisystem geschrieben wird Flag Parameter Beschreibung p LockProtoName Gibt den Namen des zu verwendenden Sperrprotokolls an Zulassige Sperrprotokolle sind lock_dim das standardm ige Sperrmodul erforderlich fur ein geclustertes Dateisystem lock_nolock wird benutzt wenn GFS2 als lokales Dateisystem fungiert auf nur einem Knoten q Es wird keinerlei Ausgabe angezeigt r MegaBytes Gibt die Gr e der Ressourcengruppen in Megabytes an Die minimale Ressourcengruppengr e betr gt 32 MB die maximale Ressourcengruppengr e 2048 MB Eine gro e Ressourcengruppengr e kann unter Umst nden die Leistung von sehr gro en Dateisystemen steigern Falls dies nicht spezifiziert wird w hlt mkfs gfs2 die Ressourcengruppengr e auf Basis der Dateisystemgr e aus Durchschnittlich gro e Dateisysteme erhalten 256 MB gro e Ressourcengruppen und gr ere Dateisysteme erhalten f r eine bessere Leistung gr ere Ressourcengruppen t LockTableName Eine eindeutige Kennung die das Sperrtabellenfeld spezifiziert wenn Sie das Lock_d1m Protokoll verwenden das Lock_nolock Protokoll verwendet diesen Parameter nicht Dieser Parameter besteht aus zwei Teilen durch einen Doppelpunkt keine Leertaste voneinander getrennt wie z B ClusterName FSName ClusterName ist der Name des Clusters fur den das GFS2 Dateisyste
116. rgestellt Mit DLM wird der erste Knoten der eine Ressource z B eine Datei sperrt zum Besitzer lock master der Sperre Andere Knoten k nnen diese Ressource zwar sperren m ssen jedoch zun chst den Besitzer der Sperre um Erlaubnis bitten Jeder Knoten wei welche Sperren er besitzt und jeder Knoten wei welchen anderen Knoten er eine Sperre geliehen hat Das Erstellen einer Sperre auf dem Besitzerknoten ist viel schneller als Sperren auf einem anderen Knoten der unterbrechen und den Besitzer der Sperre um Erlaubnis bitten muss Wie in vielen Dateisystemen versucht die GFS2 Zuweisung Bl cke der selben Datei nahe beieinander zu platzieren um die Bewegung der Festplattenk pfe zu reduzieren und die Leistung zu steigern Ein Knoten der Bl cke einer Datei zuweist muss wahrscheinlich die gleichen Ressourcengruppen f r die neuen Bl cke verwenden und sperren es sei denn alle Bl cke in der Ressourcengruppe werden bereits verwendet Das Dateisystem wird schneller laufen wenn der Besitzer der Sperre f r die Ressourcengruppe welche die Datei enth lt seine Datenbl cke zuordnet das hei t es ist schneller wenn der Knoten der zuerst die Datei ffnete alle Schreibvorg nge von neuen Bl cken durchf hrt 2 3 3 Vorabzuweisung wenn m glich Wenn Dateien vorab zugewiesen werden k nnen Blockzuweisungen vollst ndig vermieden werden und das Dateisystem kann effizienter ausgef hrt werden Neuere Versionen von GFS2 enthalt
117. rnel debug gfs2 unity myfs glocks gt my lock in einem Durchlauf der Postmark Benchmark auf einem Ein Knoten GFS2 Dateisystem erstellt wurden Die Glocks in der Abbildung wurden ausgew hlt um einige der interessantesten Merkmale der Glock Dumps zu zeigen Der Glock Status ist entweder EX exklusiv DF zur ckgestellt SH gemeinsam verwendet oder UN nicht gesperrt Diese Status entsprechen direkt den DLM Sperrmodi mit Ausnahme von UN was entweder den DLM Null Sperrstatus darstellen kann oder dass GFS2 nicht im Besitz einer DLM Sperre ist abh ngig von dem I Flag wie oben erl utert Das s Feld des Glocks zeigt den aktuellen Status der Sperre an das gleiche Feld im Halter zeigt den angeforderten Modus an Wenn die Sperre gew hrt ist ist beim Halter das H Bit in den Flags f Feld gesetzt andernfalls ist das W Bit warten gesetzt Das n Feld eine Zahl gibt die Nummer an die jedem Element zugeordnet ist F r Glocks ist das die Typnummer gefolgt von der Glock Nummer sodass im obigen Beispiel das erste Glock n 5 75320 ist das hei t ein Lopen Glock das den Inode 75320 betrifft Im Fall von Inode und iopen Glocks entspricht die Glock Nummer immer der Festplatten Blocknummer des Inodes Anmerkung Die Glock Nummern n Feld in der debugfs Glocks Datei sind in Hexadezimalwerten angegeben w hrend die Tracepoints Ausgabe sie in Dezimalwerten auff hrt Dies hat historische Gr nde Glock Nummern wurden schon immer in Hexadezim
118. ronisieren von Kontingenten mit dem quotasync Befehl 4 5 4 1 Verwendung 4 5 4 2 Beispiele 4 5 5 Referenzen 4 6 Vergr ern eines Dateisystems 4 6 1 Verwendung 4 6 2 Anmerkungen 4 6 3 Beispiele 4 6 4 Vollst ndige Verwendung 4 7 Hinzuf gen von Journalen zu einem Dateisystem 4 7 1 Verwendung 4 7 2 Beispiele 4 7 3 Vollst ndige Verwendung 4 8 Datenjournale 4 9 Konfigurieren der atime Aktualisierungen 4 9 1 Einh ngen mit relatime 4 9 1 1 Verwendung 4 9 1 2 Beispiel 4 9 2 Einh ngen mit noatime 4 9 2 1 Verwendung 4 9 2 2 Beispiel 4 10 Unterbrechen der Aktivit t auf einem Dateisystem AAN 1 larm ann nn 23 24 24 25 29 29 31 31 32 33 33 35 35 35 36 38 39 39 39 40 40 40 41 41 41 42 43 44 44 44 45 45 46 46 46 46 47 47 48 48 48 49 50 50 50 51 51 51 51 51 4 10 12 Vorwenuury 4 10 2 Beispiele 4 11 Reparieren eines Dateisystems 4 11 1 Verwendung 4 11 2 Beispiel 4 12 Bind Mounts und kontextabhangige Pfade 4 13 Einhangereihenfolge fur Bind Mounts und Dateisysteme 4 14 Die GFS2 R ckzugsfunktion Kapitel 5 Diagnose und Behebung von Problemen mit GFS2 Dateisystemen 5 1 GFS2 Dateisystem zeigt nur geringe Leistung 5 2 GFS2 Dateisystem h ngt sich auf und erfordert Neustart eines Knotens 5 3 GFS2 Dateisystem h ngt sich auf und erfordert Neustart aller Knoten 5 4 GFS2 Dateisystem wird auf neu erstelltem Cluster Knoten nicht eingeh ngt 5 5 Verbrauchter Platz i
119. s bei einer Blockgr e von 1 K zur Ausf hrung von fsck gfs2 die vierfache Menge an Speicher notwendig w re n mlich etwa 11 GB 4 11 1 Verwendung fsck gfs2 y BlockDevice y Mit dem Flag y werden alle Fragen mit yes beantwortet Wenn Sie das Flag y angeben fordert Sie der fsck gfs2 Befehl nicht zur Eingabe einer Antwort auf bevor nderungen vorgenommen werden 53 WIONd File gt ystem z BlockDevice Gibt das Blockger t an auf dem sich das GFS2 Dateisystem befindet 4 11 2 Beispiel In diesem Beispiel wird das GFS2 Dateisystem repariert das auf dem Blockger t dev testvol testlv liegt Alle Fragen zur Reparatur werden automatisch mit yes beantwortet root dash 01 fsck gfs2 y dev testvg testlv Initializing fsck Validating Resource Group index Level 1 RG check level 1 passed Clearing journals this may take a while Journals cleared Starting passi Passi complete Starting passib Passib complete Starting passic Passic complete Starting pass2 Pass2 complete Starting pass3 Pass3 complete Starting pass4 Pass4 complete Starting pass5 Pass5 complete Writing changes to disk fsck gfs2 complete 4 12 Bind Mounts und kontextabhangige Pfade GFS2 Dateisysteme unterst tzen keine kontextabhangigen Pfade Context Depentent Path Names oder kurz CDPNs die es Ihnen erm glichen symbolische Links zu erzeugen die auf verschiedene Zieldateien oder verzeichnisse zeigen Um dieselbe F
120. sam haupts chlich f r Lesezugriffe im Cluster verwendet wird oder dass weitgehend nur von einem einzigen Knoten darauf zugegriffen wird 2 9 3 Suche und Bereinigung von Problemen bei der GFS2 Leistung mit GFS2 Lock Dump Falls die Leistung Ihres Clusters unter ineffizienter Nutzung des GFS2 Cachings leidet bemerken Sie m glicherweise zunehmend gro e I O Wartezeiten Sie k nnen die Informationen des GFS2 Lock Dump nutzen um der Ursache des Problems auf den Grund zu gehen Dieser Abschnitt enth lt einen berblick ber den GFS2 Lock Dump Eine vollst ndige Beschreibung Die Informationen des GFS2 Lock Dumps k nnen aus der debugfs Datei entnommen werden die sich im folgenden Pfad befindet sofern debugfs unter sys kernel debug eingeh ngt ist sys kernel debug gfs2 fsname glocks Die Datei enthalt eine Reihe von Zeilen Jede Zeile die mit einem G beginnt steht fur einen Glock und die folgenden Zeilen um ein Leerzeichen einger ckt stehen f r eine Information die sich auf das in der Datei dar berstehende Glock bezieht Global File System 2 Erstellen Sie am besten mithilfe des cat Befehls eine Kopie des gesamten Inhalts der debug fF s Datel dies kann eine l ngere Zeit dauern falls Sie eine gro e Menge RAM und zahlreiche gecachte Inodes haben w hrend bei der Applikation Probleme auftreten und schauen Sie sich die so erstellten Daten zu einem sp teren Zeitpunktan Es kann hilfreich sein zwei Kopien der debugfs
121. schnitt 4 2 Einh ngen eines Dateisystems Kapitel 1 berblick ber GFS2 Die Red Hat Enterprise Linux 6 Version dieses Dokuments enthalt einen neuen Abschnitt Abschnitt 2 9 GFS2 Knotensperrung Dieser Abschnitt beschreibt einige Interna des GFS2 Dateisystems 1 1 2 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 1 Red Hat Enterprise Linux 6 1 f hrt die folgenden nderungen und Aktualisierungen an Dokumentationen und Funktionen ein Ab der Red Hat Enterprise Linux 6 1 Release unterst tzt GFS2 die standardm igen Linux Funktionen f r Festplattenkontingente GFS2 Kontingentverwaltung istin Abschnitt 4 5 Verwalten von GFS2 Festplattenkontingenten dokumentiert In fr heren Releases von Red Hat Enterprise Linux erforderte GFS2 den gfs2_quota Befehl zur Verwaltung von Festplattenkontingenten Die Dokumentation f r den gfs2_quota Befehl finden Sie jetztin Anhang A GFS2 Kontingentverwaltung mit dem Befehl gfs2_quota Im gesamten Dokument wurden kleinere Fehler korrigiert und einige technische Sachverhalte verdeutlicht 1 1 3 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 2 Red Hat Enterprise Linux 6 2 f hrt die folgenden nderungen und Aktualisierungen an Dokumentationen und Funktionen ein Ab der Red Hat Enterprise Linux 6 2 Release unterst tzt GFS2 den tuneg fs2 Befehl der einige der Funktionen des gfs2_tool Befehls ersetzt F r weitere Informationen siehe die man Sei
122. sed by the official Joyent Node js open source or commercial project The OpenStack Word Mark and OpenStack Logo are either registered trademarks service marks or trademarks service marks of the OpenStack Foundation in the United States and other countries and are used with the OpenStack Foundation s permission We are not affiliated with endorsed or sponsored by the OpenStack Foundation or the OpenStack community All other trademarks are the property of their respective owners Zusammenfassung Dieses Buch liefert Informationen Uber die Konfiguration und Wartung von Red Hat GFS2 Red Hat Global File System 2 fur Red Hat Enterprise Linux 6 Einf hrung 1 Zielg Inhaltsverzeichnis ruppe 2 Erg nzende Dokumentation 3 Wir freuen uns auf Ihr Feedback Kapitel 1 FLAL 1 1 2 LIS 1 1 4 ETS 1 1 6 berblick ber GFS2 morer erer eee Here Seer eee eee her eee ETE Er Er Err EEN 1 1 Neue und veranderte Funktionen Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 0 Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 1 Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 2 Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 3 Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 4 Neue und veranderte Funktionen fur Red Hat Enterprise Linux 6 6 1 2 Vor der Einrichtung von GFS2 1 3 Installation von GFS2 1 4 Unterschiede zwischen GFS und GFS2 1 4 1 1 4 2 GFS2
123. spezifiziert ist f hren Fehler im Dateisystem zu einer Kernel Panik Standardm ig was der Einstellung von errors withdraw entspricht ziehtsich das System aus dem Dateisystem zur ck und machtes bis zum n chsten Neustart nicht erreichbar in einigen F llen kann das System weiterhin ausgef hrt werden Weitere Informationen ber die GFS2 R ckzugsfunktion finden Sie in Abschnitt 4 14 Die GFS2 Veranlasst GFS2 dazu discard I O Anfragen f r Bl cke zu generieren die freigegeben wurden Von geeigneter Hardware kann dies dazu eingesetzt werden um Thin Provisioning und hnliche Schemata zu implementieren Optionen barrier nobarrier quota_quantum secs statfs_quantum secs statfs_percent value Beschreibung Veranlasst GFS2 dazu I O Barrieren zu senden wenn das Journal auf die Festplatte Ubertragen wird Der Standardwert lautet on Diese Option wird automatisch auf off gesetzt wenn das zugrunde liegende Ger t keine I O Barrieren unterst tzt Die Verwendung von Il O Barrieren mit GFS2 wird grunds tzlich dringend empfohlen es sei denn das Blockger t ist derart aufgebaut dass es die Inhalte seines Schreib Caches nicht verlieren kann z B falls es an eine unterbrechungsfreie Stromversorgung angeschlossen ist oder ber keinen Schreib Cache verf gt Legt die Anzahl an Sekunden fest f r die eine nderung an den Informationen der Festplattenkontingente auf einem Knoten verbleiben darf bevor dies
124. st Gesetzt wenn der Halter der Erste ist dem diese Sperre gew hrt wird H Holder Zeigt an dass die angeforderte Sperre gew hrt wird p Priority Reiht Halter an der Spitze der Warteschlange ein t Try Eine try Sperre T Try 1CB Eine try Sperre die einen Callback sendet W Wait Gesetzt w hrend auf den Abschluss einer Anfrage gewartet wird Die wichtigsten Halter Flags sind wie bereits erw hnt H holder und W wait da sie auf gew hrte Sperranforderungen bzw in der Warteschlange befindliche Sperranforderungen gesetzt werden Die Reihenfolge der Halter in der Liste ist wichtig Wenn es gew hrte Halter gibt werden sie immer an der Spitze der Warteschlange sein gefolgt von jeglichen wartenden Haltern Aliah a milana Cunt nm P Global File System 2 Wenn es keine gew hrten Halter gibt dann wird der erste Halter in der Liste derjenige sein der die n chste Statusver nderung ausl st Da Herabstufungsanfragen immer eine h here Priorit t als Anfragen aus dem Dateisystem haben muss dies nicht immer direkt zu der angeforderten Status nderung f hren Das Glock Subsystem unterst tzt zwei Arten der try Sperre Diese sind hilfreich weil sie erstens die Entnahme von Sperren au erhalb der normalen Reihenfolge mit angemessenem Back off und Wiederholung erm glichen und zweitens bei der Vermeidung von Ressourcen helfen die von anderen Knoten verwendet werden Die normale t try Sperre istim Grunde genau wie der Name
125. t m glich war das Error Ziel wie angefordert einzuf gen Dies kann auftreten wenn zum Zeitpunkt des R ckzugs der Speicher knapp ist und dieser Speicher aufgrund des Fehlers der den R ckzug Uberhaupt erst ausgel st hat auch nicht neu zugewiesen werden kann Ein R ckzug bedeutet nicht immer dass ein Fehler in GFS2 vorliegt Manchmal wird die R ckzugsfunktion durch l O Fehler im zugrunde liegenden Blockger t verursacht Wir empfehlen Ihnen dringend die Protokolle einzusehen um zu berpr fen ob dies der Fall ist Global File Svstem 2 Glob al File S ystem z Kapitel 5 Diagnose und Behebung von Problemen mit GFS2 Dateisystemen Dieses Kapitel liefert Informationen Uber einige haufig auftretende Probleme mit GFS2 sowie deren Losungen 5 1 GFS2 Dateisystem zeigt nur geringe Leistung Unter Umstanden stellen Sie fest dass Ihr GFS2 Dateisystem eine geringere Leistung zeigt als ein ext3 Dateisystem Die GFS2 Leistung kann abh ngig von einer Reihe von Faktoren und in bestimmten Anwendungsfallen variieren Informationen Uber Probleme mit der GFS2 Leistung finden Sie an zahlreichen Stellen in diesem Handbuch 5 2 GFS2 Dateisystem hangt sich auf und erfordert Neustart eines Knotens Falls sich Ihr GFS2 Dateisystem aufhangt und darauf ausgef hrte Befehle nicht zur ckkehren das System nach einem Neustart eines bestimmten Knotens jedoch wieder einwandfrei l uft so kann dies ggf aufein Sperrproblem oder einen Bug hindeuten Sollte
126. te f r tunegfs2 Die folgenden Abschnitte wurden aktualisiert und bieten Verwaltungsverfahren die nicht die Verwendung des gfs2_tool Befehls erfordern Abschnitt ABA Synchronisieren von Kontingenten mit dem quo mn Befehl und jetzt wie der quota_quantum Parameter von seinem Standardwert von 60 Sekunden mittels Einhangeoption quo ta_quantum ge ndert werden kann Abschnitt 4 10 Unterbrechen der Aktivit t auf einem Dateisystem beschreibt nun wie man Schreibaktivit t auf einem Dateisystem mit dem Befehl dmsetup suspend unterbrechen kann Dieses Doku ment enthalt einen neuen Anhang a C GFS2 Tracepoints und die debugfs on Er richtet sich an fortgeschrittene Benutzer die mit Dateisysteminterna vertraut sind und die gerne mehr ber den Aufbau von GFS2 und das Debugging von GFS2 spezifischen Fehlern erfahren m chten 1 1 4 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 3 F r die Red Hat Enterprise Linux 6 3 Release enth lt dieses Dokument ein neues Kapitel Kapitel 2 Optimierung der Leistung von GFS2 einschlie lich Empfehlungen fur die Erstellung Verwendung und Wartung eines GFS2 Dateisystems Global File System 2 Zusatzlich wurden im gesamten Dokument kleinere Korrekturen vorgenommen und einige Sachverhalte verdeutlicht 1 1 5 Neue und ver nderte Funktionen f r Red Hat Enterprise Linux 6 4 Fur die Red Hat Enterprise Linux 6 A Release wurde Kapitel 2 berlegungen zur Konfigurati
127. terbrechen der Schreibaktivit t erlaubt die Verwendung von hardwarebasierten Ger te Snapshots um das Dateisystem in einem konsistenten Zustand zu erfassen Der Befehl smsetupresume beendet die Unterbrechung 4 10 1 Verwendung Unterbrechung starten dmsetup suspend MountPoint Global File System 2 Unterbrechung beenden dmsetup resume MountPoint MountPoint Gibt das Dateisystem an 4 10 2 Beispiele Dieses Beispiel unterbricht die Schreibaktivitat auf dem Dateisystem myg fs2 dmsetup suspend mygfs2 Dieses Beispiel beendet die Unterbrechung der Schreibaktivitat auf dem Dateisystem myg fs2 dmsetup resume mygfs2 4 11 Reparieren eines Dateisystems Wenn Knoten mit eingeh ngtem Dateisystem ausfallen erm glicht das Dateisystem Journal eine schnelle Wiederherstellung Wenn auf einem Speicherger tjedoch ein Stromausfall auftritt oder die Verbindung physisch unterbrochen wird kann das Dateisystem Schaden nehmen Journaling kann nicht dazu verwendet werden um das Dateisystem nach Ausf llen oder Fehlern im Speichersubsystem wiederherzustellen Falls diese Art von Fehler auftritt K nnen Sie das GFS2 Dateisystem mithilfe des fsck gfs2 Befehls wiederherstellen Wichtig Der fsck gfs2 Befehl darf nur auf einem Dateisystem ausgef hrt werden das auf allen Knoten ausgeh ngt ist Wichtig Sie sollten ein GFS2 Dateisystem nicht beim Systemstart mitdem fsck gfs2 Befehl berpr fen Der fsck gfs2 Befehl kann b
128. ttete Rundtrip Zeit f r nicht sperrende Operationen srttb srttvarb Gegl ttete Rundtrip Zeit f r sperrende Operationen irtt irttvar Zeit zwischen Anfragen z B Zeit zwischen DLM Anfragen Eine nicht sperrende Anfrage ist eine Anfrage die sofort abgeschlossen wird unabh ngig davon in welchem Status sich die fragliche DLM Sperre befindet Darunter fallen derzeit jegliche Anfragen wenn entweder a der aktuelle Status der Sperre exklusiv ist oder b der angeforderte Status entweder Null oder nicht gesperrt ist oder c das try Sperr Flag gesetzt ist Alle anderen Sperranfragen fallen unter sperrende Anfragen Gr ere Zeiten sind besser f r IRTTs kleinere Zeiten sind dagegen besser f r RTTs Statistiken werden in zwei sysfs Dateien gespeichert Die glstats Datei Diese Datei hnelt der glocks Datei mit dem Unterschied dass es Statistiken enth lt fur ein Glock pro Zeile Die Daten werden initialisiert von pro CPU Daten f r den Glock Typ f r den das Glock erstelltwurde ausgenommen Z hler die auf Null gesetzt werden Diese Datei kann sehr umfangreich sein Die Lkstats Datei Diese Datei enth lt pro CPU Statistiken f r jeden Glock Typ Sie enth lt eine Statistik pro Zeile wobei jede Spalte einen CPU Kern darstellt Es gibt acht Zeilen pro Glock Typ wobei die Typen einander nachfolgen C 10 Verweise Weitere Informationen ber Tracepoints und die GFS2 glocks Datei finden Sie in den folgenden Quellen
129. twendig um Konflikte zwischen Knoten zu vermeiden die andernfalls gleichzeitig in die Kontingentdatei zu schreiben versuchten was zu Leistungseinbu en f hren w rde Wenn sich ein Benutzer oder eine Gruppe der Kontingentgrenze n hert reduziert GFS2 die Zeit zwischen den Aktualisierungen der Quotendatei dynamisch um einer berschreitung der Grenze vorzubeugen Der normale Zeitabstand zwischen den Kontingentsynchronisationen ist ein einstellbarer Parameter quo ta_quantum Sie k nnen den Standardwert von 60 Sekunden mit der Einh ngeoption quota_quantum ndern wie in Tabelle 4 2 GFS2 spezifische Mal wenn das Dateisystem eingeh ngt wird gesetzt werden nderungen am quota_quantum Parameter gehen beim Aush ngen verloren Sie k nnen den quo ta_quantum Wert mit dem Befehl mount o remount aktualisieren Sie k nnen den gfs2_quota sync Befehl verwenden um die Kontingentinformationen zwischen den automatischen Aktualisierungen durch GFS2 von einem Knoten auf die Kontingentdatei auf der Festplatte zu synchronisieren A 3 1 Verwendung Synchronisieren von Kontingentinformationen gfs2_quota sync f MountPoint MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion ausgef hrt werden soll Anpassen der Zeitabst nde zwischen Synchronisationen mount o quota_quantum secs remount BlockDevice MountPoint MountPoint Gibt das GFS2 Dateisystem an auf dem diese Aktion ausgef hrt werden soll secs Gibt den neuen Zeitabsta
130. u berechnen ohne die Grenz oder Warnwerte zu erzwingen H ngen Sie dazu das Dateisystem mit der Option quota account ein 4 5 1 1 1 Verwendung Um ein Dateisystem mit aktivierten Kontingenten einzuh ngen h ngen Sie das Dateisystem mit der Option quota on ein mount o quota on BlockDevice MountPoint Um ein Dateisystem mit aktivierter Kontingentberechnung einzuh ngen wobei die Kontingentgrenzen jedoch nicht erzwungen werden h ngen Sie das Dateisystem mit der Option quota account ein mount o quota account BlockDevice MountPoint Um ein Dateisystem mit deaktivierten Kontingenten einzuh ngen h ngen Sie das Dateisystem mit der Option quota off ein Dies ist die Standardeinstellung 40 la rital A L JaAmar alte rr raAN an OCC Kapitel 4 Verwaltung von GFS2 A i J mount o quota off BlockDevice MountPoint quota on off account on Gibtan dass Kontingente aktiviert sind wenn das Dateisystem eingehangt wird off Gibt an dass Kontingente deaktiviert sind wenn das Dateisystem eingeh ngt wird account Gibt an dass die Benutzer und Gruppenverbrauchsstatistik im Dateisystem gepflegt werden soll selbst wenn die Kontingentgrenzen nicht erzwungen werden BlockDevice Gibt das Blockger t an auf demsich das GFS2 Dateisystem befindet MountPoint Gibt das Verzeichnis an in dem das GFS2 Dateisystem eingeh ngt werden soll 4 5 1 1 2 Beispiele In diesem Beispiel wird das GFS2 Dateisystem dev vg01 1vol10
131. u m glichst genaue Angaben machen Wenn Sie einen Fehler gefunden haben geben Sie bitte die Nummer des Abschnitts und einen Ausschnitt des Textes an damit wir diesen leicht finden k nnen 0 Kapitel 1 Uberblick iber GFS2 Kapitel 1 berblick ber GFS2 Das Red Hat GFS2 Dateisystem ist Bestandteil des Resilient Storage Add Ons Es ist ein natives Dateisystem das sich direkt mit der Dateisystem Schnittstelle des Linux Kernels VFS Schicht verbindet Wenn GFS2 als Cluster Dateisystem implementiert wird verwendet es verteilte Metadaten und multiple Journale Red Hat unterst tzt die Verwendung des GFS2 Dateisystems nur wie vom High Availability Add On implementiert Anmerkung Obwohl das GFS2 Dateisystem sowohl auf einem eigenst ndigen System als auch als Teil einer Cluster Konfiguration implementiert werden kann unterst tzt Red Hat den Einsatz von GFS2 nicht f r Ein Knoten Systeme Red Hat unterst tzt jedoch eine Reihe von leistungsstarken Ein Knoten Dateisystemen die f r den Einsatz auf einzelnen Knoten optimiert sind und dadurch meist einen geringeren Overhead als ein Cluster Dateisystem haben Red Hat empfiehlt den Einsatz eines dieser Dateisysteme anstelle von GFS2 in F llen in denen nur ein einzelner Knoten das Dateisystem einh ngen muss Red Hat unterst tzt auch weiterhin Ein Knoten GFS2 Dateisysteme zum Einh ngen von Snapshots von Cluster Dateisystemen z B zwecks Datensicherung Anmerkung Red Hat unterst
132. ufungsanfragen sowohl lokal als auch remote Vorausgesetzt auf dem Knoten ist gen gend Speicher vorhanden dann treten die lokalen Herabstufungsanfragen nur selten auf Meistens werden sie vom umount Prozess oder durch gelegentliche Speicherr ckforderungen erstellt Die Anzahl der Remote Herabstufungsanfragen ist ein Ma f r den Konflikt zwischen den Knoten f r eine bestimmte Inode oder Ressourcengruppe Wenn einem Halter eine Sperre erteilt wird wird gfs2_promote aufgerufen Dies geschieht in der Endphase einer Status nderung oder wenn eine Sperre angefordert wird die sofort gew hrt werden kann da der Glock Status bereits eine Sperre mit einem geeigneten Modus im Cache vorh lt Falls der Halter der erste ist der auf diesem Glock gew hrt wird dann wird das f first Flag auf diesem Anhana Cf CECS Trananninte ppd dion ndnohintfe Clanke Natai Anhang C GFS2 T racepoints und die debugfs Glocks Datei Halter gesetzt Dies wird derzeit nur von Ressourcengruppen verwendet C 7 Bmap Tracepoints Die Blockzuweisung ist eine Aufgabe von zentraler Bedeutung f r jedes Dateisystem GFS2 verwendet ein herk mmliches Bitmap basiertes System mit zwei Bits pro Block Der Hauptzweck der Tracepoints in diesem Subsystem besteht darin die Zeit zu berwachen die das Zuweisen und Eintragen der Bl cke in Anspruch nimmt Der Tracepointgfs2_bmap wird zweimal f r jede bmap Operation aufgerufen einmal zu Beginn um die bmap Anforderung anzuzeigen u
133. ugeordnet sein von denen jeder eine Sperranforderung von den h heren Schichten darstellt Die Systemaufrufe f r GFS2 f gen Halter in die Warteschlange f r dieses Glock ein oder entfernen sie daraus um den kritischen Abschnitt des Codes zu sch tzen Die Glock State Machine basiert auf einer Arbeitswarteschlange Aus Effizienzgr nden w ren Tasklets vorzuziehen aber in der aktuellen Implementierung muss I O aus diesem Kontext gesendet werden was deren Verwendung verhindert Anmerkung Arbeitswarteschlangen haben ihre eigenen Tracepoints die bei Bedarfin Kombination mit den GFS2 Tracepoints verwendet werden k nnen Tabelle C 2 Glock Modi und Datentypen zeigt welcher Status bei jedem Glock Modus gecacht als auch f r Ressourcengruppen Sperren obwohl es keine Datenkomponente f r die Ressourcengruppen Sperren gibt nur Metadaten Tabelle C 2 Glock Modi und Datentypen Glock Modus Cache Daten Cache Veranderte Veranderte Metadaten Daten Metadaten UN Nein Nein Nein Nein SH Ja Ja Nein Nein DF Nein Ja Nein Nein EX Ja Ja Ja Ja C 4 Die Glock debugfs Schnittstelle Die glock debug fs Schnittstelle erm glicht die Visualisierung des internen Status der Glocks und 74 Anhang C GFS2 Tracepoints und die debugfs Glocks Datel der Halter sie enth lt in einigen F llen auch einige zusammenfassende Daten ber die Objekte die gesperrt sind Jede Zeile der Datei beginnt entweder mit G ohne Einr ckung und beziehtsich
134. unktionalit t In GFS2 Dateisystemen zu erreichen k nnen Sie die bind Option des mount Befehls verwenden Die bind Option des mount Befehls erm glicht es Ihnen einen Teil einer Dateihierachie an anderer Stelle einzuh ngen w hrend dieser gleichzeitig weiterhin an der urspr nglichen Stelle erreichbar bleibt Das Format des Befehls lautet wie folgt mount bind olddir newdir Nach der Ausf hrung des Befehls ist der Inhalt des olddir Verzeichnisses von zwei Orten aus erreichbar olddir und newdir Sie k nnen diese Option auch dazu verwenden um eine einzelne Datei von zwei Orten aus erreichbar zu machen Beispielsweise ist der Inhalt des root tmp Verzeichnisses nach Ausf hrung des folgenden Befehls identisch mit dem Inhalt des vorher eingeh ngten var log Verzeichnisses Kapitel 4 Verwaltung von GFS2 root menscryfa cd root root menscryfa mkdir tmp root menscryfa mount bind var log root tmp Alternativ k nnen Sie auch einen Eintrag in die etc fstab Datei einf gen um beim Einh ngen das gleiche Ergebnis zu erreichen Der folgende etc fstab Eintrag f hrt dazu dass die Inhalte von root tmp mit den Inhalten des var log Verzeichnisses identisch sind var log root tmp none bind 0 0 Nachdem das Dateisystem eingeh ngt wurde k nnen Sie wie im folgenden Beispiel dargestellt den mount Befehl verwenden um zu berpr fen ob das Dateisystem eingeh ngt worden ist root menscryfa mount grep tmp
135. unted from any node 4 Make sure you have the latest software versions Convert dev shell_vg 500g from GFS1 to GFS2 y n y Converting resource QroupS ee eee enn nn Converting inodes 24208 inodes from 1862 rgs converted Fixing file and directory information 18 cdpn symlinks moved to empty directories Converting journals Converting journal space to rg space Writing journal 1 done Writing journal 2 done Writing journal 3 done Writing journal 4 done Building GFS2 file system structures Removing obsolete GFS1 file system structures Committing changes to disk dev shell_vg 500g filesystem converted successfully to gfs2 WN BR CP Inha Fila Ciurctam 9 O lo D al rl e systemz Anhang C GFS2 Tracepoints und die debugfs Glocks Datei Dieser Anhang beschreibt die Glock debug fs Schnittstelle und die GFS2 Tracepoints Er richtet sich an fortgeschrittene Benutzer die mit Dateisysteminterna vertrautsind und die gerne mehr ber den Aufbau von GFS2 und das Debugging von GFS2 spezifischen Fehlern erfahren m chten C 1 Arten von GFS2 Tracepoints Derzeit gibt es drei Arten von GFS2 Tracepoints Glock Tracepoints ausgesprochen Dschie Lock Bmap Tracepoints Block Map und Log Tracepoints Diese k nnen verwendet werden um ein laufendes GFS2 Dateisystem zu berwachen und zus tzliche Informationen zu jenen zu erhalten die mitden Debugging Optionen die in fr heren Versionen von Red Hat Ent
Download Pdf Manuals
Related Search
Related Contents
Gram : CENBOSEC, Delhi … 92 catálogo - Equipos Interferenciales Porter-Cable PCE1700 User's Manual Programmation Journées scolaires Copyright © All rights reserved.
Failed to retrieve file