XenCenter

Thin-Provisioning-Shared-GFS2-Blockspeicher

Beim Thin Provisioning wird der verfügbare Speicher besser genutzt, indem den VDIs beim Schreiben von Daten auf die virtuelle Festplatte Speicherplatz zugewiesen wird, anstatt die volle virtuelle Größe der VDI im Voraus zuzuweisen. Thin Provisioning ermöglicht es Ihnen, den Speicherplatzbedarf auf einem gemeinsam genutzten Speicher-Array und damit Ihre Gesamtbetriebskosten (TCO) erheblich zu reduzieren.

Thin Provisioning für Shared Block Storage ist in folgenden Fällen besonders interessant:

  • Sie möchten die Flächeneffizienz steigern. Die Bilder sind spärlich und nicht dick zugeordnet.
  • Sie möchten die Anzahl der E/A-Vorgänge pro Sekunde auf Ihrem Speicher-Array reduzieren. Der GFS2 SR ist der erste SR-Typ, der Storage Read Caching auf gemeinsam genutztem Blockspeicher unterstützt.
  • Sie verwenden ein gemeinsames Basisimage für mehrere virtuelle Maschinen. Die Images einzelner VMs belegen dann in der Regel noch weniger Speicherplatz.
  • Sie verwenden Snapshots. Jeder Snapshot ist ein Image, und jedes Image ist jetzt spärlich.
  • Sie möchten VDIs erstellen, die größer als 2 TiB sind. Der GFS2 SR unterstützt VDIs mit einer Größe von bis zu 16 TiB.
  • Ihr Speicher unterstützt weder NFS noch SMB3 und nur Blockspeicher. Wenn Ihr Speicher NFS oder SMB3 unterstützt, empfehlen wir, diese SR-Typen anstelle von GFS2 zu verwenden.
  • Ihr Speicher unterstützt kein Thin Provisioning von LUNs. Wenn Ihr Speicher Thin Provisioning-LUNs ausstattet, können bei der Kombination mit GFS2 Probleme auftreten und der Speicherplatz knapp wird. Die Kombination von GFS2 mit einer Thin-Provisioning-LUN bietet nicht viele zusätzliche Vorteile und wird nicht empfohlen. XenCenter zeigt eine Warnung an, wenn Sie versuchen, GFS2 mit einer Thin-Provisioning-LUN zu verwenden.

Hinweis:

Es wird empfohlen, eine GFS2-SR nicht mit einem VLAN zu verwenden, da ein bekanntes Problem auftritt, bei dem Sie Hosts in einem Cluster-Pool nicht hinzufügen oder entfernen können, wenn sich das Cluster-Netzwerk in einem Nicht-Management-VLAN befindet.

Der gemeinsam genutzte GFS2-Typ stellt Festplatten als Dateisystem dar, das auf einer iSCSI- oder HBA-LUN erstellt wurde. VDIs, die auf einem GFS2 SR gespeichert sind, werden im QCOW2-Image-Format gespeichert.

1. Planen Sie Ihre GFS2-Umgebung

Um die Vorteile von Thin Provisioning auf gemeinsam genutztem Blockspeicher ohne das Risiko von Datenverlusten nutzen zu können, muss Ihr Pool ein hohes Maß an Zuverlässigkeit und Konnektivität bieten. Es ist entscheidend, dass die Hosts im Ressourcenpool, der GFS2 verwendet, zuverlässig miteinander kommunizieren können. Um dies zu gewährleisten, erfordert XenServer, dass Sie einen Clusterpool mit Ihrer GFS2 SR verwenden. Es wird außerdem empfohlen, dass Sie Ihre Umgebung entwerfen und XenServer-Funktionen konfigurieren, um so viel Ausfallsicherheit und Redundanz wie möglich zu bieten.

Bevor Sie Ihren XenServer-Pool für die Arbeit mit GFS2-SRs einrichten, überprüfen Sie die folgenden Anforderungen und Empfehlungen für eine ideale GFS2-Umgebung:

Ein Clusterpool mit GFS2-SRs weist einige Unterschiede im Verhalten zu anderen Pool- und SR-Typen auf. Weitere Informationen finden Sie unter Zwänge.

2. Konfigurieren einer redundanten Netzwerkinfrastruktur

Ein gebündeltes Netzwerk verbindet zwei oder mehr Netzwerkkarten miteinander, um einen einzigen Kanal für den Netzwerkverkehr zu erstellen. Es wird empfohlen, dass Sie ein gebundenes Netzwerk für Ihren Clusterpooldatenverkehr verwenden. Stellen Sie jedoch vor dem Einrichten des gebundenen Netzwerks sicher, dass die Konfiguration der Netzwerkhardware die Redundanz im gebundenen Netzwerk fördert. Erwägen Sie, so viele dieser Empfehlungen zu implementieren, wie für Ihre Organisation und Umgebung machbar sind.

Die folgenden bewährten Methoden erhöhen die Resilienz gegen Software-, Hardware- oder Stromausfälle, die sich auf Ihre Netzwerk-Switches auswirken können.

  • Stellen Sie sicher, dass separate physische Netzwerk-Switches für die Verwendung im gebundenen Netzwerk verfügbar sind, nicht nur Ports auf demselben Switch.
  • Stellen Sie sicher, dass die separaten Switches von unterschiedlichen, unabhängigen Power Distribution Units (PDUs) mit Strom versorgt werden.
  • Wenn möglich, platzieren Sie die PDUs in Ihrem Rechenzentrum auf verschiedenen Phasen der Stromversorgung oder sogar auf Einspeisungen, die von verschiedenen Versorgungsunternehmen bereitgestellt werden.
  • Erwägen Sie die Verwendung von unterbrechungsfreien Netzteilen, um sicherzustellen, dass die Netzwerk-Switches und Server im Falle eines Stromausfalls weiterhin funktionieren oder ein geordnetes Herunterfahren durchführen können.

3. Erstellen Sie ein dediziertes gebundenes Netzwerk

Es ist wichtig sicherzustellen, dass Hosts in einem Clusterpool zuverlässig miteinander kommunizieren können. Das Erstellen eines gebundenen Netzwerks für diesen Pooldatenverkehr erhöht die Resilienz Ihres Clusterpools.

Ein gebundenes Netzwerk erstellt eine Bindung zwischen zwei oder mehr Netzwerkkarten, um einen einzelnen, leistungsstarken Kanal zu erstellen, den Ihr Clusterpool für Clustertaktdatenverkehr verwenden kann. Es wird dringend empfohlen, dieses gebundene Netzwerk nicht für anderen Datenverkehr zu verwenden. Erstellen Sie ein separates Netzwerk für den Pool, das für den Verwaltungsdatenverkehr verwendet werden soll.

Hinweis:

Wenn Sie über eine Firewall zwischen den Hosts in Ihrem Pool verfügen, stellen Sie sicher, dass Hosts über die folgenden Ports im Clusternetzwerk kommunizieren können:

  • Telefon: 8892, 8896, 21064
  • UDP: 5404, 5405

Weitere Informationen finden Sie unter Von XenServer verwendete Kommunikationsports.

So erstellen Sie ein gebundenes Netzwerk, das als Cluster-Netzwerk verwendet werden soll:

  1. Öffnen Sie die Neues Netzwerk Zauberer.
  2. Wählen Sie auf der ersten Seite des Assistenten Gebundenes Netzwerk und klicken Sie dann auf Nächster.
  3. Am Bond-Mitglieder die Netzwerkkarten aus, die Sie miteinander verbinden möchten. Um eine Netzwerkkarte auszuwählen, aktivieren Sie das entsprechende Kontrollkästchen in der Liste. In dieser Liste können bis zu vier Netzwerkkarten ausgewählt werden. Deaktivieren Sie das Kontrollkästchen, um die Auswahl einer Netzwerkkarte aufzuheben.
  4. Unter Bond-Modusdie Art der Anleihe aus:

    • Auswählen Aktiv-Aktiv , um eine Aktiv-Aktiv-Bindung zu konfigurieren. Mit dieser Anleihe wird der Datenverkehr zwischen den gebundenen NICs ausgeglichen. Wenn eine Netzwerkkarte innerhalb der Bindung ausfällt, wird der Netzwerkverkehr des Servers automatisch über die zweite Netzwerkkarte geleitet.
    • Auswählen Aktiv-Passiv , um eine Aktiv-Passiv-Bindung zu konfigurieren, bei der der Datenverkehr nur über eine der gebundenen Netzwerkkarten geleitet wird. In diesem Modus wird die zweite Netzwerkkarte nur aktiv, wenn die aktive Netzwerkkarte ausfällt, z. B. wenn die Netzwerkverbindung unterbrochen wird.
    • Auswählen LACP mit Lastausgleich basierend auf der Quell-MAC-Adresse , um eine LACP-Bindung zu konfigurieren. Bei dieser Bindung wird die ausgehende Netzwerkkarte basierend auf der MAC-Adresse der VM ausgewählt, von der der Datenverkehr stammt. Verwenden Sie diese Option, um den Datenverkehr in einer Umgebung auszugleichen, in der Sie mehrere VMs auf demselben Host haben. Diese Option ist nicht geeignet, wenn weniger virtuelle Schnittstellen (VIFs) als Netzwerkkarten vorhanden sind: Da der Lastausgleich nicht optimal ist, da der Datenverkehr nicht auf Netzwerkkarten aufgeteilt werden kann.
    • Auswählen LACP mit Lastausgleich basierend auf IP und Port von Quelle und Ziel , um eine LACP-Bindung zu konfigurieren. Diese Bindung verwendet die Quell-IP-Adresse, die Quellportnummer, die Ziel-IP-Adresse und die Zielportnummer, um den Datenverkehr über die Netzwerkkarten zuzuweisen. Verwenden Sie diese Option, um den Datenverkehr von VMs in einer Umgebung auszugleichen, in der die Anzahl der Netzwerkkarten die Anzahl der VIFs übersteigt.

    Hinweise:

    • Um die LACP-Bonding-Optionen in XenCenter anzeigen und eine LACP-Bindung erstellen zu können, konfigurieren Sie vSwitch als Netzwerk-Stack. Außerdem müssen Ihre Switches den IEEE 802.3ad-Standard unterstützen.
    • Aktiv-Aktiv- und Aktiv-Passiv-Bindungstypen sind sowohl für die vSwitch- als auch für die Linux-Bridge verfügbar.
    • Sie können entweder zwei, drei oder vier Netzwerkkarten verbinden, wenn vSwitch der Netzwerk-Stack ist. Sie können jedoch nur zwei Netzwerkkarten verbinden, wenn die Linux-Bridge der Netzwerkstapel ist.
  5. Um Jumbo-Rahmen zu verwenden, stellen Sie die Maximale Übertragungseinheit (MTU) auf einen Wert zwischen 1500 und 9216.
  6. Wählen Sie die Schaltfläche Automatisches Hinzufügen dieses Netzwerks zu neuen virtuellen Computern Kontrollkästchen, um das neue Netzwerk zu allen neuen VMs hinzuzufügen, die mit dem Neue VM Zauberer.
  7. Klicken Beenden , um das neue Netzwerk zu erstellen, und schließen Sie den Assistenten.

Nachdem Sie Ihr gebundenes Netzwerk auf dem Poolkoordinator erstellt haben und andere XenServer-Hosts mit dem Pool verbinden, werden die Netzwerk- und Bindungsinformationen automatisch auf den beitretenden Server repliziert.

Weitere Informationen finden Sie unter Konfigurieren von Netzwerkkarten.

Hinweise:

  • Um die IP-Adresse des Clusternetzwerks mithilfe von XenCenter zu ändern, müssen Clustering und GFS2 vorübergehend deaktiviert werden.
  • Ändern Sie die Bündelung Ihres Clusternetzwerks nicht, während der Cluster aktiv ist und über ausgeführte VMs verfügt. Diese Aktion kann dazu führen, dass Hosts im Cluster hart neu gestartet werden (Fence).
  • Wenn in Ihrem Clusternetzwerk ein IP-Adressenkonflikt (mehrere Hosts mit derselben IP-Adresse) auftritt, an dem mindestens ein Host mit aktiviertem Clustering beteiligt ist, wird der Cluster nicht korrekt gebildet und die Hosts können bei Bedarf nicht abgeschirmt werden. Um dieses Problem zu beheben, beheben Sie den IP-Adressenkonflikt.

4. Einrichten eines Clusterpools

Um gemeinsam genutzten GFS2-Speicher verwenden zu können, muss es sich bei dem XenServer-Ressourcenpool um einen Clusterpool handeln. Aktivieren Sie das Clustering in Ihrem Pool, bevor Sie eine GFS2-SR erstellen.

So erstellen Sie einen Clusterpool:

  1. Öffnen Sie die Neuer Pool Dialogfeld, indem Sie auf Neuer Pool in der Symbolleiste.
  2. Geben Sie einen Namen für den neuen Pool und eine optionale Beschreibung ein. Der Name wird im Feld Betriebsmittel Scheibe.
  3. Nominieren Sie den Pool-Koordinator, indem Sie einen Server aus dem Feld Koordinator Liste.
  4. Wählen Sie weitere Server aus, die in den neuen Pool eingefügt werden sollen, aus der Registerkarte Weitere Mitglieder Liste. Alle verfügbaren verwalteten Server werden aufgelistet. Wenn ein Server nicht aufgeführt ist, können Sie ihn der Liste hinzufügen, indem Sie auf Neuen Server hinzufügen. Wenn ein verwalteter Server nicht aufgeführt ist, kann dies daran liegen, dass er eine oder mehrere der in Anforderungen an den Pool.
  5. Auswählen Pool erstellen , um den Pool zu erstellen, und schließen Sie das Dialogfeld.
  6. Wählen Sie den Pool im Feld Betriebsmittel und in seiner Allgemein Registerkarte, wählen Sie Eigenschaften. Das Pool-Immobilien Fenster wird geöffnet.
  7. Im Clusterbildung Registerkarte, wählen Sie Aktivieren von Clustering und wählen Sie das dedizierte gebundene Netzwerk aus, das Sie als Clusternetzwerk erstellt haben.
  8. Klicken Sie auf OK.

5. Konfigurieren von Speicher-Multipathing

Stellen Sie sicher, dass Storage Multipathing zwischen Ihrem Cluster-Pool und Ihrer GFS2 SR eingerichtet ist.

Multipathing leitet den Speicherdatenverkehr aus Redundanzgründen über mehrere Pfade an ein Speichergerät weiter. Auf allen Routen kann während des normalen Betriebs aktiver Verkehr vorhanden sein, was zu einem erhöhten Durchsatz führt.

Bevor Sie Multipathing aktivieren, stellen Sie sicher, dass die folgenden Aussagen wahr sind:

  • Ihr Ethernet- oder Fibre-Switch ist so konfiguriert, dass mehrere Ziele auf Ihrem Speicherserver verfügbar sind.

    Ein iSCSI-Speicher-Back-End, das z. B. nach Ziele senden für ein bestimmtes Portal gibt mehrere Ziele zurück, wie im folgenden Beispiel gezeigt:

        iscsiadm -m discovery --type sendtargets --portal 192.168.0.161
        192.168.0.161:3260,1 iqn.strawberry:litchie
        192.168.0.204:3260,2 iqn.strawberry:litchie
    

    Sie können jedoch eine zusätzliche Konfiguration vornehmen, um iSCSI-Multipath für Arrays zu aktivieren, die nur ein einzelnes Ziel verfügbar machen. Weitere Informationen finden Sie unter iSCSI-Multipath für Arrays, die nur ein einzelnes Ziel verfügbar machen.

  • Nur für iSCSI verfügt die Steuerdomäne (dom0) über eine IP-Adresse in jedem Subnetz, das vom Multipath-Speicher verwendet wird.

    Stellen Sie sicher, dass Sie für jeden Pfad zum Speicher über eine Netzwerkkarte verfügen und dass auf jeder Netzwerkkarte eine IP-Adresse konfiguriert ist. Wenn Sie z. B. vier Pfade zu Ihrem Speicher benötigen, müssen Sie über vier Netzwerkkarten verfügen, für die jeweils eine IP-Adresse konfiguriert ist.

  • Nur für iSCSI verfügt jedes iSCSI-Ziel und jeder iSCSI-Initiator über einen eindeutigen IQN.

  • Nur für iSCSI werden die iSCSI-Zielports im Portalmodus betrieben.

  • Nur für HBAs sind mehrere HBAs mit der Switch-Fabric verbunden.

  • Verwenden Sie nach Möglichkeit mehrere redundante Switches.

So aktivieren Sie Multipathing:

Führen Sie die folgenden Schritte für jeden Server in Ihrem Pool aus:

  1. Im Betriebsmittel , wählen Sie den Server aus, und legen Sie ihn dann in Wartungsmodus. Es gibt eine kurze Verzögerung, während XenCenter alle aktiven virtuellen Maschinen migriert und den vorhandenen Speicher trennt. Wenn es sich bei dem Server um einen Poolkoordinator handelt, wird die Verbindung getrennt und verschwindet möglicherweise aus dem Betriebsmittel vorübergehend angezeigt, während ein neuer Poolkoordinator zugewiesen wird. Wenn der Server wieder in der Betriebsmittel mit dem Symbol für den Serverwartungsmodus (Server maintenance mode icon - a Server icon with a blue square on top), fahren Sie mit dem nächsten Schritt fort.
  2. Am Allgemein Registerkarte, wählen Sie Eigenschaften und wählen Sie dann die Schaltfläche Multipathing Registerkarte.
  3. Um Multipathing zu aktivieren, aktivieren Sie die Schaltfläche Aktivieren von Multipathing auf diesem Server Kontrollkästchen. Um Multipathing zu deaktivieren, deaktivieren Sie das Kontrollkästchen.
  4. Klicken OKAY , um die neue Einstellung zu übernehmen und das Dialogfeld zu schließen. Es gibt eine kurze Verzögerung, während XenCenter die neue Speicherkonfiguration speichert.
  5. Beenden Sie den Wartungsmodus des Servers wieder. Wählen Sie den Server in der Spalte Betriebsmittel , klicken Sie mit der rechten Maustaste, und wählen Sie Wartungsmodus beenden.

Stellen Sie sicher, dass Sie Multipathing auf allen Hosts im Pool aktivieren. Die gesamte Verkabelung und im Falle von iSCSI die Subnetzkonfigurationen müssen mit den entsprechenden Netzwerkkarten auf jedem Host übereinstimmen.

6. Erstellen Sie eine GFS2 SR

Erstellen Sie Ihre freigegebene GFS2-SR auf einer iSCSI- oder HBA-LUN, die für alle XenServer-Hosts in Ihrem Ressourcenpool sichtbar ist.

Hinweis:

Es wird nicht empfohlen, eine Thin-Provisioning-LUN mit GFS2 zu verwenden. XenCenter zeigt eine Warnung an, wenn Sie versuchen, GFS2 mit einer Thin-Provisioning-LUN zu verwenden.

Wenn Sie sich jedoch für diese Konfiguration entscheiden, müssen Sie sicherstellen, dass die LUN immer über genügend Speicherplatz verfügt, damit XenServer darauf schreiben kann.

Sie können einem Clusterpool bis zu 62 GFS2-SRs hinzufügen.

So erstellen Sie eine Software-iSCSI-SR

Hinweis:

Stellen Sie vor dem Ausführen der folgenden Schritte sicher, dass der iSCSI-Initiator-IQN für alle Hosts im Pool entsprechend festgelegt ist. Weitere Informationen finden Sie unter Ändern der Servereigenschaften.

  1. Öffnen Sie die Neues Speicher-Repository Assistent: Klicken Sie auf Neuer Speicher in der Symbolleiste. Alternativ:
    • Am Lagerung für den ausgewählten Pool oder Server auf Neue SR.
    • Am Lagerung auf Neue SR.
    • Im Betriebsmittel , wählen Sie einen Server oder Pool aus, klicken Sie mit der rechten Maustaste, und klicken Sie auf Neue SR im Kontextmenü.
  2. Auswählen Software iSCSI als physischen Speichertyp und klicken Sie dann auf Nächster.
  3. Am Name den Namen der neuen SR ein. Standardmäßig generiert der Assistent eine Beschreibung der SR. Diese Beschreibung enthält eine Zusammenfassung der Konfigurationsoptionen, die Sie im Verlauf des Assistenten auswählen. Um eine eigene Beschreibung einzugeben, deaktivieren Sie das Symbol Automatisch generierte Beschreibung Kontrollkästchen und geben Sie das Feld Beschreibung Schachtel. Klicken Sie zum Fortfahren auf Weiter.
  4. Am Bereitstellung Seite, wählen Sie Thin Provisioning (GFS2).
  5. Am Ort geben Sie die iSCSI-Zieldetails an:

    • Ziel-Host: Die IP-Adresse oder der DNS-Name des iSCSI-Ziels. Dabei kann es sich auch um eine durch Kommas getrennte Liste von Werten handeln.

    • CHAP verwenden: Dies wird von GFS2-SRs nicht unterstützt. Lassen Sie diese Option deaktiviert.

    • Ziel-IQN: Um den iSCSI-Ziel-IQN anzugeben, klicken Sie auf die Schaltfläche IQNs entdecken und wählen Sie dann einen IQN aus der Schaltfläche Ziel-IQN Liste.

      Wichtig:

      Für das iSCSI-Ziel und alle Server im Pool darf nicht derselbe IQN festgelegt sein. Jedes iSCSI-Ziel und jeder iSCSI-Initiator muss über einen eindeutigen IQN verfügen. Wenn eine nicht eindeutige IQN-Kennung verwendet wird, kann es zu einer Datenbeschädigung kommen, der Zugriff auf das Ziel kann verweigert werden oder beides.

    • Ziel-LUN: Um die LUN anzugeben, auf der das Speicher-Repository erstellt werden soll, klicken Sie auf das Symbol Entdecken von LUNs Knopf. Wählen Sie eine LUN aus der Ziel-LUN Liste.

      Jedes einzelne iSCSI-Speicher-Repository muss vollständig auf einer einzigen LUN enthalten sein. Der SR kann sich nicht über mehr als eine LUN erstrecken. Wenn die LUN bereits eine SR enthält, wählen Sie aus, ob Sie die vorhandene SR verwenden oder die vorhandene SR durch eine neue ersetzen möchten. Durch das Ersetzen der vorhandenen SR werden alle auf der Festplatte vorhandenen Daten zerstört.

  6. Klicken Beenden , um die neue SR-Konfiguration abzuschließen und den Assistenten zu schließen.

So erstellen Sie einen Hardware-HBA-SR

  1. Um die Neues Speicher-Repository -Assistent können Sie eine der folgenden Aktionen ausführen:
    • Wählen Sie in der Symbolleiste Neuer Speicher.
    • Am Lagerung für den ausgewählten Pool oder Server, wählen Sie Neue SR.
    • Am Lagerung und wählen Sie Neue SR.
    • Im Betriebsmittel , wählen Sie einen Server oder Pool aus, klicken Sie mit der rechten Maustaste, und wählen Sie Neue SR im Kontextmenü.
  2. Auswählen Hardware-HBA als physischen Speichertyp und wählen Sie dann Nächster.
  3. Am Name den Namen der neuen SR ein. Standardmäßig generiert der Assistent eine Beschreibung der SR. Diese Beschreibung enthält eine Zusammenfassung der Konfigurationsoptionen, die Sie im Verlauf des Assistenten auswählen. Um eine eigene Beschreibung einzugeben, deaktivieren Sie das Symbol Automatisch generierte Beschreibung Kontrollkästchen und geben Sie das Feld Beschreibung Schachtel. Klicken Nächster um zum Bereitstellung Seite.
  4. Am Bereitstellung , wählen Sie die Option Thin Provisioning (GFS2).
  5. Klicken Nächster um zum Ort Seite.
  6. Der Assistent sucht nach verfügbaren LUNs und zeigt dann eine Seite mit allen gefundenen LUNs an. Wählen Sie eine LUN aus der Liste aus und klicken Sie auf Schaffen.

    Hinweis:

    Eine Warnmeldung wird angezeigt, wenn auf der ausgewählten LUN SRs vorhanden sind. Überprüfen Sie die Details, und wählen Sie eine der folgenden Optionen aus.

    • Um die vorhandenen zu verwenden, klicken Sie auf Wieder binden.
    • Um die vorhandene SR zu löschen und eine SR zu erstellen, klicken Sie auf Format.
    • Wenn Sie lieber eine andere LUN auswählen möchten, klicken Sie auf Abbrechen und wählen Sie eine LUN aus der Liste aus.
  7. Das Zusammenfassung zeigt Informationen über die neue SR an. Lesen Sie die Informationen und klicken Sie dann auf Beenden , um den SR-Erstellungsprozess abzuschließen.

Einschränkungen

Für freigegebenen GFS2-Speicher gelten derzeit die folgenden Einschränkungen:

  • Wie bei jeder Thin-Provisioning-SR schlägt bei einer Erhöhung der GFS2-SR-Nutzung auf 100 % weitere Schreibvorgänge von VMs fehl. Diese fehlgeschlagenen Schreibvorgänge können dann zu Fehlern innerhalb des virtuellen Computers, einer möglichen Datenbeschädigung oder beidem führen.

  • XenCenter zeigt eine Warnung an, wenn Ihre SR-Nutzung auf 80 % ansteigt. Stellen Sie sicher, dass Sie Ihren GFS2 SR auf diese Warnung überwachen, und ergreifen Sie die entsprechenden Maßnahmen, wenn sie angezeigt werden. Auf einer GFS2 SR führt eine hohe Auslastung zu einer Leistungseinbuße. Wir empfehlen, dass Sie Ihre SR-Nutzung unter 80 % halten.

  • Die VM-Migration mit Speichermigration (live oder offline) wird für VMs, deren VDIs sich auf einer GFS2-SR befinden, nicht unterstützt. Sie können auch keine VDIs von einem anderen SR-Typ zu einer GFS2-SR migrieren.

  • Der FCoE-Transport wird mit GFS2-SRs nicht unterstützt.

  • Das Trimmen/Aufheben der Zuordnung wird auf GFS2-SRs nicht unterstützt.

  • CHAP wird auf GFS2-SRs nicht unterstützt.

  • Die Nachverfolgung geänderter Blöcke wird für VDIs, die auf GFS2-SRs gespeichert sind, nicht unterstützt.

  • VDIs mit einer Größe von mehr als 2 TiB können nicht als VHD oder OVA/OVF exportiert werden. Sie können jedoch VMs mit VDIs exportieren, die größer als 2 TiB im XVA-Format sind.

  • Es wird nicht empfohlen, eine Thin-Provisioning-LUN mit GFS2 zu verwenden. Wenn Sie sich jedoch für diese Konfiguration entscheiden, müssen Sie sicherstellen, dass die LUN immer über genügend Speicherplatz verfügt, damit XenServer darauf schreiben kann.

  • Es wird nicht empfohlen, die SAN-Deduplizierung mit GFS2-SRs zu verwenden. Wenn Sie sich jedoch für diese Konfiguration entscheiden, müssen Sie eine geeignete externe Überwachung Ihrer SAN-Auslastung verwenden, um sicherzustellen, dass immer Speicherplatz für XenServer zum Schreiben vorhanden ist.

  • Ihr GFS2-Dateisystem darf nicht größer als 100 TiB sein.

  • Sie können nicht mehr als 62 GFS2-SRs in Ihrem Pool haben.

  • Clusterpools unterstützen nur bis zu 16 Hosts pro Pool.

  • Für Clusterdatenverkehr wird dringend empfohlen, ein gebundenes Netzwerk zu verwenden, das mindestens zwei verschiedene Netzwerk-Switches verwendet. Verwenden Sie dieses Netzwerk nicht für andere Zwecke.

  • Um die IP-Adresse des Clusternetzwerks mithilfe von XenCenter zu ändern, müssen Clustering und GFS2 vorübergehend deaktiviert werden.

  • Ändern Sie die Bündelung Ihres Clusternetzwerks nicht, während der Cluster aktiv ist und über ausgeführte VMs verfügt. Diese Aktion kann dazu führen, dass Hosts im Cluster hart neu gestartet werden (Fence).

  • Wenn in Ihrem Clusternetzwerk ein IP-Adressenkonflikt (mehrere Hosts mit derselben IP-Adresse) auftritt, an dem mindestens ein Host mit aktiviertem Clustering beteiligt ist, wird der Cluster nicht korrekt gebildet und die Hosts können bei Bedarf nicht abgeschirmt werden. Um dieses Problem zu beheben, beheben Sie den IP-Adressenkonflikt.

Zugehörige Dokumentation

XenServer 8

Citrix Hypervisor 8.2 Kumulatives Update 1

Thin-Provisioning-Shared-GFS2-Blockspeicher