Citrix Hypervisor

Gruppierte Pools

Wichtig:

Citrix Hypervisor 8.2 Kumulatives Update 1 wird am 25. Juni 2025 End of Life. Planen Sie jetzt Ihr Upgrade auf XenServer 8, um einen reibungslosen Übergang und kontinuierlichen Support zu gewährleisten. Weitere Informationen finden Sie unter Upgrade.

Wenn Sie Ihre Citrix Virtual Apps and Desktops-Lizenzdateien verwenden, um Ihre Citrix Hypervisor 8.2 Cumulative Update 1-Hosts zu lizenzieren, sind diese Lizenzdateien nicht mit XenServer 8 kompatibel. Vor dem Upgrade müssen Sie XenServer Premium Edition-Socket-Lizenzdateien für die Verwendung mit XenServer 8 erwerben. Diese Socket-Lizenzdateien sind als Berechtigung für die Abonnements Citrix für Private Cloud, Citrix Universal Hybrid Multi-Cloud, Citrix Universal MSP und Citrix Platform License für die Ausführung Ihrer Citrix-Workloads verfügbar. Citrix-Kunden, die noch nicht auf diese neuen Abonnements umgestiegen sind, können die Teilnahme an einer kostenlosen Aktion für 10.000 XenServer Premium Edition-Socket-Lizenzen anfordern. Weitere Informationen finden Sie unter XenServer (Englisch).

Wenn Sie vor dem Upgrade keine kompatible Lizenz für XenServer 8 erhalten, werden Ihre Hosts beim Upgrade auf die 90-Tage-Testversion zurückgesetzt. Die Testversion bietet die gleichen Funktionen wie die Premium Edition, jedoch mit einigen Einschränkungen. Weitere Informationen finden Sie unter Übersicht über die XenServer 8-Lizenzierung.

Clustering bietet zusätzliche Funktionen, die für Ressourcenpools erforderlich sind, die GFS2-SRs verwenden. Weitere Informationen zu GFS2 finden Sie unter Konfigurieren des Speichers.

Ein Cluster ist ein Pool von Citrix Hypervisor-Hosts, die enger miteinander verbunden und koordiniert sind als Hosts in nicht geclusterten Pools. Die Hosts im Cluster kommunizieren ständig miteinander in einem ausgewählten Netzwerk. Alle Hosts im Cluster kennen den Status jedes Hosts im Cluster. Diese Hostkoordination ermöglicht es dem Cluster, den Zugriff auf den Inhalt der GFS2 SR zu steuern.

Hinweis:

Die Clustering-Funktion ist nur für Pools von Vorteil, die eine GFS2-SR enthalten. Wenn Ihr Pool keine GFS2-SR enthält, aktivieren Sie das Clustering in Ihrem Pool nicht.

Quorum

Jeder Host in einem Cluster muss immer mit der Mehrheit der Hosts im Cluster (einschließlich sich selbst) kommunizieren. Dieser Zustand wird als Host mit Quorum bezeichnet. Wenn ein Host nicht über ein Quorum verfügt, wird dieser Host selbst abgegrenzt.

Die Anzahl der Hosts, die miteinander kommunizieren müssen, um das Quorum zu erreichen, kann sich von der Anzahl der Hosts unterscheiden, die ein Cluster benötigt, um das Quorum beizubehalten.

In der folgenden Tabelle ist dieses Verhalten zusammengefasst. Der Wert von n ist die Gesamtzahl der Hosts im Clusterpool.

  Anzahl der Hosts, die zum Erreichen des Quorums erforderlich sind Anzahl der Hosts, die erforderlich sind, um beschlussfähig zu bleiben
Ungerade Anzahl von Hosts im Pool (n+1)/2 (n+1)/2
Gerade Anzahl der Hosts im Pool (n/2)+1 n/2

Pools mit ungeraden Nummern

Um den Quorumwert für einen Pool mit ungeraden Zahlen zu erreichen, benötigen Sie die Hälfte von eins mehr als die Gesamtzahl der Hosts im Cluster: (n+1)/2. Dies ist auch die Mindestanzahl von Hosts, die erreichbar bleiben müssen, damit der Pool beschlussfähig bleibt.

In einem Clusterpool mit 5 Hosts müssen z. B. 3 Hosts erreichbar sein, damit der Cluster aktiv wird und beschlussfähig bleibt [(5+1)/2 = 3].

Es wird empfohlen, nach Möglichkeit eine ungerade Anzahl von Hosts in einem Clusterpool zu verwenden, da so sichergestellt wird, dass die Hosts immer feststellen können, ob sie beschlussfähig sind.

Pools mit geraden Zahlen

Wenn ein Clusterpool mit geraden Zahlen nach einem Kaltstart hochgefahren wird, müssen (n/2)+1 Hosts verfügbar sein, bevor die Hosts ein Quorum haben. Nachdem die Hosts über ein Quorum verfügen, wird der Cluster aktiv.

Ein aktiver Pool mit geraden Zahlen kann jedoch beschlussfähig bleiben, wenn die Anzahl der kontaktierbaren Hosts mindestens n/2 beträgt. Dadurch ist es möglich, dass ein laufender Cluster mit einer geraden Anzahl von Hosts genau in zwei Hälften geteilt wird. Der ausgeführte Cluster entscheidet, welche Hälfte des Clusters sich selbst zäunt und welche Hälfte des Clusters über ein Quorum verfügt. Die Hälfte des Clusters, die den Knoten mit der niedrigsten ID enthält, der vor der Clusteraufteilung als aktiv angesehen wurde, bleibt aktiv, und die andere Hälfte des Clusters wird selbst abgegrenzt.

In einem Clusterpool mit 4 Hosts müssen z. B. 3 Hosts erreichbar sein, damit der Cluster aktiv wird [4/2 + 1 = 3]. Nachdem der Cluster aktiv ist, müssen nur 2 Hosts kontaktierbar sein [4/2 = 2], und diese Gruppe von Hosts muss den Host mit der niedrigsten Knoten-ID enthalten, von der bekannt ist, dass sie aktiv ist.

Selbstzäunung

Wenn ein Host feststellt, dass er nicht über ein Quorum verfügt, führt er innerhalb weniger Sekunden einen Self-Fence durch. Wenn ein Host sich selbst eingrenzt, wird er sofort neu gestartet. Alle VMs, die auf dem Host ausgeführt werden, werden sofort gestoppt, da der Host ein hartes Herunterfahren durchführt. In einem Clusterpool, der Hochverfügbarkeit verwendet, startet Citrix Hypervisor die VMs entsprechend ihrer Neustartkonfiguration auf anderen Poolmitgliedern neu. Der Host, der sich selbst abgeschirmt hat, wird neu gestartet und versucht, dem Cluster wieder beizutreten.

Wenn die Anzahl der aktiven Hosts im Cluster kleiner als der Quorumwert wird, verlieren alle verbleibenden Hosts das Quorum.

Im Idealfall verfügt Ihr Clusterpool immer über mehr Live-Hosts, als für das Quorum erforderlich sind, und Citrix Hypervisor zäunt nie. Um dieses Szenario wahrscheinlicher zu machen, sollten Sie beim Einrichten Ihres Clusterpools die folgenden Empfehlungen berücksichtigen:

  • Stellen Sie sicher, dass Sie über eine gute Hardwareredundanz verfügen.

  • Verwenden Sie ein dediziertes gebundenes Netzwerk für das Clusternetzwerk. Stellen Sie sicher, dass sich die gebundenen Netzwerkkarten im selben L2-Segment befinden. Weitere Informationen finden Sie unter Vernetzung.

  • Konfigurieren Sie das Speicher-Multipathing zwischen dem Pool und dem GFS2 SR. Weitere Informationen finden Sie unter Multipathing für Speicher.

Erstellen eines Cluster-Pools

Bevor Sie beginnen, stellen Sie sicher, dass die folgenden Voraussetzungen erfüllt sind:

  • Alle Citrix Hypervisor-Server im Clusterpool müssen über mindestens 2 GiB Steuerdomänenspeicher verfügen.

    Abhängig von Ihrer Umgebung benötigen Ihre Hosts möglicherweise mehr Steuerdomänenspeicher als diesen. Wenn Sie auf Ihren Hosts nicht genügend Steuerdomänenspeicher haben, kann es in Ihrem Pool zu Netzwerkinstabilität kommen. Netzwerkinstabilität kann bei einem Clusterpool mit GFS2-SRs zu Problemen führen. Hinweise zum Ändern der Größe des Steuerdomänenspeichers und zum Überwachen des Speicherverhaltens finden Sie unter Speicherauslastung.

  • Alle Hosts im Cluster müssen statische IP-Adressen für das Cluster-Netzwerk verwenden.

  • Es wird empfohlen, Clustering nur in Pools mit mindestens drei Hosts zu verwenden, da Pools von zwei Hosts empfindlich auf das Selbst-Fencing des gesamten Pools reagieren.

  • Wenn Sie eine Firewall zwischen den Hosts in Ihrem Pool haben, stellen Sie sicher, dass Hosts über die folgenden Ports im Cluster-Netzwerk kommunizieren können:
    • TCP: 8892, 8896, 21064
    • UDP: 5404, 5405

    Weitere Informationen finden Sie unter Kommunikationsports, die von Citrix Technologien verwendet werden.

  • Wenn Sie einen vorhandenen Pool clustern, stellen Sie sicher, dass die Hochverfügbarkeit deaktiviert ist. Sie können die Hochverfügbarkeit erneut aktivieren, nachdem das Clustering aktiviert wurde.

  • Wir empfehlen dringend, dass Sie für Ihren Clusterpool ein gebundenes Netzwerk verwenden, das nicht für anderen Datenverkehr verwendet wird.

Wenn Sie möchten, können Sie mit XenCenter Clustering in Ihrem Pool einrichten. Weitere Informationen finden Sie in der XenCenter-Produktdokumentation.

So verwenden Sie die xe CLI zum Erstellen eines Clusterpool:

  1. Erstellen Sie ein gebundenes Netzwerk, das als Clusternetzwerk verwendet werden kann.

    Hinweis:

    Wir empfehlen dringend, ein dediziertes gebundenes Netzwerk für Ihren Clusterpool zu verwenden. Verwenden Sie dieses Netzwerk nicht für anderen Datenverkehr.

    Führen Sie auf dem Citrix Hypervisor-Server, der der Poolmaster sein soll, die folgenden Schritte aus:

    1. Öffnen Sie eine Konsole auf dem Citrix Hypervisor-Server.

    2. Benennen Sie Ihren Ressourcenpool mit dem folgenden Befehl:

      xe pool-param-set name-label="New Pool" uuid=<pool_uuid>
      
    3. Erstellen Sie ein Netzwerk zur Verwendung mit der gebundenen NIC, indem Sie den folgenden Befehl verwenden:

      xe network-create name-label=bond0
      

      Die UUID des neuen Netzwerks wird zurückgegeben.

    4. Suchen Sie die UUIDs der PIFs, die in der Bindung verwendet werden sollen, indem Sie den folgenden Befehl verwenden:

      xe pif-list
      
    5. Erstellen Sie Ihr gebundenes Netzwerk entweder im aktiv-aktiven Modus, im aktiv-passiven Modus oder im LACP-Bond-Modus. Führen Sie je nach dem Bond-Modus, den Sie verwenden möchten, eine der folgenden Aktionen aus:

      • Um die Bindung im Aktiv-Aktiv-Modus (Standard) zu konfigurieren, verwenden Sie den Befehl bond-create, um die Bindung zu erstellen. Trennen Sie die Parameter durch Kommas und geben Sie die neu erstellte Netzwerk-UUID und die UUIDs der zu verbindenden PIFs an:

         xe bond-create network-uuid=<network_uuid> /
              pif-uuids=<pif_uuid_1>,<pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4>
        

        Geben Sie zwei UUIDs ein, wenn Sie zwei NICs und vier UUIDs verbinden, wenn Sie vier Netzwerkkarten verbinden. Die UUID für die Bindung wird nach Ausführung des Befehls zurückgegeben.

      • Um die Bindung im Aktiv-Passiv- oder LACP-Bond-Modus zu konfigurieren, verwenden Sie dieselbe Syntax, fügen Sie den optionalen Parameter mode hinzu und geben Sie lacp oder active-backup an:

         xe bond-create network-uuid=<network_uuid> pif-uuids=<pif_uuid_1>, /
              <pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4> /
              mode=balance-slb | active-backup | lacp
        

    Nachdem Sie Ihr gebundenes Netzwerk auf dem Poolmaster erstellt haben und andere Citrix Hypervisor-Server mit dem Pool verbinden, werden die Netzwerk- und Bindungsinformationen automatisch auf den beitretenden Server repliziert.

    Weitere Informationen finden Sie unter Netzwerk.

  2. Erstellen Sie einen Ressourcenpool mit mindestens drei Citrix Hypervisor-Servern.

    Wiederholen Sie die folgenden Schritte auf jedem Citrix Hypervisor-Server, der ein (Nicht-Master-) Poolmitglied ist:

    1. Öffnen Sie eine Konsole auf dem Citrix Hypervisor-Server.
    2. Verbinden Sie den Citrix Hypervisor-Server mit dem Pool auf dem Poolmaster, indem Sie den folgenden Befehl verwenden:

      xe pool-join master-address=master_address master-username=administrators_username master-password=password
      

      Der Wert des Parameters master-address muss auf den vollqualifizierten Domänennamen des Citrix Hypervisor-Servers festgelegt werden, der der Poolmaster ist. password muss das Administratorkennwort sein, das bei der Installation des Poolmasters festgelegt wurde.

    Weitere Informationen finden Sie unter Hosts und Ressourcenpools.

  3. Stellen Sie für jedes PIF, das zu diesem Netzwerk gehört, ein disallow-unplug=true.

    1. Suchen Sie die UUIDs der PIFs, die zum Netzwerk gehören, indem Sie den folgenden Befehl verwenden:

      xe pif-list
      
    2. Führen Sie den folgenden Befehl auf einem Citrix Hypervisor-Server in Ihrem Ressourcenpool aus:

      xe pif-param-set disallow-unplug=true uuid=<pif_uuid>
      
  4. Aktivieren Sie das Clustering in Ihrem Pool. Führen Sie den folgenden Befehl auf einem Citrix Hypervisor-Server in Ihrem Ressourcenpool aus:

    xe cluster-pool-create network-uuid=<network_uuid>
    

    Geben Sie die UUID des gebundenen Netzwerks an, das Sie in einem früheren Schritt erstellt haben.

Löschen eines Clusterpools

Sie können einen Clusterpool löschen. Nachdem Sie einen Clusterpool zerstört haben, ist der Pool weiterhin vorhanden, aber nicht mehr gruppiert und kann keine GFS2-SRs mehr verwenden.

Führen Sie den folgenden Befehl aus, um einen Clusterpool zu löschen:

  xe cluster-pool-destroy cluster-uuid=<uuid>

Verwalten des Clusterpools

Bei der Verwaltung Ihres Clusterpools können die folgenden Vorgehensweisen das Risiko verringern, dass der Pool das Quorum verliert.

Hinzufügen oder Entfernen eines Hosts in einem Clusterpool

Wenn Sie einen Host in einem Clusterpool hinzufügen oder entfernen, stellen Sie sicher, dass alle Hosts im Cluster online sind.

Sie können einen Host in einem Clusterpool mithilfe von XenCenter hinzufügen oder entfernen. Weitere Informationen finden Sie unter Hinzufügen eines Servers zu einem Pool und Entfernen eines Servers aus einem Pool.

Sie können auch einen Host in einem Clusterpool hinzufügen oder entfernen, indem Sie die xe CLI verwenden. Weitere Informationen finden Sie unter Hinzufügen eines Hosts zu einem Pool mithilfe der xe CLI und Entfernen von Citrix Hypervisor-Hosts aus einem Ressourcenpool.

Stellen Sie sicher, dass die Hosts ordnungsgemäß heruntergefahren werden

Wenn ein Host sauber heruntergefahren wird, wird er vorübergehend aus dem Cluster entfernt, bis er wieder gestartet wird. Während der Host heruntergefahren ist, wird er nicht auf den Quorumwert des Clusters angerechnet. Das Fehlen des Hosts führt nicht dazu, dass andere Hosts das Quorum verlieren.

Wenn ein Host jedoch zwangsweise oder unerwartet heruntergefahren wird, wird er nicht aus dem Cluster entfernt, bevor er offline geschaltet wird. Dieser Host wird auf den Quorumwert des Clusters angerechnet. Das Herunterfahren kann dazu führen, dass andere Hosts das Quorum verlieren.

Wenn es notwendig ist, einen Host zwangsweise herunterzufahren, prüfen Sie zunächst, wie viele Live-Hosts sich im Cluster befinden. Sie können dies mit dem Befehl corosync-quorumtool. In der Befehlsausgabe ist die Anzahl der Live-Hosts der Wert von Stimmen insgesamt: und die Anzahl der Live-Hosts, die zum Beibehalten des Quorums erforderlich sind, ist der Wert von Quorum:.

  • Wenn die Anzahl der aktiven Hosts mit der Anzahl der Hosts übereinstimmt, die erforderlich sind, um beschlussfähig zu bleiben, erzwingen Sie das Herunterfahren des Hosts. Dies führt dazu, dass der gesamte Cluster abgegrenzt wird.

    Versuchen Sie stattdessen, andere Hosts wiederherzustellen und die Anzahl der Live-Hosts zu erhöhen, bevor Sie das Herunterfahren des Hosts erzwingen.

  • Wenn die Anzahl der Live-Hosts nahe an der Anzahl der Hosts liegt, die erforderlich sind, um beschlussfähig zu bleiben, können Sie das Herunterfahren des Hosts erzwingen. Dadurch ist der Cluster jedoch anfälliger für vollständiges Fencing, wenn andere Hosts im Pool Probleme haben.

Versuchen Sie immer, den heruntergefahrenen Host so schnell wie möglich neu zu starten, um die Resilienz Ihres Clusters zu erhöhen.

Wartungsmodus verwenden

Bevor Sie auf einem Host etwas tun, das dazu führen kann, dass der Host das Quorum verliert, versetzen Sie den Host in den Wartungsmodus. Wenn sich ein Host im Wartungsmodus befindet, werden ausgeführte VMs von ihm auf einen anderen Host im Pool migriert. Wenn es sich bei diesem Host um den Poolmaster handelt, wird diese Rolle an einen anderen Host im Pool übergeben. Wenn Ihre Aktionen dazu führen, dass sich ein Host im Wartungsmodus selbst abschirmt, verlieren Sie keine VMs oder Ihre XenCenter-Verbindung zum Pool.

Hosts im Wartungsmodus werden weiterhin auf den Quorumwert für den Cluster angerechnet.

Sie können die IP-Adresse eines Hosts, der Teil eines Clusterpools ist, nur ändern, wenn sich dieser Host im Wartungsmodus befindet. Wenn Sie die IP-Adresse eines Hosts ändern, verlässt der Host den Cluster. Wenn die IP-Adresse erfolgreich geändert wurde, tritt der Host dem Cluster wieder bei. Nachdem der Host dem Cluster wieder beigetreten ist, können Sie den Wartungsmodus deaktivieren.

Wiederherstellen von Hosts, die sich selbst eingezäunt haben oder offline sind

Es ist wichtig, Hosts wiederherzustellen, die sich selbst eingezäunt haben. Während diese Clustermitglieder offline sind, werden sie auf die Quorumzahl für den Cluster angerechnet und verringern die Anzahl der Clustermitglieder, die kontaktiert werden können. Diese Situation erhöht das Risiko, dass ein nachfolgender Hostfehler dazu führt, dass der Cluster das Quorum verliert und vollständig heruntergefahren wird.

Wenn Sie Offline-Hosts in Ihrem Cluster haben, können Sie auch bestimmte Aktionen nicht ausführen. In einem gruppierten Pool muss jedes Mitglied des Pools jeder Änderung der Poolmitgliedschaft zustimmen, bevor die Änderung erfolgreich sein kann. Wenn ein Clustermitglied nicht kontaktiert werden kann, verhindert Citrix Hypervisor Vorgänge, die die Clustermitgliedschaft ändern (z. B. Host hinzufügen oder Host entfernen).

Hosts als nicht wiederherstellbar markieren

Wenn ein oder mehrere Offline-Hosts nicht wiederhergestellt werden können, können Sie den Clusterpool anweisen, sie zu vergessen. Diese Hosts werden dauerhaft aus dem Pool entfernt. Nachdem Hosts aus dem Pool entfernt wurden, werden sie nicht mehr auf den Quorumwert angerechnet.

Um einen Host als nicht wiederherstellbar zu markieren, verwenden Sie den folgenden Befehl:

  xe host-forget uuid=<host_uuid>

Wiederherstellen eines vergessenen Hosts

Nachdem ein Clusterpool angewiesen wurde, einen Host zu vergessen, kann der Host nicht mehr zum Pool hinzugefügt werden.

Um dem Clusterpool wieder beizutreten, müssen Sie XenServer auf dem Host neu installieren, damit er als neuer Host im Pool angezeigt wird. Anschließend können Sie den Host auf die übliche Weise mit dem Clusterpool verknüpfen.

Problembehandlung für Ihren Clusterpool

Wenn Sie Probleme mit Ihrem Clusterpool haben, finden Sie weitere Informationen unter Problembehandlung bei Clusterpools.

Einschränkungen

  • Clusterpools unterstützen nur bis zu 16 Hosts pro Pool.
  • Um HA in einem Clusterpool zu aktivieren, muss der Heartbeat-SR ein GFS2-SR sein.
  • Für den Cluster-Verkehr müssen Sie ein gebundenes Netzwerk verwenden, das mindestens zwei verschiedene Netzwerk-Switches verwendet. Verwenden Sie dieses Netzwerk nicht für andere Zwecke.
  • Um die IP-Adresse des Cluster-Netzwerks mithilfe von XenCenter zu ändern, müssen Clustering und GFS2 vorübergehend deaktiviert werden.
  • Ändern Sie nicht die Bindung Ihres Clusternetzwerks, während der Cluster aktiv ist und über laufende VMs verfügt. Diese Aktion kann zum Fence des Clusters führen.
  • Wenn Sie in Ihrem Clusternetzwerk einen IP-Adresskonflikt (mehrere Hosts mit derselben IP-Adresse) haben, an dem mindestens ein Host mit aktiviertem Clustering beteiligt ist, werden die Hosts nicht eingezäunt. Um dieses Problem zu beheben, lösen Sie den IP-Adresskonflikt.
Gruppierte Pools