Stockage par blocs GFS2 partagé alloué de manière dynamique
Le provisionnement léger utilise mieux le stockage disponible en allouant de l’espace de stockage sur disque aux VDI au fur et à mesure que les données sont écrites sur le disque virtuel, plutôt qu’en allouant à l’avance la taille virtuelle complète du VDI. Le provisionnement léger vous permet de réduire considérablement la quantité d’espace requise sur une baie de stockage partagée, et par conséquent votre coût total de possession (TCO).
Le provisionnement léger pour le stockage de blocs partagés présente un intérêt particulier dans les cas suivants :
- Vous souhaitez une efficacité accrue de l’espace. Les images sont réparties de manière clairsemée et non épaisse.
- Vous souhaitez réduire le nombre d’opérations d’E/S par seconde sur votre baie de stockage. Le GFS2 SR est le premier type SR à prendre en charge la mise en cache de lecture de stockage sur un stockage de blocs partagé.
- Vous utilisez une image de base commune pour plusieurs machines virtuelles. Les images des machines virtuelles individuelles utiliseront alors généralement encore moins d’espace.
- Vous utilisez des instantanés. Chaque instantané est une image et chaque image est désormais clairsemée.
- Vous souhaitez créer des VDI d’une taille supérieure à 2 Tio. Le GFS2 SR prend en charge les VDI jusqu’à 16 Tio.
- Votre stockage ne prend pas en charge NFS ou SMB3 et ne prend en charge que le stockage en blocs. Si votre stockage prend en charge NFS ou SMB3, nous vous recommandons d’utiliser ces types SR au lieu de GFS2.
- Votre stockage ne prend pas en charge le provisionnement dynamique des LUN. Si votre stockage effectue le provisionnement dynamique des LUN, vous pouvez rencontrer des problèmes et manquer d’espace lors de la combinaison avec GFS2. La combinaison de GFS2 avec un LUN alloué de manière dynamique n’offre pas beaucoup d’avantages supplémentaires et n’est pas recommandée. XenCenter affiche un avertissement si vous tentez d’utiliser GFS2 avec un LUN alloué de manière dynamique.
Remarque :
Nous vous recommandons de ne pas utiliser un SR GFS2 avec un VLAN en raison d’un problème connu selon lequel vous ne pouvez pas ajouter ou supprimer des hôtes sur un pool en cluster si le réseau de cluster se trouve sur un VLAN non de gestion.
Le type GFS2 partagé représente les disques sous la forme d’un système de fichiers créé sur un LUN iSCSI ou HBA. Les VDI stockées sur un SR GFS2 sont stockées au format d’image QCOW2.
1. Planifiez votre environnement GFS2
Pour bénéficier des avantages du provisionnement fin sur le stockage par blocs partagé sans risque de perte de données, votre pool doit offrir un bon niveau de fiabilité et de connectivité. Il est essentiel que les hôtes du pool de ressources qui utilisent GFS2 puissent communiquer de manière fiable entre eux. Pour s’en assurer, XenServer exige que vous utilisiez un pool en cluster avec votre SR GFS2. Nous vous recommandons également de concevoir votre environnement et de configurer les fonctionnalités XenServer de manière à fournir autant de résilience et de redondance que possible.
Avant de configurer votre pool XenServer pour qu’il fonctionne avec les SR GFS2, passez en revue les exigences et les recommandations suivantes pour un environnement GFS2 idéal :
-
Recommandé: Configurer une infrastructure réseau redondante.
-
Recommandé: Créez un réseau sous douane dédié
-
Obligatoire: Configurer un pool cluster
-
Recommandé: Configurer le multipathing de stockage
-
Obligatoire: Création d’un GFS2 SR
Un pool en cluster avec des SR GFS2 présente des différences de comportement par rapport à d’autres types de pool et de SR. Pour plus d’informations, consultez Contraintes.
2. Configurer une infrastructure réseau redondante
Un réseau lié relie deux ou plusieurs cartes réseau ensemble pour créer un canal unique pour le trafic réseau. Nous vous recommandons d’utiliser un réseau lié pour le trafic de votre pool en cluster. Toutefois, avant de configurer votre réseau lié, assurez-vous que la configuration matérielle de votre réseau favorise la redondance dans le réseau lié. Envisagez de mettre en œuvre le plus grand nombre possible de ces recommandations pour votre organisation et votre environnement.
Les bonnes pratiques suivantes renforcent la résilience contre les pannes logicielles, matérielles ou d’alimentation susceptibles d’affecter vos commutateurs réseau.
- Assurez-vous que vous disposez de commutateurs réseau physiques distincts pour une utilisation dans le réseau lié, et pas seulement de ports sur le même commutateur.
- Assurez-vous que les commutateurs séparés sont alimentés par des unités de distribution d’alimentation (PDU) différentes et indépendantes.
- Si possible, dans votre centre de données, placez les PDU sur différentes phases de l’alimentation électrique ou même sur des alimentations fournies par différentes sociétés de services publics.
- Envisagez d’utiliser des unités d’alimentation sans coupure pour vous assurer que les commutateurs et les serveurs réseau peuvent continuer à fonctionner ou effectuer un arrêt ordonné en cas de panne de courant.
3. Créez un réseau lié dédié
Il est important de s’assurer que les hôtes d’un pool en cluster peuvent communiquer de manière fiable entre eux. La création d’un réseau lié pour ce trafic de pool augmente la résilience de votre pool en cluster.
Un réseau lié crée un lien entre deux ou plusieurs cartes réseau pour créer un canal unique et performant que votre pool en cluster peut utiliser pour le trafic de pulsation de cluster. Nous vous recommandons vivement de ne pas utiliser ce réseau lié pour d’autres trafics. Créez un réseau distinct pour le pool à utiliser pour la gestion du trafic.
Remarque :
Si vous disposez d’un pare-feu entre les hôtes de votre pool, assurez-vous que les hôtes peuvent communiquer sur le réseau du cluster à l’aide des ports suivants :
- TCP : 8892, 8896, 21064
- UDP : 5404, 5405
Pour plus d’informations, consultez Ports de communication utilisés par XenServer.
Pour créer un réseau lié à utiliser comme réseau de clustering :
- Ouvrez le Nouveau réseau sorcier.
- Sur la première page de l’assistant, sélectionnez Réseau lié puis cliquez sur Prochain.
- Sur le Membres des obligations , sélectionnez les cartes réseau que vous souhaitez lier ensemble. Pour sélectionner une carte réseau, cochez sa case dans la liste. Vous pouvez sélectionner jusqu’à quatre cartes réseau dans cette liste. Décochez la case pour désélectionner une carte réseau.
-
Sous Mode Bond, choisissez le type de cautionnement :
- Choisir Actif-actif pour configurer une liaison active-active. Grâce à cette liaison, le trafic est équilibré entre les cartes réseau liées. En cas de défaillance d’une carte réseau au sein de la liaison, le trafic réseau du serveur est automatiquement acheminé sur la deuxième carte réseau.
- Choisir Actif-passif pour configurer une liaison active-passive, où le trafic passe par une seule des cartes réseau liées. Dans ce mode, la deuxième carte réseau ne devient active que si la carte réseau active échoue, par exemple, si elle perd la connectivité réseau.
- Choisir LACP avec équilibrage de charge basé sur l’adresse MAC source pour configurer une liaison LACP. Avec cette liaison, la carte réseau sortante est sélectionnée en fonction de l’adresse MAC de la machine virtuelle d’où provient le trafic. Utilisez cette option pour équilibrer le trafic dans un environnement où vous avez plusieurs machines virtuelles sur le même hôte. Cette option n’est pas adaptée s’il y a moins d’interfaces virtuelles (VIT) que de cartes réseau : car l’équilibrage de charge n’est pas optimal car le trafic ne peut pas être réparti entre les cartes réseau.
- Choisir LACP avec équilibrage de charge basé sur l’adresse IP et le port de la source et de la destination pour configurer une liaison LACP. Cette liaison utilise l’adresse IP source, le numéro de port source, l’adresse IP de destination et le numéro de port de destination pour répartir le trafic entre les cartes réseau. Utilisez cette option pour équilibrer le trafic des machines virtuelles dans un environnement où le nombre de cartes réseau dépasse le nombre de VIT.
Remarques :
- Pour pouvoir afficher les options de liaison LACP dans XenCenter et créer une liaison LACP, configurez vSwitch en tant que pile réseau. De plus, vos commutateurs doivent prendre en charge la norme IEEE 802.3ad.
- Les types de liaison actif-actif et actif-passif sont disponibles pour le pont vSwitch et Linux.
- Vous pouvez lier deux, trois ou quatre cartes réseau lorsque vSwitch est la pile réseau. Toutefois, vous ne pouvez lier deux cartes réseau que lorsque le pont Linux est la pile réseau.
- Pour utiliser des trames jumbo, réglez l’unité de transmission maximale (MTU) à une valeur comprise entre 1500 et 9216.
- Sélectionnez l’icône Ajouter automatiquement ce réseau aux nouvelles machines virtuelles pour que le nouveau réseau soit ajouté à toutes les nouvelles machines virtuelles créées à l’aide de la case Nouvelle machine virtuelle sorcier.
- Cliquer Finir pour créer le réseau et fermer l’assistant.
Une fois que vous avez créé votre réseau lié sur le coordinateur de pool, lorsque vous joignez d’autres hôtes XenServer au pool, les informations de réseau et de liaison sont automatiquement répliquées sur le serveur de jonction.
Pour plus d’informations, consultez Configuration des cartes réseau.
Remarques :
- La modification de l’adresse IP du réseau de cluster à l’aide de XenCenter nécessite la désactivation temporaire du clustering et de GFS2.
- Ne modifiez pas la liaison de votre réseau de clustering lorsque le cluster est en ligne et que des machines virtuelles sont en cours d’exécution. Cette action peut entraîner un redémarrage dur des hôtes du cluster (clôture).
- Si vous avez un conflit d’adresses IP (plusieurs hôtes ayant la même adresse IP) sur votre réseau de clustering impliquant au moins un hôte pour lequel le clustering est activé, le cluster ne se forme pas correctement et les hôtes ne peuvent pas se clôturer lorsque cela est nécessaire. Pour résoudre ce problème, résolvez le conflit d’adresse IP.
4. Configurer un pool en cluster
Pour utiliser le stockage GFS2 partagé, le pool de ressources XenServer doit être un pool en cluster. Activez le clustering sur votre pool avant de créer un SR GFS2.
Pour créer un pool en cluster :
- Ouvrez le Nouvelle piscine en cliquant sur Nouvelle piscine dans la barre d’outils.
- Entrez un nom pour le nouveau pool et une description facultative. Le nom s’affiche dans le Ressources vitre.
- Nommez le coordinateur du pool en sélectionnant un serveur dans le Coordinateur liste.
- Sélectionnez d’autres serveurs à placer dans le nouveau pool à partir de la liste Membres supplémentaires liste. Tous les serveurs gérés disponibles sont répertoriés. Si un serveur n’est pas répertorié, vous pouvez l’ajouter à la liste en cliquant sur Ajouter un nouveau serveur. Si un serveur géré n’est pas répertorié, c’est peut-être parce qu’il ne satisfait pas à une ou plusieurs des exigences de jonction de pool répertoriées dans Exigences relatives à la piscine.
- Choisir Créer un pool pour créer le pool et fermer la boîte de dialogue.
- Sélectionnez le pool dans le champ Ressources panneau et dans son Généralités , sélectionnez Propriétés. Le Propriétés de la piscine fenêtre s’ouvre.
- Dans le Clustering , sélectionnez Activer le clustering et choisissez le réseau lié dédié que vous avez créé pour être le réseau de cluster.
- Cliquez sur OK.
5. Configurer le multipathing de stockage
Assurez-vous que le multipathing de stockage est configuré entre votre pool en cluster et votre SR GFS2.
Le multipathing achemine le trafic de stockage vers un périphérique de stockage via plusieurs chemins à des fins de redondance. Toutes les routes peuvent avoir un trafic actif en fonctionnement normal, ce qui entraîne une augmentation du débit.
Avant d’activer le multipathing, vérifiez que les instructions suivantes sont vraies :
-
Votre commutateur Ethernet ou fibre optique est configuré pour rendre plusieurs cibles disponibles sur votre serveur de stockage.
Par exemple, un back-end de stockage iSCSI a demandé
sendtargets
sur un portail donné renvoie plusieurs cibles, comme dans l’exemple suivant :iscsiadm -m discovery --type sendtargets --portal 192.168.0.161 192.168.0.161:3260,1 iqn.strawberry:litchie 192.168.0.204:3260,2 iqn.strawberry:litchie
Toutefois, vous pouvez effectuer une configuration supplémentaire pour activer le multichemin d’accès iSCSI pour les baies qui n’exposent qu’une seule cible. Pour plus d’informations, consultez Chemin d’accès multiple iSCSI pour les baies qui n’exposent qu’une seule cible.
-
Pour iSCSI uniquement, le domaine de contrôle (dom0) dispose d’une adresse IP sur chaque sous-réseau utilisé par le stockage à chemins d’accès multiples.
Assurez-vous que pour chaque chemin d’accès au stockage, vous disposez d’une carte réseau et qu’une adresse IP est configurée sur chaque carte réseau. Par exemple, si vous souhaitez quatre chemins d’accès à votre stockage, vous devez disposer de quatre cartes réseau qui ont chacune une adresse IP configurée.
-
Pour iSCSI uniquement, chaque cible et initiateur iSCSI possède un IQN unique.
-
Pour iSCSI uniquement, les ports cibles iSCSI fonctionnent en mode portail.
-
Pour les adaptateurs HBA uniquement, plusieurs adaptateurs HBA sont connectés à la structure du commutateur.
-
Si possible, utilisez plusieurs commutateurs redondants.
Pour activer le multipathing :
Procédez comme suit pour chaque serveur de votre pool :
- Dans le Ressources , sélectionnez le serveur, puis placez-le dans Mode de maintenance. Il y a un court délai pendant que XenCenter migre toutes les machines virtuelles actives et débranche le stockage existant. Si le serveur est un coordinateur de pool, il est déconnecté et peut disparaître de la Ressources temporairement pendant l’affectation d’un nouveau coordinateur de pool. Lorsque le serveur réapparaît dans le Ressources avec l’icône du mode de maintenance du serveur (), passez à l’étape suivante.
- Sur le Généralités , sélectionnez Propriétés , puis sélectionnez l’icône Chemins d’accès multiples onglet.
- Pour activer le multipathing, vérifiez l’icône Activer le multipathing sur ce serveur case à cocher. Pour désactiver le multipathing, décochez la case.
- Cliquer D’ACCORD pour appliquer le nouveau paramètre et fermer la boîte de dialogue. Il y a un court délai pendant lequel XenCenter enregistre la nouvelle configuration de stockage.
- Sortez le serveur du mode maintenance. Sélectionnez le serveur dans le menu Ressources , cliquez avec le bouton droit de la souris et sélectionnez Quitter le mode de maintenance.
Assurez-vous d’activer le multipathing sur tous les hôtes du pool. Tous les câbles et, dans le cas d’iSCSI, les configurations de sous-réseau doivent correspondre aux cartes réseau correspondantes sur chaque hôte.
6. Créez un GFS2 SR
Créez votre SR GFS2 partagé sur un LUN iSCSI ou HBA visible par tous les hôtes XenServer de votre pool de ressources.
Remarque :
Nous vous déconseillons d’utiliser un LUN à provisionnement dynamique avec GFS2. XenCenter affiche un avertissement si vous tentez d’utiliser GFS2 avec un LUN alloué de manière dynamique.
Toutefois, si vous choisissez cette configuration, vous devez vous assurer que le LUN dispose toujours de suffisamment d’espace pour permettre à XenServer d’y écrire.
Vous pouvez ajouter jusqu’à 62 SR GFS2 à un pool en cluster.
Pour créer un logiciel iSCSI SR
Remarque :
Avant d’effectuer les étapes suivantes, assurez-vous que l’IQN de l’initiateur iSCSI est correctement défini pour tous les hôtes du pool. Pour plus d’informations, consultez Modification des propriétés du serveur.
- Ouvrez le Nouveau référentiel de stockage Assistant : cliquez sur Nouveau stockage dans la barre d’outils. Alternativement:
- Sur le Stockage pour le pool ou le serveur sélectionné, cliquez sur Nouveau SR.
- Sur le Stockage menu, cliquez sur Nouveau SR.
- Dans le Ressources , sélectionnez un serveur ou un pool, puis cliquez avec le bouton droit de la souris et cliquez sur Nouveau SR dans le menu contextuel.
- Choisir Logiciel iSCSI comme type de stockage physique, puis cliquez sur Prochain.
- Sur le Nom , entrez le nom du nouveau SR. Par défaut, l’assistant génère une description de la SR. Cette description comprend un résumé des options de configuration que vous sélectionnez au fur et à mesure de votre progression dans l’Assistant. Pour saisir votre propre description, décochez l’icône Générer automatiquement la description et tapez la case Description boîte. Cliquez sur Next pour continuer.
- Sur le Fourniture page, sélectionnez Provisionnement dynamique (GFS2).
-
Sur le Emplacement , spécifiez les détails de la cible iSCSI :
-
Hôte cible: adresse IP ou nom DNS de la cible iSCSI. Il peut également s’agir d’une liste de valeurs séparées par des virgules.
-
Utiliser le protocole CHAP: Cette option n’est pas prise en charge par les SR GFS2. Laissez cette option décochée.
-
IQN cible: Pour spécifier l’IQN cible iSCSI, cliquez sur l’icône Découvrir les IQN puis choisissez un IQN dans le IQN cible liste.
Important :
La cible iSCSI et tous les serveurs du pool ne doivent pas avoir le même IQN défini. Chaque cible et initiateur iSCSI doit avoir un IQN unique. Si un identifiant IQN non unique est utilisé, les données peuvent être corrompues, l’accès à la cible peut être refusé, ou les deux.
-
LUN cible: Pour spécifier le LUN sur lequel créer le référentiel de stockage, cliquez sur l’icône Découvrir les LUN bouton. Choisissez un LUN dans la section LUN cible liste.
Chaque référentiel de stockage iSCSI individuel doit être entièrement contenu dans un seul LUN. Le SR ne peut pas s’étendre sur plus d’une LUN. Si le LUN contient déjà un SR, choisissez d’utiliser le SR existant ou de remplacer le SR existant par un nouveau. Le remplacement du SR existant détruit toutes les données présentes sur le disque.
-
- Cliquer Finir pour terminer la nouvelle configuration SR et fermer l’assistant.
Pour créer un adaptateur HBA SR matériel
- Pour ouvrir le Nouveau référentiel de stockage , vous pouvez effectuer l’une des actions suivantes :
- Dans la barre d’outils, sélectionnez Nouveau stockage.
- Sur le Stockage pour le pool ou le serveur sélectionné, sélectionnez Nouveau SR.
- Sur le Stockage menu, sélectionnez Nouveau SR.
- Dans le Ressources , sélectionnez un serveur ou un pool, puis cliquez avec le bouton droit de la souris et sélectionnez Nouveau SR dans le menu contextuel.
- Choisir Adaptateur HBA matériel comme type de stockage physique, puis sélectionnez Prochain.
- Sur le Nom , entrez le nom du nouveau SR. Par défaut, l’assistant génère une description de la SR. Cette description comprend un résumé des options de configuration que vous sélectionnez au fur et à mesure de votre progression dans l’Assistant. Pour saisir votre propre description, décochez l’icône Générer automatiquement la description et tapez la case Description boîte. Cliquer Prochain pour passer à la Fourniture page.
- Sur le Fourniture , sélectionnez l’icône Provisionnement dynamique (GFS2).
- Cliquer Prochain pour passer à la Emplacement page.
-
L’assistant recherche les LUN disponibles, puis affiche une page répertoriant toutes les LUN trouvées. Sélectionnez un LUN dans la liste et cliquez sur Créer.
Remarque :
Un message d’avertissement s’affiche si des SR existent sur le LUN que vous avez sélectionné. Vérifiez les détails et choisissez l’une des options suivantes.
- Pour utiliser l’existant, cliquez sur Rattacher.
- Pour supprimer le SR existant et créer un SR, cliquez sur Format.
- Si vous préférez sélectionner un autre LUN, cliquez sur Annuler et sélectionnez un LUN dans la liste.
- Le Résumé affiche des informations sur le nouveau SR. Lisez les informations, puis cliquez sur Finir pour terminer le processus de création de SR.
Contraintes
Le stockage GFS2 partagé présente actuellement les contraintes suivantes :
-
Comme pour tout SR alloué de manière dynamique, si l’utilisation du SR GFS2 passe à 100 %, les écritures ultérieures à partir de machines virtuelles échouent. Ces échecs d’écriture peuvent ensuite entraîner des défaillances au sein de la machine virtuelle, une éventuelle corruption des données, ou les deux.
-
XenCenter affiche une alerte lorsque votre utilisation de SR atteint 80 %. Assurez-vous de surveiller votre GFS2 SR pour détecter cette alerte et de prendre les mesures appropriées si elle est visible. Sur un GFS2 SR, une utilisation élevée entraîne une dégradation des performances. Nous vous recommandons de maintenir votre utilisation de SR en dessous de 80 %.
-
La migration de machines virtuelles avec migration du stockage (en direct ou hors connexion) n’est pas prise en charge pour les machines virtuelles dont les VDI se trouvent sur un SR GFS2. Vous ne pouvez pas non plus migrer des VDI d’un autre type de SR vers un SR GFS2.
-
Le transport FCoE n’est pas pris en charge par les SR GFS2.
-
Le découpage/démappage n’est pas pris en charge sur les SR GFS2.
-
Le protocole CHAP n’est pas pris en charge sur les SR GFS2.
-
Le suivi des blocs modifiés n’est pas pris en charge pour les VDI stockées sur les SR GFS2.
-
Vous ne pouvez pas exporter des VDI de plus de 2 Tio au format VHD ou OVA/OVF. Toutefois, vous pouvez exporter des machines virtuelles avec des VDI supérieures à 2 Tio au format XVA.
-
Nous vous déconseillons d’utiliser un LUN à provisionnement dynamique avec GFS2. Toutefois, si vous choisissez cette configuration, vous devez vous assurer que le LUN dispose toujours de suffisamment d’espace pour permettre à XenServer d’y écrire.
-
Nous vous déconseillons d’utiliser la déduplication SAN avec les SR GFS2. Toutefois, si vous choisissez cette configuration, vous devez utiliser une surveillance externe appropriée de l’utilisation de votre SAN pour vous assurer qu’il y a toujours de l’espace pour XenServer sur lequel écrire.
-
Votre système de fichiers GFS2 ne peut pas être supérieur à 100 Tio.
-
Vous ne pouvez pas avoir plus de 62 SR GFS2 dans votre pool.
-
Les pools en cluster ne prennent en charge que 16 hôtes par pool.
-
Pour le trafic de cluster, nous vous recommandons vivement d’utiliser un réseau lié qui utilise au moins deux commutateurs réseau différents. N’utilisez pas ce réseau à d’autres fins.
-
La modification de l’adresse IP du réseau de cluster à l’aide de XenCenter nécessite la désactivation temporaire du clustering et de GFS2.
-
Ne modifiez pas la liaison de votre réseau de clustering lorsque le cluster est en ligne et que des machines virtuelles sont en cours d’exécution. Cette action peut entraîner un redémarrage dur des hôtes du cluster (clôture).
-
Si vous avez un conflit d’adresses IP (plusieurs hôtes ayant la même adresse IP) sur votre réseau de clustering impliquant au moins un hôte pour lequel le clustering est activé, le cluster ne se forme pas correctement et les hôtes ne peuvent pas se clôturer lorsque cela est nécessaire. Pour résoudre ce problème, résolvez le conflit d’adresse IP.