Formats de référentiel de stockage

Vous pouvez utiliser l’assistant Nouveau référentiel de stockage dans pour créer des référentiels de stockage. L’Assistant vous guide à travers les étapes de configuration. Vous pouvez également utiliser l’interface de ligne de commande et lasr-create commande. Lasr-create commande crée un SR sur le substrat de stockage (détruisant potentiellement toutes les données existantes). Il crée également l’objet API SR et un enregistrement PBD correspondant, permettant aux machines virtuelles d’utiliser le stockage. Lors de la création réussie du SR, le PBD est automatiquement branché. Si l’shared=true indicateur SR est défini, un enregistrement PBD est créé et branché pour chaque partie du pool de ressources.

Si vous créez un SR pour le stockage IP (iSCSI ou NFS), vous pouvez configurer l’un des éléments suivants en tant que réseau de stockage : la carte réseau qui gère le trafic de gestion ou une nouvelle carte réseau pour le trafic de stockage. Pour attribuer une adresse IP à une carte réseau, reportez-vous à la section Configurer une carte réseau de stockage dédiée.

Tous les types SR prennent en charge le redimensionnement VDI, le clonage rapide et le snapshot. Les SR basées sur le type LVM SR (local, iSCSI ou HBA) fournissent un provisionnement léger pour les nœuds parents instantanés et masqués. Les autres types SR (EXT3, NFS, GFS2) prennent en charge le provisionnement fin complet, y compris pour les disques virtuels actifs.

Avertissement :

Lorsque les VDI VHD ne sont pas attachés à une machine virtuelle, par exemple pour un instantané VDI, ils sont stockés en tant que provisionnés finement par défaut. Si vous tentez de reconnecter le VDI, assurez-vous qu’il y a suffisamment d’espace disque disponible pour que le VDI soit provisionné de manière épaisse. Les clones VDI sont provisionnés de manière épaisse.

Les tailles VDI maximales prises en charge sont les suivantes :

Format du référentiel de stockage Taille maximale de VDI
EXT3 2 TiB
LVM 2 TiB
NFS 2 TiB
LvmofCoe 2 TiB
LvMoiscsi 2 TiB
Lvmohba 2 TiB
GFS2 (avec iSCSI ou HBA) 2 TiB

LVM locale

Le type LVM local présente des disques au sein d’un groupe de volumes attaché localement.

Par défaut, utilise le disque local sur l’hôte physique sur lequel il est installé. Le gestionnaire de volumes logiques (LVM) Linux est utilisé pour gérer le stockage de machines virtuelles. Un VDI est implémenté au format VHD dans un volume logique LVM de la taille spécifiée.

Considérations sur les performances LVM

La fonctionnalité de clone instantané et de clone rapide pour les SR basées sur LVM est associée à une surcharge de performances inhérente. Lorsque des performances optimales sont requises, prend en charge la création de VDI au format brut en plus du format VHD par défaut. La fonctionnalité de snapshot n’est pas prise en charge sur les VDI bruts.

Les snapshots non transportables qui utilisent le fournisseur VSS Windows par défaut fonctionnent sur tout type de VDI.

Avertissement :

n’essayez pas d’instantaner une machine virtuelle avectype=rawdes disques attachés. Cette action peut entraîner la création d’un instantané partiel. Dans ce cas, vous pouvez identifier les VDI de snapshot orphelins en cochant lesnapshot-of champ, puis en les supprimant.

Création d’une SR LVM locale

Une SR LVM est créée par défaut lors de l’installation de l’hôte.

Les paramètres de configuration de périphérique pour les SR LVM sont les suivants :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR
  • Oui

Pour créer une SR LVM locale sur/dev/sdb, utilisez la commande suivante.

xe sr-create host-uuid = valid_uuid content-type = user \
name-label = "Exemple Local LVM SR'shared = false \
device-config : device = / dev/sdb type = lvm

EXT3 local

L’utilisation de EXT3 permet le provisionnement léger sur le stockage local. Toutefois, le type de référentiel de stockage par défaut est LVM car il offre des performances d’écriture cohérentes et empêche le stockage de trop commit. Si vous utilisez EXT3, vous pouvez voir des performances réduites dans les cas suivants :

  • Lors de l’exécution d’opérations de cycle de vie des machines virtuelles telles que la création et la suspendre/reprise de la machine virtuelle
  • Lors de la création de fichiers volumineux à partir de la machine virtuelle

Les SRs EXT de disque local doivent être configurés à l’aide de l’ interface de ligne de commande.

Création d’un EXT3 SR local (ext)

Paramètres de configuration du périphérique pour les SR ext :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR
  • Oui

Pour créer un poste SR local sur/dev/sdb, utilisez la commande suivante :

xe sr-create host-uuid = valid_uuid content-type = user \
   name-label = "Exemple Local EXT3 SR'shared = false \
   device-config : device = / dev/sdb type = ext

udev

Leudev type représente les périphériques branchés à l’aide du gestionnaire deudev périphériques en tant que VDI.

a deux SR de typeudev qui représentent un stockage amovible. La première concerne le disque CD ou DVD du lecteur de CD ou de DVD-ROM physique de l’ hôte. L’autre concerne un périphérique USB branché sur un port USB de l’ hôte. Les VDI qui représentent les médias vont et viennent au fur et à mesure que des disques ou des clés USB sont insérés et retirés.

ISO

Le type ISO gère les images CD stockées sous forme de fichiers au format ISO. Ce type SR est utile pour créer des bibliothèques ISO partagées. Pour les référentiels de stockage qui stockent une bibliothèque d’ISO, lecontent-type paramètre doit être défini suriso .

Par exemple :

xe sr-create host-uuid = valid_uuid content-type = iso \
  type = iso name-label = « Exemple de SR ISO » \
  device-config : location = nfs server : chemin

recommande d’utiliser SMB version 3.0 pour le montage ISO SR sur le serveur de fichiers Windows. La version 3.0 est sélectionnée par défaut car elle est plus sûre et robuste que SMB version 1.0. Toutefois, vous pouvez installer ISO SR à l’aide de SMB version 1.0 à l’aide de la commande suivante :

 xe sr-create content-type = iso type = iso shared = true device-config : location = emplacement valide
 device-config : nom d'utilisateur = nom d'utilisateur device-config : cifspassword = mot de passe
 device-config : type = cifs device-config : vers = Choose 1.0 ou 3.0 name-label = « Exemple ISO SR »

Prise en charge des logiciels iSCSI

prend en charge les SR partagés sur les LUN iSCSI. iSCSI est pris en charge à l’aide de l’initiateur iSCSI du logiciel Open-iSCSI ou à l’aide d’un adaptateur de bus hôte (HBA) iSCSI pris en charge. Les étapes d’utilisation des adaptateurs HBA iSCSI sont identiques à celles des adaptateurs HBA Fibre Channel. Les deux ensembles d’étapes sont décrits dans la section Créer un LVM partagé sur Fibre Channel / Fibre Channel over Ethernet / iSCSI HBA ou SAS SR.

La prise en charge iSCSI partagée à l’aide de l’initiateur iSCSI logiciel est implémentée sur la base du gestionnaire de volumes Linux (LVM). Cette fonctionnalité offre les mêmes avantages en termes de performances que les VDI LVM dans le cas du disque local. Les SR iSCSI partagées à l’aide de l’initiateur d’hôte logiciel peuvent prendre en charge l’agilité de la machine virtuelle à l’aide de  : les machines virtuelles peuvent être démarrées sur n’importe quel hôte d’un pool de ressources et migrées entre eux sans interruption notable.

Les SR iSCSI utilisent la LUN entière spécifiée au moment de la création et ne peuvent pas s’étendre sur plus d’un LUN. La prise en charge CHAP est assurée pour l’authentification du client, à la fois pendant l’initialisation du chemin de données et les phases de découverte des LUN.

Note :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Configuration iSCSI hôte

Tous les initiateurs et cibles iSCSI doivent avoir un nom unique pour s’assurer qu’ils peuvent être identifiés de manière unique sur le réseau. Un initiateur a une adresse d’initiateur iSCSI et une cible a une adresse de cible iSCSI. Collectivement, ces noms sont appelés Noms qualifiés iSCSI ou IQN.

prennent en charge un seul initiateur iSCSI qui est automatiquement créé et configuré avec un IQN aléatoire lors de l’installation de l’hôte. L’initiateur unique peut être utilisé pour se connecter simultanément à plusieurs cibles iSCSI.

Les cibles iSCSI fournissent généralement le contrôle d’accès à l’aide des listes IQN des initiateurs iSCSI. Toutes les cibles/LUN iSCSI auxquelles votre hôte accède doivent être configurées pour autoriser l’accès par l’IQN de l’initiateur de l’hôte. De même, les cibles/LUN à utiliser en tant que SR iSCSI partagés doivent être configurés pour autoriser l’accès par tous les IQN hôtes du pool de ressources.

Note :

Les cibles iSCSI qui ne fournissent pas de contrôle d’accès par défaut limitent généralement l’accès aux LUN à un seul initiateur pour garantir l’intégrité des données. Si un LUN iSCSI est utilisé comme SR partagé sur plusieurs serveurs d’un pool, assurez-vous que l’accès à plusieurs initiateurs est activé pour le LUN spécifié.

La valeur IQN de l’ hôte peut être ajustée à l’aide de l’interface de ligne de commande ou à l’aide de la commande suivante lors de l’utilisation de l’initiateur logiciel iSCSI :

xe host-param-set uuuid = valid_host_id other-config : iscsi_iqn = new_initiator_iqn

Avertissement :

  • Chaque cible iSCSI et chaque initiateur doivent avoir un IQN unique. Si un identifiant IQN non unique est utilisé, des données endommagées ou un refus d’accès aux LUN peuvent se produire.
  • Ne modifiez pas l’IQN de l’ hôte avec les SR iSCSI attachés. Cela peut entraîner des défaillances de connexion à de nouvelles cibles ou à des SR existants.

Stockage FCoE logiciel

Software FCoE fournit un cadre standard auquel les fournisseurs de matériel peuvent brancher leur carte réseau compatible FCOE et bénéficier des mêmes avantages qu’un FCoE basé sur le matériel. Cette fonctionnalité élimine la nécessité d’utiliser des adaptateurs HBA coûteux.

Avant de créer un stockage FCoE logiciel, effectuez manuellement la configuration requise pour exposer un LUN à l’hôte. Cette configuration inclut la configuration de la structure FCoE et l’allocation de LUN au nom public du monde entier (PWWN) de votre SAN. Une fois cette configuration terminée, le LUN disponible est installé sur le CNA de l’hôte en tant que périphérique SCSI. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN comme s’il s’agissait d’un périphérique SCSI connecté localement. Pour plus d’informations sur la configuration du commutateur physique et de la baie pour prendre en charge FCoE, consultez la documentation fournie par le fournisseur.

Note :

Le logiciel FCoE peut être utilisé avec Open vSwitch et le pont Linux comme back-end réseau.

Créer un logiciel FCoE SR

Avant de créer un logiciel FCoE SR, les clients doivent s’assurer que des cartes réseau compatibles FCOE sont connectées à l’hôte.

Les paramètres de configuration du périphérique pour les SR FCoE sont les suivants :

Nom du paramètre Description Obligatoire ?
SCSIid ID de bus SCSI du LUN de destination
  • Oui

Exécutez la commande suivante pour créer un SR FCoE partagé :

xe sr-create type = lvmofcoe \
name-label = "FCoE SR'shared = true device-config : scSIId = SCSI_id

Adaptateurs de bus hôte matériels (HBA)

Cette section couvre diverses opérations nécessaires à la gestion des adaptateurs HBA SAS, Fibre Channel et iSCSI.

Exemple de configuration de l’adaptateur HBA iSCSI QLogic

Pour plus d’informations sur la configuration des adaptateurs HBA Fibre Channel et iSCSI QLogic, consultez le site Web de Cavium.

Une fois l’adaptateur HBA installé physiquement sur l’ hôte, procédez comme suit pour configurer l’adaptateur HBA :

  1. Définissez la configuration réseau IP pour le HBA. Cet exemple suppose le port 0 DHCP et HBA. Spécifiez les valeurs appropriées si vous utilisez l’adressage IP statique ou un adaptateur HBA multiport.

    /opt/qlogic_corporation/sansurfericli/iSCLI -ipdhcp 0
    
  2. Ajoutez une cible iSCSI persistante au port 0 du HBA.

    /opt/qlogic_corporation/sansurfericli/iscli -pa 0 iscsi_target_ip_address
    
  3. Utilisez lasr-probe commande xe pour forcer une nouvelle analyse du contrôleur HBA et afficher les LUN disponibles. Pour plus d’informations, voir S onde un SRet Créer un LVM partagé sur Fibre Channel / Fibre Channel over Ethernet / iSCSI HBA ou SAS SR.

Supprimer les entrées de périphériques SAS, FC ou iSCSI basés sur HBA

Note :

Cette étape n’est pas requise. recommande que seuls les utilisateurs puissants effectuent ce processus si nécessaire.

Chaque LUN basé sur HBA a une entrée de chemin global correspondant/dev/disk/by-scsibus sous le format<SCSIid>-<adapter>:<bus>:<target>:<lun> et un chemin de périphérique standard sous/dev . Pour supprimer les entrées de périphérique pour les LUN qui ne sont plus utilisées en tant que SR, procédez comme suit :

  1. Utilisezsr-forget ousr-destroy selon le cas pour supprimer le SR de la base de données hôte. [Reportez-vous à la section Supprimer/en-us/xenserver/current-release/storage/manage.html#remove-srs()les SR]pour plus de détails.

  2. Supprimez la configuration de zonage dans le SAN pour le LUN souhaité sur l’hôte souhaité.

  3. Utilisez lasr-probe commande pour déterminer les valeurs ADAPTER, BUS, TARGET et LUN correspondant au LUN à supprimer. Pour plus d’informations, S onde un SR.

  4. Supprimez les entrées du périphérique avec la commande suivante :

    echo' 1" > /sys/class/scsi_device/adapter:bus:target:lun/device/delete
    

Avertissement :

Assurez-vous que vous êtes certain du LUN que vous supprimez. La suppression accidentelle d’un LUN requis pour le fonctionnement de l’hôte, comme le périphérique de démarrage ou le périphérique racine, rend l’hôte inutilisable.

Stockage LVM partagé

Le type LVM partagé représente les disques en tant que volumes logiques au sein d’un groupe de volumes créé sur un LUN iSCSI (FC ou SAS).

Note :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Créez une LVM partagée sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Paramètres de configuration de périphérique pour les SR LVMoisCSI :

Nom du paramètre Description Obligatoire ?
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge le SR
  • Oui
targetIQN Adresse cible IQN du serveur de fichiers iSCSI qui héberge la SR
  • Oui
SCSIid ID de bus SCSI du LUN de destination
  • Oui
chapuser Le nom d’utilisateur à utiliser pour l’authentification CHAP Aucun
chappassword Le mot de passe à utiliser pour l’authentification CHAP Aucun
port Numéro de port réseau sur lequel interroger la cible Aucun
usediscoverynumber Index d’enregistrement iSCSI spécifique à utiliser Aucun
incoming_chapuser Nom d’utilisateur utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Aucun
incoming_chappassword Mot de passe utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Aucun

Pour créer une SR LvMoisCSI partagée sur un LUN spécifique d’une cible iSCSI, utilisez la commande suivante.

xe sr-create host-uuid = valid_uuid content-type = user \
name-label = "Exemple de LVM partagé sur iSCSI SR'shared = true \
device-config : target = target_ip = device-config : targetIQN = target_iqn = \
device-config : scsiId = scsci_id \
type = lvmoiscsi

Créer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR

Les SR de type LvmoHba peuvent être créés et gérés à l’aide de l’interface de ligne de commande xe ou .

Paramètres de configuration du périphérique pour les SR LvMOHBA :

Nom du paramètre Description Obligatoire ?
SCSIid ID SCSI de périphérique
  • Oui

Pour créer une SR LvmoHba partagée, effectuez les opérations suivantes sur chaque hôte du pool :

  1. Zone dans un ou plusieurs LUN vers chaque hôte du pool. Ce processus est très spécifique à l’équipement SAN utilisé. Pour plus d’informations, consultez la documentation de votre SAN.

  2. Si nécessaire, utilisez l’interface de ligne de commande HBA incluse dans l’ hôte pour configurer l’adaptateur HBA :

      • Emulex./bin/sbin/ocmanager
    • QLogic FC :/opt/QLogic_Corporation/SANsurferCLI

    • QLogic iSCSI :/opt/QLogic_Corporation/SANsurferiCLI

    Pour obtenir un exemple de configuration de l’adaptateur HBA iSCSI QLogic, voir Adaptateurs de bus hôte matériel (HBA) dans la section précédente. Pour plus d’informations sur les adaptateurs HBA Fibre Channel et iSCSI, consultez les sites Web Broadcom et Cavium.

  3. Utilisez la commande sr-probe pour déterminer le chemin global du périphérique du LUN HBA. La commande sr-probe force une nouvelle analyse des adaptateurs HBA installés dans le système pour détecter les nouveaux LUN qui ont été zonés à l’hôte. La commande renvoie une liste de propriétés pour chaque LUN trouvé. Spécifiez le paramètre host-uuid pour vous assurer que la sonde se produit sur l’hôte souhaité.

    Le chemin global du périphérique retourné en tant que propriété <path> est commun à tous les hôtes du pool. Par conséquent, ce chemin doit être utilisé comme valeur pour le paramètre device-config:device lors de la création du SR.

    Si plusieurs LUN sont présentes, utilisez le fournisseur, la taille du LUN, le numéro de série du LUN ou l’ID SCSI de la propriété <path> pour identifier le LUN souhaité.

    xe sr-probe type=lvmohba \
    host-uuid=1212c7b3-f333-4a8d-a6fb-80c5b79b5b31
    Error code: SR_BACKEND_FAILURE_90
    Error parameters: , The request is missing the device parameter, \
    <?xml version="1.0" ?>
    <Devlist>
        <BlockDevice>
            <path>
                /dev/disk/by-id/scsi-360a9800068666949673446387665336f
            </path>
            <vendor>
                HITACHI
            </vendor>
            <serial>
                730157980002
            </serial>
            <size>
                80530636800
            </size>
            <adapter>
                4
            </adapter>
            <channel>
                0
            </channel>
            <id>
                4
            </id>
            <lun>
                2
            </lun>
            <hba>
                qla2xxx
            </hba>
        </BlockDevice>
        <Adapter>
            <host>
                Host4
            </host>
            <name>
                qla2xxx
            </name>
            <manufacturer>
                QLogic HBA Driver
            </manufacturer>
            <id>
                4
            </id>
        </Adapter>
    </Devlist>
    
  4. Sur l’hôte maître du pool, créez le SR. Spécifiez le chemin d’accès global du périphérique renvoyé dans la<path> propriété desr-probe . Les PBD sont créés et branchés automatiquement pour chaque hôte du pool.

    xe sr-create host-uuid=valid_uuid \
    content-type=user \
    name-label="Example shared LVM over HBA SR" shared=true \
    device-config:SCSIid=device_scsi_id type=lvmohba
    

Note :

Vous pouvez utiliser la fonction Réparer le référentiel de stockage pour réessayer la création de PBD et le branchement de parties de l’sr-create opération. Cette fonction peut être utile dans les cas où le zonage des LUN était incorrect pour un ou plusieurs hôtes d’un pool lors de la création du SR. Corrigez le zonage des hôtes concernés et utilisez la fonction Réparer le référentiel de stockage au lieu de supprimer et de recréer le SR.

Stockage en bloc partagé GFS2 à provisionnement fin

Le provisionnement fin utilise mieux le stockage disponible en allouant de l’espace de stockage sur disque aux VDI au fur et à mesure que les données sont écrites sur le disque virtuel, plutôt que d’allouer à l’avance la taille virtuelle complète du VDI. Le provisionnement léger vous permet de réduire considérablement l’espace requis sur une baie de stockage partagée, ainsi que le coût total de possession (TCO).

Le provisionnement fin pour le stockage en bloc partagé présente un intérêt particulier dans les cas suivants :

  • Si vous voulez augmenter l’efficacité de l’espace, car les images sont dispersées et non allouées de façon épaisse
  • Si vous souhaitez réduire le nombre d’opérations d’E/S par seconde sur votre baie de stockage. Le GFS2 SR est le premier type SR à prendre en charge la mise en cache de lecture sur le stockage en bloc partagé.
  • Si vous utilisez une image de base commune pour plusieurs machines virtuelles, les images de machines virtuelles individuelles utiliseront généralement encore moins d’espace.
  • Si vous utilisez des instantanés, chaque instantané étant une image et chaque image est désormais éparse.

Le type GFS2 partagé représente les disques comme dans un système de fichiers créé sur un LUN iSCSI ou HBA. Pour utiliser le stockage GFS2 partagé, le pool de ressources doit être un pool en cluster. Activez le clustering sur votre pool avant de créer un SR GFS2. Pour plus d’informations, consultez Pools en cluster.

Les SR de type GFS2 peuvent être créés et gérés à l’aide de l’interface de ligne de commande xe ou .

Les VDI stockés sur un GFS2 SR sont stockés au format d’image QCOW2.

Note :

Le stockage GFS2 partagé présente actuellement les contraintes suivantes :

  • Vous ne pouvez pas redimensionner le LUN de sauvegarde.
  • La migration de machines virtuelles avec le stockage n’ est pas prise en charge pour les machines virtuelles dont les VDI sont sur un SR GFS2.
  • Le protocole FCoE n’est pas pris en charge avec les SRs GFS2.
  • TriM/UNMap n’est pas pris en charge sur les SR GFS2.
  • Les mesures de performances ne sont pas disponibles pour les disques et les disques GFS2 sur ces SR.
  • Le suivi des blocs modifiés n’est pas pris en charge pour les VDI stockés sur les SR GFS2.

Créez un GFS2 partagé sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas,iscsi.
  • Oui
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge
  • Oui
targetIQN La cible IQN du serveur de fichiers iSCSI qui héberge la SR
  • Oui
SCSIid ID SCSI de périphérique
  • Oui

Pour créer un SR GFS2 partagé sur un LUN spécifique d’une cible iSCSI, exécutez la commande suivante sur un hôte de votre pool en cluster :

xe sr-create type = gfs2 name-label = « Exemple GFS2 SR » — shared \
device-config : provider = iscsi device-config : targetIQN = target_iqns \
device-config : target = portal_address device-config : scsiId = scsci_id

Si la cible iSCSI n’est pas accessible pendant le montage des systèmes de fichiers GFS2, certains hôtes du pool en cluster risquent de se fermer.

Créer un GFS2 partagé sur HBA SR

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas,hba.
  • Oui
SCSIid ID SCSI de périphérique
  • Oui

Pour créer un SR GFS2 partagé sur un LUN spécifique d’une cible HBA, exécutez la commande suivante sur un hôte de votre pool en cluster :

    xe sr-create type = gfs2 name-label = « Exemple GFS2 SR » — shared \
    device-config : provider = hba device-config : scsiId = device_scsi_id

NFS et PME

Les partages sur les serveurs NFS (qui prennent en charge NFSv4 ou NFSv3) ou sur les serveurs SMB (qui prennent en charge SMB 3.0) peuvent être immédiatement utilisés en tant que SR pour les disques virtuels. Les VDI sont stockés au format Microsoft VHD uniquement. En outre, comme ces SR peuvent être partagées, les VDI stockés sur les SR partagées permettent :

  • Les machines virtuelles à démarrer sur tous les hôtes d’un pool de ressources

  • VM migrer entre les hôtes d’un pool de ressources à l’aide de (sans interruption notable)

Important :

  • La prise en charge de SMB 3.0 est limitée à la possibilité de se connecter à un partage à l’aide du protocole 3.0. Les fonctionnalités supplémentaires telles que le basculement transparent dépendent de la disponibilité des fonctionnalités dans le noyau Linux en amont et ne sont pas prises en charge dans .
  • Pour NFSv4, seul le type d’authentificationAUTH_SYS est pris en charge.
  • Le stockage SMB est disponible pour les clients, ou les clients qui ont accès à via leur droit d’accès aux applications virtuelles et aux postes de travail.

Les VDI stockés sur des SR basées sur des fichiers sont finement provisionnés. Le fichier image est alloué lorsque la machine virtuelle écrit des données dans le disque. Cette approche présente l’avantage considérable que les fichiers image VM occupent seulement autant d’espace sur le stockage que nécessaire. Par exemple, si un VDI de 100 Go est alloué à une machine virtuelle et qu’un système d’exploitation est installé, le fichier VDI reflète uniquement la taille des données du système d’exploitation écrites sur le disque plutôt que la totalité des 100 Go.

Les fichiers VHD peuvent également être chaînés, ce qui permet à deux VDI de partager des données communes. Dans les cas où une machine virtuelle basée sur un fichier est clonée, les machines virtuelles résultantes partagent les données sur disque communes au moment du clonage. Chaque machine virtuelle procède à ses propres modifications dans une version de copie sur écriture isolée du VDI. Cette fonctionnalité permet de cloner rapidement les machines virtuelles basées sur des fichiers à partir de modèles, ce qui facilite le provisionnement et le déploiement très rapides de nouvelles machines virtuelles.

Remarque :

La longueur maximale prise en charge des chaînes VHD est de 30.

Les SRs basés sur des fichiers et les implémentations VHD supposent qu’ils ont un contrôle total sur le répertoire SR sur le serveur de fichiers. Les administrateurs ne doivent pas modifier le contenu du répertoire SR, car cette action risque d’endommager le contenu des VDI.

a été optimisé pour un stockage de classe entreprise qui utilise une RAM non volatile pour fournir des accusés de réception rapides des demandes d’écriture tout en maintenant un haut degré de protection des données contre les pannes. a été testé de manière approfondie sur le stockage Network Appliance FAS2020 et FAS3210, à l’aide de Data OnTap 7.3 et 8.1

Avertissement :

Comme les VDI sur les SR basées sur des fichiers sont créés en tant que provisionnés légers, les administrateurs doivent s’assurer que les SR basés sur des fichiers disposent d’un espace disque suffisant pour tous les VDI requis. n’imposent pas que l’espace requis pour les VDI sur les SR basées sur des fichiers est présent .

Créer un NFS SR (NFS) partagé

Pour créer un SR NFS, vous devez fournir le nom d’hôte ou l’adresse IP du serveur NFS. Vous pouvez créer le SR sur n’importe quel chemin de destination valide ; utilisez lasr-probe commande pour afficher la liste des chemins de destination valides exportés par le serveur.

Dans les scénarios où il est utilisé avec le stockage inférieur, il attend avec précaution que toutes les écritures soient reconnues avant de transmettre les accusés de réception aux machines virtuelles. Cette approche entraîne un coût de performance notable et peut être résolue en définissant le stockage de manière à présenter le point de montage SR comme une exportation en mode asynchrone. Les exportations asynchrones reconnaissent les écritures qui ne sont pas réellement sur le disque. Considérez soigneusement les risques de défaillance dans ces situations.

Note :

Le serveur NFS doit être configuré pour exporter le chemin spécifié vers tous les serveurs du pool. Si cette configuration n’est pas effectuée, la création de la SR et le branchement de l’enregistrement PBD échouent.

L’implémentation NFS utilise TCP par défaut. Si votre situation le permet, vous pouvez configurer l’implémentation pour utiliser UDP dans des scénarios où il peut y avoir un avantage de performances. Pour effectuer cette configuration, spécifiez ledevice-config paramètre lors de la création d’un SRuseUDP=true .

Paramètres de configuration du périphérique pour les SR NFS :

Nom du paramètre Description Obligatoire ?
server Adresse IP ou nom d’hôte du serveur NFS
  • Oui
serverpath Chemin, y compris le point de montage NFS, vers le serveur NFS qui héberge le serveur SR
  • Oui

Par exemple, pour créer une SR NFS partagée sur192.168.1.10:/export1, utilisez la commande suivante :

xe sr-create content-type = utilisateur \
name-label = "partagé NFS SR'shared = true \
device-config : server = 192.168.1.10 device-config : serverpath = / export1 type = nfs \
nfsversion = "3"," 4"

Pour créer un SR NFS non partagé, exécutez la commande suivante :

xe sr-create host-uuid = host_uuid content-type = user \
name-label = « NFS SR non partagé » \
device-config : server = 192.168.1.10 device-config : serverpath = / export1 type = nfs \
nfsversion = "3"," 4"

Créer un SR SMB partagé (SMB)

Pour créer un SR SMB, indiquez le nom d’hôte ou l’adresse IP du serveur SMB, le chemin d’accès complet du partage exporté et les informations d’identification appropriées.

Note :

SMB SR a été testé sur le stockage Network Appliance exécutant OnTap 8.3 et Windows Server 2012 R2.

Paramètres de configuration du périphérique pour les SR SMB :

Nom du paramètre Description Obligatoire ?
server Chemin complet de partage sur le serveur
  • Oui
username Compte utilisateur avec accès RW pour partager Facultatif
password Mot de passe du compte utilisateur Facultatif

Par exemple, pour créer une SR SMB partagée sur192.168.1.10:/share1, utilisez la commande suivante :

xe sr-create content-type = utilisateur \
name-label = "Exemple partagé SMB SR'shared = true \
device-config : serveur = / / 192.168.1.10/share1 \
device-config : username = valid_username device-config : password = valid_password type = smb

Pour créer une SR SMB non partagée, exécutez la commande suivante :

xe sr-create host-uuid = host_uuid content-type = user \
name-label = « SR PME non partagées » \
device-config : serveur = / / 192.168.1.10/share1 \
device-config : username = valid_username device-config : password = valid_password type = smb

HBA LVM sur matériel

Le type d’adaptateur HBA LVM sur matériel représente les disques sous forme de disques virtuels sur des volumes logiques au sein d’un groupe de volumes créé sur un LUN HBA qui fournit, par exemple, une prise en charge matérielle iSCSI ou FC.

prennent en charge les SAN Fibre Channel via des adaptateurs de bus hôte (HBA) Emulex ou QLogic . Toute configuration Fibre Channel requise pour exposer un LUN Fibre Channel à l’hôte doit être effectuée manuellement. Cette configuration inclut les périphériques de stockage, les périphériques réseau et l’adaptateur HBA de l’ hôte. Une fois la configuration FC terminée, l’adaptateur HBA expose un périphérique SCSI soutenu par le LUN FC à l’hôte. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN FC comme s’il s’agissait d’un périphérique SCSI connecté localement.

Utilisez lasr-probe commande pour répertorier les périphériques SCSI basés sur le LUN présents sur l’hôte. Cette commande force une analyse pour les nouveaux périphériques SCSI basés sur le LUN. La valeur de chemin renvoyée parsr-probe pour un périphérique SCSI basé sur le LUN est cohérente sur tous les hôtes ayant accès au LUN. Par conséquent, cette valeur doit être utilisée lors de la création de SR partagés accessibles par tous les hôtes d’un pool de ressources.

Les mêmes fonctionnalités s’appliquent aux adaptateurs HBA iSCSI QLogic.

Reportez-vous à la section Créer des référentiels de stockagepour plus d’informations sur la création de SR FC et iSCSI partagés basés sur HBA.

Note :

pour Fibre Channel ne prend pas en charge le mappage direct d’un LUN vers une machine virtuelle . Les LUN basés sur HBA doivent être mappés à l’hôte et spécifiés pour une utilisation dans un SR. Les VDI de la SR sont exposés aux machines virtuelles en tant que périphériques de bloc standard.

Formats de référentiel de stockage