XenServer

씬 프로비저닝된 공유 GFS2 블록 스토리지

씬 프로비저닝은 VDI의 전체 가상 크기를 미리 할당하는 대신 가상 디스크에 데이터가 기록될 때 디스크 스토리지 공간을 VDI에 할당하여 사용 가능한 스토리지를 더욱 효과적으로 활용합니다. 씬 프로비저닝을 사용하면 공유 스토리지 시스템에 필요한 공간을 대폭 절감하고 총 소유 비용 (TCO) 을 절감할 수 있습니다.

공유 블록 스토리지에 대한 씬 프로비저닝은 다음과 같은 경우에 특히 중요합니다.

  • 공간 효율성을 높이고자 합니다. 이미지는 희소하게 할당되고 두껍게 할당되지 않습니다.
  • 스토리지 어레이에서 초당 I/O 작업 수를 줄이려고 합니다. GFS2 SR은 공유 블록 스토리지에서 스토리지 읽기 캐싱을 지원하는 최초의 SR 유형입니다.
  • 여러 가상 시스템에 공통 기본 이미지를 사용합니다. 그러면 개별 VM의 이미지는 일반적으로 훨씬 적은 공간을 사용합니다.
  • 스냅샷을 사용합니다. 각 스냅샷은 이미지이며 이제 각 이미지는 희소 상태가 됩니다.
  • 크기가 2TiB보다 큰 VDI를 생성하려고 합니다. GFS2 SR은 최대 16TiB 크기의 VDI를 지원합니다.
  • 스토리지는 NFS 또는 SMB3를 지원하지 않으며 블록 스토리지만 지원합니다. 스토리지가 NFS 또는 SMB3를 지원하는 경우 GFS2 대신 이러한 SR 유형을 사용하는 것이 좋습니다.
  • 스토리지는 LUN의 씬 프로비저닝을 지원하지 않습니다. 스토리지가 LUN을 씬 프로비저닝하는 경우 GFS2와 결합할 때 문제가 발생하고 공간이 부족해질 수 있습니다. GFS2를 씬 프로비저닝된 LUN과 결합하면 추가적인 이점이 많지 않으므로 권장되지 않습니다.

참고:

클러스터 네트워크가 비관리 VLAN에 있는 경우 클러스터된 풀에서 호스트를 추가하거나 제거할 수 없는 알려진 문제가 있으므로 VLAN과 함께 GFS2 SR을 사용하지 않는 것이 좋습니다.

공유 GFS2 유형은 디스크를 iSCSI 또는 HBA LUN에서 생성된 파일 시스템으로 나타냅니다. GFS2 SR에 저장된 VDI는 QCOW2 이미지 형식으로 저장됩니다.

이 문서에서는 xe CLI를 사용하여 GFS2 환경을 설정하는 방법을 설명합니다. XenCenter를 사용하여 GFS2 환경을 설정하려면 XenCenter 제품 설명서를 참조하십시오.

1. GFS2 환경 계획

데이터 손실 위험 없이 공유 블록 스토리지에서 씬 프로비저닝의 이점을 제공하려면 풀이 우수한 수준의 안정성과 연결성을 제공해야 합니다. GFS2를 사용하는 리소스 풀의 호스트는 서로 안정적으로 통신할 수 있어야 합니다. 이를 보장하려면 XenServer에서 GFS2 SR과 함께 클러스터링된 풀을 사용해야 합니다. 또한 가능한 한 많은 복원력과 이중화를 제공하도록 환경을 설계하고 XenServer 기능을 구성하는 것이 좋습니다.

GFS2 SR과 함께 작동하도록 XenServer 풀을 설정하기 전에 이상적인 GFS2 환경을 위한 다음 요구 사항 및 권장 사항을 검토하십시오.

GFS2 SR로 클러스터링된 풀은 다른 유형의 풀 및 SR과 동작에서 약간의 차이가 있습니다. 자세한 내용은 제약 조건을 참조하십시오.

2. 중복 네트워킹 인프라 구성

본드 네트워크는 두 개 이상의 NIC를 연결하여 네트워크 트래픽을 위한 단일 채널을 생성합니다. 클러스터링된 풀 트래픽에는 본드 네트워크를 사용하는 것이 좋습니다. 그러나 연결된 네트워크를 설정하기 전에 네트워크 하드웨어 구성이 연결된 네트워크에서 이중화를 권장하는지 확인하십시오. 이러한 권장 사항을 조직 및 환경에 맞게 가능한 한 많이 구현하는 것을 고려해 보십시오.

다음 모범 사례는 네트워크 스위치에 영향을 줄 수 있는 소프트웨어, 하드웨어 또는 전원 장애에 대한 복원력을 높여줍니다.

  • 동일한 스위치의 포트뿐만 아니라 연결된 네트워크에서 사용할 수 있는 별도의 물리적 네트워크 스위치가 있는지 확인하십시오.
  • 별도의 스위치가 서로 다른 독립 배전 장치(PDU)에서 전원을 공급받는지 확인하십시오.
  • 가능하면 데이터 센터에서 PDU를 전원 공급 장치의 여러 단계에 배치하거나 다른 유틸리티 회사에서 제공하는 공급 장치에 배치하십시오.
  • 정전 발생 시 네트워크 스위치와 서버가 계속 작동하거나 정상적으로 종료되도록 하려면 무정전 전원 공급 장치를 사용하는 것이 좋습니다.

3. 전용 본드 네트워크 생성

클러스터된 풀의 호스트가 서로 안정적으로 통신할 수 있는지 확인하는 것이 중요합니다. 이 풀 트래픽에 대해 본드된 네트워크를 생성하면 클러스터링된 풀의 복원력이 향상됩니다.

연결된 네트워크는 두 개 이상의 NIC 간에 연결을 형성하여 클러스터 풀이 클러스터 하트비트 트래픽에 사용할 수 있는 고성능 단일 채널을 만듭니다. 이 본드 네트워크를 다른 트래픽에는 사용하지 않는 것이 좋습니다. 풀이 관리 트래픽에 사용할 별도의 네트워크를 생성합니다.

경고:

이 권장 사항을 따르지 않을 경우 클러스터 관리 네트워크 패킷이 손실될 위험이 더 커집니다. 클러스터 관리 네트워크 패킷이 손실되면 클러스터링된 풀에서 쿼럼이 손실되고 풀의 일부 또는 모든 호스트가 자체 차단될 수 있습니다.

클러스터가 차단되거나 이 권장되지 않는 구성에서 문제가 발생하는 경우 XenServer 지원에서 조사 과정에서 권장 구성에서 동일한 문제를 재현하도록 요청할 수 있습니다.

클러스터링 네트워크로 사용할 본드 네트워크를 만드는 방법:

  1. 풀의 호스트 간에 방화벽이 있는 경우 호스트가 다음 포트를 사용하여 클러스터 네트워크에서 통신할 수 있는지 확인합니다.

    • TCP: 8892, 8896, 21064
    • UDP: 5404, 5405

    자세한 내용은 XenServer에서 사용하는 통신 포트를 참조하십시오.

  2. 풀 코디네이터 역할을 할 XenServer 호스트에서 콘솔을 엽니다.

  3. 다음 명령을 사용하여 연결된 NIC에 사용할 네트워크를 만듭니다.

    xe network-create name-label=bond0
    <!--NeedCopy-->
    

    새 네트워크의 UUID가 반환됩니다.

  4. 다음 명령을 사용하여 결합에 사용할 PIF의 UUID를 찾습니다.

    xe pif-list
    <!--NeedCopy-->
    
  5. 액티브-액티브 모드, 액티브-패시브 모드 또는 LACP 본드 모드에서 본드 네트워크를 생성합니다. 사용하려는 본드 모드에 따라 다음 작업 중 하나를 완료합니다.

    • 액티브-액티브 모드 (기본값) 에서 본드를 구성하려면 bond-create 명령을 사용하여 본드를 만듭니다. 쉼표를 사용하여 매개 변수를 구분하고, 새로 생성된 네트워크 UUID와 연결할 PIF의 UUID를 지정합니다.

       xe bond-create network-uuid=<network_uuid> /
           pif-uuids=<pif_uuid_1>,<pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4>
       <!--NeedCopy-->
      

      4개의 NIC를 결합할 때 2개의 NIC와 4개의 UUID를 결합하는 경우 2개의 UUID를 입력합니다. 명령을 실행하면 본드의 UUID가 반환됩니다.

    • 액티브-패시브 또는 LACP 본드 모드에서 본드를 구성하려면 동일한 구문을 사용하고 선택적 mode 매개 변수를 추가한 후 lacp 또는 active-backup를 지정합니다.

       xe bond-create network-uuid=<network_uuid> /
           pif-uuids=<pif_uuid_1>,<pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4> /
           mode=balance-slb | active-backup | lacp
       <!--NeedCopy-->
      

풀 코디네이터에서 연결된 네트워크를 만든 후 다른 XenServer 호스트를 풀에 조인하면 네트워크 및 연결 정보가 가입 서버에 자동으로 복제됩니다.

자세한 내용은 네트워킹을 참조하십시오.

참고:

  • XenCenter를 사용하여 클러스터 네트워크의 IP 주소를 변경하려면 클러스터링과 GFS2를 일시적으로 사용하지 않도록 설정해야 합니다.
  • 클러스터가 작동 중이고 VM이 실행 중인 동안에는 클러스터링 네트워크의 연결을 변경하지 마십시오. 이 작업을 수행하면 클러스터의 호스트가 강제 재부팅(차단)될 수 있습니다.
  • 클러스터링이 활성화된 호스트가 하나 이상 있는 클러스터링 네트워크에서 IP 주소 충돌(동일한 IP 주소를 가진 여러 호스트)이 있는 경우 클러스터가 제대로 구성되지 않아 필요할 때 호스트를 차단할 수 없습니다. 이 문제를 해결하려면 IP 주소 충돌을 해결하십시오.

액티브-패시브 본드 네트워크 페일오버 시간을 테스트하려면:

액티브-패시브 모드를 사용하는 연결된 네트워크의 경우 액티브 링크에 장애가 발생하면 패시브 링크가 활성화되는 동안 네트워크 링크가 끊어지는 페일오버 기간이 있습니다. 액티브-패시브 연결 네트워크가 장애 조치하는 데 걸리는 시간이 클러스터 제한 시간보다 길면 클러스터 풀의 일부 또는 모든 호스트가 여전히 차단될 수 있습니다.

다음 방법 중 하나를 사용하여 네트워크가 페일오버되도록 강제하여 연결된 네트워크 페일오버 시간을 테스트할 수 있습니다.

  • 네트워크 케이블을 물리적으로 빼서
  • 한 네트워크 링크에서 스위치 포트를 비활성화하여

결과가 일치하는지 확인하기 위해 테스트를 여러 번 반복합니다.

풀의 클러스터 제한 시간 값은 클러스터에 있는 호스트 수에 따라 달라집니다. 다음 명령을 실행하여 풀의 token-timeout 값을 초 단위로 찾을 수 있습니다.

xe cluster-param-get uuid=<cluster_uuid> param-name=token-timeout

페일오버 시간이 제한 시간보다 클 가능성이 높으면 네트워크 인프라 및 구성이 클러스터 풀을 지원할 만큼 충분히 안정적이지 않을 수 있습니다.

4. 클러스터링된 풀 설정

공유 GFS2 스토리지를 사용하려면 XenServer 리소스 풀이 클러스터된 풀이어야 합니다. GFS2 SR을 생성하기 전에 풀에서 클러스터링을 활성화합니다.

클러스터된 풀은 클러스터되지 않은 풀의 호스트보다 더 밀접하게 연결되고 조정되는 XenServer 호스트 풀입니다. 클러스터의 호스트는 선택한 네트워크에서 서로 일정한 통신을 유지합니다. 클러스터의 모든 호스트는 클러스터에 있는 모든 호스트의 상태를 인식합니다. 이 호스트 조정을 통해 클러스터는 GFS2 SR의 콘텐츠에 대한 액세스를 제어할 수 있다. 클러스터된 풀이 항상 통신 상태를 유지하려면 클러스터의 각 호스트가 클러스터에 있는 호스트의 절반 이상(자체 포함)과 항상 통신해야 합니다. 이 상태를 Quorum이 있는 호스트라고 합니다. 호스트에 쿼럼이 없는 경우 호스트가 하드 재시작되고 클러스터에서 제거됩니다. 이 동작을 ‘펜싱’이라고 합니다.

자세한 내용은 클러스터된 풀을 참조하십시오.

클러스터링된 풀 설정을 시작하기 전에 다음 사전 요구 사항이 충족되는지 확인하십시오.

  • 3~16개의 호스트로 구성된 풀을 생성할 계획입니다.

    가능하면 클러스터된 풀에서 홀수 개의 호스트를 사용하면 호스트가 쿼런이 있는지 항상 확인할 수 있습니다. 호스트가 3개 이상 포함된 풀에서만 클러스터링을 사용하는 것이 좋습니다. 두 개의 호스트로 구성된 풀은 전체 풀을 자체 보호하는 데 민감합니다.

    클러스터된 풀은 풀당 최대 16개의 호스트만 지원합니다.

  • 클러스터된 풀의 모든 XenServer 호스트에는 최소 2GiB의 제어 도메인 메모리가 있어야 합니다.
  • 클러스터의 모든 호스트는 클러스터 네트워크에 대해 정적 IP 주소를 사용해야 합니다.
  • 기존 풀을 클러스터링하는 경우 고가용성을 사용하지 않도록 설정해야 합니다. 클러스터링을 사용하도록 설정한 후 고가용성을 다시 사용하도록 설정할 수 있습니다.

xe CLI를 사용하여 클러스터된 풀을 생성하려면 다음을 수행하십시오.

  1. 세 개 이상의 XenServer 호스트로 구성된 리소스 풀을 생성합니다.

    풀 코디네이터가 아닌 XenServer 호스트에 가입할 때마다 다음 단계를 반복합니다.

    1. XenServer 호스트에서 콘솔을 엽니다.
    2. 다음 명령을 사용하여 XenServer 호스트를 풀 코디네이터의 풀에 가입시킵니다.

      xe pool-join master-address=<master_address> /
          master-username=<administrators_username> /
          master-password=<password>
      <!--NeedCopy-->
      

      master-address 매개 변수의 값은 풀 코디네이터인 XenServer 호스트의 정규화된 도메인 이름으로 설정해야 합니다. password는 풀 코디네이터가 설치될 때 설정된 관리자 암호여야 합니다.

    자세한 내용은 호스트 및 리소스 풀을 참조하십시오.

  2. 이 네트워크에 속한 모든 PIF에 대해 disallow-unplug=true을(를) 설정합니다.

    1. 다음 명령을 사용하여 네트워크에 속한 PIF의 UUID를 찾습니다.

      xe pif-list
      <!--NeedCopy-->
      
    2. 리소스 풀의 XenServer 호스트에서 다음 명령을 실행합니다.

      xe pif-param-set disallow-unplug=true uuid=<pif_uuid>
      <!--NeedCopy-->
      
  3. 풀에서 클러스터링을 사용하도록 설정합니다. 리소스 풀의 XenServer 호스트에서 다음 명령을 실행합니다.

    xe cluster-pool-create network-uuid=<network_uuid>
    <!--NeedCopy-->
    

    이전 단계에서 생성한 연결된 네트워크의 UUID를 제공합니다.

5. 제어 도메인 메모리 늘리기

호스트의 제어 도메인 메모리가 부족하면 풀의 네트워크가 불안정해질 수 있습니다. 네트워크 불안정은 GFS2 SR을 사용하는 클러스터된 풀에 문제를 일으킬 수 있습니다.

클러스터된 풀에 적절한 양의 제어 도메인 메모리가 있는지 확인하는 것이 중요합니다. 제어 도메인 메모리의 양을 변경하고 메모리 동작을 모니터링하는 방법에 대한 자세한 내용은 메모리 사용량을 참조하십시오.

6. 스토리지 다중 경로 지정 구성

클러스터된 풀과 GFS2 SR 사이에 스토리지 다중 경로가 설정되어 있는지 확인합니다.

다중 경로 지정은 이중화를 위해 스토리지 트래픽을 다중 경로를 통해 스토리지 장치로 라우팅합니다. 정상 작동 중에는 모든 경로에 활성 트래픽이 있으므로 처리량이 증가합니다.

다중 경로 지정을 사용하도록 설정하기 전에 다음 명령문이 참인지 확인합니다.

  • 이더넷 또는 파이버 스위치는 스토리지 서버에서 여러 대상을 사용할 수 있도록 구성되어 있습니다.

    예를 들어 지정된 sendtargets 포털에서 쿼리된 iSCSI 스토리지 백엔드는 다음 예와 같이 여러 대상을 반환합니다.

      iscsiadm -m discovery --type sendtargets --portal 192.168.0.161
      192.168.0.161:3260,1 iqn.strawberry:litchie
      192.168.0.204:3260,2 iqn.strawberry:litchie
    

    그러나 단일 대상만 노출하는 어레이에 대해 iSCSI 다중 경로를 사용하도록 추가 구성을 수행할 수 있습니다. 자세한 내용은 단일 대상만 노출하는 어레이의 iSCSI 다중 경로단원을 참조하십시오.

  • iSCSI의 경우에만 제어 도메인 (dom0) 에는 다중 경로 스토리지에서 사용하는 각 서브넷에 IP 주소가 있습니다.

    스토리지의 각 경로에 NIC가 있고 각 NIC에 IP 주소가 구성되어 있는지 확인합니다. 예를 들어 스토리지에 대한 네 개의 경로가 필요한 경우 각각 IP 주소가 구성된 네 개의 NIC가 있어야 합니다.

  • iSCSI의 경우에만 모든 iSCSI 대상 및 이니시에이터에는 고유한 IQN이 있습니다.

  • iSCSI의 경우에만 iSCSI 대상 포트가 포털 모드에서 작동합니다.

  • HBA의 경우에만 여러 HBA가 스위치 패브릭에 연결됩니다.

  • 가능하면 여러 개의 이중 스위치를 사용하십시오.

xe CLI를 사용하여 다중 경로 지정을 활성화하려면

SR을 생성하기 전에 풀의 모든 호스트에 대해 다중 경로를 활성화하는 것이 좋습니다. 다중 경로 지정을 활성화하기 전에 SR을 생성하는 경우 호스트를 유지 관리 모드로 전환하여 다중 경로 지정을 활성화해야 합니다.

  1. XenServer 호스트에서 콘솔을 엽니다.

  2. 다음 명령을 사용하여 호스트의 모든 PBD를 분리합니다.

    xe pbd-unplug uuid=<pbd_uuid>
    <!--NeedCopy-->
    

    명령을 xe pbd-list 사용하여 PBD의 UUID를 찾을 수 있습니다.

  3. 다음 명령을 사용하여 multipathing 매개 변수의 값을 true(으)로 설정합니다.

    xe host-param-set uuid=<host uuid> multipathing=true
    <!--NeedCopy-->
    
  4. 단일 경로 모드에서 실행 중인 호스트에 여러 경로가 있는 기존 SR이 있는 경우:

    • 영향을 받는 SR에 가상 디스크가 있는 실행 중인 게스트를 마이그레이션하거나 일시 중단합니다.

    • 영향을 받는 SR의 PBD를 다시 연결하여 다중 경로를 사용하여 다시 연결합니다.

       xe pbd-plug uuid=<pbd_uuid>
       <!--NeedCopy-->
      
  5. 풀의 모든 호스트에서 다중 경로를 활성화하려면 이 단계를 반복합니다.

풀의 모든 호스트에서 다중 경로 지정을 활성화해야 합니다. 모든 케이블 연결 및 iSCSI의 경우 서브넷 구성이 각 호스트의 해당 NIC와 일치해야 합니다.

자세한 내용은 스토리지 다중 경로 지정을 참조하십시오.

7. GFS2 SR 만들기

리소스 풀의 모든 XenServer 호스트에서 볼 수 있는 iSCSI 또는 HBA LUN에 공유 GFS2 SR을 만듭니다. GFS2와 함께 씬 프로비저닝된 LUN을 사용하지 않는 것이 좋습니다. 그러나 이 구성을 선택하는 경우 LUN에 XenServer가 쓸 수 있는 충분한 공간이 항상 있는지 확인해야 합니다.

클러스터링된 풀에 최대 62개의 GFS2 SR을 추가할 수 있습니다.

이전에 LVM을 사용한 두꺼운 프로비저닝에 블록 기반 저장소 장치를 사용한 적이 있는 경우 XenServer에서 이를 감지합니다. XenCenter에서는 기존 LVM 파티션을 사용하거나 디스크를 포맷하고 GFS2 파티션을 설정할 수 있습니다.

iSCSI SR을 통한 공유 GFS2 생성

XenCenter를 사용하여 iSCSI SR을 통해 GFS2를 생성할 수 있습니다. 자세한 내용은 XenCenter 제품 설명서에서 소프트웨어 iSCSI 스토리지를 참조하십시오.

또는 xe CLI를 사용하여 iSCSI SR을 통해 GFS2를 생성할 수도 있습니다.

GFS2 SR에 대한 디바이스 구성 매개 변수:

매개 변수 이름 설명 필수 여부
provider 블록 제공자 구현입니다. 이 경우 iscsi.
target 호스트하는 iSCSI 파일러의 IP 주소 또는 호스트 이름
targetIQN SR을 호스팅하는 iSCSI 파일러의 IQN 타겟입니다.
SCSIid 디바이스 SCSI ID

xe sr-probe-ext 명령을 사용하여 이러한 매개 변수에 사용할 값을 찾을 수 있습니다.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
<!--NeedCopy-->
  1. 다음 명령을 실행하여 시작합니다.

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    <!--NeedCopy-->
    

    명령의 출력은 추가 매개 변수를 제공하라는 메시지를 표시하고 각 단계에서 사용 가능한 값 리스트를 제공합니다.

  2. 명령을 반복하고 매번 새 매개 변수를 추가합니다.

  3. 명령 출력이 Found the following complete configurations that can be used to create SRs:로 시작되면 지정한 xe sr-create 명령과 device-config 매개 변수를 사용하여 SR을 찾을 수 있습니다.

    예제 출력:

    ``` Found the following complete configurations that can be used to create SRs: Configuration 0: SCSIid : 36001405852f77532a064687aea8a5b3f targetIQN: iqn.2009-01.example.com:iscsi192a25d6 target: 198.51.100.27 provider: iscsi

    Configuration 0 extra information: ```

iSCSI 대상의 특정 LUN에 공유 GFS2 SR을 생성하려면 클러스터된 풀의 서버에서 다음 명령을 실행합니다.

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=<target_iqns> \
   device-config:target=<portal_address> device-config:SCSIid=<scsci_id>

GFS2 파일 시스템이 마운트되어 있는 동안 iSCSI 대상에 연결할 수 없는 경우 클러스터 풀의 일부 호스트가 하드 재시작(펜스)될 수 있습니다.

iSCSI SR을 사용하는 방법에 대한 자세한 내용은 소프트웨어 iSCSI 지원을 참조하십시오.

HBA SR을 통한 공유 GFS2 생성

XenCenter를 사용하여 HBA SR을 통해 GFS2를 만들 수 있습니다. 자세한 내용은 XenCenter 제품 설명서에서 하드웨어 HBA 스토리지를 참조하십시오.

또는 xe CLI를 사용하여 HBA SR을 통해 GFS2를 생성할 수 있습니다.

GFS2 SR에 대한 디바이스 구성 매개 변수:

매개 변수 이름 설명 필수 여부
provider 블록 제공자 구현입니다. 이 경우 hba.
SCSIid 디바이스 SCSI ID

xe sr-probe-ext 명령을 사용하여 scsiID 매개 변수에 사용할 값을 찾을 수 있습니다.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. 다음 명령을 실행하여 시작합니다.

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    명령의 출력은 추가 매개 변수를 제공하라는 메시지를 표시하고 각 단계에서 사용 가능한 값 리스트를 제공합니다.

  2. 명령을 반복하고 매번 새 매개 변수를 추가합니다.

  3. 명령 출력이 Found the following complete configurations that can be used to create SRs:로 시작되면 지정한 xe sr-create 명령과 device-config 매개 변수를 사용하여 SR을 찾을 수 있습니다.

    예제 출력:

    ``` Found the following complete configurations that can be used to create SRs: Configuration 0: SCSIid : 36001405852f77532a064687aea8a5b3f targetIQN: iqn.2009-01.example.com:iscsi192a25d6 target: 198.51.100.27 provider: iscsi

    Configuration 0 extra information: ```

HBA 대상의 특정 LUN에 공유 GFS2 SR을 생성하려면 클러스터된 풀의 서버에서 다음 명령을 실행합니다.

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=<device_scsi_id>
<!--NeedCopy-->

HBA SR 작업에 대한 자세한 내용은 하드웨어 호스트 버스 어댑터를 참조하십시오.

다음은 뭐죠?

이제 GFS2 환경을 설정했으므로 쿼럼이 있는지 확인하여 클러스터 풀의 안정성을 유지하는 것이 중요합니다. 자세한 내용은 클러스터된 풀 관리를참조하십시오.

GFS2 환경에 문제가 발생하는 경우 클러스터 풀 문제 해결을참조하십시오.

다른 SR과 동일한 방식으로 GFS2 SR을 관리할 수 있습니다. 예를 들어 스토리지 어레이에 용량을 추가하여 LUN 크기를 늘릴 수 있습니다. 자세한 내용은 라이브 LUN 확장을참조하십시오.

제약 조건

공유 GFS2 스토리지에는 현재 다음과 같은 제약이 있습니다.

  • 씬 프로비저닝된 SR과 마찬가지로 GFS2 SR 사용량이 100% 로 증가하면 VM의 추가 쓰기가 실패합니다. 이러한 쓰기 실패로 인해 VM 내에서 오류가 발생하거나 데이터가 손상되거나 두 가지 모두 발생할 수 있습니다.

  • SR 사용량이 80% 까지 증가하면 XenCenter에 경고가 표시됩니다. 이 경고에 대해 GFS2 SR을 모니터링하고 표시되는 경우 적절한 조치를 취하십시오. GFS2 SR에서 사용량이 높으면 성능이 저하됩니다. SR 사용량을 80% 이하로 유지하는 것이 좋습니다.

  • VDI가 GFS2 SR에 있는 VM에는 스토리지 마이그레이션(라이브 또는 오프라인)을 통한 VM 마이그레이션이 지원되지 않습니다. 또한 vDI를 다른 유형의 SR에서 GFS2 SR로 마이그레이션할 수 없습니다.

  • GFS2 SR에서는 소프트웨어 FCoE 전송이 지원되지 않습니다( 완전히 오프로드된 FCoE의 경우 HBA 사용).

  • GFS2 SR에서는 트림/매핑 해제를 지원하지 않습니다.

  • GFS2 SR에서는 CHAP가 지원되지 않습니다.

  • 변경된 블록 추적은 GFS2 SR에 저장된 vDI에 대해 지원되지 않습니다.

  • 2TiB보다 큰 VDI는 VHD 또는 OVA/OVF로 내보낼 수 없습니다. 그러나 VDI가 2TiB보다 큰 VM을 XVA 형식으로 내보낼 수 있습니다.

  • GFS2와 함께 씬 프로비저닝된 LUN을 사용하지 않는 것이 좋습니다. 그러나 이 구성을 선택하는 경우 LUN에 XenServer가 쓸 수 있는 충분한 공간이 항상 있는지 확인해야 합니다.

  • GFS2 SR에서는 SAN 중복 제거를 사용하지 않는 것이 좋습니다. 그러나 이 구성을 선택할 경우 SAN 사용률에 대한 적절한 외부 모니터링을 사용하여 XenServer에 쓸 공간이 항상 있는지 확인해야 합니다.

  • GFS2 파일 시스템은 100TiB보다 클 수 없습니다.

  • 풀에 62개 이상의 GFS2 SR을 보유할 수 없습니다.

  • 클러스터된 풀은 풀당 최대 16개의 호스트만 지원합니다.

  • 클러스터된 풀에서 HA를 활성화하려면 하트비트 SR이 GFS2 SR이어야 합니다.

  • 클러스터 트래픽의 경우 두 개 이상의 서로 다른 네트워크 스위치를 사용하는 연결된 네트워크를 사용하기를 강력하게 권장합니다. 이 네트워크를 다른 용도로 사용하지 마십시오.

  • XenCenter를 사용하여 클러스터 네트워크의 IP 주소를 변경하려면 클러스터링과 GFS2를 일시적으로 사용하지 않도록 설정해야 합니다.

  • 클러스터가 작동 중이고 VM이 실행 중인 동안에는 클러스터링 네트워크의 연결을 변경하지 마십시오. 이 작업을 수행하면 클러스터의 호스트가 강제 재부팅(차단)될 수 있습니다.

  • 클러스터링이 활성화된 호스트가 하나 이상 있는 클러스터링 네트워크에서 IP 주소 충돌(동일한 IP 주소를 가진 여러 호스트)이 있는 경우 클러스터가 제대로 구성되지 않아 필요할 때 호스트를 차단할 수 없습니다. 이 문제를 해결하려면 IP 주소 충돌을 해결하십시오.

씬 프로비저닝된 공유 GFS2 블록 스토리지