WO2018051467A1 - ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム - Google Patents

ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム Download PDF

Info

Publication number
WO2018051467A1
WO2018051467A1 PCT/JP2016/077290 JP2016077290W WO2018051467A1 WO 2018051467 A1 WO2018051467 A1 WO 2018051467A1 JP 2016077290 W JP2016077290 W JP 2016077290W WO 2018051467 A1 WO2018051467 A1 WO 2018051467A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
management server
parameter
storage management
resource
Prior art date
Application number
PCT/JP2016/077290
Other languages
English (en)
French (fr)
Inventor
弘志 那須
智大 川口
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2016/077290 priority Critical patent/WO2018051467A1/ja
Priority to JP2018539457A priority patent/JP6602983B2/ja
Priority to US16/084,808 priority patent/US10528279B2/en
Publication of WO2018051467A1 publication Critical patent/WO2018051467A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • G06F11/1484Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2064Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring while ensuring consistency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45587Isolation or security of virtual machine instances

Definitions

  • the present invention relates to a computer system that uses a server and a storage.
  • VVOL virtual volume
  • VM Virtual Machine
  • the storage DR there is a technology for grouping a plurality of volumes and performing a replication operation while maintaining data consistency among the volumes in the group in units of groups.
  • the present invention is a storage management server that includes a memory that stores management information and a management program, and a processor that references the management information and executes the management program, and manages storage resources allocated to server resources.
  • the management information associates the first parameter for specifying the server resource with the second parameter for specifying the storage resource, and sets the first parameter of the server resource to the second parameter of the storage resource.
  • Including group mapping information to be converted into parameters wherein the processor receives an operation on the server resource and the first parameter, and converts an operation on the server resource into an operation on the storage resource based on preset information.
  • the group mappin By referring to the information, the converting the first parameter of the server resource to a second parameter of the storage resources, the second identifies the storage resources included in the parameter to indicate the operation with respect to the storage resource.
  • the configuration change of the DR of the virtual machine and the DR of the storage can be linked, in the computer system in which the disk of the virtual machine and the volume of the storage are in a one-to-one relationship, DR operation with consistency can be realized.
  • 1 is a block diagram illustrating an example of a storage configuration according to an embodiment of this invention. It is a block diagram which shows the Example of this invention and shows an example of the program and data which were stored in the memory of the host. It is a block diagram which shows the Example of this invention and shows an example of the program and data which were stored in the memory of storage. It is a block diagram which shows the Example of this invention and shows an example of the program and data which were stored in the memory of the storage management server.
  • FIG. 5 is a diagram illustrating an example of an access point table in the storage 1 according to the embodiment of this invention.
  • FIG. 5 is a diagram illustrating an example of an access point table of the storage 2 according to the embodiment of this invention.
  • FIG. 5 is a diagram illustrating an example of a remote storage table of the storage 1 according to the embodiment of this invention.
  • 4 is a diagram illustrating an example of a remote storage table of the storage 2 according to the embodiment of this invention.
  • FIG. 4 is a diagram illustrating an example of a volume table of the storage 1 according to the embodiment of this invention.
  • FIG. 4 is a diagram illustrating an example of a volume table of the storage 2 according to the embodiment of this invention.
  • FIG. It is a figure which shows the Example of this invention and shows an example of the consistency group pair table of the storage. It is a figure which shows the Example of this invention and shows an example of the consistency group pair table of the storage.
  • FIG. 5 is a diagram illustrating an example of a volume pair table of the storage 1 according to the embodiment of this invention.
  • 4 is a diagram illustrating an example of a volume pair table of the storage 2 according to the embodiment of this invention.
  • FIG. 4 is a diagram illustrating an example of an access point table of the storage management server 1 according to the embodiment of this invention.
  • FIG. FIG. 5 is a diagram illustrating an example of an access point table of the storage management server 2 according to the embodiment of this invention.
  • 4 is a diagram illustrating an example of a storage table of the storage management server 1 according to the embodiment of this invention.
  • FIG. 4 is a diagram illustrating an example of a storage table of the storage management server 2 according to the embodiment of this invention.
  • FIG. It is a figure which shows the Example of this invention and shows an example of the group mapping table of the storage management server.
  • FIG. 8 is a diagram illustrating an example of a group mapping table of the storage management server 2 according to the embodiment of this invention.
  • FIG. 1 It is a figure which shows the Example of this invention and shows an example of the access point table of VM management server. It is a figure which shows the Example of this invention and shows an example of the access point table of VM management server. It is a figure which shows the Example of this invention and shows an example of the access point table of VM management server. It is a figure which shows the Example of this invention and shows an example of the hypervisor table of VM management server. It is a figure which shows the Example of this invention and shows an example of the hypervisor table of VM management server. It is a figure which shows the Example of this invention and shows an example of the VM table of the VM management server. It is a figure which shows the Example of this invention and shows an example of the VM table of VM management server 2. FIG.
  • FIG. 5 is a diagram illustrating an example of a hypervisor pair table of the VM management server 2 according to the embodiment of this invention. It is a figure which shows the Example of this invention and shows an example of the VM group pair table of the VM management server. It is a figure which shows the Example of this invention and shows an example of the VM group pair table of the VM management server. 4 is a diagram illustrating an example of the storage management server table of the VM management server 1 according to the embodiment of this invention. FIG. 4 is a diagram illustrating an example of the storage management server table of the VM management server 2 according to the embodiment of this invention. FIG. FIG. FIG.
  • FIG. 6 is a diagram illustrating an example of a VM-volume mapping table of the VM management server 1 according to the embodiment of this invention.
  • FIG. 10 is a diagram illustrating an example of a VM-volume mapping table of the VM management server 2 according to the embodiment of this invention. It is a figure which shows the Example of this invention and shows an example of the access point table of VM DR control server. It is a figure which shows the Example of this invention and shows an example of the VM management server table of VM DR control server 1.
  • FIG. It is a figure which shows the Example of this invention and shows an example of VM group pair table of VM DR control server. It is a sequence diagram which shows the Example of this invention and shows an example of the process which creates a VM group.
  • FIG. 10 is a diagram illustrating an example of a VM-volume mapping table of the VM management server 2 according to the embodiment of this invention. It is a figure which shows the Example of this invention and shows an example of the access point table of
  • FIG. 11 is a sequence diagram illustrating an example of processing for generating a virtual machine having a replication configuration according to an embodiment of this invention.
  • FIG. 10 is a sequence diagram illustrating an example of processing for executing failover of a virtual machine having a replication configuration according to the embodiment of this invention.
  • FIG. 10 is a sequence diagram illustrating an example of processing for executing re-protection of a virtual machine having a replication configuration according to an embodiment of this invention.
  • FIG. 10 is a sequence diagram illustrating an example of processing for deleting a virtual machine with a replication configuration according to an embodiment of this invention.
  • FIG. 1 is a block diagram showing the configuration of a computer system in an embodiment of the present invention.
  • the computer system of FIG. 1 includes a VM DR control server 500 that controls disaster recovery (hereinafter referred to as DR) of a virtual machine (hereinafter referred to as VM), hosts 100A and 100B that operate the virtual machine, and VM management that controls the virtual machine.
  • Servers 400A and 400B, storages 200A and 200B that provide volumes to virtual machines, a storage management server 300 that controls the volumes of the storages 200A and 200B, and a management terminal 50 are included.
  • ⁇ A is assigned to the code of the active (or primary site) apparatus
  • ⁇ B is assigned to the code of the standby (or secondary site) apparatus. Items common to the active and standby systems will be described using reference numerals without “A” and “B”.
  • a VM 123 and a hypervisor 122 that executes a plurality of VMs 123 operate.
  • the VM 123 functions as a server.
  • the VM management server 400 is a computer that manages the hypervisor 122 operating on the host 100 and the VM 123.
  • the active VM management server 400 ⁇ / b> A and the standby VM management server 400 ⁇ / b> B can communicate with each other and execute VM DR processing in units of VMs or in units of VM groups 190 in which a plurality of VMs 123 are bundled. Further, the VM management server 400 can instruct the storage management server 300 to perform storage management.
  • the storage 200 provides a volume 280 used as a storage area to the VM 122 of the host 100.
  • a data copy pair configuration can be constructed between volumes of a plurality of storages 200, and data copy can be controlled in units of volumes or groups of a plurality of volumes.
  • CTG consistency group
  • the storage management server 300 executes processing according to the resource management of the storage 200, the storage storage resource management operation to the other storage management server 300, and the storage management instruction from the VM management server 400.
  • the VM DR control server 500 performs VM DR operation processing such as failover for each group of VMs 123 in accordance with an instruction from the management terminal 50 used by a VM administrator having VM 123 management authority.
  • the VM DR control server 500 can instruct the VM management server 400 to execute the VM DR process.
  • the host 100 and the storage 200 are connected to each other via a network 800 such as a storage area network (SAN).
  • a network 800 such as a storage area network (SAN).
  • the host 100 and the VM management server 400, the storage 200 and the storage management server 300, and the VM management server 400 and the storage management server 300 can communicate with each other via a network 700 such as a Local Area Network (LAN).
  • LAN Local Area Network
  • WAN Wide Area Network
  • the host 100 includes a hypervisor 122 and a virtual machine (Virtual Machine, VM) 123.
  • the VM 123 belongs to a VM group (VM Group in the figure) 190 that is a VM failover unit.
  • the VM group 190A has a pair relationship 191 for DR with the VM group 190B of the other host 100B.
  • the VM 123A of the VM group 190A constructs a pair configuration of the VM 123B and DR of the other group VM group 190B that forms a pair.
  • the VM group 1 (VM Group 1 in the figure) of the active host 100A in FIG. 1 has a pair relationship 191 with the VM group 3 (VM Group 3 in the figure) of the standby host 100B.
  • VM1 and VM2 in VM group 1 (190A) of host 100A construct a pair configuration with VM4 and VM5 in VM group 3 (190B) of host 100B, respectively.
  • VM1 and VM2 of host 100A are failed over to VM4 and VM5 of host 100B, respectively.
  • the storage 200 includes a volume 280 connected to each VM 123 of the host 100.
  • the volume 280 belongs to the CTG 290 which is a volume failover unit.
  • the CTG 290 has a pair relationship 291 with the CTG 290 of another storage 200.
  • the volume 280 of the CTG 290 constructs a volume copy pair configuration with the volume 280 of the other CTG 290 to be paired.
  • the volumes VOL1 and VOL2 in the CTG1 (290A) of the active storage 1 (200A) in FIG. 1 are paired with VOL4 and VOL5 in the CTG1 (290B) of the standby storage 2 (200B), respectively. To do.
  • VOL1 and VOL2 are failed over to VOL4 and VOL5, respectively.
  • the VM group 190 is associated with the CTG 290 of the storage 200.
  • the VM 123 in the VM group 190 is connected to the volume 280 in the CTG 290 associated with the VM group 190.
  • the active VM group 1 (190A) is connected to the volume 280A (VOL1, VOL2) in the CTG1 (290A).
  • the storage management server 300 When the failover of the VM group 190A is instructed, the storage management server 300 generates and executes a failover for the pair of CTG 280 corresponding to the VM group 190A. For example, when the failover of the VM group 1 of the active host 100A in FIG. 1 to the pair of the VM group 3 of the standby host 100B is instructed, the standby VM management server 400B instructs the storage management server 300B. Generate a volume failover.
  • the storage management server 300B refers to the group mapping table 323B and converts the failover destination VM group ID into a CTG ID.
  • the storage management server 300B obtains the remote CTG ID that becomes the changed CTG ID pair from the consistency group pair table 224B of the storage 2 (200B), and sets the remote CTG ID pair to the active storage management server 300A. By sending a command to divide, volume failover is performed.
  • the VM group ID can be easily converted into the volume group (CTG) ID by setting the correspondence between the ID of the VM group 190 and the volume group (CTG) ID in the group mapping table 323.
  • the consistency group pair table 224 information on replication pairs of the storage 1 (200A) and the storage 2 (200B) is set, and the CTG ID can be bidirectionally converted between the replication pairs.
  • Such a group mapping table 323 can convert a VM group ID and a CTG (volume group) ID bidirectionally, so that data consistency between VMs can be maintained in units of VM groups 190, such as failover. DR operation can be performed.
  • FIG. 2 is a block diagram showing an example of the configuration of the host 100, the storage management server 300, the VM management server 400, and the VM DR control server 500.
  • These computers are CPUs (Central Processing Units) 110, 310, 410, 510 as processors, memories 120, 320, 420, 520 as main storage devices, and non-volatile secondary storage devices 130, 330, 430. 530, input / output devices 140, 340, 440, 540 and ports 150, 350, 450, 550.
  • CPUs Central Processing Units
  • 310, 410, 510 as processors
  • memories 120, 320, 420, 520 main storage devices
  • 530 input / output devices 140, 340, 440, 540 and ports 150, 350, 450, 550.
  • Each of these components is connected to each other by buses 160, 360, 460, and 560.
  • CPU 110, 310, 410, 510 implements a predetermined function of each computer by executing a program stored in memory 120, 320, 420, 520.
  • the memories 120, 320, 420, and 520 store programs executed by the CPUs 110, 310, 410, and 510 and data necessary for executing the programs.
  • the program is loaded from the secondary storage device 130, 330, 430, 530 to the memory 120, 320, 420, 520.
  • the input / output devices 140, 340, 440, and 540 include one or more devices such as a display, a pointer, or a keyboard. A user can operate each computer using the input / output devices 140, 340, 440, and 540.
  • the ports 150, 350, 450, and 550 are connected to the networks 600, 700, and 800 in FIG. Each computer can communicate with other computers and the storage 200 via ports 150, 350, 450, and 550.
  • the management terminal 50 can also be configured by the same computer as that shown in FIG.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the storage 200.
  • the storage 200 includes a CPU 210, a memory 220, a storage device 230, a port 250, and a cache memory 270. Each of these components is connected to each other by a bus 260.
  • the CPU 210 implements predetermined functions including control of I / O from the host 100 and management and control of the volume 280 of the storage 200 by executing a program for storage control.
  • the port 250 is connected to the network 800 in FIG.
  • the host 100 in FIG. 1 can communicate with the storage 200 via the port 250.
  • the storage 200 receives an I / O request and write data from the host 100 via the port 250, and transmits read data to the host 100.
  • FIG. 4A is a block diagram illustrating an example of a program and data stored in the memory 120 of the host 100.
  • the memory 120 of the host 100 holds an operating system (OS) 121, a hypervisor 122, and programs for a plurality of virtual machines 123.
  • the OS 121 is loaded for each virtual machine 123.
  • FIG. 4B is a block diagram illustrating an example of programs and data stored in the memory 220 of the storage 200.
  • the memory 220 of the storage 200 includes a storage control program 229, an access point table 221, a remote storage table 222, a volume table 223, a consistency group pair table (replication pair information) 224, and a volume pair table 225. Hold.
  • the storage control program 229 performs I / O control between the host 100 and the volume 280, and storage resource management such as a pool (not shown) that provides a storage area to the volume 280 and the volume 280.
  • storage resource management such as a pool (not shown) that provides a storage area to the volume 280 and the volume 280.
  • FIG. 4C is a block diagram illustrating an example of programs and data stored in the memory 320 of the storage management server 300.
  • the memory 320 of the storage management server 300 holds a storage management program 329, an access point table 321, a storage table 322, and a group mapping table 323.
  • the storage management program 329 performs resource management of a plurality of storages 200 and processing corresponding to storage operation instructions from the VM management program 429. Specifically, the VM DR operation parameter is converted into the volume copy operation parameter of the storage 200, or the VM DR operation procedure is converted into a procedure that allows the volume copy operation in the storage 200 and executed. Each table held in the memory 320 will be described later.
  • FIG. 4D is a block diagram illustrating an example of programs and data stored in the memory 420 of the VM management server 400.
  • the memory 420 of the VM management server 400 includes a VM management program 429, an access point table 421, a hypervisor table 422, a VM table 423, a hypervisor pair table 424, a VM group pair table 425, and a storage management server table 426. , VM-volume mapping table 427 is held.
  • the VM management program 429 performs VM management operation and storage operation instruction processing to the storage management program 329. Each table held in the memory 420 will be described later.
  • FIG. 4E is a block diagram illustrating an example of programs and data stored in the memory 520 of the VM DR control server 500.
  • the memory 520 of the VM DR control server 500 holds a VM DR control program 529, an access point table 521, a VM management server table 522, and a VM group pair table 523.
  • the VM DR control program 529 receives a VM DR operation request from the management terminal 50 used by the VM administrator, and performs a process of transferring the VM DR operation request to the VM management program 429.
  • Each table held in the memory 520 will be described later.
  • FIG. 5A to FIG. 5J are diagrams showing an example of the configuration of the table held in the memory 220 of the storage 200A, 200B.
  • FIG. 5A and 5B are diagrams illustrating an example of the access point table 221.
  • FIG. The access point tables 221A and 221B have a storage ID column 2211 that holds the storage ID of the storage 200, and an IP address column 2212 that holds an IP address serving as an access point to the storage 200.
  • the access point table 221 is information set in advance from the management terminal 50 used by the administrator or the like.
  • FIG. 5C and 5D are diagrams showing an example of the remote storage table 222.
  • FIG. The remote storage tables 222A and 222B have a remote storage ID column 2221 that holds a storage ID of a storage capable of constructing a volume copy pair configuration, and a remote path ID 2222 that holds an ID of a volume copy data path.
  • FIG. 5E and 5F are diagrams showing an example of the volume table 223.
  • the volume tables 223A and 223B include a volume ID 2231 that holds the volume ID of the storage 200, a capacity column 2232 that holds the capacity value of the volume 280, and a CTG ID column that holds the ID of the CTG 290 in which the volume 280 is registered. 2233.
  • the volume ID has the format ⁇ storage ID>. ⁇ Unique ID in storage>.
  • the volume table 223 is information that is set from the management terminal 50 used by an administrator or the like and is updated by the storage management server 300.
  • the correspondence relationship between the volume 280 and the CTG 290 is defined by the volume table 223.
  • FIGS. 5G and 5H are diagrams illustrating an example of the consistency group pair table 224.
  • FIG. In the consistency group pair table 224A, 224B, the CTG ID column 2241 that holds the ID of the CTG 290 of the storage 200, and whether the CTG in the CTG ID column 2241 is primary (data copy source) or secondary (data copy destination) Primary / Secondary field 2242 that holds information indicating CTG, remote storage ID field 2243 that holds the ID of the storage that has the CTG paired with the CTG in the CTG ID field 2241, and CTG that is paired with the CTG in the CTG ID field 2241 Remote CTG ID column 2244 that holds the ID of
  • the consistency group pair table 224 is information that is set from the management terminal 50 used by the administrator or the like and updated by the storage management server 300.
  • the consistency group pair table 224 defines the correspondence between the CTG 290 and the storage 200 that form a pair in another system.
  • FIG. 5I and 5J are diagrams showing an example of the volume pair table 225.
  • FIG. The volume pair tables 225A and 225b include a volume ID column 2251 that holds the volume ID of the storage 200, and information indicating whether the volume in the volume ID column 2251 is a primary volume (copy source volume) or a secondary volume (copy destination volume). PVOL / SVOL column 2252 to be held, remote volume ID column 2253 holding the ID of the volume paired with the volume in the volume ID column 2251, and pair status column holding information indicating the data copy status between the paired volumes 2254.
  • PVOL / SVOL column 2252 a character string “PVOL” is registered if the volume is a primary volume, and “SVOL” is registered if the volume is a secondary volume.
  • pair status column 2254 a character string “COPY” is registered when data is being copied between paired volumes, “SYNC” is displayed when the copy is completed, and “SUSPEND” is displayed when the copy is stopped.
  • the volume pair table 225 is information that is set from the management terminal 50 used by an administrator or the like and updated by the storage management server 300.
  • the volume pair table 225 defines the correspondence between the CTG 290 and the storage 200 that form a pair in another system.
  • FIGS. 6A to 6F are diagrams showing an example of the configuration of tables held in the memory 320 of the storage management servers 300A and 300B.
  • FIG. 6A and 6B are diagrams showing an example of the access point table 321.
  • the access point tables 321A and 321B include a storage management program ID column 3211 that holds the ID of the storage management program 329 of the storage management server 300, and access points for the VM management server 400 and the storage management server 300 to communicate with each other.
  • the access point table 321 is information set in advance from the management terminal 50 used by the administrator or the like.
  • FIG. 6C and 6D are diagrams showing an example of the storage table 322.
  • FIG. The storage tables 322A and 322B have a storage ID column 3221 that holds an ID of a storage managed by the storage management program 329, and an IP address column 3222 that holds an IP address of the storage 200 in the storage ID column 3221.
  • the storage table 322 is information set in advance from the management terminal 50 or the like used by an administrator or the like.
  • FIG. 6E and 6F are diagrams illustrating an example of the group mapping table 323.
  • the group mapping tables 323A and 323B include a hypervisor ID column 3231 that holds an ID of the hypervisor of the host 100 connected to the storage 200 managed by the storage management program 329, and an ID of a VM group operating on the hypervisor in the hypervisor ID column 3231.
  • a VM group ID column 3232 indicating the storage 200
  • a storage ID column 3233 holding the ID of the storage 200
  • a CTG ID column 3234 holding the ID of the CTG associated with the VM group 190 in the VM group ID column 3232. Hold.
  • the group mapping table 323 is information that is set from the management terminal 50 used by the administrator or the like and updated by the storage management server 300.
  • the group mapping table 323 defines a correspondence relationship between the VM group 190 on the hypervisor 122 and the CTG 290 of the storage 200.
  • FIGS. 7A to 7H and FIGS. 8A to 8F are configuration examples of tables held by the memory 420 of the VM management servers 400A and 400B.
  • FIG. 7A and 7B are diagrams showing an example of the access point table 421.
  • the access point tables 421A and 421B include an access point for the VM management program ID column 4211 that holds the ID of the VM management program 429 of the VM management server 400, and the VM DR control server 500 and the VM management server 400 to communicate with each other.
  • An external IP address column 4212 that holds an IP address to be used, and an internal IP address column 4213 that holds an IP address serving as an access point for the VM management server 400 and the storage management server 300 to communicate with each other.
  • the access point table 421 is information set in advance from the management terminal 50 used by the administrator or the like.
  • FIG. 7C and 7D are diagrams showing an example of the hypervisor table 422.
  • the hypervisor tables 422A and 422B include a host ID column 4221 that holds the ID of the host managed by the VM management program 429, a hypervisor ID that holds the ID of the hypervisor operating on the host in the host ID column 4221, and a host ID column 4221. And an IP address column 4223 for holding the IP address of the host.
  • the hypervisor table 422 is information set in advance from the management terminal 50 used by an administrator or the like.
  • the VM tables 423A and 423B include a hypervisor ID column 4231 that holds the ID of a hypervisor that runs on the host managed by the VM management program 429, and a VM ID column 4232 that holds the ID of the VM that runs on the hypervisor in the hypervisor ID column 4231.
  • the VM ID column 4232 has a status column 4233 that stores information indicating the status of the VM, and the VM ID column 4232 has a VM group ID column 4234 that stores the ID of the VM group 190 in which the VM is registered.
  • a character string “POWER-ON” is registered if the VM is activated, and “POWER-OFF” is registered if the VM is stopped.
  • the VM table 423 is information that is set in advance from the management terminal 50 used by an administrator or the like and updated by the VM management server 400. By referring to the VM table 423, the VM group 190 to which the VM 123 belongs and the state of the VM 123 can be acquired.
  • the hypervisor pair tables 424A and 424B are a hypervisor ID column 4241 that holds an ID of a hypervisor that is operated on a host managed by the VM management program 429, and a remote hypervisor that holds an ID of a hypervisor that can be DR-operated with the hypervisor in the hypervisor ID column 4241. ID column 4242.
  • the hypervisor pair table 424 is information set in advance from the management terminal 50 used by the administrator or the like.
  • the hypervisor pair table 424 defines the hypervisor 122 that forms a pair in another system.
  • FIG. 8A and 8B are diagrams illustrating an example of the VM group pair table 425 of the VM management server 400.
  • FIG. 8A and 8B are diagrams illustrating an example of the VM group pair table 425 of the VM management server 400.
  • the VM group ID column 4251 that holds the ID of the VM 123 group operating on the host 100 managed by the VM management program 429, and the VM group 190 in the VM group ID column 4251 are the source (VM data).
  • Source / Target column 4252 a character string “SOURCE” is registered if the VM group is a source, and “Target” is registered if the VM group is a target.
  • the VM group pair table 425 is information that is set from the management terminal 50 used by an administrator or the like and updated by the VM management server 400.
  • the VM group pair table 425 defines a pair of the migration source VM group 190A and the migration destination VM group 190B.
  • FIG. 8C and 8D are diagrams showing an example of the storage management server table 426.
  • FIG. The storage management server tables 426A and 426B include a storage management program ID column 4261 that holds the ID of the storage management program of the storage management server 300 that communicates with the VM management server 400, and an IP address that holds the IP address of the storage management server 300 Column 4262.
  • the storage management server table 426 is information set in advance from the management terminal 50 used by an administrator or the like.
  • FIG. 8E and 8F are diagrams showing an example of the VM-volume mapping table 427.
  • FIG. The VM-volume mapping tables 427A and 427B include a hypervisor ID column 4271 that holds the ID of a hypervisor that runs on the host managed by the VM management program 429, and a VM ID that holds the ID of the VM that runs on the hypervisor in the hypervisor ID column 4271.
  • Column 4272 and a volume ID column 4273 that holds the volume ID of the storage management server 300 to which the VM in the VM ID column 4272 is connected.
  • the VM-volume mapping table 427 is information set in advance from the management terminal 50 used by the administrator or the like.
  • the VM-volume mapping table 427 defines the ID of the volume 280 assigned to the VM 123.
  • FIG. 9A to 9C are configuration examples of tables held in the memory 520 of the VM DR control server 500.
  • FIG. 9A to 9C are configuration examples of tables held in the memory 520 of the VM DR control server 500.
  • FIG. 9A is a diagram illustrating an example of the access point table 521.
  • the access point table 521 includes an external IP address field 5211 that holds an IP address for accessing the VM DR control server 500 from the management terminal 50 used by the VM administrator, and the VM DR control server 500 and the VM management server 400. And an internal IP address field 5212 that holds an IP address serving as an access point for communicating with each other.
  • the access point table 521 is information set in advance from the management terminal 50 used by the administrator or the like.
  • FIG. 9B is a diagram illustrating an example of the VM management server table 522.
  • the VM management server table 522 includes a VM management program ID column 5221 that holds an ID of the VM management program 429 managed by the VM DR control program 529, and a VM management server 400 on which the VM management program 429 in the VM management program ID column 5221 operates. And an IP address column 5222 for holding the IP address of
  • the VM management server table 522 is information set in advance from the management terminal 50 used by the administrator or the like.
  • FIG. 9C is a diagram illustrating an example of the VM group pair table 523.
  • the VM group pair table 523 includes a source VM group ID column 5231 that manages the source VM group ID and a source VM management program ID that holds the ID of the VM management program that manages the VM group in the Source VM group ID column 5231.
  • the VM management server table 522 is information that is set from the management terminal 50 or the like used by an administrator or the like and is updated by the VM DR control program 529.
  • the VM management server table 522 defines the relationship between the migration source VM group 190A and the migration destination VM group 190B when performing DR.
  • FIG. 10A to FIG. 13 show an example of VM management operation processing in the computer system of this embodiment.
  • the VM DR control program 529 runs on the VM DR control server 500 shown in FIG. 1.
  • the VM management program 429 operates in the VM management server 1 (200A) in FIG. 1, and the VM management program 429 operates in the VM management server 2 (200B) in FIG.
  • the storage management server 1 (300A) in FIG. 1 operates the storage management program 329, and the storage management server 2 (300B) operates the storage management program 329.
  • FIG. 10A is a sequence diagram illustrating an example of a process for generating the VM group 190.
  • the management terminal 50 used by the storage administrator instructs the storage management program 329 of the storage management server 1 (300A) to create the VM group 190.
  • the management terminal 50 used by the storage administrator designates the hypervisor ID, VM group name, storage ID, and CTG ID of each Source / Target.
  • step S002 the storage management program 329 of the storage management server 300A analyzes the instruction content received from the management terminal 50 of the storage administrator. Then, the storage management program 329 confirms that each source / target hypervisor ID, VM group name, storage ID, and CTG ID are input.
  • step S003 the storage management program 329 of the storage management server 300A executes the consistency group pair of the storage 1 (200A) based on the storage ID and CTG ID input from the storage administrator management terminal 50 in step S001. Update table 224A.
  • step S004 the storage management program 329 of the active storage management server 300 receives the storage input from the storage administrator management terminal 50 in step S001 to the storage management program 329 of the standby storage management server 300B.
  • the update of the consistency group pair table 224B based on the ID and the CTG ID is instructed.
  • step S005 the storage management program 329 of the storage management server 300B updates the consistency group pair table 224B based on the storage ID designated by the storage management program 329 and the CTG ID in step S004.
  • step S006 the storage management program 329 of the storage management server 300B sends a consistency group pair table update process completion notification to the storage management program 329 of the active storage management server 300A.
  • step S007 the storage management program 329 of the storage management server 300A sends the VM group name and hypervisor ID input from the management terminal 50 of the storage administrator to the VM management program 429 of the VM management server 400A in step S001. Is instructed to update the VM group pair table 425A.
  • step S008 the VM management program 429 of the active VM management server 400A updates the VM group pair table 425A based on the VM group name designated by the storage management program 329 and the hypervisor ID in step S007.
  • step S009 the VM management program 429 of the VM management server 400A transmits a VM group pair table update process completion notification to the storage management program 329 of the storage management server 300A.
  • step S010 the storage management program 329 of the storage management server 300A and the VM group name input from the storage administrator management terminal 50 in step S001 to the storage management program 329 of the standby storage management server 300B. Instruct to update the VM group pair table 425B based on the hypervisor ID.
  • step S011 the storage management program 329 of the storage management server 300B sends the VM group name specified by the storage management program 329 in step S010 and the VM based on the hypervisor ID to the VM management program 429 of the VM management server 400B.
  • An instruction to update the group pair table 425B is given.
  • step S012 the VM management program 429 of the VM management server 400B updates the VM group pair table 425B based on the VM group name designated by the storage management program 329 in step S011 and the hypervisor ID.
  • step S013 the VM management program 429 of the VM management server 400B transmits a VM group pair table update process completion notification to the storage management program 329.
  • step S014 the storage management program 329 of the storage management server 300B transmits a VM group pair table update process completion notification to the storage management program 329 of the storage management server 300A.
  • step S015 the storage management program 329 of the storage management server 300A performs group mapping based on the hypervisor ID, VM group name, storage ID, and CTG ID input from the storage administrator management terminal in step S001. Update table 323A.
  • step S016 the storage management program 329 of the storage management server 300A then sends the hypervisor ID and VM group name input from the storage administrator management terminal 50 to the storage management program 329 of the storage management server 300B in step S001. And an update of the group mapping table 323B based on the storage ID and the CTG ID.
  • step S017 the storage management program 329 of the storage management server 300B determines the group mapping table 323B based on the hypervisor ID, VM group name, storage ID, and CTG ID specified by the storage management program 329 in step S016. Update.
  • step S018 the storage management program 329 of the storage management server 300B transmits a group mapping table update completion notification to the storage management program 329 of the storage management server 300A.
  • step S019 the storage management program 329 of the storage management server 300A transmits a VM group creation completion notification to the storage administrator's management terminal 50.
  • the active storage management server 300A and the standby storage management server 300B update the consistency group pair tables 224A and 224B, and the VM management servers 400A and 400B update the VM group pair tables 425A and 425B.
  • the storage management servers 300A and 300B update the group mapping tables 323A and 323B.
  • VM groups 190A and 190B are generated in the active system and the standby system, respectively.
  • the VM group pair table 523 of the VM DR control server 500 is updated by the VM DR control program 529 at a predetermined timing.
  • the VM DR control program 529 may periodically communicate with the VM management programs 429 of the VM management servers 400A and 400B to acquire information on the VM group 190 and update the VM group pair table 523. Further, the VM DR control program 529 communicates with the VM management programs 429 of the VM management servers 400A and 400B at the timing of referring to the VM group pair table 523, acquires the information of the VM group 190, and stores the VM group pair table 523. It may be updated.
  • FIG. 10B is a sequence diagram illustrating an example of a process for generating a VM 123 having a replication configuration.
  • step S101 the VM administrator instructs the VM management program 429 of the active VM management server 400A to create a VM 123 having a replication configuration via the management terminal 50.
  • the VM administrator designates the disk capacity of the creation target VM 123 and the VM group ID for registering the creation target VM 123 on the management terminal 50.
  • step S102 the VM management program 429 of the VM management server 400A analyzes the content of the instruction received from the management terminal 50 of the VM administrator.
  • the VM management program 429 of the VM management server 400A indicates that the information specified in the VM group ID column 4251 of the VM group pair table 425A is included, the corresponding pair status column 4252 is “SOURCE”, that is, the VM group 190 is copied. Confirm that it is original.
  • step S103 the VM management program 492A of the VM management server 400A instructs the storage management program 329 to create a volume for the disk of the creation target VM.
  • the VM management program 429 of the VM management server 400A designates the volume capacity and the VM group ID designated by the management terminal 50 of the VM administrator.
  • the VM management server 400A shows an example of converting an operation (VM creation) on the VM group 190 into a volume group operation (volume group creation).
  • the storage management server 300 may receive an operation on the VM group 190 and convert it to failover of the volume group.
  • the operation is converted according to a preset table or rule.
  • the conversion of the above operations is to convert operations such as creation (addition), failover, and migration for the VM group 190 into operations such as creation (addition), failover, and migration for the volume group (CTG 290). To do.
  • step S104 the storage management program 329 of the storage management server 300A refers to the VM group ID column 3232 and the CTG ID column 3234 of the group mapping table 323A, and changes the designated VM group ID to the corresponding CTG ID. Convert.
  • the storage management server 300A can associate the ID of the CTG (volume group) 290A with the ID of the VM group 190A of the host 100A.
  • step S105 the storage management program 329 of the storage management server 300A instructs the storage 1 (200A) to create a volume 280A having a specified capacity.
  • the storage control program 229 of the storage 1 (200A) adds information on the volume to the volume ID column 2231 and capacity (GB) column 2232 of the volume table 223A.
  • step S106 the storage management program 329 of the storage management server 300A registers the volume generated in step S105 in the storage 1 (200A) in the CTG 290A having the CTG ID converted from the VM group ID in step S104. Instruct processing.
  • the storage control program 229 of the storage 1 adds the CTG ID for registering the volume to the CTG ID column 2233 of the row added to the volume table 223 in step S105.
  • step S107 the storage management program 392A of the storage management server 300A instructs the storage 1 (200A) to generate the LU path of the generated volume 280A.
  • the storage management program 329 of the storage management server 300A specifies the volume ID of the volume 280A generated in step S105 and the port ID of the port 250 to which the host 100A is connected.
  • the LU path can be generated by using, for example, ALU (Administrative Logical Unit) and SLU (Subsidiary Logical Unit) defined in the Conglomerate LU Structure.
  • ALU Administration Logical Unit
  • SLU Subsidiary Logical Unit
  • a preset representative volume can be mapped as an ALU
  • the volume 280 can be mapped as an SLU.
  • the volume 280 may be a virtual volume.
  • step S108 the storage management program 329 of the storage management server 300A converts the CTG ID of the CTG 290A that registered the volume 280A in step S106 to the CTG 290B CTG ID of the paired standby storage 2 (200B). To do.
  • the storage management server 300A acquires the remote storage ID column 2243 and the remote CTG ID 2244 from the consistency group pair table 224A of the storage 1 (200A), and sets it as the pair CTG ID.
  • the storage management program 329 of the storage management server 300A transmits a CTG ID acquisition request for the paired CTG 290B to the storage 1 (200A) together with the CTG ID of the CTG 290A that registered the volume 280A in step S106.
  • the storage 1 (200A) is paired with the CTG 290B having the CTG ID received from the storage management program 329 based on the information in the CTG ID column 2241, the remote storage ID column 2243, and the remote CTG ID 2244 column of the consistency group pair table 224A.
  • the CTG ID of CTG 290A to be obtained is acquired, and the storage management program 329 is responded.
  • step S109 the storage management program 329 of the active storage management server 300A transfers the volume 280B having the same capacity as the volume 280A generated in step S105 to the storage management program 329 operating on the standby storage management server 300B. Instruct the process to generate.
  • the active storage management program 329 specifies the volume capacity and the CTG ID acquired from the storage 1 (200A) in step S108.
  • step S110 the storage management program 329 of the standby storage management server 300B instructs the storage 2 (200B) to generate the volume 280B having the designated capacity.
  • the storage management program 329 of the storage management server 300B adds information on the volume 280B to the volume ID column 2231 and capacity (GB) column 2232 of the volume table 223B.
  • step S111 the storage management program 329 of the storage management server 300B registers the volume 280B generated in step S110 in the storage 2 (200B) in the CTG 290B having the CTG ID specified in step S109. Instruct.
  • the storage management program 329 of the storage management server 300B adds the CTG ID for registering the volume 280B to the CTG ID column 2233 of the row added to the volume table 223B in step S112.
  • step S112 the storage management program 392B of the storage management server 300B instructs the storage 2 (200B) to generate the LU path of the generated volume 280B.
  • the storage management program 329 of the storage management server 300B designates the volume ID of the volume 280B generated in step S105 and the port ID of the port 250 to which the host 100B is connected.
  • the LU path is generated in the same manner as in the active system, and the ALU and SLU of the above-mentioned Conglomerate LU Structure can be used.
  • step S113 the storage management program 329 of the storage management server 300B transmits an update request for the volume ID and volume mapping information of the volume 280B generated in step S112 to the VM management program 429 of the VM management server 400B. .
  • the VM management program 429 of the VM management server 400B has a hypervisor ID in the hypervisor ID column 4231 of the VM table 423B, a new VM ID in the VM ID column 4232, “POWER-OFF” in the status column 4233, and a VM group ID column 4234. VM group ID is added to.
  • the VM management program 429 of the VM management server 400B receives the hypervisor ID in the hypervisor ID column 4271 of the volume mapping table 427B, the new VM ID in the VM ID column 4272, and the volume ID information received from the storage management program 329 in the volume ID 4273. Add
  • step S114 the VM management program 429 of the VM management server 400B sends a volume mapping information update completion notification to the storage management program 329 of the storage management server 300B.
  • step S115 the storage management program 329 of the storage management server 300B transmits a volume creation processing completion notification and the volume ID of the created volume 280B to the storage management program 329 of the storage management server 300A.
  • step S116 the storage management program 329 of the active storage management server 300A instructs the storage 1 (200A) to generate a volume pair.
  • the storage management program 329 of the storage management server 300A specifies the volume ID of the volume 280A generated in step S105 and the volume ID of the volume 280B generated in step S110.
  • the storage control program 229 of the storage 1 (200A) cooperates with the storage control program 299 of the storage 2 (200B) to perform pair generation processing between volumes having the volume ID specified by the storage management program 239A of the storage management server 300A. Execute.
  • the storage control program 299 of the storage 1 (200A) stores information in the volume ID column 2251, the PVOL / SVOL column 2252, the remote volume ID column 2253, and the pair status column 2254 of the volume pair table 255A.
  • “COPY” is added to the pair status column 2254 of the volume pair table 255A.
  • the storage control program 229 of the storage 1 changes the pair status column of the volume pair table 225A to “SYNC”.
  • step S117 the storage management program 239A of the storage management server 300A sends a notification of completion of the volume creation processing and the volume ID of the created volume 280A to the VM management program 429 of the VM management server 400A.
  • the VM management program 429 of the VM management server 400A has a hypervisor ID in the hypervisor ID column 4231 of the VM table 423A, a new VM ID in the VM ID column 4232, “POWER-ON” in the status column 4233, and a VM group ID column 4234. VM group ID is added to.
  • the VM management program 429 of the VM management server 400A receives the hypervisor ID in the hypervisor ID column 4271 of the volume mapping table 427A, the new VM ID in the VM ID column 4272, and the volume ID information received from the storage management program 329 in the volume ID 4273. Add
  • step S118 the VM management program 429 of the VM management server 400A transmits a VM generation process completion notification to the management terminal 50 of the VM administrator.
  • a new VM 123 having a replication configuration is generated by the above process, and a new volume 280 is allocated to this VM 123.
  • the pair of the specified VM group 190 and the pair of the CTG 290 of the allocated volume 280 are used as the active system and the standby system. Is set.
  • FIG. 11 is a sequence diagram illustrating an example of failover processing of the VM 123 having a replication configuration. This failover is an example in which the administrator executes the systematically for maintenance and the like.
  • step S201 the VM administrator instructs the VM DR control program 529 of the VM DR control server 500 to failover the VM 123A in the replication configuration via the management terminal 50.
  • the VM administrator designates the VM group ID of the target VM group 190A to be failed over.
  • the VM DR control program 529 analyzes the content of the instruction received from the management terminal 50 of the VM administrator.
  • the VM DR control program 529 confirms that the information specified in the Target VM group ID column 5233 of the VM group pair table 523 is included.
  • the VM DR control program 529 acquires the VM management program ID of the VM management server 400B that is the target (failover destination) from the Target VM management program ID column 5234 on the same line as the confirmed Target VM group ID column 5233. .
  • step S203 the VM DR control program 529 instructs the VM management program 429 of the VM management server 400B having the VM management program ID acquired in step S202 to fail over to the VM group 190B.
  • the VM DR control program 529 specifies the VM group ID (for example, VM Group3: VMGRP3) of the target VM group 190B.
  • step S204 the VM management program 429 of the VM management server 400B that has received a failover instruction to the VM group 190B refers to the VM group ID column 4251 and the remote VM group ID column 4254 of the VM group pair table 425B. Then, the designated VM group ID of the failover destination is converted into the corresponding remote VM group ID that is the failover source. In the case of the present embodiment, since the VM group 3 is designated, the VM management server 400B converts “VMGRP3” into “VMGRP1” (VM Group1) of the remote VM group ID 4254.
  • step S205 the VM management program 429 of the VM management server 400B instructs the VM management program 429 of the active VM management server 400A to stop the VM 123 for each VM group 190.
  • the VM management program 429 of the VM management server 400B specifies the VM group ID (failover source VM Group 1) converted in step S204.
  • the VM management program 429 of the active VM management server 400A refers to the VM ID column 4232 and the VM group ID 4232 of the VM table 423, and has the VM group ID specified in step S205.
  • the VM ID of the VM 123 belonging to the group is specified.
  • the VM management program 429 of the VM management server 400A transmits a stop request for the VMs (VM1 and VM2 in this example) having the specified VM ID to the hypervisor 122A.
  • the hypervisor 122A stops the VM 123 that has been requested to stop, and responds to the VM management program 429 of the VM management server 400A that the VM stop processing has been completed.
  • the VM management program 429 changes the item regarding the stopped VM in the status column 4233 of the VM table 423 to “POWER-OFF”.
  • step S207 the VM management program 429 of the VM management server 400A transmits a notification of the completion of the stop of the VM 123 in the VM group 190 unit to the VM management program 429 of the standby VM management server 400B.
  • step S208 the VM management program 429 of the VM management server 400B instructs the storage management program 329 of the storage management server 300B to perform volume failover.
  • step S208 an example in which the VM management server 400A converts the operation for the VM group 190 (VM failover) to the volume group operation (volume group failover) is not limited to this.
  • the storage management server 300 may accept an operation (failover) on the VM group 190 and convert it to a volume group operation (failover). The operation is converted according to a preset table or rule.
  • the conversion of the above operation is to convert operations such as creation, deletion, failover, and migration for the VM group 190 into operations such as creation, deletion, failover, and migration for the volume group (CTG 290).
  • step S209 the storage management program 329 of the storage management server 300B refers to the VM group ID column 3232 and the CTG ID column 3234 of the group mapping table 323B, and changes the designated VM group ID to the corresponding CTG ID. Convert. That is, the storage management server 300B.
  • the operation parameter “VMGRP3” for the VM group 190 is converted to the operation parameter “CTG1” for the volume group (CTG).
  • step S210 the storage management program 329 of the storage management server 300B converts the CTG ID acquired in step S209 into a CTG ID of the CTG 290A of the paired storage 1 (200A).
  • the storage management program 329 of the storage management server 300B transmits a CTG ID acquisition request for the pair CTG to the storage 2 (200B) together with the CTG ID acquired in step S209.
  • the storage 2 (200B) has a pair of CTG having the CTG ID received from the storage management program 329 based on the information in the CTG ID column 2241, the remote storage ID column 2243, and the remote CTG ID 2244 column of the consistency group pair table 224.
  • the CTG ID of the CTG to be obtained is acquired, and a response is made to the storage management program 329 of the storage management server 300B.
  • the storage management server 300B acquires CTG1 of the storage 1 (200A) as a pair of CTG1 of the storage 2 (200B).
  • step S211 the storage management program 329 of the storage management server 300B instructs the storage management program 329 of the storage management server 300A to divide the volume pair.
  • the storage management program 329 of the storage management server 300B designates the CTG ID acquired in step S210.
  • step S212 the storage management program 329 of the storage management server 300B instructs the storage 1 (200A) to divide the volume pair.
  • the storage management program 329 of the storage management server 300A designates the CTG ID received from the storage management program 329 of the storage management server 300B in step S211.
  • the storage control program 229 of the storage 1 (200A) cooperates with the storage control program 299 of the storage 2 (200B), and executes pair split processing in units of CTG having the CTG ID designated by the storage management program 239A.
  • the storage control program 299 of the storage 1 (200A) uses the information in the volume ID column 2231 and the CTG ID column 2233 of the volume table 223A to register the volume registered in the CTG having the designated CTG ID. Is specified. Then, the storage control program 299 of the storage 1 (200A) refers to the volume ID column 2251 of the volume pair table 225A, and sets the information in the pair status column 2254 in the row where the information in the column matches the identified volume ID to “SUSPEND”. Change to "".
  • step S213 the storage management program 329 of the storage management server 300A transmits a volume pair split processing completion notification to the storage management program 329 of the failover destination storage management server 300B.
  • step S214 the storage management program 329 of the storage management server 300B transmits a volume failover processing completion notification to the VM management program 429 of the VM management server 400B.
  • the VM management program 429 of the VM management server 400B refers to the VM ID column 4232 and the VM group ID 4232 of the VM table 423B, and has a VM group ID designated by the VM DR control server 500.
  • the VM ID of the VM 123 belonging to the group is specified.
  • the VM management program 429 of the VM management server 400B transmits a startup request for the VM 123 having the specified VM ID to the hypervisor 122B.
  • the hypervisor 122B activates the VM 123 that has accepted the activation request, and responds the completion of the VM activation process to the VM management program 429.
  • the VM management program 429 of the VM management server 400B changes the item related to the activated VM 123 in the status column 4233 of the VM table 423B to “POWER-ON”.
  • step S216 the VM management program 429 of the VM management server 400B transmits a notification of completion of failover processing for each VM group 190 to the VM DR control program 529.
  • step S217 the VM DR control program 529 transmits a failover completion notification of the VM group 190 to the management terminal 50 of the VM administrator.
  • the VM group 1 of the host 100A can fail over to the VM group 3 of the host 100B, and the CTG1 of the storage 1 (200A) corresponding to the VM group 1 can fail over to the CTG1 of the storage 2 (200B). .
  • the configuration change of the DR of the VM 123 and the DR of the storage 200 can be linked to each other. Therefore, in the computer system in which the disk of the VM 123 and the volume 280 of the storage 200 are one-to-one, DR operation with consistency can be realized.
  • FIG. 12 is a sequence diagram showing an example of reprotection processing of the VM 123 having a replication configuration. This process is performed when the failover in FIG. 11 is completed.
  • step S301 the VM administrator instructs the VM DR control program 529 of the VM DR control server 500 to perform VM reprotection of the replication configuration via the management terminal 50.
  • the management terminal 50 of the VM administrator designates the VM Group ID of the target VM group 190 to be reprotected.
  • FIG. 1 An example of reprotecting VM Group 3 for which failover has been completed is shown in FIG.
  • the VM DR control program 529 of the VM DR control server 500 analyzes the instruction content received from the management terminal 50 of the VM administrator.
  • the VM DR control program 529 confirms that the information specified in the Target VM group ID column 5233 of the VM group pair table 523 is included. Further, the VM DR control program 529 acquires the VM management program ID of the target VM management program 429 from the Target VM management program ID column 5234 in the same row as the confirmed Target VM group ID column 5233.
  • step S203 the VM DR control program 529 re-protects the VM group 190B to the VM management program (here, the VM management program 429 of the VM management server 400B) having the VM management program ID acquired in step S302. Instruct.
  • the VM DR control program 529 specifies the VM group ID of the target VM group 190. In this embodiment, the case where the VM group 3 is designated is shown.
  • step S304 the VM management program 429 of the VM management server 400B instructs the storage management program 329 of the storage management server 300B to perform volume reprotection.
  • the VM management program 429 of the VM management server 400B designates the target VM group ID.
  • the VM management server 400B shows an example of converting the operation (VM reprotection) for the VM group 190 into the volume group operation (volume group reprotection).
  • the present invention is not limited to this.
  • the storage management server 300 may receive an operation (reprotection) for the VM group 190 and convert it to an operation (reprotection) of the volume group.
  • step S305 the storage management program 329 of the storage management server 300B refers to the VM group ID column 3232 and the CTG ID column 3234 of the group mapping table 323B, and changes the designated VM group ID to the corresponding CTG ID. Convert.
  • CTG1 is obtained from the VM group 3.
  • step S306 the storage management program 329 of the storage management server 300B instructs the storage 2 (200B) to perform volume pair swapping. At this time, the storage management program 329 specifies the CTG ID acquired in step S305.
  • the storage control program 229 of the storage 2 (200B) cooperates with the storage control program 299 of the storage 1 (200A) and performs volume pair swap processing in units of CTG having the CTG ID specified by the storage management program 239 of the storage management server 300B. Execute.
  • the storage control program 299 of the storage 2 uses the information in the volume ID column 2231 and the CTG ID column 2233 of the volume table 223B to register the volume registered in the CTG having the designated CTG ID.
  • the volume ID of 280B is specified.
  • the storage control program 299 of the storage 2 refers to the volume ID column 2251 of the volume pair table 225B, and changes the information in the PVOL / SVOL column of the row where the information in the column matches the specified volume ID to “PVOL”.
  • the information in the pair status column 2254 is changed to “SUSPEND” from “SVOL” to “SVOL” or from “SVOL” to “PVOL”.
  • the storage control program 299 of the storage 2 refers to the CTG ID column 2241 of the consistency group pair table 224B, and the information in the Primary / Secondary column of the row where the information in the column matches the designated CTG ID. Is changed from “Primary” to “Secondary”, or from “Secondary” to “Primary”.
  • step S307 the storage management program 329 of the storage management server 300B instructs the storage 2 (200B) to perform volume pair resynchronization.
  • the storage management program 329 specifies the CTG ID acquired in step S305.
  • the storage control program 229 of the storage 2 (200B) cooperates with the storage control program 299 of the storage 1 (200A) to re-create a volume pair in CTG units having the CTG ID specified by the storage management program 239 of the storage management server 300B. Perform synchronous processing.
  • the storage control program 299 of the storage 2 (200B) is registered in the CTG having the designated CTG ID from the information in the volume ID column 2231 and the CTG ID column 2233 of the volume table 223B.
  • the volume ID of the volume 280B is specified.
  • the storage control program 299 of the storage 2 refers to the volume ID column 2251 of the volume pair table 225B, and sets the information in the pair status column 2254 in the row where the information in the column matches the specified volume ID to “SYNC”. Change to "".
  • step S308 the storage management program 329 of the storage management server 300B transmits a volume reprotection processing completion notification to the VM management program 429 of the VM management server 400B. Also, the VM management program 429 of the VM management server 400B changes the Source / Target column 4252 of the line that matches the specified VM group ID from the VM group ID column 4251 of the VM group pair table 425B to “SOURCE”.
  • step S309 the VM management program 429 of the VM management server 400B refers to the VM group ID column 4251 and the remote VM group ID column 4254 of the VM group pair table 425B, and corresponds the specified VM group ID. To a remote VM group ID.
  • step S310 the VM management program 429 of the VM management server 400B transmits the VM group ID acquired in step S309 and the VM group pair table update request to the VM management program 429 of the VM management server 400A.
  • the VM management program 429 of the VM management server 400A changes the Source / Target column 4252 of the line that matches the specified VM group ID from the VM group ID column 4251 of the VM group pair table 425A to “TARGET”.
  • step S311 the VM management program 429 of the VM management server 400A transmits a VM group pair table update process completion notification to the VM management program 429 of the VM management server 400B.
  • step S312 the VM management program 429 of the VM management server 400B transmits a re-protection completion notification of the VM group 190 to the VM DR control program 529.
  • the VM DR control program 529 specifies a line that matches the VM group ID that has been reprotected from the information in the Target VM group ID column 5233 of the VM group pair table 523.
  • the VM DR control program 529 replaces and updates the information of the Source VM group ID column 5231 and Target VM group ID 5233 and the Source VM management program ID column 5232 and Target VM management program ID column 5234 in the specified row.
  • step S313 the VM DR control program 529 transmits a notification that the reprotection of the VM group 190 has been completed to the management terminal 50 of the VM administrator.
  • the CTG1 (290B) of the storage 2 (200B) that has failed over constitutes a volume pair with the CTG1 of the storage 1 (200A), thereby ensuring redundancy.
  • FIG. 13 is a sequence diagram illustrating an example of processing for deleting the replication-configured VM 123.
  • step S401 the VM administrator instructs the VM management program 429 of the VM management server 400A to delete the replication-configured VM 123 via the management terminal 50.
  • the management terminal 50 of the VM administrator designates the VM ID of the deletion target VM 123.
  • step S402 the VM management program 429 of the VM management server 400A analyzes the instruction content received from the management terminal 50 of the VM administrator.
  • the VM management program 429 of the VM management server 400A confirms that the specified information is included in the VM ID column 4232 of the VM table 423A.
  • step S403 the VM management program 429 of the VM management server 400A acquires a volume ID corresponding to the specified VM ID from the VM-volume mapping table 427A.
  • step S404 the VM management program 429 of the VM management server 400A instructs the storage management program 329 of the storage management server 300A to delete the volume 280A.
  • the VM management program 429 designates the volume ID acquired in step S403.
  • the VM management server 400A shows an example of converting the operation (deletion of VM) on the VM group 190 into the operation of volume group (deletion of volume group).
  • the storage management server 300 may accept an operation (deletion) on the VM group 190 and convert it to deletion of a volume group.
  • step S405 the storage management program 329 of the storage management server 300A acquires the volume ID of the volume 280B paired with the volume having the specified volume ID from the volume pair table 225A and the specified volume ID. .
  • step S406 the storage management program 329 of the storage management server 300A instructs the storage 1 (200A) to delete the volume pair.
  • the storage management program 329 designates the volume ID designated in step S404 and the volume ID obtained in step S405.
  • the storage control program 229 of the storage 1 (200A) cooperates with the storage control program 299 of the storage 2 (200B), and performs pair deletion processing between volumes having the volume ID specified by the storage management program 239 of the storage management server 300A. Execute. After the pair deletion process is started, the storage control program 299 of the storage management server 300A deletes the information to be deleted in the volume pair table 255A.
  • step S407 the storage management program 329 of the storage management server 300A instructs the storage 1 (200A) to delete the LU path of the pair deleted volume 280A.
  • step S408 the storage management program 329 of the storage management server 300A instructs the storage 1 (200A) to delete the volume 280A.
  • the storage management program 329 of the storage management server 300A deletes information on the deletion target volume in the volume table 223A.
  • step S409 the storage management program 329 of the storage management server 300A instructs the storage management program 329 of the storage management server 300B to delete the volume 280B.
  • the storage management program 392 of the storage management server 300A designates the volume ID acquired in step S405.
  • step S410 the storage management program 329 of the storage management server 300B instructs the storage 2 (200B) to delete the LU path of the pair deleted volume 280B.
  • step S411 the storage management program 329 of the storage management server 300B instructs the storage 2 (200B) to delete the volume 280B.
  • the storage management program 329 of the storage management server 300B deletes the information on the deletion target volume in the volume table 223B.
  • step S412 the storage management program 329 of the storage management server 300B connects to the deleted volume 280B and the volume from the VM table 423B and the VM-volume mapping table 427B to the VM management program 429 of the VM management server 400B.
  • An instruction to delete the information of the VM 123B to be transmitted is transmitted.
  • the VM management program 429 of the VM management server 400B deletes the information of the specified VM 123B and volume 280B from the VM table 423B and the VM-volume mapping table 427B.
  • step S413 the VM management program 429 of the VM management server 400B notifies the storage management program 329 of the storage management server 300B that the processing requested in step S412 has been completed.
  • step S414 the storage management program 329 of the storage management server 300B transmits a volume deletion processing completion notification to the storage management program 329 of the storage management server 300A.
  • step S415 the storage management program 329 of the storage management server 300A transmits a volume deletion completion notification to the VM management program 429 of the VM management server 400A.
  • the VM management program 429 of the VM management server 400A deletes the deleted volume 280A and the information of the VM 123A connected to the volume 280A from the VM table 423A and the VM-volume mapping table 427A.
  • step S416 the VM management program 429 of the VM management server 400A transmits a VM generation completion notification to the management terminal 50 of the VM administrator.
  • the volume 280A connected to the VM 123A and the standby volume 280B that forms a pair with the volume 280A are used, so that the storage 1 (200A) and the storage 2 (200B) resources can be released.
  • the VM management server 400 receives an operation (failover) for a VM resource
  • the operation for the VM resource (VM group 190) is changed to an operation for the storage resource (volume group) (volume group failover).
  • the data is converted and notified to the storage management server 300.
  • the storage management server 300 uses the group mapping table 323 and the consistency group pair table 224 to convert the VM resource operation parameter (VM group 190 ID) into the storage 200 resource operation parameter (CTG ID). Volume failover can be realized.
  • the VM management server 400 converts the operation for the VM resource into the operation for the storage 200 resource.
  • the storage management server 300 accepts the operation for the VM resource and It can be converted to operations on resources.
  • the storage management server 300 uses the operations and parameters for the resources of the VM (or VM group 190) (for example, the identifiers of the migration source and destination VM groups) and the operations and parameters for the resources of the storage 200 (for example, migration It is possible to convert the volume group identifier to the source and destination volume groups. In this case, if the storage management server 300 receives an operation and a parameter for the VM resource, it can be converted into an operation and a parameter for the resource of the storage 200. Therefore, the storage management server 300 adapted to the management of the VM 123 (or VM group 190). Can be provided.
  • the VM management server 400 instructs the storage management server 300 to failover (or move) the volume group (CTG 290).
  • the VM DR control server 500 sends a VM resource to the storage management server 300.
  • the storage management server 300 may convert the volume group to failover.
  • this invention is not limited to the above-mentioned Example, Various modifications are included.
  • the above-described embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • any of the additions, deletions, or substitutions of other configurations can be applied to a part of the configuration of each embodiment, either alone or in combination.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Abstract

管理情報と管理プログラムを格納するメモリと、管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有し、サーバリソースに割り当てるストレージリソースを管理するストレージ管理サーバであって、管理情報は、サーバリソースを特定する第1パラメータと、ストレージリソースを特定する第2パラメータとを対応付けて第1パラメータを第2パラメータに変換するグループマッピング情報を含み、前記プロセッサは、前記サーバリソースに対する操作と前記第1パラメータとを受け付けて、予め設定した情報に基づいてサーバリソースに対する操作をストレージリソースに対する操作に変換し、グループマッピング情報を参照して、第1のパラメータを第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースを特定して前記ストレージリソースに対する操作を指示する。

Description

ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム
 本発明は、サーバとストレージを利用するコンピュータシステムに関する。
 サーバとストレージとが接続されたサーバ仮想化環境において、ストレージのボリュームレプリケーション機能を利用したDisaster Recovery(DR)の技術が知られている(例えば、特許文献1)。
 また、仮想マシン(Virtual Machine、VM)が利用するストレージとして、論理的なストレージ・コンテナから生成された仮想ボリューム(VVOL)を利用する技術が知られている(例えば、特許文献2)。
米国特許出願公開第2016/0098324号明細書 米国特許第8,775,774号明細書
 仮想マシンのDRが可能なシステムにおいて、複数の仮想マシンをクラスタなどのグループで運用することが知られている。
 一方、ストレージのDRにおいて、複数のボリュームをグループ化し、そのグループ単位で、グループ内のボリューム間でデータ一貫性を保ってレプリケーション操作を実現する技術がある。
 仮想マシンに割り当てるディスク(例えば、仮想ボリューム)と、ストレージのボリュームとを一対一でマッピングするVMのシステムにおいて、仮想マシンのグループ単位でデータの一貫性を保ったDRを実現するには、仮想マシンのグループとストレージのボリュームを対応づけることが必要となる。
 しかしながら、上記従来技術では、仮想マシンのDRと、ストレージのDR操作とは、その操作手順やパラメータがそれぞれの仕様によって異なるため、仮想マシンとストレージのボリュームの単純なマッピングだけでは整合性を保ってDR運用を実現することが難しいという問題があった。
 本発明は、管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有し、サーバリソースに割り当てるストレージリソースを管理するストレージ管理サーバであって、前記管理情報は、前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、前記プロセッサは、前記サーバリソースに対する操作と前記第1のパラメータとを受け付けて、予め設定した情報に基づいて前記サーバリソースに対する操作を前記ストレージリソースに対する操作に変換し、前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースを特定して前記ストレージリソースに対する操作を指示する。
 本発明によれば、仮想マシンのDRとストレージのDRの構成変更を連動させることができるので、仮想マシンのディスクとストレージのボリュームが一対一となる計算機システムにおいて、仮想マシンのグループ単位でデータの一貫性を保ったDR操作を実現できる。
本発明の実施例を示し、計算機システムの一例を示すブロック図である。 本発明の実施例を示し、ホスト、ストレージ管理サーバと、VM管理サーバと、VM DR制御サーバの一例を示すブロック図である。 本発明の実施例を示し、ストレージの構成の一例を示すブロック図である。 本発明の実施例を示し、ホストのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージ管理サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、VM管理サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、VM DR制御サーバのメモリに格納されたプログラムやデータの一例を示すブロック図である。 本発明の実施例を示し、ストレージ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のリモートストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のリモートストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のボリュームテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のボリュームテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のコンシステンシグループペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のコンシステンシグループペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ1のボリュームペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ2のボリュームペアテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のストレージテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ1のグループマッピングテーブルの一例を示す図である。 本発明の実施例を示し、ストレージ管理サーバ2のグループマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のハイパバイザテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のハイパバイザテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVMテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVMテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のハイパバイザペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のハイパバイザペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のストレージ管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のストレージ管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ1のVM-ボリュームマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM管理サーバ2のVM-ボリュームマッピングテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバ1のアクセスポイントテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバ1のVM管理サーバテーブルの一例を示す図である。 本発明の実施例を示し、VM DR制御サーバのVMグループペアテーブルの一例を示す図である。 本発明の実施例を示し、VMグループを作成する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンを生成する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンのフェイルオーバを実行する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンの再保護を実行する処理の一例を示すシーケンス図である。 本発明の実施例を示し、レプリケーション構成の仮想マシンを削除する処理の一例を示すシーケンス図である。
 以下、本発明の一実施形態について添付図面を用いて説明する。
 図1は、本発明の実施例における計算機システムの構成を示すブロック図である。図1の計算機システムは、仮想マシン(以下、VM)のディザスタリカバリ(以下、DR)を制御するVM DR制御サーバ500と、仮想マシンを稼働させるホスト100A、100Bと、仮想マシンを制御するVM管理サーバ400A、400Bと、仮想マシンにボリュームを提供するストレージ200A、200Bと、ストレージ200A、200Bのボリュームを制御するストレージ管理サーバ300と、管理端末50から構成される。
 本実施例では、現用系(またはプライマリサイト)の装置の符号に「~A」を付与し、待機系(またはセカンダリサイト)の装置の符号に「~B」を付与する。現用系と待機系の装置に共通の事項については「A」、「B」のない符号を用いて説明する。
 ホスト100では、VM123と、複数のVM123を実行させるハイパバイザ122と、が稼働する。なお、VM123はサーバとして機能する。
 VM管理サーバ400は、ホスト100で稼働するハイパバイザ122と、VM123と、を管理する計算機である。現用系のVM管理サーバ400Aと待機系のVM管理サーバ400Bは互いに通信して、VM単位または複数のVM123を束ねたVMグループ190の単位でVM DR処理を実行することができる。また、VM管理サーバ400は、ストレージ管理サーバ300へストレージ管理の指示をすることできる。
 ストレージ200は、ホスト100のVM122に対して記憶領域として利用するボリューム280を提供する。複数のストレージ200のボリューム間でデータコピーペア構成を構築し、ボリュームまたは複数ボリュームのグループ単位でデータコピーを制御することができる。
 ストレージ200によっては、グループ内のボリューム間でデータの一貫性を保ちながら、ボリュームのグループ単位のレプリケーション操作を実行できることができる。このボリュームのグループをConsistency Group(以下、CTG)と呼ぶ。
 ストレージ管理サーバ300は、ストレージ200のリソース管理と、他方のストレージ管理サーバ300へのストレージストレージリソースの管理操作と、VM管理サーバ400からのストレージ管理の指示に応じた処理を実行する。
 VM DR制御サーバ500は、VM123の管理権限を有するVM管理者が利用する管理端末50の指示による、VM123のグループ単位でフェイルオーバ等のVM DR操作の処理を行う。VM DR制御サーバ500は、VM管理サーバ400に対し、VM DR処理の実行を指示することができる。
 ホスト100とストレージ200は、Storage Area Network(SAN)等のネットワーク800で相互に接続される。ホスト100とVM管理サーバ400、ストレージ200とストレージ管理サーバ300、VM管理サーバ400とストレージ管理サーバ300は、Local Area Network(LAN)等のネットワーク700を介して相互に通信可能である。
 VM DR制御サーバ500及び管理端末50とVM管理サーバ400間、VM管理サーバ400A、400B間、ホスト100A,100B間、ストレージ200A、200B間、ストレージ管理サーバ300A、300B間は、Wide Area Network(WAN)等のネットワーク600を介して相互に通信可能である。
 ホスト100は、ハイパバイザ122と、仮想マシン(Virtual Machine,VM)123と、を含む。VM123は、VMのフェイルオーバ単位となるVMグループ(図中VM Group)190に所属する。
 VMグループ190Aは、他の系のホスト100BのVMグループ190Bと、DRのためのペア関係191を有する。VMグループ190AのVM123Aは、ペアとなる他系のVMグループ190BのVM123BとDRのペア構成を構築する。
 例えば、図1の現用系のホスト100AのVMグループ1(図中VM Group1)は、待機系のホスト100BのVMグループ3(図中VM Group3)とペア関係191を有する。
 また、ホスト100AのVMグループ1(190A)内のVM1とVM2は、それぞれホスト100BのVMグループ3(190B)内のVM4とVM5とペア構成を構築する。VMグループ1からVMグループ3へのフェイルオーバ時に、ホスト100AのVM1とVM2が、それぞれホスト100BのVM4とVM5にフェイルオーバされる。
 ストレージ200は、ホスト100の各VM123に接続されるボリューム280を含む。ボリューム280は、ボリュームのフェイルオーバ単位となるCTG290に所属する。CTG290は、別のストレージ200のCTG290とペア関係291を有する。
 CTG290のボリューム280は、ペアとなる他系のCTG290のボリューム280とボリュームコピーのペア構成を構築する。例えば、図1の現用系のストレージ1(200A)のCTG1(290A)内のボリュームVOL1とVOL2は、それぞれ待機系のストレージ2(200B)のCTG1(290B)内のVOL4とVOL5とペア構成を構築する。
 ストレージ1(200A)のCTG1(290A)からストレージ2(200B)のCTG1(290B)へのフェイルオーバ時は、VOL1とVOL2が、それぞれVOL4とVOL5にフェイルオーバされる。
 図1の計算機システムでは、VMグループ190は、ストレージ200のCTG290と対応付けられる。VMグループ190内のVM123は、当該VMグループ190と対応付けられるCTG290内のボリューム280と接続される。例えば、図1では、現用系のVMグループ1(190A)は、CTG1(290A)内のボリューム280A(VOL1、VOL2)と接続される。
 VMグループ190Aのフェイルオーバが指示されると、ストレージ管理サーバ300では当該VMグループ190Aに対応するCTG280のペアに対するフェイルオーバが生成されて実行される。例えば、図1の現用系のホスト100AのVMグループ1を待機系のホスト100BのVMグループ3のペアに対するフェイルオーバが指示されると、待機系のVM管理サーバ400Bは、ストレージ管理サーバ300Bに対してボリュームフェイルオーバを生成する。ストレージ管理サーバ300Bは、グループマッピングテーブル323Bを参照してフェイルオーバ先のVMグループIDをCTG IDに変換する。そして、ストレージ管理サーバ300Bは、ストレージ2(200B)のコンシステンシグループペアテーブル224Bから変化したCTG IDのペアとなるリモートCTG IDを取得し、現用系のストレージ管理サーバ300AにリモートCTG IDのペアを分割する指令を送信することで、ボリュームのフェイルオーバを実施する。
 本実施例ではグループマッピングテーブル323でVMグループ190のIDとボリュームグループ(CTG)IDの対応関係を設定しておくことで、VMグループIDを容易にボリュームグループ(CTG)IDへ変換することができる。また、コンシステンシグループペアテーブル224には、ストレージ1(200A)とストレージ2(200B)のレプリケーションペアの情報が設定されており、レプリケーションペア間でCTG IDを双方向で変換することができる。
 このような、グループマッピングテーブル323によって、VMグループIDとCTG(ボリュームグループ)IDを双方向で変換することができるので、VMグループ190単位でVM間でのデータの一貫性を保ってフェイルオーバ等のDR操作を実施することが可能となる。
 図2は、ホスト100と、ストレージ管理サーバ300と、VM管理サーバ400と、VM DR制御サーバ500の構成の一例を示すブロック図である。これらの計算機は、プロセッサであるCPU(Central Processing Unit)110、310、410、510と、主記憶デバイスであるメモリ120、320、420、520と、不揮発性の二次記憶装置130、330、430、530と、入出力装置140、340、440、540と、ポート150、350、450、550を有する。これらの各構成要素は、バス160、360、460、560により相互に接続される。
 CPU110、310、410、510は、メモリ120、320、420、520に記憶されているプログラムを実行することによって、各計算機の所定の機能を実現する。メモリ120、320、420、520は、CPU110、310、410、510よって実行されるプログラム及びプログラムの実行に必要なデータを記憶する。プログラムは、二次記憶装置130、330、430、530からメモリ120、320、420、520にロードされる。
 入出力装置140、340、440、540は、ディスプレイ、ポインタ又はキーボード等のデバイスの一つ又は複数のデバイスを含む。ユーザは、入出力装置140、340、440、540により、各計算機を操作することができる。
 ポート150、350、450、550は、図1のネットワーク600、700、800に接続される。各計算機は、ポート150、350、450、550を介して、他の計算機やストレージ200と通信することができる。
 なお、管理端末50も上記図2と同様の計算機で構成することができる。
 図3は、ストレージ200の構成の一例を示すブロック図である。ストレージ200は、CPU210と、メモリ220と、記憶装置230と、ポート250と、キャッシュメモリ270を有する。これらの各構成要素は、バス260により相互に接続される。
 CPU210は、ストレージ制御のためのプログラムを実行することで、ホスト100からのI/Oの制御と、ストレージ200のボリューム280の管理及び制御を含む所定の機能を実現する。
 ポート250は、図1のネットワーク800に接続する。図1のホスト100は、ポート250を介して、ストレージ200と通信することができる。ストレージ200は、ポート250を介して、ホスト100からI/O要求及びライトデータを受信し、また、ホスト100にリードデータを送信する。
 図4Aは、ホスト100のメモリ120に格納されたプログラムやデータの一例を示すブロック図である。ホスト100のメモリ120は、Operating System(OS)121と、ハイパバイザ122と、複数の仮想マシン123のプログラム、を保持する。なお、OS121は、各仮想マシン123毎にロードされる。
 図4Bは、ストレージ200のメモリ220に格納されたプログラムやデータの一例を示すブロック図である。ストレージ200のメモリ220は、ストレージ制御プログラム229と、アクセスポイントテーブル221と、リモートストレージテーブル222と、ボリュームテーブル223と、コンシステンシグループペアテーブル(レプリケーションのペア情報)224と、ボリュームペアテーブル225、を保持する。
 ストレージ制御プログラム229は、ホスト100とボリューム280との間のI/O制御と、ボリューム280と、ボリューム280へ記憶領域を提供するプール(図示省略)等のストレージリソース管理を行う。なお、メモリ320が保持する各テーブルについては後述する。
 図4Cは、ストレージ管理サーバ300のメモリ320に格納されたプログラムやデータの一例を示すブロック図である。
 ストレージ管理サーバ300のメモリ320は、ストレージ管理プログラム329と、アクセスポイントテーブル321と、ストレージテーブル322と、グループマッピングテーブル323と、を保持する。
 ストレージ管理プログラム329は、複数のストレージ200のリソース管理と、VM管理プログラム429からのストレージ操作指示に対応する処理を行う。具体的には、VM DR操作パラメータからストレージ200のボリュームコピー操作パラメータへの変換や、VM DR操作手順をストレージ200でのボリュームコピー操作が可能な手順に変換して実行する処理を行う。メモリ320が保持する各テーブルについては後述する。
 図4Dは、VM管理サーバ400のメモリ420に格納されたプログラムやデータの一例を示すブロック図である。
 VM管理サーバ400のメモリ420は、VM管理プログラム429と、アクセスポイントテーブル421と、ハイパバイザテーブル422と、VMテーブル423と、ハイパバイザペアテーブル424と、VMグループペアテーブル425と、ストレージ管理サーバテーブル426と、VM‐ボリュームマッピングテーブル427、を保持する。
 VM管理プログラム429は、VM管理操作と、ストレージ管理プログラム329へのストレージ操作指示の処理を行う。メモリ420が保持する各テーブルについては後述する。
 図4Eは、VM DR制御サーバ500のメモリ520に格納されたプログラムやデータの一例を示すブロック図である。
 VM DR制御サーバ500のメモリ520は、VM DR制御プログラム529と、アクセスポイントテーブル521と、VM管理サーバテーブル522と、VMグループペアテーブル523、を保持する。
 VM DR制御プログラム529は、VM管理者が利用する管理端末50からのVM DRの操作要求を受け付け、VM管理プログラム429に対し、VM DRの操作要求を転送する処理を行う。メモリ520が保持する各テーブルについては後述する。
 図5A~図5Jは、ストレージ200A、200Bのメモリ220が保持するテーブルの構成の一例を示す図である。
 図5A、図5Bは、アクセスポイントテーブル221の一例を示す図である。アクセスポイントテーブル221A、221Bは、ストレージ200のストレージIDを保持するストレージID欄2211と、ストレージ200へのアクセスポイントとなるIPアドレスを保持するIPアドレス欄2212と、を有する。
 アクセスポイントテーブル221は、管理者等が使用する管理端末50などから予め設定された情報である。
 図5C、図5Dは、リモートストレージテーブル222の一例を示す図である。リモートストレージテーブル222A、222Bは、ボリュームのコピーペア構成を構築可能なストレージのストレージIDを保持するリモートストレージID欄2221と、ボリュームコピーのデータパスのIDを保持するリモートパスID2222と、を有する。
 図5E、図5Fは、ボリュームテーブル223の一例を示す図である。ボリュームテーブル223A、223Bは、ストレージ200のボリュームのIDを保持するボリュームID2231と、ボリューム280の容量の値を保持する容量欄2232と、ボリューム280が登録されているCTG290のIDを保持するCTG ID欄2233と、を保持する。本実施例では、ボリュームのIDは、<ストレージID>.<ストレージ内で一意のID>のフォーマットとしている。
 ボリュームテーブル223は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。ボリュームテーブル223によって、ボリューム280とCTG290の対応関係が定義される。
 図5G、図5Hは、コンシステンシグループペアテーブル224の一例を示す図である。コンシステンシグループペアテーブル224A、224Bは、ストレージ200のCTG290のIDを保持するCTG ID欄2241と、CTG ID欄2241のCTGがプライマリ(データコピー元)かセカンダリ(データコピー先)のいずれであるかを示す情報を保持するPrimary/Secondary欄2242と、CTG ID欄2241のCTGとペアとなるCTGがあるストレージのIDを保持するリモートストレージID欄2243と、CTG ID欄2241のCTGとペアとなるCTGのIDを保持するリモートCTG ID欄2244と、を有する。
 Primary/Secondary欄2242には、CTGがプライマリであれば”Primary”、セカンダリであれば”Secondary”の文字列が登録される。
 コンシステンシグループペアテーブル224は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。コンシステンシグループペアテーブル224によって、他の系でペアとなるCTG290とストレージ200の対応関係が定義される。
 図5I、図5Jは、ボリュームペアテーブル225の一例を示す図である。ボリュームペアテーブル225A、225bは、ストレージ200のボリュームのIDを保持するボリュームID欄2251と、ボリュームID欄2251のボリュームがプライマリボリューム(コピー元ボリューム)かセカンダリボリューム(コピー先ボリューム)かを示す情報を保持するPVOL/SVOL欄2252と、ボリュームID欄2251のボリュームとペアとなるボリュームのIDを保持するリモートボリュームID欄2253と、ペアとなるボリューム間のデータコピー状態を示す情報を保持するペア状態欄2254と、を有する。
 PVOL/SVOL欄2252には、ボリュームがプライマリボリュームであれば”PVOL”、セカンダリボリュームであれば”SVOL”の文字列が登録される。また、ペア状態欄2254には、ペアとなるボリューム間でデータコピー中であれば”COPY”、コピー完了状態であれば”SYNC”、コピー停止状態であれば”SUSPEND”の文字列が登録される。
 ボリュームペアテーブル225は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。ボリュームペアテーブル225によって、他の系でペアとなるCTG290とストレージ200の対応関係が定義される。
 図6A~図6Fは、ストレージ管理サーバ300A、300Bのメモリ320が保持するテーブルの構成の一例を示す図である。
 図6A、図6Bは、アクセスポイントテーブル321の一例を示す図である。アクセスポイントテーブル321A、321Bは、ストレージ管理サーバ300のストレージ管理プログラム329のIDを保持するストレージ管理プログラムID欄3211と、VM管理サーバ400とストレージ管理サーバ300とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する外部IPアドレス欄3212と、ストレージ管理サーバ300とストレージ200とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄3213と、を有する。
 アクセスポイントテーブル321は、管理者等が使用する管理端末50などから予め設定された情報である。
 図6C、図6Dは、ストレージテーブル322の一例を示す図である。ストレージテーブル322A、322Bは、ストレージ管理プログラム329が管理するストレージのIDを保持するストレージID欄3221と、ストレージID欄3221のストレージ200のIPアドレスを保持するIPアドレス欄3222と、を有する。
 ストレージテーブル322は、管理者等が使用する管理端末50などから予め設定された情報である。
 図6E、図6Fは、グループマッピングテーブル323の一例を示す図である。グループマッピングテーブル323A、323Bは、ストレージ管理プログラム329が管理するストレージ200と接続するホスト100のハイパバイザのIDを保持するハイパバイザID欄3231と、ハイパバイザID欄3231のハイパバイザ上で稼働するVMのグループのIDを示すVMグループID欄3232と、前記ストレージ200のIDを保持するストレージID欄3233と、VMグループID欄3232のVMグループ190に対応付けられたCTGのIDを保持するCTG ID欄3234と、を保持する。
 グループマッピングテーブル323は、管理者等が使用する管理端末50などから設定され、また、ストレージ管理サーバ300によって更新される情報である。グループマッピングテーブル323によって、ハイパバイザ122上のVMグループ190と、ストレージ200のCTG290の対応関係が定義される。
 図7A~図7Hと図8A~図8Fは、VM管理サーバ400A、400Bのメモリ420が保持するテーブルの構成例である。
 図7A、図7Bは、アクセスポイントテーブル421の一例を示す図である。アクセスポイントテーブル421A、421Bは、VM管理サーバ400のVM管理プログラム429のIDを保持するVM管理プログラムID欄4211と、VM DR制御サーバ500とVM管理サーバ400とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する外部IPアドレス欄4212と、VM管理サーバ400とストレージ管理サーバ300とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄4213と、を有する。
 アクセスポイントテーブル421は、管理者等が使用する管理端末50などから予め設定された情報である。
 図7C、図7Dは、ハイパバイザテーブル422の一例を示す図である。ハイパバイザテーブル422A、422Bは、VM管理プログラム429が管理するホストのIDを保持するホストID欄4221と、ホストID欄4221のホストで稼働するハイパバイザのIDを保持するハイパバイザIDと、ホストID欄4221のホストのIPアドレスを保持するIPアドレス欄4223と、を有する。
 ハイパバイザテーブル422は、管理者等が使用する管理端末50などから予め設定された情報である。
 図7E、図7Fは、VMテーブル423の一例を示す図である。VMテーブル423A、423Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4231と、ハイパバイザID欄4231のハイパバイザで稼働するVMのIDを保持するVM ID欄4232と、VM ID欄4232のVMの状態を示す情報を保持する状態欄4233と、VM ID欄4232のVMが登録されているVMグループ190のIDを保持するVMグループID欄4234と、を有する。状態欄4233には、VMが起動していれば”POWER-ON”、停止していれば”POWER-OFF”の文字列が登録される。
 VMテーブル423は、管理者等が使用する管理端末50などから予め設定され、また、VM管理サーバ400によって更新される情報である。VMテーブル423を参照することによって、VM123が所属するVMグループ190と、VM123の状態を取得することができる。
 図7G、図7Hは、ハイパバイザペアテーブル424の一例を示す図である。ハイパバイザペアテーブル424A、424Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4241と、ハイパバイザID欄4241のハイパバイザとDR運用可能なハイパバイザのIDを保持するリモートハイパバイザID欄4242と、を有する。
 ハイパバイザペアテーブル424は、管理者等が使用する管理端末50などから予め設定された情報である。ハイパバイザペアテーブル424によって、他の系でペアを組むハイパバイザ122が定義される。
 図8A、図8Bは、VM管理サーバ400のVMグループペアテーブル425の一例を示す図である。
 VMグループペアテーブル425A、425Bは、VM管理プログラム429が管理するホスト100で稼働するVM123のグループのIDを保持するVMグループID欄4251と、VMグループID欄4251のVMグループ190がソース(VMデータコピー元)かターゲット(VMデータコピー先、フェイルオーバ先)のいずれかを示す情報を保持するSource/Target欄4252と、VMグループID欄4251のVMグループとペアになるVMグループのVMが稼働するハイパバイザのIDを保持するリモートハイパバイザID欄4253と、VMグループID欄4251のVMグループとペアになるVMグループのIDを保持するリモートVMグループID欄4254と、を有する。
 Source/Target欄4252には、VMグループがソースであれば”SOURCE”、ターゲットであれば”Target”の文字列が登録される。
 VMグループペアテーブル425は、管理者等が使用する管理端末50などから設定され、また、VM管理サーバ400によって更新される情報である。VMグループペアテーブル425によって、移動元のVMグループ190Aと移動先のVMグループ190Bのペアが定義される。
 図8C、図8Dは、ストレージ管理サーバテーブル426の一例を示す図である。ストレージ管理サーバテーブル426A、426Bは、VM管理サーバ400と通信するストレージ管理サーバ300のストレージ管理プログラムのIDを保持するストレージ管理プログラムID欄4261と、前記ストレージ管理サーバ300のIPアドレスを保持するIPアドレス欄4262と、を有する。
 ストレージ管理サーバテーブル426は、管理者等が使用する管理端末50などから予め設定される情報である。
 図8E、図8Fは、VM-ボリュームマッピングテーブル427の一例を示す図である。VM‐ボリュームマッピングテーブル427A、427Bは、VM管理プログラム429が管理するホストで稼働するハイパバイザのIDを保持するハイパバイザID欄4271と、ハイパバイザID欄4271のハイパバイザで稼働するVMのIDを保持するVM ID欄4272と、VM ID欄4272のVMが接続するストレージ管理サーバ300のボリュームのIDを保持するボリュームID欄4273と、を有する。
 VM-ボリュームマッピングテーブル427は、管理者等が使用する管理端末50などから予め設定される情報である。VM-ボリュームマッピングテーブル427によって、VM123に割り当てられたボリューム280のIDが定義される。
 図9A~図9Cは、VM DR制御サーバ500のメモリ520が保持するテーブルの構成例である。
 図9Aは、アクセスポイントテーブル521の一例を示す図である。アクセスポイントテーブル521は、VM管理者が利用する管理端末50からVM DR制御サーバ500へアクセスするためのIPアドレスを保持する外部IPアドレス欄5211と、VM DR制御サーバ500とVM管理サーバ400とが相互に通信するためのアクセスポイントとなるIPアドレスを保持する内部IPアドレス欄5212と、を有する。
 アクセスポイントテーブル521は、管理者等が使用する管理端末50などから予め設定される情報である。
 図9Bは、VM管理サーバテーブル522の一例を示す図である。VM管理サーバテーブル522は、VM DR制御プログラム529が管理するVM管理プログラム429のIDを保持するVM管理プログラムID欄5221と、VM管理プログラムID欄5221のVM管理プログラム429が稼働するVM管理サーバ400のIPアドレスを保持するIPアドレス欄5222と、を有する。
 VM管理サーバテーブル522は、管理者等が使用する管理端末50などから予め設定される情報である。
 図9Cは、VMグループペアテーブル523の一例を示す図である。VMグループペアテーブル523は、ソースとなるVMグループのIDを管理するSource VMグループID欄5231と、Source VMグループID欄5231のVMグループを管理するVM管理プログラムのIDを保持するSource VM管理プログラムID欄5232と、ターゲットとなるVMグループのIDを管理するTarget VMグループID欄5233と、Target VMグループID欄5231のVMグループを管理するVM管理プログラムのIDを保持するTarget VM管理プログラムID欄5234と、を有する。
 VM管理サーバテーブル522は、管理者等が使用する管理端末50などから設定され、また、VM DR制御プログラム529によって更新される情報である。VM管理サーバテーブル522によって、DRを行う際の移動元のVMグループ190Aと、移動先のVMグループ190Bの関係が定義される。
 <処理の説明>
 図10Aから図13では、本実施例の計算機システムにおけるVM管理操作の処理の一例を示す。
 図10Aから図13において、図1に示したVM DR制御サーバ500ではVM DR制御プログラム529が稼働する。図1のVM管理サーバ1(200A)ではVM管理プログラム429が稼働し、図1のVM管理サーバ2(200B)ではVM管理プログラム429が稼働する。図1のストレージ管理サーバ1(300A)ではストレージ管理プログラム329が稼働し、ストレージ管理サーバ2(300B)ではストレージ管理プログラム329が稼働する。
 図10Aは、VMグループ190を生成する処理の一例を示すシーケンス図である。まず、ステップS001において、ストレージ管理者が利用する管理端末50は、ストレージ管理サーバ1(300A)のストレージ管理プログラム329へ、VMグループ190の生成を指示する。このとき、ストレージ管理者が利用する管理端末50は、各Source/TargetのハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDを指定する。
 次に、ステップS002において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理者の管理端末50から受信した指示内容を解析する。そして、ストレージ管理プログラム329は、各Source/TargetのハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDが入力されていることを確認する。
 次に、ステップS003において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS001でストレージ管理者の管理端末50より入力されたストレージID、CTG IDに基づいてストレージ1(200A)のコンシステンシグループペアテーブル224Aを更新する。
 次に、ステップS004において、現用系のストレージ管理サーバ300のストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたストレージIDと、CTG IDに基づくコンシステンシグループペアテーブル224Bの更新を指示する。
 次に、ステップS005において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS004でストレージ管理プログラム329より指定されたストレージIDと、CTG IDに基づきコンシステンシグループペアテーブル224Bを更新する。
 次に、ステップS006において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329へ、コンシステンシグループペアテーブルの更新処理完了通知を送信する。
 次に、ステップS007において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、VM管理サーバ400AのVM管理プログラム429へ、ステップS001でストレージ管理者の管理端末50より入力されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Aの更新を指示する。
 次に、ステップS008において、現用系のVM管理サーバ400AのVM管理プログラム429は、ステップS007でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づきVMグループペアテーブル425Aを更新する。
 次に、ステップS009において、VM管理サーバ400AのVM管理プログラム429は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、VMグループペアテーブルの更新処理完了通知を送信する。
 次に、ステップS010において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Bの更新を指示する。
 次に、ステップS011において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ステップS010でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づくVMグループペアテーブル425Bの更新を指示する。
 次に、ステップS012において、VM管理サーバ400BのVM管理プログラム429は、ステップS011でストレージ管理プログラム329より指定されたVMグループ名と、ハイパバイザIDに基づきVMグループペアテーブル425Bを更新する。
 次に、ステップS013において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理プログラム329へ、VMグループペアテーブル更新処理完了通知を送信する。
 次に、ステップS014において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、VMグループペアテーブルの更新処理完了通知を送信する。
 次に、ステップS015において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS001でストレージ管理者の管理端末より入力されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づきグループマッピングテーブル323Aを更新する。
 次に、ステップS016において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS001でストレージ管理者の管理端末50より入力されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づくグループマッピングテーブル323Bの更新を指示する。
 次に、ステップS017において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS016でストレージ管理プログラム329より指定されたハイパバイザIDと、VMグループ名と、ストレージIDと、CTG IDに基づきグループマッピングテーブル323Bを更新する。
 次に、ステップS018において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、グループマッピングテーブルの更新完了通知を送信する。
 次に、ステップS019において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理者の管理端末50へVMグループの生成完了通知を送信する。
 上記の処理によって、現用系のストレージ管理サーバ300Aと待機系のストレージ管理サーバ300Bは、コンシステンシグループペアテーブル224A、224Bを更新し、VM管理サーバ400A、400BがVMグループペアテーブル425A、425Bを更新し、ストレージ管理サーバ300A、300Bがグループマッピングテーブル323A、323Bを更新する。これらの更新の結果、VMグループ190A、190Bが現用系と待機系にそれぞれ生成される。
 なお、VM DR制御サーバ500のVMグループペアテーブル523は、VM DR制御プログラム529により、所定のタイミングで更新される。VM DR制御プログラム529が定期的にVM管理サーバ400A、400BのVM管理プログラム429とそれぞれ通信し、VMグループ190の情報を取得してVMグループペアテーブル523を更新してもよい。また、VM DR制御プログラム529が、VMグループペアテーブル523を参照するタイミングでVM管理サーバ400A、400BのVM管理プログラム429とそれぞれ通信し、VMグループ190の情報を取得してVMグループペアテーブル523を更新してもよい。
 図10Bは、レプリケーション構成のVM123を生成する処理の一例を示すシーケンス図である。
 まず、ステップS101において、VM管理者は、現用系のVM管理サーバ400AのVM管理プログラム429へ、管理端末50を介してレプリケーション構成のVM123の生成を指示する。このとき、VM管理者は管理端末50で、生成対象のVM123のディスク容量と、生成対象のVM123を登録するVMグループIDを指定する。
 次に、ステップS102において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50から受信した指示の内容を解析する。VM管理サーバ400AのVM管理プログラム429は、VMグループペアテーブル425AのVMグループID欄4251に指定された情報が含まれること、対応するペア状態欄4252が”SOURCE”、つまり当該VMグループ190がコピー元であることを確認する。
 次に、ステップS103において、VM管理サーバ400AのVM管理プログラム492Aは、ストレージ管理プログラム329へ、生成対象VMのディスク用のボリューム生成を指示する。このとき、VM管理サーバ400AのVM管理プログラム429は、ボリューム容量と、VM管理者の管理端末50より指定されたVMグループIDと、を指定する。
 上記ステップS103では、VM管理サーバ400AがVMグループ190に対する操作(VMの作成)を、ボリュームグループの操作(ボリュームグループの作成)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作を受け付けて、ボリュームグループのフェイルオーバに変換してもよい。
 なお、操作の変換は、予め設定したテーブルやルールに従って変換を行う。本実施例では、上記操作の変換は、VMグループ190に対する作成(追加)やフェイルオーバや移動等の操作を、ボリュームグループ(CTG290)に対する作成(追加)やフェイルオーバや移動等の操作へ変換するものとする。
 次に、ステップS104において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、グループマッピングテーブル323AのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。
 これにより、ストレージ管理サーバ300Aは、ホスト100AのVMグループ190AのIDに対してCTG(ボリュームグループ)290AのIDを対応付けることが可能となる。
 次に、ステップS105において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、指定された容量のボリューム280Aの生成を指示する。当該処理の完了後、ストレージ1(200A)のストレージ制御プログラム229は、ボリュームテーブル223AのボリュームID欄2231と容量(GB)欄2232に当該ボリュームの情報を追加する。
 次に、ステップS106において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ステップS105で生成したボリュームを、ステップS104でVMグループIDから変換したCTG IDを有するCTG290Aへ登録する処理を指示する。
 当該処理の終了後、ストレージ1(200A)のストレージ制御プログラム229は、ステップS105でボリュームテーブル223へ追加した行のCTG ID欄2233に当該ボリュームを登録するCTG IDを追加する。
 次に、ステップS107において、ストレージ管理サーバ300Aのストレージ管理プログラム392Aは、ストレージ1(200A)へ、上記生成したボリューム280AのLUパスの生成を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS105で生成したボリューム280AのボリュームIDと、ホスト100Aが接続されたポート250のポートIDを指定する。
 上記LUパスは、例えば、Conglomerate LU Structureで定義されているALU(Administrative Logical Unit)とSLU(Subsidiary Logical Unit)を用いて生成することができる。この場合、予め設定した代表的なボリュームをALUとし、ボリューム280をSLUとしてマッピングすることができる。なお、ボリューム280は仮想ボリュームであってもよい。
 次に、ステップS108において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS106でボリューム280Aを登録したCTG290AのCTG IDを、ペアとなる待機系のストレージ2(200B)のCTG290BのCTG IDに変換する。この処理は、ストレージ管理サーバ300Aがストレージ1(200A)のコンシステンシグループペアテーブル224AからリモートストレージID欄2243と、リモートCTG ID2244を取得して、ペアのCTG IDとする。
 そして、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ステップS106でボリューム280Aを登録したCTG290AのCTG IDとともに、ペアとなるCTG290BのCTG ID取得要求を送信する。ストレージ1(200A)は、コンシステンシグループペアテーブル224AのCTG ID欄2241と、リモートストレージID欄2243と、リモートCTG ID2244欄の情報より、ストレージ管理プログラム329から受信したCTG IDを有するCTG290BとペアとなるCTG290AのCTG IDを取得し、ストレージ管理プログラム329へ応答する。
 次に、ステップS109において、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329は、待機系のストレージ管理サーバ300Bで稼働するストレージ管理プログラム329へ、ステップS105で生成したボリューム280Aと同容量のボリューム280Bを生成する処理を指示する。このとき、現用系のストレージ管理プログラム329は、ボリューム容量と、ステップS108でストレージ1(200A)より取得したCTG IDを指定する。
 次に、ステップS110において、待機系のストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、指定された容量のボリューム280Bの生成処理を指示する。当該処理の完了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ボリュームテーブル223BのボリュームID欄2231と容量(GB)欄2232に当該ボリューム280Bの情報を追加する。
 次に、ステップS111において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ステップS110で生成したボリューム280Bを、ステップS109で指定されたCTG IDを有するCTG290Bへ登録する処理を指示する。
 当該処理の終了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS112でボリュームテーブル223Bへ追加した行のCTG ID欄2233に当該ボリューム280Bを登録するCTG IDを追加する。
 次に、ステップS112において、ストレージ管理サーバ300Bのストレージ管理プログラム392Bは、ストレージ2(200B)へ、生成したボリューム280BのLUパスの生成を指示する。このとき、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS105で生成したボリューム280BのボリュームIDと、ホスト100Bが接続されたポート250のポートIDを指定する。なお、LUパスの生成は、現用系と同様であり、上記Conglomerate LU StructureのALUとSLUを用いることができる。
 次に、ステップS113において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ステップS112で生成したボリューム280BのボリュームIDと、ボリュームマッピング情報の更新要求を送信する。
 VM管理サーバ400BのVM管理プログラム429は、VMテーブル423BのハイパバイザID欄4231にハイパバイザIDと、VM ID欄4232に新規VM IDと、状態欄4233に”POWER-OFF”と、VMグループID欄4234にVMグループIDを追加する。また、VM管理サーバ400BのVM管理プログラム429は、ボリュームマッピングテーブル427BのハイパバイザID欄4271にハイパバイザIDと、VM ID欄4272に新規VM IDと、ボリュームID4273にストレージ管理プログラム329から受信したボリュームID情報を追加する。
 次に、ステップS114において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームマッピング情報の更新完了通知を送信する。
 次に、ステップS115において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム生成処理の完了通知と、生成したボリューム280BのボリュームIDを送信する。
 次に、ステップS116において、現用系のストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの生成を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS105で生成したボリューム280AのボリュームIDと、ステップS110で生成したボリューム280BのボリュームIDと、を指定する。
 ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Aのストレージ管理プログラム239Aが指定したボリュームIDを有するボリューム間でのペア生成処理を実行する。
 ペア生成処理の開始後、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームペアテーブル255AのボリュームID欄2251と、PVOL/SVOL欄2252と、リモートボリュームID欄2253と、ペア状態欄2254に情報を追加する。ペア生成処理の開始直後は、ボリュームペアテーブル255Aのペア状態欄2254は”COPY”が追加される。
 ペア生成処理が完了し、ペアボリューム間でデータが同期状態となったら、ストレージ1(200A)のストレージ制御プログラム229は、ボリュームペアテーブル225Aのペア状態欄を”SYNC”に変更する。
 次に、ステップS117において、ストレージ管理サーバ300Aのストレージ管理プログラム239Aは、VM管理サーバ400AのVM管理プログラム429へ、ボリューム生成処理の完了通知と、生成したボリューム280AのボリュームIDを送信する。
 VM管理サーバ400AのVM管理プログラム429は、VMテーブル423AのハイパバイザID欄4231にハイパバイザIDと、VM ID欄4232に新規VM IDと、状態欄4233に”POWER-ON”と、VMグループID欄4234にVMグループIDを追加する。また、VM管理サーバ400AのVM管理プログラム429は、ボリュームマッピングテーブル427AのハイパバイザID欄4271にハイパバイザIDと、VM ID欄4272に新規VM IDと、ボリュームID4273にストレージ管理プログラム329から受信したボリュームID情報を追加する。
 次に、ステップS118において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50へVM生成処理の完了通知を送信する。
 上記処理によりレプリケーション構成の新たなVM123が生成され、このVM123に新たなボリューム280が割り当てられ、指定されたVMグループ190のペアと、割り当てられたボリューム280のCTG290のペアが現用系と待機系に設定される。
 図11は、レプリケーション構成のVM123のフェイルオーバ処理の一例を示すシーケンス図である。このフェイルオーバは、メンテナンスなどのために、管理者が計画的に実行する例を示す。
 まず、ステップS201において、VM管理者は、VM DR制御サーバ500のVM DR制御プログラム529へ、管理端末50を介してレプリケーション構成のVM123Aのフェイルオーバを指示する。このとき、VM管理者は、フェイルオーバ対象となるターゲットのVMグループ190AのVMグループIDを指定する。
 次に、ステップS202において、VM DR制御プログラム529は、VM管理者の管理端末50から受信した指示の内容を解析する。VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233に指定された情報が含まれることを確認する。また、VM DR制御プログラム529は、前記確認したTarget VMグループID欄5233と同じ行のTarget VM管理プログラムID欄5234より、ターゲット(フェイルオーバ先)となるVM管理サーバ400BのVM管理プログラムIDを取得する。
 次に、ステップS203において、VM DR制御プログラム529は、ステップS202で取得したVM管理プログラムIDを有するVM管理サーバ400BのVM管理プログラム429へ、VMグループ190Bへのフェイルオーバを指示する。このとき、VM DR制御プログラム529は、ターゲットのVMグループ190BのVMグループID(例えば、VM Group3:VMGRP3)を指定する。
 次に、ステップS204において、VMグループ190Bへのフェイルオーバの指示を受け付けたVM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251と、リモートVMグループID欄4254を参照し、指定されたフェイルオーバ先のVMグループIDを、フェイルオーバ元となる対応するリモートのVMグループIDへ変換する。本実施例の場合、VM管理サーバ400Bは、VMグループ3が指定されているので、「VMGRP3」をリモートVMグループID4254の「VMGRP1」(VM Group1)に変換する。
 次に、ステップS205において、VM管理サーバ400BのVM管理プログラム429は、現用系のVM管理サーバ400AのVM管理プログラム429へ、VMグループ190単位でVM123の停止を指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ステップS204で変換したVMグループID(フェイルオーバ元のVM Group1)を指定する。
 次に、ステップS206において、現用系のVM管理サーバ400AのVM管理プログラム429は、VMテーブル423のVM ID欄4232と、VMグループID4232を参照し、ステップS205で指定されたVMグループIDを有するVMグループに所属するVM123のVM IDを特定する。そして、VM管理サーバ400AのVM管理プログラム429は、ハイパバイザ122Aへ、特定したVM IDを有するVM(この例では、VM1、VM2)の停止要求を送信する。
 ハイパバイザ122Aは、停止要求のあったVM123を停止させ、VM停止処理完了をVM管理サーバ400AのVM管理プログラム429へ応答する。VM管理プログラム429は、VMテーブル423の状態欄4233のうち、停止したVMに関する項目を”POWER-OFF”に変更する。
 次に、ステップS207において、VM管理サーバ400AのVM管理プログラム429は、待機系のVM管理サーバ400BのVM管理プログラム429へ、VMグループ190単位のVM123の停止の完了通知を送信する。
 次に、ステップS208において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームフェイルオーバを指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ターゲットのVMグループID(本実施例ではVM Group3=「VMGRP3」)を指定する。
 上記ステップS208では、VM管理サーバ400AがVMグループ190に対する操作(VMのフェイルオーバ)を、ボリュームグループの操作(ボリュームグループのフェイルオーバ)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(フェイルオーバ)を受け付けて、ボリュームグループの操作(フェイルオーバ)に変換してもよい。なお、操作の変換は、予め設定したテーブルやルールに従って変換を行う。
 本実施例では、上記操作の変換は、VMグループ190に対する作成、削除、フェイルオーバや移動等の操作を、ボリュームグループ(CTG290)に対する作成、削除、フェイルオーバや移動等の操作へ変換するものとする。
 次に、ステップS209において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、グループマッピングテーブル323BのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。すなわち、ストレージ管理サーバ300Bは。VMグループ190に対する操作のパラメータ「VMGRP3」を、ボリュームグループ(CTG)に対する操作のパラメータ「CTG1」に変換する。
 次に、ステップS210において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS209で取得したCTG IDを、ペアとなるストレージ1(200A)のCTG290AのCTG IDに変換する。
 ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ステップS209で取得したCTG IDとともに、ペアCTGのCTG ID取得要求を送信する。ストレージ2(200B)は、コンシステンシグループペアテーブル224のCTG ID欄2241と、リモートストレージID欄2243と、リモートCTG ID2244欄の情報より、ストレージ管理プログラム329から受信したCTG IDを有するCTGとペアとなるCTGのCTG IDを取得し、ストレージ管理サーバ300Bのストレージ管理プログラム329へ応答する。本実施例では、ストレージ管理サーバ300Bがストレージ2(200B)のCTG1のペアとして、ストレージ1(200A)のCTG1を取得する。
 次に、ステップS211において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリュームペア分割を指示する。このとき、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ステップS210で取得したCTG IDを指定する。
 次に、ステップS212において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの分割を指示する。
 このとき、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ステップS211でストレージ管理サーバ300Bのストレージ管理プログラム329より受信したCTG IDを指定する。
 ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理プログラム239Aが指定したCTG IDを有するCTG単位でのペア分割処理を実行する。
 ペア分割処理が完了した後、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームテーブル223AのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリュームのボリュームIDを特定する。そして、ストレージ1(200A)のストレージ制御プログラム299は、ボリュームペアテーブル225AのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のペア状態欄2254の情報を”SUSPEND”に変更する。
 次に、ステップS213において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、フェイルオーバ先のストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリュームペアの分割処理の完了通知を送信する。
 次に、ステップS214において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ボリュームフェイルオーバ処理の完了通知を送信する。
 次に、ステップS215において、VM管理サーバ400BのVM管理プログラム429は、VMテーブル423BのVM ID欄4232と、VMグループID4232を参照し、VM DR制御サーバ500から指定されたVMグループIDを有するVMグループに所属するVM123のVM IDを特定する。
 そして、VM管理サーバ400BのVM管理プログラム429は、ハイパバイザ122Bへ、特定したVM IDを有するVM123の起動要求を送信する。ハイパバイザ122Bは、起動要求を受け付けたVM123を起動し、VM起動処理の完了をVM管理プログラム429へ応答する。VM管理サーバ400BのVM管理プログラム429は、VMテーブル423Bの状態欄4233のうち、起動したVM123に関する項目を”POWER-ON”に変更する。
 次に、ステップS216において、VM管理サーバ400BのVM管理プログラム429は、VM DR制御プログラム529へ、VMグループ190単位のフェイルオーバ処理の完了通知を送信する。
 次に、ステップS217において、VM DR制御プログラム529は、VM管理者の管理端末50へ、VMグループ190のフェイルオーバの完了通知を送信する。
 以上の処理により、ホスト100AのVMグループ1がホスト100BのVMグループ3へフェイルオーバし、VMグループ1に対応するストレージ1(200A)のCTG1が、ストレージ2(200B)のCTG1へフェイルオーバすることができる。
 これにより、VM123のDRとストレージ200のDRの構成変更を連動させることができるので、VM123のディスクとストレージ200のボリューム280が一対一となる計算機システムにおいて、VM123のグループ(190)単位でデータの一貫性を保ったDR操作を実現できる。
 図12は、レプリケーション構成のVM123の再保護処理の一例を示すシーケンス図である。この処理は、図11のフェイルオーバが完了したときなどに実施される。
 まず、ステップS301において、VM管理者は、VM DR制御サーバ500のVM DR制御プログラム529へ、管理端末50を介してレプリケーション構成のVM再保護を指示する。このとき、VM管理者の管理端末50は、再保護対象となるターゲットのVMグループ190のVM Group IDを指定する。以下の例では、図11でフェイルオーバが完了したVM Group3を再保護する例を示す。
 次に、ステップS302において、VM DR制御サーバ500のVM DR制御プログラム529は、VM管理者の管理端末50から受信した指示内容を解析する。VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233に指定された情報が含まれることを確認する。また、VM DR制御プログラム529は、前記確認したTarget VMグループID欄5233と同じ行のTarget VM管理プログラムID欄5234から、ターゲットとなるVM管理プログラム429のVM管理プログラムIDを取得する。
 次に、ステップS203において、VM DR制御プログラム529は、ステップS302で取得したVM管理プログラムIDを有するVM管理プログラム(ここではVM管理サーバ400BのVM管理プログラム429)へ、VMグループ190Bの再保護を指示する。このとき、VM DR制御プログラム529は、ターゲットのVMグループ190のVMグループIDを指定する。本実施例ではVMグループ3を指定した場合を示す。
 次に、ステップS304において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリューム再保護を指示する。このとき、VM管理サーバ400BのVM管理プログラム429は、ターゲットのVMグループIDを指定する。
 上記ステップS304では、VM管理サーバ400BがVMグループ190に対する操作(VMの再保護)を、ボリュームグループの操作(ボリュームグループの再保護)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(再保護)を受け付けて、ボリュームグループの操作(再保護)に変換してもよい。
 次に、ステップS305において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、グループマッピングテーブル323BのVMグループID欄3232とCTG ID欄3234を参照し、指定されたVMグループIDを、対応するCTG IDへ変換する。本実施例ではVMグループ3からCTG1が得られる。
 次に、ステップS306において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリュームペアスワップを指示する。このとき、ストレージ管理プログラム329は、ステップS305で取得したCTG IDを指定する。
 ストレージ2(200B)のストレージ制御プログラム229は、ストレージ1(200A)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Bのストレージ管理プログラム239が指定したCTG IDを有するCTG単位でのボリュームペアスワップ処理を実行する。
 ボリュームペアスワップ処理の完了後、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームテーブル223BのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリューム280BのボリュームIDを特定する。
 そして、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームペアテーブル225BのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のPVOL/SVOL欄の情報を”PVOL”から”SVOL”へ、または”SVOL”から”PVOL”に、ペア状態欄2254の情報を”SUSPEND”へ変更する。
 さらに、ストレージ2(200B)のストレージ制御プログラム299は、コンシステンシグループペアテーブル224BのCTG ID欄2241を参照し、当該欄の情報が指定されたCTG IDと一致する行のPrimary/Secondary欄の情報を”Primary”から”Secondary”へ、または”Secondary”から”Primary”へ変更する。
 次に、ステップS307において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリュームペア再同期を指示する。このとき、ストレージ管理プログラム329は、ステップS305で取得したCTG IDを指定する。
 ストレージ2(200B)のストレージ制御プログラム229は、ストレージ1(200A)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Bのストレージ管理プログラム239が指定したCTG IDを有するCTG単位でのボリュームペアの再同期処理を実行する。
 ボリュームペアの再同期処理完了後、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームテーブル223BのボリュームID欄2231とCTG ID欄2233の情報から、指定されたCTG IDを有するCTGに登録されたボリューム280BのボリュームIDを特定する。
 そして、ストレージ2(200B)のストレージ制御プログラム299は、ボリュームペアテーブル225BのボリュームID欄2251を参照し、当該欄の情報が特定したボリュームIDと一致する行のペア状態欄2254の情報を”SYNC”へ変更する。
 次に、ステップS308おいて、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、ボリューム再保護処理の完了通知を送信する。また、VM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251から、指定されたVMグループIDに一致する行のSource/Target欄4252を”SOURCE”に変更する。
 次に、ステップS309において、VM管理サーバ400BのVM管理プログラム429は、VMグループペアテーブル425BのVMグループID欄4251と、リモートVMグループID欄4254を参照し、指定されたVMグループIDを、対応するリモートのVMグループIDへ変換する。
 次に、ステップS310において、VM管理サーバ400BのVM管理プログラム429は、VM管理サーバ400AのVM管理プログラム429へ、ステップS309で取得したVMグループIDと、VMグループペアテーブル更新要求を送信する。
 VM管理サーバ400AのVM管理プログラム429は、VMグループペアテーブル425AのVMグループID欄4251から、指定されたVMグループIDに一致する行のSource/Target欄4252を”TARGET”に変更する。
 次に、ステップS311において、VM管理サーバ400AのVM管理プログラム429は、VM管理サーバ400BのVM管理プログラム429へ、VMグループペアテーブル更新処理の完了通知を送信する。
 次に、ステップS312において、VM管理サーバ400BのVM管理プログラム429は、VM DR制御プログラム529へ、VMグループ190の再保護の完了通知を送信する。
 VM DR制御プログラム529は、VMグループペアテーブル523のTarget VMグループID欄5233の情報から、再保護を実施したVMグループIDに一致する行を特定する。VM DR制御プログラム529は、特定した行のSource VMグループID欄5231とTarget VMグループID5233、及びSource VM管理プログラムID欄5232とTarget VM管理プログラムID欄5234の情報を相互に入れ替えて更新する。
 次に、ステップS313において、VM DR制御プログラム529は、VM管理者の管理端末50へ、VMグループ190の再保護が完了した通知を送信する。
 上記処理によって、フェイルオーバを行ったストレージ2(200B)のCTG1(290B)は、ストレージ1(200A)のCTG1とボリュームペアを構成し、冗長性を確保することが可能となる。
 図13は、レプリケーション構成のVM123を削除する処理の一例を示すシーケンス図である。
 まず、ステップS401において、VM管理者は、VM管理サーバ400AのVM管理プログラム429へ、管理端末50を介してレプリケーション構成のVM123の削除を指示する。このとき、VM管理者の管理端末50は、削除対象VM123のVM IDを指定する。
 次に、ステップS402において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50から受信した指示内容を解析する。VM管理サーバ400AのVM管理プログラム429は、VMテーブル423AのVM ID欄4232に指定された情報が含まれることを確認する。
 次に、ステップS403において、VM管理サーバ400AのVM管理プログラム429は、VM‐ボリュームマッピングテーブル427Aより、指定されたVM IDに対応するボリュームIDを取得する。
 次に、ステップS404において、VM管理サーバ400AのVM管理プログラム429は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム280Aの削除を指示する。このとき、VM管理プログラム429は、ステップS403で取得したボリュームIDを指定する。
 上記ステップS404では、VM管理サーバ400AがVMグループ190に対する操作(VMの削除)を、ボリュームグループの操作(ボリュームグループの削除)に変換する例を示したが、これに限定されるものではなく、ストレージ管理サーバ300が、VMグループ190に対する操作(削除)を受け付けて、ボリュームグループの削除に変換してもよい。
 次に、ステップS405において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ボリュームペアテーブル225Aと指定されたボリュームIDから、指定されたボリュームIDを有するボリュームとペアとなるボリューム280BのボリュームIDを取得する。
 次に、ステップS406において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリュームペアの削除を指示する。このとき、ストレージ管理プログラム329は、ステップS404で指定されたボリュームIDと、ステップS405で取得したボリュームIDと、を指定する。
 ストレージ1(200A)のストレージ制御プログラム229は、ストレージ2(200B)のストレージ制御プログラム299と協調し、ストレージ管理サーバ300Aのストレージ管理プログラム239が指定したボリュームIDを有するボリューム間でのペア削除処理を実行する。ペア削除処理の開始後、ストレージ管理サーバ300Aのストレージ制御プログラム299は、ボリュームペアテーブル255Aのペア削除対象となる情報を削除する。
 次に、ステップS407において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ペア削除済みボリューム280AのLUパスの削除を指示する。
 次に、ステップS408において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ1(200A)へ、ボリューム280Aの削除を指示する。当該処理の完了後、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ボリュームテーブル223Aの削除対象ボリュームの情報を削除する。
 次に、ステップS409において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ボリューム280Bの削除を指示する。このとき、ストレージ管理サーバ300Aのストレージ管理プログラム392は、ステップS405で取得したボリュームIDを指定する。
 次に、ステップS410において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ペア削除済みボリューム280BのLUパスの削除を指示する。
 次に、ステップS411において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ2(200B)へ、ボリューム280Bの削除を指示する。当該処理の完了後、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ボリュームテーブル223Bの削除対象ボリュームの情報を削除する。
 次に、ステップS412において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、VM管理サーバ400BのVM管理プログラム429へ、VMテーブル423B、VM‐ボリュームマッピングテーブル427Bから、削除済みボリューム280B及び当該ボリュームに接続するVM123Bの情報を削除する指示を送信する。VM管理サーバ400BのVM管理プログラム429は、VMテーブル423B、VM‐ボリュームマッピングテーブル427Bから指定されたVM123B及びボリューム280Bの情報を削除する。
 次に、ステップS413において、VM管理サーバ400BのVM管理プログラム429は、ストレージ管理サーバ300Bのストレージ管理プログラム329へ、ステップS412で要求があった処理の完了を通知する。
 次に、ステップS414において、ストレージ管理サーバ300Bのストレージ管理プログラム329は、ストレージ管理サーバ300Aのストレージ管理プログラム329へ、ボリューム削除処理の完了通知を送信する。
 次に、ステップS415において、ストレージ管理サーバ300Aのストレージ管理プログラム329は、VM管理サーバ400AのVM管理プログラム429へ、ボリューム削除の完了通知を送信する。VM管理サーバ400AのVM管理プログラム429は、VMテーブル423A、VM‐ボリュームマッピングテーブル427Aから、削除済みボリューム280A及び当該ボリューム280Aに接続するVM123Aの情報を削除する。
 次に、ステップS416において、VM管理サーバ400AのVM管理プログラム429は、VM管理者の管理端末50へVM生成完了通知を送信する。
 上記処理によって、現用系のVM123Aを削除する場合、当該VM123Aに接続されているボリューム280Aと、当該ボリューム280Aとペアを構成している待機系のボリューム280Bすることで、ストレージ1(200A)とストレージ2(200B)のリソースを解放することができる。
 以上のように、VM管理サーバ400が、VMのリソースに対する操作(フェイルオーバ)を受け付けると、VMのリソース(VMグループ190)に対する操作をストレージのリソース(ボリュームグループ)に対する操作(ボリュームグループのフェイルオーバ)に変換してストレージ管理サーバ300に通知する。
 ストレージ管理サーバ300は、グループマッピングテーブル323とコンシステンシグループペアテーブル224によって、VMのリソース操作のパラメータ(VMグループ190のID)を、ストレージ200のリソース操作のパラメータ(CTG ID)に変換することで、ボリュームのフェイルオーバを実現することができる。
 これによって、VMグループ190内のボリューム間でデータの一貫性を保ちながら、ボリュームグループ(CTG290)単位のレプリケーション操作を実現することができる。
 上記実施例では、VM管理サーバ400が、VMのリソースに対する操作をストレージ200のリソースに対する操作に変換したが、上述のように、ストレージ管理サーバ300が、VMのリソースに対する操作を受け付けてストレージ200のリソースに対する操作に変換することができる。
 これにより、ストレージ管理サーバ300が、VM(またはVMグループ190)のリソースに対する操作とパラメータ(例えば、移動元と移動先のVMグループの識別子)を、ストレージ200のリソースに対する操作とパラメータ(例えば、移動元と移動先のボリュームグループの識別子)に変換することが可能となる。この場合、ストレージ管理サーバ300が、VMのリソースに対する操作とパラメータを受け付ければ、ストレージ200のリソースに対する操作とパラメータに変換できるので、VM123(またはVMグループ190)の管理に適合したストレージ管理サーバ300を提供することが可能となる。
 上記実施例では、VM管理サーバ400がボリュームグループ(CTG290)のフェイルオーバ(または移動)をストレージ管理サーバ300に指令する例を示したが、VM DR制御サーバ500が、ストレージ管理サーバ300にVMのリソースに対する操作とパラメータを通知して、ストレージ管理サーバ300がボリュームグループのフェイルオーバに変換してもよい。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。

Claims (15)

  1.  管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有し、サーバリソースに割り当てるストレージリソースを管理するストレージ管理サーバであって、
     前記管理情報は、
     前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、
     前記プロセッサは、
     前記サーバリソースに対する操作と前記第1のパラメータとを受け付けて、予め設定した情報に基づいて前記サーバリソースに対する操作を前記ストレージリソースに対する操作に変換し、
     前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースを特定して前記ストレージリソースに対する操作を指示することを特徴とするストレージ管理サーバ。
  2.  請求項1に記載のストレージ管理サーバであって、
     前記第1のパラメータは、仮想マシンのグループの識別子を含み、
     前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
     前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
     前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
     前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とするストレージ管理サーバ。
  3.  請求項2に記載のストレージ管理サーバであって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第1のストレージ管理サーバは、
     前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作として仮想マシンの追加を受け付けると、
     予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
     前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令し、予め設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とするストレージ管理サーバ。
  4.  請求項3に記載のストレージ管理サーバであって、
     前記第2のストレージ管理サーバは、
     前記第1のストレージ管理サーバから前記第2のパラメータと、前記ボリュームの追加指令を受け付けると、
     当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令することを特徴とするストレージ管理サーバ。
  5.  請求項2に記載のストレージ管理サーバであって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第2のストレージ管理サーバは、
     前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付けると、
     前記サーバリソースに対する操作を前記ストレージリソースに対する操作としてボリュームのフェイルオーバに変換し、
     前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを特定し、前記第1のストレージ管理サーバに前記特定した現用系の第2のパラメータと、ペア分割の指令を送信することを特徴とするストレージ管理サーバ。
  6.  プロセッサとメモリを有するストレージ管理サーバの制御方法であって、
     前記ストレージ管理サーバが、サーバリソースのグループに割り当てられた第1のパラメータと、ストレージリソースのグループに割り当てられた第2の識別子とを対応付けて、前記サーバリソースの第1のパラメータと前記ストレージリソースの第2のパラメータとを相互に変換するグループマッピング情報を設定する第1のステップと、
     前記ストレージ管理サーバが、前記サーバリソースに対する操作と前記第1のパラメータとを受け付ける第2のステップと、
     前記ストレージ管理サーバが、前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータを、前記ストレージリソースの第2のパラメータに変換する第3のステップと、
     前記ストレージ管理サーバが、前記変換された前記第2のパラメータに含まれるストレージリソースを特定して前記操作を指令する第4のステップと、
    を含むことを特徴とするストレージ管理サーバの制御方法。
  7.  請求項6に記載のストレージ管理サーバの制御方法であって、
     前記第1のパラメータは、仮想マシンのグループの識別子を含み、
     前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
     前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
     前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
     前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とするストレージ管理サーバの制御方法。
  8.  請求項7に記載のストレージ管理サーバの制御方法であって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第2のステップは、
     前記第1のストレージ管理サーバが、前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてボリュームの追加を受け付け、
     前記第3のステップは、
     前記第1のストレージ管理サーバが、前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、
     前記第4のステップは、
     前記第1のストレージ管理サーバが、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令し、予め設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とするストレージ管理サーバの制御方法。
  9.  請求項8に記載のストレージ管理サーバの制御方法であって、
     前記第2のストレージ管理サーバが、前記第1のストレージ管理サーバから前記第2のパラメータと、前記ボリュームの追加指令を受け付ける第5のステップと、
     前記第2のストレージ管理サーバが、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースに前記ボリュームの追加を指令する第6のステップと、
    をさらに含むことを特徴とするストレージ管理サーバの制御方法。
  10.  請求項7に記載のストレージ管理サーバの制御方法であって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第2のステップは、
     前記第2のストレージ管理サーバが、前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付け、
     前記第3のステップは、
     前記第2のストレージ管理サーバが、前記グループマッピング情報に基づいて、前記第1のパラメータを第2のパラメータに変換し、
     前記第4のステップは、
     前記第2のストレージ管理サーバが、予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを特定し、前記第1のストレージ管理サーバに前記特定した現用系の第2のパラメータと、ペア分割の指令とを送信することを特徴とするストレージ管理サーバの制御方法。
  11.  管理情報と管理プログラムを格納するメモリと、前記管理情報を参照し、前記管理プログラムを実行するプロセッサと、を有するストレージ管理サーバと、サーバリソースに割り当てるストレージリソースを有するストレージ装置と、を含む計算機システムであって、
     前記ストレージ管理サーバの前記管理情報は、
     前記サーバリソースを特定する第1のパラメータと、前記ストレージリソースを特定する第2のパラメータとを対応付けて、前記サーバリソースの第1のパラメータを前記ストレージリソースの第2のパラメータに変換するグループマッピング情報を含み、
     前記ストレージ管理サーバの前記プロセッサは、
     前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作とを受け付け、
     予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
     前記グループマッピング情報を参照して、前記サーバリソースの第1のパラメータに対応する前記ストレージリソースの第2のパラメータに変換し、前記第2のパラメータに含まれるストレージリソースのストレージ装置を特定し、当該ストレージ装置に前記操作を指示することを特徴とする計算機システム。
  12.  請求項11に記載の計算機システムであって、
     前記第1のパラメータは、仮想マシンのグループの識別子を含み、
     前記仮想マシンのグループの識別子は、1以上の前記仮想マシンの識別子に対応付けられ、
     前記第2のパラメータは、前記仮想マシンのグループに割り当てるボリュームのグループの識別子を含み、
     前記ボリュームのグループの識別子は、1以上の前記ボリュームの識別子に対応付けられ、
     前記グループマッピング情報は、前記第1のパラメータと前記第2のパラメータの関係を定義したことを特徴とする計算機システム。
  13.  請求項12に記載の計算機システムであって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第1のストレージ管理サーバは、
     前記サーバリソースの第1のパラメータと、前記サーバリソースに対する操作として仮想マシンの追加を受け付けると、
     予め設定した情報に基づいて前記サーバリソースに対する仮想マシンの追加の操作をストレージリソースに対するボリュームの追加の操作に変換し、
     前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースのストレージ装置に前記ボリュームの追加を指令し、前記ストレージ装置に設定されたペア情報に基づいて、現用系の第2のパラメータに対応する待機系の第2のパラメータを特定し、前記第2のストレージ管理サーバに前記特定した待機系の第2のパラメータと、前記ボリュームを追加する指令とを送信することを特徴とする計算機システム。
  14.  請求項13に記載の計算機システムであって、
     前記第2のストレージ管理サーバは、
     前記第1のストレージ管理サーバから前記第2のパラメータと、ボリュームの追加指令を受け付けると、
     当該第2のパラメータに対応するストレージリソースを特定し、当該特定したストレージリソースのストレージ装置に前記ボリュームの追加を指令することを特徴とする計算機システム。
  15.  請求項12に記載の計算機システムであって、
     前記ストレージ管理サーバは、現用系の第1のストレージ管理サーバと、待機系の第2のストレージ管理サーバを含み、
     前記第2のストレージ管理サーバは、
     フェイルオーバ先のサーバリソースの第1のパラメータと、前記サーバリソースに対する操作としてフェイルオーバを受け付けると、
     前記グループマッピング情報に基づいて、第1のパラメータを第2のパラメータに変換し、第2のパラメータに対応するストレージ装置に予め設定されたペア情報に基づいて、待機系の第2のパラメータに対応する現用系の第2のパラメータを取得し、前記第1のストレージ管理サーバに前記取得した現用系の第2のパラメータと、ペア分割の指令を送信することを特徴とする計算機システム。
PCT/JP2016/077290 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム WO2018051467A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/077290 WO2018051467A1 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム
JP2018539457A JP6602983B2 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム
US16/084,808 US10528279B2 (en) 2016-09-15 2016-09-15 Storage management server, method of controlling storage management server, and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077290 WO2018051467A1 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム

Publications (1)

Publication Number Publication Date
WO2018051467A1 true WO2018051467A1 (ja) 2018-03-22

Family

ID=61618721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077290 WO2018051467A1 (ja) 2016-09-15 2016-09-15 ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム

Country Status (3)

Country Link
US (1) US10528279B2 (ja)
JP (1) JP6602983B2 (ja)
WO (1) WO2018051467A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024111045A1 (ja) * 2022-11-22 2024-05-30 日本電信電話株式会社 仮想コンピュータ管理システム、同期サーバおよび仮想コンピュータ管理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210120B2 (en) * 2014-06-30 2021-12-28 Vmware, Inc. Location management in a volume action service
US10496431B2 (en) * 2017-07-31 2019-12-03 Red Hat Israel, Ltd. Virtual machine storage operation progress tracking
US10599354B1 (en) * 2018-04-30 2020-03-24 Amazon Technologies, Inc. Block storage with volume locality placement based on performance requirements

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293850A (ja) * 2005-04-13 2006-10-26 Hitachi Ltd リモートコピーシステムおよびリモートコピー方法
JP2013142942A (ja) * 2012-01-06 2013-07-22 Fujitsu Ltd 環境構築装置、環境登録装置、環境切替装置、環境構築方法、環境登録方法、環境切替方法、環境構築プログラム、環境登録プログラム、及び環境切替プログラム
WO2014199506A1 (ja) * 2013-06-14 2014-12-18 株式会社日立製作所 ストレージ管理計算機及びストレージ管理方法
JP2016057933A (ja) * 2014-09-11 2016-04-21 富士通株式会社 情報処理システム、ストレージ装置及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046435A (ja) * 2002-07-10 2004-02-12 Hitachi Ltd バックアップ方法、その方法に用いた記憶制御装置
US7475280B1 (en) * 2008-02-24 2009-01-06 International Business Machines Corporation Active-active server for high availability of data replication management application
JP5227887B2 (ja) * 2009-05-21 2013-07-03 株式会社日立製作所 バックアップ管理方法
JP5124551B2 (ja) * 2009-09-30 2013-01-23 株式会社日立製作所 ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
US8775774B2 (en) 2011-08-26 2014-07-08 Vmware, Inc. Management system and methods for object storage system
US20140101279A1 (en) * 2012-10-04 2014-04-10 Hitachi, Ltd. System management method, and computer system
US9766992B2 (en) * 2013-10-31 2017-09-19 Sandisk Technologies Llc Storage device failover
US9575858B2 (en) * 2014-10-02 2017-02-21 Vmware, Inc. Dynamic protection of storage resources for disaster recovery
US10628055B2 (en) * 2016-06-21 2020-04-21 Vmware, Inc. Management of storage replication consistency groups using automatic replication group identifiers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293850A (ja) * 2005-04-13 2006-10-26 Hitachi Ltd リモートコピーシステムおよびリモートコピー方法
JP2013142942A (ja) * 2012-01-06 2013-07-22 Fujitsu Ltd 環境構築装置、環境登録装置、環境切替装置、環境構築方法、環境登録方法、環境切替方法、環境構築プログラム、環境登録プログラム、及び環境切替プログラム
WO2014199506A1 (ja) * 2013-06-14 2014-12-18 株式会社日立製作所 ストレージ管理計算機及びストレージ管理方法
JP2016057933A (ja) * 2014-09-11 2016-04-21 富士通株式会社 情報処理システム、ストレージ装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024111045A1 (ja) * 2022-11-22 2024-05-30 日本電信電話株式会社 仮想コンピュータ管理システム、同期サーバおよび仮想コンピュータ管理方法

Also Published As

Publication number Publication date
US20190073150A1 (en) 2019-03-07
JP6602983B2 (ja) 2019-11-06
JPWO2018051467A1 (ja) 2018-11-22
US10528279B2 (en) 2020-01-07

Similar Documents

Publication Publication Date Title
JP5461216B2 (ja) 論理ボリューム管理の為の方法と装置
JP6602983B2 (ja) ストレージ管理サーバ、ストレージ管理サーバの制御方法及び計算機システム
US8266099B2 (en) Offloading storage operations to storage hardware using a third party server
US8745336B2 (en) Offloading storage operations to storage hardware
US8566502B2 (en) Offloading storage operations to storage hardware using a switch
US7120654B2 (en) System and method for network-free file replication in a storage area network
JP6734251B2 (ja) システム及びその制御方法並びにプログラム
JP5718533B1 (ja) ストレージシステムのデータ移行方法
US20060155837A1 (en) Diskless computer operation management system
EP1569083A2 (en) Storage system, computer system and a method of establishing volume attribute
US20140040212A1 (en) Storage control grid and method of operating thereof
JP7012010B2 (ja) 情報処理システム、及び、情報処理システムの制御方法
JP6557785B2 (ja) 計算機システム及びストレージ装置の制御方法
JP2024027156A (ja) 情報処理システム及び方法
JP5272185B2 (ja) 計算機システム及びストレージシステム
US9395926B2 (en) Storage system and management computer
JP6000391B2 (ja) ストレージシステムのデータ移行方法
JP4343056B2 (ja) ストレージ装置割当て方法ならびにそのための管理サーバおよびプログラム
JP7193602B2 (ja) システム及びその制御方法並びにプログラム
JP2020027433A (ja) 情報システム
US20240036988A1 (en) Disaster recovery pipeline for block storage and dependent applications
JP2023085644A (ja) データ複製システム及びデータ複製方法
WO2018055751A1 (ja) 計算機システム及び記憶制御方法
JP2024006811A (ja) ストレージシステムおよびストレージシステムのデータ管理方法
JP2024030968A (ja) 情報処理システム及びバックアップ方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018539457

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16916249

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16916249

Country of ref document: EP

Kind code of ref document: A1