JP4744480B2 - 仮想計算機システム - Google Patents

仮想計算機システム Download PDF

Info

Publication number
JP4744480B2
JP4744480B2 JP2007143633A JP2007143633A JP4744480B2 JP 4744480 B2 JP4744480 B2 JP 4744480B2 JP 2007143633 A JP2007143633 A JP 2007143633A JP 2007143633 A JP2007143633 A JP 2007143633A JP 4744480 B2 JP4744480 B2 JP 4744480B2
Authority
JP
Japan
Prior art keywords
logical partition
physical
logical
lpar
physical computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007143633A
Other languages
English (en)
Other versions
JP2008299509A5 (ja
JP2008299509A (ja
Inventor
ゆかり 八田
仁 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007143633A priority Critical patent/JP4744480B2/ja
Priority to DE602008000397T priority patent/DE602008000397D1/de
Priority to AT08251838T priority patent/ATE452366T1/de
Priority to EP08251838A priority patent/EP1998255B1/en
Priority to US12/129,294 priority patent/US7814363B2/en
Priority to KR1020080050330A priority patent/KR100952553B1/ko
Publication of JP2008299509A publication Critical patent/JP2008299509A/ja
Publication of JP2008299509A5 publication Critical patent/JP2008299509A5/ja
Priority to US12/894,690 priority patent/US8185775B2/en
Application granted granted Critical
Publication of JP4744480B2 publication Critical patent/JP4744480B2/ja
Priority to US13/447,896 priority patent/US8321720B2/en
Priority to US13/616,469 priority patent/US8516294B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • G06F11/1484Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2025Failover techniques using centralised failover control functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、仮想計算機システムに係り、特にある物理計算機上の論理区間に障害が発生した場合に、他の物理計算機に当該論理区間の交代を生成して、当該論理区間の処理を移行する仮想計算機システム及び論理区画の移行制御方法に関する。
1台の物理計算機上に複数の論理計算機又は論理区画(以下、LPAR(Logical Partition)という)を構築し、各論理計算機でそれぞれOS(オペレーティングシステム)を動作させ、これにより複数の論理計算機で複数の固有のOSを動作させることが可能な仮想計算機システムが実用化されている。また、最近では、それぞれの論理計算機に論理的なFC(Fibre Channel)拡張ボード又はFCポートを持せた仮想計算機システムを、RAID装置を含むSAN(ストレージエリアネットワーク)環境で使用する例もある。
SAN環境でブートを実現する計算機システムにおいて、OSがインストールされているRAID装置内のロジカルユニットのデータを保護するために、それぞれの計算機からのみアクセスを可能とするセキュリティ機能がRAID装置によって有効となっている。このセキュリティ機能としては一般的に、それぞれの計算機に搭載されるFCポートに割り当てられた固有のID(World Wide Name)を利用し、OSがインストールされたロジカルユニットと計算機が持つFCポートに割り当てられた固有のID(World Wide Name)を関連付け、当該ID(World Wide Name)を持つFCポートからのアクセスのみを許す方法が用いられている。また、OSを含むソフトウェアには、装置固有のID(World Wide Name)が記録されている場合もある。
SANからのブートを行う計算機システムの冗長化構成では、現用系計算機と待機系計算機で持つFCポートに割り当てられた固有のID(World Wide Name)が異なるため、現用系計算機から待機系計算機に交代する際、OSを含むソフトウェアイメージをそのまま利用することができず、SAN管理ソフトウェアや人手によるRAID装置側のセキュリティ機能の設定変更が必要となる。これは、現用系計算機と待機系計算機という物理計算機においてだけではなく、LPAR間においても同様である。
複数の物理計算機上にそれぞれLPARを構築することができる仮想計算機システムにおいて、ある物理計算機上のLPARから他の物理計算機へLPARに構成情報を移動させて動作を引き継がせる技術に関しては、例えば特許文献1及び特許文献2に開示されている。
特開2005−327279公報 特開平10−283210公報
上記特許文献1及び2には、ある物理計算機又はその上のLPARに障害が発生した場合における、他の物理計算機又はその上に生成されるLPARを予備機として用いるためのPLARの移動については言及されていない。
また、SAN環境下の仮想計算機システムにおいて、あるLPARから他のLPARに交代する場合にも論理ポートに割り当てられた固有のID(World Wide Name)が異なるために、セキュリティ機能の設定変更が必要となるが、上記特許文献にはその点についても言及されていない。
本発明の目的は、物理計算機又はその上のLPARに障害が発生した場合に、他の物理計算機に交代用LPARを設定して、LPARの移行を可能とする仮想計算機システムを提供することにある。
本発明は、好ましくは、第1及び第2の物理計算機を含む複数の物理計算機と、該複数の物理計算機にネットワークを介して接続される、該物理計算機及び該論理区間を管理する管理装置とを含み、各物理計算機に論理区画を生成してOSを動作させることができる仮想計算機システムにおいて、
該第1の物理計算機は;該第1物理計算機又はそこに形成された第1論理区画に障害が発生したことを検出する障害検出手段と、該第1の物理計算機のバードウェア構成情報及び該第1論理区画に割り当てられた固有の構成情報を管理する第1管理手段と、を有し、
該管理装置は;該障害検出手段からの障害発生の報告を受けて、該第1管理手段から該ハードウェア情報及び該固有の構成情報を受信する手段と、交代先の第2の物理計算機を決定して、該第2の物理計算機へ該ハードウェア情報及び該固有の構成情報を送信する手段と、を有し、
該第2の物理計算機は;該管理装置から送信された該ハードウェア情報及び該固有の構成情報を受信する手段と、該該ハードウェア情報及び該固有の構成情報に基づいて、該第2の物理計算機上に第2論理区画を生成することが可能かを判定する手段と、該判定手段によって該第2論理区間の生成が可能と判定された場合、該固有の構成情報に基づいて第2論理区画を生成する手段と、を有する仮想計算機システムとして構成される。
本発明によれば、物理計算機又はその上のLPARに障害が発生した場合に、他の物理計算機に交代用LPARを設定して、LPARを移行することが可能となる。また、管理サーバの制御の下に、移行先のLPARへ移行元LPARの構成情報等を移すので、移行元の物理計算機に障害が発生した場合にも、LPARの移行が可能である。
以下、本発明の実施形態について図面を参照して説明する。
図1を参照するに、本実施例による計算機システムは、1台のサーバシャーシ105に、複数台のサーバモジュール(以下単にサーバという)111、112を搭載することができるブレードサーバの形態をなしている。サーバシャーシ105には、サービスプロセッサ(SVP)106が搭載される。
サーバ111,112は、NIC(Network Interface Card)122を介してネットワークSW(103)経由で管理サーバ101に接続され、またファイバチャネルスイッチ(FC−SW)135を介してストレージ装置137に接続される。
サーバ111及び112は、基本的に同様の構成を有し、それぞれBMC(Base Management Controller)120(130)、FC−HBA(Fibre Channel Host Bus Adapter)121(131)、NIC122(132)を持っている。ハイパーバイザー117(127)は物理的に1台のサーバを論理的に複数のサーバに見せる仮想化機構である。サーバ111では1つのハイパーバイザー117上にシミュレーションされた2台のLPAR(113、114が構築され動作している。ハイパーバイザー117(127)内のHypervisor-Agt(119,129)は、LPARの障害を検知して管理サーバ101へその報告を行うためのエイジェントである。
本実施例において、サーバ112には、1台のLPAR123が動作しているが、後にサーバ111のLPAR114の交代LPAR124が設定される。
FC−HBA121,131は、通信を行うためにそのHBAのアドレスとしてFC接続ポート1つに対して1つのWWNを持つ。LPAR113及び114は論理的なHBAを1ポート(115、116)ずつ持ち、それぞれvfcWWN1(115)、vfcWWN2(116)のような、固有のWWN(World Wide Name)が付与される。論理的なHBAも物理的なHBAと同様のWWNを持つ。なお、サーバ112におけるLPAR123も同様に固有のWWNが付与される。
ストレージ装置137は、論理的に規定されたLU(論理ユニット)と呼ばれる多数のDiskユニット138〜140を持っている。何れのLUが何れのサーバに接続されているかを表す接続情報はストレージ装置137内のコントローラによって管理されている。例えば、LU10(138)はvfcWWN1(115)のWWNを持つサーバ113に接続され、LU11(139)はvfcWWN2(116)のWWNを持つサーバ116に接続されている。この接続関係を設定する機能をLUNセキュリティ設定機能と呼ぶ。
SVP106はサーバシャーシ内の全てのサーバを管理し、またサーバの電源制御および障害処理を担う。サーバを管理するために、サーバのハードウェア構成情報1101(図11参照)、及びハイパーバイザー構成情報1111(図12参照)をSVP内の不揮発メモリ(図示せず)に記憶して管理する。これらの構成情報1101、1111はサーバ単位に管理され、図示の例ではサーバ111,112に対応して、2面の構成情報108−1,108−2を持つ。また、ハイパーバイザー構成情報1111にはサーバ111及び112のそれぞれのハイパーバイザー117,127に対応した情報が含まれる。
管理サーバ101は、サーバ111,112及びそれに形成されたLPARを管理する。そのために、サーバの管理情報107(図13参照)をメモリ(図示せず)に記憶して管理する。本実施例ではまた、LPARの移行を管理する機能を有する。
次に、図11〜図13を参照して、各管理情報の内容について説明する。
図11に示すように、サーバのハードウェア構成情報(サーバモジュール・ハードウェア構成情報ということもある)1101は、ブート設定情報1102、HBA-BIOS情報1103、addWWN情報1104、物理サーバのOS種類情報1105、Hyper Treadingの無効指定1106、SVPが保存するハイパーバイザーのIPアドレス1107、アーキテクチャ1108などの物理サーバ情報を保持する。このハードウェア構成情報1101はサーバモジュール(パーティション)ごとに存在する。
図12に示すように、ハイパーバイザー構成情報1111は、パーティションの中のLPAR単位で管理される情報であり、LPAR113,114対応に存在する(1111−1、1111−2)。各ハイパーバイザー構成情報1111は、vfcWWN情報(1112−1)、LPARが稼動中か否かを示すActive/NonActive(1113−1)、CPUの数などを含むCPU情報(1114−1)、メモリ容量(1115−1)、HBAやNICなどを含むI/O構成(1115−1)等の情報を保持する。
上記サーバのハードウェア構成情報1101及びハイパーバイザー構成情報1111は、SVP106で設定されて管理されるが、これらの情報は、各サーバ上で動作しているハイパーバイザーでも保持している。
図13に示すように、管理サーバ101で管理されるサーバの管理情報(サーバモジュール管理情報ということもある)107は、サーバモジュール番号1201、ハードウェアのアーキテクチャ種別1202、実装メモリ容量1203、稼動中のLPARの合計メモリ使用量1204、メモリの空き容量1205、実装CPU性能1206、割り当て済みCPU性能の合計1207、空きCPU性能1208、空きNIC数1209、空きHBA数1210、等の情報を保持する。
本実施例によれば、サーバ111のLPARに障害が発生したときに、障害報告を受けつけた管理サーバ101は、サーバ112内に交代用のLPAR124を設定し、そのLPAR124に障害が発生したLPAR固有の構成情報を引き継がせるための制御を行う。
以下、図2及び図3を参照して、サーバ111のLPARに障害が発生した時の交代LPARの設定及びLPAR固有の構成情報の引き継ぎ処理について、詳細に説明する。図示の例は、サーバ111のLPAR2(114)に障害が発生した場合における、管理サーバ101、サーバ111のハイパーバイザー117、サーバモジュール112のハイパーバイザー127が行う処理動作を表す。
LPAR114に障害が発生し、サーバ111で動作するハイパーバイザー117がその障害を検出すると(S201)、ハイパーバイザー117は管理サーバ101へ障害通知(Hypervisor-Agtアラート)を行う(S202)。管理サーバ101は障害が発生したLPAR2を停止するように停止コマンドを送出する(S203)。ハイパーバイザー117は、LPAR停止コマンドを受信した後、LPAR2の稼動停止(deactivate処理)を行う(S205)。そしてdeactivate処理が完了すると、管理サーバ101に対してHypervisor-Agtアラートを送出して、deactivate完了を伝える(S206)。
Hypervisor-Agtアラートを受けた管理サーバ101は、管理情報として障害が発生したLPARの停止状態を表示器に表示し(S207)、LPAR2の構成情報読み込みコマンドを送出する(S208)。
そのコマンドを受信したハイパーバイザー117は、自ら保持している、サーバモジュール・ハードウェア構成情報及びLPAR2のハイパーバイザー構成情報を管理サーバ101へ送信する(S209)。
管理サーバ101は、データの受信を完了すると、受信完了を表示する(S210)。その後、交代先のサーバモジュールを決定する(S301)。例えば交代先のサーバモジュール112上でLPARを生成しようとしているハイパーバイザー127に対して、障害が発生したサーバモジュール111のサーバモジュール・ハードウェア構成情報及びLPAR2のハイパーバイザー構成情報を受信するよう指示する(S302)。
ハイパーバイザー 127は、障害が発生したLPAR2に関する構成情報を受信すると(S303)、その構成情報に基づいて、交代先でLPARが生成可能であるか否か判定する(S305)。この判定については後で詳述する。判定の結果、所定の条件を満たしていれば、移行先のサーバ112に移行元のLPAR2に関する構成情報を引き継いだLPARが生成される(S306)。この例では、LPAR124が移行先のLPARとなる。LPAR124の生成が完了すると、ハイパーバイザー127はHypervisor-Agtアラートを送出して、LPARの生成完了を通知する(S307)。
管理サーバ101は、Hypervisor-Agtアラートを受信すると、ハイパーバイザー127に生成されたLPARを起動するように、起動コマンドを送出する(S308)。この起動コマンドを受信したハイパーバイザー127は、生成したLPAR124を起動(activate)する(S309)。そして、Hypervisor-Agtアラートを送出して、LPAR124の起動完了を伝える(S310)。Hypervisor-Agtアラートを受け取った管理サーバ101は、LPAR124の起動状態を表示器に表示する(S311)。
次に図4及び図5を参照して、LPAR2(114)に障害が発生した時の管理サーバ101の処理について説明する。
ハイパーバイザー117からLPAR2に障害が発生した旨を伝えるHypervisor-Agtアラートを受けると、管理サーバ101はLPAR障害検出時の処理を始める(S401)。
まず、障害が発生したサーバモジュール111のハイパーバイザー117に対して、LPAR2の稼動を停止するための停止コマンドを送出する(S402)。その後、LPAR2の停止処理が完了するまで待ち(S403)、停止処理が正常に完了したら、LPAR2の表示テーブルを「停止状態」とする(S404)。一方、停止処理が正常に完了しなければ、コールドスタンバイ失敗を表示して(S411)、終了する(S412)。
LPAR2の表示テーブルが「停止状態」となったら(S404)、LPAR2の構成情報の読み込みコマンドを送出する(S405)。LPAR2の構成情報を受信し(S406)、受信が正常に終了したら(S407)、受信完了を表示する(S408)。一方、受信が正常に終了しなければコールドスタンバイ失敗を表示して(S413)、終了する(S414)。
受信が正常に終了し(S407)、受信完了の表示した(S408)後に、LPAR2の実効CPU性能と、LPAR2を生成するサーバモジュール以外のサーバモジュールの実効CPU性能を計算する。
ここで、LPAR2の実効CPU性能は、(物理CPUの数)×(移行前のLPARでのサービス率)、として計算する。また、LPAR2を生成するサーバモジュール以外のサーバモジュールの実効CPU性能は、(物理CPUの数)×(100%−(現在稼動している全てのLPARのサービス率))として計算する。
次に、管理サーバ101のサーバモジュール管理情報107を用いて、LPAR生成のためのサーバモジュールの条件を判定する(S410)。この条件とは、例えば、以下(a)〜(d)の判定を含む。
(a)LPAR2と同じアーキテクチャのサーバモジュールがあるか。(b)LPAR2以上のメモリが空いているサーバモジュールがあるか。(c)LPAR2の実効CPU性能以上の実効CPU性能を持つサーバモジュールがあるか。(d)LPAR2が使用していた以上のNIC,HBAが空いているサーバモジュールがあるか。
これら4つの条件を全て満たしていれば、条件を満たしているサーバモジュールの中で、実効CPU性能が最高のものを交代先のサーバモジュールとして選択する(S501)。4つの条件のうち1つでも満たしていなければ、コールドスタンバイ失敗を表示して(S415)、終了する(S416)。
4つの条件が満足する交代先のサーバモジュール(この例ではサーバモジュール112)が選択されると、交代先のサーバモジュール112のハイパーバイザー127に対して、障害が発生したLPAR2に関する構成情報を転送して、LPARを生成するように指示する(S502)。そして、障害発生元サーバモジュール111のハイパーバイザー117から受信したデータ(障害発生LPAR2に関する構成情報)をハイパーバイザー127へ送信する(S503)。このデータの送信が正常に終了すると(S504)、送信完了を表示する(S505)。一方、データ送信が正常に完了しなければ(S504)、コールドスタンバイ失敗を表示して(S511)、終了する(S512)。
その後、交代先サーバモジュール112においてLPARが生成されるのを待つ(S506)。生成されるLPARは、障害が発生したLPAR2と同様の構成を持つものである。LPARの生成が正常に終了すると、交代先サーバモジュール112の交代先LPAR124を起動するコマンドを送出する(S507)。一方、LPAR生成が正常に終了しなければ、コールドスタンバイ失敗を表示して(S513)、終了する(S514)。
交代LPAR124の生成が正常に終了し、起動コマンドを送出したら(S507)、交代先LPAR124の起動完了を待つ(S508)。そして正常に起動したら、交代先LPAR(124)の状態表示を「起動状態」として(S509)、終了する(S510)。一方、LPAR124の起動が正常に起動しない場合は、コールドスタンバイ失敗を表示して(S515)、終了する(S516)。
以上のような制御により、交代先LPAR124が障害発生LPAR114の交代機として起動可能となるのは以下の理由による。ストレージ装置へのアクセスはWWNによって管理される。WWNは物理デバイスのポートごとに割り当てられるが、本実施例では、LPARごとに論理HBAを設け、論理HBAのポートごとにWWNを割り当てている。以下この論理HBAのWWNをvfcWWNと呼ぶ。図1の説明で述べたように、LUNとWWNの接続関係はLUNセキュリティ機能により設定されている。ストレージ装置側からは、論理/物理WWNの区別はつかないので、LPAR単位でのLUへのアクセス権の管理が可能となる。(vfcWWNを用いるときは、ストレージ装置から物理デバイスのWWNが認識されないように設定する。)移行先のLPARは、障害発生時のLPARが使用していたvfcWWNと同一のvfcWWNを使用してブートすることにより、移行前と同一のシステムを立ち上げることができる。
次に図6を参照して、LPAR2に障害が発生した時のハイパーバイザーの処理について説明する。
LPAR2に障害が発生すると、ハイパーバイザー117は、LPAR障害検出処理を開始する(S601)。障害検出処理において、障害発生要因を解析して、回復可能な要因か否かを判断する(S602)。その判断の結果、LPAR障害が回復不可能な要因である場合、Hypervisor-Agt(118)に対してLPAR障害を伝えるために、Hypervisor-Agtアラート送出を要求し(S603)、LPAR障害時のログ取得などの障害処理を実行して(S604)、処理を終了する(S605)。
一方、LPAR障害が回復可能な要因である場合、回復処理を行い(S606)、終了する(S607)。
次に図7〜図8を参照して、管理サーバ101からのコマンド実行要求に伴うHypervisor-Agt(118)におけるコマンドの処理について説明する。
管理サーバ101から送信されたコマンド実行要求を受けると、Hypervisor-Agt(118)は受信処理を行う(S701)。要求されるコマンドには複数の種類があるので、まずコマンドの種別を解析する(S702)。この例では、LPARの停止を行うLPAR停止( deactivate)コマンドと、LPAR構成情報読み込みコマンドと、LPAR構成情報書き込みコマンドと、LPARの起動を行うLPAR起動( activate)コマンドと、LPAR生成コマンド、の5つのコマンドの処理を行う。
LPAR deactivateコマンドである場合、停止対象LPARは妥当であるかを判定する(S703)。妥当でないと判断した場合にはエラー処理を行い(S707)、終了する(S708)。停止対象LPAR2が妥当であると判断した場合には、停止対象LPAR2の停止処理を行う(S704)。そして、停止処理が成功したか否かを判断する(S705)。停止処理が失敗した場合、エラー処理して(S707)、終了する(S708)。一方、停止処理が成功した場合には、LPAR2の停止完了を伝えるためにHypervisor-Agtアラート送信要求を行って、終了する(S708)。
LPAR構成情報読み込みコマンドである場合、対象LPAR2の構成情報を管理サーバ101に転送する。その後、データ転送が成功したか否かを判断して(S710)、データ転送が成功したら処理を終了する(S712)。一方、失敗したら、エラー処理して(S711)、終了する(S712)。
LPAR構成情報書き込みコマンドである場合、対象LPAR2の構成情報を管理サーバ101からハイパーバイザー127に転送する。その後、データ転送が成功したか否かを判断して(S714)、データ転送が成功したら処理を終了する(S716)。一方、失敗したら、エラー処理して(S714)、終了する(S716)。
次に、LPAR 起動コマンドである場合(図8参照)、起動対象のLPAR2は妥当であるかを判定する(S801)。その結果、妥当でないと判断した場合にはエラー処理を行って(S805)、終了する(S806)。一方、起動対象のLPAR2が妥当であると判断した場合には、起動対象LPAR2の起動処理を行う(S802)。その後、起動が成功したかを判断して(S803)、起動に失敗した場合にはエラー処理を行って(S805)、終了する(S806)。
一方、起動に成功した場合には、LPARのactivate完了を伝えるためにHypervisor-Agtアラート送信要求を行い(S804)、終了する(S806)。
次に、LPAR生成コマンドである場合、まず移行前及び移行先の実効CPU性能の計算を行う(S807)。移行前の実効CPU性能は、(物理CPUの数)×(移行前のLPARでのサービス率)として計算する。移行先の実効CPU性能は、(物理CPUの数×(100%−(現在起動している全てのLPARのサービス率))として計算する。
その後、次の3つの条件の判定を行う(S808)。(1)移行前の実効性能と移行先の実効CPU 性能を比較して移行先の実効CPU性能が移行前の実効CPU性能 以上であること。(2)移行先のメモリが空いていること。(3)移行先に移行元のLPARが使用していた数と同数のNIC, HBAがあいていること。
上記3つの条件の1つでも満たしていなければ、LPAR生成は不可能とみなして、エラー処理して(S812)、終了する(S813)。
一方、3つの条件を全て満たしていれば、対象LPARを生成する(S809)。この例では、LPAR2の交代先としてLPAR124を生成する。
その後、LPARの生成が成功したかを判定し(S810)、成功した場合、LPAR生成完了を伝えるためにHypervisor-Agtアラート送信要求を行って(S811)、終了する(S813)。一方。LPARの生成が失敗した場合には、エラー処理を行って(S812)、終了する(S813)。
次に、図9及び図10を参照して、Hypervisor-Agtアラート送信要求があった場合のHypervisor-Agtの送信処理について説明する。
Hypervisor-Agtアラート送信要求があった場合、Hypervisor-Agt(118)はアラートの種別を解析する(S902)。
その結果、アラートの種別がLPAR起動完了である場合には、LPAR起動完了アラートを送信して(S903)、終了する(S906)。
アラートの種別がLPAR 起動失敗である場合には、LPAR 起動失敗アラートを送信して(S904)、終了する(S906)。
アラートの種別がLPAR障害発生である場合には、LPAR障害発生アラートを送信して(S905)、終了する(S906)。
アラートの種別がLPAR停止完了である場合には、LPAR deactivate完了アラートを送信して(S1001)、終了する(S906)。
アラートの種別がLPAR停止失敗である場合には、LPAR 停止失敗アラートを送信して(S1002)、終了する(S906)。
アラートの種別がLPAR生成完了である場合には、LPAR生成完了アラートを送信して(S1003)、終了する(S906)。
アラートの種別がLPAR生成失敗である場合には、LPAR生成失敗アラートを送信して(S1004)、終了する(S906)。
上記した例は、サーバ111のLPARに障害が発生した時に、管理サーバ101の制御の下、移行元及び移行先のハイパーバイザー間で種々の情報をやり取りして、LPARの移行制御を行うものである。
また、サーバ障害時の検出はSVPからも行うことができる。これによりハードウェア障害時にもその上で動作していたLPARを別々の物理マシンに移行させることができる。
以上のように、本実施例によれば、仮想計算機システムのLPAR障害時に、LPAR単位のきめ細かい交代を実現できるので、効率を要求される仮想計算機システムの利用業務に適用することができる。また、複数の物理計算機間に性能上のばらつきがある場合、特定のLPARの物理計算機間の移動が容易に可能となる。
一実施例における計算機システムの構成を示す図、 障害発生時の処理を示すフローチャート、 障害発生時の処理を示すフローチャート、 障害発生時の管理サーバの処理を示すフローチャート、 障害発生時の管理サーバの処理を示すフローチャート、 障害発生時のハイパーバイザーの処理を示すフローチャート、 Hypervisor-Agtにおけるコマンドの処理を示すフローチャート、 Hypervisor-Agtにおけるコマンドの処理を示すフローチャート、 Hypervisor-Agtの送信処理を示すフローチャート、 Hypervisor-Agtの送信処理を示すフローチャート、 サーバのハードウェア構成情報1101の内容を示す図、 ハイパーバイザー構成情報1111の内容を示す図、 サーバの管理情報107の内容を示す図。
符号の説明
101:管理サーバ 103:ネットワークスイッチ
105:サーバシャーシ 106:サービスプロセッサ
107:サーバモジュール管理情報 111、112:サーバ
113、114、123、124:LPAR
117、127:ハイパーバイザー
118、128:Hypervisor-Agt
120、130:BMC 121、131:FC−HBA
122、132:NIC 135:ファイバチャネルスイッチ
137:ストレージ装置
1101:サーバモジュール・ハードウェア構成情報
1111:ハイパーバイザー構成情報

Claims (8)

  1. 第1及び第2の物理計算機を含む複数の物理計算機と、該複数の物理計算機にネットワークを介して接続される、該物理計算機及び論理区画を管理する管理装置とを含み、各物理計算機に論理区画を生成してOSを動作させることができる仮想計算機システムにおいて、
    該第1の物理計算機は:
    前記論理区画と通信を行うための第1の物理HBAと、
    該第1物理計算機又はそこに形成された第1論理区画に障害が発生したことを検出する障害検出手段と、
    該第1論理区画のI/O構成情報及び該第1論理区画に設けられた論理HBAに割り当てられたWWNであるvfcWWNを管理する第1管理手段と、を有し、
    該管理装置は:
    該障害検出手段からの障害発生の報告を受けて、該第1管理手段から該第1論理区画のI/O構成情報及びvfcWWNを受信する手段と、
    交代先の第2の物理計算機を決定して、該第2の物理計算機へ該第1論理区画のI/O構成情報及びvfcWWNを送信する手段と、を有し、
    該第2の物理計算機は:
    前記論理区画と通信を行うための第2の物理HBAと、
    該管理装置から送信された該第1論理区画のI/O構成情報及びvfcWWNを受信する手段と、
    該第1論理区画のI/O構成情報に基づいて、該第2の物理計算機上に第2論理区画を生成することが可能かを判定する手段と、
    該判定する手段によって該第2論理区画の生成が可能と判定された場合、該vfcWWNに基づいて第2論理区画を生成する手段と、を有し、
    該第1論理区画のI/O構成情報は、第1の物理HBAの情報を含み、
    該第2論理区画を生成する手段では、該生成した第2論理区画に論理HBAを設け、該第2論理区画に設けられた論理HBAに、該vfcWWNを割り当てることを特徴とする仮想計算機システム。
  2. 該第1の物理計算機は、障害を検出した時、該第1論理区画の動作を停止させて、該動作の停止を該管理装置へ報告する手段を有し、
    該第2の物理計算機は、該第2論理区画の生成が完了すると、該完了の報告を該管理装置へ送る手段を有し、
    該管理装置は、該動作の停止を受け取った時、該第1論理区画の停止状態を表示する手段と、該完了報告を受け取った時、該第2物理計算機へ該第2論理区画を起動させるコマンドを送出する手段と、を有し、
    該第2の物理計算機は、該起動させるコマンドを受信した時、該第2論理区画の起動を行うことを特徴とする請求項1記載の仮想計算機システム。
  3. 前記判定する手段は、前記第1の物理計算機の実効CPU性能を、物理CPUの数と該第1論理区画のサービス率との積から計算し、前記第2の物理計算機の実効CPU性能を、物理CPUの数と、100%−前記第2の物理計算機上で稼動している全ての論理区画のサービス率との積から計算することを特徴とする請求項1記載の仮想計算機システム。
  4. 前記判定する手段は、
    前記第2の物理計算機の実効CPU性能が、該第1論理区画の実効CPU性能以上であることを調べて、該第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至3のいずれかの仮想計算機システム。
  5. 前記判定する手段は、前記第2の物理計算機のメモリの容量が十分に空いているかを調べて、該第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至4のいずれかの仮想計算機システム。
  6. 前記判定する手段は、該第1論理区画のI/O構成情報に含まれる第1の物理HBAの数が、前記第2の物理計算機の第2物理HBAに確保できるかを調べて、前記第2の物理計算機に該第2論理区画の生成が可能かを判定することを特徴とする請求項1乃至5のいずれかの仮想計算機システム。
  7. 前記第1及び第2の物理計算機が有する各手段は、第1及び第2論理区画を管理するハイパーバイザー内に備えられることを特徴とする請求項1乃至6のいずれかの仮想計算機システム。
  8. 第1及び第2の物理計算機を含む複数の物理計算機と、該複数の物理計算機にネットワークを介して接続される、該物理計算機及び該物理計算機に生成される論理区画を管理する管理装置を有する仮想計算機システムにおける該論理区画の移行制御方法であって、
    該第1の物理計算機が、該第1物理計算機又はそこに形成された第1論理区画に障害が発生したことを検出する障害検出ステップと、
    該第1の物理計算機が、該第1論理区画のI/O構成情報及び該第1論理区画に設けられた論理HBAに割り当てられたWWNであるvfcWWNを管理するステップと、
    該管理装置が、該障害検出ステップからの障害発生の報告を受けて、該第1の物理計算機から送信された、該第1論理区画のI/O構成情報及びvfcWWNを受信するステップと、
    該管理装置が、該第1の物理計算機の交代先となる第2の物理計算機を決定して、該第2の物理計算機へ該第1論理区画のI/O構成情報及びvfcWWNを送信するステップと、
    該第2の物理計算機が、該管理装置から送信された該第1論理区画のI/O構成情報及びvfcWWNを受信するステップと、
    該第2の物理計算機が、該第1論理区画のI/O構成情報に基づいて、該第2の物理計算機上に第2論理区画を生成することが可能かを判定するステップと、
    該第2の物理計算機が、該判定するステップによって該第2論理区画の生成が可能と判定された場合、該vfcWWNに基づいて第2論理区画を生成するステップとを有し、
    該生成するステップによって生成された第2論理区画に論理HBAを設け、該論理HBAに該vfcWWNを割り当てることを特徴とする論理区画の移行制御方法。
JP2007143633A 2007-05-30 2007-05-30 仮想計算機システム Expired - Fee Related JP4744480B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2007143633A JP4744480B2 (ja) 2007-05-30 2007-05-30 仮想計算機システム
DE602008000397T DE602008000397D1 (de) 2007-05-30 2008-05-27 Virtuelles Computersystem und Steuerverfahren dafür
AT08251838T ATE452366T1 (de) 2007-05-30 2008-05-27 Virtuelles computersystem und steuerverfahren dafür
EP08251838A EP1998255B1 (en) 2007-05-30 2008-05-27 Virtual computer system and control method thereof
US12/129,294 US7814363B2 (en) 2007-05-30 2008-05-29 Virtual computer system and control method thereof
KR1020080050330A KR100952553B1 (ko) 2007-05-30 2008-05-29 가상 계산기 시스템 및 그 제어 방법
US12/894,690 US8185775B2 (en) 2007-05-30 2010-09-30 Virtual computer system and control method thereof
US13/447,896 US8321720B2 (en) 2007-05-30 2012-04-16 Virtual computer system and control method thereof
US13/616,469 US8516294B2 (en) 2007-05-30 2012-09-14 Virtual computer system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007143633A JP4744480B2 (ja) 2007-05-30 2007-05-30 仮想計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011012591A Division JP5147955B2 (ja) 2011-01-25 2011-01-25 仮想計算機システム

Publications (3)

Publication Number Publication Date
JP2008299509A JP2008299509A (ja) 2008-12-11
JP2008299509A5 JP2008299509A5 (ja) 2009-11-12
JP4744480B2 true JP4744480B2 (ja) 2011-08-10

Family

ID=39713719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007143633A Expired - Fee Related JP4744480B2 (ja) 2007-05-30 2007-05-30 仮想計算機システム

Country Status (6)

Country Link
US (4) US7814363B2 (ja)
EP (1) EP1998255B1 (ja)
JP (1) JP4744480B2 (ja)
KR (1) KR100952553B1 (ja)
AT (1) ATE452366T1 (ja)
DE (1) DE602008000397D1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4744480B2 (ja) * 2007-05-30 2011-08-10 株式会社日立製作所 仮想計算機システム
JP5149732B2 (ja) * 2008-07-30 2013-02-20 株式会社日立製作所 仮想計算機システム
US7886183B2 (en) * 2008-08-07 2011-02-08 Symantec Operating Corporation Providing fault tolerant storage system to a cluster
JP5140633B2 (ja) * 2008-09-04 2013-02-06 株式会社日立製作所 仮想化環境において生じる障害の解析方法、管理サーバ、及びプログラム
JP5535471B2 (ja) * 2008-12-05 2014-07-02 エヌイーシーコンピュータテクノ株式会社 マルチパーティション・コンピュータシステム、障害処理方法及びそのプログラム
JP4972670B2 (ja) * 2009-06-05 2012-07-11 株式会社日立製作所 仮想計算機システム、そのアクセス制御方法及び通信装置
US8245086B2 (en) * 2009-06-26 2012-08-14 International Business Machines Corporation Visual feedback system for multiple partitions on a server
JP5531487B2 (ja) * 2009-07-30 2014-06-25 日本電気株式会社 サーバシステム及びサーバシステムの管理方法
US8489797B2 (en) * 2009-09-30 2013-07-16 International Business Machines Corporation Hardware resource arbiter for logical partitions
US8700752B2 (en) * 2009-11-03 2014-04-15 International Business Machines Corporation Optimized efficient LPAR capacity consolidation
JP5427574B2 (ja) * 2009-12-02 2014-02-26 株式会社日立製作所 仮想計算機の移動管理方法、前記移動管理方法を用いた計算機、前記移動管理方法を用いた仮想化機構および前記移動管理方法を用いた計算機システム
JP5548489B2 (ja) * 2010-03-11 2014-07-16 株式会社日立製作所 計算機システム、仮想化機構、および計算機システムの障害回復方法
JP5515889B2 (ja) * 2010-03-15 2014-06-11 日本電気株式会社 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
US8615586B2 (en) * 2010-06-23 2013-12-24 International Business Machines Corporation Discovery of logical images at storage area network endpoints
US8521703B2 (en) * 2010-11-05 2013-08-27 International Business Machines Corporation Multiple node/virtual input/output (I/O) server (VIOS) failure recovery in clustered partition mobility
JP5463267B2 (ja) 2010-11-19 2014-04-09 株式会社日立製作所 仮想計算機システムおよび仮想計算機の移行方法
JP5548647B2 (ja) * 2011-04-25 2014-07-16 株式会社日立製作所 計算機システムでの部分障害処理方法
WO2013038443A1 (ja) * 2011-09-14 2013-03-21 株式会社日立製作所 サーバ移行支援装置、サーバ移行支援方法およびサーバ移行支援プログラム
JP5549688B2 (ja) * 2012-01-23 2014-07-16 日本電気株式会社 情報処理システム、及び、情報処理システムの制御方法
US8880934B2 (en) * 2012-04-04 2014-11-04 Symantec Corporation Method and system for co-existence of live migration protocols and cluster server failover protocols
JP5773166B2 (ja) * 2012-04-05 2015-09-02 株式会社日立製作所 計算機の制御方法、計算機及び計算機システム
JP5663525B2 (ja) * 2012-05-22 2015-02-04 株式会社日立製作所 サーバ、管理サーバ、および計算機システムのネットワークデバイスの設定方法
JP5856925B2 (ja) 2012-08-21 2016-02-10 株式会社日立製作所 計算機システム
JP5789240B2 (ja) 2012-11-21 2015-10-07 株式会社日立製作所 仮想クライアント管理システムおよび仮想クライアント管理方法
WO2014087544A1 (ja) * 2012-12-07 2014-06-12 株式会社日立製作所 計算機システム、管理計算機及び管理方法
US9262289B2 (en) 2013-10-11 2016-02-16 Hitachi, Ltd. Storage apparatus and failover method
US9588853B2 (en) * 2014-06-05 2017-03-07 International Business Machines Corporation Automatic management of server failures
JP6277069B2 (ja) * 2014-06-17 2018-02-07 日本電信電話株式会社 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
CN106537366B (zh) * 2014-06-30 2019-07-23 惠普发展公司,有限责任合伙企业 全虚拟机功能
JP6384289B2 (ja) * 2014-11-26 2018-09-05 日本電気株式会社 同期処理装置、同期処理システム、同期処理方法、および、同期処理プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512126A (ja) * 1991-07-05 1993-01-22 Hitachi Ltd 仮想計算機のアドレス変換装置及びアドレス変換方法
JPH0816505A (ja) * 1994-07-04 1996-01-19 Hitachi Ltd チャネル処理装置
JP3653159B2 (ja) 1997-04-01 2005-05-25 株式会社日立製作所 仮想計算機システム間の仮想計算機移動制御方法
US6802062B1 (en) 1997-04-01 2004-10-05 Hitachi, Ltd. System with virtual machine movable between virtual machine systems and control method
JP2000137692A (ja) * 1998-10-30 2000-05-16 Toshiba Corp 分散ノード間負荷分散方式
US6598174B1 (en) * 2000-04-26 2003-07-22 Dell Products L.P. Method and apparatus for storage unit replacement in non-redundant array
US20040194086A1 (en) * 2002-03-20 2004-09-30 National Inst. Of Advanced Ind. Science And Tech. Suspend and resume method of computer job
EP1400339A1 (de) * 2002-09-17 2004-03-24 Siemens Aktiengesellschaft Verfahren zum Herstellen eines dreidimensionalen Formkörpers
JP4202709B2 (ja) * 2002-10-07 2008-12-24 株式会社日立製作所 ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法
JPWO2004081791A1 (ja) * 2003-03-13 2006-06-15 富士通株式会社 仮想計算機システム、仮想計算機システムにおけるファームウェアアップデート方法
JP4227035B2 (ja) * 2004-02-03 2009-02-18 株式会社日立製作所 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
JP2005293417A (ja) * 2004-04-02 2005-10-20 Sony Corp コンピュータ機器、コンピュータネットワークシステム、プログラム転送方法およびプログラム転送用プログラム
US8156490B2 (en) 2004-05-08 2012-04-10 International Business Machines Corporation Dynamic migration of virtual machine computer programs upon satisfaction of conditions
US7257811B2 (en) 2004-05-11 2007-08-14 International Business Machines Corporation System, method and program to migrate a virtual machine
US7058731B2 (en) * 2004-08-03 2006-06-06 Hitachi, Ltd. Failover and data migration using data replication
JP4585276B2 (ja) * 2004-11-01 2010-11-24 株式会社日立製作所 ストレージシステム
JP4462024B2 (ja) * 2004-12-09 2010-05-12 株式会社日立製作所 ディスク引き継ぎによるフェイルオーバ方法
JP4733399B2 (ja) * 2005-01-28 2011-07-27 株式会社日立製作所 計算機システム、計算機、ストレージ装置及び管理端末
JP4710518B2 (ja) 2005-09-28 2011-06-29 株式会社日立製作所 計算機システムとそのブート制御方法
JP5032191B2 (ja) * 2007-04-20 2012-09-26 株式会社日立製作所 サーバ仮想化環境におけるクラスタシステム構成方法及びクラスタシステム
JP4744480B2 (ja) * 2007-05-30 2011-08-10 株式会社日立製作所 仮想計算機システム

Also Published As

Publication number Publication date
US8185775B2 (en) 2012-05-22
KR100952553B1 (ko) 2010-04-12
KR20080106065A (ko) 2008-12-04
US8516294B2 (en) 2013-08-20
US8321720B2 (en) 2012-11-27
JP2008299509A (ja) 2008-12-11
ATE452366T1 (de) 2010-01-15
EP1998255A1 (en) 2008-12-03
US7814363B2 (en) 2010-10-12
EP1998255B1 (en) 2009-12-16
US20120204175A1 (en) 2012-08-09
US20080301487A1 (en) 2008-12-04
DE602008000397D1 (de) 2010-01-28
US20110022887A1 (en) 2011-01-27
US20130014109A1 (en) 2013-01-10

Similar Documents

Publication Publication Date Title
JP4744480B2 (ja) 仮想計算機システム
JP5463267B2 (ja) 仮想計算機システムおよび仮想計算機の移行方法
JP5542788B2 (ja) 仮想計算機システムおよび仮想計算機の移行制御方法
US9098466B2 (en) Switching between mirrored volumes
JP5959733B2 (ja) ストレージシステムおよびストレージシステムの障害管理方法
US20140215482A1 (en) Unified storage system with a block micro controller and a hypervisor
JP5561622B2 (ja) 多重化システム、データ通信カード、状態異常検出方法、及びプログラム
WO2015162663A1 (ja) ストレージシステム
KR20180071941A (ko) 관리 컨트롤러 및 관리 컨트롤러를 포함하는 섀시의 동작 방법
JP2008112399A (ja) ストレージ仮想化スイッチおよびコンピュータシステム
JP2006227856A (ja) アクセス制御装置及びそれに搭載されるインターフェース
JP2005267111A (ja) 記憶制御システム及び記憶制御システムの制御方法
KR20100095519A (ko) 스토리지 복사 서비스 시스템들을 관리하기 위한 장치 및 방법
JP5422705B2 (ja) 仮想計算機システム
JP5422706B2 (ja) 管理システム
JP5147955B2 (ja) 仮想計算機システム
JP6674101B2 (ja) 制御装置および情報処理システム
JP2021033782A (ja) リモートコピーシステム
JP5884801B2 (ja) パス切替装置、パス切替方法及びパス切替プログラム
US11550676B2 (en) Hardware-management-console-initiated data protection
JP2010033379A (ja) 仮想化システム及び仮想化の復旧方法
JP2014179113A (ja) 仮想計算機システムおよび仮想計算機の移行制御方法
WO2021174063A1 (en) Cloud defined storage
JP2015207269A (ja) ストレージシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees