JP5068056B2 - 障害回復方法、計算機システム及び管理サーバ - Google Patents

障害回復方法、計算機システム及び管理サーバ Download PDF

Info

Publication number
JP5068056B2
JP5068056B2 JP2006277738A JP2006277738A JP5068056B2 JP 5068056 B2 JP5068056 B2 JP 5068056B2 JP 2006277738 A JP2006277738 A JP 2006277738A JP 2006277738 A JP2006277738 A JP 2006277738A JP 5068056 B2 JP5068056 B2 JP 5068056B2
Authority
JP
Japan
Prior art keywords
server
hardware
spare
logical partition
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006277738A
Other languages
English (en)
Other versions
JP2008097276A (ja
Inventor
恵介 畑▲崎▼
正芳 北村
良史 高本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006277738A priority Critical patent/JP5068056B2/ja
Priority to US11/693,978 priority patent/US7711983B2/en
Publication of JP2008097276A publication Critical patent/JP2008097276A/ja
Priority to US12/732,579 priority patent/US8041986B2/en
Priority to US13/238,937 priority patent/US8296601B2/en
Application granted granted Critical
Publication of JP5068056B2 publication Critical patent/JP5068056B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2025Failover techniques using centralised failover control functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、計算機システムのサーバで障害が発生した際にサーバを交替し障害を回復する方法に関する。
複数のサーバを備える計算機システムにおいて、業務を稼動中のサーバ(現用サーバ)で障害が発生した場合、現用サーバで稼動中の業務が停止するため、別のサーバに交替し、業務を引き継ぐことによって、業務の停止時間を削減し、計算機システムの可用性を向上する方法がある。
例えば、現用サーバで障害が発生すると、障害が発生した現用サーバが利用していたブートディスク(論理ユニット)を、業務を稼動中でない予備サーバが引き継いで起動することによって、障害が発生したサーバの業務を別のサーバへと引き継ぐ障害回復方法がある。この方法では、計算機システムに複数の現用サーバが存在する場合に、どの現用サーバで障害が発生しても、障害が発生した現用サーバのブートディスクを予備サーバが引き継ぐことによって障害の回復が可能であり、多数の現用サーバに対して少数の予備サーバを準備することによって、高い信頼性を得ることができる。また、予備サーバに予めOS等のソフトウェアを構築しておく必要はない。すなわち、ホットスタンバイ等の障害回復方法に比べて、予備サーバを構築する必要がない。
特開2006−163963号公報
前述した従来のサーバの引継方法では、現用サーバのブートディスクを、予備サーバがそのまま引き継ぐため、現用サーバで稼動していたOSやソフトウェアの設定は、予備サーバにもそのまま引き継がれることとなる。このため、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合、OSやソフトウェアのハードウェアやネットワークに依存する設定が、現用サーバと予備サーバとでは一致しない。このような場合に、予備サーバでOSやソフトウェアが正常に動作せずに、現用サーバで稼動していた業務を回復できない問題がある。
本発明は、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合であっても、現用サーバの利用していたブートディスクをそのまま予備サーバに引き継ぎブートすることで、現用サーバで稼動していた業務を回復することができる計算機システムを提供することを目的とする。
本発明の代表的な一例を示せば以下の通りである。すなわち、業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムにおいて実行され、前記現用サーバでの障害発生時に、前記予備サーバへ業務を引き継ぐために、前記管理サーバで実行される障害回復方法であって、前記予備サーバ上には、一つ以上の論理区画が構築され、前記予備サーバは、前記構築された各論理区画においてオペレーティングシステム上で実行され、当該予備サーバに備わるハードウェア構成要素を各論理区画にマッピングするリソースマッピングプログラムを含み、前記方法は、前記現用サーバ及び前記予備サーバに備わるハードウェアの構成要素を示すハードウェア構成情報を取得する構成情報取得ステップと、前記現用サーバに備わるハードウェアの構成要素と前記予備サーバに備わるハードウェアの構成要素との対応関係及び前記ハードウェアの構成要素の状態を示すハードウェア対応情報を取得する対応関係取得ステップと、前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバの全てのハードウェア構成要素に対応するハードウェア構成要素を備え、その対応するハードウェア構成要素の全てが利用可能な状態である予備サーバを、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバに決定する予備サーバ決定ステップと、前記障害が発生した現用サーバのハードウェアの構成要素と前記予備サーバのハードウェアの構成要素とが同一でない場合に、前記ハードウェア対応情報に示される前記決定された予備サーバのハードウェアの構成要素の全てを、前記予備サーバに構築する論理区画に割り当てたリソースマッピング情報を作成し、前記論理区画と、前記論理区画に割り当てられた前記予備サーバのハードウェアの構成要素及びその識別子と、前記現用サーバのハードウェアの構成要素の識別子であり前記論理区画で実行されるソフトウェアから認識される前記論理区画上のハードウェアの構成要素の識別子と、の対応を含む識別子変換情報を作成し、前記予備サーバに構築する論理区画の構成を決定する論理区画構成決定ステップと、前記リソースマッピング情報及び前記識別子変換情報に基づいて、前記決定された予備サーバに論理区画を構築する論理区画構築ステップと、前記現用サーバで稼動していた業務を、前記決定された予備サーバに構築された前記論理区画に引き継ぐ引き継ぎステップと、を備える。
本発明の障害回復方法によると、業務が稼動している現用サーバで障害が発生した場合に、現用サーバが利用していたブートディスクを、業務が稼動していない予備サーバが引き継いでブートすることで業務を回復することができる。特に、現用サーバと予備サーバとでハードウェアの構成やネットワークの接続先が異なる場合であっても、ユーザがブートディスクの内容を変更することなく、業務が稼動するサーバを引き継ぐことができる。
また、本発明の障害回復方法によると、異なるハードウェア構成のサーバ間で、稼動している業務を移動できることから、サーバのハードウェアの保守を容易にできる。
以下、本発明の実施の形態を図面を参照して説明する。
<第1実施形態>
図1は、本発明の第1の実施の形態の計算機システムの全体の構成を示すブロック図である。
第1の実施の形態の計算機システムは、管理サーバ101、複数のサーバ102A〜C、外部ディスク装置103、スイッチ104及び管理ネットワークスイッチ105を備える。
管理サーバ101は、障害回復プログラム110を実行することによってサーバ102A〜Cに生じた障害を回復する。障害回復プログラム110は、サーバ102A〜Cで障害が発生した場合に、障害が発生したサーバを別のサーバへ切り替え、障害発生サーバの業務を回復する。
サーバ102A〜Cは、プログラムを実行することによって、所定の業務を提供する。各サーバ102A〜Cは、それぞれハードウェア構成が異なっていてもよい。
外部ディスク装置103は、サーバ102A〜Cによって使用されるデータを格納する。外部ディスク装置103は、たとえば複数のディスクを備えるディスクアレイ装置であっても、ファイルサーバであってもよい。外部ディスク装置103は、サーバ102A〜Cに論理ユニット131を提供する。論理ユニット131には、サーバ102A〜CがOSやアプリケーションを起動するために必要なプログラムやパラメータを保持するブートイメージ、及び、起動されたアプリケーションによって使用されるデータが格納される。外部ディスク装置103やスイッチ104のセキュリティ設定によって、各サーバ102A〜Cから、論理ユニット131へのアクセスを制限してもよい。論理ユニット131は、複数存在してもよい。
スイッチ104は、サーバ102A〜Cと外部ディスク装置103とを接続して、ネットワークを構成する。スイッチ104は、例えば、ファイバチャネルプロトコルを扱うSANスイッチの他、イーサネットプロトコル(I−SCSI、NFS等のプロトコル)を扱うスイッチを使用することができる。これによって、各サーバ102A〜Cは、外部ディスク装置103の論理ユニット131にアクセスできる。但し、サーバ102A〜Cが、スイッチ104を介さず、外部ディスク装置103に直接接続されていてもよい。
管理ネットワークスイッチ105は、管理サーバ101とサーバ102A〜Cとを接続して、管理用ネットワークを構成する。管理用ネットワークは、例えば、イーサネット(登録商標、以下同じ)を使用することができる。
図2は、本発明の第1の実施の形態のサーバ102Aの詳細な構成を示すブロック図である。なお、サーバ102Aについて説明するが、他のサーバ102B〜Cも同様の構成を備える。
サーバ102Aは、プログラムやデータを格納するメモリ201、メモリ201に格納されたプログラムを実行する一つ以上のCPU202、各種デバイスとの間のバスを制御するチップセット203、NIC(Network Interface Card)205及びHBA(Host Bus Adaptor)206等のI/Oデバイス、補助記憶装置208、補助記憶装置208のコントローラ207、BMC(Baseboard Management Controller)209等を備える。なお、サーバ102Aは図中に含まれる全ての構成要素を必ずしも含む必要はない。
CPU202は、一つ以上のコアを備え、ソケットに実装される。なお、CPU202のコア毎にスレッドが存在してもよい。HBA206は、ファイバチャネル、SCSI、又はiSCSI等のプロトコルを用いて、外部ディスク装置と通信する。BMC209は、主にサーバ102Aのハードウェアの稼動状態を監視し、ハードウェアの動作を制御する。例えば、BMC209は、外部から、サーバ102Aの電源ON又はOFFを制御したり、サーバ102Aの障害を検出し、検出された障害を外部に通知する。
サーバ102Aの構成要素には、各構成要素を一意に識別する識別子が付されている。具体的には、図中の例では、CPU及びコアを識別するための識別子として、ソケット番号及びコア番号(211)、メモリを識別するための識別子として、アドレス及びモジュール番号(212)、デバイス(例えば、PCIデバイス)を識別するための識別子として、バス番号、デバイス番号及び機能番号(213)が付されている。
図3は、本発明の第1の実施の形態の管理サーバ101の詳細な構成を示すブロック図である。
管理サーバ101は、障害回復プログラム110を格納するメモリ301、メモリ301に格納されたプログラムを実行する一つ以上のCPU302、管理NW−SW105と接続するNIC303及び管理サーバ101に情報を入出力する入出力装置304を備える。
入出力装置304は、マウスやキーボード等の入力装置305及びディスプレイ等の表示装置306が接続される。さらに、入出力装置304は、USBメディア等の記憶装置や、外部記憶装置等を接続してもよい。そして、管理サーバ101が、入出力装置304を介して記憶装置に保存されたデータを読み書きしてもよい。
なお、管理サーバ101は、ハードディスク等の補助記憶装置を備えてもよい。
図4は、本発明の第1の実施の形態の障害回復プログラム110の詳細な構成を示す図である。
障害回復プログラム110は、構成取得サブプログラム401、契機検知サブプログラム402、リマッピングサブプログラム403、論理区画構築サブプログラム404、ブートイメージ引継サブプログラム405、ハードウェア構成テーブル410及びリマッピングテーブル411を含む。なお、ハードウェア構成テーブル410及びリマッピングテーブル411は、障害回復プログラム110と別に構成されてもよい。各サブプログラム及びテーブルの詳細は後述する。
図5は、本発明の第1の実施の形態のハードウェア構成テーブル410の詳細な構成を示す図である。
ハードウェア構成テーブル410は、サーバ識別子フィールド(カラム501)、用途フィールド(カラム502)、CPU構成フィールド(カラム503)、メモリ構成(カラム504)及びデバイス構成(カラム505)を含み、各サーバ102のハードウェアの構成を示す。
サーバ識別子フィールド501には、サーバを一意に識別する識別子が格納される。
用途フィールド502には、カラム501によって特定されるサーバの用途が格納される。具体的には、用途フィールド502には、サーバが業務を稼動中の現用サーバである場合は「現用」が記録される。また、現用サーバで障害が発生した場合に、現用サーバで稼動中であった業務を回復するために、交替先となる予備サーバは「予備」が記録される。これら以外にも、既に交替済みの予備サーバであったり、何らかの理由で利用不可能である場合等、サーバの様々な状態を記録することもできる。
CPU構成フィールド503には、カラム501によって特定されるサーバに備わるCPUの構成及び当該CPUの識別子が格納される。例えば、CPU構成フィールド503は、「<ソケット番号>:<CPU名称> <コア番号>」の形式で記録される。具体的には、ソケット番号が0、CPU名称が「IX306」、コア番号が0であれば、「0:IX306 0」が記録される。
メモリ構成504は、カラム501によって特定されるサーバに備わるメモリの構成及び当該メモリの識別子が格納される。例えば、メモリ構成504は、「<モジュール番号>:アドレス範囲」の形式で記録される。
デバイス構成505は、カラム501によって特定されるサーバに備わるデバイスの構成及び当該デバイスの識別子が格納される。例えば、デバイス構成505は、「<バス番号>:<デバイス番号>:<デバイス名称> <機能番号>(<固有ID>)」の形式で記録される。また、バス番号、デバイス番号及びデバイス名称が同一で、機能番号が異なるデバイスが複数存在する場合には、「/」により区分して追記されている。具体的には、バス番号が0、デバイス番号が0、デバイス名称が「NIC」、機能番号が0、固有IDが「MAC1」であれば、「0:0:NIC 0(MAC1)」が記録される。
なお、本テーブルに記録されるハードウェア構成は、必要に応じて、追加しても、削除してもよい。
図6は、本発明の第1の実施の形態のリマッピングテーブル411の詳細な構成を示す図である。図6は、図5に示したサーバ識別子「S1」の現用サーバのリマッピングテーブルを例示す。
リマッピングテーブル411は、ハードウェアフィールド(カラム601)、現用サーバフィールド(カラム602)及び予備サーバフィールド(カラム603及びカラム604)を含み、計算機システムの現用サーバのハードウェア構成要素と、予備サーバのハードウェア構成要素との対応関係を示す。なお、本テーブルは計算機システムの現用サーバ台数分作成される。
ハードウェアフィールド601は、サーバのハードウェアの種類を示し、例えば、サーバに搭載されるCPU、メモリ及びデバイス(NIC、HBA等)を示す。
現用サーバフィールド602、予備サーバフィールド603及び予備サーバフィールド604は、それぞれ、サーバ識別子「S1」、「S5」、「S6」によって特定されるサーバに搭載されたハードウェア構成要素を示す。
ハードウェア構成要素は、ハードウェア構成テーブル410(図5参照)と同じ識別子を用いて、リマッピングテーブル411に保持される。リマッピングテーブル411の同一の行(レコード)に記録されるハードウェア構成要素は、それぞれ対応関係にあり、サーバ交替時に利用される。本図に示す例では、サーバ識別子「S1」のデバイス「1:0:HBA 0」は、サーバ識別子「S5」のデバイスの「2:0:HBA 0」、及びサーバ識別子「S6」のデバイスの「1:0:HBA 1」に対応することを示す。また、カラム602、603及び604に定められた各ハードウェア構成要素は、カラム601のハードウェアの種類ごとに分類されているが、特に分類が必要なければカラム601を設けなくてもよい。
同一のハードウェア構成要素が共有ハードウェアとなる場合には、共有ハードウェアであることを示す情報が追加的にテーブルに保持される。図に示す例では、共有ハードウェアには「(share)」が追加的に保持される。なお、予備サーバが、対応するハードウェア構成要素が備えない場合は、対応するハードウェア構成要素が存在しないことを示す情報(「Not exist」等)がテーブルに追加的に保持される。
さらに、予備サーバ上のハードウェア構成要素がすでに利用されている状態(例えば、論理区画に利用されている状態等)では、当該ハードウェア構成要素が利用中であることを示す情報(「(In use)」等)がテーブルに追加的に保持される。
また、予備サーバ上にハードウェア構成要素のエミュレーション機能を備える場合には、該当ハードウェア構成要素の項目にエミュレーション可能であることを示す情報、例えば「(emu)」を追加する。ここで、エミュレーション機能とは、例えばCPUのアーキテクチャが現用サーバと予備サーバとで異なる場合に、予備サーバで現用サーバのCPU命令を変換する機能である。
なお、リマッピングテーブル411は、サーバに搭載された全てのハードウェア構成要素の対応関係を保持する必要は必ずしもない。
図7は、本発明の第1の実施の形態のリソースマッピングプログラム701が、サーバ102Aで実行されている状態を示すブロック図である。なお、図2と同様に、サーバ102Aについて説明するが、他のサーバ102B〜Cも同じである。
リソースマッピングプログラム701はメモリ201に保持され、CPU202によって実行される。
リソースマッピングプログラム701は、サーバ102Aに備わるCPU202、メモリ201、NIC205、HBA206等のハードウェア構成要素の一部又は全部を、論理区画にマッピングする機能を備える。この機能によって、サーバ102Aに仮想的なサーバを構築することができる。
また、1又は複数の論理区画を構築することができる。さらに、一つのハードウェア構成要素を複数の論理区画で共有することができる。例えば、一つのCPUコアを複数の論理区画で時分割で共有してもよい。また、一つのハードウェア構成要素を各論理区画に占有させることもできる。このようにして、一つのサーバ上に一つ以上の論理区画を構築し、論理区画毎に独立してOSを実行することができる。
また、リソースマッピングプログラム701は、各ハードウェア構成要素の識別子を変換することもできる。これにより、論理区画上で実行されるOS等のソフトウェアに認識されるハードウェア構成要素の識別子を、任意の識別子に変換することができる。
なお、リソースマッピングプログラム701はハードウェアによって実装し、すなわち、サーバ102Aのハードウェア構成要素として追加してもよい。例えば、リソースマッピングプログラム701を、チップセット203の一つの機能として、チップセット203に実装する等である。
また、リソースマッピングプログラム701は、サーバ上で実行されるのではなく、スイッチのコントローラ上で実行されてもよい。例えば、Infinibandスイッチ等を用いると、リソースマッピングプログラム701をスイッチで実行することができる。
図8は、本発明の第1の実施の形態のリソースマッピングプログラム701によるハードウェア構成要素の論理区画への割り当ての概念を示す図である。
論理区画1(810)は、グループ801に含まれるハードウェアである、CPUコア1(811)、メモリ1(821)、NIC1(831)及びHBA1(841)が割り当てられている。同様に、グループ802及びグループ803は、それぞれ、論理区画820及び830へのハードウェア構成要素の割り当てを示す。
ここで、グループ802及びグループ803は共にNIC3(833)を含んでいる。これは、論理区画820と論理区画830とがNIC3(833)を共有していることを示す。
また、単一のグループにのみ属するハードウェア構成要素は、その論理区画に占有されていることを示す。
図9は、本発明の第1の実施の形態のリソースマッピングプログラム701の構成を示す図である。
リソースマッピングプログラム701は、リソースマッピングサブプログラム901、識別子変換サブプログラム902、リソースマッピングテーブル910及び識別子変換テーブル911を含む。なお、リソースマッピングテーブル910及び識別子変換テーブル911は、リソースマッピングプログラム701と別に構成されてもよい。各サブプログラム及びテーブルの詳細は後述する。
図10は、本発明の第1の実施の形態のリソースマッピングテーブル910の構成を示す図である。
リソースマッピングテーブル910は、論理区画識別子フィールド(カラム1001)、ハードウェアフィールド(カラム1002)及びマッピングフィールド(カラム1003)を含み、各論理区画に割り当てられるハードウェア構成要素の識別子を示す。
論理区画識別子フィールド1001には、論理区画の識別子が保持される。ハードウェアフィールド1002には、ハードウェアの種類が保持される。マッピングフィールド1003には、カラム1001によって特定される論理区画に割り当てられるハードウェア構成要素の識別子が保持される。
ハードウェア構成要素は、ハードウェア構成テーブル410(図5参照)と同じ識別子を用いて、リソースマッピングテーブル910に保持される。また、マッピングフィールド1003は、ハードウェアフィールド1002によって定められるハードウェアの種類毎に分類されるが、特に分類が必要なければカラム1002を設けなくてもよい。
論理区画に割り当てられるハードウェア構成要素が複数の論理区画で共有されるハードウェアである場合には、共有ハードウェアであることを示す情報(例えば、「(share)」等)がテーブルに追加的に保持される。
なお、本テーブルは論理区画に割り当てられる全てのハードウェア構成要素について保持する必要は必ずしもない。
図11は、本発明の第1の実施の形態の識別子変換テーブル911の構成を示す。
識別子変換テーブル911は、論理区画識別子フィールド(カラム1101)、ハードウェアフィールド(カラム1102)、識別子フィールド(カラム1103)及び変換後の識別子フィールド(カラム1104)を含む。
論理区画識別子フィールド1101には、論理区画の識別子が保持される。ハードウェアフィールド1102には、ハードウェアの種類が保持される。
識別子フィールド1103には、リソースマッピングテーブル910(図10参照)と同じ識別子を用いて、カラム1101によって特定される論理区画に割り当てられるハードウェア構成要素の識別子が保持される。識別子フィールド1103に保持される識別子は、リソースマッピングプログラム701から認識できるサーバに搭載する物理的なハードウェア(実ハードウェア)構成要素の識別子である。
変換後の識別子フィールド1104には、識別子フィールド1103によって特定されるハードウェア構成要素の識別子の変換後の識別子が保持される。変換後の識別子フィールド1104に保持される識別子は、論理区画で実行されるOS等のソフトウェアから認識される論理区画上のハードウェア構成要素の識別子である。
また、カラム1103及びカラム1104に保持される識別子は、カラム1102に対応してハードウェアの種類毎に分類されるが、特に分類が必要なければカラム1102を設けず、ハードウェアの種類毎に分類されなくてもよい。
本図に示す例では、論理区画「L1」に割り当てられる実ハードウェアの識別子「2:0:HBA 0」は、論理区画上の識別子として「1:0:HBA 0」に変換されることを示す。
また、ハードウェア構成要素に固有IDが存在する場合には、論理区画で実行されるOS等のソフトウェアから見える論理区画上のハードウェア構成要素に固有のIDを変換することができる。このため、ハードウェア構成要素に固有のIDが存在する場合には、カラム1103及びカラム1104の該当する項目にハードウェアに固有のIDが追加される。例えば、本図に示す例では、識別子の下に記載された「MAC7」がハードウェアに固有のIDであり、論理区画上の固有IDとしては「MAC1」に変換されることを示す。ただし、固有IDの変換が不要な場合には、固有IDの情報を項目に追加しなくてよい。
なお、本テーブルは論理区画に割り当てられる全てのハードウェア構成要素についての対応関係を必ずしも保持する必要はない。
図12は、本発明の第1の実施の形態のサーバの引き継ぎ動作の全体を示すシーケンスである。図示されるシーケンスは、現用サーバ1201、予備サーバ1202及び障害回復プログラム1203(管理サーバ101)によって実行される処理である。
ステップ1211では、障害回復プログラム1203が、計算機システムのハードウェア構成情報を取得し、ステップ1212で、リマッピングテーブルを作成する。
次に、ステップ1213で、現用サーバ1201で障害が発生すると、ステップ1214で、障害回復プログラムが現用サーバ1201の障害発生を検知し、ステップ1215以降の障害回復シーケンスを開始する。なお、障害回復シーケンスは、現用サーバ1201で障害が発生した契機以外に、例えばオペレータの指示によって実行してもよい。ステップ1215では、現用サーバ1201に電源OFFを要求する。
ステップ1216では、現用サーバ1201が、障害回復プログラム1203からの電源OFF要求を受けると、電源遮断する。ただし、電源遮断でなく、シャットダウン処理、スタンバイモードへの移行又はハイバネーションモードへの移行であってもよい。
現用サーバ1201の電源遮断(ステップ1216)が完了すると、次に、ステップ1217では、障害回復プログラム1203は、交替先の予備サーバ1202を決定する。なお、現用サーバ1201の電源遮断完了後に、交替先の予備サーバ1202を決定するものとしたが、現用サーバ1201の電源遮断より前に、交替先の予備サーバ1202を決定してもよい。この場合、論理区画の起動(ステップ1224)までに現用サーバ1201の電源遮断が完了すればよい。このため、論理区画を起動(ステップ1224)する前に現用サーバ1201の電源が遮断されているか否かを確認する。
その後、ステップ1218では、現用サーバ1201と予備サーバ1202のハードウェアのリマッピングを実施し、予備サーバ1202に構築される論理区画の構成を決定する。その後、ステップ1219では、予備サーバ1202に対してリソースマッピングプログラム701の起動を要求する。
ステップ1220では、予備サーバ1202の電源を投入し、予備サーバ1202上でリソースマッピングプログラム701を起動する。ただし、予備サーバ1202が既に動作しており、かつ、リソースマッピングプログラム701が実行されている場合には、ステップ1220はスキップしてよい。
リソースマッピングプログラム701の起動(ステップ1220)が完了すると、ステップ1221で、障害回復プログラム1203は、リソースマッピングプログラム701に対して、ステップ1218で決定した論理区画の構成に基づいて、予備サーバ1202上での論理区画の構築を要求する。
ステップ1222では、予備サーバ1202のリソースマッピングプログラム701は論理区画の構築要求を受け、論理区画を構築する。
論理区画の構築(ステップ1222)が完了すると、ステップ1223では、障害回復プログラム1203は、現用サーバ1201が利用していた論理ユニット131を予備サーバ1202上の論理区画に引き継ぎ、予備サーバ1202のリソースマッピングプログラムに対して論理区画のブートを要求する。ただし、ここで論理区画のブートを要求せず、後で手動等の方法によってブートしてもよい。
ステップ1224では、予備サーバ1202は、リソースマッピングプログラムは論理区画のブート要求を受け、論理区画が引き継いだ論理ユニット131に含まれるブートイメージを用いて、論理区画を起動(ブート)する。その結果、ステップ1225では、予備サーバ1202の論理区画は現用サーバ1201の業務を引き継ぐ。
さらに、図12に示したシーケンスをより詳細に説明する。
図13は、本発明の第1の実施の形態の障害回復プログラム110の構成取得サブプログラム401による処理のフローチャートを示し、図12のステップ1211からステップ1212に対応する。
ステップ1301では、計算機システムの各サーバのハードウェア構成情報を取得し、取得した情報に基づいてハードウェア構成テーブル410を作成する。各サーバのハードウェア構成情報は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでハードウェア構成情報取得プログラムを実行させて、ハードウェア構成情報を取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。取得されるハードウェア構成情報は、例えば、ハードウェア構成テーブル410(図5参照)に含まれる情報である。
次に、ステップ1302では、リマッピングテーブル411を作成する。リマッピングテーブル411は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでハードウェア構成情報取得プログラムを稼動させて、ハードウェア構成情報を取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。
ただし、ハードウェア構成テーブル410等を参照することによって、現用サーバと予備サーバとのハードウェア構成要素の対応関係が一意な場合には、リマッピングテーブル411の一部又は全部を自動的に作成することもできる。これは、例えば、現用サーバと予備サーバが同一のハードウェア構成であったり、各サーバの型番やシリアル番号等からサーバのハードウェア構成を特定でき、あらかじめ各サーバのハードウェア構成要素の対応関係が決まっている場合等である。
ここで、取得及び入力するハードウェア構成情報は、例えばハードウェア構成テーブル410(図5参照)に含まれる情報である。なお、障害回復プログラム110には、各サーバ間のハードウェア構成要素の対応関係をルールとして定義するリマッピングルールテーブルを作成することもできる。リマッピングルールテーブルでは、例えば、「現用サーバより予備サーバのCPU数少ない場合には、予備サーバのCPUの一部を共有CPUとする」ルールや、「現用サーバのバス番号0のデバイスは、予備サーバのバス番号1のデバイスに対応する」ルール等、任意のルールを登録できる。
そして、ステップ1302においてリマッピングテーブル411を作成する際には、このリマッピングルールテーブルに基づいて、自動的に各サーバ間のハードウェア構成要素の対応関係を決定し、リマッピングテーブル411の一部又は全部を自動作成することができる。ここで、リマッピングルールテーブルに登録されるルールは、例えば、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。
図14は、本発明の第1の実施の形態の障害回復プログラム110の契機検知サブプログラム402による処理のフローチャートを示し、図12のステップ1214からステップ1215に対応する。
ステップ1401では、サーバの障害発生を検知する。サーバの障害は、例えばサーバに備わるBMC等からの通知、及び/又は、サーバ上で実行される障害検知プログラムからの通知によって検知する。また、サーバだけでなく、計算機システムを構成する機器のうち、何れかで障害が発生した場合にも障害回復処理を実行してもよい。さらに、障害が発生した契機だけでなく、例えば、障害回復プログラム110のGUI等から、ユーザが現用サーバから予備サーバへの交替を指示する要求を操作をした契機であってもよい。
ステップ1402では、障害回復処理を実行するか否かを判定する。ここで障害回復処理とは、図12のステップ1214以降に示した、現用サーバから予備サーバへのサーバ交替処理である。ステップ1402の判定では、障害の影響によって、現用サーバで実行中のOSやアプリケーション等が続行不可能な場合には、障害回復処理を実行すると判定し、ステップ1403に移る。一方、障害回復処理を実行すると判定されない場合は、契機検知処理を終了する。障害回復処理を実行しない場合とは、障害回復処理を実行しても障害が回復しないと推定される場合、及び、一時的な障害であって何もせずに復旧が見込まれる場合である。
なお、ユーザが現用サーバを予備サーバに交替する要求を障害回復プログラム110に入力した場合は、無条件にステップ1403に移る。また、前述した条件に限らず、ユーザが判定条件を任意に設定してもよい。
ステップ1403では、障害発生した現用サーバの電源OFFを現用サーバに要求し、電源遮断の完了後にステップ1404に移る。ここで、現用サーバの電源遮断は、NICのWake On Lan機能を利用したり、サーバ外部からのサーバの電源制御が可能なコントローラ(例えば、BMC等)に対して要求してもよい。また、現用サーバ上で実行される電源制御プログラムに対して電源遮断を要求してもよい。また、電源遮断だけでなく、サーバのシャットダウン、ハイバネーション又はスタンバイ等を要求することもできる。
なお、現用サーバ上で複数の論理区画が稼動する場合には、まず現用サーバ上で実行されれリソースマッピングプログラム701に対して全ての論理区画の停止を要求し、全ての論理区画の停止完了後に、現用サーバの電源を遮断する。なお、論理区画の停止だけでなく、シャットダウン、ハイバネーション又はスタンバイ等を要求することもできる。
ステップ1404では、リマッピングサブプログラム403による処理へ移る。リマッピングサブプログラム403による処理への移行は、現用サーバ1201の電源遮断完了後であっても、現用サーバ1201の電源遮断より前でもよい。現用サーバ1201の電源遮断より前にリマッピングサブプログラム403による処理へ移行した場合、論理区画の起動要求(ステップ1702)までに現用サーバ1201の電源遮断が完了すればよい。
図15は、本発明の第1の実施の形態の障害回復プログラム110のリマッピングサブプログラム403による処理のフローチャートを示し、図12のステップ1217からステップ1218に対応する。
ステップ1501では、ハードウェア構成テーブル410を参照して、現用サーバのハードウェア構成を取得する。なお、現用サーバで複数の論理区画が稼動している場合には、現用サーバのリソースマッピングプログラム701が全ての論理区画のリソースマッピングテーブル910を取得する。
ステップ1502では、現用サーバのリマッピングテーブル411を取得する。
ステップ1503では、交替する予備サーバを決定する。具体的には、ステップ1502で取得したリマッピングテーブル411を参照し、交替が可能な予備サーバを検索する。
交替が可能な予備サーバとは、リマッピングテーブル411において、現用サーバの全てのハードウェア構成要素に対応するハードウェア構成要素を備え、かつその全てのハードウェア構成要素が利用可能な状態である予備サーバである。例えば、図6に示すリマッピングテーブル411の予備サーバのカラムのうち、全ての項目において存在しない「Not exist」、又は、利用中「(In use)」を示す情報が存在しないカラムに対応する予備サーバを示す。
交替が可能な予備サーバが複数存在する場合には、現用サーバと予備サーバとでハードウェア構成要素の識別子が最も多く一致する予備サーバを優先的に選択する。次に、その予備サーバに交替した場合に、共有されるハードウェア構成要素が少ない予備サーバを優先的に選択する。例えば、リマッピングテーブル411の当該予備サーバのカラムのうち、項目に共有を示す情報「(share)」が少ない予備サーバを選択する。また、現用サーバと予備サーバとで、対応関係にあるハードウェア構成要素に互換性がない場合には、その予備サーバは交替の対象としない。しかし、現用サーバのハードウェア構成要素が、予備サーバでエミュレーション可能である場合には、その予備サーバを交替の対象とすることができる。
さらに、現用サーバのハードウェア構成要素に対応するハードウェア構成要素の一部を備えていない予備サーバであっても、交替が可能である。例えば、現用サーバが2つのNICを備え、それらをチーミング等の機能を用いて冗長化して利用しており、交替先となる予備サーバが一つのNICを備える場合等である。すなわち、冗長的なハードウェア構成要素以外のハードウェア構成要素を備える予備サーバが選択される。
なお、予備サーバの決定条件は、前述した条件以外に、ユーザが設定した任意の条件で決定してもよい。
ステップ1504では、ステップ1503で決定した予備サーバに構築される論理区画の構成を決定する。ただし、現用サーバと予備サーバのハードウェア構成が一致している等、予備サーバに論理区画を構築する必要がない場合には、ステップ1504はスキップできる。ここで、論理区画の構築とは、リソースマッピングテーブル910及び識別子変換テーブル911に、予備サーバの論理区画の情報を作成することである。
これらの情報を作成するため、ステップ1501及びステップ1502で取得した現用サーバに関するハードウェア構成テーブル410及びリマッピングテーブル411の情報が利用される。まず、リソースマッピングテーブル910を作成するため、リマッピングテーブル411の当該予備サーバのカラムの全ての項目を抽出し、当該論理区画に割り当てるハードウェア構成要素とする。
例えば、図6に示したリマッピングテーブル411において、サーバ識別子「S1」の現用サーバから「S5」の予備サーバに交替する場合には、「S5」に対応するカラム603を抽出し、それらの情報を論理区画「L1」に割り当てるハードウェア構成要素とすることによって、図10に示したリソースマッピングテーブル910の論理区画「L1」に対応するテーブルを作成することができる。
なお、現用サーバに論理区画が存在する場合には、現用サーバに存在する全ての論理区画に対応する予備サーバのリソースマッピングテーブル910を作成する。
次に、識別子変換テーブル911を作成するため、リマッピングテーブル411の予備サーバのカラムを識別子変換テーブル911の「識別子」のカラムとし、リマッピングテーブル411の現用サーバのカラムを識別子変換テーブル911の「変換」のカラムとする。例えば、図6に示したリマッピングテーブル411において、サーバ識別子「S1」の現用サーバから「S5」の予備サーバに交替する場合には、「S5」に対応するカラム603及び「S1」に対応するカラム602を抽出し、それぞれを識別子変換テーブル911の「識別子」及び「変換」カラムとすることによって、図11に示す識別子変換テーブル911を作成することができる。
さらに、ハードウェア構成要素の固有ID、例えば、MACアドレス、WWN(World Wide Name)及びUUID等を現用サーバから予備サーバへ引き継ぐ場合には、ハードウェア構成テーブル410を利用して、作成した識別子変換テーブル911の該当するハードウェア構成要素に固有IDの情報を追加する。例えば、図5に示すハードウェア構成テーブル410の現用サーバ「S1」のNICのMACアドレスが「MAC1」であり、対応する予備サーバ「S5」のNICのMACアドレスが「MAC7」であるので、図11の識別子変換テーブル911において、カラム1103の該当項目に「(MAC7)」、カラム1104の該当項目に「(MAC1)」を追加する。これによって、予備サーバの該等NICの固有IDは「MAC7」から「MAC1」に変換される。
なお、固有IDの変換が不要な場合には固有IDの情報を追加しなくてもよい。予備サーバで構築される論理区画のリソースマッピングテーブル910及び識別子変換テーブル911の作成が完了すると、ステップ1505に移る。
ステップ1505では、論理区画構築サブプログラム404による処理へ移る。
図16は、本発明の第1の実施の形態の障害回復プログラム110の論理区画構築サブプログラム404による処理のフローチャートを示し、図12のステップ1219からステップ1222に対応する。
ステップ1601では、リマッピングサブプログラム403による処理で作成した予備サーバで構築される論理区画のリソースマッピングテーブル910及び識別子変換テーブル911の情報を取得する。
ステップ1602では、予備サーバの電源を投入し、予備サーバを起動する。ここで、予備サーバの電源ONは、NICのWake On Lan機能に利用したり、サーバ外部からのサーバの電源制御が可能なコントローラ(例えば、BMC等)に対して要求してもよい。なお、予備サーバが既に電源が投入されている場合には、ステップ1602はスキップする。予備サーバの電源ONが完了すると、次のステップへと移行する。
ステップ1603では、予備サーバでリソースマッピングプログラム701を起動する。例えば、NICのPXEブート機能を利用し、障害回復プログラム110がリソースマッピングプログラム701をネットワークを介して配布して、リソースマッピングプログラム701を起動してもよい。また、予備サーバが備える補助記憶装置に格納された情報から起動してもよい。また、リソースマッピングプログラム701が予め予備サーバに組み込まれており、予備サーバの電源ONに伴い自動的にリソースマッピングプログラム701を起動できる場合には、ステップ1603をスキップしてもよい。予備サーバでリソースマッピングプログラム701が起動すると、次のステップへと移行する。
ステップ1604では、予備サーバ上に論理区画を構築する。ここで、予備サーバに構築される論理区画は、ステップ1603で起動したリソースマッピングプログラム701に、ステップ1601で得たリソースマッピングテーブル910及び識別子変換テーブル911の情報を受け渡し、論理区画の構築を要求する。
論理区画の構築が完了すると、リマッピングテーブル411の情報のうち、構築した論理区画に割り当てたハードウェア構成要素の項目に対して利用中である旨を示す「(In use)」の情報を追加し、次のステップへと移る。なお、ハードウェア構成要素が複数の論理区画で共有される場合には、利用中である旨の情報の追加は不要である。
ステップ1605では、ブートイメージ引継サブプログラム405による処理へ移る。なお、現用サーバと予備サーバのハードウェア構成が同一の場合など、予備サーバに論理区画を構築する必要がない場合には、ステップ1601からステップ1604はスキップする。
図17は、本発明の第1の実施の形態の障害回復プログラム110のブートイメージ引継サブプログラム405による処理のフローチャートを示し、図12のステップ1223からステップ1224に対応する。
ステップ1701では、論理区画構築サブプログラム404によって構築された予備サーバの論理区画に対して現用サーバの論理ユニット(ブートディスク)を引き継ぐ。論理ユニットを引き継ぐ方法は、例えば、現用サーバの利用していた外部ディスク装置のセキュリティ設定を変更し、ブートディスクを予備サーバの該当論理区画からアクセス可能とする方法や、予備サーバの論理区画からアクセス可能な外部ディスク装置のディスクや予備サーバの補助記憶装置に対して現用サーバのブートイメージをコピーする方法がある。
なお、現用サーバで一つ以上の論理区画が稼動している場合等、複数の論理ユニットが存在する場合には、全ての論理ユニットを、予備サーバの対応する論理区画に引き継ぐ。
また、ハードウェア構成要素の固有IDを引き継ぐことによって論理ユニットの引き継ぎが可能な場合には、ステップ1701はスキップしてもよい。これは、例えば、HBAのWWNを現用サーバから予備サーバへ引き継ぐことによって、WWNに基づくセキュリティ設定を変更しなくても良い場合等である。
また、論理区画構築サブプログラム404によって予備サーバに論理区画が構築されなかった場合には、同じ方法によって予備サーバに対して論理ユニットを引き継ぐ。さらに、必要であれば、現用サーバ側のEFIやBIOS等の設定情報も、予備サーバの論理区画上のEFIやBIOSに引き継ぐ。論理ユニットの引き継ぎが完了すると、次のステップへと移る。
ステップ1702では、予備サーバの該当する論理区画の起動要求をリソースマッピングプログラム701に要求する。ただし、論理区画構築サブプログラム404によって予備サーバに論理区画が構築されなかった場合には、本ステップで予備サーバの電源投入を要求し、予備サーバの電源投入が完了すると終了する。
図18は、本発明の第1の実施の形態のリソースマッピングプログラム701による論理区画ブート処理のフローチャートを示し、図12のステップ1225に対応する。
まず、ステップ1801で、論理区画1800のブート要求を受け付ける。
ステップ1802では、リソースマッピングサブプログラム901(図9参照)が、リソースマッピングテーブル910に従って、ブートする論理区画1800に対してハードウェア構成要素を割り当てる。
リソースマッピングサブプログラム901は、リソースマッピングテーブル910に基づいて、論理区画1800で実行されるソフトウェアに対して、予備サーバのハードウェア構成要素のうち論理区画1800に割り当てられたハードウェア構成要素のみを取り扱うことができるように制御する。また、リソースマッピングサブプログラム901は、ハードウェア構成要素を複数の論理区画で共有する場合には、各論理区画に対して時分割でハードウェア構成要素を割り当てたり、仮想的なハードウェアを論理区画上のソフトウェアに認識させたりすることによって、あたかも各論理区画にハードウェアが存在するように認識させることができる。
ステップ1803では、識別子変換サブプログラム902(図9参照)が、識別子変換テーブル911に基づいて、実ハードウェアの識別子を変換して、論理区画上のソフトウェアに対して変換後の識別子のハードウェア構成要素として認識させる。
ステップ1804では、論理区画1800を起動する。ステップ1805では、論理区画1800でOSが起動を開始する。
次に、ステップ1806で、論理区画1800上のOS等のソフトウェアがハードウェアに処理要求を出す。ここで、処理要求に利用されるハードウェアの識別子はステップ1803で変換された論理区画1800上の識別子である。
ステップ1807では、リソースマッピングプログラム701が、識別子変換テーブル911に基づいて、要求を受けたハードウェア構成要素の論理区画1800上の識別子から、実ハードウェアの識別子に変換する。ステップ1808では、ステップ1807で変換された識別子を用いて、実ハードウェアに対して処理要求を出す。
ステップ1809では、処理要求(ステップ1808)の結果を取得する。ステップ1810では、識別子変換テーブル911に基づいて、ステップ1809で結果を出力した実ハードウェアの識別子を論理区画1800上のハードウェアの識別子に変換し、論理区画1800に報告する。例えば、該当ハードウェアからの割り込みによって報告される。なお、この割り込みの際に論理区画1800に通知されるハードウェアの識別子もまた、変換後の識別子である。
ステップ1811では、論理区画1800で実行されるOSやソフトウェアは論理区画1800上のハードウェアから処理要求(ステップ1806)の結果を取得する。
このステップ1806からステップ1811までの処理は、論理区画1800の動作中に繰り返し実行される。なお、実ハードウェアからの割り込みの際に論理区画1800に通知されるハードウェアの識別子は、変換後の識別子である。
なお、一旦、現用サーバと予備サーバとを交替した後に、さらに別の現用サーバから同一の予備サーバに交替することができる。例えば、現用サーバ「S1」を予備サーバ「S5」の論理区画「L1」に交替後、別の現用サーバ「S2」を同一の予備サーバ「S5」の論理区画「L2」に交替することができる。このように、複数の現用サーバと1台の予備サーバとを交替することによって、予備サーバの台数を削減することができる。
<第2実施形態>
本発明の第2の実施の形態では、前述した第1の実施の形態の障害回復プログラム110において、リマッピングテーブル411の一部又は全部を自動的に作成する。なお、第2の実施の形態と第1の実施の形態との組み合わせも、また、本発明の実施形態の範疇に含まれる。
図19は、本発明の第2の実施の形態の障害回復プログラム110の構成を示す図である。
障害回復プログラム110は、構成取得サブプログラム401、契機検知サブプログラム402、リマッピングサブプログラム403、論理区画構築サブプログラム404、ブートイメージ引継サブプログラム405、ハードウェア構成テーブル410、リマッピングテーブル411及びネットワーク構成テーブル412を含む。
図20は、本発明の第2の実施の形態のネットワーク構成テーブル412の構成を示す図である。
ネットワーク構成テーブル412は、サーバ識別子フィールド(カラム2001)、ネットワーク関連ハードウェアフィールド(カラム2002)及び接続先フィールド(カラム2003)を含み、計算機システムにおいて、サーバがネットワークを介して接続されている機器を示す。
サーバ識別子フィールド2001には、サーバの識別子が格納される。
ネットワーク関連ハードウェアフィールド2002には、カラム2001によって特定されるサーバに備わる、ネットワークに関連するハードウェア構成要素の識別子が格納される。この識別子は、第1の実施の形態において、図5で示したハードウェア構成テーブル410に格納されるハードウェア構成要素の識別子と同じである。ネットワークに関連するハードウェアとは、例えば、NICやHBA等のネットワークに接続されるハードウェアである。
接続先フィールド2003には、カラム2002によって特定されるハードウェアが接続されている接続先機器を示す。例えば、サーバ「S1」のNIC「0:0:NIC 0(MAC1)」は、ネットワークスイッチのポート「NW−SW0」に接続されている。接続先フィールド2003に格納される接続先機器は、ネットワーク関連ハードウェアフィールド2002に格納されるハードウェアとネットワークケーブルを介して直接接続されている機器でもよいし、途中にいくつかのネットワーク機器を経由して接続されている機器でもよい。例えば、ネットワークスイッチを経由して外部ディスク装置に接続されている場合には、その外部ディスク装置を接続先機器としてもよい。
図21は、本発明の第2の実施の形態の構成取得サブプログラム401による処理のフローチャートを示す。前述した第1の実施の形態と異なるのは、ステップ2101及びステップ2102が追加され、ステップ1302が削除されている点である。
ステップ2101では、計算機システムの各サーバのネットワーク構成を取得し、ネットワーク構成テーブル412を作成する。各サーバのネットワーク構成情報は、ネットワーク経由で取得しても、ディスク等からファイルとして取得しても、各サーバでネットワーク構成取得プログラムを実行させて取得しても、ネットワークスイッチから取得しても、障害回復プログラム110のGUI等を利用しユーザの操作によって取得してもよい。取得されるネットワーク構成情報は、例えば、ネットワーク構成テーブル412(図20参照)に含まれる情報である。
次に、ステップ2102では、ステップ2101で作成したネットワーク構成テーブル412に基づいて、リマッピングテーブル411を作成する。ネットワーク構成テーブル412に登録された現用サーバ及び予備サーバのハードウェア構成要素のうち、同一の機器に接続されているハードウェア構成要素を、それぞれ対応関係があるハードウェア構成要素とする。
例えば、図20に示したネットワーク構成テーブル412では、サーバ「S3」のネットワーク関連ハードウェア「1:0:HBA 0(WWN5)」は、サーバ「S5」のネットワーク関連ハードウェア「2:0:HBA1 (WWN10)」と同一の機器「FC−SW1」に接続される。また、サーバ「S3」のネットワーク関連ハードウェア「1:0:HBA 1(WWN6)」は、サーバ「S5」のネットワーク関連ハードウェア「2:0:HBA 0(WWN9)」と同一の機器「FC−SW0」に接続される。よって、S3のリマッピングテーブル411(図22)の、現用サーバフィールド602及び予備サーバフィールド603に示すとおり、「1:0:HBA 0」と「2:0:HBA 1」とが対応し、「1:0:HBA 1」と「2:0:HBA 0」とが対応する。
これによって、ネットワーク構成から自動的にリマッピングテーブル411を構築することができ、ユーザの入力操作等のユーザの手間を軽減できる。
なお、ステップ2102の処理のみではリマッピングテーブル411の全ての項目を作成できない場合には、ステップ2102の処理に加えて、前述した第1の実施の形態の図13で示したステップ1302の処理を続けて実行してもよい。
第1の実施の形態の計算機システムの全体の構成を示すブロック図である。 第1の実施の形態のサーバの構成を示すブロック図である。 第1の実施の形態の管理サーバの構成を示すブロック図である。 第1の実施の形態の障害回復プログラムの構成を示す図である。 第1の実施の形態のハードウェア構成テーブルの構成を示す図である。 第1の実施の形態のリマッピングテーブルの構成を示す図である。 第1の実施の形態のリソースマッピングプログラムが、サーバで実行されている状態を示すブロック図である。 第1の実施の形態のリソースマッピングプログラムによるハードウェア構成要素の論理区画への割り当ての概念を示す図である。 第1の実施の形態のリソースマッピングプログラムの構成を示す図である。 第1の実施の形態のリソースマッピングテーブルの構成を示す図である。 第1の実施の形態の識別子変換テーブルの構成を示す。 第1の実施の形態のサーバの引き継ぎ動作の全体を示すシーケンスである。 第1の実施の形態の構成取得サブプログラムによる処理のフローチャートを示す。 第1の実施の形態の契機検知サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のリマッピングサブプログラムによる処理のフローチャートを示す。 第1の実施の形態の論理区画構築サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のブートイメージ引継サブプログラムによる処理のフローチャートを示す。 第1の実施の形態のリソースマッピングプログラムによる論理区画ブート処理のフローチャートを示す。 第2の実施の形態の障害回復プログラムの構成を示す図である。 第2の実施の形態のネットワーク構成テーブルの構成を示す図である。 第2の実施の形態の構成取得サブプログラムによる処理のフローチャートを示す。 第2の実施の形態のリマッピングテーブルの構成を示す図である。
符号の説明
101 管理サーバ
102A、102B、102C サーバ
103 外部ディスク装置
104 スイッチ(SW)
105 管理ネットワークスイッチ(管理NW−SW)
110 障害回復プログラム
131 論理ユニット

Claims (10)

  1. 業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムにおいて実行され、前記現用サーバでの障害発生時に、前記予備サーバへ業務を引き継ぐために、前記管理サーバで実行される障害回復方法であって、
    前記予備サーバ上には、一つ以上の論理区画が構築され、
    前記予備サーバは、前記構築された各論理区画においてオペレーティングシステム上で実行され、当該予備サーバに備わるハードウェア構成要素を各論理区画にマッピングするリソースマッピングプログラムを含み、
    前記方法は、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成要素を示すハードウェア構成情報を取得する構成情報取得ステップと
    前記現用サーバに備わるハードウェアの構成要素と前記予備サーバに備わるハードウェアの構成要素との対応関係及び前記ハードウェアの構成要素の状態を示すハードウェア対応情報を取得する対応関係取得ステップと、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバの全てのハードウェア構成要素に対応するハードウェア構成要素を備え、その対応するハードウェア構成要素の全てが利用可能な状態である予備サーバを、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバに決定する予備サーバ決定ステップと、
    前記障害が発生した現用サーバのハードウェアの構成要素と前記予備サーバのハードウェアの構成要素とが同一でない場合に、前記ハードウェア対応情報に示される前記決定された予備サーバのハードウェアの構成要素の全てを、前記予備サーバに構築する論理区画に割り当てたリソースマッピング情報を作成し、前記論理区画と、前記論理区画に割り当てられた前記予備サーバのハードウェアの構成要素及びその識別子と、前記現用サーバのハードウェアの構成要素の識別子であり前記論理区画で実行されるソフトウェアから認識される前記論理区画上のハードウェアの構成要素の識別子と、の対応を含む識別子変換情報を作成し、前記予備サーバに構築する論理区画の構成を決定する論理区画構成決定ステップと、
    前記リソースマッピング情報及び前記識別子変換情報に基づいて、前記決定された予備サーバに論理区画を構築する論理区画構築ステップと、
    前記現用サーバで稼動していた業務を、前記決定された予備サーバに構築された前記論理区画に引き継ぐ引き継ぎステップと、を備えることを特徴とする障害回復方法。
  2. 前記論理区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記構築される論理区画に割り当てられるハードウェアを前記予備サーバの他の前記論理区画と共有することを、前記リソースマッピングプログラムに指示することを特徴とする請求項1に記載の障害回復方法。
  3. 前記予備サーバ決定ステップでは、前記論理区画が複数存在する場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記複数の論理区画で共有されるハードウェアが最も少ない予備サーバを優先的に選択することを特徴とする請求項2に記載の障害回復方法。
  4. 前記論理区画構築ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記構築される論理区画に割り当てられるハードウェアのエミュレーションを、前記リソースマッピングプログラムに指示することを特徴とする請求項1に記載の障害回復方法。
  5. 前記予備サーバ決定ステップでは、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバに冗長的に備わるハードウェア以外のハードウェアを備える予備サーバを優先的に選択することを特徴とする請求項1に記載の障害回復方法。
  6. 前記管理サーバは、前記現用サーバ及び前記予備サーバが備えるハードウェア構成要素が接続されるネットワーク機器の情報を保持するネットワーク構成テーブルを備え、
    前記対応関係取得ステップでは、前記ネットワーク構成テーブルに基づいて、前記ハードウェア対応情報を取得することを特徴とする請求項1に記載の障害回復方法。
  7. 業務が稼動する1台以上の現用サーバ、前記現用サーバに障害が発生した場合に前記現用サーバで稼動していた業務を引き継ぐ1台以上の予備サーバ、及び管理サーバを備える計算機システムであって、
    前記各サーバに備わるハードウェアは、前記各サーバで実行されるソフトウェアによって識別されるための識別子を有し、
    前記管理サーバは、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成要素を示すハードウェア構成情報を取得し、
    前記現用サーバに備わるハードウェアの構成要素と前記予備サーバに備わるハードウェアの構成要素との対応関係及び前記ハードウェアの構成要素の状態を示すハードウェア対応情報を取得し、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェア構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバの全てのハードウェアの構成要素に対応するハードウェアの構成要素を備え、その対応するハードウェアの構成要素の全てが利用可能な状態である予備サーバを、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバに決定し、
    前記障害が発生した現用サーバのハードウェアの構成要素と前記予備サーバのハードウェアの構成要素とが同一でない場合に、前記ハードウェア対応情報に示される前記決定された予備サーバのハードウェアの構成要素の全てを、前記予備サーバに構築する論理区画に割り当てたリソースマッピング情報を作成し、前記論理区画と、前記論理区画に割り当てられた前記予備サーバのハードウェアの構成要素及びその識別子と、前記現用サーバのハードウェアの構成要素の識別子であり前記論理区画で実行されるソフトウェアから認識される前記論理区画上のハードウェアの構成要素の識別子と、の対応を含む識別子変換情報を作成し、前記予備サーバに構築する論理区画の構成を決定し、
    前記障害が発生した現用サーバで稼動していた業務の引き継ぎを、前記決定された予備サーバに指示し、
    前記リソースマッピング情報及び前記識別子変換情報に基づいて、前記決定された予備サーバに備わるハードウェアの識別子の変換を前記予備サーバに指示し、
    前記予備サーバは、前記業務引継指示及び前記識別子変換指示に基づいて、前記予備サーバに備わるハードウェアの識別子と論理区画におけるハードウェアの識別子とを変換し、前記現用サーバで稼動していた業務を引き継ぐことを特徴とする計算機システム。
  8. 業務が稼動する1台以上の現用サーバ、1台以上の予備サーバ、及び管理サーバを備える計算機システムに実装され、前記現用サーバに障害が発生した場合に、前記予備サーバへ業務を引き継ぐため制御をする管理サーバであって、
    前記各サーバに備わるハードウェアは、前記各サーバで実行されるソフトウェアによって識別されるための識別子を有し、
    前記管理サーバは、
    前記現用サーバ及び前記予備サーバに備わるハードウェアの構成要素を示すハードウェア構成情報を取得し、
    前記現用サーバに備わるハードウェアの構成要素と前記予備サーバに備わるハードウェアの構成要素との対応関係及び前記ハードウェアの構成要素の状態を示すハードウェア対応情報を取得し、
    前記現用サーバで障害が発生した場合に、前記現用サーバ及び前記予備サーバのハードウェアの構成情報及び前記ハードウェア対応情報に基づいて、前記現用サーバの全てのハードウェアの構成要素に対応するハードウェアの構成要素を備え、その対応するハードウェア構成要素の全てが利用可能な状態である予備サーバを、前記障害が発生した現用サーバで稼動していた業務を引き継ぐ予備サーバに決定し、
    前記障害が発生した現用サーバのハードウェアの構成要素と前記予備サーバのハードウェアの構成要素とが同一でない場合に、前記ハードウェア対応情報に示される前記決定された予備サーバのハードウェアの構成要素の全てを、前記予備サーバに構築する論理区画に割り当てたリソースマッピング情報を作成し、前記論理区画と、前記論理区画に割り当てられた前記予備サーバのハードウェアの構成要素及びその識別子と、前記現用サーバのハードウェアの構成要素の識別子であり前記論理区画で実行されるソフトウェアから認識される前記論理区画上のハードウェアの構成要素の識別子と、の対応を含む識別子変換情報を作成し、前記予備サーバに構築する論理区画の構成を決定する論理区画構成決定ステップと、
    前記障害が発生した現用サーバで稼動していた業務の引き継ぎを、前記決定された予備サーバに指示し、
    前記リソースマッピング情報及び前記識別子変換情報に基づいて、前記決定された予備サーバに備わるハードウェアの識別子の変換を前記予備サーバに指示することを特徴とする管理サーバ。
  9. 前記予備サーバは、前記識別子変換指示に基づいて、前記予備サーバに備わるハードウ
    ェアの識別子と、前記論理区画におけるハードウェアの識別子とを変換することを特徴と
    する請求項8に記載の管理サーバ。
  10. 前記予備サーバは、
    前記予備サーバで実行されるソフトウェアからのハードウェアへの処理要求を取得し、
    取得した処理要求の要求先である前記ハードウェアの識別子を前記予備サーバに備わる
    実ハードウェアの識別子に変換し、
    前記実ハードウェアに対して前記変換された識別子を含む処理要求を渡し、
    前記実ハードウェアからの処理結果を取得し、
    前記処理結果を前記予備サーバで実行されるソフトウェアにおけるハードウェアの識別
    子と共に、前記ソフトウェアに渡すことを特徴とする請求項9記載の管理サーバ。
JP2006277738A 2006-10-11 2006-10-11 障害回復方法、計算機システム及び管理サーバ Expired - Fee Related JP5068056B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006277738A JP5068056B2 (ja) 2006-10-11 2006-10-11 障害回復方法、計算機システム及び管理サーバ
US11/693,978 US7711983B2 (en) 2006-10-11 2007-03-30 Fail over method for computer system
US12/732,579 US8041986B2 (en) 2006-10-11 2010-03-26 Take over method for computer system
US13/238,937 US8296601B2 (en) 2006-10-11 2011-09-21 Take over method for computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006277738A JP5068056B2 (ja) 2006-10-11 2006-10-11 障害回復方法、計算機システム及び管理サーバ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011017742A Division JP5266347B2 (ja) 2011-01-31 2011-01-31 引継方法、計算機システム及び管理サーバ

Publications (2)

Publication Number Publication Date
JP2008097276A JP2008097276A (ja) 2008-04-24
JP5068056B2 true JP5068056B2 (ja) 2012-11-07

Family

ID=39304284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006277738A Expired - Fee Related JP5068056B2 (ja) 2006-10-11 2006-10-11 障害回復方法、計算機システム及び管理サーバ

Country Status (2)

Country Link
US (3) US7711983B2 (ja)
JP (1) JP5068056B2 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9205849B2 (en) 2012-05-23 2015-12-08 General Electric Company System and method for inspecting a route during movement of a vehicle system over the route
US8645010B2 (en) * 2009-10-22 2014-02-04 General Electric Company System and method for locomotive inter-consist equipment sparing and redundancy
US7937616B2 (en) * 2005-06-28 2011-05-03 International Business Machines Corporation Cluster availability management
US8060875B1 (en) * 2006-05-26 2011-11-15 Vmware, Inc. System and method for multiple virtual teams
US7937609B2 (en) * 2006-10-24 2011-05-03 International Business Machines Corporation Disaster recovery in a data processing system
JP4923990B2 (ja) 2006-12-04 2012-04-25 株式会社日立製作所 フェイルオーバ方法、およびその計算機システム。
JP2008269462A (ja) * 2007-04-24 2008-11-06 Hitachi Ltd ノードの管理装置及び方法
JP4842210B2 (ja) * 2007-05-24 2011-12-21 株式会社日立製作所 フェイルオーバ方法、計算機システム、管理サーバ及び予備サーバの設定方法
JP5148236B2 (ja) * 2007-10-01 2013-02-20 ルネサスエレクトロニクス株式会社 半導体集積回路及び半導体集積回路の制御方法
US8141093B2 (en) * 2007-11-15 2012-03-20 International Business Machines Corporation Management of an IOV adapter through a virtual intermediary in an IOV management partition
US8141092B2 (en) * 2007-11-15 2012-03-20 International Business Machines Corporation Management of an IOV adapter through a virtual intermediary in a hypervisor with functional management in an IOV management partition
US8141094B2 (en) * 2007-12-03 2012-03-20 International Business Machines Corporation Distribution of resources for I/O virtualized (IOV) adapters and management of the adapters through an IOV management partition via user selection of compatible virtual functions
KR100953098B1 (ko) * 2007-12-17 2010-04-19 한국전자통신연구원 클러스터 시스템 및 그의 운영방법
US20090172163A1 (en) * 2007-12-31 2009-07-02 Verdiem Corporation Systems and methods of on-demand waking of computers
US20090210427A1 (en) * 2008-02-15 2009-08-20 Chris Eidler Secure Business Continuity and Disaster Recovery Platform for Multiple Protected Systems
US8359415B2 (en) * 2008-05-05 2013-01-22 International Business Machines Corporation Multi-root I/O virtualization using separate management facilities of multiple logical partitions
JP5493452B2 (ja) * 2008-05-09 2014-05-14 富士通株式会社 復旧サーバ、復旧処理プログラム及び計算機システム
US8555048B2 (en) * 2008-05-17 2013-10-08 Hewlett-Packard Development Company, L.P. Computer system for booting a system image by associating incomplete identifiers to complete identifiers via querying storage locations according to priority level where the querying is self adjusting
JP4572250B2 (ja) 2008-09-11 2010-11-04 株式会社日立製作所 計算機切り替え方法、計算機切り替えプログラム及び計算機システム
US8677342B1 (en) * 2008-10-17 2014-03-18 Honeywell International Inc. System, method and apparatus for replacing wireless devices in a system
JP4648447B2 (ja) * 2008-11-26 2011-03-09 株式会社日立製作所 障害復旧方法、プログラムおよび管理サーバ
JP4727714B2 (ja) * 2008-12-05 2011-07-20 株式会社日立製作所 サーバのフェイルオーバの制御方法及び装置、並びに計算機システム群
US8144582B2 (en) * 2008-12-30 2012-03-27 International Business Machines Corporation Differentiating blade destination and traffic types in a multi-root PCIe environment
JP2010170351A (ja) 2009-01-23 2010-08-05 Hitachi Ltd 計算機システムのブート制御方法
US8990397B2 (en) * 2009-07-31 2015-03-24 Ntt Docomo, Inc. Resource allocation protocol for a virtualized infrastructure with reliability guarantees
US20110060815A1 (en) * 2009-09-09 2011-03-10 International Business Machines Corporation Automatic attachment of server hosts to storage hostgroups in distributed environment
US8510592B1 (en) * 2009-09-15 2013-08-13 Netapp, Inc. PCI error resilience
CN102025476B (zh) * 2009-09-23 2014-02-26 中兴通讯股份有限公司 在bras多机备份场景中实现用户端口定位的方法及网络***
US8903574B2 (en) * 2009-10-22 2014-12-02 General Electric Company System and method for vehicle communication, vehicle control, and/or route inspection
US8234515B2 (en) * 2010-04-01 2012-07-31 Accenture Global Services Limited Repurposable recovery environment
US9098305B2 (en) * 2010-04-13 2015-08-04 Compal Electronics, Inc. Computer system and bootup and shutdown method thereof
US8458510B2 (en) 2010-08-12 2013-06-04 International Business Machines Corporation LPAR creation and repair for automated error recovery
FI20105878A (fi) * 2010-08-24 2012-02-25 Tellabs Oy Tiedonsiirtoverkon verkkoelementin suojaus
US8311986B2 (en) * 2010-09-16 2012-11-13 Mimosa Systems, Inc. Determining database record content changes
US9292613B2 (en) * 2010-09-17 2016-03-22 Oracle International Corporation Generation of generic universal resource indicators
JP5150699B2 (ja) 2010-10-05 2013-02-20 株式会社バッファロー フェイルオーバ情報管理装置、記憶処理装置及びフェイルオーバ制御方法
US8762339B2 (en) 2010-11-29 2014-06-24 International Business Machines Corporation Disaster recovery utilizing collapsible virtualized capacity
US8521884B2 (en) 2010-12-15 2013-08-27 Industrial Technology Research Institute Network system and method of address resolution
US8819708B2 (en) * 2011-01-10 2014-08-26 Dell Products, Lp System and method to abstract hardware routing via a correlatable identifier
JP6032723B2 (ja) * 2011-08-23 2016-11-30 Necプラットフォームズ株式会社 多重化装置及びその制御方法
JP5561622B2 (ja) * 2011-09-27 2014-07-30 日本電気株式会社 多重化システム、データ通信カード、状態異常検出方法、及びプログラム
WO2013069914A1 (ko) * 2011-11-07 2013-05-16 엘지전자 주식회사 제어 장치, 제어 타겟 장치 및 이들의 컨텐트 정보 전송 방법
WO2013069913A1 (ko) * 2011-11-08 2013-05-16 엘지전자 주식회사 제어 장치, 제어 타겟 장치 및 이들의 컨텐트 정보 전송 방법
JP5983733B2 (ja) * 2012-03-19 2016-09-06 日本電気株式会社 通信システム、制御装置、通信装置、情報中継方法及びプログラム
US20130304901A1 (en) * 2012-05-11 2013-11-14 James Malnati Automated integration of disparate system management tools
DE102012210161A1 (de) * 2012-06-15 2013-12-19 Airbus Operations Gmbh Koppelvorrichtung für ein Datenübertragungsnetzwerk und Datenübertragungsnetzwerk
JP2014010731A (ja) * 2012-07-02 2014-01-20 Hitachi Ltd 計算機、計算機システム、及びioデバイス構成の引継ぎ方法
WO2014027416A1 (ja) * 2012-08-17 2014-02-20 富士通株式会社 情報処理装置、及び情報処理装置の制御方法
US9052960B2 (en) * 2012-08-29 2015-06-09 Netiq Corporation Techniques for mapping and managing resources
US9104607B2 (en) 2012-10-31 2015-08-11 International Business Machines Corporation Simulation engine for use in disaster recovery virtualization
US9104625B2 (en) 2012-12-11 2015-08-11 International Business Machines Corporation Disaster recovery internet protocol address failover
WO2014112042A1 (ja) * 2013-01-15 2014-07-24 富士通株式会社 情報処理装置、情報処理装置制御方法及び情報処理装置制御プログラム
JP6175958B2 (ja) * 2013-07-26 2017-08-09 富士通株式会社 メモリダンプ方法及びプログラム、並びに、情報処理装置
JP6063576B2 (ja) * 2013-09-12 2017-01-18 株式会社日立製作所 サーバシステム、計算機システム、サーバシステムの管理方法、及びコンピュータ読み取り可能な記憶媒体
WO2015052836A1 (ja) * 2013-10-11 2015-04-16 株式会社日立製作所 ストレージ装置及びフェールオーバ方法
US9508470B2 (en) 2013-10-29 2016-11-29 General Electric Company Vibration damage repair in dynamoelectric machines
JP6278869B2 (ja) * 2014-09-02 2018-02-14 日本電信電話株式会社 Ne管理装置およびコンフィグ同期方法
CN107888430B (zh) * 2017-12-15 2020-01-14 新华三云计算技术有限公司 虚拟机管理操作同步方法及装置
FR3076004B1 (fr) * 2017-12-27 2021-03-19 Bull Sas Procede de gestion de panne dans un reseau de noeuds et partie de reseau de noeuds associee
CN110534136B (zh) * 2018-05-23 2022-02-01 北京京东尚科信息技术有限公司 录音的方法和装置
CN108804288B (zh) * 2018-05-31 2021-07-16 联想(北京)有限公司 一种信息处理装置、方法及电子设备
CN109445988B (zh) * 2018-10-19 2024-05-24 京信网络***股份有限公司 异构容灾方法、装置、***、服务器和容灾平台
JP6977740B2 (ja) * 2019-02-22 2021-12-08 横河電機株式会社 コンピュータシステム、コンピュータ装置およびライセンス管理方法
CN111897697A (zh) * 2020-08-11 2020-11-06 腾讯科技(深圳)有限公司 服务器硬件故障修复方法和装置
US11347601B1 (en) 2021-01-28 2022-05-31 Wells Fargo Bank, N.A. Managing data center failure events
CN114385414B (zh) * 2021-12-06 2023-03-21 深圳市亚略特科技股份有限公司 基于数据分区的数据备份方法、装置、设备及存储介质
CN115098306A (zh) * 2022-08-03 2022-09-23 南方电网数字电网研究院有限公司 应用于电力工控终端的嵌入式容错自愈结构、方法及***
US20240143459A1 (en) * 2022-10-26 2024-05-02 Oracle International Corporation Replicating resources between regional data centers

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2100540A1 (en) * 1992-10-19 1994-04-20 Jonel George System and method for performing resource reconfiguration in a computer system
US6647508B2 (en) * 1997-11-04 2003-11-11 Hewlett-Packard Development Company, L.P. Multiprocessor computer architecture with multiple operating system instances and software controlled resource allocation
US6230285B1 (en) * 1998-09-08 2001-05-08 Symantec Corporation Boot failure recovery
JP3655484B2 (ja) * 1999-03-05 2005-06-02 株式会社日立製作所 論理区画式計算機システム
JP3768775B2 (ja) * 2000-04-27 2006-04-19 三菱電機株式会社 バックアップ装置及びバックアップ方法
US6922791B2 (en) * 2001-08-09 2005-07-26 Dell Products L.P. Failover system and method for cluster environment
JP4119162B2 (ja) * 2002-05-15 2008-07-16 株式会社日立製作所 多重化計算機システム、論理計算機の割当方法および論理計算機の割当プログラム
JP3642521B2 (ja) * 2002-05-17 2005-04-27 バンドー化学株式会社 トナー帯電ローラ
US7565398B2 (en) * 2002-06-27 2009-07-21 International Business Machines Corporation Procedure for dynamic reconfiguration of resources of logical partitions
US7275180B2 (en) * 2003-04-17 2007-09-25 International Business Machines Corporation Transparent replacement of a failing processor
JP2005250839A (ja) * 2004-03-04 2005-09-15 Nomura Research Institute Ltd 耐障害性システム
US20060015773A1 (en) * 2004-07-16 2006-01-19 Dell Products L.P. System and method for failure recovery and load balancing in a cluster network
JP4462024B2 (ja) * 2004-12-09 2010-05-12 株式会社日立製作所 ディスク引き継ぎによるフェイルオーバ方法
JP4733399B2 (ja) * 2005-01-28 2011-07-27 株式会社日立製作所 計算機システム、計算機、ストレージ装置及び管理端末
JP4842210B2 (ja) * 2007-05-24 2011-12-21 株式会社日立製作所 フェイルオーバ方法、計算機システム、管理サーバ及び予備サーバの設定方法

Also Published As

Publication number Publication date
US20100180148A1 (en) 2010-07-15
JP2008097276A (ja) 2008-04-24
US20080091746A1 (en) 2008-04-17
US20120011392A1 (en) 2012-01-12
US8296601B2 (en) 2012-10-23
US8041986B2 (en) 2011-10-18
US7711983B2 (en) 2010-05-04

Similar Documents

Publication Publication Date Title
JP5068056B2 (ja) 障害回復方法、計算機システム及び管理サーバ
US8601314B2 (en) Failover method through disk take over and computer system having failover function
JP4544146B2 (ja) 障害回復方法
JP5080140B2 (ja) I/oデバイス切り替え方法
JP4939102B2 (ja) ネットワークブート計算機システムの高信頼化方法
US9489274B2 (en) System and method for performing efficient failover and virtual machine (VM) migration in virtual desktop infrastructure (VDI)
US7930371B2 (en) Deployment method and system
US8010827B2 (en) Method and computer system for failover
JP4780237B2 (ja) 障害回復方法
JP5316616B2 (ja) 業務引き継ぎ方法、計算機システム、及び管理サーバ
JP5266347B2 (ja) 引継方法、計算機システム及び管理サーバ
JP5484434B2 (ja) ネットワークブート計算機システム、管理計算機、及び計算機システムの制御方法
US11755438B2 (en) Automatic failover of a software-defined storage controller to handle input-output operations to and from an assigned namespace on a non-volatile memory device
JP5267544B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
JP4877368B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
JP2010033379A (ja) 仮想化システム及び仮想化の復旧方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120814

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees