JP6007988B2 - 予備系装置、運用系装置、冗長構成システム、及び負荷分散方法 - Google Patents

予備系装置、運用系装置、冗長構成システム、及び負荷分散方法 Download PDF

Info

Publication number
JP6007988B2
JP6007988B2 JP2014538339A JP2014538339A JP6007988B2 JP 6007988 B2 JP6007988 B2 JP 6007988B2 JP 2014538339 A JP2014538339 A JP 2014538339A JP 2014538339 A JP2014538339 A JP 2014538339A JP 6007988 B2 JP6007988 B2 JP 6007988B2
Authority
JP
Japan
Prior art keywords
data
system device
standby
server
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014538339A
Other languages
English (en)
Other versions
JPWO2014050493A1 (ja
Inventor
麻紀 大野
麻紀 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014050493A1 publication Critical patent/JPWO2014050493A1/ja
Application granted granted Critical
Publication of JP6007988B2 publication Critical patent/JP6007988B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/85Active fault masking without idle spares

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、予備系装置、運用系装置、冗長構成システム、及び負荷分散方法に関し、特に、運用系装置の処理負荷を軽減する予備系装置、運用系装置、冗長構成システム、及び負荷分散方法に関する。
従来、運用系装置と予備系装置とで構成される冗長構成システムが知られている。冗長構成システムは、障害等により運用系装置が正常に動作できなくなったとき、予備系装置に切り替え、システムが提供するサービスを継続する。予備系装置に切り替える方法として、ホットスタンバイ方式やコールドスタンバイ方式が知られている。
ホットスタンバイ方式は、運用系装置が正常に動作しなくなった場合に備え、予備系装置が運用系装置と常に同じ動作、所謂ミラーリングを行う方式である。したがって、ホットスタンバイ方式を用いる冗長構成システムは、運用系装置が正常に動作できなくなった場合、即座に予備系装置に処理を切り替えることができる。一方、コールドスタンバイ方式は、運用系装置が動作できなくなった時から予備系装置が起動し、運用系装置の処理が予備系装置に引き継がれる方式である。コールドスタンバイ方式を用いる冗長構成システムは、運用系装置が正常に動作する間、予備系装置は動作しないので、運用コストを抑えることができる。
コールドスタンバイ方式を用いた冗長構成システムの一例が、後述の特許文献1に開示されている。特許文献1の計算機システムは、本番計算機と、バックアップ計算機と、共有補助記憶装置とを備える。通常時には本番計算機がオンラインプログラムを実行し、所定周期で定期的に共有補助記憶装置にイメージデータを保存していく。一方、バックアップ計算機にはオンライン環境と開発・テスト環境とが同時に構築されているが、通常時にはオンライン環境を休止状態とし、開発・テスト環境を稼動状態とする。そして本番計算機に障害が発生すると、バックアップ計算機がそれまでの開発・テスト環境を休止状態、オンライン環境を稼動状態に切替え、共有補助記憶装置に保存されているイメージデータを読み出してオンラインプログラムを実行する。
上述の構成や動作により、特許文献1の計算機システムは、バックアップ計算機を再稼動することなく、短時間のうちにバックアップ動作を開始することができる。
また、ホットスタンバイ方式を用いた冗長構成システムの一例が、後述の特許文献2に開示されている。特許文献2の無線通信システムは、第1、第2の受信機と、第1、第2の出力制御器と、第1、第2の送信機と、送信切替制御器と、送信アンテナを備える。第1、第2の受信機は、それぞれにおいて測定した受信レベルを第1、第2の出力制御器に出力する。第1、第2の出力制御器は、それぞれ、入力された受信レベルに基づいて第1、第2の送信機から出力される伝送信号の送信レベルを制御する。送信切替制御器は、第1、第2の送信機から出力される伝送信号のいずれかを選択して送信アンテナより出力する。そして、運用中の系の出力制御部は、そのCPU(Central Processing Unit)が故障した場合に、CPUアラームを送信切替制御器に送る。送信切替制御器は、予備系の送信機からの伝送信号を送信アンテナより出力するよう系切替制御を行う。
上述の構成や動作により、無線通信システムは、出力制御部のCPUが故障することで発生する、送信出力が低い値でしか送信できない状態を回避することができる。
特開平8−314874号公報 特開平10−276120号公報
しかし、特許文献1、2の冗長構成システムは、予備系装置が、運用系装置に故障が発生するまで運用系の動作を全く行わないか、運用系装置と同じ動作をしているだけなので、運用系装置に処理が集中し、その処理負荷が軽減されないという課題があった。さらに、特許文献1や特許文献2の冗長構成システムは、予備系装置が通常、運用系の動作をしない、若しくは運用系装置と同じ動作を行っているだけなので、自身の処理能力が運用系装置の処理能力以上にならない課題も発生していた。
本発明の目的の一つは、上記課題を解決する予備系装置、運用系装置、冗長構成システム、及び負荷分散方法を提供することである。
本発明の一側面の予備系装置は、運用系装置と冗長構成を構成する予備系装置であって、運用系装置に障害の予兆があることを検出していないときには、運用系装置に保持されたデータのうち、運用系装置から入力される一部のデータに対して、所定の処理を行い、運用系装置に障害の予兆があることを検出した場合には、上記一部のデータに対して所定の処理を行った後、障害の予兆があることを示す信号を運用系装置に出力し、その結果、上記一部のデータの後に入力されるデータに対しても、上記所定の処理を行う。
本発明の一側面の運用系装置は、予備系装置と冗長構成を構成する運用系装置であって、保持するデータの中から、一部のデータを取得して予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、障害の予兆があることを示す信号が入力されると、上記出力しなかったデータも予備系装置に出力する。
本発明の一側面の冗長構成システムは、予備系装置と運用系装置から構成された冗長構成システムであって、予備系装置は、運用系装置に障害の予兆があることを検出していないときには、運用系装置に保持されたデータのうち、運用系装置から入力される一部のデータに対して、所定の処理を行い、運用系装置に障害の予兆があることを検出した場合には、上記一部のデータに対して所定の処理を行った後、障害の予兆があることを示す信号を運用系装置に出力し、その結果、上記一部のデータの後に入力されるデータに対しても、上記所定の処理を行い、運用系装置は、保持するデータの中から、上記一部のデータを取得して予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、障害の予兆があることを示す信号が入力されると、上記出力しなかったデータも予備系装置に出力する。
本発明の一側面の負荷分散方法は、予備系装置と運用系装置から構成された冗長構成システムにおける負荷分散方法であって、運用系装置は、保持するデータの中から、一部のデータを取得して予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、予備系装置は、運用系装置に障害の予兆があることを検出していないときには、運用系装置から入力される、上記一部のデータに対して、所定の処理を行い、運用系装置に障害の予兆があることを検出した場合には、上記一部のデータに対して所定の処理を行った後、障害の予兆があることを示す信号を運用系装置に出力し、障害の予兆があることを示す信号が入力された運用系装置は、上記出力しなかったデータも予備系装置に出力し、その結果、予備系装置は、上記一部のデータの後に入力されるデータに対しても、所定の処理を行う。
図1は第1の実施の形態における冗長構成システムの構成例を示す図である。 図2は第1の実施の形態における処理量決定テーブルの具体例である。 図3は第1の実施の形態における冗長構成システムの通常時の動作を説明する為の図である。 図4は第1の実施の形態における冗長構成システムの通常時の動作(クライアント端末40が情報を取得する動作)を説明する為の図である。 図5は第1の実施の形態における冗長構成システムの障害予兆検出時の動作を説明する為の図である。 図6は第2の実施の形態における冗長構成システムの構成例を示す図である。 図7は第2の実施の形態における冗長構成システムの通常時の動作を説明する為の図である。 図8は第2の実施の形態における処理量確定テーブルの具体例である。 図9は第3の実施の形態における冗長構成システムの構成例を示す図である。 図10Aは第3の実施の形態における運用系装置の一構成例を示すブロック図である。 図10Bは第3の実施の形態における予備系装置の一構成例を示すブロック図である。
本発明の実施形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
[構成の説明]
図1は、第1の実施の形態における冗長構成システムの構成例を示す図である。
(1)第1の実施の形態における冗長構成システムの構成
図1に示されるように、第1の実施の形態における冗長構成システムは、対向ノード10と、運用系サーバ20と、予備系サーバ30と、クライアント端末40を備える。運用系サーバ20は、対向ノード10、予備系サーバ30、およびクライアント端末40に有線回線で接続される。また、予備系サーバ30は、対向ノード10と、クライアント端末40に有線回線で接続される。
対向ノード10は、一般的なパフォーマンスデータを測定し、そのパフォーマンスデータを運用系サーバ20や予備系サーバ30に出力する装置やシステムである。例えば、対向ノード10は、携帯基地局(eNB:evolved Node B)やMMS(Mobile Multimedia Switching System)であってもよいし、ルータやスイッチであってもよい。対向ノード10が携帯基地局(eNB)である場合のパフォーマンスデータとしては、リソース使用状況や回線疎通状況、呼損状況などの各種トラヒックデータが例としてあげられる。
運用系サーバ20や予備系サーバ30は、パフォーマンスデータを処理する保守監視用のサーバである。例えば、運用系サーバ20や予備系サーバ30は、NMS(Network Management System)やEMS(Element Management System)を構成する保守監視用のサーバであってもよい。
(2)冗長構成システムを構成する各装置の機能
以下に対向ノード10、運用系サーバ20、予備系サーバ30、及びクライアント端末40の機能を説明する。
対向ノード10は、パフォーマンスデータを測定する機能を有する。対向ノード10は、パフォーマンスデータの取得を要求するパフォーマンスデータ要求信号が入力されると、それまでに測定していたパフォーマンスデータを出力する。
運用系サーバ20は、データ量を指定する信号が入力されると、その信号を、自身に備わるメモリに格納する。また、運用系サーバ20は、所定のタイミングになると、パフォーマンスデータの取得を要求するパフォーマンスデータ要求信号を対向ノード10に出力する。所定のタイミングは、本実施形態の冗長構成システムのユーザによって運用系サーバ20に設定される。運用系サーバ20は、パフォーマンスデータ要求信号を出力した結果、対向ノード10から入力されるパフォーマンスデータを、自身に備わるメモリに格納し、保持する。
また、運用系サーバ20は、パフォーマンスデータをメモリに格納すると、データ量を指定する信号をメモリから取得する。さらに、運用系サーバ20は、上述のデータ量を指定する信号が示すデータ量分のパフォーマンスデータをメモリから取得して予備系サーバ30に出力する。運用系サーバ20は、出力したパフォーマンスデータをメモリから削除する。
なお、運用系サーバ20は、データ量を指定する信号が入力されておらず、メモリから取得できない場合には、所定のデータ量のパフォーマンスデータをメモリから取得し、出力する。所定のデータ量は、本実施形態の冗長構成システムのユーザによって運用系サーバ20に設定される。
さらに、運用系サーバ20は、出力しなかった残りのパフォーマンスデータに対し、格納された順に所定の処理を行う。所定の処理は、本実施形態の冗長構成システムのユーザによって運用系サーバ20に設定される。運用系サーバ20は、所定の処理を行った結果、新たに生成したデータをメモリに格納する。また、運用系サーバ20は、サーバデータを要求する信号が予備系サーバ30から入力されると、サーバデータを測定する。サーバデータとは、運用系サーバ20の処理負荷量のことである。例えば、サーバデータは、運用系サーバ20のCPU(Central Processing Unit)使用率であってもよいし、対向ノード10と運用系サーバ20間でヘルスチェック等のアクセスが頻繁に行われる場合、そのアクセス頻度であってもよい。
運用系サーバ20は、測定したサーバデータを予備系サーバ30に出力する。さらに、運用系サーバ20は、処理結果を要求する信号がクライアント端末40から入力されると、その信号を予備系サーバ30に出力する。運用系サーバ20は、処理結果を要求する信号を出力した結果、予備系サーバ30からデータが入力されると、そのデータと、メモリに格納している新たに生成したデータとを併せてクライアント端末40に出力する。
さらに、運用系サーバ20は、障害の予兆があることを示す信号が入力されると、メモリに格納されているパフォーマンスデータを予備系サーバ30に出力する。運用系サーバ20は、メモリに格納されているパフォーマンスデータ全てを予備系サーバ30に転送すると、転送終了を示す信号を出力する。
また、運用系サーバ20は、障害の予兆があることを示す信号が入力されると、自己に障害が発生しているかを公知の機能で繰り返し確認し、その度に、障害が発生している場合には、障害発生を報告する応答を予備系サーバ30に出力する。また、運用系サーバ20は、自己に障害が発生していない場合には、障害なしを報告する応答を予備系サーバ30に出力する。障害の有無を報告する信号は報告信号に相当する。さらに、運用系サーバ20は、リセット信号が入力されると、自身をリセットし、予備系サーバ30として動作を開始する。
予備系サーバ30は、所定のタイミングになると、自身の処理負荷量を測定する。処理負荷量はCPU使用率であってもよい。所定のタイミングは、本実施形態の冗長構成システムのユーザによって予備系サーバ30に設定される。さらに、予備系サーバ30は、測定した処理負荷量に対応する、データ量を指定する信号を処理量決定テーブルから求めると、その信号を、データ量を指定する信号として運用系サーバ20に出力する。処理量決定テーブルは、処理負荷量と、データ量を指定する信号が対応づけられたテーブルである。処理量決定テーブルは、本実施形態の冗長構成システムのユーザによって運用系サーバ20に設定される。
図2は、第1の実施の形態における処理量決定テーブルの具体例である。例えば、予備系サーバ30は、測定した処理負荷量、すなわちCPU使用率が20%である場合、運用系サーバ20がメモリに保持するパフォーマンスデータの半分を指定する信号を、データ量を指定する信号として運用系サーバ20に出力する。データ量を指定する信号は、運用系サーバ20がメモリに保持するパフォーマンスデータの一部を指定する信号である。
予備系サーバ30は、データ量を指定する信号を出力した結果、運用系サーバ20からパフォーマンスデータが入力されると、自身に備わるメモリにパフォーマンスデータを格納し、格納順に所定の処理を行う。所定の処理は、本実施形態の冗長構成システムのユーザによって予備系サーバ30に設定される。ここでの所定の処理は、運用系装置520が行う所定の処理と同じ処理であってもよい。予備系サーバ30は、所定の処理を行った結果、新たに生成したデータをメモリに格納する。
さらに、予備系サーバ30は、所定の周期で、サーバデータを要求する信号を運用系サーバ20に出力する。所定の周期は、本実施形態の冗長構成システムのユーザによって予備系サーバ30に設定される。また、予備系サーバ30は、運用系サーバ20から入力されたサーバデータを基に、運用系サーバ20に障害の予兆があるかを検出する。具体的には、予備系サーバ30は、運用系サーバ20から入力されるサーバデータ、すなわちCPU使用率やアクセス頻度が所定の閾値を超過したかを確認する。所定の閾値は、本実施形態の冗長構成システムのユーザによって予備系サーバ30に設定される。予備系サーバ30は、CPU使用率やアクセス頻度が所定の閾値を超過した場合に、運用系サーバ20に障害の予兆があることを検出したと判定する。
予備系サーバ30は、障害が発生する予兆があることを検出した場合、障害の予兆があることを示す信号を運用系サーバ20に出力する。予備系サーバ30は、障害の予兆があることを示す信号を出力した結果、故障発生を報告する応答が運用系サーバ20から入力されると、その応答をメモリに格納する。予備系サーバ30は、転送終了を示す信号が運用系サーバ20から入力されると、メモリを確認し、障害発生を報告する応答をメモリに格納していた場合には、運用系サーバ20に障害発生と判断する。
予備系サーバ30は、運用系サーバ20に障害発生と判断した場合、リセット信号を運用系サーバ20に出力し、さらに自装置が運用系サーバ20として動作する。さらに、予備系サーバ30は、障害発生を報告する応答をメモリから削除する。また、予備系サーバ30は、処理結果を要求する信号が運用系サーバ20から入力された場合には、メモリに格納されている新たに生成したデータを運用系サーバ20に出力する。
クライアント端末40は、所定の周期で、処理結果を要求する信号を出力する。所定の周期は、本実施形態の冗長構成システムのユーザによってクライアント端末40に設定される。クライアント端末40は、入力されたデータを、自身に備わる画面上に表示する。
[動作の説明]
図3は、第1の実施の形態における冗長構成システムの通常時の動作を説明する為の図である。また、図4は、第1の実施の形態における冗長構成システムの通常時の動作(クライアント端末40が情報を取得する動作)を説明する為の図である。さらに、図5は、第1の実施の形態における冗長構成システムの障害予兆検出時の動作を説明する為の図である。
上述の障害予兆検出時とは、運用系サーバ20に障害の予兆があることを予備系サーバ30が検出した時のことである。運用系サーバ20に障害の予兆があることを検出する手順については、後述のS110〜S113の処理にて説明を行う。
以下に、第1の実施の形態における冗長構成システムの通常時の動作と、障害予兆検出時の動作を、それぞれ図3〜図5を用いて説明する。
(1)冗長構成システムの通常時の動作
始めに、図3を用いて、本実施形態の冗長構成システムの通常時の動作を説明する。
まず、予備系サーバ30は、図3に示されるように、所定のタイミングになると、自身の処理負荷量、例えばCPU使用率を測定する(S100)。
なお、予備系サーバ30は、運用系サーバ20と予備系サーバ30との間でヘルスチェック等、アクセスを頻繁に行う場合、そのアクセス頻度を処理負荷量として測定してもよい。
次に、予備系サーバ30は、測定した処理負荷量に対応する、データ量を指定する信号を処理量決定テーブルから求め、その信号を運用系サーバ20に出力する(S101)。
例えば、予備系サーバ30は、図2の処理量決定テーブルが設定されていて、S100で測定したCPU使用率が20%である場合、運用系サーバ20がメモリに保持するパフォーマンスデータの半分を指定する信号を、データ量を指定する信号として出力する。
次に、運用系サーバ20は、データ量を指定する信号が入力されると、その信号を自身に備わるメモリに格納する(S102)。
次に、運用系サーバ20は、所定のタイミングになると、パフォーマンスデータを要求するパフォーマンスデータ要求信号を対向ノード10に出力する(S103)。
対向ノード10は、それまでに測定していたパフォーマンスデータを運用系サーバ20に出力する(S104)。
次に、運用系サーバ20は、入力されたパフォーマンスデータを自身に備わるメモリに格納し、保持する(S105)。
また、運用系サーバ20は、データ量を指定する信号をメモリから取得する(S106)。
次に、運用系サーバ20は、データ量を指定する信号が示すデータ量分のパフォーマンスデータをメモリから取得し、予備系サーバ30に出力する(S107)。
例えば、データ量を指定する信号が、運用系サーバ20がメモリに保持するパフォーマンスデータの半分を指定する信号であった場合、運用系サーバ20は、メモリに格納されているパフォーマンスデータの半分を予備系サーバ30に出力する。さらに、運用系サーバ20は、出力したパフォーマンスデータについては、メモリから削除するものとする。
なお、運用系サーバ20と予備系サーバ30の動作は同期していない為、上述のS102の動作よりもS103の動作が先に実施されることがありうる。その為、運用系サーバ20は、起動直後、S103の動作を実施した際、データ量を指定する信号がメモリに格納されていない場合がありうる。このような場合には、運用系サーバ20は、所定のデータ量のパフォーマンスデータを、メモリに格納されたパフォーマンスデータから取得し、出力する。また、運用系サーバ20は、S103以降の処理を実施中に、S102の処理を実施することもありうるが、この場合、S102の処理を、S103以降のどの処理よりも優先的に処理して実施するものとする。
次に、運用系サーバ20は、S107で出力しなかった、メモリに格納されている残りのパフォーマンスデータに対し、格納順に所定の処理を行う(S108)。
この際、運用系サーバ20は、図示していないが、所定の処理を行った結果、新たに生成したデータ(以下、「生成データ」という)をメモリに格納する。
一方、予備系サーバ30は、パフォーマンスデータが入力されると、自身に備わるメモリにパフォーマンスデータを格納し、格納順に所定の処理を行う(S109)。
また、予備系サーバ30は、図示していないが、所定の処理を行ったパフォーマンスデータについては、メモリから削除する。さらに、予備系サーバ30は、所定の処理を行った結果、新たに生成したデータ、すなわち生成データをメモリに格納する。
次に、予備系サーバ30は、所定の周期で、サーバデータを要求する信号を運用系サーバ20に出力する(S110)。サーバデータを要求する信号は、処理負荷量の出力を要求する信号である。
次に、運用系サーバ20は、サーバデータを要求する信号が入力されると、自身のサーバデータ、すなわち処理負荷量を測定し、測定したサーバデータに対応する信号を予備系サーバ30に出力する(S111)。
ここで、サーバデータ、すなわち処理負荷量は、CPU使用率であってもよいし、運用系サーバ20が対向ノード10との間でヘルスチェック等、アクセスを頻繁に行う場合、そのアクセス頻度であってもよい。
なお、運用系サーバ20と予備系サーバ30の動作が同期していない為、運用系サーバ20は、S102〜S103、S105〜S108の処理を行っている最中に、サーバデータを要求する信号を、予備系サーバ30から入力されることがありうる。この場合、運用系サーバ20は、S102〜S103、S105〜S108の処理を優先し、それらの処理が実行していない時を待ってS111の処理を行う。
次に、予備系サーバ30は、サーバデータに対応する信号が入力されると、その信号からサーバデータ、すなわち処理負荷量を把握し、把握した処理負荷量を基に、運用系サーバ20に障害の予兆があるかを判別する(S112)。
障害の予兆とは、運用系サーバ20の処理負荷量が所定の閾値よりも大きい状態をいう。したがって、上述のS112の動作は、具体的には、以下の通りである。
まず、予備系サーバ30が、入力されるサーバデータ、すなわち運用系サーバ20のCPU使用率、若しくはアクセス頻度が所定の閾値をより大きいか否か、すなわち所定の閾値を超過したか否かを判別する。そして、予備系サーバ30は、入力されるサーバデータが所定の閾値より大きいときに、運用系サーバ20に障害が発生する予兆があることを検出したとする。
次に、予備系サーバ30は、運用系サーバ20に障害が発生する予兆があることを検出した場合(S112でYesの場合)には、後述する「(2)冗長構成システムの動作(障害予兆検出時)」を実施する(S113)。
次に、予備系サーバ30は、運用系サーバ20に障害が発生する予兆があることを検出しなかった場合(S112でNoの場合)には、S100に戻り、次に動作するタイミングを待つ(S114)。
一方、運用系サーバ20は、上述のS111で、サーバデータに対応する信号を出力した後、所定の時間経過しても、障害の予兆があることを示す信号が入力されないと、S102の開始タイミング、S103の処理タイミングを待つ(S115)。上述の障害の予兆があることを示す信号は、後述する「(2)冗長構成システムの動作(障害予兆検出時)」で説明する。また、運用系サーバ20は、上述のS108で処理したパフォーマンスデータをメモリから全て削除してから、S102の開始タイミング、S103の処理タイミングを待つものとする。
次に、クライアント端末40に関連する動作について説明を行う。
まず、クライアント端末40は、図4に示す通り、所定の周期毎に、処理結果を要求する信号を運用系サーバ20に出力する(S200)。
次に、運用系サーバ20は、処理結果を要求する信号が入力されると、その信号を予備系サーバ30に出力する(S201)。
但し、上述のS201の処理は、運用系サーバ20が他のいずれの処理も実施していない時を待って実行される。
次に、予備系サーバ30は、処理結果を要求する信号が入力されると、メモリに格納されている生成データを運用系サーバ20に出力する(S202)。
但し、上述のS202の処理は、予備系サーバ30が他のいずれの処理も実施していない時を待って実行される。
次に、運用系サーバ20は、生成データが予備系サーバ30より入力されると、そのデータと、自身のメモリに格納されている生成データとを併せて、クライアント端末40に出力する(S203)。
但し、上述のS203の処理は、運用系サーバ20が他のいずれの処理も実施していない時を待って実行される。
次に、クライアント端末40は、生成データが入力されると、そのデータを自身に備わる画面に表示する(S204)。クライアント端末40は、入力されたデータを加工して、画面上にグラフとして表示してもよい。
(2)冗長構成システムの障害予兆検出時の動作
次に、図5を用いて、本実施形態の冗長構成システムの障害予兆検出時の動作を以下に説明する。以下の動作は、予備系サーバ30が、運用系サーバ20に障害が発生したときに、速やかに系切替ができるよう、運用系サーバ20と作業同期をとるものである。予備系サーバ30は、以下の動作を行った結果、一般的なホットスタンバイ方式の予備系サーバと同様の動作を行う。
まず、予備系サーバ30は、運用系サーバ20に障害の予兆があることを検出したときには、障害の予兆があることを示す信号を運用系サーバ20に出力する(S301)。
次に、運用系サーバ20は、障害の予兆があることを示す信号が入力されると、所定の周期で障害状況を予備系サーバ30に報告する(S302)。
具体的には、運用系サーバ20は、所定の周期毎に、自己に障害が発生しているかを公知の機能で確認し、自己に障害が発生している場合には、障害発生を報告する応答を予備系サーバ30に出力する。また、運用系サーバ20は、自己に障害が発生していない場合には、障害なしを報告する応答を予備系サーバ30に出力する。所定の周期は、本実施形態の本実施形態の冗長構成システムのユーザによって運用系サーバ20に設定される。予備系サーバ30は、図示していないが、障害発生を報告する応答が入力されると、その応答をメモリに格納する。
さらに、運用系サーバ20は、運用系サーバ20の処理を予備系サーバ30に移行させる同期作業を行う(S303)。
具体的には、運用系サーバ20は、メモリに格納されている、上述のS107で出力されなかったパフォーマンスデータを予備系サーバ30に出力する。なお、運用系サーバ20は、パフォーマンスデータを出力する際、そのパフォーマンスデータをメモリから削除しない。また、運用系サーバ20は、パフォーマンスデータを出力中に、S302が動作するタイミング、すなわち障害状況を予備系サーバ30に報告する周期になったときには、パフォーマンスデータの出力を一時中断し、S302の処理を優先して実施する。運用系サーバ20は、S302の処理が完了すると、パフォーマンスデータの出力を再開する。さらに、運用系サーバ20は、図示していないが、メモリに格納されているパフォーマンスデータ全てを予備系サーバ30に転送し終わると、転送終了を示す信号を出力する。
一方、予備系サーバ30は、運用系サーバ20からパフォーマンスデータが入力される度に、パフォーマンスデータを自身に備わるメモリに格納する(S304)。
次に、予備系サーバ30は、転送終了を示す信号が入力されると、メモリに格納したパフォーマンスデータに対し、格納順に所定の処理を行う(S305)。
次に、予備系サーバ30は、運用系サーバ20に障害が発生しているかを判断する(S306)。
具体的には、予備系サーバ30は、メモリを確認し、障害発生を報告する応答をメモリに格納していた場合には、運用系サーバ20に障害が発生していると判断する。また、予備系サーバ30は、障害の予兆があることを示す信号を出力してから所定の時間以内に、運用系サーバ20から何らかの応答を受信していなければ運用系サーバ20に障害発生と判断してもよい。所定の時間は、本実施形態の冗長構成システムのユーザによって予備系サーバ30に設定される。
次に、予備系サーバ30は、運用系サーバ20に障害発生と判断した場合(S306でYesの場合)、公知の技術で、系切替制御を行う(S307)。
すなわち、予備系サーバ30は、リセット信号を運用系サーバ20に通知し、運用系サーバとして、上述のS102、若しくはS103から動作を開始する。なお、予備系サーバ30は、上述のS102、若しくはS103の動作を開始する前に、メモリに格納している、障害発生を報告する応答を削除する。一方、リセット信号を受信した運用系サーバ20は、自身をリセットした後、予備系サーバとして起動し、上述のS100から動作を開始する。なお、新運用系サーバとして起動した予備系サーバ30は、起動直後、データ量を指定する信号として、データ量0を指定する信号を格納する。新予備系サーバが起動するまで、パフォーマンスデータを出力しないようにする為である。
なお、予備系サーバ30は、運用系サーバ20に障害発生と判断しなかった場合(S306でNoの場合)には、上述のS100に戻り、次に動作するタイミングを待つ。
また、運用系サーバ20は、上述のS303で、転送終了を示す信号を出力した後、所定の時間経過しても、リセット信号が入力されないと、S102の開始タイミング、S103の処理タイミングを待つ。
上述の本実施形態の冗長構成システムの障害予兆検出時の動作は、障害発生の予兆を検知しなくなるか(S112でNoの場合となるか)、S307で系切替制御を実行するまで実施される。
[効果の説明]
本実施形態によれば、冗長構成システムは、運用系装置にかかる処理負荷を軽減することができる。その理由は、本実施形態の冗長構成システムを構成する予備系装置が、運用系装置から処理すべきデータの一部を引き取り、処理するからである。
さらに、本実施形態の冗長構成システムは、運用系装置が正常に動作できなくなった場合、即座に予備系装置に切り替えることができる。即座に予備系装置に切り替えられる理由としては、本実施形態の冗長構成システムを構成する予備系装置が、運用系装置に障害の予兆があることを検出し、検出後は、系切替制御に備えて、運用系装置が処理するデータを予め入手し、処理を行うからである。
また、本実施形態の冗長構成システムは、予備系装置と運用系装置がそれぞれ処理を行うので、自身の処理能力を運用系装置の処理能力以上にすることができる。
[第2の実施の形態]
次に、第2の実施の形態について説明する。第2の実施の形態における冗長構成システムは、予備系サーバ130の処理負荷量と運用系サーバ120の処理負荷量の差を確認し、その差をなくすように予備系サーバ130が運用系サーバ120よりデータを引き取るものである。
[構成の説明]
図6は、第2の実施の形態における冗長構成システムの構成例を示す図である。第2の実施の形態における冗長構成システムは、図6に示されるように、運用系サーバ20と予備系サーバ30の代わりに、運用系サーバ120と予備系サーバ130を備える。
運用系サーバ120は、所定のタイミングになると、自身の処理負荷量、すなわちCPU使用率を測定する。さらに、運用系サーバ120は、測定した処理負荷量を示す信号を予備系サーバ130に出力する。
予備系サーバ130は、処理負荷量を示す信号が運用系サーバ120から入力されると、その信号から運用系サーバ120の処理負荷量を把握する。また、予備系サーバ130は、測定した自身の処理負荷量が、運用系サーバ120の処理負荷量とどの程度の差分があるのかを求める。すなわち、予備系サーバ130は、運用系サーバ120の処理負荷量から、自身の処理負荷量を減算した値(以下、「減算値」という)を求める。
また、予備系サーバ130は、求めた減算値に対応する、データ量を指定する信号を処理量確定テーブルから求め、その信号を、データ量を指定する信号として運用系サーバ120に出力する。処理量確定テーブルは、上述の減算値と、データ量を指定する信号とが対応づけられたテーブルである。処理量確定テーブルは、本実施形態の冗長構成システムのユーザによって運用系サーバ120に設定される。
なお、上述した以外の構成や機能は、第1の実施の形態のおける冗長構成システムの運用系サーバ20と予備系サーバ30と同じであるので、同一の符号を付して説明を省略する。
[動作の説明]
図7は、第2の実施の形態における冗長構成システムの通常時の動作を説明する為の図である。
まず、運用系サーバ120は、図7に示すように、所定のタイミングになると、自身の処理負荷量、すなわちCPU使用率を測定する(S400)。
次に、運用系サーバ120は、測定した処理負荷量を示す信号を予備系サーバ130に出力する(S401)。
次に、運用系サーバ120は、上述のS103とS105を実施し、パフォーマンスデータを保持する。
一方、予備系サーバ130は、測定した処理負荷量を示す信号が入力されると、その信号から運用系サーバ120の処理負荷量を把握し、さらに、自身の処理負荷量、すなわちCPU使用率を測定する(S402)。
次に、予備系サーバ130は、運用系サーバ120の処理負荷量から、自身の処理負荷量を減算した値、すなわち減算値を求める(S403)。
次に、予備系サーバ130は、求めた減算値に対応する、データ量を指定する信号を処理量確定テーブルから求め、その信号を、データ量を指定する信号として出力する(S404)。
ここで、図8は、第2の実施の形態における処理量確定テーブルの具体例である。本実施形態の冗長構成システムのユーザは、運用系サーバ120の処理負荷量と予備系サーバ130の処理負荷量の差分がなくなるように、データ量を指定する信号を処理量確定テーブルに設定する。すなわち、本実施形態の冗長構成システムのユーザは、図8に示すように、減算値が正の値の場合、その値が大きくなるにつれ、より大きなデータ量を指定する信号を設定する。さらに、本実施形態の冗長構成システムのユーザは、減算値が負の値の場合、その絶対値が大きくなるにつれ、より小さなデータ量を指定する信号を設定する。
次に、運用系サーバ120は、データ量を指定する信号が入力されると、上述のS102、S106、およびS107を行い、予備系サーバ130に分担して処理してもらうデータを転送する。
その他の動作については、第1の実施の形態の冗長構成システムの動作と同様である為、詳細の説明を省略する。
[効果の説明]
本実施形態によれば、冗長構成システムは、運用系サーバ120と予備系サーバ130の処理負荷を、第1の実施形態の冗長構成システムより平均化することができる。その理由としては、本実施形態の冗長構成システムの予備系サーバ130が、自身の処理負荷量と運用系サーバ120の処理負荷量との差分を確認し、その差分がなくなるように、差分に応じた量のデータを運用系サーバ120から引き取るからである。
[第3の実施の形態]
次に、第3の実施の形態について説明する。
[構成の説明]
図9は、第3の実施の形態における冗長構成システムの構成例を示す図である。第3の実施の形態における冗長構成システムは、運用系装置520と予備系装置530から構成される。運用系装置520と予備系装置530は、運用系サーバと予備系サーバであってもよい。また、運用系装置520と予備系装置530は、有線回線で接続されてもよいし、無線回線で接続されていてもよい。
運用系装置520は、保持するデータの中から、一部のデータを取得して出力する。また、運用系装置520は、出力しなかったデータに対して、所定の処理を行う。所定の処理は、本実施形態の冗長構成システムのユーザによって、運用系装置520に設定される。さらに、運用系装置520は、障害の予兆があることを示す信号が入力されると、上述の一部のデータを出力したときに出力しなかったデータも出力する。
予備系装置530は、運用系装置520に障害の予兆があることを検出していないときには、運用系装置520に保持されたデータの中から入力される一部のデータ、すなわち上述の一部のデータに対して、所定の処理を行う。所定の処理は、本実施形態の冗長構成システムのユーザによって、予備系装置530に設定される。所定の処理は、運用系装置520が行う所定の処理と同じ処理であってもよい。また、予備系装置530は、運用系装置520に障害の予兆があることを検出した場合には、上述の一部のデータに対して所定の処理を行った後、障害の予兆があることを示す信号を出力する。予備系装置530は、障害の予兆があることを示す信号を出力した結果、入力されるデータに対しても、所定の処理を行う。
図10Aは運用系装置の一構成例を示すブロック図であり、図10Bは予備系装置530の一構成例を示すブロック図である。
図10Aに示すように、運用系装置520は、プログラムにしたがって所定の処理を実行するCPU522およびプログラムを記憶するメモリ523を含む制御部524と、処理対象のデータを保持するための記憶部525とを有する。
図10Bに示すように、予備系装置530は、プログラムにしたがって所定の処理を実行するCPU532およびプログラムを記憶するメモリ533を含む制御部534と、処理対象のデータを保持するための記憶部535とを有する。
[動作の説明]
まず、運用系装置520は、保持するデータの中から、一部のデータを取得して予備系装置530に出力する。また、運用系装置520は、出力しなかったデータに対して、所定の処理を行う。
次に、予備系装置530は、運用系装置520に障害の予兆があることを検出していないときには、運用系装置520から入力される、上述の一部のデータに対して、所定の処理を行う。
次に、予備系装置530は、運用系装置520に障害の予兆があることを検出した場合には、運用系装置520から入力される、上述の一部のデータに対して所定の処理を行った後、障害の予兆があることを示す信号を運用系装置520に出力する。運用系装置520は、障害の予兆があることを示す信号が入力されると、上述の出力しなかったデータも予備系装置530に出力する。その結果、入力されるデータに対しても、予備系装置530は、所定の処理を行う。
なお、予備系装置530は、運用系装置における障害の予兆の検出を、以下の通りに行ってもよい。
まず、予備系装置530が、処理負荷量の出力を要求する要求信号を運用系装置520に出力する。次に、運用系装置520は、要求信号が入力されると、自己の処理負荷量を測定し、測定した処理負荷量に対応する応答信号を予備系装置530に出力する。処理負荷量は、CPU使用率であってもよい。次に、予備系装置530は、応答信号が入力されると、応答信号が示す処理負荷量が所定の値より大きいか否かを判別し、大きい場合に、運用系装置に障害の予兆があることを検出したとする。所定の値は、本実施形態の冗長構成システムのユーザによって、予備系装置530に設定される。
[効果の説明]
本実施形態によれば、冗長構成システムは、運用系装置にかかる処理負荷を軽減することができる。その理由は、本実施形態の冗長構成システムを構成する予備系装置が、運用系装置から処理すべきデータの一部を引き取り、処理するからである。
また、本実施形態の冗長構成システムは、予備系装置と運用系装置がそれぞれ処理を行うので、自身の処理能力を運用系装置の処理能力以上にすることができる。
本発明の効果の一例として、冗長構成システムは、運用系装置にかかる処理負荷を軽減することができる。
なお、上述した実施の形態は、その形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々変更可能である。
例えば、第1および第2の実施の形態における運用系サーバおよび予備系サーバの装置は第3の実施の形態における運用系装置および予備系装置とは機能が異なるところがあるが、第1および第2の実施の形態における運用系サーバおよび予備系サーバの装置構成が、図10Aおよび図10Bを参照して説明した運用系装置および予備系装置と同様な構成であってもよい。
さらに、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
運用系装置と冗長構成を構成する予備系装置であって、
前記運用系装置に障害の予兆があることを検出していないときには、前記運用系装置に保持されたデータのうち、該運用系装置から入力される一部のデータに対して、所定の処理を行い、前記運用系装置に障害の予兆があることを検出した場合には、前記一部のデータに対して前記所定の処理を行った後、障害の予兆があることを示す信号を前記運用系装置に出力し、その結果、前記一部のデータの後に入力されるデータに対しても、前記所定の処理を行う、
ことを特徴とする予備系装置。
(付記2)
所定のタイミングで測定した自己の処理負荷量に応じたデータ量を指定する信号を前記運用系装置に出力し、その結果、入力される、前記一部のデータに対して、前記所定の処理を行う、
ことを特徴とする付記1に記載の予備系装置。
(付記3)
前記処理負荷量に対応する報告信号が入力されると、前記報告信号が示す前記運用系装置の前記処理負荷量から前記自己の処理負荷量を減算した値、すなわち減算値を求め、前記減算値に応じたデータ量を指定する信号を出力し、その結果、入力される、前記一部のデータに対して、前記所定の処理を行う、
ことを特徴とする付記2に記載の予備系装置。
(付記4)
前記運用系装置に障害の予兆があることを検出するために、前記処理負荷量の出力を要求する要求信号を前記運用系装置に出力し、その結果、前記処理負荷量に対応する応答信号が入力されると、前記応答信号が示す前記処理負荷量が所定の値より大きいか否かを判別する、
ことを特徴とする付記2または3に記載の予備系装置。
(付記5)
予備系装置と冗長構成を構成する運用系装置であって、
保持するデータの中から、一部のデータを取得して前記予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、障害の予兆があることを示す信号が入力されると、前記出力しなかったデータも前記予備系装置に出力する、
ことを特徴とする運用系装置。
(付記6)
データ量を指定する信号が入力された後、保持する前記データの中から、前記信号が示すデータ量分のデータを取得して前記予備系装置に出力する、
ことを特徴とする付記5に記載の運用系装置。
(付記7)
所定のタイミングで測定した自己の前記処理負荷量に対応する報告信号を出力する、
ことを特徴とする付記5または6に記載の運用系装置。
(付記8)
処理負荷量の出力を要求する要求信号が入力されると、自己の処理負荷量を測定し、測定した前記処理負荷量に対応する応答信号を前記予備系装置に出力する、
ことを特徴とする付記5から7のいずれか1項に記載の運用系装置。
(付記9)
予備系装置と運用系装置から構成された冗長構成システムであって、
前記予備系装置は、付記1から4のいずれか1項に記載の予備系装置であり、
前記運用系装置は、付記5から8のいずれか1項に記載の運用系装置である、
ことを特徴とする、冗長構成システム。
(付記10)
予備系装置と運用系装置から構成された冗長構成システムにおける負荷分散方法であって、
前記運用系装置は、保持するデータの中から、一部のデータを取得して前記予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、前記予備系装置は、前記運用系装置に障害の予兆があることを検出していないときには、前記運用系装置から入力される、前記一部のデータに対して、所定の処理を行い、前記運用系装置に障害の予兆があることを検出した場合には、前記一部のデータに対して前記所定の処理を行った後、障害の予兆があることを示す信号を前記運用系装置に出力し、前記運用系装置は、前記障害の予兆があることを示す信号が前記予備系装置から入力されると、前記出力しなかったデータも前記予備系装置に出力し、その結果、前記予備系装置は、前記一部のデータの後に入力されるデータに対しても、前記所定の処理を行う、
ことを特徴とする負荷分散方法。
(付記11)
前記予備系装置は、所定のタイミングになると、自己の処理負荷量を測定し、前記処理負荷量に応じたデータ量を指定する信号を前記運用系装置に出力し、前記運用系装置は、前記データ量を指定する信号が入力された後、保持するデータの中から、前記信号が示すデータ量分の前記データを取得して前記予備系装置に出力する、
ことを特徴とする付記10に記載の負荷分散方法。
(付記12)
前記予備系装置は、前記運用系装置に障害の予兆があることを検出するために、処理負荷量の出力を要求する要求信号を前記運用系装置に出力し、前記運用系装置は、処理負荷量の出力を要求する要求信号が入力されると、自己の処理負荷量を測定し、測定した前記処理負荷量に対応する応答信号を前記予備系装置に出力し、前記予備系装置は、前記処理負荷量に対応する応答信号が入力されると、前記応答信号が示す前記処理負荷量が所定の値より大きいか否かを判別する、
ことを特徴とする付記11に記載の負荷分散方法。
(付記13)
前記データは、パフォーマンスデータである、
ことを特徴とする付記1から4のいずれか1項に記載の予備系装置。
(付記14)
前記処理負荷量は、CPU(Central Processing Unit)使用率である、
ことを特徴とする付記2から4、又は付記12のいずれか1項に記載の予備系装置。
(付記15)
前記データは、パフォーマンスデータである、
ことを特徴とする付記5から8のいずれか1項に記載の運用系装置。
(付記16)
前記処理負荷量は、CPU(Central Processing Unit)使用率である、
ことを特徴とする付記5から8、又は付記15のいずれか1項に記載の運用系装置。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、この出願は、2012年9月27日に出願された日本出願の特願2012−214873の内容が全て取り込まれており、この日本出願を基礎として優先権を主張するものである。
10 対向ノード
20 運用系サーバ
30 予備系サーバ
40 クライアント端末
120 運用系サーバ
130 予備系サーバ
520 運用系装置
530 予備系装置

Claims (10)

  1. 運用系装置と冗長構成を構成する予備系装置であって、
    前記運用系装置に障害の予兆があることを検出していないときには、前記運用系装置に保持されたデータのうち、該運用系装置から入力される一部のデータに対して、所定の処理を行い、前記運用系装置に障害の予兆があることを検出した場合には、前記一部のデータに対して前記所定の処理を行った後、障害の予兆があることを示す信号を前記運用系装置に出力し、その結果、前記一部のデータの後に入力されるデータに対しても、前記所定の処理を行う、予備系装置。
  2. 請求項1に記載の予備系装置において、
    所定のタイミングで測定した自己の処理負荷量に応じたデータ量を指定する信号を前記運用系装置に出力し、その結果、入力される、前記一部のデータに対して、前記所定の処理を行う、予備系装置。
  3. 請求項2に記載の予備系装置において、
    前記処理負荷量に対応する報告信号が入力されると、前記報告信号が示す前記運用系装置の前記処理負荷量から前記自己の処理負荷量を減算した値、すなわち減算値を求め、前記減算値に応じたデータ量を指定する信号を出力し、その結果、入力される、前記一部のデータに対して、前記所定の処理を行う、予備系装置。
  4. 請求項2または3に記載の予備系装置において、
    前記運用系装置に障害の予兆があることを検出するために、前記処理負荷量の出力を要求する要求信号を前記運用系装置に出力し、その結果、前記処理負荷量に対応する応答信号が入力されると、前記応答信号が示す前記処理負荷量が所定の値より大きいか否かを判別する、予備系装置。
  5. 予備系装置と冗長構成を構成する運用系装置であって、
    保持するデータの中から、一部のデータを取得して前記予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、障害の予兆があることを示す信号が入力されると、前記出力しなかったデータも前記予備系装置に出力する、運用系装置。
  6. 請求項5に記載の運用系装置において、
    データ量を指定する信号が入力された後、保持する前記データの中から、前記信号が示すデータ量分のデータを取得して前記予備系装置に出力する、運用系装置。
  7. 請求項5または6に記載の運用系装置において、
    所定のタイミングで測定した自己の処理負荷量に対応する報告信号を出力する、運用系装置。
  8. 請求項5から7のいずれか1項に記載の運用系装置において、
    処理負荷量の出力を要求する要求信号が入力されると、自己の処理負荷量を測定し、測定した前記処理負荷量に対応する応答信号を前記予備系装置に出力する、運用系装置。
  9. 予備系装置と運用系装置から構成された冗長構成システムであって、
    前記予備系装置は、請求項1から4のいずれか1項に記載の予備系装置であり、
    前記運用系装置は、請求項5から8のいずれか1項に記載の運用系装置である、冗長構成システム。
  10. 予備系装置と運用系装置から構成された冗長構成システムにおける負荷分散方法であって、
    前記運用系装置は、保持するデータの中から、一部のデータを取得して前記予備系装置に出力し、出力しなかったデータに対して、所定の処理を行い、
    前記予備系装置は、前記運用系装置に障害の予兆があることを検出していないときには、前記運用系装置から入力される、前記一部のデータに対して、所定の処理を行い、前記運用系装置に障害の予兆があることを検出した場合には、前記一部のデータに対して前記所定の処理を行った後、障害の予兆があることを示す信号を前記運用系装置に出力し、
    前記運用系装置は、前記障害の予兆があることを示す信号が前記予備系装置から入力されると、前記出力しなかったデータも前記予備系装置に出力し、
    その結果、前記予備系装置は、前記一部のデータの後に入力されるデータに対しても、前記所定の処理を行う、負荷分散方法。
JP2014538339A 2012-09-27 2013-09-06 予備系装置、運用系装置、冗長構成システム、及び負荷分散方法 Active JP6007988B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012214873 2012-09-27
JP2012214873 2012-09-27
PCT/JP2013/074045 WO2014050493A1 (ja) 2012-09-27 2013-09-06 予備系装置、運用系装置、冗長構成システム、及び負荷分散方法

Publications (2)

Publication Number Publication Date
JPWO2014050493A1 JPWO2014050493A1 (ja) 2016-08-22
JP6007988B2 true JP6007988B2 (ja) 2016-10-19

Family

ID=50387901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014538339A Active JP6007988B2 (ja) 2012-09-27 2013-09-06 予備系装置、運用系装置、冗長構成システム、及び負荷分散方法

Country Status (3)

Country Link
US (1) US20150234720A1 (ja)
JP (1) JP6007988B2 (ja)
WO (1) WO2014050493A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9442786B2 (en) * 2014-06-11 2016-09-13 Honeywell International Inc. Determining and correcting software server error conditions
US10360116B2 (en) * 2015-02-13 2019-07-23 International Business Machines Corporation Disk preservation and failure prevention in a raid array
JP6468079B2 (ja) * 2015-06-01 2019-02-13 富士通株式会社 制御システム及び同システムの処理方法
JP6958413B2 (ja) * 2018-02-19 2021-11-02 富士通株式会社 情報処理装置、情報処理システム、及びプログラム
JP7150334B2 (ja) * 2019-03-29 2022-10-11 Fxc株式会社 集合型シャーシシステム及び通信システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3166834B2 (ja) * 1997-08-12 2001-05-14 日本電気株式会社 二重化回路制御方法及び二重化回路制御装置
US7055173B1 (en) * 1997-12-19 2006-05-30 Avaya Technology Corp. Firewall pooling in a network flowswitch
US6202170B1 (en) * 1998-07-23 2001-03-13 Lucent Technologies Inc. Equipment protection system
JP2001282522A (ja) * 2000-03-31 2001-10-12 Hitachi Software Eng Co Ltd メモリ二重化装置における輻輳回避方法
US6865591B1 (en) * 2000-06-30 2005-03-08 Intel Corporation Apparatus and method for building distributed fault-tolerant/high-availability computed applications
JP4315016B2 (ja) * 2004-02-24 2009-08-19 株式会社日立製作所 コンピュータシステムの系切替方法
US8275749B2 (en) * 2005-02-07 2012-09-25 Mimosa Systems, Inc. Enterprise server version migration through identity preservation
TW200849001A (en) * 2007-06-01 2008-12-16 Unisvr Global Information Technology Corp Multi-server hot-backup system and fault tolerant method
US7962458B2 (en) * 2008-06-12 2011-06-14 Gravic, Inc. Method for replicating explicit locks in a data replication engine
JP4572251B2 (ja) * 2008-09-29 2010-11-04 株式会社日立製作所 計算機システム、計算機システムの障害の予兆検知方法及びプログラム
JP5035299B2 (ja) * 2009-06-15 2012-09-26 株式会社日立製作所 マルチコアプロセッサ制御方法、その計算機システム、及び管理計算機のプログラム
JP5498102B2 (ja) * 2009-09-02 2014-05-21 アラクサラネットワークス株式会社 ネットワークシステム、ネットワーク中継装置、それらの制御方法
JP5305040B2 (ja) * 2010-05-28 2013-10-02 株式会社日立製作所 サーバ計算機の切替方法、管理計算機及びプログラム
JP5491972B2 (ja) * 2010-06-04 2014-05-14 日本電信電話株式会社 2重化サーバシステム、ファイル操作方法、およびファイル操作プログラム
JP5840410B2 (ja) * 2010-09-08 2016-01-06 株式会社東芝 監視制御システム

Also Published As

Publication number Publication date
JPWO2014050493A1 (ja) 2016-08-22
US20150234720A1 (en) 2015-08-20
WO2014050493A1 (ja) 2014-04-03

Similar Documents

Publication Publication Date Title
JP6007988B2 (ja) 予備系装置、運用系装置、冗長構成システム、及び負荷分散方法
CN106557407B (zh) 一种设备负载的监控方法和装置
JP6648754B2 (ja) 通信装置、通信方法、およびプログラム
CN106330475B (zh) 一种通信***中管理主备节点的方法和装置及高可用集群
CN103560922A (zh) 一种容灾方法及***
JP2009171265A (ja) 監視制御方法および監視制御装置
US9210059B2 (en) Cluster system
US11539609B2 (en) Method and apparatus for reporting power down events in a network node without a backup energy storage device
CN104301140A (zh) 业务请求响应方法、装置和***
CN104901834A (zh) 一种网络服务器自动切换的方法及***
CN103916226A (zh) 基于嵌入式设备冗余备份的方法
JP4901796B2 (ja) ログレベル収集装置およびログレベル収集方法
CN107612719B (zh) 物联网接入点的数据备份方法及装置
JP2004062441A (ja) サービス管理システム、サービス管理方法、サーバ管理装置、通信端末及びサーバ装置
CN116032932A (zh) 针对边缘服务器的集群管理方法、***、设备及介质
JP2014230234A (ja) ネットワーク管理装置及びネットワーク管理方法
CN108933873B (zh) 一种用户数据的同步方法及装置
JP5884918B2 (ja) ネットワーク管理装置、システム、および方法
CN111064608A (zh) 消息***的主从切换方法、装置、电子设备及存储介质
CN111064609A (zh) 消息***的主从切换方法、装置、电子设备及存储介质
JP2013207674A (ja) ネットワーク監視システム、ネットワーク監視方法、制御装置およびプログラム
CN116827761B (zh) 双机热备的切换方法、***、设备及介质
JP2011118512A (ja) 宅内機器管理システムおよび宅内機器管理方法
CN101605052A (zh) 一种sdh设备主子架获取扩展子架在位信息的方法及***
JP2013026785A (ja) 監視間隔制御装置、監視間隔制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R150 Certificate of patent or registration of utility model

Ref document number: 6007988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150