JP2010198204A - クラスタリングサーバシステム、および、データ転送方法 - Google Patents

クラスタリングサーバシステム、および、データ転送方法 Download PDF

Info

Publication number
JP2010198204A
JP2010198204A JP2009041077A JP2009041077A JP2010198204A JP 2010198204 A JP2010198204 A JP 2010198204A JP 2009041077 A JP2009041077 A JP 2009041077A JP 2009041077 A JP2009041077 A JP 2009041077A JP 2010198204 A JP2010198204 A JP 2010198204A
Authority
JP
Japan
Prior art keywords
data
update
server
transfer
transfer method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009041077A
Other languages
English (en)
Other versions
JP4812848B2 (ja
Inventor
Kosuke Hatakeyama
康介 畠山
Junichi Koga
淳一 古賀
Takeshi Fukumoto
健 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009041077A priority Critical patent/JP4812848B2/ja
Publication of JP2010198204A publication Critical patent/JP2010198204A/ja
Application granted granted Critical
Publication of JP4812848B2 publication Critical patent/JP4812848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Hardware Redundancy (AREA)

Abstract

【課題】運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させる。
【解決手段】運用系サーバ10と待機系サーバ11とを有するクラスタリングサーバシステム1であって、運用系サーバ10は、複数のデータを記憶するデータ記憶手段100と、データ記憶手段に記憶された複数のデータの中で更新データの更新頻度を記憶する転送リスト記憶手段103と、運用系サーバ10と待機系サーバ11間で更新データを転送する系間転送管理手段101とを備え、系間転送管理手段101は、転送リスト記憶手段103に記憶された更新データのデータ総量を算出し、データ総量が系切替え時転送方式で転送可能な所定の閾値を超える場合に、データ総量が閾値以下になるまで転送リスト記憶手段103に記憶された更新頻度が最も低い更新データを運用中転送方式で待機系サーバ11に転送する。
【選択図】図2

Description

本発明は、運用系サーバと待機系サーバとを用いて冗長化されたHA(High Availability)クラスタリングサーバシステムに関する。
HA(High Availability)クラスタにおける系間のデータ転送については、データ・レプリケーション(Date Replication)として知られている。このデータ・レプリケーションについては、非特許文献1に体系的な説明が記載されている。
また、HAクラスタのミドルウェアとアプリケーションの使用を策定するフォーラムとして、SAF(Service Availability Forum)があり、AIS(Application Interface Specification)と呼ばれるインタフェースが既定されている。AISのおけるデータ・レプリケーションのインタフェースとしては、非特許文献2に記載されているCKPT(Check Point Service)が存在する。
「Blueprints for High Availability: Timely, Practical, Reliable」, Evan Marcus(著), Hal Stern(著),Chapter18 Date Replication 「Service Availability Forum application Interface Specification, Check Point Service, SAI-AIS-CKPT-B.02.02」, Service Availability Forum
高可用性を実現するHAクラスタにおけるフェイルオーバクラスタリングサーバシステムでは、運用系サーバと待機系サーバとを備え、運用系サーバで障害が発生した場合に、即座に待機系サーバで処理を継続させるために、運用系サーバと待機系サーバとはデータを同期・一致させておく必要がある。このため、運用系サーバのデータが更新されると、当該更新データを待機系サーバに転送し、待機系サーバのデータも運用系サーバと同様に更新される。
ここで、運用系サーバから待機系サーバに更新データを転送する方式には、系切替え時(フェイルオーバ時)に更新データを一括で待機系サーバに転送する系切替え時転送方式と、各データの更新毎にその都度更新データを待機系サーバに転送する運用中転送方式との2つの方式がある。
運用系サーバにおいて更新頻度の異なる複数の更新データを待機系サーバへ転送する際に、処理負荷を軽減するために、更新頻度の高い更新データについては系切替え時転送方式で、更新頻度の低い更新データについては運用中転送方式で転送する必要がある。これは、頻繁に更新される更新頻度の高い更新データを、運用中転送方式でその都度転送した場合、運用系サーバおよび待機系サーバの負荷が増大し、システム全体の機能低下が発生してしまうおそれがあるからである。
一方、系切替え時転送方式では、運用系サーバと待機系サーバとの間の系間ネットワーク帯域の制限、系切替えによるサービス中断時間の制約などにより、系切替え時に一括して転送可能なデータ量には制限がある。
しかしながら、複数のユーザ端末からの要求などにより、様々なタイミングでそれぞれ更新される各データの更新頻度を正確に予測することは困難であり、したがって各データの更新頻度に適した転送方式を事前に割り当てることも困難である。例えば、過去のトラフィックパターンを用いて各データの更新頻度を予測し、更新頻度が低く予測されたデータを運用中転送方式に割り付けた場合、その後トラフィックパターンが変化してデータの更新頻度が高くなると、データ更新の都度、待機系サーバへの転送が実施されてしまい、処理負荷が上昇し、他のサービス提供に影響を及ぼす可能性が高まる。
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることにある。
上記目的を達成するため、本発明は、運用系サーバと待機系サーバとを有するクラスタリングサーバシステムであって、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、前記運用系サーバは、複数のデータを記憶するデータ記憶手段と、前記データ記憶手段に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶手段と、前記運用系サーバと待機系サーバ間で更新データを転送する系間転送管理手段と、を備え、前記系間転送管理手段は、前記転送リスト記憶手段に記憶された更新データのデータ総量を算出し、当該データ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する。
また、本発明は、運用系サーバと待機系サーバとを有するクラスタリングサーバシステム用のデータ転送方法であって、クラスタリングサーバシステムは、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、前記運用系サーバは、複数のデータを記憶するデータ記憶部と、前記データ記憶部に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶部と、を備え、前記転送リスト記憶部を更新するステップと、前記転送リスト記憶部に記憶された更新データのデータ総量を算出する算出ステップと、前記算出されたデータ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別する判別ステップと、前記データ総量が前記閾値を超える場合に、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶部に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する転送ステップと、を行う。
本発明によれば、各データの更新頻度を動的に算出し、算出した更新頻度に基づいて運用中転送方式で転送するデータを特定するため、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることができる。
本発明の実施形態に係るクラスタリングサーバシステムの全体構成図である。 クラスタリングサーバシステム1の構成を示すブロック図である。 メモリに記憶されるデータを説明するための第1の説明図である。 メモリに記憶されるデータを説明するための第2の説明図である。 転送リスト記憶部のデータ構造の一例を示す図である。 データ更新時の処理を示すフローチャートである。
以下、本発明の実施形態について説明する。
図1は、本発明の実施形態に係るクラスタリングサーバシステムを示す全体構成図である。本実施形態のクラスタリングサーバシステム1は、平常時に稼動する運用系サーバ(現用系サーバ)10と、運用系サーバ10が障害時に稼動する待機系サーバ11とを有する。また、本実施形態では、クラスタリングサーバシステム1は、ネットワーク2を介して複数のユーザ端末3と接続されているものとする。
本実施形態のクラスタリングサーバシステム1は、運用系サーバと待機系サーバとの間で更新データを転送する方式として、系切替え時(フェイルオーバ時)に更新データを一括で切替え先のサーバに転送する系切替え時転送方式と、各データの更新毎にその都度更新データを切替え先のサーバに転送する運用中転送方式の2つの方式を併用するものとする。
なお、運用系サーバ10および待機系サーバ11は、少なくともCPUと、メモリと、HDD等の外部記憶装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、運用系サーバ10および待機系サーバ11の各機能は、運用系サーバ10用のプログラムの場合は運用系サーバ10のCPUが、そして待機系サーバ11用のプログラムの場合は待機系サーバ11のCPUが、それぞれ実行することにより実現される。
図2は、クラスタリングサーバシステム1の構成を示すブロック図である。運用系サーバ10は、メモリ100と、系間転送管理部101と、アプリケーション部102と、転送リスト記憶部103とを有する。待機系サーバ11も、運用系サーバ10と同様に、メモリ110と、系間転送管理部111と、アプリケーション部112と、転送リスト記憶部113とを有する。運用系サーバ10と待機系サーバ11とは、系間ネットワーク12により接続されている。
運用系サーバ10のメモリ100(データ記憶手段)には、複数のデータが記憶されている。
図3は、メモリ100に記憶されている各データを説明するための説明図である。メモリ100上に記憶されている各データ(X、Y、Z)301には、当該データ301の管理情報として、更新回数302と、最終更新時刻303と、更新頻度としての平均更新頻度304と、データ量305と、更新フラグ306とが、それぞれ付加されているものとする。
運用系サーバ10のアプリケーション部102は、複数のユーザ端末3から送信される各種の要求に応じて、または、運用系サーバ10の内部処理により、メモリ100に記憶された所望のデータ301自体を更新するとともに、当該データ301の管理情報302、303、304、306を更新する。
すなわち、アプリケーション部102は、例えば、メモリ100上のデータXを更新した場合、データXの更新回数302に「1」を加算し、最終更新時刻303をデータXが更新された時刻に更新する。そして、アプリケーション部102は、更新後の更新回数Nと、更新後の最終更新時刻tと、更新前(前回)の最終更新時刻tN−1と、更新前(前回)の平均更新頻度αN−1を用いて、例えば以下の式1により更新後の平均更新頻度αを算出し、算出した値αを平均更新頻度304に設定する。
平均更新頻度α=N/{(t-tN−1)+(N−1)/αN−1} 式1
また、アプリケーション部102は、メモリ100上のデータXを更新した場合、更新フラグ306に更新が発生したことを示すフラグ(例えば、「1」)を設定する。なお、既にフラグが設定されている場合は、そのままの状態とする。
データ量305については、メモリ100にデータXを割り当てたタイミングで設定され、データの更新を契機としては変化しない(更新されない)ものとする。
メモリ上の他のデータ(データY、データZ)が更新された場合についても、アプリケーション部102は、データの更新を契機として、当該データの管理情報302、303、304、306を更新する。
なお、平均更新頻度304の替わりに、加重平均更新頻度を更新頻度として用いることとしてもよい。
図4は、メモリ100に記憶されている各データを説明するための説明図であって、更新頻度としての加重平均更新頻度404を用いている点において図3と異なり、その他については図3と同様である。すなわち、図4では、メモリ100上に記憶されている各データ(X、Y、Z)401には、当該データ401の管理情報として、更新回数402と、最終更新時刻403と、更新頻度としての加重平均更新頻度404と、データ量405と、更新フラグ406が、それぞれ付加されているものとする。
アプリケーション部102は、図3で説明したように、メモリ100に記憶された所望のデータ401自体を更新するとともに、当該データ401の管理情報402、403、404、406を更新する。更新回数402、最終更新時刻403および更新フラグ406の更新については、図3と同様であるためここでは説明を省略する。
加重平均更新頻度404は、直近の更新間隔時間に重みωを付加した更新頻度の加重平均である。すなわち、加重平均更新頻度404は、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて算出される。アプリケーション部102は、重みωと、更新後の最終更新時刻tと、更新前(前回)の最終更新時刻tN−1と、更新前(前回)の加重平均更新頻度αN−1を用いて、例えば以下の式2により更新後の加重平均更新頻度αを算出し、算出した値αを加重平均更新頻度404に設定する。重みωには、あらかじめ定められた所定の値を用いるものとする。
加重平均更新頻度α=1/{(t-tN−1)ω+(1−ω)/αN−1} 式2
なお、待機系サーバ11のメモリ110についても、運用系サーバ10のメモリ100と同様である。
図5は、運用系サーバ10の系間転送管理部101により管理される、転送リスト記憶部103の一例を示すものである。転送リスト記憶部103は、メモリ100上に保持されている場合であっても、あるいは、HDD等の外部記憶装置上に保持されている場合であってもよい。転送リスト記憶部103には、メモリ100上に記憶されたデータの中で更新が発生し、待機系サーバ11への転送が必要な更新データの転送リスト501と、閾値Mth503と、データ総量M504とが記憶される。
図示する転送リスト501は、更新データ毎に、当該更新データにポインタするためのメモリID(メモリ上のアドレス等)と、当該メモリIDに記憶されているデータの更新頻度とを有する。更新頻度には、図3で説明した平均更新頻度304、または図4で説明した加重平均更新頻度404を用いるものとする。
また、閾値Mth503には、系切替え時転送方式で一括して転送可能な最大データ量(閾値)が設定されている。この閾値Mth503については、系間ネットワーク12の帯域の制限、系切替えによるサービス中断時間の制約などにより、あらかじめ所定の値を設定しておくものとする。また、データ総量M504には、転送リスト501に登録された更新データの総量が設定される。
なお、運用系サーバ10の障害などにより待機系サーバ11に処理が切替わった場合、待機系サーバ11の転送リスト記憶部113には、図5と同様の情報が生成され、記憶される。
次に、運用系サーバ10のメモリ100に記憶されたデータに更新が発生した際の処理について説明する。
図6は、メモリ100に記憶されたデータに更新が発生したタイミングで、転送リスト記憶部103の情報を更新し、閾値を超える分の更新データを運用時転送方式で転送する場合のフローチャートである。
まず、運用系サーバ10のアプリケーション部102は、複数のユーザ端末3から送信される各種の要求に応じて、または、運用系サーバ10の内部処理により、メモリ100に記憶された所定のデータ自体を更新するとともに、当該データの管理情報(更新回数、最終更新時刻、更新頻度、更新フラグ)を更新する(S1)。なお、更新頻度は、図3の場合は平均更新頻度であり、図4の場合は加重平均更新頻度である。
そして、運用系サーバ10の系間転送管理部101は、S1のデータ更新を契機として、ステップ1で更新された更新データを、転送リスト記憶部103の転送リスト501に登録(追加)する(S2)。具体的には、系間転送管理部101は、メモリ100上の更新データをポインタするメモリID、および、S1で更新された当該更新データの更新頻度を、メモリ100から取得し、転送リスト501に登録する。
そして、系間転送管理部101は、転送リスト501に登録されている更新データのデータ総量M504を算出し、転送リスト記憶部103に設定する(S3)。具体的には、系間転送管理部101は、転送リスト501に登録されている各更新データのデータ量を、各々のメモリIDに基づいてメモリ100から取得し、取得した各データ量の合計を算出する。
そして、系間転送管理部101は、算出したデータ総量M504と、閾値Mth503とを比較し、データ総量Mが閾値Mthを超える(M>Mth)か否かを判別する(S4)。
データ総量Mが閾値Mthを超えない、すなわち下回る(M≦Mth)場合(S4:NO)、系間転送管理部101は、S1のデータ更新を契機とする処理を終了する。この場合、転送リスト501に登録されている全ての更新データは、この時点において、系切替え時に一括して転送される系切替え時転送方式ととして管理される。
データ総量Mが閾値Mthを超える場合(S4:YES)、系間転送管理部101は、転送リスト501に登録されている更新データの中で最も更新頻度の低い更新データを特定し、当該更新データを運用中転送方式で待機系サーバ11のメモリ110に系間ネットワーク12を介して転送する(S5)。これにより、系間転送管理部101は、転送リスト501から転送した更新データの情報(レコード)を削除する。また、系間転送管理部101は、メモリ100にアクセスし、転送した更新データの更新フラグ306、407(図3、図4参照)を削除する。
そして、系間転送管理部101は、S3に戻り、転送した更新データの情報を削除した後の転送リスト501に登録された各更新データのデータ総量を再び算出し、データ総量Mが閾値Mthを超えるか否かを判別し(S4)、超える場合はS5の処理を行う。このように、系間転送管理部101は、転送リスト501に登録された各更新データのデータ総量Mが閾値Mthを下回るまでS3からS5の処理を繰り返し、閾値Mthを超えた分の更新データについては、更新頻度の低い更新データから順に運用中転送方式で待機系サーバ11に転送する。
図6に示す上記処理では、メモリ100上のデータに更新が発生したタイミングで、S2からS5の処理を行うこととしたが、本発明はこれに限定されず、様々なタイミングでS2からS5の処理を行うことができる。
例えば、系間転送管理部101は、あらかじめ定められた所定の周期(時間間隔)で、S2からS5の処理を行って、転送リスト記憶部103の情報を更新し、閾値を超える分の更新データを運用時転送方式で転送することとしてもよい。この場合、アプリケーション部102は、ユーザ端末3からの要求または運用系サーバ10の内部処理により、随時、メモリ100上のデータおよび管理情報を更新し、一方、系間転送管理部101は、所定の周期でS2からS5の処理を行う。
具体的には、系間転送管理部101は、S2において、前回の周期でS2からS5の処理を行った後に更新されたデータを検索する。例えば、系間転送管理部101は、メモリ上に保持されている各データの管理情報(図3、図4)を参照し、更新フラグ(例えば「1」)が設定されているデータを検索する。そして、検索した各更新データを転送リスト記憶部103の転送リスト501に登録(追加)する(S2)。この際に、系間転送管理部101は、検索した更新データが既に転送リスト501に登録されている場合、当該更新データの更新頻度を、メモリ100から取得した最新の値に更新する。S3からS5の処理については、図6で説明したS3からS5と同様であるため、ここでは説明を省略する。所定の周期でS2からS5の処理を行うことにより、メモリ100の各データが高頻度で更新される場合であっても、処理負荷の増大を回避することができる。
以上説明した本実施形態では、各データの更新頻度を動的に算出し、算出した更新頻度に基づいて運用中転送方式で転送するデータを選択するため、運用中転送方式で転送されるデータ量を抑制し、クラスタリングサーバシステムの処理負荷をより低減させることができる。
すなわち、本実施形態では、運用系サーバ10で更新されたデータを待機系サーバ11に転送する際に、更新頻度の低い更新データを運用中転送方式で更新の度にその都度転送することで、系切替え時(フェイルオーバ時)に一括転送する系切替え時転送方式で転送するデータ量が常に閾値を下回るように動的に制御することができる。
また、本実施形態では、各更新データの総量が系切替え時に転送可能なデータ量(閾値)に満たない場合は、全ての更新データを転送方式を系切替え時転送方式とし、各更新データの総量が系切替え時に転送可能なデータ量(閾値)を超過する場合は、更新頻度の低い更新データを運転中転送方式として転送し、更新頻度の高い更新データについては系切替え時転送方式として転送するように、更新頻度に応じて転送方式の最適化を実現する。これにより、本実施形態では、トラフィックの予想ができない環境であっても、クラスタリングサーバシステムの処理負荷を抑制し、ユーザ端末に対するサービス提供の低下を極力防止することができる。
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
1 クラスタリングサーバシステム
2 ネットワーク
3 ユーザ端末
10 運用系サーバ
11 待機系サーバ
12 系間ネットワーク
100、110 メモリ
101、111 系間転送管理部
102、112 アプリケーション部
103、113 転送リスト記憶部

Claims (8)

  1. 運用系サーバと待機系サーバとを有するクラスタリングサーバシステムであって、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、
    前記運用系サーバは、
    複数のデータを記憶するデータ記憶手段と、
    前記データ記憶手段に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶手段と、
    前記運用系サーバと待機系サーバ間で更新データを転送する系間転送管理手段と、を備え、
    前記系間転送管理手段は、前記転送リスト記憶手段に記憶された更新データのデータ総量を算出し、当該データ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送すること
    を特徴とするクラスタリングサーバシステム。
  2. 請求項1記載のクラスタリングサーバシステムであって、
    前記系間管理転送手段は、所定の周期毎に、または前記データ記憶手段のデータが更新された場合に、前記更新データのデータ総量を算出し、当該データ総量が前記閾値を超えるか否かを判別し、前記データ総量が前記閾値を超える場合は、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶手段に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送すること
    を特徴とするクラスタリングサーバシステム。
  3. 請求項1または請求項2記載のクラスタリングサーバシステムであって、
    前記更新頻度は、前記更新データの更新回数、今回の更新間隔時間と、前回の平均更新頻度とに基づいて算出される平均更新頻度であること
    を特徴とするクラスタリングサーバシステム。
  4. 請求項1または請求項2記載のクラスタリングサーバシステムであって、
    前記更新頻度は、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて算出される加重平均更新頻度であること
    を特徴とするクラスタリングサーバシステム。
  5. 運用系サーバと待機系サーバとを有するクラスタリングサーバシステム用のデータ転送方法であって、
    クラスタリングサーバシステムは、前記運用系サーバと前記待機系サーバとの間でのデータ転送方式として、系切替え時に更新データを一括で切替え先サーバに転送する系切替え時転送方式と、各データの更新毎に更新データを切替え先サーバに転送する運用中転送方式とを併用し、
    前記運用系サーバは、
    複数のデータを記憶するデータ記憶部と、
    前記データ記憶部に記憶された複数のデータの中で、更新された更新データの更新頻度を記憶する転送リスト記憶部とを備え、
    前記転送リスト記憶部を更新する更新ステップと、前記転送リスト記憶部に記憶された更新データのデータ総量を算出する算出ステップと、
    前記算出されたデータ総量が前記系切替え時転送方式で転送可能な所定の閾値を超えるか否かを判別する判別ステップと、
    前記データ総量が前記閾値を超える場合に、前記データ総量が前記閾値以下になるまで、前記転送リスト記憶部に記憶された更新頻度が最も低い更新データを前記運用中転送方式で前記待機系サーバに転送する転送ステップと、を行うこと
    を特徴とするデータ転送方法。
  6. 請求項5記載のデータ転送方法であって、
    前記運用系サーバは、
    前記更新ステップ、算出ステップ、判別ステップおよび転送ステップを、所定の周期毎に、または前記データ記憶部のデータが更新された場合に行うこと
    を特徴とするデータ転送方法。
  7. 請求項5または請求項6記載のデータ転送方法であって、
    前記運用系サーバは、
    前記更新頻度として、前記更新データの更新回数と、今回の更新間隔時間と、前回の平均更新頻度とに基づいて平均更新頻度を算出する算出ステップを、さらに行うこと
    を特徴とするデータ転送方法。
  8. 請求項5または請求項6記載のデータ転送方法であって、
    前記運用系サーバは、
    前記更新頻度として、前回までの加重平均更新頻度と、所定の重み付けした今回の更新間隔時間とに基づいて加重平均更新頻度を算出する算出ステップを、さらに行うこと
    を特徴とするデータ転送方法。
JP2009041077A 2009-02-24 2009-02-24 クラスタリングサーバシステム、および、データ転送方法 Active JP4812848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009041077A JP4812848B2 (ja) 2009-02-24 2009-02-24 クラスタリングサーバシステム、および、データ転送方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009041077A JP4812848B2 (ja) 2009-02-24 2009-02-24 クラスタリングサーバシステム、および、データ転送方法

Publications (2)

Publication Number Publication Date
JP2010198204A true JP2010198204A (ja) 2010-09-09
JP4812848B2 JP4812848B2 (ja) 2011-11-09

Family

ID=42822884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009041077A Active JP4812848B2 (ja) 2009-02-24 2009-02-24 クラスタリングサーバシステム、および、データ転送方法

Country Status (1)

Country Link
JP (1) JP4812848B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178707A (ja) * 2011-02-25 2012-09-13 Nippon Telegr & Teleph Corp <Ntt> 呼制御システムおよび呼制御に利用する情報の冗長化方法
JP2012181798A (ja) * 2011-03-03 2012-09-20 Nec Corp データ転送装置、ftサーバ、データ転送方法、及びプログラム
JP2013038582A (ja) * 2011-08-08 2013-02-21 Nippon Telegr & Teleph Corp <Ntt> 呼制御システムおよび呼制御に利用する情報の冗長化方法
US9542468B2 (en) 2014-03-24 2017-01-10 Hitachi, Ltd. Database management system and method for controlling synchronization between databases

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258847A (ja) * 2004-03-12 2005-09-22 Hitachi Ltd フェイルオーバクラスタシステム及びフェイルオーバ方法
JP2007286952A (ja) * 2006-04-18 2007-11-01 Nec Corp サーバシステム、サーバ負荷低減方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258847A (ja) * 2004-03-12 2005-09-22 Hitachi Ltd フェイルオーバクラスタシステム及びフェイルオーバ方法
JP2007286952A (ja) * 2006-04-18 2007-11-01 Nec Corp サーバシステム、サーバ負荷低減方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178707A (ja) * 2011-02-25 2012-09-13 Nippon Telegr & Teleph Corp <Ntt> 呼制御システムおよび呼制御に利用する情報の冗長化方法
JP2012181798A (ja) * 2011-03-03 2012-09-20 Nec Corp データ転送装置、ftサーバ、データ転送方法、及びプログラム
JP2013038582A (ja) * 2011-08-08 2013-02-21 Nippon Telegr & Teleph Corp <Ntt> 呼制御システムおよび呼制御に利用する情報の冗長化方法
US9542468B2 (en) 2014-03-24 2017-01-10 Hitachi, Ltd. Database management system and method for controlling synchronization between databases

Also Published As

Publication number Publication date
JP4812848B2 (ja) 2011-11-09

Similar Documents

Publication Publication Date Title
JP5625998B2 (ja) 情報処理システム
EP3467652A1 (en) Data balancing method and device
WO2015196686A1 (zh) 一种数据存储方法以及一种数据存储管理服务器
JP2014075027A (ja) 仮想マシン配置装置および仮想マシン配置方法
JP4812848B2 (ja) クラスタリングサーバシステム、および、データ転送方法
CN108768749B (zh) 一种基于区块链的节点隔离自恢复方法及装置
CN112039710B (zh) 服务故障处理方法、终端设备及可读存储介质
CN110263093B (zh) 数据同步方法、装置、节点、集群及存储介质
JP5895944B2 (ja) 管理装置、管理プログラムおよび管理方法
CN105069152A (zh) 数据处理方法及装置
US10216593B2 (en) Distributed processing system for use in application migration
JP2007304845A (ja) 仮想計算機システムおよびソフトウェア更新方法
CN110943925B (zh) 一种路由信息同步的方法以及相关装置
JP2014229088A (ja) データ処理システム、データ処理装置および記憶媒体
CN111338902B (zh) 数据处理方法、装置及***
JP6225606B2 (ja) データベース監視装置、データベース監視方法、並びにコンピュータ・プログラム
US20170161508A1 (en) Management device, method executed by the management device, and non-transitory computer-readable storage medium
JP2016201795A (ja) シンクノード状態の監視方法、装置及びシステム
US20240176762A1 (en) Geographically dispersed hybrid cloud cluster
JP5617586B2 (ja) 情報処理プログラム、中継装置及び中継管理装置
WO2012056835A1 (ja) データ記憶制御システム、データ記憶制御方法およびデータ記憶制御プログラム
CN114143196A (zh) 实例配置更新方法、装置、设备、存储介质及程序产品
JP4089506B2 (ja) ファイル共有システム及びサーバー並びにプログラム
JP5473016B2 (ja) データ共有システム、端末装置、データ共有方法、及びプログラム
JP6473425B2 (ja) ノードおよびデータ配置方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110823

R150 Certificate of patent or registration of utility model

Ref document number: 4812848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350