JP6259408B2 - 分散処理システム - Google Patents
分散処理システム Download PDFInfo
- Publication number
- JP6259408B2 JP6259408B2 JP2015036156A JP2015036156A JP6259408B2 JP 6259408 B2 JP6259408 B2 JP 6259408B2 JP 2015036156 A JP2015036156 A JP 2015036156A JP 2015036156 A JP2015036156 A JP 2015036156A JP 6259408 B2 JP6259408 B2 JP 6259408B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- node
- load
- normal
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Description
よって、移管先の高負荷データ分散処理システムにおいて、高負荷データの処理を継続しつつ、通常データ分散処理システムに高負荷データが存在していた際に問題となる、その他のデータへの信号処理への影響の発生や、非効率なスケールアウトの頻発を抑止することができる。
図2は、本実施形態に係る分散処理システム1000の全体構成を示す図である。
本実施形態の以下の説明では、分散処理システム1000のデータ管理手法として、ノード1の増減時の影響が少ない、コンシステント・ハッシュ法によるデータ管理手法を例として説明する。ただし、コンシステント・ハッシュ法に限定されるものではない。
また、本実施形態に係る分散処理システム1000の複数のノード1は、少なくとも2つのクラスタ(通常データ分散処理システム100Aと高負荷データ分散処理システム100B)で構成される。そして、通常データ分散処理システム100Aの各ノード1A(第1のノード)において高負荷データを抽出し、処理能力の高い高負荷データを専門に処理する高負荷データ分散処理システム100Bのノード1B(第2のノード)に抽出した高負荷データを移管する。また、移管先の高負荷データ分散処理システム100Bの各ノード1Bにおいて、高負荷データの負荷が正常値に低減したのを確認して、そのデータを元の通常データ分散処理システム100Aのノード1Aに返還することを特徴とする。
図3は、本実施形態に係る分散処理システム1000を構成する、通常データ分散処理システム100Aと高負荷データ分散処理システム100Bとを示し、分散処理システム1000の全体の処理の流れを説明するための図である。
次に、本実施形態に係る分散処理システム1000を構成する、通常データ分散処理システム100Aおよび高負荷データ分散処理システム100Bを構成するノード1(1A,1B)について、具体的に説明する。ここでは、通常データ分散処理システム100Aを構成するノード1Aと高負荷データ分散処理システム100Bを構成するノード1Bとを分けて説明する。
図4は、本実施形態に係る通常データ分散処理システム100Aを構成するノード1A(第1のノード)の機能ブロック図である。
このノード1Aは、図4に示すように、制御部10Aと、入出力部20と、記憶部30Aとを含んで構成される。
具体的には、ノード識別子管理部11は、自身が属する分散処理システム(ここでは、通常データ分散処理システム100A)へのノードの追加や離脱が発生した場合に、その分散処理システムを構成するノード1(1A)の識別情報を更新し、ノード識別子管理テーブル200(ここでは、ノード識別子管理テーブル(通常)200A)として管理する。
図5(a)に示すように、ノード識別子管理テーブル(通常)200Aには、通常データ分散処理システム100Aを構成する各ノード1Aのノード識別子201とアドレス202(例えば、IPアドレス)とが対応付けられて格納される。
図5(b)に示すように、振り分けIDテーブル(通常)250には、ノード識別子201に対応付けて、そのノード1(1A)が担当するID空間(担当領域)203が格納される。図5(b)に示す例では、ID空間の全ID数が「0」〜「999」の「1000」であり、例えば、ノード識別子201が「Node1」のノード1Aが、担当するID空間として「0〜199(D=200)」について担当することを示している。なお、「D=200」は、担当するID空間の数(データ数に対応する。)を意味する。
メッセージは、新規呼(例えば、SIPにおいては、Initial-INVITE)と後続呼(例えば、SIPにおいてはBYE等)に分類でき、振り分け部12は、新規呼と後続呼で異なる処理を実行する。
ハッシュ値(振り分けID)には、振り分け部12が、新規呼のヘッダ情報等から当該呼をユニークに識別可能な情報(例えば、SIPにおいてはCall−ID等)を抽出してハッシュ関数にかけ、当該呼のコンシステント・ハッシュのID空間におけるハッシュ値を算出し、設定される。
データ識別子は、信号処理部13において新規呼を処理する際に生成され、メッセージに付与される。よって、新規呼を振り分け部12が処理する際には、ブランクとなる。
また、信号処理部13は、新規呼が担当するノード1に到着したとき、当該データのデータ識別子を決定した上で、当該データのメタデータ310を設定する。このメタデータ310は、図6(a)に示すように、記憶部30Aに記憶されるデータ300として、実際のアクセスの対象となる実データ320に対応付けて記憶される。
ここで、データ生成時分散システム識別子には、メッセージが新規呼の場合に、そのメッセージの対象となるデータを最初に処理したノード1が属する分散処理システム(通常の処理では、通常データ分散処理システム100A)の識別子(担当分散システム識別子)が格納される。
高負荷データ判定回数には、メッセージの処理対象となるデータが高負荷データと判定された回数が格納される。なお、高負荷データ判定回数の詳細は後記する。
信号処理部13は、データ処理負荷として、ロック取得時刻、ロック解放時刻、データサイズを計測し、図7(a)に示すように、データ処理負荷計測情報(通常)400Aとして、データ識別子に対応付け、ロック取得時刻、ロック解放時刻、ロック取得期間、データサイズの各値を格納する。
ここで、ロック取得時刻は、データの不整合を排除するために、他のトランザクションからの更新処理を受け付けないようにする処理(ロック)の開始時刻である。ロック解放時刻は、ロック(更新処理を受け付けない)を解除した時刻である。ロック取得期間は、ロック開始時刻からロック解放時刻までの時間を意味し、信号処理部13により算出され格納される。データサイズは、信号処理部13が処理したデータのデータ量が格納される。ここで、負荷が高いデータ程、ロック取得期間が長くなり、データサイズが大きいものとなる。
なお、本実施形態においては、以降においては、図7(a)に示す、ロック取得期間を、データ処理負荷を示すパラメータとして利用する例として説明する。
ノード負荷計測部14は、自身のノード1AのOSのリソース情報収集コマンドを利用し、CPU使用率、メモリ使用率等のノード1Aのリソース負荷が推定可能なパラメータを計測する。
ノード負荷計測部14は、例えば、10秒間隔でリソース負荷を収集する。図8においては、周期識別番号が「1」の期間、収集開始時刻が「10:14:50」(10時14分50秒、以下の記載形式も同様)を超えた時刻から収集時刻「10:15:00」までの期間での、CPU使用率とメモリ使用率とを、リソース負荷として計測する。
また、ノード負荷計測部14は、同じ所定の周期に含まれる、データ処理負荷計測情報(通常)400Aを抽出し、各データの平均値として、平均ロック取得期間、平均アクセス頻度、平均データサイズを計算してノード負荷計測情報(通常)500Aに格納する。
なお、高負荷データ抽出部15は、各周期で発生したデータ処理(データのロック取得時刻、ロック解放時刻のいずれか)が当該周期内に含まれるものの中から、処理負荷の高いデータを高負荷データとして抽出する。
(高負荷データ抽出手法の例1)
当該周期における全データのデータ処理負荷計測情報(通常)400Aについて、個々のロック取得期間、データサイズ等の値と、当該周期以前の周期のノード負荷計測情報(通常)500Aにおいて対応する、平均ロック取得期間、平均データサイズ等の値を比較し、その乖離幅(超過量)が所定の閾値を超えていた場合、そのデータを高負荷データとして抽出する。
(高負荷データ抽出手法の例2)
当該周期における全データのデータ処理負荷計測情報(通常)400Aについて、予め指定したパラメータ毎の上限値と、当該周期におけるパラメータの値を比較し、上限値を超えたパラメータが検出された場合に、そのデータを高負荷データとして抽出する。
(高負荷データ抽出手法の例3)
当該周期におけるリソース負荷(CPU使用率やメモリ使用率等)が、それ以前の周期のリソース負荷と比較し、その乖離幅(超過量)が所定の閾値を超えていた場合に、当該周期にアクセスされた全てのデータを高負荷データとみなして抽出する。
なお、以下においては、(高負荷データ判定手法の例1)を適用した場合を例に、後記する図12において詳細に説明する。
なお、高負荷データ抽出部15は、高負荷データを高負荷データ分散処理システム100Bに移管する際には、そのデータ(高負荷データ)のメタデータ310(図6(b)参照)の担当分散システム識別子を、図9に示すように、高負荷データ分散処理システム100Bを示す「2」に変更して、当該データを送信する。
次に、高負荷データ分散処理システム100Bのノード1B(第2のノード)について説明する。
図10は、本実施形態に係る高負荷データ分散処理システム100Bを構成するノード1Bの機能ブロック図である。なお、図4において示した通常データ分散処理システム100Aのノード1Aと、同一の機能を備える構成は、同一の符号と名称を付し、説明を省略する。
このノード1Bは、図10に示すように、制御部10Bと、入出力部20と記憶部30Bとを含んで構成される。
また、高負荷データ分散処理システム100Bのノード1Bの信号処理部13(第2の信号処理部)は、自身のノード1Bが担当するデータに関するメッセージの信号処理を実行するとともに、その信号処理においてアクセスするデータの処理負荷を計測し、その計測結果をデータ処理負荷計測情報(高負荷)400B(第2のデータ処理負荷計測情報)として記憶部30Bに記憶している。
また、正常負荷データ抽出部16は、高負荷データについてのアクセスが減少する等により、ノード1に対する負荷が低減したデータを正常負荷データとして抽出する。そして、正常負荷データ抽出部16は、抽出した正常負荷データを、通常データ分散処理システム100Aに返還する処理を実行する。
(正常負荷データ抽出手法の例1)
当該所定の期間における全データのデータ処理負荷計測情報(高負荷)400Bについて、個々のロック取得期間、データサイズ等の値と、返還先となる通常データ分散処理システム100Aにおいて担当領域を同じくするノード1Aの任意の周期のノード負荷計測情報(通常)500Aに記憶された、対応する平均ロック取得期間、平均データサイズ等の値を比較する。そして、正常負荷データ抽出部16は、高負荷データ分散処理システム100Bのデータ処理負荷計測情報(高負荷)400Bが、返還先となる通常データ分散処理システム100Aの対応するパラメータの平均値以下だった場合、そのデータを正常負荷データとして抽出する。
(正常負荷データ抽出手法の例2)
当該所定の期間における全データのデータ処理負荷計測情報(高負荷)400Bについて、予め指定したパラメータ毎の正常値と比較し、正常値以下であれば、そのデータを正常負荷データとして抽出する。
次に、本実施形態に係る分散処理システム1000が実行する処理の流れについて説明する。なお、分散処理システム1000全体の概略の処理の流れは、図3を参照して説明したため、ここでは、通常データ分散処理システム100Aのノード1Aが実行する処理の流れと、高負荷データ分散処理システム100Bのノード1Bが実行する処理の流れについて、詳細に説明する。
図11は、本実施形態に係る通常データ分散処理システム100Aの各ノード1Aが実行する処理の流れを示すフローチャートである。
なお、通常データ分散処理システム100Aのノード1A(ノード識別子管理部11)は、自身が属する通常データ分散処理システム100Aのノード識別子管理テーブル(通常)200Aおよび振り分けIDテーブル250Aに加えて、高負荷データ分散処理システム100Bの最新の、ノード識別子管理テーブル(高負荷)200Bおよび振り分けIDテーブル250Bを取得し記憶部30Aに記憶しているものとする。
また、ノード1A(信号処理部13)は、自身のノード1Aが担当するデータに関するメッセージの信号処理を実行した際に、当該データの処理負荷を計測し、その計測結果をデータ処理負荷計測情報(通常)400A(図6(a)参照)として記憶部30Aに記憶しているものとする。
なお、ここでは、図8に示すノード負荷計測情報(通常)500Aが、ノード負荷計測部14により生成されたものとして、以下説明する。
ここでは、当該周期(高負荷データを抽出しようとする周期)を周期識別番号「3」で示される、「10:15:10〜10:15:20」とし、比較対象の周期を周期識別番号「1」で示される、「10:14:50〜10:15:00」とする。また、比較対象のパラメータをロック取得期間とする。この場合、図12(a)に示す、データ処理負荷計測情報(通常)400Aの各データのロック取得期間を参照し、そのロック取得期間が、図12(b)に示すノード負荷計測情報(通常)500Aの周期識別番号「1」の平均ロック取得期間「7msec」と比較する。そして、高負荷データ抽出部15は、そのデータのロック取得期間と平均ロック取得期間との乖離幅(超過量)の閾値として設定された「20msec」を超えるか否かを判定する。この場合、符号αで示すロック取得期間が「106msec」のデータが、高負荷データとして抽出される。
ここで、高負荷データの移管後に、移管元のノード1Aにおいて当該データに対する最初のアクセスがあった場合の移管先へのリダイレクト処理について説明する。
図14は、高負荷データの移管後の当該データに対する最初のアクセスのリダイレクト処理の流れを示すフローチャートである。
ここで、例えば、高負荷データの移管後の当該データに対する最初のメッセージに付与された振り分けキーは、変更されていないため「1+199+data_12345」であるとする。一方、振り分け部12は、記憶部30Aに格納されたデータ300のメタデータ310の当該データ「data_12345」の担当分散システム識別子を参照し、その値が「2」であることを確認する(図9(b)参照)。つまり、受信したメッセージの処理対象のデータが、移管されたデータ(高負荷データ)であることを確認する。
次に、本実施形態に係る高負荷データ分散処理システム100Bの各ノード1Bが実行する処理について説明する。
なお、高負荷データ分散処理システム100Bのノード1B(ノード識別子管理部11)は、自身が属する高負荷データ分散処理システム100Bのノード識別子管理テーブル(高負荷)200B(第2のノード識別子管理情報)および振り分けIDテーブル(高負荷)250B(第2の振り分けID情報)に加えて、通常データ分散処理システム100Aの最新の、ノード識別子管理テーブル(通常)200A(第1のノード識別子管理情報)および振り分けIDテーブル(通常)250A(第1の振り分けID情報)を取得し記憶部30Bに記憶しているものとする。
また、ノード1B(信号処理部13)は、自身のノード1が担当するデータに関するメッセージの信号処理を実行した際に、当該データの処理負荷を計測し、その計測結果をデータ処理負荷計測情報(高負荷)400B(第2のデータ処理負荷計測情報)(図15参照)として記憶部30Bに記憶しているものとする。
さらに、ノード1B(正常負荷データ抽出部16)は、通常データ分散処理システム100Aの各ノード1Aから、それぞれのノード負荷計測情報(通常)500Aを受信し、記憶部30Bに記憶しているものとする。
まず、ノード1Bの正常負荷データ抽出部16は、所定の時間(所定の第2の期間)が経過したかを判定し(ステップS40)、所定の時間が経過していなければ、(ステップS40→No)、所定の時間が経過するまで待つ。一方、正常負荷データ抽出部16は、所定の時間が経過した場合には(ステップS40→Yes)、次のステップS41に進む。
ここでは、当該期間(正常負荷データを抽出しようとする期間)を「10:15:20〜10:15:30」)とし、比較対象の返還先の分散処理システム(通常データ分散処理システム100A)から選択した周期を周期識別番号「1」で示される「10:14:50〜10:15:00」とする。また、比較対象のパラメータをロック取得期間とし、所定の時間に含まれるデータ処理負荷計測情報(高負荷)400Bの同じデータ識別子のロック取得期間の値が、担当領域を同じくするノード1Aのノード負荷計測情報(通常)500Aで示される平均ロック取得期間(ここでは、「7msec」)を一度も上回ることがなければ、当該データを正常負荷データと判定する。
なお、ここで、判定対象となるデータ(例えば、データ識別子「11111111」)と担当領域を同じくするノード1Aのノード負荷計測情報(通常)500Aは、判定対象となるデータのメタデータに付された振り分けキーのハッシュ値(振り分けID)を取得し、自身の記憶部40Bに記憶された振り分けIDテーブル(通常)250Aを検索することにより、現時点(つまり返還しようする時点)での当該データの返還先となるノード1Aのノード負荷計測情報(通常)500Aを特定することにより決定する。
ここで、正常負荷データの返還後に、返還元のノード1Bにおいて当該データに対する最初のアクセスがあった場合の返還先へのリダイレクト処理について説明する。
図19は、正常負荷データの返還後の当該データに対する最初のアクセスのリダイレクト処理の流れを示すフローチャートである。
1A ノード(第1のノード)
1B ノード(第2のノード)
2 クライアント
3 ロードバランサ
10A,10B 制御部
11 ノード識別子管理部
12 振り分け部
13 信号処理部(第1の信号処理部、第2の信号処理部)
14 ノード負荷計測部
15 高負荷データ抽出部
16 正常負荷データ抽出部
20 入出力部
30A,30B 記憶部
100A 通常データ分散処理システム
100B 高負荷データ分散処理システム
200A ノード識別子管理テーブル(通常)(第1のノード識別子管理情報)
200B ノード識別子管理テーブル(高負荷)(第2のノード識別子管理情報)
250A 振り分けIDテーブル(通常)(第1の振り分けID情報)
250B 振り分けIDテーブル(高負荷)(第2の振り分けID情報)
300 データ
310 メタデータ
320 実データ
400A データ処理負荷計測情報(通常)(第1のデータ処理負荷計測情報)
400B データ処理負荷計測情報(高負荷)(第2のデータ処理負荷計測情報)
500A ノード負荷計測情報(通常)
1000 分散処理システム
Claims (6)
- クライアントからのメッセージを受信して信号処理しサービスを提供する分散処理システムであって、
前記分散処理システムは、前記メッセージを受信して信号処理する第1のノードを複数有する通常データ分散処理システムと、前記第1のノードと比較して処理性能の高い第2のノードを複数有する高負荷データ分散処理システムとから構成され、
前記通常データ分散処理システムの前記第1のノードそれぞれ、および、前記高負荷データ分散処理システムの第2のノードそれぞれは、
前記第1のノードそれぞれの識別子と、信号処理を実行するデータに付された振り分けIDとを対応付けた情報である第1の振り分けID情報、および、前記第1のノードそれぞれの識別子と、前記第1のノードのアドレスとを対応付けた情報である第1のノード識別子管理情報、
並びに、前記第2のノードそれぞれの識別子と、信号処理を実行するデータに付された前記振り分けIDとを対応付けた情報である第2の振り分けID情報、および、前記第2のノードそれぞれの識別子と、前記第2のノードのアドレスとを対応付けた情報である第2のノード識別子管理情報、を記憶する記憶部、を備えており、
前記通常データ分散処理システムの前記第1のノードそれぞれは、
前記メッセージを受信し、当該メッセージに付与された、前記振り分けID、並びに、前記通常データ分散処理システムおよび前記高負荷データ分散処理システムのいずれかの識別子を示す担当分散システム識別子、を取得し、前記第1の振り分けID情報または前記第2の振り分けID情報を参照して信号処理するノードを決定し、決定したノードに当該メッセージを振り分ける振り分け部と、
振り分けられた前記メッセージを受信し、前記第1のノード自身が担当するデータに関するメッセージの信号処理を実行するとともに、前記データの信号処理の処理負荷を計測し、第1のデータ処理負荷計測情報として自身の前記記憶部に記憶する第1の信号処理部と、
所定の第1の期間ごとに、前記第1のデータ処理負荷計測情報を参照し、予め設定された高負荷データを抽出するロジックに基づき前記信号処理の処理負荷が高いデータを前記高負荷データとして抽出し、前記抽出した高負荷データの前記振り分けIDを取得し、前記第2の振り分けID情報および前記第2のノード識別子管理情報を参照して信号処理する第2のノードを決定して送信する高負荷データ抽出部と、を備え、
前記高負荷データ分散処理システムの前記第2のノードそれぞれは、
前記振り分け部と、
振り分けられた前記メッセージを受信し、前記第2のノード自身が担当するデータに関するメッセージの信号処理を実行するとともに、前記データの信号処理の処理負荷を計測し、第2のデータ処理負荷計測情報として自身の前記記憶部に記憶する第2の信号処理部と、
所定の第2の期間ごとに、前記第2のデータ処理負荷計測情報を参照し、予め設定された正常負荷データを抽出するロジックに基づき前記信号処理の処理負荷が低減したデータを前記正常負荷データとして抽出し、前記抽出した正常負荷データの前記振り分けIDを取得し、前記第1の振り分けID情報および前記第1のノード識別子管理情報を参照して信号処理する第1のノードを決定して送信する正常負荷データ抽出部と、を備えること
を特徴とする分散処理システム。 - 前記第1のノードの前記高負荷データ抽出部は、
前記予め設定された高負荷データを抽出するロジックとして、
前記所定の第1の期間内において、前記第1のデータ処理負荷計測情報として計測された、前記データの信号処理に伴うロック取得期間、または、前記データのデータサイズと、前記所定の第1の期間内における全ての前記データから算出した、平均ロック取得期間、または、平均データサイズとをそれぞれ比較して、その乖離幅が所定の閾値を超えている場合に、前記データを高負荷データとして抽出することが設定されていること、
を特徴とする請求項1に記載の分散処理システム。 - 前記第1のノードの前記高負荷データ抽出部は、
前記平均ロック取得期間、または、平均データサイズを含む前記第1のノードのノード負荷計測情報を、前記第2のノードそれぞれに送信し、
前記第2のノードの前記正常負荷データ抽出部は、
前記予め設定された正常負荷データを抽出するロジックとして、
前記所定の第2の期間内において、前記第2のデータ処理負荷計測情報として計測された、前記データの信号処理に伴うロック取得期間、または、前記データのデータサイズと、前記データの前記振り分けIDを用いて前記第1の振り分けID情報を参照し、当該データの返還先としての前記第1のノードを特定し、前記特定された第1のノードから送信された前記ノード負荷計測情報に含まれる、前記平均ロック取得期間、または、前記平均データサイズとをそれぞれ比較し、前記第2のデータ処理負荷計測情報として計測されたデータの値が、各々の平均以下であった場合に、当該データを正常負荷データとして抽出することが設定されていること、
を特徴とする請求項2に記載の分散処理システム。 - 前記第1のノードの前記振り分け部は、
前記高負荷データとして抽出され前記第2のノードに送信されたデータの信号処理を要求するメッセージを受信した際に、前記メッセージに付与された前記担当分散システム識別子を、前記高負荷データ分散処理システムを示す値に変更すること、
を特徴とする請求項1ないし請求項3のいずれか1項に記載の分散処理システム。 - 前記第2のノードの前記振り分け部は、
前記正常負荷データとして抽出され前記第1のノードに送信されたデータの信号処理を要求するメッセージを受信した際に、前記メッセージに付与された前記担当分散システム識別子を、前記通常データ分散処理システムを示す値に変更すること、
を特徴とする請求項1ないし請求項4のいずれか1項に記載の分散処理システム。 - 前記第2のノードの前記正常負荷データ抽出部は、
前記正常負荷データとして抽出されたデータを、前記通常データ分散処理システムの前記第1のノードに送信する際に、当該データに、高負荷データとして抽出されたことを示す高負荷データ判定回数を、1カウントアップして送信しており、
前記正常負荷データを抽出したときに、前記高負荷データ判定回数が所定の閾値を超えていた場合、当該データを削除すること、
を特徴とする請求項1ないし請求項5のいずれか1項に記載の分散処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015036156A JP6259408B2 (ja) | 2015-02-26 | 2015-02-26 | 分散処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015036156A JP6259408B2 (ja) | 2015-02-26 | 2015-02-26 | 分散処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016157367A JP2016157367A (ja) | 2016-09-01 |
JP6259408B2 true JP6259408B2 (ja) | 2018-01-10 |
Family
ID=56826273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015036156A Active JP6259408B2 (ja) | 2015-02-26 | 2015-02-26 | 分散処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6259408B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7102950B2 (ja) | 2018-05-30 | 2022-07-20 | 富士通株式会社 | 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム |
JP2020003945A (ja) * | 2018-06-26 | 2020-01-09 | 株式会社日立情報通信エンジニアリング | 計算機システム及びデータ管理方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4529974B2 (ja) * | 2006-12-26 | 2010-08-25 | 日本電気株式会社 | サーバ負荷分散システム、サーバ負荷分散装置、コンテンツ管理装置、及びサーバ負荷分散プログラム |
JP5104588B2 (ja) * | 2007-10-18 | 2012-12-19 | 富士通株式会社 | マイグレーションプログラム、および仮想マシン管理装置 |
JP5544522B2 (ja) * | 2011-06-21 | 2014-07-09 | 日本電信電話株式会社 | 負荷調整方法、負荷調整サーバ、負荷調整用サーバ装置、および、負荷調整プログラム |
JP5949370B2 (ja) * | 2012-09-19 | 2016-07-06 | 富士通株式会社 | 制御装置、処理システム、制御プログラム、及び制御方法 |
-
2015
- 2015-02-26 JP JP2015036156A patent/JP6259408B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016157367A (ja) | 2016-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11886731B2 (en) | Hot data migration method, apparatus, and system | |
JP5664098B2 (ja) | 複合イベント分散装置、複合イベント分散方法および複合イベント分散プログラム | |
WO2018076791A1 (zh) | 一种资源负载均衡控制方法及集群调度器 | |
CN105025053A (zh) | 基于云存储技术的分布式文件的上传方法及其*** | |
TW201627882A (zh) | 先決式資料庫系統及其資料搬移方法 | |
WO2015081750A1 (zh) | 一种存储数据副本的方法和终端装置以及服务器装置 | |
CN104023088A (zh) | 一种应用于分布式文件***的存储服务器选择方法 | |
JP6582445B2 (ja) | シンクライアントシステム、接続管理装置、仮想マシン稼働装置、方法、および、プログラム | |
CN104063501B (zh) | 基于hdfs的副本平衡方法 | |
JP6259408B2 (ja) | 分散処理システム | |
JP6059558B2 (ja) | 負荷分散判定システム | |
CN102970349B (zh) | 一种dht网络的存储负载均衡方法 | |
TWI652621B (zh) | 產生虛擬機器訊息佇列應用程式之相依關係的方法與系統 | |
Gankevich et al. | Subordination: Cluster management without distributed consensus | |
EP3349416B1 (en) | Relationship chain processing method and system, and storage medium | |
CN104219163A (zh) | 一种基于动态副本法和虚拟节点法的节点动态前移的负载均衡方法 | |
JP6063882B2 (ja) | 仮想マシン配置システム及び方法 | |
He et al. | A simulation cloud monitoring framework and its evaluation model | |
JP6325995B2 (ja) | 分散システム、負荷分散方法及びプログラム | |
Lin et al. | An overall approach to achieve load balancing for Hadoop Distributed File System | |
JP2024514467A (ja) | 地理的に分散されたハイブリッドクラウドクラスタ | |
JP6020803B2 (ja) | 分散ストレージシステム、分散ストレージデータ移動制御方法及び分散ストレージデータ移動制御用プログラム | |
CN110636091A (zh) | 云存储集群的数据均衡方法、装置、设备和存储介质 | |
Shen et al. | Cost-effective virtual machine image replication management for cloud data centers | |
CN113590319B (zh) | 一种消息队列的计算资源负载均衡方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6259408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |