JP2011065469A - 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法 - Google Patents

分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法 Download PDF

Info

Publication number
JP2011065469A
JP2011065469A JP2009216023A JP2009216023A JP2011065469A JP 2011065469 A JP2011065469 A JP 2011065469A JP 2009216023 A JP2009216023 A JP 2009216023A JP 2009216023 A JP2009216023 A JP 2009216023A JP 2011065469 A JP2011065469 A JP 2011065469A
Authority
JP
Japan
Prior art keywords
node
nodes
usage rate
standby
disk usage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009216023A
Other languages
English (en)
Inventor
Masato Terashita
雅人 寺下
Akihiko Nishitani
明彦 西谷
Tomohiko Ogishi
智彦 大岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009216023A priority Critical patent/JP2011065469A/ja
Publication of JP2011065469A publication Critical patent/JP2011065469A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】分散ファイルシステムにおけるディスク使用率が高くなってきた場合等においてノードを追加する際に、少ない電力消費量によりノード起動を行う。
【解決手段】管理サーバ1と複数のノード2とを有する分散ファイルシステムにおいて、各ノード2は、自らのディスク使用率を算出する情報収集部21と、待機状態から自らの起動を行うノード起動実行部23とを備え、管理サーバ1は、各ノード2からディスク使用率の情報を受信する情報受信部11と、複数のノードで構成されるシステム全体のシステムディスク使用率を算出するノードディスク容量管理部12と、システムディスク使用率が所定の閾値を超えた場合に前記ノードの中で待機状態となっている待機ノードを起動ノードとして選択するノード起動判断部15と、前記ノード起動判断部で選択されたノードにノード起動命令を発信するノード起動命令部16とを備える。
【選択図】図2

Description

本発明は、複数のノードをネットワーク上に配置してディスクを共有する分散ファイルシステムに関し、特に、システム全体のディスク使用率が高くなってきた場合や、ノードに故障が生じた場合にノードを追加するノード起動方法、及び、そのための分散ファイルシステムに関する。
分散ファイルシステムは、ネットワークを介して散在する複数のコンピュータのディレクトリ、もしくはファイルを仮想的に統合して利用するための技術である。この種の技術としては、非特許文献1や非特許文献2で示されるように、複数のマシンのディスクを組み合わせて1つのファイルシステムとして機能する分散プラットフォームが提案されている。
非特許文献1に示されたGfarmは、広域ネットワーク上で、大容量、大規模データ処理の要求に応えるスケーラブルな分散ファイルシステムプラットフォームであり、広域なネットワーク上での効率的なファイル共有に適した分散プラットフォームである。
一方、非特許文献2に示されたHadoopは、1つのディスクで保存できない大量のデータを並列化することで高速かつ効率良く処理できるものであり、比較的大きなサイズかつ基本的に更新されることのないファイルのI/Oに適した分散プラットフォームである。
分散ファイルシステムにおけるネットワーク構成、ノードの配置や追加に関しては、運用者の判断で行われている。そのため、ディスク容量や運用状況の監視を日々行っている。特に、システム全体のディスク使用率が高くなってきた場合やノードに故障が発生した際にはノードの追加を行う必要がある。ノードの追加は、設定や設置までの作業に時間を要するので、直に起動させる場合は緊急対応できる体制づくりが必要となり、運用の負担が大きくなる。
一方で、急を要するノード追加による運用の負担を軽減するためにノードの過剰供給を行うと、必要以上の電力が消費するため運用コストの増加につながり、どちらの場合も運用側の負担が増えることが懸念される。
そこで、運用側の負担の軽減を目的として、複数のサーバで構成されるシステムの動作状況に応じて不足している資源(サーバやストレージデバイス)の種別を自動的に判断し、その資源(ノード)の増設(起動)を行う技術が特許文献1に提案されている。
特開2006−11860号公報
URL:http://datafarm.apgrid.org/index.ja.html URL:http://hadoop.apache.org/
しかしながら、特許文献1に記載の方法では、対象をLANとした場合でのストレージデバイスの追加や、電源供給を伴うホットスタンバイの待機ノードを配置し,システムの負荷状況によりシステムから使用可能にする仕組となっている。特許文献1の記載によれば、ノードの使用可否を判断するサーバとノードとがスイッチで接続され、ローカルネットワークを対象としているので、WANや広域ネットワークを対象にしたシステムでの使用ができないという問題がある。
また、ホットスタンバイでは使用しないノードを起動することになるので、上述したノードの過剰供給の場合と同様に、電力消費による運用コストの増加が問題となる。
本発明は上記事情に鑑みて提案されたもので、分散ファイルシステムにおけるディスク使用率が高くなってきた場合等においてノードを追加する際に、少ない電力消費量によりノード起動を行うことができる分散ファイルシステム、及び、分散ファイルシステムにおけるノード起動方法を提供することを目的とする。
上記目的を達成するため本発明は、分散ファイルシステムにおいて、電源供給を伴わないコールドスタンバイの待機ノードを用意し、ディスク使用率が所望の閾値以上になった時に、待機ノードを自動で起動できるようにすることで、使用状況に応じてシステムにおけるディスク容量の増加を図るものである。
すなわち、請求項1は、管理サーバに接続された複数のノード及び複数の待機ノードを有する分散ファイルシステムにおけるノードの起動方法であって、
前記待機ノードは電源が供給されない状態(コールドスタンバイ)で待機し、
前記複数のノードに故障ノードが存在した場合に前記待機ノードを起動する一方、
前記複数のノードで構成されるシステム全体のディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記ディスク使用率が所定の閾値以下になるまで前記待機ノードを自動的に起動する
ことを特徴としている。
請求項2は、管理サーバに接続された複数のノード及び複数の待機ノードを有する分散ファイルシステムにおけるノードの起動方法であって、
前記待機ノードは電源が供給されない状態(コールドスタンバイ)で待機し、
前記複数のノード及び複数の待機ノードは複数のネットワークに分割され、
前記複数のノードに故障ノードが存在した場合に故障ノードが存在するネットワーク内の前記待機ノードを起動する一方、
前記各ネットワークにおける複数ノードのディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記待機ノードを自動的に起動し、
前記複数のネットワークのノードで構成されるシステム全体のディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記ディスク使用率が所定の閾値以下になるまで前記待機ノードを自動的に起動する
ことを特徴としている。
請求項3の分散ファイルシステムは、管理サーバと、前記管理サーバに接続された複数のノードとを有している。
そして、前記各ノードは、システム動作時に起動する起動ノードと、電源が供給されない待機状態(コールドスタンバイ)とした待機ノードを含む。
また、前記各ノードは、自らのディスク使用率を算出する情報収集部と、前記待機状態から自らの起動を行うノード起動実行部とを備えている。
前記管理サーバは、前記各ノードからディスク使用率の情報を受信する情報受信部と、
前記情報受信部で受信した各ノードのディスク使用率から複数のノードで構成されるシステム全体のシステムディスク使用率を算出するディスク容量管理部と、前記システムディスク使用率が所定の閾値を超えた場合に前記ノードの中で待機状態となっている待機ノードを起動ノードとして選択するノード起動判断部と、前記ノード起動判断部で選択されたノードにノード起動命令を発信するノード起動命令部とを備えている。
本発明によれば、待機ノードを用意しディスクの使用率が所望の閾値以上になった時に待機ノードを自動で起動できるようにしたので、ディスク使用率から判断しノードの追加が必要になった時でも、待機ノードを起動させることで急を要するノード追加に伴う作業を行う必要がなく運用負担の軽減を図ることができる。
また、待機ノードをコールドスタンバイとすることで、システム全体でノードの過剰供給による消費電力の増大を抑制することができる。
また、ノード起動判断を行う際に取得するデータを一時的に保持し、前回のデータと新たに取得したデータに存在するノードリストから故障したノードを探し、故障ノードが存在する場合は該当するノードが存在するネットワークの待機ノードを起動することにより、故障によるネットワークのディスク容量の減少を防ぐことができる。
本発明の分散ファイルシステムの全体構成を示すモデル図である。 本発明の分散ファイルシステムの機能を説明するためのブロック図である。 分散ファイルシステムにおいて、システム全体で待機ノードを起動する場合の動作を説明するための処理フローチャート図である。 分散ファイルシステムにおいて、ネットワーク毎に待機ノードを起動する場合の動作を説明するための処理フローチャート図である。
本発明の分散ファイルシステムの実施の形態の一例について、図面を参照しながら説明する。
分散ファイルシステムは、図1に示すように、管理サーバ1と、管理サーバ1に接続された複数のノード2から構成され、ノード2は管理サーバ1と同じネットワークに存在する場合と、数個単位に複数のネットワークを構成する場合がある。すなわち、システム内に複数のネットワークが存在し、各ネットワーク内にノードが数台存在する。ノード2には、システム使用時に動作する複数の起動ノードと、電源が供給されることなくコールドスタンバイされる複数の待機ノードとが存在している。
ここで言うネットワークとは、サブネットが別である必要はなく、管理サーバ1上で数台のノード2を一つの集合として認識するものである。
n個(数量に規定はない)のノード(N1〜Nn)2は、管理サーバ1を介してユーザがアクセスすることで、どのネットワークに属するノードであるかを意識させることなく単一のストレージとしてユーザに提供される。
分散ファイルシステムを構成する管理サーバ1及び各ノード2が有する処理機能について、図2を参照しながら説明する。管理サーバ1には複数のノード2が接続され、ノード2には前記したように起動ノードと待機ノードが存在するが、構成自体は同じある。図2では簡略化して管理サーバ1に一つのノード2(起動ノード又は待機ノード)が接続されている状態が示されている。また、分散ファイルシステムは、複数のネットワークに分割され、各ネットワーク内に複数のノード2(複数の起動ノード、及び、複数の待機ノード)が存在している。
サーバ1及び各ノード2には、分散ファイルシステムにおけるノード起動を行うためのプログラムがインストールされ、プログラムにしたがって以下の動作が行われる。
管理サーバ1は、ノード2からのディスク使用率の情報を受信する情報受信部11と、定期的にノード2のディスク使用率情報を管理するノードディスク容量管理部12と、各ノードのネットワーク分割情報を管理するネットワーク管理部13と、ネットワークにおけるディスク使用率を算出するネットワークディスク容量管理部14と、故障ノードの探索及び起動ノードの選択を行うノード起動判断部15と、ノード起動命令を発信するノード起動命令部16を有して構成される。
管理サーバ1に接続される各ノード2は、ファイルを記録するための記録部を有し、自ノードのディスク使用率を管理する情報収集部21と、自ノードのディスク使用率を管理サーバ1へ通知する情報通知部22と、自ノードの起動を行うノード起動実行部23を有して構成される。
また、各ノード2は、システム内で動作している「稼働中」、動作していたものが何らの理由により停止する「故障」、システム全体の動作状態に応じた起動を待機する「待機」のいずれかの状態となっており、各ノード2が3種類のどの状態のノード(「起動ノード」「故障ノード」「待機ノード」)であるかについては管理サーバ1で管理される。
次に、管理サーバ1を構成する各部の機能について説明する。
情報受信部11は、各ノード2の情報通知部22より通知された複数のノード2それぞれにおけるディスク使用率の情報を定期的に受信し、ノードディスク容量管理部12へ通知する。
ノードディスク容量管理部12はメモリを有し、今回通知された複数のノード2それぞれにおけるディスク使用率から算出したシステム全体のディスク使用率情報(NDn)と前回通知されたノード2(システム全体)のディスク使用率情報(NDL)をノード起動判断部15へ通知する。また、ノード2(システム全体)のディスク使用率情報(NDn)は、ネットワーク管理部13へも通知される。
ネットワーク管理部13は、ノードディスク容量管理部12より通知されたノード2のディスク使用率(NDn)と自身が保持する各ノード2のネットワーク分割情報をネットワークディスク容量管理部14へ通知する。ネットワーク分割情報とは、各ノード2(起動ノード及び待機ノード)が属するネットワークの種別、各ネットワークが有するディスク容量等である。
ネットワークディスク容量管理部14は、ネットワーク管理部13より通知された各ノード2のディスク使用率(NDn)と各ノード2のネットワーク分割情報よりネットワークディスク使用率(ネットワーク毎のディスク使用率)を算出し、ノード起動判断部15へ通知する。
ノード起動判断部15は、ノードディスク容量管理部12から通知された(今回)ディスク使用率情報(NDn)と、(前回)ディスク使用率情報(NDL)とから故障ノードの探索および起動ノードの選択を行う。故障ノードの探索は、ディスク使用率情報(NDn)から起動しているノードのノードリスト(NLn)を作成し、ディスク使用率情報(NDL)から起動しているノードのノードリスト(NLL)を作成し、NDnとNDLを比較することにより、NLL に存在しNLn に存在しないノードを故障ノードと判断する。
また、ネットワークディスク容量管理部14より通知されたネットワークディスク使用率を元にネットワーク内での待機ノードの中から起動ノードの選択を行う。
更に、各ノード2のディスク使用率(NDn)からシステム全体のディスク使用率(Sd)を算出し待機ノードの中から起動ノードの選択を行う。
ノード起動判断部15は、選択した起動ノードのリストをノード起動命令部16へ通知する。
ノード起動命令部16は、ノード起動判断部15から受信した起動ノードのリストに基づき、該当する各ノード2(待機ノード)のノード起動実行部23へ対して、ノード起動命令を通知する。ノード起動部命令部16は、「稼働中」、「故障」、「待機」の3種類あるノードの状態を管理する。ノードの故障を検知した場合、「稼働中」から「故障」に自動的に変化する。待機ノードを起動ノードに自動的に追加した場合は、「待機」から「稼働中」に自動的に変化する。運用管理者が故障からの復旧を実施した場合は、「故障」から「待機」に手動で変化する。また、待機中のノードを手動で稼働中にさせることも可能である。
ノード2の情報収集部21では自ノードのディスク使用率を定期的に取得する。情報通知部22では、取得したディスク使用率を管理サーバ1の情報受信部11へ通知する。
ノード起動実行部23では、管理サーバ1のノード起動命令部16より起動命令を受信し、自らのノードを起動する。ノードを自動起動する仕方については、公知のMagic Packet,IPMIで開示されている技術を使用すればよい。
分散ファイルシステムにおけるノードを自動起動する場合の手順について、図3を参照しながら説明する。この例では、システム内を複数のネットワークに分断することなく、システム内における待機ノードを自動起動するものである。
先ず、故障ノードの検索を行う(ステップ31)。
各ノードから収集するディスク使用率のデータを一時保持し、再度データを収集した際に前回収集したデータに存在するノードリスト(NLL)と新たに収集したデータに存在するノードリスト(NLn)を突き合わせ、NLL に存在しNLn に存在しないノードを探す。
故障ノードが存在した場合は(ステップ32)、待機ノードの中からディスク容量が多いノードから順に故障ノード数分起動する(ステップ33)。
ディスク容量が同じノードが複数存在する場合には、分散ファイルシステムに登録された順に選択をする。
次に、各ノードのディスク使用率からシステム全体のディスク使用率を管理サーバから取得する(ステップ34)。
ディスク使用率を予め設定された閾値と比較し(ステップ34)、閾値以下である場合は何もせず終了する。
ディスク使用率が閾値を超えている場合は、最もディスク容量が多い待機ノードを1台起動する(ステップ36)。
続いて、起動した待機ノードを含めたシステム全体のディスク使用率を再度管理サーバから取得し(ステップ34)、閾値を超えているか比較し(ステップ35)、閾値以下の場合は処理を終了する。
閾値を超える場合は、最もディスク容量が大きい待機ノードを1台起動し(ステップ36)、システム全体の使用率の再取得を行い(ステップ34)、閾値以下になるまで待機ノードの起動を繰り返す。
図3の例では、分散ファイルシステムのシステム内に存在する複数のノード2について平等に取り扱うようにしたが、複数のノードを関連づけした複数のネットワークに分割した場合において、各ネットワーク内のノードを自動起動する場合の手順について図4を参照しながら説明する。
先ず、故障ノードの検索を行う(ステップ41)。
各ノードから収集するディスク使用率のデータを一時保持し、再度データを収集した際に前回収集したデータに存在するノードリスト(NLL)と新たに収集したデータに存在するノードリスト(NLn)を突き合わせ、NLL に存在しNLn に存在しないノードを探す。
故障ノードが存在するかどうかを判断し(ステップ42)、故障ノードが存在した場合は、故障ノードが含まれるネットワークの待機ノードを故障ノード数だけ起動する(ステップ43)。
次に、各ネットワークのディスク使用率(Nd1〜Ndn)を管理サーバから取得する(ステップ44)。Nd1〜Ndn の中でネットワーク閾値(NL)を超えている場合(ステップ45)には、閾値を超えた全てのネットワークのディスク使用率を全てネットワーク閾値(NL)以下になるまで待機ノードを起動する(ステップ46)。
前述の処理を行った各ネットワークのディスク使用率(Nd1〜Ndn)とシステム全体のディスク使用率(Sd)を管理サーバから取得する(ステップ47)。システム全体のディスク使用率(Sd)がシステム閾値(SL)を超えている場合は(ステップ48)、Nd1〜Ndnの中から最もディスク使用率の高いネットワーク内の待機ノードを起動し(ステップ49)、再度Nd1〜NdnとSdを取得する(ステップ47)。
上述した処理について、システム全体のディスク使用率(Sd)がシステム閾値(SL)以下になるまで続け(ステップ48)、処理を終了する。ネットワーク閾値(NL)とシステム閾値(SL)の値は、NL ≧ SLとなる値に設定されている。具体例としては、ネットワーク閾値を90%、システム閾値を80%とする。
上述した待機ノードの起動方法であると、故障ノードが存在するネットワークの待機ノードを起動するので、故障ノードの発生前後において、各ネットワークのディスク利用率の変更を最小限にすることができる。また、故障ノードのデータ復旧を同一ネットワークのノードに対して行うことが可能になる。
また、図4のようにシステム全体をネットワークに分割した場合、ネットワーク閾値(NL)をシステム閾値(SL)よりも高くすることにより、各ネットワークの待機ノード数を減らすことができる。
ディスク使用率が低いネットワークへデータの格納する分散ファイルシステムで用いた場合は、各ネットワークのディスク使用率を均一にし、負荷分散することができる。
従来一般には、分散ファイルシステムのようなストレージを提供するシステムでは、ディスクの容量が足りなくなってからノードを追加するのでは対応が遅いため、ディスクの使用容量を適宜確認し容量不足に近づいてきた際にノードやストレージを追加する処理が行われる。その場合、ノードを追加するまでの猶予が非常に短いため運用の負担が大きくなる。また、ディスクの容量が足りなくなる判断を早めに行うことで、ノード追加の緊急性を下げることは可能だが、ノード追加時には必ずしも必要でない場合が生じ、過剰供給となることで電力の無駄遣いとなる場合がある。
上述した分散ファイルシステムによれば、ノードの追加は必要だが急を要する時期に追加するのではなく、必要になるまでの間で設定された閾値の値で追加することができる(所望のタイミングで追加することができる)。したがって、電源の供給を伴わない待機ノードの設置は行うが、必要になるまでは起動させないため、容量の過剰供給になることがなく、電力の無駄遣いを防止することができる。
1…管理サーバ、 2…ノード(起動ノード又は待機ノード)、 11…情報受信部、 12…ノードディスク容量管理部、 13…ネットワーク管理部、 14…ネットワークディスク容量管理部、 15…ノード起動判断部、 16…ノード起動命令部、 21…情報収集部、 22…情報通知部、 23…ノード起動実行部。

Claims (3)

  1. 管理サーバに接続された複数のノード及び複数の待機ノードを有する分散ファイルシステムにおけるノードの起動方法であって、
    前記待機ノードは電源が供給されない状態で待機し、
    前記複数のノードに故障ノードが存在した場合に前記待機ノードを起動する一方、
    前記複数のノードで構成されるシステム全体のディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記ディスク使用率が所定の閾値以下になるまで前記待機ノードを自動的に起動する
    ことを特徴とする分散ファイルシステムにおけるノード起動方法。
  2. 管理サーバに接続された複数のノード及び複数の待機ノードを有する分散ファイルシステムにおけるノードの起動方法であって、
    前記待機ノードは電源が供給されない状態で待機し、
    前記複数のノード及び複数の待機ノードは複数のネットワークに分割され、
    前記複数のノードに故障ノードが存在した場合に故障ノードが存在するネットワーク内の前記待機ノードを起動する一方、
    前記各ネットワークにおける複数ノードのディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記待機ノードを自動的に起動し、
    前記複数のネットワークのノードで構成されるシステム全体のディスク使用率を算出し該ディスク使用率が所定の閾値を超えた場合に前記ディスク使用率が所定の閾値以下になるまで前記待機ノードを自動的に起動する
    ことを特徴とする分散ファイルシステムにおけるノード起動方法。
  3. 管理サーバと、前記管理サーバに接続された複数のノードとを有する分散ファイルシステムにおいて、
    前記各ノードは、システム動作時に起動する起動ノードと、電源が供給されない待機状態とした待機ノードを含む一方、
    自らのディスク使用率を算出する情報収集部と、
    前記待機状態から自らの起動を行うノード起動実行部と、
    を備え、
    前記管理サーバは、
    前記各ノードからディスク使用率の情報を受信する情報受信部と、
    前記情報受信部で受信した各ノードのディスク使用率から複数のノードで構成されるシステム全体のシステムディスク使用率を算出するディスク容量管理部と、
    前記システムディスク使用率が所定の閾値を超えた場合に前記ノードの中で待機状態となっている待機ノードを起動ノードとして選択するノード起動判断部と、
    前記ノード起動判断部で選択されたノードにノード起動命令を発信するノード起動命令部と
    を備えたことを特徴とする分散ファイルシステム。
JP2009216023A 2009-09-17 2009-09-17 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法 Pending JP2011065469A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009216023A JP2011065469A (ja) 2009-09-17 2009-09-17 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009216023A JP2011065469A (ja) 2009-09-17 2009-09-17 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法

Publications (1)

Publication Number Publication Date
JP2011065469A true JP2011065469A (ja) 2011-03-31

Family

ID=43951638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009216023A Pending JP2011065469A (ja) 2009-09-17 2009-09-17 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法

Country Status (1)

Country Link
JP (1) JP2011065469A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156932A (ja) * 2012-01-31 2013-08-15 Nec Commun Syst Ltd システム構成制御方法および装置
CN105553874A (zh) * 2015-12-17 2016-05-04 浪潮(北京)电子信息产业有限公司 一种分布式文件***nas网关的流量控制方法及***
CN108170375A (zh) * 2017-12-21 2018-06-15 创新科存储技术有限公司 一种分布式存储***中的超限保护方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156932A (ja) * 2012-01-31 2013-08-15 Nec Commun Syst Ltd システム構成制御方法および装置
CN105553874A (zh) * 2015-12-17 2016-05-04 浪潮(北京)电子信息产业有限公司 一种分布式文件***nas网关的流量控制方法及***
CN108170375A (zh) * 2017-12-21 2018-06-15 创新科存储技术有限公司 一种分布式存储***中的超限保护方法和装置
CN108170375B (zh) * 2017-12-21 2020-12-18 创新科技术有限公司 一种分布式存储***中的超限保护方法和装置

Similar Documents

Publication Publication Date Title
JP5496518B2 (ja) 集中電力管理方法、装置側エージェント、集中電力管理コントローラ及び集中電源管理システム
US9367340B2 (en) Resource management method and apparatus for virtual machine system, and virtual machine system
TWI475365B (zh) 階層式功率平滑化
CN102546256B (zh) 用于对云计算服务进行监控的***及方法
CN102473134B (zh) 虚拟硬盘的管理服务器及管理方法、管理程序
US9154549B2 (en) Dynamic server farms
CN102882909B (zh) 云计算服务监控***及方法
CN106817243A (zh) 服务器资源的管理***及其管理方法
JP2011186783A (ja) スナップショット管理方法、スナップショット管理装置、及びプログラム
CN105991458B (zh) 一种负载均衡的方法及负载均衡装置
CN109857239B (zh) 存储控制方法及装置
US9417909B2 (en) Scheduling work in a multi-node computer system based on checkpoint characteristics
JPWO2013145325A1 (ja) 情報処理システム、障害検知方法および情報処理装置
US9568981B2 (en) Apparatus and method for managing power consumption of a plurality of information processing apparatuses by suppressing the power consumption of an information processing apparatus having higher priority
JP2012198631A (ja) 仮想マシン配置装置、仮想マシン配置方法、仮想マシン配置プログラム
JP2011065469A (ja) 分散ファイルシステム及び分散ファイルシステムにおけるノード起動方法
WO2021259064A1 (zh) 集群的缩扩容方法及***、缩扩容控制终端和介质
US20170208121A1 (en) Server pool management
JP5729179B2 (ja) 振分制御装置、振分制御方法および振分制御プログラム
JP2010239299A (ja) ネットワークの管理システム及び管理方法
JP6269199B2 (ja) 管理サーバおよび障害復旧方法、並びにコンピュータ・プログラム
JP5483784B1 (ja) 制御装置、計算資源管理方法及び計算資源管理プログラム
WO2022048674A1 (zh) 基于服务器机柜的虚拟机管理方法及装置
WO2019161172A1 (en) Systems and methods for improved management of virtual machine clusters
JP2007249614A (ja) システム装置及び情報収集方法