JP2012220977A - 仮想計算機の制御方法及び管理計算機 - Google Patents

仮想計算機の制御方法及び管理計算機 Download PDF

Info

Publication number
JP2012220977A
JP2012220977A JP2011082570A JP2011082570A JP2012220977A JP 2012220977 A JP2012220977 A JP 2012220977A JP 2011082570 A JP2011082570 A JP 2011082570A JP 2011082570 A JP2011082570 A JP 2011082570A JP 2012220977 A JP2012220977 A JP 2012220977A
Authority
JP
Japan
Prior art keywords
computer
group
virtual
management
tenant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011082570A
Other languages
English (en)
Other versions
JP5691062B2 (ja
Inventor
Shinichi Kawamoto
真一 川本
Tsuyoshi Tanaka
剛 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011082570A priority Critical patent/JP5691062B2/ja
Priority to US13/437,963 priority patent/US8914546B2/en
Publication of JP2012220977A publication Critical patent/JP2012220977A/ja
Application granted granted Critical
Publication of JP5691062B2 publication Critical patent/JP5691062B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】複数のテナントが複数の物理計算機リソースを使用する仮想計算機システムにおいてグループ間の負荷の不均衡を迅速に解消する。
【解決手段】管理計算機が、複数の仮想計算機を複数のグループに割り当て、グループ単位の負荷の値を取得し、負荷の値が閾値を超えたグループを第1のグループとし、複数のグループのうち第1のグループを除く第2のグループから移動対象計算機を選択し、移動対象計算機の仮想計算機を第2のグループ内の他の物理計算機へ移動させ、移動対象計算機を第2のグループから第1のグループへ移動させる際に、移動対象計算機の仮想化部の仮想ネットワークの設定を前記第1のグループに応じて変更し、移動対象計算機を第1のグループで稼動するようにネットワークスイッチの設定を変更し、移動対象計算機を第1のグループに追加してから、移動対象計算機に第1のグループの仮想計算機を稼動させる。
【選択図】図38

Description

本発明は、仮想計算機システムにおける計算機リソースの割り当てに関し、特に、計算機資源のテナント単位(または利用グループ単位)で計算機リソースを管理する際に、仮想計算機とネットワークやストレージ装置の割り当ての変更を円滑に行う技術に関する。
プロセッサのコア数の増大と仮想化技術の向上によって、多数の仮想計算機に物理計算機の計算機リソースを割り当てる自由度も向上し、少ない物理リソースで多数の仮想計算機を運用することが可能となった。
多数の物理計算機を保有するデータセンターでは、複数の顧客に複数の仮想計算機を貸し出すことが広く行われている。そして、データセンターでは、顧客(以下、テナント)毎にネットワークやストレージ装置の利用形態を設定し、SLA(Service Level Agreement)に応じて仮想計算機が使用するリソースを設定する。このように複数のテナントがデータセンタ内の物理計算機を利用する環境をマルチテナント環境という。
この種の、マルチテナント環境においては、物理計算機リソースに対する仮想計算機の集約率を向上することでデータセンタの収益性を向上さるには、少ない物理計算機リソースを各テナントの負荷に応じて動的に割り当てる運用が必要となる。
仮想計算機に割り当てる物理計算機リソースを動的に変更する技術としては、VMware(登録商標)社のDRS(Distributed Resource Scheduler)やマイクロソフト(登録商標)社のPRO(Performance and Resource Optimization)などが知られている。これらの技術を利用することで、複数のハイパバイザ(物理サーバ)からなるリソースグループ内において、ハイパバイザ間の負荷に不均衡が生じた場合には、DRSなどのシステムが仮想計算機のマイグレーションプランを提示したり、自動的に仮想計算機をマイグレーションして負荷の平準化を行い、これによって管理者の運用コストを削減することができる。
上記のDRSを利用して仮想計算機の負荷を平準化するためには、すべての物理計算機に対して、LANスイッチやSANスイッチの設定と、ハイパバイザ内の仮想スイッチの設定及びストレージの設定を同一にしておく必要がある。
しかし、LANスイッチやSANスイッチの設定は、データセンタを利用するテナント毎にVLANやゾーニングを設定するため、異なるテナント間で、リソースを分配することは難しい。ここで、異なるネットワークセグメント間で物理計算機の移動を実現するために、物理ルータや物理LANスイッチの設定を変更する手法が知られている(例えば、特許文献1)。
特開2010−26699号公報
ところで、仮想計算機に物理計算機リソースを割り当てるハイパバイザなどの仮想化部は、内部に仮想スイッチ(または仮想ネットワーク)を構成して、同一の仮想化部上の仮想計算機間の通信は、物理的なI/Oデバイスを使用することとなく、内部の仮想スイッチで通信を行っている。
このため、上述のようなマルチテナント環境の仮想計算機システムに上記特許文献1を適用しても、仮想化部の内部の仮想スイッチの設定を変更できないため、ひとつの物理計算機を他のテナントで利用するためには、管理者などが手動で仮想スイッチの設定等を変更しなければならず、データセンタの運用コストが増大する、という問題があった。
また、データセンタ内で、同一のテナントであれば、LANスイッチやSANスイッチの設定も同一の場合が多いので、テナント毎、あるいはテナント内の一部をリソースグループとして扱うことができる。このとき、各リソースグループ内では上述のDRS等によって低コストで負荷の平準化が可能である。
しかし、リソースグループ間やテナント間等のグループ間で負荷の不均衡が発生した場合には、上述のように、依然として運用管理者が手動で対策しなければならず、物理計算機リソースの割り当て変更を迅速に行うことができず、人手が必要となるため運用コストも増大する、という問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、複数のテナントが複数の物理計算機リソースを使用する仮想計算機システムにおいて、物理計算機リソースを複数のテナント間で迅速に融通することを目的とする。
本発明は、プロセッサとメモリを備えた物理計算機と、前記物理計算機のリソースを分割して仮想計算機を提供する仮想化部と、複数の前記物理計算機を接続するネットワークスイッチと、前記ネットワークスイッチに接続された管理計算機と、を備えて前記複数の物理計算機上で提供される複数の仮想計算機の制御方法であって、前記管理計算機が、前記複数の仮想計算機を複数のグループに割り当てる第1の手順と、前記管理計算機が、前記グループ単位の負荷の値を取得し、予め設定したしきい値と前記負荷の値を比較する第2の手順と、前記管理計算機が、前記負荷の値が前記しきい値を超えたグループを第1のグループとして特定する第3の手順と、前記管理計算機が、前記複数のグループのうち前記第1のグループを除く第2のグループを選択する第4の手順と、前記管理計算機が、前記第2のグループに割り当てられた仮想計算機を実行する物理計算機のうち所定の物理計算機を移動対象計算機として特定する第5の手順と、前記管理計算機が、前記移動対象計算機で提供される仮想計算機を前記第2のグループ内の他の物理計算機へ移動させる第6の手順と、前記管理計算機が、前記移動対象計算機を前記第2のグループから削除する第7の手順と、前記管理計算機が、前記移動対象計算機の仮想化部の仮想ネットワークの設定を前記第1のグループに応じて変更するよう当該仮想化部に指令する第8の手順と、前記管理計算機が、前記移動対象計算機を第1のグループで稼動するように前記ネットワークスイッチの設定を変更する第9の手順と、前記管理計算機が、前記移動対象計算機を第1のグループに追加する第10の手順と、前記管理計算機が、前記移動対象計算機に前記第1のグループの仮想計算機を稼動させる第11の手順と、を含む。
したがって、本発明は、グループ間で負荷の不均衡が発生した場合には、負荷の低いグループ(移動元)から適切な物理計算機を取り除き、負荷の高いグループに当該物理計算機を割り当て直すことで、グループ間の負荷の不均衡を低減することが可能となる。
本発明の第1の実施形態を示し、仮想計算機を提供する計算機システムの一例を示すブロック図である。 本発明の第1の実施形態を示し、仮想計算機を提供するサーバの一例を示すブロック図である。 本発明の第1の実施形態を示し、テナントA、Bにサーバ130を割り当てたときの計算機リソースの一例を示すブロック図である。 本発明の第1の実施形態を示し、テナントAで実行するサービスとVLAN及びゾーンの一例を示すブロック図である。 本発明の第1の実施形態を示し、テナントAで実行するサービスとVLAN及びゾーンとLANスイッチ、SANスイッチの関係を示すブロック図である。 本発明の第1の実施形態を示し、テナントAのハイパバイザ200に設定された仮想スイッチの一例を示すブロック図である。 本発明の第1の実施形態を示し、計算機システム内のリソースを管理する運用管理システムの機能要素の一例を示すブロック図である。 本発明の第1の実施形態を示し、テナントデータベースの一例を示すブロック図である。 本発明の第1の実施形態を示し、稼動データベースの一例を示すブロック図である。 本発明の第1の実施形態を示し、構成データベースの一例を示すブロック図である。 本発明の第1の実施形態を示し、リソースグループグループテーブル510の一例を示す図である。 本発明の第1の実施形態を示し、 VMテーブル520の一例を示す図である。 本発明の第1の実施形態を示し、仮想ネットワークテーブル530の一例を示す図である。仮 本発明の第1の実施形態を示し、LUテーブル540の一例を示す図である。 本発明の第1の実施形態を示し、稼動データベース407のホスト稼動情報テーブル550の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のホストテーブル560の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409の負荷項目テーブル570の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のテナント−ホストテーブル580の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のホスト−VMテーブル590の一例を示す図である。 本発明の第1の実施形態を示し、 構成データベース409のホスト−NICテーブル600の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のホスト−HBAテーブル610の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のLANスイッチ管理情報620の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のSANスイッチ管理情報630の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のSANゾーンテーブル640の一例を示す図である。S 本発明の第1の実施形態を示し、構成データベース409のSANゾーンテーブル640の変形例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のストレージテーブル650の一例を示す図である。 本発明の第1の実施形態を示し、構成データベース409のストレージ−ホスト管理テーブル660の一例を示す図である。 本発明の第1の実施形態を示し、稼動管理モジュール403で行われる処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、判定モジュール404で行われる処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図25のステップS14で行われるテナント毎の評価値ベクトルの演算処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図25のステップS18で行われる変更プラン生成モジュール405の処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS31で行われる移動元のテナントと移動先のテナントの決定処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS32で行われるリソースグループの変更プランの生成処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS33で行われる仮想ネットワークの変更プランの生成処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS34で行われるLANスイッチの変更プランの生成処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS35で行われるSANスイッチの変更プランの生成処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、図27のステップS36で行われるストレージ150の変更プランの生成処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、変更モジュール406で行われる処理の一例を示すフローチャートである。 本発明の第1の実施形態を示し、変更プラン生成モジュール405が生成する通知画面420の一例を示す画面イメージである。 本発明の第1の実施形態を示し、変更プラン生成モジュール405が生成した移動対象ホストHmoveの移動前後の詳細なプランの表示画面430の画面イメージである。 本発明の第1の実施形態を示し、変更モジュール406が生成する進捗状況表示画面440である。 本発明の第1の実施形態を示し、図34のステップS101、S102に対応するブロック図である。 本発明の第1の実施形態を示し、図34のステップS103に対応するブロック図である。 本発明の第1の実施形態を示し、図34のステップS104に対応するブロック図である。 本発明の第1の実施形態を示し、図34のステップS105、S106に対応するブロック図である。 本発明の第1の実施形態を示し、図34のステップS107に対応するブロック図である。 本発明の第1の実施形態を示し、図34のステップS108に対応するブロック図である。 本発明の第2の実施形態を示し、仮想計算機を提供する計算機システムの一例を示すブロック図である。 本発明の第2の実施形態を示し、複数のテナントで共有されるサーバの一例を示すブロック図である。 本発明の第2の実施形態を示し、変更プラン生成モジュール405で行われる処理の一例を示すフローチャートである。 本発明の第2の実施形態を示し、変更モジュール406で行われる処理の一例を示すフローチャートである。 本発明の第2の実施形態を示し、移動対象ホストHmove(HOST01)上で稼動する仮想計算機211を同一テナント内で退避させる例を示すブロック図である。 本発明の第2の実施形態を示し、親ハイパバイザ200Aが論理区画に割り当てるリソースの比率を変更する例を示すブロック図である。 本発明の第2の実施形態を示し、親ハイパバイザ200Aが論理区画に割り当てるリソースの比率を変更した後に仮想計算機211を再配置するブロック図である。 本発明の第3の実施形態を示し、変更モジュール406で行われる処理の一例を示すフローチャートである。 本発明の第4の実施形態を示し、仮想計算機を提供する計算機システムの一例を示すブロック図である。 本発明の第4の実施形態を示し、図27のステップS34で行われるLANスイッチの変更プランの生成処理の一例を示すフローチャートである。 本発明の第4の実施形態を示し、ホストHOST01を移動する前の計算機システムのブロック図である。 本発明の第4の実施形態を示し、ホストHOST01を移動した後の計算機システムのブロック図である。 本発明の第5の実施形態を示し、サーバ管理者用の通知画面の一例を示す画面イメージである。 本発明の第5の実施形態を示し、ネットワーク管理者用の通知画面の一例を示す画面イメージである。 本発明の第5の実施形態を示し、SAN管理者用の通知画面の一例を示す画面イメージである。 本発明の第5の実施形態を示し、ストレージ管理者用の通知画面の一例を示す画面イメージである。
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、本発明の第1の実施形態を示し、仮想計算機を提供する計算機システムの構成の一例を示すブロック図である。
物理計算機で構成されるサーバ130−1〜130−6のそれぞれでは、後述するハイパバイザによって複数の仮想計算機が実行される。サーバ130−1〜130−6はLANスイッチ121、122を介して相互に接続され、また、LANスイッチ121、122がネットワーク110を介してクライアント100−1、100−2に接続される。
サーバ130−1〜130−6は、SANスイッチ141,142を介してストレージ150−1、150−2に接続される。サーバ130−1〜130−6でそれぞれ実行される各仮想計算機は、所定のサービスをクライアント100−1、100−2に提供する。
また、各サーバ130−1〜130−6は管理LANスイッチ160を介して運用管理システム170−1、170−2及び管理クライアント180に接続される。運用管理システム170−1、170−2はサーバ130−1〜130−6の構成や稼動に関する管理を行う物理計算機である。運用管理システム170−1、170−2は、仮想計算機システムの冗長性を保つため、一方が現用系、他方が待機系となっており以下では運用管理システム170−1が現用系とする。管理クライアント180は、仮想計算機システムを利用する顧客(以下、テナントとする)の情報や、仮想計算機に割り当てる物理計算機のリソースなどを運用管理システムに指令する。
なお、クライアント100−1、100−2の総称を添え字のないクライアント100で示し、同様にサーバ130−1〜130−6の総称をサーバ130で示し、ストレージ150−1、150−2の総称をストレージ150で示し、現用系の運用管理システム170−1を符号170で示す。
本発明の仮想計算機システムでは、複数のテナントがサーバ130で実行される仮想計算機を利用し、あるテナントAのサーバ130の負荷が上昇すると、他のテナントBのサーバ130のうち適切なサーバ130をテナントAに提供し、物理計算機リソースを融通させるものである。
図2は、仮想計算機を提供するサーバ130−nの一例を示すブロック図である。なお、サーバ130−1〜130−6は同一の構成であり、実行する仮想計算機211−1〜211−nの数や割り当てたリソースが異なるだけである。なお、以下では仮想計算機211−1〜211−nの総称を仮想計算機211とする。
サーバ130は、演算処理を行う複数のプロセッサ(図中CPU)221−1,221−2と、データやプログラムを保持するメモリ223と、プログラムやデータを格納するディスク装置224と、LANスイッチ121(または122)及び管理LANスイッチ160に接続されるネットワークインターフェース(図中NIC)225−1、225−2とSANスイッチ141,142に接続されるホストバスアダプタ(図中HBA)226−1、226−2と、を備える物理計算機である。
プロセッサ221−1,221−2は、起動するとディスク装置224からハイパバイザ200を読み込んでメモリ223にロードしてから実行する。ハイパバイザ200は、サーバ130の物理計算機リソースを複数の仮想計算機211に割り当てて、各仮想計算機211を実行させる。仮想計算機211では、OS202が実行されこのOS202上では所定のアプリケーション203が実行される。
図3は、テナントA、Bにサーバ130を割り当てたときの計算機リソースの一例を示すブロック図である。
図示の例では、テナントAにサーバ130−1〜130−3を割り当てて、テナントBにサーバ130−4〜130−6を割り当てた例を示す。
テナントAが利用するサーバ130−1〜130−3の計算機リソースには、物理計算機リソースとしてのサーバハードウェア201と、仮想計算機211を提供する仮想化部としてのハイパバイザ200と、複数の仮想計算機211からリソースグループRGAを構成する。
同様に、テナントBが利用するサーバ130−4〜130−6の計算機リソースには、物理計算機リソースとしてのサーバハードウェア201と、仮想計算機211を提供する仮想化部としてのハイパバイザ200と、複数の仮想計算機211からリソースグループRGBを構成する。
テナントAが使用するサーバ130−1〜130−3はLANスイッチ121のポート1〜3に接続される。LANスイッチ121には、これらポート1〜3とポート9を接続するVLAN231が設定される。ポート9は通信経路123を介してネットワーク110と接続されており、ポート1〜3のサーバ130−1〜130−3はクライアント100と通信可能となる。
テナントBが使用するサーバ130−3〜130−6はLANスイッチ121のポート4〜6に接続される。LANスイッチ121には、これらポート4〜6とポート9を接続するVLAN232が設定される。ポート9は通信経路123を介してネットワーク110と接続されており、ポート4〜6のサーバ130−4〜130−6はクライアント100と通信可能となる。
テナントAが使用するサーバ130−1〜130−3は、SANスイッチ141のポート1.0〜1.3に接続される。SANスイッチ141には、これらポート1.0〜1.3とポート1.9を接続するゾーンZ0が設定される。ポート1.9はストレージ150−1のポートS1に接続されて、論理ユニット(以下、LU)1(261)とLU2(262)にアクセス可能となっている。これにより、サーバ130−1〜130−3はLUl、LU2にアクセス可能となっている。
テナントBが使用するサーバ130−1〜130−3は、SANスイッチ141のポート1.5〜1.7に接続される。SANスイッチ141には、これらポート1.5〜1.7とポート1.10を接続するゾーンZ1が設定される。ポート1.10はストレージ150−1のポートS2に接続されて、論理ユニットLU3(263)とLU4(264)及びLU5(265)にアクセス可能となっている。これにより、サーバ130−4〜130−6はLU3〜LU5にアクセス可能となっている。なお、LANスイッチ121、SANスイッチ141及びリソースグループの設定は、後述するように運用管理システム170が実施する。
また、運用管理システム170に搭載された前記従来例でも述べたDRS(Distributed Resource Scheduler)やProにより、リソースグループRGA、RGB内で仮想計算機をマイグレーションしてサーバ130間の負荷の平準化を図ることができる。
図4は、テナントAで実行するサービスとVLAN及びゾーンの一例を示すブロック図である。本図では、図3に示した12の仮想計算機(図中VM)211のうち、3台がWebサーバ301〜303、3台がAP(アプリケーション)サーバ304〜306、2台がDBサーバ307,308を実行するWeb3階層アプリケーションの例を示す。
テナントAのサーバ130が利用するLANスイッチ121のVLAN231(図3参照)は、図4で示す2つのVLAN1(311)とVLAN2(312)から構成されている。
一方、ゾーンZ0は、テナントAの全てのサーバ301〜308が論理ユニットLU1へアクセスするパスと、アプリケーションサーバ304〜306とDBサーバ307、308がLU2にアクセするパスを有する。なお、LU1は仮想計算機211の仮想マシンイメージ(WMwareではVMDK、MSではVHD)を保存する領域であり、仮想計算機211のマイグレーションをするために格納場所を共有する。LU2はAPサーバやDBサーバがアクセスするデータ領域である。本例ではWebサーバはローカルディスクにデータを格納するものとしているが、LU2のような外部ストレージにデータを格納してもよい。また、Webサーバ,APサーバ,DBサーバのそれぞれ毎にLUを設けても良い。
図5Aは、テナントAで実行するサービスとVLAN及びゾーンとLANスイッチ、SANスイッチの関係を示すブロック図である。本図では、図4に示した12の仮想計算機(図中VM)211のうち、3台の仮想計算機がWebサーバ301〜303として稼動し、3台の仮想計算機がAP(アプリケーション)サーバ304〜306として稼動し、2台の仮想計算機がDBサーバ307,308として稼動する。Webサーバ301〜303はそれぞれ2つのネットワークインタフェース(NIC)を持ち、その1つはLANスイッチ121のVLAN1に所属し、ポート9の通信経路123とネットワーク110を介してクライアント100と通信可能に設定される。一方各Webサーバ301〜303のもう一方のネットワークインタフェース(NIC)とAPサーバ304〜306とDBサーバ307,308はVLAN2に所属しており、相互に通信可能となっている。
図5Bは、テナントAのサーバ130−1のハイパバイザ200に設定された仮想スイッチの設定の一例を示すブロック図である。
図2のネットワークインターフェースNIC1(225−1)が図5Bの物理NIC(PNIC0)に対応し、ハイパバイザ200は、物理的なPNIC0を仮想化した仮想ネットワークインターフェースVNIC#1〜#4を仮想計算機211−1〜3に提供する。ここで、仮想計算機211−1には2つの仮想ネットワークインターフェースVNIC#1、#2が組み込まれる。
ハイパバイザ200の仮想スイッチは、仮想ネットワークインターフェースVNIC#1と物理的なPNIC0を接続する仮想ネットワーク250−1と、各仮想計算機211−1〜3の仮想ネットワークインターフェースVNIC#2〜#4を仮想ネットワーク250−2に接続する。そして、ハイパバイザ200は、仮想ネットワーク250−1をVLAN1に所属させ、仮想ネットワーク250−2をVLAN2に所属させる。
この設定により、Webサーバ301(仮想計算機211−1)は仮想ネットワーク250−1のVLAN1を介して外部のネットワーク110を介してクライアント100と通信を行うことができる。一方、APサーバ304を提供する仮想計算機211−2と、DBサーバ307を提供する仮想計算機211−3の仮想ネットワークインターフェースVNIC#3、#4は、仮想ネットワーク250−2を介してWebサーバ301の仮想ネットワークインターフェースVNIC#2と通信することができるが、VLAN1にはアクセスできないので、仮想計算機211−2、3のAPサーバ304とDBサーバ307は外部のネットワーク110から遮断されてセキュリティを確保することができる。
なお、ハイパバイザ200の実装の一例として、仮想化部内に仮想スイッチが定義できる例を示し、仮想ネットワークインターフェースVNIC#1〜#4、仮想ネットワークインターフェースが属する仮想ネットワーク、仮想ネットワークが外部サーバと通信するための物理ネットワークインターフェースとの対応関係が定義できる。
ハイパバイザ200内の仮想ネットワークにはVLANの設定が存在するため、一つの物理サーバ130上で動作する複数の仮想計算機211を別々のVLANに所属させる運用において、物理サーバ130の所属テナントを変更する場合は、仮想スイッチの設定を変更することが必須となる。
図5Bの例では、ハイパバイザ200の仮想スイッチで2つの仮想ネットワークVN#1とVN#2が設定され、仮想ネットワークVN#1はVLAN1が割り当てられ、VN#2はVLAN2が割り当てられる。さらに、仮想ネットワークVN#1とVN#2は一つの物理ネットワークインターフェース(PNIC0)を共有している。このため、物理LANスイッチ121のポート1は複数のVLANタグ1とタグ2が通過できるトランクポートとなる。同一テナント内のすべてのハイパバイザ200は同一の仮想ネットワーク設定を有し、これによって仮想計算機211のマイグレーションが可能となる。しかし、他のテナントでは仮想ネットワークの設定が異なるため、後述するように設定変更が必要となる。
図6Aは、計算機システム内のリソースを管理する運用管理システム(管理サーバ)170−1の機能要素の一例を示すブロック図である。運用管理システム170−1は、現用系であり待機系の運用管理システム170−2も同一の構成である。
運用管理システム170−1は、管理クライアント180からの入力に基づいてテナント毎に割り当てる計算機リソースを決定し、リソースグループを生成して各サーバ130のハイパバイザ200に仮想計算機211の生成を指令する。
そして、運用管理システム170−1は、同一のリソースグループ内でサーバ130の負荷に不均衡が生じた場合には、サーバ130間で仮想計算機211のマイグレーションを実施して負荷の平準化を図る。さらに、テナント間のサーバ130で負荷の不均衡が発生したときには、テナント間で計算機リソースを融通することで、テナント間の負荷の平準化を図る。
運用管理システム170−1は、管理クライアント180にGUI(Graphical User Interface)を提供するUIモジュール410と、管理クライアント180から入力されたテナント毎の情報を格納し、テナント毎の計算機リソースなどを管理するテナント管理モジュール(グループ管理部)401と、サーバ130や仮想計算機211等の計算機リソースの構成を管理する構成管理モジュール402と、各サーバ130の稼動状態を管理する稼動管理モジュール400と、サーバ130の負荷の不均衡を検知したときに計算機リソースの割り当て変更を実施するか否かを判定する判定モジュール404と、判定モジュール404の指令に応じてテナント毎、リソースグループ毎に割り当てる変更プランを生成する変更プラン生成モジュール405と、変更プランが管理クライアント180等で承認されたときには計算機リソースの割り当て変更を指令する変更モジュール406と、仮想計算機211の生成や移動及び削除を管理するVM管理モジュール411と、計算機システムの構成情報を格納する構成データベース409と、テナントの情報を格納するテナントデータベース408と、サーバ130の稼動状態を蓄積する稼動データベース407と、を備える。
なお、運用管理システム170は、図2に示したサーバ130と同様のハードウェア200を備える。このため、ハードウェア200に関する重複した説明は省略する。また、上記各機能モジュールは、記憶媒体としてのディスク224にプログラムとして格納され、プロセッサ221−1,221−2によってメモリ233にロードされてから実行される。
図6Bは、テナントデータベース408の一例を示すブロック図である。テナントデータベース408は、後述するリソースグループテーブル510と、仮想計算機211を管理するVMテーブル520と、テナント毎に利用する仮想ネットワーク(仮想スイッチ)の情報を管理する仮想ネットワークテーブル530と、テナント毎に利用するLUの情報を管理する仮想ネットワークテーブル530と、を含む。
図6Cは、稼動データベース407の一例を示すブロック図である。稼動データベース407は、後述するホスト稼動情報テーブル550を含む。
図6Dは、構成データベース409の一例を示すブロック図である。構成データベース407は、後述するホストテーブル560と、負荷項目テーブル570と、テナント−ホストテーブル580と、ホスト−VMテーブル590と、ホスト−NICテーブル600と、ホスト−HBAテーブル610と、LANスイッチ管理情報620と、SANスイッチ管理情報630と、SANゾーンテーブル640と、ストレージテーブル650と、ストレージ−ホスト管理テーブル660と、を含む。
図7は、リソースグループグループテーブル510の一例を示す図である。リソースグループテーブル510は、テナントの識別子を格納するテナントIDと、テナント毎に割り当てたリソースグループの識別子を格納するリソースグループIDからひとつのエントリが構成される。このリソースグループテーブル510は、管理者が操作する管理クライアント180からの入力によって設定される。
図8は、VMテーブル520の一例を示す図である。VMテーブル510は、テナントの識別子を格納するテナントIDと、テナント毎に割り当てた仮想計算機211の識別子を格納するVMIDからひとつのエントリが構成される。このVMテーブル510は、テナント管理モジュール401、変更モジュール406等によって設定される。
図9は、仮想ネットワークテーブル530の一例を示す図である。仮想ネットワークテーブル530は、テナントの識別子を格納するテナントIDと、各テナントのハイパバイザ200に設定された仮想ネットワークの名称を格納する仮想ネットワークNAMEと、ネットワークインターフェースの識別子を格納するNIC_IDと、VLANの識別子を格納するVLAN_IDからひとつのエントリが構成される。この仮想ネットワークテーブル530は、テナント管理モジュール401、変更モジュール406等によって設定される。
図10は、LUテーブル540の一例を示す図である。LUテーブル540は、テナントの識別子を格納するテナントIDと、ストレージ150の識別子を格納するStorageIDと、ストレージ150のポートの識別子を格納するPORTと、論理ユニットの識別子を格納するLUNと、SANスイッチのゾーンの識別子を格納するZoneからひとつのエントリが構成される。このLUテーブル540は、テナント管理モジュール401、変更モジュール406、構成管理モジュール402、管理クライアント180からの入力等によって設定される。
図11は、稼動データベース407のホスト稼動情報テーブル550の一例を示す図である。ホスト稼動情報テーブル550は、日時を格納するタイムスタンプと、ハイパバイザ200の識別子を格納するインスタンスIDと、負荷の種類を格納するTypeと、負荷の値を格納するValueとからひとつのエントリが構成される。
ここで、インスタンスIDに格納されるハイパバイザ200の識別子は、図5Aにおいて、ハイパバイザ#1のインスタンスIDが「Host01」となり、ハイパバイザ#2のインスタンスIDが「Host02」となり、他のハイパバイザ#nも同様の識別子が運用管理システム170によって付与される。
また、負荷の種類を示す「Type」は、「CPU_Busy」がサーバ130のプロセッサ221−1,221−2の使用率を示し、「Mem_Busy」がサーバ130のメモリ233の使用率を示し、「Disk_Busy」がサーバ130のHBA226−1、226−2の使用率を示し、「Nw_Busy」がサーバ130のネットワークインターフェース225−1,225−2の使用率を示す。また、負荷の値を示す「Value」は、例えば、「0.23」=23%を示す。
このホスト稼動情報テーブル550の値は、稼動管理モジュール403が、各サーバ130のハイパバイザから取得した値を格納することができる。あるいは、各ハイパバイザ200が所定の周期で上述した負荷の種類を稼動情報として測定し、これらの測定結果を運用管理システム170に送信するようにしてもよい。
図12は、構成データベース409のホストテーブル560の一例を示す図である。ホストテーブル560は、サーバ130の格納位置を示すラックIDと、ハイパバイザ200の識別子を格納するHostIDと、サーバ130のメモリ233の容量を格納するメモリ量と、ネットワークインターフェース225−1、225−2の転送速度を格納するNW帯域と、HBA226−1、226−2の転送速度を格納するディスクI/O帯域と、仮想化部の種類を格納するハイパバイザタイプとからひとつのエントリが構成される。ハイパバイザタイプには、仮想化部の名称などを格納することができる。
このホストテーブル560は、管理者などが管理クライアント180から設定した値が格納される。
図13は、構成データベース409の負荷項目テーブル570の一例を示す図である。負荷項目テーブル570は、ハードウェア201からハイパバイザ200が取得する負荷の種類を設定する。負荷項目テーブル570は、ハイパバイザ200が測定する負荷の名称を格納する計測項目と、仮想計算機211の移動や物理計算機資源の再割り当てを行う契機を判定する評価閾値とからひとつのエントリが構成される。
例えば、計測項目が「HOST_CPU_Busy」の項目では、ハイパバイザ200がプロセッサ221−1,221−2の負荷を測定し、負荷が評価閾値0.7を超えると、仮想計算機211の移動などを開始することを示す。また、計測項目が「HOST_Free_Memory_GB」の項目では、ハイパバイザ200が、メモリ233の空きメモリの容量をGigaByteの単位で測定することを示す。また、計測項目が「HOST_Disk_Throuhput_MB」の項目では、ハイパバイザ200がHBA226−1、2226−2の転送速度をMegaByte/secの単位で測定することを示す。また、計測項目が「HOST_NW_Throuhput_MB」の項目では、ハイパバイザ200がネットワークインターフェース225−1、225−2の転送速度をMegaByte/secの単位で測定することを示す。
図14は、構成データベース409のテナント−ホストテーブル580の一例を示す図である。テナント−ホストテーブル580は、各テナントに割り当てるハイパバイザ200及びサーバ130(ホスト)を管理するテーブルで、テナント管理モジュール401が管理する。テナント−ホストテーブル580は、テナントの識別子を格納するテナントIDと、ハイパバイザ200の識別子を格納するHostIDと、からひとつのエントリが構成構成される。なお、ハイパバイザ200の識別子は、管理クライアント180から管理者が設定した値を設定することができる。なお、以下の説明では、ハイパバイザ200とサーバ130を組み合わせたものをホストとし、ホストの識別はハイパバイザ200の識別子で行う例を示す。
図15は、構成データベース409のホスト−VMテーブル590の一例を示す図である。ホスト−VMテーブル590は、各ハイパバイザ200に生成させる仮想計算機211を管理するテーブルで、構成管理モジュール403が管理する。ホスト−VMテーブル590は、ハイパバイザ200の識別子を格納するHostIDと、仮想計算機211の識別子を格納するVMIDと、からひとつのエントリが構成構成される。仮想計算機211の識別子は、各ハイパバイザ200が仮想計算機211に付与した識別子を用いてもよいし、構成管理モジュール402が各仮想計算機211に識別子を付与しても良い。
図16は、構成データベース409のホスト−NICテーブル600の一例を示す図である。ホスト−NICテーブル600は、各サーバ130の物理ネットワークインターフェース225を管理するテーブルで、構成管理モジュール402がハイパバイザ200から取得した値を設定する。
ホスト−NICテーブル600は、ハイパバイザ200の識別子を格納するHostIDと、ネットワークインターフェース225の識別子を格納するNIC_IDと、MACアドレスとからひとつのエントリが構成される。
図17は、構成データベース409のホスト−HBAテーブル610の一例を示す図である。ホスト−HBAテーブル610は、各ホスト(サーバ130+ハイパバイザ200)の物理HBA226を管理するテーブルで、構成管理モジュール402がハイパバイザ200から取得した値を設定する。
ホスト−HBAテーブル610は、ハイパバイザ200の識別子を格納するHostIDと、HBA2265の識別子を格納するHBA_IDと、WWNを格納するHBA_WWNとからひとつのエントリが構成される。
図18は、構成データベース409のLANスイッチ管理情報620の一例を示す図である。LANスイッチ管理情報620は、LANスイッチ121、122のポートとVLANと接続先の関係を管理するテーブルで、構成管理モジュール402が各LANスイッチ121、122から取得した値を設定する。
LANスイッチ管理情報620は、LANスイッチ121、122の識別子を格納するLANスイッチIDと、LANスイッチ121、122のポート番号を格納するポート番号と、当該ポート番号に接続された装置のMACアドレスを格納する接続先MACアドレスと、当該ポート番号のVLANの識別子を格納するVLAN_IDとからひとつのエントリが構成される。
図19は、構成データベース409のSANスイッチ管理情報630の一例を示す図である。SANスイッチ管理情報630は、SANスイッチ141、142のポートとドメインと接続先の関係を管理するテーブルで、構成管理モジュール402が各SANスイッチ141、142から取得した値を設定する。
SANスイッチ管理情報630は、SANスイッチ141、142の識別子を格納するSANスイッチIDと、SANスイッチ141、142のポートに設定されたドメインを格納するドメインIDと、SANスイッチ141、142のポート番号を格納するポート番号と、当該ポート番号に接続された装置のWWNを格納する接続先WWNとからひとつのエントリが構成される。
図20は、構成データベース409のSANゾーンテーブル640の一例を示す図である。SANゾーンテーブル640は、SANスイッチ141、142のポートとゾーンの関係を管理するテーブルで、構成管理モジュール402が各SANスイッチ141、142から取得した値を設定する。
SANゾーンテーブル640は、SANのゾーン識別子を格納するゾーンIDと、ドメインの識別子を格納するドメインIDと、SANスイッチ141,142のポート番号を格納するPortからひとつのエントリが構成される。
なお、SANスイッチ141,142ではポート毎にホストとストレージ150を異なるゾーンに設定する場合もあるので、SANゾーンテーブル640としては、図21に示すようにしても良い。
図21は、構成データベース409のSANゾーンテーブル640の変形例を示す図である。SANゾーンテーブル640は、ゾーンIDと、ホスト側のドメインIDとポート番号の組と、ストレージ150側のドメインIDとポート番号の組をひとつのエントリとして構成することができる。
また、図20の変形例としては、上記ポートゾーニングの他に、WWNゾーニングを行っても良く、この場合、図20のPortはWWNに置き換えればよい。
図22は、構成データベース409のストレージテーブル650の一例を示す図である。ストレージテーブル650は、ストレージ150の識別子を格納するストレージIDと、ストレージ150のポート番号を格納するPORTと、ストレージ150のWWNを格納する接続機器WWNとからひとつのエントリが構成される。
これらの値は、構成管理モジュール402が各ストレージ150から取得した値を設定する。
図23は、構成データベース409のストレージ−ホスト管理テーブル660の一例を示す図である。ストレージ−ホスト管理テーブル660は、ホストに割り当てるLUの関係を管理するテーブルである。ストレージ−ホスト管理テーブル660は、ハイパバイザ200の識別子を格納するホストグループIDと、ハイパバイザ200に割り当てるLUの識別子を格納するLUNと、当該LUにアクセスする機器(HBA)のWWNを格納する接続機器WWNとからひとつのエントリが構成される。なお、ホストグループIDに代わってハイパバイザ200の識別子や、サーバ130の識別子を用いるようにしてもよい。
図24は、稼動管理モジュール403で行われる処理の一例を示すフローチャートである。この処理は、管理クライアント180からの指令に基づいて開始される。
ステップS1で、稼動管理モジュール403は、構成データベース409の負荷項目テーブル570を読み込んで、負荷を測定する負荷計測項目リストを作成する。次に、ステップS2で、稼動管理モジュール403は、構成データベース409のホストテーブル560を読み込んで、全てのホスト(ハイパバイザ200)の識別子を取得する。
ステップS3では、全てのホスト(ハイパバイザ200+サーバ130)について負荷の計測が完了したか否かを判定し、完了していなければステップS4に進み、完了した場合にはステップS6に進む。
ステップS4では、稼動管理モジュール403は、ひとつのホスト(ハイパバイザ200)にアクセスしてステップS1で生成した負荷計測項目リストの全てについて負荷を取得する。そして、ステップS5では、稼動管理モジュール403が、取得した負荷の値を使用率に変換して稼動データベース407のホスト稼動情報テーブル550に書き込む。
上記ステップS1〜S5を繰り返すことで、稼動管理モジュール403は全てのホストから負荷項目テーブル570に設定された負荷を取得して、ホスト毎にホスト稼動情報テーブル550に稼動情報を蓄積する。
そして、ステップS5で、全てのホストについて稼動情報の収集が完了すればステップS6に進んで、管理クライアント180から終了の指示があるまで上記ステップS1からS5の処理を繰り返す。これにより、ホスト稼動情報テーブル550には、新たな負荷を示す値が蓄積される。
図25は、判定モジュール404で行われる処理の一例を示すフローチャートである。この処理は、管理クライアント180からの指令に基づいて開始される。または、所定の周期(例えば、10分毎)等で起動するようにしても良い。
まず、ステップS11では、判定モジュール404が、リソースグループテーブル510を読み込んで、全てのテナントを取得してテナントリストを生成する。
ステップS12では、判定モジュール404は、テナントリストの全てのテナントについてステップS13、S14の処理が完了したか否かを判定する。全てのテナントについいて処理が完了していればステップS15に進み、完了していなければステップS13に進む。
ステップS13では、判定モジュール404が、ステップS11で作成したテナントリストからひとつのテナントを選択する。そして、ステップS14では、判定モジュール404が、選択したテナントの評価値ベクトルWLVtを演算する。テナントの評価値ベクトルの詳細については図26で詳述する。
ステップS13、S14で全てのテナントについて評価値ベクトルを求めると、ステップS15に進む。ステップS15では、判定モジュール404が、上記演算した各テナントの評価値ベクトルWLVtを予め設定した閾値ベクトルWLThとを比較する。
そして、ステップS16では、判定モジュール404が、各テナントの評価値ベクトルの全ての要素が、閾値ベクトルの要素よりも小さい場合には処理を終了し、一方、各テナントの評価値ベクトルの少なくともひとつの要素が、閾値ベクトルの要素以上の場合にはステップS17に進む。
ステップS17では、ホスト(ハイパバイザ200+サーバ130)の再配置(計算機資源の再割り当て)が必要となるため、判定モジュール404はUIモジュール410にアラートを送信する。UIモジュール410は、アラートを受信すると、管理クライアント180にホストの再配置が必要である旨の通知を送信する。
次に、ステップS18に進んで、判定モジュール404は、変更プラン生成モジュール405を起動させる。なお、変更プラン生成モジュール405の処理については、図27で詳述する。
以上の処理により、判定モジュール404は、全てのテナントについて評価値ベクトルを求め、評価値ベクトルのいずれかひとつが閾値ベクトル以上のときには、計算機資源の再割り当てが必要であると判定して、管理クライアント180に通知を送り、変更プランの生成を開始する。
図26は、図25のステップS14で行われるテナント毎の評価値ベクトルの演算処理の一例を示すフローチャートである。
まず、ステップS21では、ステップS13で選択されたテナントについて、テナント−ホストテーブル580を参照し、当該テナントに割り当てられているホスト(ハイパバイザ200)のリストを取得する。
ステップS22では、判定モジュール404が、ホスト稼働情報テーブル550を参照し、予め設定された過去の時刻から現在までの当該テナントに属するすべてのハイパバイザ200の負荷値を読み出す。ここで、予め設定された過去の時刻は、例えば、5分前に設定され、稼動管理モジュール403が10秒の周期で負荷の測定を行うと、30個の負荷が集計対象となる。
ステップS23では、判定モジュール404が、ステップS22で読み込んだホスト(ハイパバイザ200+サーバ130)毎の負荷項目毎に負荷の値を集計して、評価値ベクトルWLVtを演算する。ここで、判定モジュール404は、図11に示したホスト稼動情報テーブル550のタイムスタンプから該当するインスタンスIDのホスト(ハイパバイザ200+サーバ130)の稼動情報を取得し、負荷の種類「Type」ごとにビジー率で示された負荷値「Value」を評価値ベクトルWLVtとして演算する。この評価値ベクトルは、例えば、CPU、メモリ、ディスク、ネットワークの項目毎にビジー率(Value)の平均値(5分間)をLcpu、Lmem、Ldisk、Lnwとして求め、この平均値のベクトル(Lcpu、Lmem、Ldisk、Lnw)を当該ホストの評価値ベクトルWLVtとする。
上記処理によってあるテナントを構成するホスト毎の負荷が集計され、テナント単位で負荷が閾値ベクトルを超えたか否かを判定することができる。なお、上記では評価値ベクトルWLVtを求める例を示したが、テナント単位で負荷が閾値を超えたか否かを判定できる値であればよい。
図27は、図25のステップS18で行われる変更プラン生成モジュール405で行われる処理の一例を示すフローチャートである。
まず、ステップS31では、変更プラン生成モジュール405が、ハイパバイザ200の負荷の要素が閾値以上となった移動先のテナントと、ハイパバイザ200の移動元のテナント決定する。移動元のテナントは、計算機資源の割り当てを減少させるテナントであり、移動先のテナントが計算機資源の割り当てを増大させるテナントとなる。この処理については、図28で詳述する。
次に、変更プラン生成モジュール405は、ステップS32でリソースグループを構成するホストを変更するプランを生成する。この処理については、図29で詳述する。
次に、ステップS33では、変更プラン生成モジュール405が、ハイパバイザ200内の仮想ネットワークを変更するプランを生成する。例えば、テナントBのハイパバイザ200を、テナントAのハイパバイザ200として利用するためには、VLANの設定が異なるのに加え、図5Bで示したように、ハイパバイザ200内の仮想ネットワークの構成も異なるからである。この処理については、図30で詳述する。
次に、ステップS34では、変更プラン生成モジュール405が、LANスイッチ121、122の設定を変更するプランを生成する。これは、上述のように、テナント毎にVLANの構成が異なるためで、異なるテナントに移動するハイパバイザ200に併せてLANスイッチ121、122のVLANの設定変更のプランを変更プラン生成モジュール405が生成する。この処理については、図31で詳述する。
次に、ステップS35では、変更プラン生成モジュール405が、SANスイッチ141、142の設定を変更するプランを生成する。これは、上述のように、テナント毎にゾーンの構成が異なるためで、異なるテナントに移動するハイパバイザ200に併せてSANスイッチ141、142のゾーニングの設定変更のプランを変更プラン生成モジュール405が生成する。この処理については、図32で詳述する。
次に、ステップS36では、変更プラン生成モジュール405が、ストレージ150の設定を変更するプランを生成する。これは、上述のように、SANスイッチ141、142の設定に応じてストレージ150の設定を変更するプランを生成する。この処理については、図33で詳述する。
図28は、図27のステップS31で行われる移動元のテナントと移動先のテナントの決定の処理の一例を示すフローチャートである。
ステップS41では、変更プラン生成モジュール405が、上記判定モジュール404が求めた評価値ベクトルWLVtのいずれかの要素が閾値ベクトルWLThの対応する要素の値を超えたテナントをホストの移動先テナントTmovetoとして決定する。
ステップS42では、変更プラン生成モジュール405が、上記判定モジュール404が求めた評価値ベクトルWLVtのうち、移動先テナント以外のテナントの評価値ベクトルWLVtの長さが最も小さいテナントを、移動対象ホストの移動元テナントTmovefromとして決定する。換言すれば複数のテナントのうち最も負荷の小さいテナントを移動元テナントTmovefromとする。
ステップS43では、変更プラン生成モジュール405が、移動元テナントに属するすべてのホストのうち、最も負荷(評価値ベクトルWLVt)の低いホストを移動対象ホストHmoveとする。
以上の処理によって、変更プラン生成モジュール405がテナント間を移動するホストを特定する。
図29は、図27のステップS32で行われるリソースグループの変更プランの生成処理の一例を示すフローチャートである。
ステップS51では、変更プラン生成モジュール405が、テナントデータベース408のリソースグループテーブル510を、移動元テナント名Tmovefromで検索してリソースグループIDを取得する。取得したリソースグループIDが、移動対象ホストHmoveが現在属する変更前リソースグループRfromを表す。
ステップS52では、変更プラン生成モジュール405が、テナントデータベース408のリソースグループテーブル510を移動先テナント名Tmovetoで検索してリソースグループIDを取得する。このリソースグループIDは移動対象ホストHmoveが変更後に所属するリソースグループRtoを表す。
ステップS53では、変更プラン生成モジュール405は、リソースグループIDの組(Rfrom、Rto)をリソースグループの変更プランとして生成する。
以上の処理によって、変更プラン生成モジュール405がホストを移動させるリソースグループの変更プランを生成する。
図30は、図27のステップS33で行われる仮想ネットワークの変更プランの生成処理の一例を示すフローチャートである。
まず、ステップS61では、変更プラン生成モジュール405が、テナントデータベース408の仮想ネットワークテーブル530(図9を移動元テナント名Tmovefromで検索して、仮想ネットワークの設定(仮想ネットワーク名、NIC_ID、VLAN_ID)を取得する。変更プラン生成モジュール405が取得した仮想ネットワークの設定が、移動対象ホストHmoveの仮想ネットワーク設定VNfromとなる。
次に、ステップS62では、変更プラン生成モジュール405がテナントデータベース408の仮想ネットワークテーブル530を移動先テナント名Tmovetoで検索して、仮想ネットワークの設定(仮想ネットワーク名、NIC_ID、VLAN_ID)を取得する。取得した仮想ネットワークの設定が、移動対象ホストHmoveの変更後の仮想ネットワーク設定VNtoとなる。
ステップS63では、変更プラン生成モジュール405は、上記ステップS61、S62で求めた仮想ネットワーク設定VNfromと仮想ネットワーク設定VNtoの組を仮想ネットワークの変更プランとして生成する。
以上の処理によって、変更プラン生成モジュール405がホストを移動させた前後の仮想ネットワークの変更プランを生成する。
図31は、図27のステップS34で行われるLANスイッチの変更プランの生成処理の一例を示すフローチャートである。
まず、ステップS71では、変更プラン生成モジュール405が、テナントデータベース408の仮想ネットワークテーブル530を参照し、移動先テナントのNIC_IDとVLAN_IDの組みをすべて取得する。そして変更プラン生成モジュール405は、取得した組み合わせを移動先VLAN設定VLtoとする。
ステップS72では、変更プラン生成モジュール405が、構成データベース409のホスト−NICテーブル600を参照し、移動対象ホストHmoveのすべてのNICのMACアドレスを取得する。
ステップS73では、変更プラン生成モジュール405が、構成データベース409のLANスイッチ管理情報620を参照し、ステップS72で求めたMACアドレスに一致するLANスイッチIDと、ポート番号と、VLANIDを取得する。そして、ステップS71で取得したNIC_IDに対応するスイッチID,ポート番号、VLANID,NIC_IDの4組の値を求める。変更プラン生成モジュール405は、このNIC_IDに対応する4組の値を変更前LANスイッチポート設定LPfromとする。
次に、ステップS74では、変更前LANスイッチポート設定LpfromのVLAN_IDの部分を、先に求めた移動先VLAN設定VLtoを利用して書き換える。そして、得られた新しい4組を移動先LANスイッチポート設定Lptoとする。
そして、ステップS75では、変更プラン生成モジュール405は、上記求めた変更前LANスイッチポート設定LPfromと、移動先LANスイッチポート設定Lptoの組をLANスイッチ変更プランとする。
以上の処理によって、変更プラン生成モジュール405がホストを移動させた前後のLANスイッチの変更プランを生成する。
例えば、テナントAから移動対象ホストHost01をテナントBに割当変更するときには、LPfrom:{(0,0,(1,2),0),(0,1,−,1)}となり、LPto:{(0,0,(3),0),(0,1,(4,5),1)}となる。
図32は、図27のステップS35で行われるSANスイッチの変更プランの生成処理の一例を示すフローチャートである。
ステップS81では、変更プラン生成モジュール405が、構成データベース409のホスト−HBAテーブル610を参照し、移動対象ホストHmoveのHBAのWWNを取得する。
ステップS82では、変更プラン生成モジュール405が、構成データベース409のSANスイッチ管理情報630を参照し、移動対象ホストHmoveのHBAのWWNと一致する行のSANスイッチID、ドメインID、ポート番号を取得する。これは移動対象ホストHmoveが接続しているSANポートの情報SPHを示す。
次に、ステップS83では、変更プラン生成モジュール405が、構成データベース409のSANゾーンテーブル640を参照し、上記SANポートの情報SPHが属するゾーンIDを取得する。SPHとゾーンIDの組は移動対象ホストHmoveが接続しているSANポートの移動前ゾーン情報Zfromを表す。
ステップS84では、変更プラン生成モジュール405が、テナントデータベース408のLUテーブル540を参照し、移動先テナントTmovetoの各LUのゾーン(変更後ゾーン)を取得する。
ステップS85では、変更プラン生成モジュール405が、SANポートの移動前ゾーン情報Zfromの各エントリの移動前ゾーンを変更後のゾーンに変更し、移動後ゾーン情報Ztoとし、(Zfrom,Zto)をSANスイッチ変更プランとする。
以上の処理によって、変更プラン生成モジュール405がホストを移動させた前後のSANスイッチの変更プランを生成する。
図33は、図27のステップS36で行われるストレージ150の変更プランの生成処理の一例を示すフローチャートである。
ステップS91では、変更プラン生成モジュール405が、構成データベース409のホスト−HBAテーブル610を参照し、移動対象ホストHmoveのHBAのWWNを取得する。
ステップS92では、変更プラン生成モジュール405が、構成データベース409のストレージ−ホスト管理テーブル660を参照して移動対象ホストHmoveのHBAのWWNに該当する行を取得する。取得した行のLUNが変更前ストレージ設定SCfromとなる。
ステップS93では、変更プラン生成モジュール405が、テナントデータベース408のLUテーブル540を参照し、移動先テナントTmovetoのStorageID,PORT,LUNを取得する。変更プラン生成モジュール405が取得したStorageID、PORT、LUNを移動対象ホストHmoveのHBAのWWNと組にして変更後ストレージ設定SCtoとする。
ステップS94では、変更プラン生成モジュール405が、上記の変更前ストレージ設定SCfromと変更後ストレージ設定SCtoの組(SCfrom、SCと)をストレージ変更プランとする。
変更プラン生成モジュール405は、上記図28〜図33の処理で生成した各変更プランをUIモジュール410に出力する。UIモジュール410は、変更プラン生成モジュール405が生成した移動対象ホストHmoveの移動前後のプランを管理クライアント180に送信する。管理クライアント180は移動対象ホストHmoveの移動前後のプランを受信して表示装置(図示省略)に図35に示す通知画面を出力する。
図35は、変更プラン生成モジュール405が生成する通知画面420の一例を示す画面イメージである。通知画面420は、テナント単位の負荷(例えば、CPU負荷)の推移をグラフにて表示する負荷モニタ421の領域と、管理者に対して注意を喚起する文章等を表示するアラート422の領域と、アラートに対する対処案を提示する変更プラン423の領域と、から構成される。
変更プラン423の領域には、変更プラン生成モジュール405が生成した変更プランの要旨が表示され、さらに詳細を表示するための設定変更詳細表示ボタン424,425が表示される。設定変更詳細表示ボタン424を図示しない入力装置でクリックした場合、図36で示すような詳細プランの表示画面430に切り替わる。
そして、変更プラン423の領域には、変更プランを選択するためのチェックボックス427、428と、選択した変更プランを実行するための実行ボタン426が表示される。管理クライアント180の図示しない入力装置で実行ボタン426をクリックすると、管理クライアント180は運用管理システム170に対して変更開始の指令を送信する。このとき、管理クライアント180は変更プラン生成モジュール405が複数の変更プランを提示している場合には、管理者などが選択したチェックボックス427、428に応じた変更プランの識別子を運用管理システム170に送信する。運用管理システム170の変更モジュール406は、受信した識別子に対応する変更プランを実行することができる。
なお、UIモジュール410は、管理クライアント180からの要求に応じて通知画面420を提供することができ、アラート422の領域に表示する情報がない場合では、負荷モニタ421の領域に各テナントの負荷をホスト稼動情報テーブル550から取得して表示する。
また、変更プラン生成モジュール405は、図35の変更プラン423の領域のPlan1、Plan2で示すように、変更ポリシの異なる複数のプランを生成して出力することができる。
図36は、変更プラン生成モジュール405が生成した移動対象ホストHmoveの移動前後の詳細なプランの表示画面430の画面イメージである。詳細プランの表示画面430では、変更対象のリソースグループと、仮想ネットワーク(図中仮想スイッチ)と、LANスイッチ、SANスイッチ、ストレージのそれぞれについて、変更前の設定の詳細と、変更後の設定の詳細が表示される。図示の例では、Host01(図3のハイパバイザ#1)をテナントA(RGA)からテナントBへ移動する場合の設定変更の内容を示す。
図34は、変更モジュール406で行われる処理の一例を示すフローチャートである。この処理は、図35の通知画面420で、実行ボタン426がクリックされて変更プランを適用する通知を運用管理システム170が管理クライアント180から受信したときに実行される。
ステップS101で、変更モジュール406は、VM管理モジュール411に対して移動対象ホストHmove上で動作するすべての仮想計算機211を他のサーバ130へ移動するよう指令する。VM管理モジュール411は、上述したDRSやHyper−V Proなど周知の技術を適用することで、移動対象ホストHmove上で動作するすべての仮想計算機211を他のサーバ130へ移動させる。
ステップS102では、変更モジュール406がVM管理モジュール411に対して仮想計算機211の移動差が完了した移動対象ホストHmoveを、移動元リソースグループRgfromから取り除く。なお、移動元リソースグループRgfromは、上記ステップS42で決定した移動元テナント名Tmovefromがリソースグループテーブル510で対応するリソースグループIDである。つまり、VM管理モジュール411は、図14に示したテナント−ホストテーブル580から移動対象ホストHmoveのエントリを削除する。
ステップS103では、変更モジュール406が上記ステップS85で設定した移動後ゾーン情報Ztoから変更対象のSANスイッチIDを取得し、当該SANスイッチIDを有するSANスイッチ141のコマンドインタフェースにアクセスし、変更対象SANスイッチのポートのゾーン設定を移動後ゾーン情報Ztoに変更する。
ステップS104では、変更モジュール406が、上記ステップS92で設定した変更前ストレージ設定SCfromから変更前ストレージ設定移動前ストレージIDとPORTを特定し、当該ストレージIDのストレージ150のコマンドインタフェースにアクセスし、当該ストレージ150に設定されている変更前ストレージ設定SCfromと同等のエントリを削除する。
また、上変更モジュール406は、記ステップS93で設定した変更後ストレージ設定SCtoから移動後ストレージIDとPORTを特定する。そして変更モジュール406は、特定したストレージIDのストレージ150のコマンドインタフェースにアクセスし、当該ストレージ150に変更後ストレージ設定SCtoと同等の設定を追加する。
なお、上記ステップS103、S104でストレージ150とSANスイッチ141,142の設定が完了した段階で、必要に応じて移動対象ホストHmoveを再起動するようにしても良い。
ステップS105では、変更モジュール406が上記ステップS74で設定した移動先LANスイッチポート設定Lptoから、変更対象LANスイッチIDを取得する。そして、変更モジュール406は当該LANスイッチIDのLANスイッチ121のコマンドインタフェースにアクセスし、LANスイッチ121のポートのVLAN設定を移動先LANスイッチポート設定LPtoに変更する。
ステップS106では、変更モジュール406が移動対象ホストHmoveに対して仮想スイッチ(仮想ネットワーク)の設定を、上記ステップS62で設定した変更後の仮想ネットワーク設定VNtoに変更するよう指令する。これにより、移動対象ホストHmoveのハイパバイザ200は、内部の仮想ネットワークの設定を変更後の仮想ネットワーク設定VNtoに変更する。
次に、ステップS107では、変更モジュール406が、VM管理モジュール411に対して移動対象ホストHmoveを移動先リソースグループRGtoに登録するよう指令する。なお、移動先リソースグループRgtoは、上記ステップS41で決定した移動先テナント名Tmovetoがリソースグループテーブル510で対応するリソースグループIDである。つまり、VM管理モジュール411は、図14のテナント−ホストテーブル580に、移動対象ホストHmoveのIDを移動先テナント名TmovetoのテナントIDに対応させて新たなエントリを追加する。
ステップS108では、変更モジュール406がVM管理モジュール411に対して移動先リソースグループRGto内にて仮想計算機211をマイグレーションして負荷を平準化するように指令する。なお、VM管理モジュール411は、上述したDRSやHyper−V Proなど周知の技術を適用することで、移動対象ホストHmoveを加えたリソースグループで仮想計算機211の負荷を平準化させる。
以上の処理によって、複数のテナントに計算機資源を割り当てて仮想計算機211を稼動させる仮想計算機システムで、ひとつのテナントの負荷の評価値が閾値を超えて増大すると、運用管理システム170は、負荷の評価値の低いテナントからホストを、負荷の評価値が閾値を超えたテナントに移動させる。
図37は、変更モジュール406が生成する進捗状況表示画面440である。変更モジュール406は、管理クライアント180から変更開始の指令を受けた後、上記図34で示した処理の進捗状況を通知するため進捗状況表示画面440を生成してUIモジュール410を介して管理クライアント180の表示装置(図示省略)に出力する。
進捗状況表示画面440は、処理の順序を示す「#」と、処理の内容を示す「処理」と、処理の状態を示す「Status」とから一行の表示領域が構成される。各処理が完了すると「Status」に「完了」が表示され、管理クライアント180を操作する管理社は、サーバ130及びハイパバイザ200のテナント間の移動を処理の順序を追って確認することができる。
また、変更モジュール406は、移動対象ホストHmoveの移動処理中に障害または不具合が発生した場合には、進捗状況表示画面440の該当する「処理」の「Status」に障害または不具合の発生を通知するようにしてもよい。
図38〜図43は、上記図34の処理の一例を示す図である。図38〜図43では、リソースグループID=RGAのテナントAのホストHOST01を移動対象ホストHmoveとし、リソースグループID=RGBのテナントBに移動させる例を示す。この例では、運用管理システム170がリソースグループID=RGBのテナントBの評価値ベクトルWLVtが閾値ベクトルを超えて負荷が増大したと判定し、評価値ベクトルWLVtの最も低いホストHOST01を移動対象ホストHmoveとして決定した場合を示す。
図38は、上記図34のステップS101、S102に対応し、移動対象ホストHmoveから仮想計算機を移動する処理を示すブロック図である。まず、変更モジュール406は、VM管理モジュール411に移動対象ホストHmove(HOST01)上の仮想計算機211(図中VM)を同じテナントA(リソースグループA)内の他のホストHOST02,03に移動させる。この際、VM管理モジュール411は、上述したDRS等の技術を適用して、移動する仮想計算機211を同一リソースグループA内のホストHOST02,03に均等に配分してテナントA内の負荷の平準化を図る。
次に、変更モジュール406は、VM管理モジュール411に指令してテナントA(リソースグループA=移動前リソースグループ)から移動対象ホストHmove(HOST01)を削除する。
図39は、上記図34のステップS103に対応するブロック図である。変更モジュール406が移動対象ホストHmove(HOST01)のHBAに接続されたSANスイッチ141の設定を移動後ゾーン情報Ztoに変更する。
図40は、上記図34のステップS104に対応し、変更モジュール406が移動対象ホストHmove(HOST01)のHBAがアクセスするストレージ150−1の設定を変更して変更後ストレージ設定SCtoと同等にする。この例では、移動対象ホストHmove(HOST01)のHBAのWWNを、変更後のポートS2に対応付ける。
図41は、上記図34のステップS105、S106に対応し、変更モジュール406が移動対象ホストHmove(HOST01)のネットワークインターフェースに接続されたLANスイッチ121のポートのVLANの設定を変更して変更後ストレージ設定SCtoと同等にする。
その後、変更モジュール406が移動対象ホストHmoveのハイパバイザ200に対して仮想スイッチ(仮想ネットワーク)の設定を、上記ステップS62で設定した変更後の仮想ネットワーク設定VNtoに変更するよう指令し、ホストHOST01のハイパバイザ200(#1)は、内部の仮想ネットワークの設定を変更後の仮想ネットワーク設定VNtoに変更する。
図42は、上記図34のステップS107に対応し、変更モジュール406がVM管理モジュール411に移動対象ホストHmoveを移動先リソースグループRGtoに登録するよう指令する。VM管理モジュール411は、構成管理モジュール402を介してテナント−ホストテーブル580を更新する。テナント−ホストテーブル580には、テナントID=B、HOSTID=HOST01のエントリが追加される。これにより、テナントBに移動対象ホストHmoveとしてHOST01が加えられる。
図43は、上記図34のステップS108に対応し、変更モジュール406がVM管理モジュール411に対して移動先リソースグループRGto内にて仮想計算機211をマイグレーションして負荷を平準化するように指令する。図示の例では、VM管理モジュール411はテナントB内のホストHOST04とホストHOST05からそれぞれひとつの仮想計算機211を、新たに加えたホストHOST01に移動させる。
以上のように本発明の第1の実施形態によれば、テナント間の負荷の不均衡が発生した場合、負荷の低いテナント(移動元)から適切な量のホストを取り除き、負荷の高いテナント(移動先)に当該ホストを割り当て直すことが可能となる。ホストを割り当て直す際に、割り当て直す前のテナントと割り当て後のテナントに関連するLANスイッチ121、122、SANスイッチ141、142、ハイパバイザ200の仮想スイッチ(仮想ネットワーク及びストレージ150のLUの設定を連動して変更するので、テナント固有の設定を引き継いで移動対象のホストを確実に動作させることが可能となる。
なお、上記実施形態では、仮想計算機211を提供する仮想化部としてハイパバイザ200を採用した例を示したが、VMM(Virtual Machine Monitor)を採用しても良い。
<第2実施形態>
図44は、第2の実施形態を示し、仮想計算機を提供する計算機システムの一例を示すブロック図である。前記第1の実施形態と異なる点は、テナントAとテナントBが物理計算機であるサーバ130−4を共有する点である。その他の構成は前記第1の実施形態と同様であるので、説明は省略する。
図45は、複数のテナント(テナントA、B)で共有されるサーバ(#4)130−4の詳細なブロック図である。ハードウェア201は前記第1実施形態と同様であるが、仮想化部が2段階になっている点が前記第1実施形態と相違する。
第1の仮想化部としてのハイパバイザ(親ハイパバイザ)200Aは、複数の論理区画(LPAR1、2)を生成する。親ハイパバイザは、サーバ(#4)130−4のプロセッサ221、222、メモリ223、I/O225−1〜226−2を運用管理システム170から指定された比率で分割し、各論理区画に割り当てる。
そして、各論理区画内で第2の仮想化部としての子ハイパバイザ250−1、250−2が稼動する。子ハイパバイザ(#1)250−1では2つの仮想計算機211が提供されVM1及びVM2として稼動する。子ハイパバイザ(#2)250−2では2つの仮想計算機211が提供されVM3及びVM4として稼動する。各仮想計算機211では、前記第1実施形態と同様にOS202とアプリケーション203が実行される。
運用管理システム170は、子ハイパバイザ250−1をテナントAに割り当て、子ハイパバイザ250−2をテナントBに割り当てる例を示す。運用管理システム170は、子ハイパバイザ250−1の識別子をテナントAに関連づけて図14に示したテナント−ホストテーブル580に格納し、子ハイパバイザ250−2の識別子をテナントBに関連づけてテナント−ホストテーブル580に格納する。その他のテーブルなどについても同様であり、子ハイパバイザ250−1、250−2を前記第1実施形態のハイパバイザ200と同様に扱う。
また、子ハイパバイザ250−1は、テナントAのVLANに対応する仮想スイッチ(または仮想ネットワーク)を構成し、子ハイパバイザ250−2は、テナントBのVLANに対応する仮想スイッチを構成する。
次に、図46は、図25のステップS18で行われる変更プラン生成モジュール405の処理の一例を示すフローチャートである。このフローチャートは、前記第1実施形態に示した図27のステップS31〜S36の処理にステップS110の処理を加えたものである。
ステップS31〜S36では、前記第1の実施形態と同様に、変更プラン生成モジュール405が、評価値ベクトルWLVtに基づいて移動対象ホストHmoveと移動元テナントTmovefromと移動先テナントTmovetoを決定する。そして、変更プラン生成モジュール405は、移動先テナントTmovetoに対応する各変更プラン(リソースグループ、仮想ネットワーク、LANスイッチ、SANスイッチ、ストレージの各変更プラン)を前記第1実施形態と同様に生成する。なお、移動対象ホストHmoveは、親ハイパバイザ200A上でリソースの割り当て比率が減少する子ハイパバイザとすればよい。
その後、変更プラン生成モジュール405は、ステップS110で親ハイパバイザ200Aが、各子ハイパバイザ(論理区画)250−1、250−2に対して割り当てるリソースの比率の変更プランを生成する。変更プラン生成モジュール405は、例えば、評価値ベクトルWLVtの比率に応じて、各論理区画に割り当てるリソースの比率を決定する。
前記第1実施形態では、サーバ130単位でテナント間を移動させるのに対し、本第2実施形態では、サーバ130単位に加えて、ひとつのサーバ130を所望の比率で分割することで、各テナントに割り当てるリソースの量を、細かく調整することが可能となる。
なお、テナントA、B間でのリソースの割り当て変更が、図45のサーバ130−4のみで良い場合には、図46の処理のうちステップS32〜S36を割愛してステップS31とS110を実行すればよい。
次に、図47は、変更モジュール406で行われる処理の一例を示すフローチャートである。このフローチャートは、前記第1実施形態に示した図34のステップS101〜S108の処理にステップS1070の処理を加えたものである。ステップS101〜S107は前記第1の実施形態と同様に、移動対象ホストHmoveを移動元テナントから移動先テナントへ移動させるために各種リソースの設定を変更する。
移動対象ホストHmoveを移動先リソースグループに登録するステップS107の後、変更モジュール406は、ステップS1070で親ハイパバイザ200Aに指令して各論理区画に割り当てるリソースの比率を変更する。この比率は、図46のステップS110で比率を用いる。
その後、変更モジュール406は前記第1の実施形態と同様に、リソースの比率を変更した論理区画へ仮想計算機211を再配置する。
図48〜図50は、上記図47の処理の一例を示す図である。図48〜図50では、リソースグループID=RGAのテナントAのホストHOST01を移動対象ホストHmoveとしてリソースの割り当て比率を減少させ、リソースグループID=RGBのテナントBのホストHOST06にホストHOST01から削減したリソースを割り当てる例を示す。
図48は、移動対象ホストHmove(HOST01)上で稼動する仮想計算機211を同一テナント内で退避させる例を示すブロック図である。変更モジュール406は、HOST01の仮想計算機211をテナントA内の他のHOST02、03へ移動させる指令をVM管理モジュール411に送信する。VM管理モジュール411は、前記第1実施形態と同様にしてテナントA内で負荷が平準化されるように仮想計算機211をホストHOST02、03に移動させる。
図49は、親ハイパバイザ200Aが論理区画(子ハイパバイザHOST01、HOST06)に割り当てるリソースの比率を変更する例を示すブロック図である。親ハイパバイザ200Aは、リソースの割り当て比率を減少する側のホストHOST01上の仮想計算機211を退避させてから、ホストHOST01のリソースを削減し、削減したリソースをホストHOST06に加える。これによって、負荷が増大したテナントBに新たなリソースが加えられる。一方、負荷の低かったテナントAではホストHOST01に割り当てるリソースの比率が削減される。なお、リソースの割り当て比率を変更した後、子ハイパバイザ250−1、250−1の種類によっては再起動を行う場合がある。
図50は、親ハイパバイザ200Aが論理区画(子ハイパバイザHOST01、HOST06)に割り当てるリソースの比率を変更した後に仮想計算機211を再配置するブロック図である。変更モジュール406は、VM管理モジュール411に対して、リソースの割り当て比率を変更したテナントAのHOST01とテナントBのHOST06に仮想計算機211を再配置する指令を送信し、各テナント内のホストの負荷を平準化させる。
以上のように本第2実施形態では、複数のテナントに跨るサーバ130では2段階の仮想化部によって、子ハイパバイザ250−1、250−2に割り当てるリソースの比率を細かく、かつ動的に変更して、テナント間の負荷の平準化を図ることができる。
また、上記第2の実施形態では、負荷の評価値が閾値を超えたテナントが他のテナントとサーバ130を共有する際に、子ハイパバイザ250−1と250−2に割り当てるリソースの比率を変更するようにしてもよい。
<第3実施形態>
図51は、第3の実施形態を示し、変更モジュール406で行われる処理の一例を示すフローチャートである。図51のフローチャートは、前記第1実施形態に示した図34のステップS101〜S108の処理にステップS1080の処理を加えたものである。ステップS101〜S105は前記第1の実施形態と同様に、移動対象ホストHmoveを移動元テナントから移動先テナントへ移動させるために各種リソースの設定を変更する。
LANスイッチ121、122の設定を変更した後、変更モジュール406は、ステップS1080で、移動対象ホストHmoveに移動先テナントTmovetoで使用している仮想化部をインストールする。あるいは変更モジュール406は、移動対象ホストHmoveが読み込む仮想ディスクを仮想化部の種類に応じて切り替える。
その後、変更モジュール406は、前記第1実施形態と同様にステップS106以降の処理を行って、移動対象ホストHmoveに仮想計算機211を再配置させる。
本第3の実施形態によれば、テナントAがHyper−V環境、テナントBがVmware環境のとき、移動対象ホストHmoveの仮想化部を移動先テナントTmovetoに応じてインストールまたは仮想ディスクを切り替えることで、テナント毎の環境に対応することが可能となる。
<第4実施形態>
図52は、第4の実施形態を示し、前記第1実施形態のテナントA、Bが利用するサーバ130を異なるラックに収容した例を示し、ラック0、1をLANスイッチ1110で接続したもので、前記第1実施形態と同一の装置には同一の符号を付して重複した説明を省略する。テナントA(191)は、ラック0に収容された計算機システムを利用し、テナントB(192)は、ラック1に収容された計算機システムを利用する。
ラック0には、サーバ130−1〜130−3、LANスイッチ121,SANスイッチ141、ストレージ150−1が収容される。ラック1には、サーバ130−4〜130−6、LANスイッチ122,SANスイッチ142、ストレージ150−2が収容される。LANスイッチ121とLANスイッチ122はLANスイッチ1110に接続される。また、各装置は管理LANスイッチ160に接続され、運用管理システム170によって管理される。運用管理システム170の構成は前記第1実施形態と同様であり、変更プラン生成モジュール405の処理の一部が前記第1実施形態と相違する。なお、SANスイッチ141、142はラック0、1間で接続されている。
図53は、前記第1実施形態に示した図27のステップS34で行われるLANスイッチに関する変更プランの生成処理の一例を示すフローチャートである。このフローチャートは、前記第1実施形態の図31のステップS74とステップS75の間に、新たなステップS1100〜S1102を加えたものである。
ステップS71〜S74では、前記第1実施形態の図31と同様に、変更プラン生成モジュール405が、移動先VLAN設定Vto、変更前LANスイッチポート設定LPfrom、移動先LANスイッチポート設定LPtoを演算する。
ステップS1100では、変更プラン生成モジュール405が、構成データベース409のテナント−ホストテーブル550を参照し、移動先テナントのホストの一覧を取得する。次に、変更プラン生成モジュール405は、構成データベース409のホスト−NICテーブル600を参照し、移動先テナントの各ホストのMACアドレスを取得する。そして、変更プラン生成モジュール405は、構成データベース409のLANスイッチ管理情報620を参照し、移動先ホストが接続されているVLAN_IDとポートを取得する。
次に、ステップS1101では、変更プラン生成モジュール405が、各LANスイッチ121の接続トポロジを利用して、移動対象ホストが接続されているLANスイッチ121と移動先テナントが接続されているLANスイッチ122間をつなぐVLANのトランクポートを特定する。
次に、ステップS1102では、変更プラン生成モジュール405が、ステップS1101で特定したトランクポートのスイッチIDとポート番号を、ステップS74で生成した移動先LANスイッチポート設定LPtoに追加する。
そして、ステップS75では、変更プラン生成モジュール405が上記変更前LANスイッチポート設定LPfrom、移動先LANスイッチポート設定LPtoをスイッチ変更プランとする。
上記の処理によって、複数のVLANタグを通過させるトランクポートのスイッチIDとポート番号が移動先LANスイッチポート設定LPtoに加えられる。これにより、複数のLANスイッチを跨ぐVLANを構成できる。
図54は、テナントA(リソースグループID=RGA)のホストHOST01をテナントB(リソースグループID=RGB)へ移動する前の計算機システムのブロック図である。ホストHOST01のネットワークインターフェースが接続されたLANスイッチ121と、テナントBのサーバ130−4〜130−6(HOST03〜HOST06)を収装したラック1のLANスイッチ122は、LANスイッチ1110を介して接続されるが、テナントAのVLANAと、テナントBのVLANBは独立している。
図55は、テナントAのホストHOST01をテナントBへ移動した後の計算機システムのブロック図である。上記図53の処理を実行することで、テナントBのVLANBをLANスイッチ122、LANスイッチ1110とLANスイッチ121のホストHOST01のポートを含める。これにより、移動対象ホストHmoveのホストHOST01が接続するLANスイッチ121のポートを、移動先のVLANBに加えることができる。この後には、前記第1実施形態と同様にして、ホストHOST01をテナントBのリソースグループBに加えて仮想計算機211のマイグレーションを行えばよい。
以上の処理によって、異なるラック間でホストHOST01を移動させることが可能となりラック単位でテナントを割り当てた仮想計算機システムにおいても、テナント間の負荷の平準化を図ることができる。
<第5実施形態>
図56〜図59は、第5の実施形態を示す。第5の実施形態では、テナントA、Bに計算機資源を提供するデータセンタなどでは、計算機資源の種類毎に管理者が存在する場合に、計算機資源の種類毎に変更プラン画面を生成するようにしたものである。なお、その他の構成は前記第1実施形態と同様である。計算機資源の種類毎の管理者としては、サーバ管理者、ネットワーク管理者、SAN管理者、ストレージ管理者などが存在する。
変更プラン生成モジュール405は、前記第1実施形態の図27に示した処理によって構成変更のプランを生成し、UIモジュール410を介して管理クライアント180に通知画面420を送信する。このとき、変更プラン生成モジュール405は、予め設定した計算機資源の種類毎に通知画面を生成し、管理クライアント180に送信する。
変更プラン生成モジュール405は、例えば、サーバ管理者に対しては図56で示すようにリソース変更の通知画面423Aを送信し、ネットワーク管理者については図57で示すようにリソース変更の通知画面423Bを送信し、SAN管理者については図58に示す通知画面423Cを送信し、ストレージ管理者については図59に示す通知画面423Dを送信する。なお、サーバ管理者、ネットワーク管理者、SAN管理者、ストレージ管理者はそれぞれ専用の管理クライアント180を有していても良い。
図56に示すサーバ管理者用の通知画面423Aが、ハイパバイザ200のリソースグループの変更と、ハイパバイザ200のVLANの設定の変更を併記したものである。サーバ管理者は、通知画面423Aのサーバ(ハイパバイザ200)の変更プランを承認する場合は、承認ボタン450を管理クライアント180の図示しない入力装置でクリックする。
図57は、ネットワーク管理者用の通知画面423Bを示し、LANスイッチ121、122のVLANの設定の変更を表示したものである。ネットワーク管理者は、通知画面423Bの変更プランを承認する場合は、承認ボタン450を管理クライアント180の図示しない入力装置でクリックする。
図58は、SAN管理者用の通知画面423Cを示し、SANスイッチ141,142のゾーン設定の変更を表示したものである。SAN管理者は、通知画面423Cの変更プランを承認する場合は、承認ボタン450を管理クライアント180の図示しない入力装置でクリックする。
図59は、Sストレージ管理者用の通知画面423Dを示し、ストレージ150の設定の変更を表示したものである。SAN管理者は、通知画面423Dの変更プランを承認する場合は、承認ボタン450を管理クライアント180の図示しない入力装置でクリックする。
そして、変更プラン生成モジュール405は、全ての管理者から承認の通知を受信すると図34の変更モジュール406を起動させて変更プランを実現する。なお、何れか一人の管理者が却下を通知した場合には、変更プラン生成モジュール405は処理を終了することができる。
<まとめ>
なお、上記各実施形態では、一つのテナントに対して一つのリソースグループを割り当てる例を示したが、一つのテナントに対して複数のリソースグループを割り当てるようにしてもよい。
また、上記各実施形態では、複数のテナントに対して計算機資源を割り当てて利用させる例を示したが、テナントに限定されるものではなく、複数の計算機資源の利用対象に複数の仮想計算機と物理計算機を割り当てて利用させる構成であればよく、例えば、複数の顧客を複数の(計算機)利用グループとして捉えてもよい。
また、上記各実施形態では、2つのテナント間でサーバ130を移動させる例を示したが、3つ以上のテナント間でサーバ130を移動させてもよい。
また、上記各実施形態では、運用管理システム170−1、170−2をそれぞれ異なる物理計算機で構成する例を示したが、各運用管理システム170−1、170−2を仮想計算機上で稼動させても良い。
また、上記各実施形態では、運用管理システム170が、テナント毎の計算機の負荷を評価値ベクトルを用いて演算したが、各テナントに割り当てたハイパバイザ200が測定したプロセッサの負荷の測定値を用いてもよい。
また、上記各実施形態では、運用管理システム170が移動先テナントTmovetoを決定する際に、評価値ベクトルWLVtのいずれかの要素が、閾値ベクトルWLThの対応する要素の値を超えたテナントとした例を示したが、閾値ベクトルWLThの対応する要素の値を超えたテナントが複数存在するときには、これら複数のテナントのうち評価値ベクトルWLVtが最も高いものを移動先テナントTmovetoとすることができる。
また、上記各実施形態では、運用管理システム170が移動対象ホストHmoveを決定する際に、評価値ベクトルWLVtの長さが最も小さい移動元テナントTmovefromから最も負荷の低いサーバ130を移動対象ホストHmoveとする例を示したが、移動先テナントTmoveto以外のテナントで、最も負荷の低いサーバ130(または、負荷が所定の閾値未満のサーバ130)を移動対象ホストHmoveとしてもよい。この場合、最も負荷の低いサーバが所属するテナントを移動元テナントTmovefromとすればよい。
<補足>
プロセッサとメモリを備えた物理計算機と、
前記物理計算機のリソースを分割する第1の仮想化部と、前記分割された複数のリソース上で複数の仮想計算機をそれぞれ提供する第2の仮想化部と、
複数の前記物理計算機を接続するネットワークスイッチと
前記ネットワークスイッチに接続された管理計算機と、を備えて前記複数の物理計算機上で提供される複数の仮想計算機の制御方法であって、
前記管理計算機が、前記複数の仮想計算機を複数のグループに割り当てる第1の手順と、
前記管理計算機が、前記グループ単位の負荷の値を取得し、予め設定したしきい値と前記負荷の値を比較する第2の手順と、
前記管理計算機が、前記負荷の値が前記しきい値を超えたグループを第1のグループとして特定する第3の手順と、
前記管理計算機が、前記複数のグループのうち前記第1のグループと物理計算機を共有する第2のグループを選択する第4の手順と、
前記管理計算機が、前記第1のグループと第2のグループで共有された物理計算機の第1の仮想化部上で稼動する第2仮想化部を、前記第1のグループの第2仮想化部と、第2のグループの第2の仮想化部を特定する第5の手順と、
前記管理計算機が、前記第2のグループの第2の仮想化部が提供する仮想計算機を前記第2のグループ内の他の物理計算機へ移動させる第6の手順と、
前記管理計算機が、前記第1のグループと第2のグループで共有された物理計算機の第1の仮想化部に対して、前記第1のグループの第2仮想化部と前記第2のグループの第2の仮想化部に割り当てるリソースを変更する第7の手順と、
前記管理計算機が、前記第1のグループの第2仮想化部に前記第1のグループの仮想計算機を移動させる第8の手順と、
前記管理計算機が、前記第2のグループの第2仮想化部に前記第2のグループの仮想計算機を移動させる第9の手順と、
を含むことを特徴とする仮想計算機の制御方法。
以上のように、本発明は仮想計算機を複数の顧客で利用する仮想計算機システムに適用することができ、特に、仮想計算機を管理する管理計算機及び管理計算機のプログラムに適用することができる。
100−1、2 クライアント
110 ネットワーク
121、122 LANスイッチ
130−1〜130−6 サーバ
141、142 SANスイッチ
150−1,150−2 ストレージ
160 管理LANスイッチ
170−1,170−2 運用管理システム
180 管理クライアント
401 テナント管理モジュール
402 構成管理モジュール
403 稼動管理モジュール
404 判定モジュール
405 変更プラン生成モジュール
406 変更モジュール
410 UIモジュール
411 VM管理モジュール

Claims (14)

  1. プロセッサとメモリを備えた物理計算機と、
    前記物理計算機のリソースを分割して仮想計算機を提供する仮想化部と、
    複数の前記物理計算機を接続するネットワークスイッチと、
    前記ネットワークスイッチに接続された管理計算機と、を備えて前記複数の物理計算機上で提供される複数の仮想計算機の制御方法であって、
    前記管理計算機が、前記複数の仮想計算機を複数のグループに割り当てる第1の手順と、
    前記管理計算機が、前記グループ単位の負荷の値を取得し、予め設定したしきい値と前記負荷の値を比較する第2の手順と、
    前記管理計算機が、前記負荷の値が前記しきい値を超えたグループを第1のグループとして特定する第3の手順と、
    前記管理計算機が、前記複数のグループのうち前記第1のグループを除く第2のグループを選択する第4の手順と、
    前記管理計算機が、前記第2のグループに割り当てられた仮想計算機を実行する物理計算機のうち所定の物理計算機を移動対象計算機として特定する第5の手順と、
    前記管理計算機が、前記移動対象計算機で提供される仮想計算機を前記第2のグループ内の他の物理計算機へ移動させる第6の手順と、
    前記管理計算機が、前記移動対象計算機を前記第2のグループから削除する第7の手順と、
    前記管理計算機が、前記移動対象計算機の仮想化部の仮想ネットワークの設定を前記第1のグループに応じて変更するよう当該仮想化部に指令する第8の手順と、
    前記管理計算機が、前記移動対象計算機を第1のグループで稼動するように前記ネットワークスイッチの設定を変更する第9の手順と、
    前記管理計算機が、前記移動対象計算機を第1のグループに追加する第10の手順と、
    前記管理計算機が、前記移動対象計算機に前記第1のグループの仮想計算機を稼動させる第11の手順と、
    を含むことを特徴とする仮想計算機の制御方法。
  2. 請求項1に記載の仮想計算機の制御方法であって、
    前記第11の手順は、
    前記第1のグループの物理計算機の負荷を平準化するように前記仮想計算機を移動させることを特徴とする仮想計算機の制御方法。
  3. 請求項2に記載の仮想計算機の制御方法であって、
    前記第11の手順は、
    前記第2のグループの物理計算機の負荷を平準化するように前記仮想計算機を移動させることを特徴とする仮想計算機の制御方法。
  4. 請求項1に記載の仮想計算機の制御方法であって、
    前記ネットワークスイッチは、前記複数の物理計算機とストレージを接続するSANスイッチをさらに含み、
    前記第9の手順は、
    前記管理計算機が、前記移動対象計算機を第1のグループで稼動するように前記SANスイッチの設定を変更する手順をさらに含むことを特徴とする仮想計算機の制御方法。
  5. 請求項1に記載の仮想計算機の制御方法であって、
    前記第2の手順は、
    前記グループ内の物理計算機ごとに、複数の種類の負荷の値を集計した評価値を求めて前記グループ単位の負荷の値とすることを特徴とする仮想計算機の制御方法。
  6. 請求項1に記載の仮想計算機の制御方法であって、
    前記第4の手順は、
    前記第1のグループを除く複数のグループのうち、前記グループ単位の負荷の値が最も小さいグループを第2のグループとして選択することを特徴とする仮想計算機の制御方法。
  7. 請求項1に記載の仮想計算機の制御方法であって、
    前記第5の手順は、
    前記第2のグループに割り当てられた仮想計算機を実行する物理計算機のうち負荷の最も低い物理計算機を移動対象計算機として特定することを特徴とする仮想計算機の制御方法。
  8. プロセッサとメモリを備えた物理計算機と、前記物理計算機のリソースを分割して仮想計算機を提供する仮想化部と、複数の前記物理計算機を接続するネットワークスイッチと
    前記ネットワークスイッチに接続されて前記物理計算機と仮想計算機を管理する管理計算機であって、
    前記複数の仮想計算機を複数のグループに割り当てるグループ管理部と、
    前記グループ単位の負荷の値を取得する稼動管理部と、
    前記グループ単位の負荷の値と予め設定したしきい値とを比較して、前記負荷の値が前記しきい値を超えたグループを第1のグループとして特定する判定部と、
    前記複数のグループのうち前記第1のグループを除く第2のグループを選択し、当該第2のグループに割り当てられた仮想計算機を実行する物理計算機のうち所定の物理計算機を移動対象計算機として特定し、当該移動対象計算機を前記第2のグループから第1のグループへ移動させる変更部と、
    前記物理計算機の仮想化部に指令して前記仮想計算機を制御する仮想計算機管理部と、を備え、
    前記変更部は、
    前記移動対象計算機で提供される仮想計算機を前記第2のグループ内の他の物理計算機へ移動させる指令を前記仮想計算機管理部に出力し、前記移動対象計算機を前記第2のグループから削除し、前記移動対象計算機の仮想化部の仮想ネットワークの設定を前記第1のグループに応じて変更する指令を前記仮想計算機管理部に出力し、前記移動対象計算機を第1のグループで稼動するように前記ネットワークスイッチの設定を変更し、前記移動対象計算機を第1のグループに追加し、前記移動対象計算機に前記第1のグループの仮想計算機を稼動させる指令を前記仮想計算機管理部に出力することを特徴とする管理計算機。
  9. 請求項8に記載の管理計算機であって、
    前記仮想計算機管理部は、
    前記第1のグループの物理計算機の負荷を平準化するように前記仮想計算機を移動させることを特徴とする管理計算機。
  10. 請求項9に記載の管理計算機であって、
    前記仮想計算機管理部は、
    前記第2のグループの物理計算機の負荷を平準化するように前記仮想計算機を移動させることを特徴とする管理計算機。
  11. 請求項8に記載の管理計算機であって、
    前記ネットワークスイッチは、前記複数の物理計算機とストレージを接続するSANスイッチをさらに含み、
    前記変更部は、
    前記移動対象計算機を第1のグループで稼動するように前記SANスイッチの設定を変更することを特徴とする管理計算機。
  12. 請求項8に記載の管理計算機であって、
    前記稼動管理部は、
    前記グループ内の物理計算機ごとに、複数の種類の負荷の値を集計した評価値を求めて前記グループ単位の負荷の値とすることを特徴とする管理計算機。
  13. 請求項8に記載の管理計算機であって、
    前記変更部は、
    前記第1のグループを除く複数のグループのうち、前記グループ単位の負荷の値が最も小さいグループを第2のグループとして選択することを特徴とする管理計算機。
  14. 請求項8に記載の管理計算機であって、
    前記変更部は、
    前記第2のグループに割り当てられた仮想計算機を実行する物理計算機のうち負荷の最も低い物理計算機を移動対象計算機として特定することを特徴とする管理計算機。
JP2011082570A 2011-04-04 2011-04-04 仮想計算機の制御方法及び管理計算機 Expired - Fee Related JP5691062B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011082570A JP5691062B2 (ja) 2011-04-04 2011-04-04 仮想計算機の制御方法及び管理計算機
US13/437,963 US8914546B2 (en) 2011-04-04 2012-04-03 Control method for virtual machine and management computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011082570A JP5691062B2 (ja) 2011-04-04 2011-04-04 仮想計算機の制御方法及び管理計算機

Publications (2)

Publication Number Publication Date
JP2012220977A true JP2012220977A (ja) 2012-11-12
JP5691062B2 JP5691062B2 (ja) 2015-04-01

Family

ID=46928811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011082570A Expired - Fee Related JP5691062B2 (ja) 2011-04-04 2011-04-04 仮想計算機の制御方法及び管理計算機

Country Status (2)

Country Link
US (1) US8914546B2 (ja)
JP (1) JP5691062B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210760A (ja) * 2012-03-30 2013-10-10 Nec Corp 仮想化システム、スイッチコントローラ、ファイバチャネルスイッチ、マイグレーション方法、マイグレーションプログラム
JP2014081858A (ja) * 2012-10-18 2014-05-08 Hitachi Ltd 自律型リソース配分方法
WO2014162497A1 (ja) * 2013-04-02 2014-10-09 株式会社日立製作所 統合型計算機システム及びその制御方法
JP2015046076A (ja) * 2013-08-29 2015-03-12 株式会社日立製作所 リソース管理装置
JP2015076643A (ja) * 2013-10-04 2015-04-20 富士通株式会社 制御プログラム、制御装置および制御方法
WO2016031041A1 (ja) * 2014-08-29 2016-03-03 株式会社日立製作所 計算機システムおよび負荷平準化プログラム
JP2017182591A (ja) * 2016-03-31 2017-10-05 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP2017188145A (ja) * 2017-06-21 2017-10-12 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995424B2 (en) * 2012-05-23 2015-03-31 Dell Products L.P. Network infrastructure provisioning with automated channel assignment
US20140129699A1 (en) * 2012-11-06 2014-05-08 Mark E. Jeftovic System and method for maintaining domain name service
EP2939131A4 (en) * 2012-12-27 2016-08-17 Intel Corp RESERVATION AND EXECUTION RECORDING OF SYSTEM OWN COMPUTER DEVICES
US9515947B1 (en) * 2013-03-15 2016-12-06 EMC IP Holding Company LLC Method and system for providing a virtual network-aware storage array
US9135042B2 (en) 2013-06-13 2015-09-15 International Business Machines Corporation Provisioning a secure customer domain in a virtualized multi-tenant environment
EP3031176A4 (en) * 2013-08-08 2017-04-19 Level 3 Communications, LLC Out-of-band management of fiber optics systems and devices
US9699082B2 (en) * 2013-08-27 2017-07-04 Cisco Technology, Inc. Inter-domain network tenant identifier
JP5976230B2 (ja) 2013-10-04 2016-08-23 株式会社日立製作所 リソース管理システムおよびリソース管理方法
US9961011B2 (en) 2014-01-21 2018-05-01 Oracle International Corporation System and method for supporting multi-tenancy in an application server, cloud, or other environment
US10542049B2 (en) 2014-05-09 2020-01-21 Nutanix, Inc. Mechanism for providing external access to a secured networked virtualization environment
JP6574794B2 (ja) 2014-06-23 2019-09-11 オラクル・インターナショナル・コーポレイション マルチテナントアプリケーションサーバ環境におけるポータブルパーティションのためのシステムおよび方法
WO2015200374A1 (en) * 2014-06-23 2015-12-30 Oracle International Corporation System and method for partition migration in a multitenant application server environment
EP3158442B1 (en) * 2014-06-23 2020-05-06 Oracle International Corporation System and method for providing a work manager in a multitenant application server environment
US11210120B2 (en) * 2014-06-30 2021-12-28 Vmware, Inc. Location management in a volume action service
US10318280B2 (en) 2014-09-24 2019-06-11 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
EP3198431A1 (en) 2014-09-24 2017-08-02 Oracle International Corporation System and method for supporting patching in a multitenant application server environment
US10630690B2 (en) * 2014-10-31 2020-04-21 Hewlett Packard Enterprise Development Lp Group zoning and access control over a network
US10250512B2 (en) 2015-01-21 2019-04-02 Oracle International Corporation System and method for traffic director support in a multitenant application server environment
US10715460B2 (en) * 2015-03-09 2020-07-14 Amazon Technologies, Inc. Opportunistic resource migration to optimize resource placement
US9928112B2 (en) * 2015-11-24 2018-03-27 International Business Machines Corporation Configuration of floating node boundaries
US11550557B2 (en) 2016-02-12 2023-01-10 Nutanix, Inc. Virtualized file server
US10129169B2 (en) * 2016-04-07 2018-11-13 International Business Machines Corporation Specifying a highly-resilient system in a disaggregated compute environment
US11218418B2 (en) 2016-05-20 2022-01-04 Nutanix, Inc. Scalable leadership election in a multi-processing computing environment
CN106055408B (zh) * 2016-05-31 2017-11-24 广东欧珀移动通信有限公司 一种应用控制方法及移动终端
WO2017209788A1 (en) 2016-06-03 2017-12-07 Google Llc Weighted auto-sharding
US11562034B2 (en) 2016-12-02 2023-01-24 Nutanix, Inc. Transparent referrals for distributed file servers
US10728090B2 (en) * 2016-12-02 2020-07-28 Nutanix, Inc. Configuring network segmentation for a virtualization environment
US10824455B2 (en) 2016-12-02 2020-11-03 Nutanix, Inc. Virtualized server systems and methods including load balancing for virtualized file servers
US11568073B2 (en) 2016-12-02 2023-01-31 Nutanix, Inc. Handling permissions for virtualized file servers
US11294777B2 (en) 2016-12-05 2022-04-05 Nutanix, Inc. Disaster recovery for distributed file servers, including metadata fixers
US11288239B2 (en) 2016-12-06 2022-03-29 Nutanix, Inc. Cloning virtualized file servers
US11281484B2 (en) 2016-12-06 2022-03-22 Nutanix, Inc. Virtualized server systems and methods including scaling of file system virtual machines
EP3346383A1 (en) * 2017-01-10 2018-07-11 Unify Patente GmbH & Co. KG Computer-implemented method of managing tenants on a multi-tenant sip server system and multi-tenant sip server system
US10528376B2 (en) 2017-04-20 2020-01-07 International Business Machines Corporation Virtual machine management
CN108268307A (zh) * 2018-01-07 2018-07-10 长沙曙通信息科技有限公司 一种新型桌面虚拟化虚拟机热迁移实现方法
US11086826B2 (en) 2018-04-30 2021-08-10 Nutanix, Inc. Virtualized server systems and methods including domain joining techniques
US11194680B2 (en) 2018-07-20 2021-12-07 Nutanix, Inc. Two node clusters recovery on a failure
CN109120682A (zh) * 2018-07-31 2019-01-01 佛山市甜慕链客科技有限公司 一种基于共享设备的云计算租用管理方法
US11770447B2 (en) 2018-10-31 2023-09-26 Nutanix, Inc. Managing high-availability file servers
CN110097113B (zh) * 2019-04-26 2021-03-26 北京奇艺世纪科技有限公司 一种监控展示信息投放***工作状态的方法、装置及***
US11204913B2 (en) 2019-05-13 2021-12-21 Sap Se Generic data state transfer interface to the state of data and information for a reporting system
US11121960B2 (en) 2019-05-30 2021-09-14 International Business Machines Corporation Detecting and managing relocation of network communication endpoints in a distributed computing environment
US11768809B2 (en) 2020-05-08 2023-09-26 Nutanix, Inc. Managing incremental snapshots for fast leader node bring-up
US20240111601A1 (en) * 2022-09-29 2024-04-04 Microstrategy Incorporated Enhanced migration of objects among computing environments

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003124976A (ja) * 2001-10-10 2003-04-25 Hitachi Ltd 計算機資源割当方法
JP2010026699A (ja) * 2008-07-17 2010-02-04 Kddi Corp ネットワーク運用管理方法および装置
JP2010039730A (ja) * 2008-08-05 2010-02-18 Fujitsu Ltd ネットワーク設定プログラム,ネットワーク設定方法及びネットワーク設定装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6779016B1 (en) * 1999-08-23 2004-08-17 Terraspring, Inc. Extensible computing system
US7143153B1 (en) * 2000-11-09 2006-11-28 Ciena Corporation Internal network device dynamic health monitoring
US20020065919A1 (en) * 2000-11-30 2002-05-30 Taylor Ian Lance Peer-to-peer caching network for user data
US7263597B2 (en) * 2001-04-19 2007-08-28 Ciena Corporation Network device including dedicated resources control plane
US7356818B2 (en) * 2003-06-24 2008-04-08 International Business Machines Corporation Virtual machine communicating to external device without going through other virtual machines by using a list of IP addresses managed only by a single virtual machine monitor
US8560671B1 (en) * 2003-10-23 2013-10-15 Netapp, Inc. Systems and methods for path-based management of virtual servers in storage network environments
US20060129667A1 (en) * 2004-12-10 2006-06-15 Eric Anderson Method of and system for sharing access to cluster of computers
US8151323B2 (en) * 2006-04-12 2012-04-03 Citrix Systems, Inc. Systems and methods for providing levels of access and action control via an SSL VPN appliance
JP2007280324A (ja) * 2006-04-12 2007-10-25 Hitachi Ltd 計算機システム、管理計算機および仮想ストレージ装置
AU2008317006A1 (en) * 2007-10-21 2009-04-30 Citrix Systems, Inc. Systems and methods to adaptively load balance user sessions to reduce energy consumption
JP2009146106A (ja) * 2007-12-13 2009-07-02 Hitachi Ltd 物理的な通信ポートに付加される仮想的な通信ポートを移行する機能を有したストレージシステム
US8386610B2 (en) * 2007-12-31 2013-02-26 Netapp, Inc. System and method for automatic storage load balancing in virtual server environments
JP5116497B2 (ja) * 2008-01-31 2013-01-09 株式会社日立製作所 情報処理システム、i/oスイッチ及びi/oパスの交替処理方法
JP5164628B2 (ja) * 2008-03-24 2013-03-21 株式会社日立製作所 ネットワークスイッチ装置、サーバシステム及びサーバシステムにおけるサーバ移送方法
US8578076B2 (en) * 2009-05-01 2013-11-05 Citrix Systems, Inc. Systems and methods for establishing a cloud bridge between virtual storage resources
US8296434B1 (en) * 2009-05-28 2012-10-23 Amazon Technologies, Inc. Providing dynamically scaling computing load balancing
US8751844B2 (en) * 2009-09-24 2014-06-10 Citrix Systems, Inc. Systems and methods for attributing an amount of power consumption to a workload
JP5253353B2 (ja) * 2009-10-26 2013-07-31 株式会社日立製作所 情報処理システム、及びストレージ監視サーバの管理方法
JP5427011B2 (ja) * 2009-12-17 2014-02-26 株式会社日立製作所 仮想ハードディスクの管理サーバおよび管理方法、管理プログラム
JP5594049B2 (ja) * 2010-10-18 2014-09-24 富士通株式会社 仮想計算機移動方法、コンピュータ及びプログラム
JP5879117B2 (ja) * 2011-12-19 2016-03-08 株式会社日立製作所 情報処理システムおよび運用管理方法
US9098200B2 (en) * 2012-02-10 2015-08-04 Hitachi, Ltd. Storage system with virtual volume having data arranged astride storage devices, and volume management method
JP5941703B2 (ja) * 2012-02-27 2016-06-29 株式会社日立製作所 管理サーバ及び管理方法
US8930690B2 (en) * 2012-03-21 2015-01-06 Microsoft Corporation Offloading packet processing for networking device virtualization
US9450780B2 (en) * 2012-07-27 2016-09-20 Intel Corporation Packet processing approach to improve performance and energy efficiency for software routers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003124976A (ja) * 2001-10-10 2003-04-25 Hitachi Ltd 計算機資源割当方法
JP2010026699A (ja) * 2008-07-17 2010-02-04 Kddi Corp ネットワーク運用管理方法および装置
JP2010039730A (ja) * 2008-08-05 2010-02-18 Fujitsu Ltd ネットワーク設定プログラム,ネットワーク設定方法及びネットワーク設定装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210760A (ja) * 2012-03-30 2013-10-10 Nec Corp 仮想化システム、スイッチコントローラ、ファイバチャネルスイッチ、マイグレーション方法、マイグレーションプログラム
US10007536B2 (en) 2012-03-30 2018-06-26 Nec Corporation Virtualization system, switch controller, fiber-channel switch, migration method and migration program
JP2014081858A (ja) * 2012-10-18 2014-05-08 Hitachi Ltd 自律型リソース配分方法
WO2014162497A1 (ja) * 2013-04-02 2014-10-09 株式会社日立製作所 統合型計算機システム及びその制御方法
US9047122B2 (en) 2013-04-02 2015-06-02 Hitachi, Ltd. Integrating server and storage via integrated tenant in vertically integrated computer system
JP2015046076A (ja) * 2013-08-29 2015-03-12 株式会社日立製作所 リソース管理装置
JP2015076643A (ja) * 2013-10-04 2015-04-20 富士通株式会社 制御プログラム、制御装置および制御方法
WO2016031041A1 (ja) * 2014-08-29 2016-03-03 株式会社日立製作所 計算機システムおよび負荷平準化プログラム
JPWO2016031041A1 (ja) * 2014-08-29 2017-05-25 株式会社日立製作所 計算機システムおよび負荷平準化プログラム
JP2017182591A (ja) * 2016-03-31 2017-10-05 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP2017188145A (ja) * 2017-06-21 2017-10-12 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ

Also Published As

Publication number Publication date
JP5691062B2 (ja) 2015-04-01
US20120254445A1 (en) 2012-10-04
US8914546B2 (en) 2014-12-16

Similar Documents

Publication Publication Date Title
JP5691062B2 (ja) 仮想計算機の制御方法及び管理計算機
US11775335B2 (en) Platform independent GPU profiles for more efficient utilization of GPU resources
JP6199514B2 (ja) ファブリック分散リソースのスケジューリング
US10237201B2 (en) Quality of service (QoS) based device for allocating compute workloads to hosts providing storage and network services in software-based data center
US10768972B2 (en) Managing virtual machine instances utilizing a virtual offload device
US8874749B1 (en) Network fragmentation and virtual machine migration in a scalable cloud computing environment
US9158567B2 (en) System and method for reconfigurable network services using modified network configuration with modified bandwith capacity in dynamic virtualization environments
US9569242B2 (en) Implementing dynamic adjustment of I/O bandwidth for virtual machines using a single root I/O virtualization (SRIOV) adapter
US20190334765A1 (en) Apparatuses and methods for site configuration management
US20230244544A1 (en) Federated operator for edge computing network
US8447850B2 (en) Management computer and computer system management method
US20100100611A1 (en) Computer system and configuration management method therefor
US11366617B2 (en) Unbalanced storage resource usage configuration for distributed storage systems
US9473353B2 (en) Cluster reconfiguration management
US10248460B2 (en) Storage management computer
WO2013051136A1 (ja) 仮想サーバ処理制御方法、システムおよび仮想サーバ処理制御管理サーバ
US20190163540A1 (en) Job scheduling based on node and application characteristics
US10789668B2 (en) Intelligent provisioning of virtual graphic processing unit resources
CN103810036A (zh) 移动性操作资源分配
US20150277951A1 (en) Auto-scaling virtual switches
US11068315B2 (en) Hypervisor attached volume group load balancing
US11550613B2 (en) Computer system
US10992534B2 (en) Forming groups of nodes for assignment to a system management server
WO2015182471A1 (ja) Itシステムにおけるサーバの性能の抽象化方法および資源管理方法
US10942758B2 (en) Migrating virtual host bus adaptors between sets of host bus adaptors of a target device in order to reallocate bandwidth to enable virtual machine migration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150109

R150 Certificate of patent or registration of utility model

Ref document number: 5691062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees