JP2017182435A - 仮想化システム、管理サーバ及びマイグレーション方法 - Google Patents

仮想化システム、管理サーバ及びマイグレーション方法 Download PDF

Info

Publication number
JP2017182435A
JP2017182435A JP2016068428A JP2016068428A JP2017182435A JP 2017182435 A JP2017182435 A JP 2017182435A JP 2016068428 A JP2016068428 A JP 2016068428A JP 2016068428 A JP2016068428 A JP 2016068428A JP 2017182435 A JP2017182435 A JP 2017182435A
Authority
JP
Japan
Prior art keywords
migration
virtual machine
network
management server
link
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016068428A
Other languages
English (en)
Inventor
昌洋 林谷
Masahiro Hayashidani
昌洋 林谷
聡史 神谷
Satoshi Kamiya
聡史 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016068428A priority Critical patent/JP2017182435A/ja
Publication of JP2017182435A publication Critical patent/JP2017182435A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】ネットワークのトラフィックに影響を与えることなく仮想マシンのマイグレーションを効率的に実施しうる仮想化システムの管理サーバを提供する。【解決手段】仮想マシンが動作する複数の物理サーバが接続されたネットワークを管理する管理サーバであって、ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、ネットワークの全体におけるリンクの総未使用帯域に基づき、仮想マシンのマイグレーションの並列処理数を決定し、並列処理数の仮想マシンのマイグレーションのタスクについて、仮想マシンの移動経路をそれぞれ決定する条件決定部と、条件決定部で移動経路を決定した並列処理数の仮想マシンのマイグレーションを並列して実行する実行制御部と、を有する。【選択図】図3

Description

本発明は、仮想化システム、仮想化システムの管理サーバ及び仮想マシンのマイグレーション方法に関する。
データセンタなどクラウドサービスを提供する施設では、仮想化技術によって1つの物理的なコンピュータ(物理マシン)上に複数の仮想的なコンピュータ(仮想マシン)を構築することが行われている。この仮想マシンは、ある物理マシンから他の物理マシンへと移動(マイグレーション)することがある。例えば、一部の物理マシンでリソース不足が生じたときや一部の物理マシンを停止して保守作業を行うときなどに、当該物理マシン上に構築されている仮想マシンを他の物理マシンへと移動する。
しかしながら、仮想マシンのマイグレーションを実施する際、その仮想マシンで提供されていたサービスを停止しなければならない場合があり、サービス停止時間の短縮のために仮想マシンのマイグレーションの処理時間を短縮することが求められている。
特許文献1及び特許文献2には、複数の仮想マシンのマイグレーションを並列して実行することによりマイグレーション時間を短縮する方法が記載されている。また、特許文献3には、仮想マシンの最適な移動先及び移動経路を設定し、移動処理の事前検証及び移動処理に要する時間を短縮させる方法が記載されている。
特表2014−531689号公報 特開2014−142720号公報 特開2011−232916号公報
しかしながら、特許文献1〜3に記載の方法では、仮想マシンの移動経路となるリンクの帯域は考慮しているが、ネットワーク全体のリソース利用状況は考慮していなかった。このため、仮想マシンのマイグレーションのリソースが、データセンタネットワークにおける仮想マシン間通信などのトラフィックに影響を与える可能性があった。
本発明の目的は、ネットワークのトラフィックに影響を与えることなく仮想マシンのマイグレーションを効率的に実施しうる仮想化システムの管理サーバ及びマイグレーション方法を提供することにある。
本発明の一観点によれば、仮想マシンが動作する複数の物理サーバが接続されたネットワークを管理する管理サーバであって、前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と、を有する管理サーバが提供される。
また、本発明の他の一観点によれば、仮想マシンが動作する複数の物理サーバと、前記複数の物理サーバが接続されたネットワークを管理する管理サーバであって、前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と、を含む管理サーバと、を有する仮想化システムが提供される。
また、本発明の更に他の一観点によれば、仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンを別の物理サーバに移動するマイグレーション方法であって、前記ネットワークを構成する総てのリンクの使用状況を取得するステップと、前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定するステップと、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定するステップと、前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行するステップと、を有するマイグレーション方法が提供される。
また、本発明の更に他の一観点によれば、仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンのマイグレーションを管理する管理サーバにおいて実行されるプログラムであって、コンピュータを、前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得手段、前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定手段、前記条件決定手段で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御手段、として機能させるプログラムが提供される。
本発明によれば、ネットワークのトラフィックに影響を与えることなく仮想マシンのマイグレーションを効率的に実施することができる。
本発明の一実施形態による仮想化システムの概略構成を示すブロック図である。 本発明の一実施形態による仮想化システムにおける管理サーバのハードウェア構成例を示すブロック図である。 本発明の一実施形態による仮想化システムにおける仮想マシンのマイグレーション方法を示すフローチャート(その1)である。 VMマイグレーションリストの一例を示す図である。 本発明の一実施形態による仮想化システムにおける仮想マシンのマイグレーション方法を示すフローチャート(その2)である。 本発明の一実施形態による仮想化システムにおける仮想マシンのマイグレーション方法を示すフローチャート(その3)である。 VMマイグレーション後における仮想化システムの状態を示すブロック図である。 本発明の一実施形態による管理サーバの概略構成を示すブロック図である。
本発明の一実施形態による仮想化システムについて、図1乃至図7を用いて説明する。図1は、本実施形態による仮想化システムの概略構成を示すブロック図である。図2は、本実施形態による仮想化システムにおける管理サーバのハードウェア構成例を示すブロック図である。図3,5,6は、本実施形態による仮想化システムにおける仮想マシンのマイグレーション方法を示すフローチャートである。図4は、VMマイグレーションリストの一例を示す図である。図7は、マイグレーション後における仮想化システムの状態を示すブロック図である。
はじめに、本実施形態による仮想化システムについて、図1を用いて説明する。
本実施形態による仮想化システム100は、図1に示すように、管理サーバ10と、複数の物理サーバ20と、ネットワーク40とを備えている。図1には、複数の物理サーバ20として、物理サーバ20A,20B,20C,20D,20E,20Fを例示しているが、物理サーバ20の数はこれに限定されるものではない。
それぞれの物理サーバ20は、図示しない仮想化ソフトウェア(ハイパーバイザ)によってそのメモリ内に一又は複数の仮想マシン(VM:Virtual Machine)30を構築可能である。図1の例では、物理サーバ20A内に、仮想マシン30A,30B,30Cが構築されている。また、物理サーバ20B内に、仮想マシン30D,30Eが構築されている。また、物理サーバ20C内に、仮想マシン30Fが構築されている。また、物理サーバ20D内に、仮想マシン30G,30Hが構築されている。また、物理サーバ20E内に、仮想マシン30Iが構築されている。物理サーバ20Fには、仮想マシン30は構築されていない。図1の例では、1つの物理サーバ20に最多で3つの仮想マシン30を構築しているが、1つの物理サーバ20に構築可能な仮想マシン30の数は、これに限定されるものではない。
ネットワーク40は、物理サーバ20A,20B,20C,20D,20E,20F間に設けられており、複数のノード42と、ノード42間を接続する複数のリンクとを含む。ノード42は、ルータやスイッチによって構成される。図1には、ノード42A,42B,42C,42D,42E,42F,42G,42H,42Iを含むネットワーク40を例示している。なお、ネットワーク40を構成するノード42の数、配置及びリンクによる接続関係は、図1の例に限定されるものではなく、例えば物理サーバ20の数や配置等に応じて適宜変更することができる。
図1の例では、ノード42Aは、物理サーバ20Aと、ノード42Bと、ノード42Dとの間の接続を切り替える機能を備える。ノード42Bは、物理サーバ20Bと、ノード42Aと、ノード42Cと、ノード42Eとの間の接続を切り替える機能を備える。ノード42Cは、物理サーバ20Cと、ノード42Bと、ノード42Fとの間の接続を切り替える機能を備える。ノード42Dは、ノード42Aと、ノード42Eと、ノード42Gとの間の接続を切り替える機能を備える。ノード42Eは、ノード42Bと、ノード42Dと、ノード42Fと、ノード42Hとの間の接続を切り替える機能を備える。ノード42Fは、ノード42Cと、ノード42Eと、ノード42Iとの間の接続を切り替える機能を備える。ノード42Gは、ノード42Dと、ノード42Hと、物理サーバ20Dとの間の接続を切り替える機能を備える。ノード42Hは、ノード42Eと、ノード42Gと、ノード42Iと、物理サーバ20Eとの間の接続を切り替える機能を備える。ノード42Iは、ノード42Fと、ノード42Hと、物理サーバ20Fとの間の接続を切り替える機能を備える。
管理サーバ10は、情報取得部12と、条件決定部14と、実行制御部16と、を備える。管理サーバ10は、管理用ネットワーク44を介して、物理サーバ20A,20B,20C,20D,20E,20Fと、ノード42A,42B,42C,42D,42E,42F,42G,42H,42Iと、に接続されている。
情報取得部12は、管理用ネットワーク44を介して、ネットワーク40の状況、具体的には、システム内のネットワークトポロジ、各リンクの使用状況、物理サーバ20の配置場所、仮想マシン30の稼働状況等を監視し、把握する機能を備える。ネットワークトポロジには、ネットワーク40内におけるノード42及びノード42間を接続するリンクの物理的な配列に関する情報が含まれる。リンクの使用状況には、それぞれのリンクの全帯域のうちどの程度の帯域が使用されているかを示す情報が含まれる。物理サーバ20の配置場所には、各物理サーバ20がどのノード42に接続されているかを示す情報が含まれる。仮想マシン30の稼働状況には、各物理サーバ20に構築されている仮想マシン30の数や動作状態を示す情報が含まれる。情報取得部12は、また、システムの管理者からの指示を受信する機能を備える。
条件決定部14は、情報取得部12により取得された情報に応じて、仮想マシン30のマイグレーションを実行する条件を決定する機能を備える。条件決定部14は、マイグレーション対象の仮想マシン30に関する情報を記録するVMマイグレーションリストや、情報取得部12を介してネットワークから受信した種々の情報を記録するメモリを備えることができる。
実行制御部16は、管理用ネットワーク44を介して、物理サーバ20及びノード42を含むネットワーク40を制御し、条件決定部14で決定された条件に従って仮想マシン30のマイグレーションの実行を制御する機能を備える。
管理サーバ10は、図2に示すように、一般的なコンピュータ装置と同様のハードウェア構成からなり、CPU(Central Processing Unit)200、主記憶部202、通信部204、入出力インターフェース部206を備える。CPU200は、管理サーバ10の全体的な制御や演算処理を司る制御・演算装置である。主記憶部202は、データの作業領域やデータの一時退避領域に用いられる記憶部であり、RAM(Random Access Memory)等のメモリにより構成される。通信部204は、ネットワークを介してデータの送受信を行うためのインターフェースである。入出力インターフェース部206は、外部の出力装置210、入力装置212、記憶装置214等と接続してデータの送受信を行うためのインターフェースである。CPU200、主記憶部202、通信部204及び入出力インターフェース部206は、システムバス208によって相互に接続されている。記憶装置214は、例えばROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリから構成されるハードディスク装置等で構成することができる。
本実施形態による管理サーバ10の各機能は、プログラムを組み込んだLSI(Large Scale Integration)等のハードウェア部品である回路部品を実装することにより、ハードウェア的に実現することができる。或いは、その機能を提供するプログラムを、記憶装置214に格納し、そのプログラムを主記憶部202にロードしてCPU200で実行することにより、ソフトウェア的に実現することも可能である。
次に、本実施形態による仮想化システムにおける仮想マシンのマイグレーション方法について、図1乃至図7を用いて説明する。
本実施形態による仮想マシンのマイグレーション(以下、「VMマイグレーション」と表記する)は、管理サーバ10により、図3に示すフローチャートのステップS301からステップS306に従って実施される。ステップS301は、VMマイグレーションの契機となる情報を受信するステップである。ステップS302は、VMマイグレーションリストを作成するステップである。S303は、VMマイグレーションの並列処理数を決定するステップである。ステップS304は、マイグレーション経路を決定するステップである。ステップS305は、VMマイグレーションを実行するステップである。ステップS306は、VMマイグレーションの総てのタスクが終了したかどうかを判断するステップである。
管理サーバ10は、情報取得部12がVMマイグレーションの契機となる情報を受信することに応じて、VMマイグレーションの処理を開始する(ステップS301)。VMマイグレーションの契機としては、例えば、管理者から入力装置212を介してVMマイグレーションの指示があった場合や、情報取得部12によるネットワーク40の監視の結果、VMマイグレーションが必要と判断された場合等が挙げられる。前者の例としては、特定の物理サーバ20のメンテナンスのために当該物理サーバ20上の仮想マシンを他の物理サーバ20に移動する場合等が考えられる。後者の例としては、特定の物理サーバ20のCPU使用率が基準値を超えた場合に、当該物理サーバ20上の仮想マシン30を他の物理サーバ20に移動する場合等が考えられる。
管理サーバ10は、VMマイグレーションの契機となる情報を受信すると、条件決定部14において、受信した情報に基づいてVMマイグレーションリストを作成する(ステップS302)。VMマイグレーションリストとは、マイグレーションの必要な仮想マシン30の移動元の物理サーバ20と移動先の物理サーバ20とを示すレコードをリストにしたものである。
VMマイグレーションの契機となる情報には、マイグレーションを実行する仮想マシン30に関する情報が含まれている。管理サーバ10は、例えば物理サーバ20に割り振られた管理番号順などにより、VMマイグレーションを実行する仮想マシン30を順次ピックアップしていく。次いで、ピックアップされた仮想マシン30の移動先となる物理サーバ20を選択する。移動先の仮想マシン30を選択する方法は、特に限定されるものではないが、例えば、物理サーバ20に割り振られた管理番号順に、仮想マシン30を移動可能な物理サーバ20を探していく方法が挙げられる。或いは、消費電力低減の観点から、移動対象の仮想マシン30をぎりぎりにパッキングできる物理サーバ20を選択するようにしてもよい。仮想マシン30が構築される物理サーバ20の数を減らすことで、消費電力を低減することが可能である。或いは、管理者が任意の物理サーバ20を移動先の物理サーバ20として選択するようにしてもよい。このようにして、マイグレーションを実行する総ての仮想マシン30について、移動元の物理サーバ20の情報と移動先の物理サーバ20の情報とを含むレコードをそれぞれ作成し、リスト化する。
VMマイグレーションを実行する総ての仮想マシン30について移動元の物理サーバ20の情報と移動先の物理サーバ20の情報とを含むレコードを作成した後、必要に応じて、各レコードの優先順位付けを行う。例えば、より省電力効果が高いVMマイグレーションのタスクが上位になるように、レコードを順番に並べることができる。なお、省電力効果は、例えば、VMマイグレーション前の消費電力とVMマイグレーション後に見込まれる消費電力との差からVMマイグレーションによって消費されると見込まれる電力量を差し引いた電力量に基づいて評価することができる。算出された電力量が大きいほど、省電力効果が高いといえる。省電力効果が高いタスクを優先して処理することにより、VMマイグレーションの実行期間におけるトータルの消費電力を低減することができる。
図4は、このようにして作成されたVMマイグレーションリストの一例である。この例では、最も優先度の高いレコード(実行順位が1)として、仮想マシン30Cを、物理サーバ20Aから物理サーバ20Fに移動するタスクが挙げられている。また、次に優先度の高いレコード(実行順位が2)として、仮想マシン30Bを、物理サーバ20Aから物理サーバ20Eに移動するタスクが挙げられている。また、次に優先度の高いレコード(実行順位が3)として、仮想マシン30Hを、物理サーバ20Dから物理サーバ20Cに移動するタスクが挙げられている。また、次に優先度の高いレコード(実行順位が4)として、仮想マシン30Eを、物理サーバ20Bから物理サーバ20Fに移動するタスクが挙げられている。なお、図4においては、図面との関係を判りやすくするために、図1で使用した符号によって仮想マシン30及び物理サーバ20を表している。実際のVMマイグレーションリストには、仮想マシンのIDやハイパーバイザのIPアドレスなどの仮想化システム100内で使用される情報が用いられる。
次いで、管理サーバ10は、ネットワーク40の各リンクの使用状況に基づき、VMマイグレーションの並列処理数を決定する(ステップS303)。VMマイグレーションの並列処理数とは、VMマイグレーションのタスクを複数並列して実行する際のタスク数の上限値である。
VMマイグレーションの並列処理数の決定は、管理サーバ10の条件決定部14により、図5に示すフローチャートのステップS501からステップS504に従って実施される。ステップS501は、ネットワーク40の各リンクの使用帯域を測定するステップである。ステップS502は、ネットワーク40の全体での使用帯域を算出するステップである。ステップS503は、VMマイグレーションで使用可能な帯域を算出するステップである。ステップS504は、VMマイグレーションの並列処理数の上限値を算出するステップである。
管理サーバ10は、管理用ネットワーク44を介して、ネットワーク40の総てのリンクについて、使用帯域B[Gbps]をそれぞれ測定する(ステップS501)。例えば、図1に示すネットワーク40の場合、管理サーバ10は、9個のノード42の間を接続している12個のリンクについて、使用帯域Bをそれぞれ測定する。
次いで、管理サーバ10は、測定した各リンクの使用帯域Bから、ネットワークの全体での使用帯域を算出する(ステップS502)。ネットワーク40内のリンクの総数がLの場合に、ネットワーク40の各リンクに1番目からL番目までの番号を付し、i番目のリンクにおける使用帯域BをBと表記すると、ネットワーク40の全体での使用帯域は、ΣB(i=1〜L)となる。
次いで、管理サーバ10は、算出したネットワーク40の全体での使用帯域ΣBを元に、VMマイグレーションで使用可能な帯域を算出する(ステップS503)。VMマイグレーションで使用可能な帯域B_aは、ネットワーク40の総キャパシティをC[Gbps]、マイグレーション使用可能率をA[%]として、以下のように表すことができる。なお、C−ΣBは、ネットワーク40の全体におけるリンクの総未使用帯域に相当する。
B_a=(C−ΣB)×A/100 [Gbps]
マイグレーション使用可能率Aとは、ネットワーク40の全体の未使用帯域のうち、VMマイグレーションに使用する帯域を決めるためのパラメータである。ネットワーク40の全体の未使用帯域の総てをVMマイグレーションに使用すると仮想マシン30間の通信などのトラフィックに影響を与える虞があるため、ネットワーク40の全体の未使用帯域の一部をVMマイグレーションに使用する。マイグレーション使用可能率Aは、予め定められた値でもよいし、システム全体の使用状況等に応じて適切な値に設定するようにしてもよい。例えば、システム全体の稼動率が低い(仮想マシンの稼働数が少ない)ほど、マイグレーション使用可能率Aを高い値に設定することができる。
一例として、図1に示される構成のネットワーク40において、各リンクの帯域が100[Gbps]の場合を想定する。この場合、ネットワーク40内の総リンク数Lは12であり、ネットワーク40の総キャパシティCは、1200[Gbps]となる。例えば、ネットワーク40の全体での使用帯域ΣBが100[Gbps]、マイグレーション使用可能率Aが30[%]であるとすると、VMマイグレーションに使用可能な帯域B_aは、以下のようになる。
B_a=(1200−100)×0.3=330 [Gbps]
次いで、管理サーバ10は、ステップS503で算出されたVMマイグレーションに使用可能な帯域B_aに基づき、VMマイグレーションの並列処理数の上限値を算出する(ステップS504)。VMマイグレーションの並列処理数の上限値は、例えば、VMマイグレーションに使用可能な帯域B_aと、各リンクでVMマイグレーションが使用する平均帯域B_mplと、ネットワーク40の平均ホップ数H又は総リンク数Lとから算出することができる。すなわち、VMマイグレーションの並列処理数の上限値Nは、以下のように表すことができる。なお、「INT」は、小数点以下を切り捨てて整数にする関数である。
N=INT(B_a/(B_mpl×H(又はL)))
平均ホップ数Hとは、ネットワーク40内の一の物理サーバ20と他の一の物理サーバ20との間の経路のホップ数のうちの最小のホップ数を、総ての物理サーバ20の組み合わせについて算出し、これらを平均したものである。或いは、平均ホップ数Hは、ネットワーク40内の一の物理サーバ20と他の一の物理サーバ20との間の経路のホップ数のうちの最小のホップ数を、そのときに稼動している総ての物理サーバ20の組み合わせについて算出し、これらを平均したものとして定義することもできる。図1に示すネットワーク40の例では、6つの物理サーバ20が総て稼動しているときの平均ホップ数は、3.4となる。
上述の例において、VMマイグレーションが1つのリンクで使用する平均帯域B_mplを10[Gbps]、平均ポップ数を3.4とすると、VMマイグレーションの並列処理数の上限値Nは、以下のように表すことができる。
N=INT(330/(10×3.4))=INT(9.7)=9
或いは、VMマイグレーションが1つのリンクで使用する平均帯域B_mplを10[Gbps]、ネットワークの総リンク数Lを12とすると、VMマイグレーションの並列処理数の上限値Nは、以下のように表すことができる。
N=INT(330/(10×12))=INT(2.8)=2
ネットワーク40の総リンク数Lから算出されるVMマイグレーションの並列処理数は、システム全体の稼動率が高く最短の経路を介したVMマイグレーションが困難な場合のような、厳しい条件下においても実現可能な並列処理数の上限値であるといえる。一方、ネットワーク40の平均ホップ数から算出されるVMマイグレーションの並列処理数の上限値Nは、システム全体の稼動率が低く最短の経路を介したVMマイグレーションが可能な場合において可能な並列処理数の上限値であるといえる。VMマイグレーションの並列処理数の算出にどちらのパラメータを用いるかは、システム全体の稼動率等に応じて適宜選択することができる。或いは、システム全体の稼動率に応じて、平均ホップ数から算出される並列処理数と総リンク数から算出される並列処理数との間の範囲内の適切な並列処理数を選択する構成とすることも可能である。
次いで、管理サーバ10は、移動対象の各仮想マシン30について、マイグレーション経路を決定する(ステップS304)。マイグレーション経路の決定は、管理サーバ10の条件決定部14により、図6に示すフローチャートのステップS601からステップS607に従って実施される。ステップS601は、VMマイグレーションリストの最初のレコードを指定するステップである。ステップS602は、VMマイグレーションリストの指定されたレコードを参照し、仮想マシン30の移動元の物理サーバ20と移動先の物理サーバ20とを確認するステップである。ステップS603は、ネットワーク40の各リンクの使用率に基づき、移動元の物理サーバ20から移動先の物理サーバ20までの経路を決定するステップである。ステップS604は、ステップS603において経路を決定できたかどうかを判断するステップである。ステップS605は、移動経路を決定した仮想マシン30の数が並列処理数に達したかどうかを判断するステップである。ステップS606は、VMマイグレーションリストの最後のレコードに達したかどうかを判断するステップである。ステップS607は、VMマイグレーションリストの次のレコードを指定するステップである。
管理サーバ10は、VMマイグレーションリストに含まれる複数のタスクについて、最初のレコードのタスクから順番に仮想マシン30のマイグレーション経路を設定していく。タスクに優先順位が付けられている場合、最も優先順位の高いタスクが、VMマイグレーションリストの最初のレコードに該当する。管理サーバ10は、まず、VMマイグレーションリストのうちの最初のレコードを指定する(ステップS601)。
次いで、管理サーバ10は、VMマイグレーションリストの指定されたレコードを参照し、参照したレコードの内容に基づき、移動対象の仮想マシン30、移動元の物理サーバ20、移動先の物理サーバ20を確認する(ステップS602)。
次いで、管理サーバ10は、ネットワーク40の各リンクのリンク使用率に基づいて、移動元の物理サーバ20から移動先の物理サーバ20に至る経路を決定する(ステップS603)。経路の計算には、例えば、ダイクストラ法などの最短経路計算アルゴリズムを使用することができる。その際、各リンクに、リンクの物理的な長さやリンク使用率等に応じた重み付けを行ってもよい。また、リンク使用率に対する閾値を予め設定しておき、リンク使用率がこの閾値を超えているリンクについては経路として選択しないようにしてもよい。また、ネットワーク40が回線交換方式のリンクを含む場合は、当該リンクについて経路が重ならないように、並列処理を行うタスクの経路を設定する。
次いで、管理サーバ10は、ステップS603の処理によって移動元の物理サーバ20から移動先の物理サーバ20に至る経路を決定できたかどうかを判断する(ステップS604)。その結果、ステップS603において経路を決定できた場合にはステップS605の処理に移行し、ステップS603において経路を決定できなかった場合にはステップS606の処理に移行する。
ステップS603の処理によって経路を決定できた場合には、管理サーバ10は、移動経路を決定した仮想マシン30の数がステップS303において決定した並列処理数に達したかどうかを判断する(ステップS605)。その結果、並列処理数に達している場合には、マイグレーション経路の決定の処理を終了し、ステップS305以降の処理を継続する。並列処理数に達していない場合には、VMマイグレーションリストの次のレコードを指定し(ステップS607)、ステップS602からの処理を繰り返し実施する。
ステップS603の処理によって経路を決定できなかった場合には、管理サーバ10は、指定されているレコードが最後のレコードかどうかを判断する(ステップS606)。その結果、最後のレコードである場合には、マイグレーション経路の決定の処理を終了し、ステップS305以降の処理を継続する。最後のレコードでない場合には、VMマイグレーションリストの次のレコードを指定し(ステップS607)、ステップS602以降の処理を繰り返し実施する。
このようにして、ステップS304の一連の処理により、並列して一度にVMマイグレーションを実施可能な仮想マシン30について、移動元の物理サーバ20から移動先の物理サーバ20に至る経路を決定する。
次いで、管理サーバ10は、実行制御部16により、ステップS304において移動元の物理サーバ20から移動先の物理サーバ20に至る経路を決定できた仮想マシン30について、VMマイグレーションを並列して実行する(ステップS305)。この際、それぞれの経路を実現するためのネットワーク40の各ノード42は、ネットワーク制御技術、例えばオープンフロー(OpenFlow)技術を用い、管理サーバ10の実行制御部16によって集中管理することができる。
次いで、管理サーバ10は、VMマイグレーションリストに列挙されている総てのタスクについてVMマイグレーションが終了したかどうかを判断する(ステップS306)。その結果、総てのタスクについて処理が終了している場合には、一連のVMマイグレーションの処理を終了する。総てのタスクについて処理が終了していない場合には、終了したタスクに対応するレコードを除いたVMマイグレーションリストに更新し、ステップS303以降の処理を繰り返し実施する。
このようにして、VMマイグレーションリストに列挙されている総てのタスクについて、VMマイグレーションの処理を実施する。図7は、図1に示す状態において、図4に示すVMマイグレーションリストに従ってVMマイグレーションを行った後の状態を示している。
このように、本実施形態では、ネットワークの全体におけるリンクの総未使用帯域のうちの所定の割合として規定される仮想マシンのマイグレーションへの使用可能帯域を算出する。そして、算出した使用可能帯域に基づいて、仮想マシンのマイグレーションの並列処理数を決定している。したがって、ネットワークのトラフィックのための帯域を十分に確保しつつ、仮想マシンのマイグレーションを効率的に実施することができる。
図8は、上記実施形態に係る管理サーバ10の概略構成図である。管理サーバ10は、仮想マシンが動作する複数の物理サーバが接続されたネットワークを管理する機能を備える。管理サーバ10は、情報取得部12と、条件決定部14と、実行制御部16とを含む。情報取得部12は、ネットワークを構成する総てのリンクの使用状況を取得する。条件決定部14は、ネットワークの全体におけるリンクの総未使用帯域に基づき、仮想マシンのマイグレーションの並列処理数を決定する。また、条件決定部14は、並列処理数の仮想マシンのマイグレーションのタスクについて、仮想マシンの移動経路をそれぞれ決定する。実行制御部16は、条件決定部14で移動経路を決定した並列処理数の仮想マシンのマイグレーションを並列して実行する。
本発明は、上記実施形態に限らず種々の変形が可能である。
例えば、上記実施形態で説明した仮想マシンのマイグレーションは、いわゆるライブマイグレーションに適用することも可能である。ライブマイグレーションに適用する場合には、例えば、上述のマイグレーション処理の後、マイグレーション処理の開始から終了までの期間に移動元の仮想マシン30で生じた情報の差分を、移動先の仮想マシン30に書き込む処理を実施すればよい。
また、上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
仮想マシンが動作する複数の物理サーバが接続されたネットワークを管理する管理サーバであって、
前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、
前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、
前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と
を有することを特徴とする管理サーバ。
(付記2)
前記条件決定部は、前記総未使用帯域に基づいて、前記総未使用帯域のうちの所定の割合として規定される前記仮想マシンのマイグレーションへの使用可能帯域を算出し、前記使用可能帯域に基づいて、前記仮想マシンのマイグレーションの前記並列処理数を決定する
ことを特徴とする付記1記載の管理サーバ。
(付記3)
前記条件決定部は、前記仮想マシンの移動元の物理サーバと移動先の物理サーバとを示すリストに従い、優先度の高いタスクから順に前記移動経路を決定する
ことを特徴とする付記1又は2記載の管理サーバ。
(付記4)
前記リストは、省電力効果の大きいタスクほど優先度が高く設定されている
ことを特徴とする付記3記載の管理サーバ。
(付記5)
前記省電力効果は、前記仮想マシンのマイグレーションの前後における消費電力の差から前記仮想マシンのマイグレーションにより消費される電力を差し引いた電力量によって規定されている
ことを特徴とする付記4記載の管理サーバ。
(付記6)
前記条件決定部は、前記使用可能帯域と、前記仮想マシンのマイグレーションで使用する平均帯域と、前記ネットワークの平均ホップ数又は総リンク数とに基づき、前記並列処理数を決定する
ことを特徴とする付記2乃至5のいずれか1項に記載の管理サーバ。
(付記7)
前記条件決定部は、前記移動経路を決定する際に、使用帯域が閾値以上の前記リンクを除外して前記移動経路を決定する
ことを特徴とする付記1乃至6のいずれか1項に記載の管理サーバ。
(付記8)
前記条件決定部は、前記ネットワークが回線交換方式のリンクを含む場合、前記回線交換方式のリンクが2以上の前記移動経路で使用されないように、前記移動経路を決定する
ことを特徴とする付記1乃至7のいずれか1項に記載の管理サーバ。
(付記9)
仮想マシンが動作する複数の物理サーバと、
前記複数の物理サーバが接続されたネットワークを管理する管理サーバであって、
前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、
前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、
前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と、を含む管理サーバと
を有することを特徴とする仮想化システム。
(付記10)
前記条件決定部は、前記総未使用帯域に基づいて、前記総未使用帯域のうちの所定の割合として規定される前記仮想マシンのマイグレーションへの使用可能帯域を算出し、前記使用可能帯域に基づいて、前記仮想マシンのマイグレーションの前記並列処理数を決定する
ことを特徴とする付記9記載の仮想化システム。
(付記11)
前記条件決定部は、前記仮想マシンの移動元の物理サーバと移動先の物理サーバとを示すリストに従い、優先度の高いタスクから順に前記移動経路を決定する
ことを特徴とする付記9又は10記載の仮想化システム。
(付記12)
前記リストは、省電力効果の大きいタスクほど優先度が高く設定されている
ことを特徴とする付記11記載の仮想化システム。
(付記13)
前記省電力効果は、前記仮想マシンのマイグレーションの前後における消費電力の差から前記仮想マシンのマイグレーションにより消費される電力を差し引いた電力量によって規定されている
ことを特徴とする付記12記載の仮想化システム。
(付記14)
前記条件決定部は、前記使用可能帯域と、前記仮想マシンのマイグレーションで使用する平均帯域と、前記ネットワークの平均ホップ数又は総リンク数とに基づき、前記並列処理数を決定する
ことを特徴とする付記10乃至13のいずれか1項に記載の仮想化システム。
(付記15)
前記条件決定部は、前記移動経路を決定する際に、使用帯域が閾値以上の前記リンクを除外して前記移動経路を決定する
ことを特徴とする付記9乃至14のいずれか1項に記載の仮想化システム。
(付記16)
前記条件決定部は、前記ネットワークが回線交換方式のリンクを含む場合、前記回線交換方式のリンクが2以上の前記移動経路で使用されないように、前記移動経路を決定する
ことを特徴とする付記9乃至15のいずれか1項に記載の仮想化システム。
(付記17)
仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンを別の物理サーバに移動するマイグレーション方法であって、
前記ネットワークを構成する総てのリンクの使用状況を取得するステップと、
前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定するステップと、
前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定するステップと、
前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行するステップと
を有することを特徴とするマイグレーション方法。
(付記18)
前記並列処理数を決定するステップでは、前記総未使用帯域に基づいて、前記総未使用帯域のうちの所定の割合として規定される前記仮想マシンのマイグレーションへの使用可能帯域を算出し、前記使用可能帯域に基づいて、前記仮想マシンのマイグレーションの前記並列処理数を決定する
ことを特徴とする付記17記載のマイグレーション方法。
(付記19)
前記仮想マシンの移動元の物理サーバと移動先の物理サーバとを示すリストを生成するステップを更に有し、
前記移動経路を決定するステップでは、前記リストに従い、優先度の高いタスクから順に前記移動経路を決定する
ことを特徴とする付記17又は18記載のマイグレーション方法。
(付記20)
前記リストは、省電力効果の大きいタスクほど優先度が高く設定されている
ことを特徴とする付記19記載のマイグレーション方法。
(付記21)
前記省電力効果は、前記仮想マシンのマイグレーションの前後における消費電力の差から前記仮想マシンのマイグレーションにより消費される電力を差し引いた電力量によって規定されている
ことを特徴とする付記20記載のマイグレーション方法。
(付記22)
前記並列処理数を決定するステップでは、前記使用可能帯域と、前記仮想マシンのマイグレーションで使用する平均帯域と、前記ネットワークの平均ホップ数又は総リンク数とに基づき、前記並列処理数を決定する
ことを特徴とする付記18乃至21のいずれか1項に記載のマイグレーション方法。
(付記23)
前記移動経路を決定するステップでは、使用帯域が閾値以上の前記リンクを除外して前記移動経路を決定する
ことを特徴とする付記17乃至22のいずれか1項に記載のマイグレーション方法。
(付記24)
前記移動経路を決定するステップでは、前記ネットワークが回線交換方式のリンクを含む場合、前記回線交換方式のリンクが2以上の前記移動経路で使用されないように、前記移動経路を決定する
ことを特徴とする付記17乃至23のいずれか1項に記載のマイグレーション方法。
(付記25)
仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンのマイグレーションを管理する管理サーバにおいて実行されるプログラムであって、コンピュータを、
前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得手段、
前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定手段、
前記条件決定手段で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御手段
として機能させるプログラム。
(付記26)
付記25に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
10…管理サーバ
20,20A,20B,20C,20D,20E,20F…物理サーバ
30,30A,30B,30C,30D,30E,30F,30G,30H,30I…仮想マシン
40…ネットワーク
42,42A,42B,42C,42D,42E,42F,42G,42H,42I…ノード
44…管理用ネットワーク
100…仮想化システム

Claims (19)

  1. 仮想マシンが動作する複数の物理サーバが接続されたネットワークを管理する管理サーバであって、
    前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、
    前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、
    前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と
    を有することを特徴とする管理サーバ。
  2. 前記条件決定部は、前記総未使用帯域に基づいて、前記総未使用帯域のうちの所定の割合として規定される前記仮想マシンのマイグレーションへの使用可能帯域を算出し、前記使用可能帯域に基づいて、前記仮想マシンのマイグレーションの前記並列処理数を決定する
    ことを特徴とする請求項1記載の管理サーバ。
  3. 前記条件決定部は、前記仮想マシンの移動元の物理サーバと移動先の物理サーバとを示すリストに従い、優先度の高いタスクから順に前記移動経路を決定する
    ことを特徴とする請求項1又は2記載の管理サーバ。
  4. 前記リストは、省電力効果の大きいタスクほど優先度が高く設定されている
    ことを特徴とする請求項3記載の管理サーバ。
  5. 前記省電力効果は、前記仮想マシンのマイグレーションの前後における消費電力の差から前記仮想マシンのマイグレーションにより消費される電力を差し引いた電力量によって規定されている
    ことを特徴とする請求項4記載の管理サーバ。
  6. 前記条件決定部は、前記使用可能帯域と、前記仮想マシンのマイグレーションで使用する平均帯域と、前記ネットワークの平均ホップ数又は総リンク数とに基づき、前記並列処理数を決定する
    ことを特徴とする請求項2乃至5のいずれか1項に記載の管理サーバ。
  7. 前記条件決定部は、前記移動経路を決定する際に、使用帯域が閾値以上の前記リンクを除外して前記移動経路を決定する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の管理サーバ。
  8. 前記条件決定部は、前記ネットワークが回線交換方式のリンクを含む場合、前記回線交換方式のリンクが2以上の前記移動経路で使用されないように、前記移動経路を決定する
    ことを特徴とする請求項1乃至7のいずれか1項に記載の管理サーバ。
  9. 仮想マシンが動作する複数の物理サーバと、
    前記複数の物理サーバが接続されたネットワークを管理する管理サーバであって、
    前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得部と、
    前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定部と、
    前記条件決定部で前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御部と、を含む管理サーバと
    を有することを特徴とする仮想化システム。
  10. 仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンを別の物理サーバに移動するマイグレーション方法であって、
    前記ネットワークを構成する総てのリンクの使用状況を取得するステップと、
    前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定するステップと、
    前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定するステップと、
    前記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行するステップと
    を有することを特徴とするマイグレーション方法。
  11. 前記並列処理数を決定するステップでは、前記総未使用帯域に基づいて、前記総未使用帯域のうちの所定の割合として規定される前記仮想マシンのマイグレーションへの使用可能帯域を算出し、前記使用可能帯域に基づいて、前記仮想マシンのマイグレーションの前記並列処理数を決定する
    ことを特徴とする請求項10記載のマイグレーション方法。
  12. 前記仮想マシンの移動元の物理サーバと移動先の物理サーバとを示すリストを生成するステップを更に有し、
    前記移動経路を決定するステップでは、前記リストに従い、優先度の高いタスクから順に前記移動経路を決定する
    ことを特徴とする請求項10又は11記載のマイグレーション方法。
  13. 前記リストは、省電力効果の大きいタスクほど優先度が高く設定されている
    ことを特徴とする請求項12記載のマイグレーション方法。
  14. 前記省電力効果は、前記仮想マシンのマイグレーションの前後における消費電力の差から前記仮想マシンのマイグレーションにより消費される電力を差し引いた電力量によって規定されている
    ことを特徴とする請求項13記載のマイグレーション方法。
  15. 前記並列処理数を決定するステップでは、前記使用可能帯域と、前記仮想マシンのマイグレーションで使用する平均帯域と、前記ネットワークの平均ホップ数又は総リンク数とに基づき、前記並列処理数を決定する
    ことを特徴とする請求項11乃至14のいずれか1項に記載のマイグレーション方法。
  16. 前記移動経路を決定するステップでは、使用帯域が閾値以上の前記リンクを除外して前記移動経路を決定する
    ことを特徴とする請求項10乃至15のいずれか1項に記載のマイグレーション方法。
  17. 前記移動経路を決定するステップでは、前記ネットワークが回線交換方式のリンクを含む場合、前記回線交換方式のリンクが2以上の前記移動経路で使用されないように、前記移動経路を決定する
    ことを特徴とする請求項10乃至16のいずれか1項に記載のマイグレーション方法。
  18. 仮想マシンが動作する複数の物理サーバが接続されたネットワークを含む仮想化システムにおいて、前記仮想マシンのマイグレーションを管理する管理サーバにおいて実行されるプログラムであって、コンピュータを、
    前記ネットワークを構成する総てのリンクの使用状況を取得する情報取得手段、
    前記ネットワークの全体における前記リンクの総未使用帯域に基づき、前記仮想マシンのマイグレーションの並列処理数を決定し、前記並列処理数の前記仮想マシンのマイグレーションのタスクについて、前記仮想マシンの移動経路をそれぞれ決定する条件決定手段、
    前記条件決定手段で記移動経路を決定した前記並列処理数の前記仮想マシンのマイグレーションを並列して実行する実行制御手段
    として機能させるプログラム。
  19. 請求項18に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
JP2016068428A 2016-03-30 2016-03-30 仮想化システム、管理サーバ及びマイグレーション方法 Pending JP2017182435A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016068428A JP2017182435A (ja) 2016-03-30 2016-03-30 仮想化システム、管理サーバ及びマイグレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068428A JP2017182435A (ja) 2016-03-30 2016-03-30 仮想化システム、管理サーバ及びマイグレーション方法

Publications (1)

Publication Number Publication Date
JP2017182435A true JP2017182435A (ja) 2017-10-05

Family

ID=60007460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068428A Pending JP2017182435A (ja) 2016-03-30 2016-03-30 仮想化システム、管理サーバ及びマイグレーション方法

Country Status (1)

Country Link
JP (1) JP2017182435A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023135996A (ja) * 2022-03-16 2023-09-29 王子ホールディングス株式会社 合紙及び該合紙を加工して得られる紙加工品
JP7460594B2 (ja) 2021-12-13 2024-04-02 株式会社日立製作所 管理システム、データリバランス管理方法、及びデータリバランス管理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7460594B2 (ja) 2021-12-13 2024-04-02 株式会社日立製作所 管理システム、データリバランス管理方法、及びデータリバランス管理プログラム
JP2023135996A (ja) * 2022-03-16 2023-09-29 王子ホールディングス株式会社 合紙及び該合紙を加工して得られる紙加工品

Similar Documents

Publication Publication Date Title
US9569245B2 (en) System and method for controlling virtual-machine migrations based on processor usage rates and traffic amounts
EP3606008B1 (en) Method and device for realizing resource scheduling
US9749402B2 (en) Workload deployment with real-time consideration of global network congestion
US8862744B2 (en) Optimizing traffic load in a communications network
Yeganeh et al. Beehive: Towards a simple abstraction for scalable software-defined networking
US11411799B2 (en) Scalable statistics and analytics mechanisms in cloud networking
US11121940B2 (en) Techniques to meet quality of service requirements for a fabric point to point connection
JP2014138244A (ja) 集中管理型網制御システム
US11374820B2 (en) Centralized controller-based dynamic network bandwidth allocation and management
JP2017059885A (ja) コントローラ及び経路再設定方法
US20160337245A1 (en) Network element controller, and control apparatus and method for controlling network element controllers
JP6886624B2 (ja) ネットワークシステム、ネットワーク制御装置、方法およびプログラム
US11212174B2 (en) Network management device and network management method
US11695631B1 (en) Generating candidate links and candidate paths before selecting links for an optimized optical network plan
US9769022B2 (en) Timeout value adaptation
JP2017182435A (ja) 仮想化システム、管理サーバ及びマイグレーション方法
JP2013187656A (ja) 分散型クラウドインフラのための網制御システム及び経路管理サーバ及び網制御方法及びプログラム
KR20210056655A (ko) 클라우드 엣지 환경에서 예측 기반 마이그레이션 후보 및 대상 선정 방법
US9391916B2 (en) Resource management system, resource management method, and computer product
JP7176633B2 (ja) 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム
JP2016220126A (ja) ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
JP5758358B2 (ja) 仮想マシンシステム及びその高速ライブマイグレーション方法
CN115865791B (zh) 骨干网络故障的路径切换方法、***、介质及电子设备
WO2023218664A1 (ja) リプレースシステム及びリプレース方法
Shang et al. Dynamic load balancing in the control plane of software-defined networks

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180413