JP2014206805A - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
JP2014206805A
JP2014206805A JP2013082761A JP2013082761A JP2014206805A JP 2014206805 A JP2014206805 A JP 2014206805A JP 2013082761 A JP2013082761 A JP 2013082761A JP 2013082761 A JP2013082761 A JP 2013082761A JP 2014206805 A JP2014206805 A JP 2014206805A
Authority
JP
Japan
Prior art keywords
hardware resources
migration
virtual machines
resource
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013082761A
Other languages
English (en)
Inventor
浩一 矢作
Koichi Yahagi
浩一 矢作
浩樹 杉澤
Hiroki Sugisawa
浩樹 杉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUFG Bank Ltd
Original Assignee
Bank of Tokyo Mitsubishi UFJ Trust Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of Tokyo Mitsubishi UFJ Trust Co filed Critical Bank of Tokyo Mitsubishi UFJ Trust Co
Priority to JP2013082761A priority Critical patent/JP2014206805A/ja
Publication of JP2014206805A publication Critical patent/JP2014206805A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】稼働環境の利用効率を上げることの可能な仮想マシンの制御装置を得ること。
【解決手段】複数の仮想マシンが動作可能な複数のハードウェア資源の性能情報を格納するテーブルを記憶する記憶部と、複数の仮想マシンを複数のハードウェア資源で動作させることによる複数のハードウェア資源の現在のリソース消費量を測定するリソース測定部と、複数の仮想マシンを複数のハードウェア資源間においてマイグレーションさせた後の複数の仮想マシンを複数のハードウェア資源で動作させることによる複数のハードウェア資源のリソース消費量を算出するリソース算出部と、リソース測定部により測定された現在のリソース消費量よりもリソース算出部により算出されたリソース消費量が小さければ複数の仮想マシンを複数のハードウェア資源間においてマイグレーションさせるマイグレーション部とを有する制御装置を提供する。
【選択図】図1

Description

本発明は、仮想マシンの制御装置に関する。
コンピュータ・システムの耐障害性の向上にはシステム構成の冗長化が有効である。例えば、安定稼働に対する要求水準の高いコンピュータ・システムでは、現用系が障害の発生により稼働を停止すると稼働状態へ切り替わる待機系が追加されたシステム構成が採用されることが一般的である。この場合、障害発生時に備えて待機系には現用系と同等のリソースが必要とされる。しかし、現用系の稼働中に待機系のリソースを利用することはないため、余剰リソースが生じる状況となっている。
昨今では、仮想化技術を用いることに伴い、動作中の仮想マシン(VM:Virtual Machine)で動作するOSやソフトウェアを停止させずに他の物理サーバに移行させるライブマイグレーション(live migration)技術を用いて、動作中の物理サーバの負荷が高い場合にも、余剰リソースを有する他の物理サーバに、サービスを停止することなく仮想マシンを移行させて動作させようとするものがある(例えば、特許文献1参照)。
特開2011−197852号公報
しかしながら、上述した特許文献1に記載の発明は、リソース不足の発生時に、管理サーバが、複数の物理サーバに対してリソースの使用率を通知するように依頼する構成を備えることから、その時点で余剰リソースを充分に有する物理サーバを確保できない場合には、安全にマイグレーションを実行できない虞がある。
また、複数の物理サーバを含むシステム全体としてのリソースの消費量が低減されるものではないことから、一時的にリソース不足を解消することができたとしても、システム全体としての稼働環境の利用効率を上げることはできない虞がある。なお、ここで、「システム」とは、複数の仮想マシンを動作させる複数の物理サーバ等のハードウェア資源が、管理サーバ等の制御装置とネットワークを介して相互に通信可能に接続されて構成される仮想環境のことをいうものとする。
本発明は上記事実を考慮して成されたもので、その課題は、複数のハードウェア資源間でライブマイグレーションを効率的且つ安全に運用可能とし、システム全体としてのリソースの最適化を図ることにより稼働環境の利用効率を上げることのできる仮想マシンの制御装置を得ることである。
本発明の一実施形態によると、1または複数の仮想マシンが動作可能な複数のハードウェア資源の性能情報を格納する第1のテーブルを記憶する記憶部と、前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量を測定するリソース測定部と、前記1または複数の仮想マシンを前記複数のハードウェア資源間において前記複数のハードウェア資源のうち前記性能情報に従って高い性能を有するハードウェア資源にマイグレーションさせた後の前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源のリソース消費量を算出するリソース算出部と、前記リソース測定部により測定された現在のリソース消費量よりも前記リソース算出部により算出されたリソース消費量が小さければ、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせるマイグレーション部とを有する制御装置が提供される。
前記記憶部は、前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否を示す情報を格納する第2のテーブルを記憶し、前記マイグレーション部は、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせる際に、前記第2のテーブルに記憶されたマイグレーションの可否に従ってマイグレーションの実行を決定してもよい。
前記第1のテーブルは、前記複数のハードウェア資源の性能情報に基づく順位を示すランク情報を格納し、前記リソース算出部は、前記第1のテーブルに格納されたランク情報に基づき、前記1または複数の仮想マシンをマイグレーションさせる前記複数のハードウェア資源を決定してもよい。
前記リソース測定部は、前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量の時間変動の統計情報を算出するリソース統計情報算出部を有し、前記リソース統計情報算出部により算出された統計情報を用いて時間帯別の前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否を算出して前記第2のテーブルに格納する時間帯別算出部とを有してもよい。
前記第2のテーブルは、前記1または複数の仮想マシンついてリアルタイムでのマイグレーションの可否を示す情報を格納し、前記マイグレーション部は、前記第2のテーブルに格納された前記1または複数の仮想マシンそれぞれのリアルタイムのライブマイグレーションの可否に応じてリアルタイム又はバッチ処理によりマイグレーションさせてもよい。
前記第2のテーブルは、前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否をマイグレーションの優先度により表して格納してもよい。
前記複数のハードウェア資源の性能情報を取得する性能情報取得部と、前記性能情報取得部により取得された性能情報を前記複数のハードウェア資源間において統一された尺度で表現した性能情報に変換して前記第1のテーブルに格納する性能情報変換部とを有してもよい。
また、本発明の一実施形態によると、1または複数の仮想マシンが動作可能な複数のハードウェア資源の性能情報を格納する第1のテーブルを記憶し、前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量を測定し、前記1または複数の仮想マシンを前記複数のハードウェア資源間において前記複数のハードウェア資源のうち前記性能情報に従って高い性能を有するハードウェア資源にマイグレーションさせた後の前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源のリソース消費量を算出し、前記測定された現在のリソース消費量よりも前記算出されたリソース消費量が小さければ、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせることをコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体が提供される。
本発明によれば、複数のハードウェア資源間でライブマイグレーションを効率的且つ安全に運用可能とし、システム全体としてのリソースの最適化を図ることにより稼働環境の利用効率を上げることのできる仮想マシンの制御装置が提供される。
本発明の一実施形態に係るシステムの概略構成を示すブロック図である。 本発明の一実施形態に係る仮想マシンの制御装置が有するテーブルを示す図である。 本発明の一実施形態に係る仮想マシンの制御装置が有するテーブルを示す図である。 本発明の一実施形態に係る仮想マシンの制御装置における処理の流れを示すフローチャートである。 本発明の一実施形態に係る仮想マシンの制御装置における処理を説明するための図である。
以下、本発明の仮想マシンの制御装置について、図1乃至図5を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係るシステム10の概略構成を示すブロック図である。図1に示すように、本発明の一実施形態に係るシステム10は、複数の物理サーバ13−1、13−2と、制御装置11とがネットワーク12を介して相互に通信可能に接続された構成を備える。なお、図1には、システム10を構成するハードウェア資源の一例として、「物理サーバ」を図示しているが、仮想マシンが動作可能なハードウェア資源であれば、物理サーバに限らず、ストレージ装置等であってもよい。
物理サーバ13−1は、複数の仮想マシンVM1、VM2、VM3を動作させる物理マシンであり、物理サーバ13−2は、複数の仮想マシンVM4、VM5、VM6を動作させる物理マシンである。物理サーバ13−1、13−2は、それぞれ仮想マシンVM1〜VM6を用いてWebサービス等を提供し、例えばIaaS(Infrastructure as a Service)などを実現するサーバである。なお、図1には、一つの物理サーバに対して3つの仮想マシンを備える構成を図示しているが、以下、物理サーバ及び仮想マシンの数は、任意の1以上の数とする。
制御装置11は、記憶部11−1と、リソース測定部11−2と、リソース算出部11−3と、マイグレーション部11−4とを備える。記憶部11−1は、複数の仮想マシンVM1〜VM6が動作可能な複数の物理サーバ13−1、13−2の性能情報を格納する第1のテーブルを有する。また、記憶部11−1は、複数の物理サーバ13−1、13−2間における複数の仮想マシンVM1〜VM6のマイグレーションの可否を示す情報を格納する第2のテーブルを有していてもよい。
リソース測定部11−2は、複数の仮想マシンVM1〜VM6を複数の物理サーバ13−1、13−2で動作させることによる複数の物理サーバ13−1、13−2の現在のリソース消費量を測定する。
リソース算出部11−3は、複数の仮想マシンVM1〜VM6を複数の物理サーバ13−1、13−2間においてマイグレーションさせた後の複数の仮想マシンVM1〜VM6を複数の物理サーバ13−1、13−2で動作させることによる複数の物理サーバ13−1、13−2のリソース消費量を算出する。
マイグレーション部11−4は、リソース測定部11−2により測定された現在のリソース消費量よりもリソース算出部11−3により算出されたリソース消費量が小さければ、複数の仮想マシンVM1〜VM6を複数の物理サーバ13−1、13−2間においてマイグレーションさせる。このとき、マイグレーション部11−4は、第2のテーブルに記憶されたマイグレーションの可否に従ってマイグレーションの実行を決定してもよい。
このような構成を備える制御装置11によるマイグレーションの処理について、以下、図2及び図3を参照し、上述した記憶部11−1が有するテーブルの構成について詳細に述べる。
図2及び図3は、本発明の一実施形態に係る制御装置11の記憶部11−1が有するテーブルの一例を示す図である。図2(a)は、複数の物理サーバ1〜3の性能情報を格納する第1のテーブルの一例を示し、図3(a)は、複数の仮想マシン1〜3のマイグレーションの可否を示す情報を格納する第2のテーブルの一例を示したものである。
なお、ここで、第1のテーブルが記憶する性能情報とは、ハードウェア資源の応答時間に関して定義される数値とすることができる。性能情報は、例えば、物理サーバ1〜3等のハードウェア資源の、CPUクロック数、スペック(SPEC)値、rPerf値であってもよい。また、性能情報は、管理者や利用者等により任意に定義される値であり得る。
第1のテーブルは、図2(a)に示すように、複数の物理サーバ1〜3の性能情報と、複数の物理サーバ1〜3のランク情報及び状況に関する情報などを記憶するものであってもよい。このとき、性能情報には、図2(a)に示すように、演算ユニットあたりの性能値及びシステム性能値が含まれるものであってもよい。
演算ユニットあたりの性能値とは、各物理サーバ1〜3の処理能力を演算単位あたりの数値で示したものである。例えば、CPUコア1つあたりの処理能力を数値で示したCPU性能値であってもよい。なお、ここで、CPU性能値とは、各物理サーバ1〜3の任意の数のCPUの処理能力を表すものであってもよい。
システム性能値とは、各物理サーバ1〜3の能力を数値で示したものであり、CPU数のみならず、メモリ、ネットワーク帯域、ハードディスクなどのリソースの大きさに応じて設定される値である。システム性能値は、上記演算ユニットあたりの性能値及び後述するメーカー毎に設定された性能値を参照し、制御装置11の管理者などにより算出された値であってもよい。
各物理サーバ1〜3のランク情報は、各物理サーバ1〜3の性能情報に基づき、各物理サーバ1〜3を順位付けした情報である。ランク情報は、性能値の高い物理サーバ1〜3から順に付番した数値であってもよい。このようなランク情報を用いることにより、後述するマイグレーションの処理において、ランキング順位の高い、すなわち、高い性能を有する物理サーバから優先して仮想マシンの処理を集約するように仮想マシンをマイグレーションさせることが可能となる。このように、ランク情報は、低い性能を有する物理サーバを適宜除却することができるように、高い性能を有する物理サーバに仮想マシンの処理を集約させる優先度として設定されるものであってもよい。
各物理サーバ1〜3の状況に関する情報は、各物理サーバ1〜3の現在の状況に関する情報が記憶されていてもよい。例えば、図2(a)に示すように、物理サーバ3に障害が発生した場合や、メンテナンス作業を行っている場合等には、管理者などにより状況の欄に「1」が設定され、物理サーバ3に対してマイグレーションが実行されないように設定されていてもよい。
また、記憶部11−1は、図2(b)に示すように、図2(a)に示す第1のテーブルに加えて、複数の物理サーバ1〜3のメーカー毎の性能値を記憶するテーブルを有するものであってもよい。複数の物理サーバ1〜3には、メーカー毎の独自の基準に基づく性能値が設計されていることがある。図2(b)は、このようなメーカー毎の性能値の情報を記憶するテーブルを示すものである。
制御装置11は、複数の物理サーバ1〜3に対し、メーカー毎に異なる基準に基づき性能値が定義されている場合には、メーカー毎の性能値を、統一された尺度で表現した性能情報に変換し、第1のテーブルに格納してもよい。制御装置11は、複数の物理サーバ1〜3の性能情報を取得する性能情報取得部と、性能情報取得部により取得された性能情報を複数の物理サーバ1〜3間において統一された尺度で表現した性能情報に変換して第1のテーブルに格納する性能情報変換部とを有しており、性能情報変換部が、メーカー毎の性能値をシステム性能値に変換し、第1のテーブルに格納してもよい。
次に、図3を参照し、複数の仮想マシン1〜3に関する情報を格納するテーブルについて説明する。図3(a)に示すように、複数の仮想マシン1〜3に関する情報を格納する第2のテーブルは、複数の仮想マシン1〜3のマイグレーションの可否を示す情報を記憶するテーブルである。
図3(a)に示すように、複数の仮想マシン1〜3に関する情報を記憶するテーブルは、マイグレーション方法、マイグレーション可否、及びマイグレーションの優先度に関する情報を記憶するものであってもよい。
仮想マシン1〜3のマイグレーション方法の欄には、例えば、自動的にリアルタイムでマイグレーションを実行する場合には「0」を設定し、バッチ処理により自動的にマイグレーションを開始して実行する場合には「1」を設定し、管理者などにより手動でマイグレーションを実行する場合には「2」を設定し、管理者などによる目視確認後にバッチ処理により自動的にマイグレーションを開始して実行する場合には「3」などを設定してもよい。これにより、仮想マシン1〜3について、管理者の所望のマイグレーション方法をそれぞれ設定しておくことができる。
マイグレーション可否の欄には、仮想マシン1〜3の各々についてマイグレーションを実行する場合には「0」を、マイグレーションを実行しない場合には「1」を設定することができる。これにより、例えば、図3(a)に示す仮想マシン3について、マイグレーション方法の欄に、手動でマイグレーションを実行することが設定されていたとしても、マイグレーション可否の欄で、マイグレーションを実行できないように設定することができる。
優先順位の欄においては、マイグレーションの優先度を設定することができる。例えば、図3(a)に示すように、仮想マシン1の優先順位を「1」とし、仮想マシン2の優先順位を「2」とした場合には、複数の仮想マシン1〜3のうち、仮想マシン1を仮想マシン2よりも優先させてマイグレーションさせることを決定することができる。
また、図3(b)及び(c)に示すように、記憶部11−1は、複数の仮想マシン1〜3のリソース使用率(%)を参照するためのテーブル番号を記憶するテーブルと、時間毎のリソース使用率(%)を記憶するテーブルとを含むものであってもよい。
図3(b)に示すリソース使用率参照テーブル番号は、図3(c)に示すテーブル番号に対応する。仮想マシン1〜3には、それぞれ時間帯毎に所定のリソース使用率のパターンがあり、図3(c)に示す各テーブルは、時間帯毎のリソース使用率の平均値を算出し、そのパターンを表したものである。図3(c)に示す時間帯毎のリソース使用率のテーブルを参照することにより、余剰リソースのある時間帯を判断してマイグレーションを実行することができる。
図3(c)に示す時間帯毎のリソース使用率のデータは、制御装置11のリソース測定部11−2が測定したリソース消費量を統計化することにより算出されてもよい。以下、このようなリソース消費量を統計化した情報を、統計情報という。また、統計情報は、図3(c)に示す時間帯毎のリソース使用率のデータに限らず、各仮想マシン1〜3の時間帯毎の利用CPU数やCPU利用時間などのデータを含んでいてもよい。
このような統計情報は、リソース測定部11−2のリソース統計情報算出部により算出される。リソース測定部11−2は、複数の仮想マシン1〜3を複数の物理サーバ1〜3で動作させることによる複数の物理サーバ1〜3の現在のリソース消費量の時間変動の統計情報を算出するリソース統計情報算出部と、リソース統計情報算出部により算出された統計情報を用いて時間帯別の複数の仮想マシン1〜3の複数の物理サーバ1〜3間におけるマイグレーションの可否を算出し、第2のテーブルに格納する時間帯別算出部とを有していてもよい。
このように、制御装置11は、記憶部11−1が有するテーブルに格納された情報を用いて、複数の物理サーバ1〜3間で複数の仮想マシン1〜3のマイグレーションを実行する。
以下、図4を参照し、制御装置11によるマイグレーション処理についてさらに詳細に述べる。
図4は、本発明の一実施形態に係る制御装置11によるマイグレーションの処理の流れを示すフローチャートである。
図4に示すように、制御装置11は、まず、システム10に含まれている各物理サーバ1〜3の性能情報を含む性能データを取得する(S210)。S210において、制御装置11の性能情報取得部は、第1のテーブルに格納された各物理サーバ1〜3の性能値、ランク情報、現在の状況情報などを取得する。
次に、制御装置11は、各仮想マシン1〜3の現在のリソース消費量のデータを測定する(S220)。制御装置11のリソース測定部11−2は、複数の仮想マシン1〜3を、複数の物理サーバ1〜3で動作させることによる複数の物理サーバ1〜3の現在のリソース消費量を測定する。
次に、制御装置11は、比較データ処理を実行する(S230)。S230において、制御装置11のリソース算出部11−3は、まず、複数の仮想マシン1〜3を複数の物理サーバ1〜3間においてマイグレーションさせた後の、複数の仮想マシン1〜3を各物理サーバ1〜3で動作させることによる複数の物理サーバ1〜3のリソース消費量を算出する。
このとき、リソース算出部11−3は、第1のテーブルに格納された物理サーバ1〜3のランク情報及び第2のテーブルに格納された仮想マシン1〜3の優先順位などの情報に基づき、マイグレーションを実行する仮想マシン1〜3とマイグレーション先の物理サーバ1〜3との組み合わせ及びマイグレーションの順番のパターンを決定してもよい。マイグレーションを実行する仮想マシン1〜3は、第2のテーブルに格納された仮想マシン1〜3の優先順位の情報に基づき、優先順位の高いものから順にマイグレーションを実行することが決定されてもよい。また、マイグレーション先の物理サーバ1〜3は、第1のテーブルに格納された各物理サーバ1〜3のランク情報に基づき、ランキング順位の高いものからマイグレーション先として決定されてもよい。
このように決定されたパターン毎にそれぞれマイグレーションさせた後の各物理サーバ1〜3のリソース消費量をシミュレーションにより算出する。
次に、制御装置11のマイグレーション部11−4は、リソース測定部11−2により測定された現在のリソース消費量と、リソース算出部11−3により算出されたマイグレーションさせた後のリソース消費量とを比較する。比較処理の結果、現在のリソース消費量よりも、算出されたマイグレーションさせた後のリソース消費量が小さい場合に、仮想マシン1〜3とマイグレーション先の物理サーバ1〜3との組み合わせ及びマイグレーションの順番のパターンを決定する。
次に、制御装置11は、マイグレーションの可否を判断する(S240)。制御装置11のマイグレーション部11−4は、第2のテーブルに格納されたマイグレーションの可否を示す情報に基づき、S230において決定された、仮想マシン1〜3とマイグレーション先の物理サーバ1〜3との組み合わせ及びマイグレーションの順番のパターンについて、それぞれ実際にマイグレーションが可能か否かを判断する。
S240においてマイグレーションが可能であると判断された場合には、制御装置11は、リアルタイムでのマイグレーション処理の可否を判断する(S250)。このとき、マイグレーション部11−4は、第2のテーブルに格納された各仮想マシン1〜3のマイグレーション方法の情報に基づき、リアルタイムでのマイグレーション処理の可否を決定してもよい。例えば、マイグレーション対象の仮想マシン1〜3の全てについて、マイグレーション方法として自動実行が設定されている場合には、リアルタイムでのマイグレーションを実行してもよい。
また、図3(b)及び(c)に示すテーブルに格納された情報を用いて、各仮想マシン1〜3の時間帯毎のリソース使用率を参照し、リアルタイムでのマイグレーションの可否を判断してもよい。例えば、マイグレーション対象の仮想マシン1〜3のリソース使用率が、予め設定した閾値よりも高い場合には、リアルタイムでのマイグレーションが実行できないように設定されていてもよい。また、上述した第2のテーブルに格納されたマイグレーション方法の情報とともに、上述した時間毎のリソース使用率の情報をいずれも参照し、リアルタイムまたはバッチ処理でのマイグレーションの実行が決定されてもよい。
S250において、リアルタイムでのマイグレーションができないと判断された場合には、S260において、バッチ処理でのマイグレーションを実行する。バッチ処理によるマイグレーションは、各仮想マシン1〜3を使用していない時間帯に管理者などにより手動で実行されるものであってもよく、予め設定されたスケジュールに従って自動的に開始されて実行されるものであってもよい。
また、S250において、リアルタイムのマイグレーションが可能であると判断された場合には、制御装置11は、リアルタイムでのマイグレーションを実行する。
このように、本発明の制御装置11によれば、マイグレーションを実行する前に、リアルタイムでの実行可否を判断する構成を備えることから、複数の物理サーバ1〜3間でライブマイグレーションを効率的且つ安全に運用可能とすることが可能となる。
以上のとおり、本発明の制御装置11によるマイグレーションの処理によれば、高い性能を有する物理サーバ1〜3に仮想マシン1〜3の処理を集約させて、システム全体としてのリソース消費量をマイグレーション前のリソース消費量よりも低減させることにより、システム全体としてのリソースの利用効率を高めることが可能となる。また、複数の物理サーバ1〜3のうち、高い性能を有する物理サーバ1〜3に処理を集約させた後、仮想マシン1〜3が動作しなくなった物理サーバ1〜3を除却することも可能となる。
以下、図5を参照し、本発明の一実施例として、仮想マシンA〜Eが動作可能なハードウェア資源として複数のストレージ装置1、2間において仮想マシンA〜Eをマイグレーションさせる処理について説明する。
図5は、本発明の一実施形態に係る仮想マシンの制御装置11により、CPU性能値の異なるストレージ装置1とストレージ装置2との間で仮想マシンBと仮想マシンEとをそれぞれマイグレーションさせる処理を説明するための図である。
ストレージ装置1は、CPU性能値が「a」であり、ストレージ装置2は、CPU性能値が「b=2a」であるものとする。図5(a)に示すように、マイグレーション実行前のストレージ装置1では、仮想マシンA及びBが動作しており、図5(b)に示すように、マイグレーション実行前のストレージ装置2では、仮想マシンC、D及びEが動作している。
このとき、制御装置11の性能情報取得部は、記憶部11−1が有する第1のテーブルから、ストレージ装置1のCPU性能値が「a」であり、ストレージ装置2のCPU性能値が「b=2a」であるという情報を取得する(S210)。
次に、制御装置11のリソース測定部11−2は、複数の仮想マシンA〜Eを、複数のストレージ装置1、2でそれぞれ動作させることによる複数のストレージ装置1、2の現在のリソース消費量を測定する(S220)。
図5(a)に示すように、リソース測定部11−2により、マイグレーション実行前は、CPU性能値「a」のストレージ装置1において、仮想マシンAは、2CPUコアで60分かかる処理を実行し、仮想マシンBは、6CPUコアで40分かかる処理を実行することが測定される。また、リソース測定部11−2により、CPU性能値「b=2a」のストレージ装置2において、仮想マシンCは、2CPUコアで60分かかる処理を実行し、仮想マシンDは、2CPUコアで20分かかる処理を実行し、仮想マシンEは、0.5CPUコアで30分かかる処理を実行することが測定される。
リソース測定部11−2は、これらの測定情報を用いて、システム全体としてのリソース消費量を算出してもよい。ここで、システム全体としてのリソース消費量は、例えば、図5(a)及び(b)に示すように、1CPUコアによる10分の処理量を1とすると、55と表すことができる。
次に、制御装置11のリソース算出部11−3は、比較データ処理を実行する(S230)。まず、リソース算出部11−3は、第1のテーブルに格納されたストレージ装置1、2のランク情報及び第2のテーブルに格納された仮想マシンA〜Eの優先順位などの情報に基づき、マイグレーションを実行する仮想マシンA〜Eとマイグレーション先のストレージ装置1、2との組み合わせ及びマイグレーションの順番のパターンを決定する。
例えば、第2のテーブルには、仮想マシンA〜Eの優先順位の情報として、仮想マシンA及び仮想マシンCは、他の仮想マシンの処理時間と比べて長い処理時間を要することから、マイグレーションを実行する優先順位が低く設定されているものとする。一方、仮想マシンB及び仮想マシンEに対しては、優先順位が高く設定されているものとする。また、第1のテーブルには、ストレージ装置2のCPU性能値が、ストレージ装置1のCPU性能値よりも高いことから、ストレージ装置2に優先して仮想マシンA〜Eの処理を集約するように、ランク情報が設定されているものとする。これらの情報に基づき、複数のマイグレーションを実行する仮想マシンA〜Eとマイグレーション先のストレージ装置1、2との組み合わせ及びマイグレーションの順番のパターンが決定される。
このように決定されたパターン毎にそれぞれマイグレーションさせた後の各ストレージ装置1、2のリソース消費量をシミュレーションにより算出する。例えば、図5にA1の矢印で示すように、ストレージ装置2で動作する仮想マシンEをストレージ装置1にマイグレーションさせ、図5にA2の矢印で示すように、ストレージ装置1で動作する仮想マシンBをストレージ装置2にマイグレーションさせるパターンが決定されるとする。このパターンに基づき、マイグレーションを実行すると、図5(c)に示すように、ストレージ装置1にマイグレーションされた仮想マシンEは、CPU性能値「b=2a」のストレージ装置2では0.5CPUコアで30分かかる処理を実行していたところ、同じ処理を、CPU性能値「b」の半分であるCPU性能値「a」のストレージ装置1では1CPUコアを利用して30分で完了させることが可能となる。また、図5(d)に示すように、ストレージ装置2にマイグレーションされた仮想マシンBは、CPU性能値「a」のストレージ装置1では6CPUコアで40分かかる処理を実行していたところ、同じ処理を、CPU性能値「a」の2倍であるCPU性能値「b」のストレージ装置2では6CPUコアを利用して20分で完了させることが可能となる。
このようなシミュレーションにより算出されるマイグレーションさせた後のリソース消費量は、上述した現在のリソース消費量と同様の方法で表すと、図5(c)及び(d)に示すように、1CPUコアによる10分の処理量を1として、43と表すことができる。
次に、制御装置11のマイグレーション部11−4は、リソース測定部11−2により測定された現在のリソース消費量と、リソース算出部11−3により算出されたマイグレーションさせた後のリソース消費量とを比較する。比較処理の結果、現在のリソース消費量である55よりも、算出されたマイグレーションさせた後のリソース消費量である43が小さいことから、仮想マシンEをストレージ装置1に移行し、仮想マシンBをストレージ装置2に移行するパターンが決定される。
次に、制御装置11は、マイグレーションの可否を判断する(S240)。制御装置11のマイグレーション部11−4は、第2のテーブルに格納されたマイグレーションの可否を示す情報に基づき、決定されたパターンについて実際にマイグレーションが可能か否かを判断する。さらに、マイグレーション部11−4は、第2のテーブルに格納された各仮想マシン1、2のマイグレーション方法の情報に基づき、リアルタイムまたはバッチ処理でのマイグレーション処理の実行を決定する(S250)。上述したように、マイグレーション処理は、仮想マシンA〜Eの処理が実行されていない時間帯に、バッチ処理などで開始することを予め設定しておくことができる。従って、仮想マシンA〜Eの不稼働時に、安全にマイグレーション処理を実行することができる。
マイグレーション処理が実行されると、図5(c)及び(d)に示すように、ストレージ装置2においては、最初の20分以降に8CPUコア分のリソースの不使用状態を生み出すことができる。また、ストレージ装置1においては、7CPUコア以上のリソースの不使用状態を生み出すことができる。従って、システム全体としては、マイグレーション前よりも、多くの余剰リソースを生み出すことが可能となる。また、性能値の低いストレージ装置1は、適宜除却することができるように、性能値の高い他のストレージ装置2に仮想マシンA〜Eを移行させていくことも可能なる。従って、ストレージ装置1よりも高い性能値を有するストレージ装置2に仮想マシンB〜Dの処理を集約させていくことにより、システム全体としてのリソースの使用効率を上げることが可能となる。また、集約の後、仮想マシンA〜Eが動作しなくなったストレージ装置1を除去することも可能となる。
このように、本発明の一実施形態に係る制御装置11によるマイグレーションの処理によれば、上述した物理サーバ1〜3及びストレージ装置1、2のような複数のハードウェア資源のうち、性能の高いハードウェア資源に仮想マシンA〜Eによる処理を集約することができるため、システム全体としてのリソース消費量を、マイグレーション前のリソース消費量よりも低減することが可能となる。従って、システム全体としてのリソースの利用効率を高める効果を奏することが可能となる。また、図5に一例として示すように、システム全体としての利用CPU数を減らすことにより、例えば、CPU数に応じて加算されるソフトウェアライセンスの料金を下げる効果等も奏することが可能となる。
なお、図5を参照して上述した実施例においては、ハードウェア資源の性能情報として、ストレージ装置1、2のCPU性能値を用いたマイグレーションの処理を例に挙げて説明したが、CPU性能値に限らず、メモリ、ネットワーク帯域、ハードディスクなどのリソースについても同様である。
以上のとおり、本発明の一実施形態に係る制御装置11によるマイグレーションの処理によれば、複数のハードウェア資源間においてライブマイグレーションを効率的且つ安全に運用可能とし、システム全体としてのリソースの最適化を図ることができるため、稼働環境の利用効率を上げることが可能となる。
10 システム
11 制御装置
12 ネットワーク
13 物理サーバ
11−1 記憶部
11−2 リソース測定部
11−3 リソース算出部
11−4 マイグレーション部

Claims (8)

  1. 1または複数の仮想マシンが動作可能な複数のハードウェア資源の性能情報を格納する第1のテーブルを記憶する記憶部と、
    前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量を測定するリソース測定部と、
    前記1または複数の仮想マシンを前記複数のハードウェア資源間において前記複数のハードウェア資源のうち前記性能情報に従って高い性能を有するハードウェア資源にマイグレーションさせた後の前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源のリソース消費量を算出するリソース算出部と、
    前記リソース測定部により測定された現在のリソース消費量よりも前記リソース算出部により算出されたリソース消費量が小さければ、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせるマイグレーション部と
    を有する制御装置。
  2. 前記記憶部は、前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否を示す情報を格納する第2のテーブルを記憶し、
    前記マイグレーション部は、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせる際に、前記第2のテーブルに記憶されたマイグレーションの可否に従ってマイグレーションの実行を決定する請求項1に記載の制御装置。
  3. 前記第1のテーブルは、前記複数のハードウェア資源の性能情報に基づく順位を示すランク情報を格納し、
    前記リソース算出部は、前記第1のテーブルに格納されたランク情報に基づき、前記1または複数の仮想マシンをマイグレーションさせる前記複数のハードウェア資源を決定する請求項1または2に記載の制御装置。
  4. 前記リソース測定部は、前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量の時間変動の統計情報を算出するリソース統計情報算出部を有し、
    前記リソース統計情報算出部により算出された統計情報を用いて時間帯別の前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否を算出して前記第2のテーブルに格納する時間帯別算出部と
    を有する請求項1から3のいずれかに記載の制御装置。
  5. 前記第2のテーブルは、前記1または複数の仮想マシンついてリアルタイムでのマイグレーションの可否を示す情報を格納し、
    前記マイグレーション部は、前記テーブルに格納された前記1または複数の仮想マシンそれぞれのライブマイグレーションの可否に応じてリアルタイム又はバッチ処理によりマイグレーションする請求項2に記載の制御装置。
  6. 前記第2のテーブルは、前記1または複数の仮想マシンの前記複数のハードウェア資源間におけるマイグレーションの可否をマイグレーションの優先度により表して格納する請求項2または5に記載の制御装置。
  7. 前記複数のハードウェア資源の性能情報を取得する性能情報取得部と、
    前記性能情報取得部により取得された性能情報を前記複数のハードウェア資源間において統一された尺度で表現した性能情報に変換して前記第1のテーブルに格納する性能情報変換部とを有する請求項1から6のいずれかに記載の制御装置。
  8. 1または複数の仮想マシンが動作可能な複数のハードウェア資源の性能情報を格納する第1のテーブルを記憶し、
    前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源の現在のリソース消費量を測定し、
    前記1または複数の仮想マシンを前記複数のハードウェア資源間において前記複数のハードウェア資源のうち前記性能情報に従って高い性能を有するハードウェア資源にマイグレーションさせた後の前記1または複数の仮想マシンを前記複数のハードウェア資源で動作させることによる前記複数のハードウェア資源のリソース消費量を算出し、
    前記測定された現在のリソース消費量よりも前記算出されたリソース消費量が小さければ、前記1または複数の仮想マシンを前記複数のハードウェア資源間においてマイグレーションさせることをコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2013082761A 2013-04-11 2013-04-11 制御装置 Withdrawn JP2014206805A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013082761A JP2014206805A (ja) 2013-04-11 2013-04-11 制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013082761A JP2014206805A (ja) 2013-04-11 2013-04-11 制御装置

Publications (1)

Publication Number Publication Date
JP2014206805A true JP2014206805A (ja) 2014-10-30

Family

ID=52120324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013082761A Withdrawn JP2014206805A (ja) 2013-04-11 2013-04-11 制御装置

Country Status (1)

Country Link
JP (1) JP2014206805A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162067A (ja) * 2015-02-27 2016-09-05 日本電気株式会社 情報処理システムおよびその制御方法
JP2019215813A (ja) * 2018-06-14 2019-12-19 富士通株式会社 障害対処プログラム及び障害対処方法
JP2020027530A (ja) * 2018-08-16 2020-02-20 富士通株式会社 管理装置、管理プログラムおよび情報処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116852A (ja) * 2007-10-18 2009-05-28 Fujitsu Ltd マイグレーションプログラム、および仮想マシン管理装置
JP2010250778A (ja) * 2009-04-20 2010-11-04 Ntt Data Corp コンピュータリソース提供システム、コンピュータリソース提供方法およびリソース取引プログラム
JP2012523620A (ja) * 2009-04-08 2012-10-04 マイクロソフト コーポレーション 最適化仮想マシンマイグレーション機構

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116852A (ja) * 2007-10-18 2009-05-28 Fujitsu Ltd マイグレーションプログラム、および仮想マシン管理装置
JP2012523620A (ja) * 2009-04-08 2012-10-04 マイクロソフト コーポレーション 最適化仮想マシンマイグレーション機構
JP2010250778A (ja) * 2009-04-20 2010-11-04 Ntt Data Corp コンピュータリソース提供システム、コンピュータリソース提供方法およびリソース取引プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162067A (ja) * 2015-02-27 2016-09-05 日本電気株式会社 情報処理システムおよびその制御方法
JP2019215813A (ja) * 2018-06-14 2019-12-19 富士通株式会社 障害対処プログラム及び障害対処方法
JP7193701B2 (ja) 2018-06-14 2022-12-21 富士通株式会社 障害対処プログラム及び障害対処方法
JP2020027530A (ja) * 2018-08-16 2020-02-20 富士通株式会社 管理装置、管理プログラムおよび情報処理システム

Similar Documents

Publication Publication Date Title
JP7138126B2 (ja) リソース配置を最適化するための適時性リソース移行
CN107003887B (zh) Cpu超载设置和云计算工作负荷调度机构
Beloglazov et al. Optimal online deterministic algorithms and adaptive heuristics for energy and performance efficient dynamic consolidation of virtual machines in cloud data centers
US10623481B2 (en) Balancing resources in distributed computing environments
US9104498B2 (en) Maximizing server utilization within a datacenter
US20150295970A1 (en) Method and device for augmenting and releasing capacity of computing resources in real-time stream computing system
Shen et al. A resource usage intensity aware load balancing method for virtual machine migration in cloud datacenters
RU2015114568A (ru) Автоматизированное профилирование использования ресурса
WO2014161391A1 (zh) 迁移虚拟机的方法和资源调度平台
Taherizadeh et al. Auto-scaling applications in edge computing: Taxonomy and challenges
JP2011186701A (ja) リソース割当装置、リソース割当方法、およびリソース割当プログラム
CN104199739A (zh) 一种基于负载均衡的推测式Hadoop调度方法
JP2010009160A (ja) 性能値算出装置
AU2018303662B2 (en) Scalable statistics and analytics mechanisms in cloud networking
Babu et al. Interference aware prediction mechanism for auto scaling in cloud
Lin et al. Capacity optimization for resource pooling in virtualized data centers with composable systems
JP2014206805A (ja) 制御装置
JP2011192049A (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
JP7176633B2 (ja) 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム
JP2015152987A (ja) 制御装置
Leite et al. Power‐aware server consolidation for federated clouds
JP2017182435A (ja) 仮想化システム、管理サーバ及びマイグレーション方法
Xu et al. Virtual machine migration strategy in federated cloud
JP6339978B2 (ja) リソース割当管理装置およびリソース割当管理方法
Kaur et al. Optimizing VM provisioning of MapReduce tasks on public cloud

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160921