JP2014215765A - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
JP2014215765A
JP2014215765A JP2013091646A JP2013091646A JP2014215765A JP 2014215765 A JP2014215765 A JP 2014215765A JP 2013091646 A JP2013091646 A JP 2013091646A JP 2013091646 A JP2013091646 A JP 2013091646A JP 2014215765 A JP2014215765 A JP 2014215765A
Authority
JP
Japan
Prior art keywords
virtual machine
hardware resources
amount
hardware
allocation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013091646A
Other languages
English (en)
Inventor
浩一 矢作
Koichi Yahagi
浩一 矢作
剛司 奥野
Goji Okuno
剛司 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUFG Bank Ltd
Original Assignee
Bank of Tokyo Mitsubishi UFJ Trust Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of Tokyo Mitsubishi UFJ Trust Co filed Critical Bank of Tokyo Mitsubishi UFJ Trust Co
Priority to JP2013091646A priority Critical patent/JP2014215765A/ja
Publication of JP2014215765A publication Critical patent/JP2014215765A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】仮想マシンによるハードウェア資源の使用時間に応じてハードウェア資源の割り当てを行うクラウドコンピューティング環境を提供する。
【解決手段】仮想マシンに割り当てるハードウェア資源に関する情報を格納する情報格納部と、前記仮想マシンが動作する計算機に、前記情報格納部に格納された情報に基づいて前記仮想マシンにハードウェア資源の割り当てをさせる割当実行部と、前記仮想マシンによるハードウェア資源の使用時間を測定し、前記使用時間に応じて前記情報格納部に格納されている情報を変更する変更部とを有する制御装置を提供する。
【選択図】図1

Description

本発明は、仮想マシンに対するハードウェア資源の割り当てを制御する制御装置、制御方法、及び制御プログラムなどに関する。特に、クラウドコンピューティング環境を提供する物理サーバの中で動作する仮想マシンに対するハードウェア資源の割り当てを制御するのに適する制御装置、制御方法、及び制御プログラムなどに関する。
物理サーバの中で仮想マシンを動作させる技術が知られている。このような技術を用いてクラウドコンピューティング環境が提供されている(例えば、特許文献1参照。)。また、クラウドコンピューティング環境を構築し、コンピューティングリソースを他社に提供する業者も出現している。
事業者が運営するサービスでありコンピューティングリソースを利用者に提供するサービスを利用する場合、利用者に対して物理サーバ内で動作する仮想マシンの使用権限が与えられ、一般に一つの物理サーバ内に複数の仮想マシンが動作する。また、課金は仮想マシンが使用したハードウェア資源の量に応じて行われる(例えば、特許文献2参照。)。
米国特許第7,870,044号明細書 特開2007−66256号公報
このため、利用者は、課金ができるだけ公平にされることを望む。また、事業者も、特定の利用者がハードウェア資源を大量に使用することにより、少数の利用者を相手に事業を行うよりも、多数の利用者がサービスを利用し、収入が安定することを望む。そこで、公平な課金及び利用者の安定化を目的とするコンピューティング環境を提供することを本発明の目的の一つとして、以下に開示を行う。
本発明の一実施形態として、仮想マシンに割り当てるハードウェア資源に関する情報を格納する情報格納部と、前記仮想マシンが動作する計算機に、前記情報格納部に格納された情報に基づいて前記仮想マシンにハードウェア資源の割り当てをさせる割当実行部と、前記仮想マシンによるハードウェア資源の使用時間を測定し、前記使用時間に応じて前記情報格納部に格納されている情報を変更する変更部とを有する制御装置を提供する。
本発明の一実施形態として、仮想マシンに割り当てるハードウェア資源に関する情報を格納する記憶装置を有するコンピュータに、前記仮想マシンが動作する計算機に、前記記憶装置に格納された情報に基づいて前記仮想マシンにハードウェア資源の割り当てをさせ、前記仮想マシンによるハードウェア資源の使用時間を測定し、前記使用時間に応じて前記情報格納部に格納されている情報を変更させるためのプログラムを提供する。
本発明によれば、適正な課金が実現されるコンピューティング環境が提供される。また、ハードウェア資源を効率的に使用するコンピューティング環境が提供される。
本発明の一実施形態に係るシステムの機能ブロック図である。 本発明の一実施形態におけるハードウェア割り当てテーブルの一例図である。 本発明の一実施形態におけるハードウェアを割り当てる処理のフローチャートである。 本発明の一実施形態におけるハードウェア使用時間を管理するテーブルの一例図である。 本発明の一実施形態におけるハードウェア使用時間を測定し管理する処理のフローチャートである。 本発明の一実施形態におけるハードウェアを割り当てる処理のフローチャートである。 本発明の一実施形態に係るシステムの機能ブロック図である。 本発明の一実施形態における時間経過に対するハードウェア資源の使用量の変化の一例を示すグラフである。 (a)本発明の一実施形態におけるハードウェア資源の使用量の変化の一例を示すグラフである。(b)本発明の一実施形態における時間経過に対するハードウェア資源の使用量の変化の一例を示すグラフである。
以下、本発明を実施するための形態について説明する。なお、本発明は以下の説明に限定されるものではなく、以下の説明に種々の変形を加えて本発明を実施することが可能である。
図1は、本発明の一実施形態に係るシステムの機能ブロック図を示す。システム100は、計算機101と制御装置102とを有する。計算機101は、コンピューティング環境を利用者に提供するために主に用いることができる。特に、計算機101は、クラウドコンピューティング環境を利用者に提供するために用いることができる。制御装置102は、計算機101の内部で動作する仮想マシンへのハードウェア資源の割り当てを制御するために主に用いられる。計算機101と制御装置102とは、ネットワークなどにより形成される通信回線により相互に通信が可能である。
計算機101は、ハードウェア資源として、HW1(111−1)、HW2(111−2)、…、HWm(111−m)を有する。ハードウェア資源としては、CPU、メモリ(一時記憶)、記憶領域(二次記憶)、ネットワークなどがある。図1においては、m個あるいはm種類のハードウェア資源が存在するが、ハードウェアの個数あるいは種類は、計算機101の構成により定められ、事実上任意の数とすることができる。また、計算機101は、制御部112を有する。制御部112は、通常は、ハードウェアとソフトウェアとの組み合わせにより構成される。また、制御部112は、ハードウェアのみによっても構成することができる。制御部112は、ハードウェア資源HW1(111−1)、HW2(111−2)、…、HWm(111−m)を、次に説明する仮想マシンに割り当てる制御を行う。制御部112は、場合によっては、ハイパーバイザと呼ばれる場合もある。
計算機101の内部では、仮想マシン(Virtual Machine(VM))として、VM1(113−1)、VM2(113−2)、…、VMn(113−n)が動作可能である。なお、図1では、n個の仮想マシンが示されているが、その上限は計算機101の構成により定められ、事実上任意の数とすることができる。それぞれの仮想マシンは、仮想化された計算機である。それぞれの仮想マシンは、計算機101で動作するプロセスとして実現され、そのようなプロセスにおいては、仮想化されたオペレーティングシステムを動作させることができる。また、仮想化されたオペレーティングシステムの管理下にて、(仮想的な)プロセスを動作させることができる。また、それぞれの仮想マシンが必要とするハードウェア資源を、制御部112が、HW1(111−1)、HW2(111−2)、…、HWm(111−m)の中から割り当てることにより、仮想マシンが動作することができる。
制御装置102は、HW割当情報保持部121と、HW割当実行部122と、変更部123とを有する。制御装置102も、通常は、コンピュータというハードウェアとソフトウェアとの組み合わせにより構成される。また、制御装置102は、専用LSIなどのハードウェアのみによっても構成することができる。
HW割当情報保持部121は、HW割当情報を保持(あるいは格納)する。HW割当情報は、計算機101内の仮想マシンへのハードウェア資源の割り当てに関する情報である。例えば、仮想マシンそれぞれへのハードウェア資源を割り当てる量を指定する情報である。仮想マシンへのハードウェア資源の割り当て量は、時間にかかわらず一定とすることができる。また、時間の経過に従って仮想マシンへのハードウェア資源の割り当て量を変化させることもできる。特に、HW割当情報により、時間帯別に仮想マシンへのハードウェア資源の割り当て量が指定されてもよい。また、HW割当情報により、仮想マシンがハードウェア資源を使用することができる時間(時間の長さ)が指定されてもよい。
HW割当情報保持部121は、HW割当情報を記憶するRAM(Random Access Memory)や不揮発性の記憶装置により構成することができる。HW割当情報は、次に示すように、テーブルの形式を表現する情報により表わすことができる。
図2は、HW割当情報の一例を示す。図2に示す例においては、時間帯別に、仮想マシンVM1、VM2、…、VMnへのハードウェア資源の割り当て量を数字により示している。この場合、数字は、例えばCPUの割当量と解釈することもできる。あるいは、数字は、時間帯別におけるハードウェア資源を使用することができる時間(時間の長さ)を表わしていてもよい。特に「0」は、その時間帯には、ハードウェア資源が割り当てられず、仮想マシンは動作しない、あるいは動作しているべきではない、ことを表わす。
また、ある時間帯において「0」でない数字が示され、次の時間帯において「0」が示されている場合には、仮想マシンは、次の時間帯までに処理を終わらせなければならないことを示していると解釈することもできる。
図2に示すテーブル以外に、メモリの割当量、記憶領域の割当量、ネットワーク(帯域)の割当量などのテーブルが他に存在していてもよい。したがって、ハードウェアHW1(111−1)、HW2(111−2)、…、HWm(111−m)の種類ごとにHW割当情報が記憶されていてもよい。
図2においては、例えば、8時台(8:00から8:59まで)においては、VM1及びVM2それぞれに割り当てるCPUを1単位とし、VMnに割り当てるCPUを2単位とすることが示される。したがって、8時台においては、VMnにはVM1の2倍のハードウェア資源の量としてのCPUが割り当てられる。ここにCPUの単位とは、CPUの個数であったり、マルチコアCPUの場合のコア数であったりすることができる。
なお、HW割当情報は、計算機101内の仮想マシンへのハードウェア資源の割り当て量の上限の指定を表わすと解釈することもできる。したがって、8時台においては、VMnに割り当てるCPUは2単位を越えないことを示していると解釈することもできる。また、HW割当情報は、計算機101内の仮想マシンへのハードウェア資源の割り当て量の下限を指定すると解釈することもできる。さらに、HW割当情報は、数字の組などを用いることにより、仮想マシンへのハードウェア資源の割り当て量の下限及び上限を指定することもできる。
HW割当情報が、仮想マシンへのハードウェア資源の割り当て量の上限やハードウェア資源を使用する時間の上限などの指定を表わしている場合には、利用者は、以下に説明する課金についての予想を行うことができる。また、仮想マシンがハードウェア資源を使用し尽してしまうなどして、他の仮想マシンへ悪影響を及ぼすことを防止することができる。
HW割当実行部122は、計算機101に、HW割当情報格納部121に格納されたHW割当情報に基づいて仮想マシンにハードウェア資源の割り当てをさせる。このために、HW割当実行部122は、例えばHW割当情報保持部に保持されているHW割当情報にしたがって、計算機101の制御部112に制御情報を送信し、制御部112に、計算機101内の仮想マシンそれぞれに指定された量のハードウェア資源の割り当ての処理を、させる。
HW割当情報が図2に示すテーブルにより示されるとき、HW割当実行部122は、現在の時刻が8時台であれば、VM1及びVM2それぞれに割り当てられるハードウェア資源(例えばCPU)の量を1単位とし、VMnに割り当てられるハードウェア資源の量を2単位とし、9時になると、VM1に割り当てられるハードウェア資源の量を2単位とし、VM2及びVMnそれぞれに割り当てられるハードウェア資源の量を1単位とする。
例えば8時台においては、制御部112は、HW割当実行部112から制御情報を受信すると、VM1(113−1)に、HW1(111−1)、HW2(111−2)、…、HWm(111−m)の中から、例えば1個のCPUをVM1及びVM2それぞれが使用できるようにCPUの割り当てを行い、VMnに2個のCPUをVMmが使用できるようにCPUの割り当てを行う。
図3は、HW割当実行部122の処理を説明するフローチャートである。ステップS301の処理として、HW割当情報保持部121に保持されているHW割当情報を読取る。読取られたHW割当情報は、例えば、HW割当実行部122がアクセスできるメモリに一時的に記憶され、必要に応じて内容が解析され、処理が行われる。例えば、図2に示す表形式データの内容を解析し、別の構造のデータに変換する。
ステップS302の処理として、ハードウェアの割り当てを変更するべきかどうかを判断する。例えば、現在の時刻が、いずれの時間帯に該当するか、また、現在の時刻が新たな時間帯に該当する場合、前の時間帯に対して、仮想マシンへ割り当てられるハードウェア資源の割り当てが変化するかどうかを判断する。もし、ハードウェア資源の割り当てが変化すると判断されれば、ステップS303へ処理を移行し、そうでなければ、ステップS302の処理を再度実行する。なお、ステップS302の処理を再度実行する場合には、スリープ処理などが行われ、予め定められた時間の長さ(例えば1時間)において図3のフローチャートに係る処理を停止させてもよい。
ステップS303の処理として、HW割当情報にしたがって仮想マシンへのハードウェア資源の割り当てを、制御部112に変更させる。例えば、制御部112へハードウェア資源の割り当てを変更させる制御情報を送信する。
ステップS304の処理として、処理を終了させるかどうか(例えば、制御装置102にシャットダウン操作が行われたかどうか)を判断し、終了させるべきではないと判断されれば、ステップS301へ処理を戻す。
なお、HW割当情報保持部121に保持されているHW割当情報に変更がなければ、ステップS304からステップS302へ処理を移行させてもよい。また、ステップS302において、仮想マシンに割り当てるハードウェア資源を変更する必要がないと判断された場合であっても、HW割当情報保持部121に保持されているHW割当情報に変更があれば、ステップS302からステップS301へ処理を戻してもよい。
変更部123は、計算機101内の仮想マシンのハードウェア資源の使用時間を計測し、HW割当情報保持部121に保持されているHW割当情報を変更する。例えば、ある仮想マシンのハードウェア資源の使用時間が定められている値よりも大きければ、その仮想マシンに割り当てるハードウェア資源の量を増加させ、ハードウェア資源の使用時間を短縮させる。また、ある仮想マシンのハードウェア資源の使用時間が定められている値よりも小さければ、その仮想マシンに割り当てるハードウェア資源の量を減少させ、ハードウェア資源の使用時間を長くさせる。これにより、仮想マシンに抑制的にハードウェア資源を割り当てることも可能となり、ハードウェア資源の使用効率も上げることができる。また、仮想マシンが使用するハードウェア資源の使用時間を平準化することができる。このような平準化により、複数の仮想マシンが動作させる場合にそれぞれの仮想マシンが使用するハードウェア資源の使用時間をより正確に予測することができ、複数の仮想マシンを動作させるスケジューリングを行いハードウェアの使用効率を上げることができる。
図4は、仮想マシンのハードウェア資源の使用時間を計測した結果を変更部123が管理するためのテーブルの一例図を示す。図4に示すテーブルは、計算機101内のそれぞれの仮想マシンが実際に使用したCPUの使用時間を格納していると解釈することができる。すなわち、VM1は、これまでにCPUというハードウェア資源を10分間使用し、これまでにVM2はCPUというハードウェア資源を12分間使用し、これまでにVMnはCPUというハードウェア資源を14分間使用したことを示していると解釈することができる。すなわち、図4に示すテーブルには、各仮想マシンが使用したハードウェア資源の使用時間を加算した値が格納される。課金部123は、図4に示すテーブルのみではなく、他のハードウェアに対応するテーブルを管理してもよい。また、ハードウェア資源の使用時間として、使用がされたハードウェア資源の量の時間積分の値を用いてもよい。
また、後に説明するように、仮想マシンの利用者に対しては、図4に示すテーブルが格納しているその仮想マシンのハードウェア資源の使用時間に応じて課金をすることもできる。
図5は、変更部123の処理を説明するフローチャートである。ステップS501の処理として、測定する時間となるまで待つ。例えば、5分ごとにハードウェア資源の使用時間を測定する場合には、5分間スリープする。
ステップS502の処理として、変更部123は、各仮想マシンのハードウェア資源の使用時間の測定を行う。例えば、変更部123は、制御部112に、各仮想マシンがハードウェア資源を使用しているかどうかを問い合わせる。この場合、問い合わせがされたときに各仮想マシンがハードウェア資源を使用していれば、例えば上述の5分の間ハードウェア資源を使用したとみなす。あるいは、前回の問い合わせから今回の問い合わせまでに各仮想マシンが使用したハードウェア資源の使用時間の積算量(ハードウェア資源を実際に使用した時間を加算の値)を制御部123が測定した結果であってもよい。
ステップS503の処理として、各仮想マシンのハードウェア資源の使用時間を、既に加算されている使用時間に加算する。例えば、ステップS502により測定されたVM1のCPUの使用量が0.5分であれば、図4のVM1の資源の使用量を10分から10.5分に更新する。
ステップS504の処理として、処理を終了するべきかどうかを判断し、終了する必要がなければ、ステップS501へ処理を戻す。
図6は、変更部123の処理の一例を示すフローチャートである。このフローチャートにおいては、ある仮想マシンのハードウェア資源の使用時間とHW割当情報により指定される使用時間とに差が生じていると判断される場合には、HW割当情報を変更し、その仮想マシンへ割り当てられるハードウェア資源の量を変更する処理が示されている。すなわち、ステップS601において、それぞれの仮想マシンについて、ハハードウェア資源の使用時間とHW割当情報により指定される使用時間とに差生じているかどうかの判断を行う。ハードウェア資源の使用時間とHW割当情報により指定される使用時間とに差生じていると判断がされると、ステップS702へ処理を移行させる。
ステップS602においては、ハードウェア資源の量の割り当てを変更できるかどうかの判断を行う。例えば、その仮想マシンへのハードウェア資源の量を増加させようとする場合、増加させた後の全仮想マシンへのハードウェア資源の量の割り当て量の総量が、実際のハードウェア資源の総量を越える場合には、ハードウェア資源の量の割り当ての変更はできないと判断される。また、仮想マシンの利用者により資源の上限が別途指定されている場合に、その指定されている上限を超える場合には、ハードウェア資源の量の割り当ての変更はできないと判断されるようになっていてもよい。ハードウェア資源の量の割り当ての変更ができると判断がされると、ステップS603へ処理を移行させ、ハードウェア資源の量の割り当ての変更ができないと判断がされると、ステップS601へ戻る。
ステップS603において、ハードウェア資源の量の割り当ての変更を行う。この場合、ある仮想マシンのハードウェア資源の使用時間とHW割当情報により指定される使用時間とに生じている差に応じて、ハードウェア資源の量の割り当て量の変更を変化させることができる。例えば、ある仮想マシンのハードウェア資源の使用時間がHW割当情報により指定される使用時間よりも小さければ、ハードウェア資源の量の割り当て量を小さくする。また、ある仮想マシンのハードウェア資源の使用時間がHW割当情報により指定される使用時間よりも大きければ、ハードウェア資源の量の割り当て量を大きくする。したがって、ある仮想マシンのハードウェア資源の使用時間とHW割当情報により指定される使用時間とに生じている差に比例してハードウェア資源の量の割り当て量の変更を変化させてもよい。また、逆に、ある仮想マシンのハードウェア資源の使用時間とHW割当情報により指定される使用時間とに生じている差に反比例や類似の関係によりハードウェア資源の量の割り当て量の変更を変化させてもよい。
ステップS604において、図6の処理を終了させるかどうかを判断し、終了させないと判断がされれば、ステップS601へ戻る。
以上のようなシステムの構成によれば、仮想マシンの実際のハードウェア資源の使用時間が測定され、その結果に基づいてハードウェア資源の割り当てが変更される。仮想マシンが使用するハードウェア資源の使用時間が平準化され、ハードウェアの使用効率を上げることができる。また、仮想マシンに抑制的にハードウェア資源を割り当てることも可能となり、この点においてもハードウェア資源の使用効率も上げることができる。
また、ハードウェア資源の使用時間に応じた課金を行うことが可能である。これにより、計算機101の仮想マシンの利用者に公平に課金を行うことが可能となる。また、ハードウェア資源の使用時間の上限を設定した場合には、課金額を予測することができる。また、実際の資源の使用時間に応じて課金がされるために、計算機101の仮想マシンの利用者には、ハードウェア資源の使用時間を小さくしようとするインセンティブが生じ、計算機101をより多くの利用者に利用させることができる。
(実施形態2)
図7は、本発明の実施形態2に係るシステムの機能ブロック図を示す。システム700は、計算機101と制御装置601とを有する。計算機101と制御装置701とは、ネットワークなどにより形成される通信回線により相互に通信が可能である。
計算機101は、上述の実施形態1に係る構成と同様とすることができる。また、制御装置701は、HW割当情報保持部121と、HW割当実行部122と、変更部123とを有する。また、変更部123は、課金部702を有する。したがって、本実施形態に係るシステム700は、実施形態1に係るシステム100において、制御装置102の変更部123が課金部702を有する構成とすることができる。
課金部702は、変更部123が測定した仮想マシンによるハードウェア資源の使用時間に応じて、課金情報を生成する。例えば、ハードウェア資源の使用時間に比例する金額を算出する。
図8は、変更部123により、ハードウェア資源の割り当て量が変更される例を示す。図8において、実線801が実際のハードウェア資源の総量を示す。また、点線802は、HW割当情報保持部121に保持されるHW割当情報により、ある仮想マシンに割り当てられるハードウェア資源の量を示す。すなわち、9時にその仮想マシンへのハードウェア資源の割り当て量が増加し、その後11時までは同じハードウェア資源の量がその仮想マシンへ割り当てられ、11時にその仮想マシンへのハードウェア資源の割り当て量が減少することが示されているとする。
実線803は、実際にその仮想マシンを稼働させたときのハードウェア資源の使用量の変化を示す。例えば、変更部123は、10時からハードウェア資源の使用時間がHW割当情報により指定される時間よりも大きくなったことを検出したので、その仮想マシンへのハードウェア資源の割り当て量を増加させ、また、12時からもハードウェア資源の使用時間がHW割当情報により指定される時間よりも大きくなったことを検出したので、その仮想マシンへのハードウェア資源の割り当て量を増加させたことが示されている。これにより、その仮想マシンの利用者は、このような資源の割り当て量の変化を知ることにより、10時から11時までと12時以降において、仮想マシンが行う処理の内容を見直し、より効率的な処理ができないかどうかを検討することができる。
また、9時までは、その仮想マシンが使用するハードウェア資源の使用時間が、HW割当情報により指定される使用時間を下回っているので、ハードウェア資源の割り当て量が減少された。そこで、その仮想マシンの利用者は、10時から11時までの処理、12時からの処理を9時までに前倒しをして行うことができないかを検討し、ハードウェア資源の使用量を平準化することができる。
また、図9(a)においては、実線901が実際のハードウェア資源の総量を示し、破線902は、HW割当情報保持部121に保持されるHW割当情報により、ある仮想マシンに割り当てられるべきハードウェア資源の量を示す。この場合、割り当てられるべきハードウェア資源の量は、時間にかかわらずbで一定である。一方、実線903は、その仮想マシンの実際のハードウェア資源の使用量の時間変化を示し、19時から20時までは、HW割当情報により示されるハードウェア資源量と同じとなるが、19時までと、20時から21時までは、ハードウェア資源の使用量がbより小さいaとなる。したがって、ある仮想マシンに割り当てられるべきハードウェア資源の量は、実際に使用されたハードウェア資源の量に対して余裕がある。
もし、この仮想マシンが、21時までに処理を終える必要はなく、22時までに処理を終えればよい場合(例えば、この仮想マシンが、リアルタイム性の要求されないバッチ処理を主に行うものである場合)には、ハードウェア資源の使用時間が、HW割当情報により示される使用時間よりも短くなることが変更部123により検出され、HW割当情報保持部121に保持されるHW割当情報が変更される。例えば、aで示されるハードウェア資源の量をその仮想マシンに割り当てるようにする。このようにすることにより、図9(b)に示されるように、実線905により示されるように、その仮想マシンがバッチ処理などを終了する時間は22時となる。これにより、22時までのこの仮想マシンに割り当てられるハードウェア資源の使用率を100%又はそれに近い値とすることができ、ハードウェア資源の使用効率を上げることができる。
また、逆に、この仮想マシンが、21時までに処理を終えるべきであるのに、図9(b)に示すように、22時までハードウェア資源を使用し、処理を行っていることが更新部123により検出された場合には、HW割当情報保持部121に保持されるHW割当情報を更新し、bで示されるハードウェア資源の量をその仮想マシンに割り当てるようにする。これにより、21時までに処理を終えるようにすることができる。
100 システム、101 計算機、102 制御装置、113−1 VM1、113−2 VM2、113−n VMn、111−1 HW1、111−2 HW2、111−m HWm、121 HW割当情報保持部、122 HW割当実行部、123 更新部

Claims (6)

  1. 仮想マシンに割り当てるハードウェア資源に関する情報を格納する情報格納部と、
    前記仮想マシンが動作する計算機に、前記情報格納部に格納された情報に基づいて前記仮想マシンにハードウェア資源の割り当てをさせる割当実行部と、
    前記仮想マシンによるハードウェア資源の使用時間を測定し、前記使用時間に応じて前記情報格納部に格納されている情報を変更する変更部と
    を有する制御装置。
  2. 前記情報格納部に格納された情報は、前記仮想マシンにハードウェア資源を割り当てる時間及び量を示し、
    前記変更部は、前記仮想マシンによるハードウェア資源の使用時間が前記前記情報格納部に格納された情報の時間より長ければ前記仮想マシンにハードウェア資源を割り当てる量を大きくする請求項1に記載の制御装置。
  3. 前記情報格納部に格納された情報は、前記仮想マシンにハードウェア資源を割り当てる時間及び量を示し、
    前記変更部は、前記仮想マシンによるハードウェア資源の使用時間が前記前記情報格納部に格納された情報の時間より短ければ前記仮想マシンにハードウェア資源を割り当てる量を小さくする請求項1に記載の制御装置。
  4. 前記情報格納部に格納された情報は、前記仮想マシンに割り当てることができるハードウェア資源の量の上限値を示す請求項1または2に記載の制御装置。
  5. 前記仮想マシンは、バッチ処理を行うための仮想マシンである請求項1から4のいずれか一に記載の制御装置。
  6. 仮想マシンに割り当てるハードウェア資源に関する情報を格納する記憶装置を有するコンピュータに、
    前記仮想マシンが動作する計算機に、前記記憶装置に格納された情報に基づいて前記仮想マシンにハードウェア資源の割り当てをさせ、
    前記仮想マシンによるハードウェア資源の使用時間を測定し、前記使用時間に応じて前記情報格納部に格納されている情報を変更させるためのプログラム。
JP2013091646A 2013-04-24 2013-04-24 制御装置 Withdrawn JP2014215765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013091646A JP2014215765A (ja) 2013-04-24 2013-04-24 制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013091646A JP2014215765A (ja) 2013-04-24 2013-04-24 制御装置

Publications (1)

Publication Number Publication Date
JP2014215765A true JP2014215765A (ja) 2014-11-17

Family

ID=51941482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091646A Withdrawn JP2014215765A (ja) 2013-04-24 2013-04-24 制御装置

Country Status (1)

Country Link
JP (1) JP2014215765A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010421A (ja) * 2015-06-25 2017-01-12 富士通株式会社 情報処理装置、プロセッサ管理方法、およびプログラム
CN111758089A (zh) * 2018-03-01 2020-10-09 株式会社东芝 工程工具、控制器以及控制***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04307631A (ja) * 1991-04-04 1992-10-29 Nec Corp 仮想計算機システムにおけるcpu配分制御方式
JP2011100263A (ja) * 2009-11-05 2011-05-19 Nec Corp 仮想コンピュータシステム、仮想コンピュータ管理方法および管理プログラム
WO2011142031A1 (ja) * 2010-05-14 2011-11-17 株式会社日立製作所 リソース管理方法、リソース管理装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04307631A (ja) * 1991-04-04 1992-10-29 Nec Corp 仮想計算機システムにおけるcpu配分制御方式
JP2011100263A (ja) * 2009-11-05 2011-05-19 Nec Corp 仮想コンピュータシステム、仮想コンピュータ管理方法および管理プログラム
WO2011142031A1 (ja) * 2010-05-14 2011-11-17 株式会社日立製作所 リソース管理方法、リソース管理装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010421A (ja) * 2015-06-25 2017-01-12 富士通株式会社 情報処理装置、プロセッサ管理方法、およびプログラム
CN111758089A (zh) * 2018-03-01 2020-10-09 株式会社东芝 工程工具、控制器以及控制***
CN111758089B (zh) * 2018-03-01 2023-12-22 株式会社东芝 工程工具、控制器以及控制***

Similar Documents

Publication Publication Date Title
Ye et al. Profiling-based workload consolidation and migration in virtualized data centers
CN100377113C (zh) 根据优先级来处理高速缓存分配请求的方法和装置
JP5939740B2 (ja) 動的にリソースを割り当てる方法、システム及びプログラム
TWI479422B (zh) 電腦系統及其繪圖處理方法
US11561836B2 (en) Optimizing distribution of heterogeneous software process workloads
US11496413B2 (en) Allocating cloud computing resources in a cloud computing environment based on user predictability
US11287999B2 (en) Multi-instance 2LM architecture for SCM applications
KR20130088513A (ko) 멀티코어 시스템의 태스크 분배 방법 및 장치
US20120240111A1 (en) Storage medium storing program for controlling virtual machine, computing machine, and method for controlling virtual machine
US9286134B2 (en) Virtual machine placement in a cloud-based network
JP2014215765A (ja) 制御装置
JP6721800B2 (ja) 協調分散システム、協調分散管理装置、協調分散方法、及びプログラム
JP2015184830A (ja) 配置制御プログラム、方法及び装置
US8683477B2 (en) Performance degradation based at least on computing application priority and in a relative manner that is known and predictable beforehand
US11726758B2 (en) Efficient scaling of a container-based application in a distributed computing system
JP2015022385A (ja) 仮想システムおよび仮想システム制御方法
JP2014167713A (ja) 情報処理装置、情報処理システム、情報処理装置管理プログラム及び情報処理装置管理方法
Meftah et al. Effect of service broker policies and load balancing algorithms on the performance of large scale internet applications in cloud datacenters
WO2014115282A1 (ja) 計算機システム及び計算機リソースの割当方法
Poullie et al. The design and evaluation of a heaviness metric for cloud fairness and correct virtual machine configurations
Poullie et al. Virtual machine priority adaption to enforce fairness among cloud users
CN112346861A (zh) 资源分配方法、装置、设备和超融合***
JP2015064746A (ja) 情報処理システム、情報処理システムの制御方法及び制御プログラム
CN115794305B (zh) 虚拟机内存的调整方法和装置、存储介质及电子装置
JP2011048419A (ja) 資源管理装置、処理システム、資源管理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160902