JP4906686B2 - 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム - Google Patents

仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム Download PDF

Info

Publication number
JP4906686B2
JP4906686B2 JP2007299475A JP2007299475A JP4906686B2 JP 4906686 B2 JP4906686 B2 JP 4906686B2 JP 2007299475 A JP2007299475 A JP 2007299475A JP 2007299475 A JP2007299475 A JP 2007299475A JP 4906686 B2 JP4906686 B2 JP 4906686B2
Authority
JP
Japan
Prior art keywords
load
cpu
virtual machine
server
machine server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007299475A
Other languages
English (en)
Other versions
JP2009123174A (ja
Inventor
佑介 金木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007299475A priority Critical patent/JP4906686B2/ja
Priority to US12/124,675 priority patent/US20090133018A1/en
Priority to EP08011725A priority patent/EP2060977A1/en
Publication of JP2009123174A publication Critical patent/JP2009123174A/ja
Application granted granted Critical
Publication of JP4906686B2 publication Critical patent/JP4906686B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3442Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for planning or managing the needed capacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラムに関するものである。
近年、企業内にある数百台のサーバをより少数の高性能サーバに集約するサーバ統合が注目されている。仮想化技術を利用することによって、複数のサーバで動作していたシステムを1つのサーバに集約し、運用管理コストの削減を図ることが狙いである(例えば、特許文献1及び非特許文献1参照)。
特開2005−115653号公報 網代育大、田中淳裕、「仮想計算機環境における資源管理オーバヘッドの評価」、研究報告−システム評価、社団法人情報処理学会、2006年6月、Vol.2006、p.17−22
サーバ仮想化技術を利用したサーバ統合では、統合先のサーバに必要な性能や台数の決定、仮想マシンと物理サーバの組み合わせの算出が必要となる。このため、統合対象のサーバからシステム負荷の統計情報を取得し、それを基に仮想化後のシステム負荷を見積もるサイジングが重要である。
従来から行われてきた非仮想化環境でのサイジング方式では、例えば複数のアプリケーションを1つのサーバで動作させる場合のシステム負荷見積もりでは、各アプリケーションが使用するシステム負荷を合算することにより、サーバ全体のシステム負荷を見積もることができた。しかし、仮想化環境では、複数のサーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、ディスクやネットワークアクセス時に発生するI/O(Input/Output)エミュレーションによるオーバヘッドなど、仮想化による負荷がある。そのため、サイジングを行う際には、負荷の単純な合算ではなく、仮想化によるオーバヘッドを考慮した算出が必要となる。
特許文献1では、仮想化環境において、実行中の複数の仮想マシンからシステム負荷を計測し、そのパフォーマンスが最大となるような、仮想マシンの組み合わせを算出する方式が考案されている。しかし、この方式では非仮想化環境の統合対象サーバから取得した統計情報から仮想化後のシステム負荷を算出することができない。さらに、仮想化によるオーバヘッドに関して考慮されていない。
非特許文献1では、CPU(Central・Processing・Unit)資源、ディスク資源のオーバヘッドを、ベンチマークテストを用いて測定し、仮想マシンの稼働数と性能の関係や非仮想化の場合との性能比を算出し、サーバ統合時の性能設計や性能管理に役立てようという研究がなされている。しかし、I/OエミュレーションによるCPU負荷のオーバヘッドなどに関して考慮されていない。
上記のように、従来のサイジング方式では、仮想化機構がI/Oエミュレーションを行うために必要なCPU負荷(CPU使用率)を考慮していないため、CPU負荷を実際のものより低く見積もってしまう場合があるという課題があった。
本発明は、例えば、仮想化環境におけるI/Oエミュレーションに必要なCPU負荷をディスク負荷及び/又はネットワーク負荷から換算し、CPU負荷の見積もりの精度を向上させることを目的とする。
本発明の一の態様に係る仮想マシンサーバサイジング装置は、
複数の仮想マシンを実行する仮想マシンサーバにて、複数の実サーバを仮想化した複数の仮想サーバの各々を前記複数の仮想マシンの各々で稼動させることにより生じる仮想マシンサーバのCPU(Central・Processing・Unit)負荷の見積値を計算する仮想マシンサーバサイジング装置であって、
前記複数の実サーバの各々にて生じる実サーバのCPU負荷の測定値と、前記複数の実サーバの各々にて生じるディスク及び/又はネットワークのI/O(Input/Output)負荷の測定値とを記憶装置に記憶する負荷管理部と、
仮想マシンによるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を前記複数の実サーバの各々にて生じるI/O負荷の測定値から求めるためのI/O負荷変換率を予め前記記憶装置に記憶しておき、前記I/O負荷変換率を用いて、前記負荷管理部により記憶されたI/O負荷の測定値から、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を処理装置で計算する負荷変換部と、
前記負荷管理部により記憶された実サーバのCPU負荷の測定値と前記負荷変換部により計算された仮想マシンサーバのCPU負荷の見積値との合計値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々を稼動させることにより生じる仮想マシンサーバのCPU負荷の見積値として前記処理装置で計算する負荷見積部とを備えることを特徴とする。
本発明の一の態様によれば、仮想マシンサーバサイジング装置において、
負荷管理部が、複数の実サーバの各々にて生じる実サーバのCPU負荷の測定値と、前記複数の実サーバの各々にて生じるディスク及び/又はネットワークのI/O(Input/Output)負荷の測定値とを記憶装置に記憶し、
負荷変換部が、仮想マシンによるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を前記複数の実サーバの各々にて生じるI/O負荷の測定値から求めるためのI/O負荷変換率を予め前記記憶装置に記憶しておき、前記I/O負荷変換率を用いて、前記負荷管理部により記憶されたI/O負荷の測定値から、前記仮想マシンサーバにて複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を処理装置で計算し、
負荷見積部が、前記負荷管理部により記憶された実サーバのCPU負荷の測定値と前記負荷変換部により計算された仮想マシンサーバのCPU負荷の見積値との合計値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々を稼動させることにより生じる仮想マシンサーバのCPU負荷の見積値として前記処理装置で計算することにより、
仮想化環境におけるCPU負荷の見積もりの精度が向上する。
以下、本発明の実施の形態について、図を用いて説明する。
実施の形態1.
図1は、本実施の形態に係るシステム全体の構成を示すブロック図である。
図1において、サーバ10〜12は、サーバ統合の対象となる非仮想化サーバである。コンピュータ30は、サイジング機能が動作する端末である。サーバ10〜12とコンピュータ30は、LAN20(ローカルエリアネットワーク)で接続されている。サーバ10〜12の各々は、実サーバの一例であり、コンピュータ30は、仮想マシンサーバサイジング装置の一例である。
サーバ10〜12は、負荷測定部200〜202を備える。また、サーバ10〜12は、ハードウェア資源として、少なくとも1つのCPU(Central・Processing・Unit)を有するとともに、HDD(Hard・Disk・Drive)やNIC(Network・Interface・Card)を有する。
負荷測定部200〜202は、それぞれ、サーバ10〜12の各々のシステム負荷を測定し、それを測定情報として出力する。システム負荷とは、例えば、CPU負荷、ディスクやネットワークのI/O(Input/Output)負荷のことである。CPU負荷とは、各サーバにて所定の処理を実行することにより各サーバのCPUにかかる負荷のことである。ディスクのI/O負荷(単に「ディスク負荷」ともいう)とは、各サーバのHDD内のディスクからデータを読み込む際、及び、そのディスクへデータを書き込む際に、ディスクにかかるアクセス負荷のことである。また、ネットワークのI/O負荷(単に「ネットワーク負荷」ともいう)とは、各サーバのNICを介してLAN20などのネットワークからデータを受信する際、及び、そのネットワークへデータを送信する際に、ネットワークにかかるアクセス負荷のことである。本実施の形態では、サーバ10〜12の負荷測定部200〜202は、CPU負荷としてCPU使用率を、ディスクのI/O負荷としてディスクI/O数及びディスク帯域を、ネットワークのI/O負荷としてネットワークI/O数及びネットワーク帯域を測定するものとする。ディスクI/O数は、単位時間ごとにディスクから/へのデータの読込/書込がリクエストされる回数、ディスク帯域は、単位時間ごとにディスクから/へ読み込まれる/書き込まれるデータの量である。同様に、ネットワークI/O数は、単位時間ごとにネットワークから/へのデータの受信/送信がリクエストされる回数、ネットワーク帯域は、単位時間ごとにネットワークから/へ受信/送信されるデータの量である。
コンピュータ30は、性能設計部210、構成管理部211、負荷管理部212、負荷収集部213を備える。また、コンピュータ30は、ハードウェア資源として、入力装置251(例えば、キーボードやマウス)、記憶装置252(例えば、HDDやメモリ)、処理装置253(例えば、CPU)、出力装置254(例えば、表示装置やプリンタ装置)を有する。性能設計部210は、ディスク負荷変換部221とネットワーク負荷変換部222を含む負荷変換部220、CPU性能換算部223、CPUオーバヘッド算出部224、負荷見積部225を備える。コンピュータ30の記憶装置252には、構成情報テーブル101、CPUオーバヘッドテーブル102、ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104、CPU性能情報テーブル105、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108が記憶される。
構成管理部211は、サーバ10〜12の構成情報の入力を入力装置251から受け付け、その構成情報を構成情報テーブル101に格納して管理する。ここで、構成情報テーブル101の構成例を図2に示す。図2において、構成情報テーブル101は、コンピュータ30内でサーバ10〜12を一意に識別するシステムID(IDentifier)を用いて、構成情報をサーバごとに格納している。構成情報テーブル101には、構成情報として、各サーバのホスト名、IPv4(Internet・Protocol・version・4)アドレス、OS(オペレーティングシステム)名、OSバージョン、CPU名、CPU数が格納されている。
負荷収集部213は、サーバ10〜12上の負荷測定部200〜202が出力する測定情報を、LAN20を介して収集する。負荷管理部212は、負荷収集部213が収集した測定情報をCPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108に格納する。ここで、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108の構成例を図3、図4、図5にそれぞれ示す。図3、図4、図5において、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108は、いずれもシステムIDを用いて、10秒単位の測定情報をサーバごとに格納している。図3に示したCPU負荷テーブル106には、10秒単位の測定情報として、各サーバが有するCPUのユーザ使用率(%)、CPUのシステム使用率(%)、CPUのI/O待ちの比率(%)、CPUの待機の比率(%)が格納されている。CPU使用率は、CPUのユーザ使用率、CPUのシステム使用率、CPUのI/O待ちの比率を合算して求めることができる。CPU使用率は、100%からCPUの待機の比率を減算して求めることもできる。図4に示したディスク負荷テーブル107には、10秒単位の測定情報として、各サーバが有するHDD内のディスクの読込速度(キロバイト/秒)、ディスクの読込リクエスト数(回数/秒)、ディスクの書込速度(キロバイト/秒)、ディスクの書込リクエスト数(回数/秒)が格納されている。ディスクI/O数は、ディスクの読込リクエスト数とディスクの書込リクエスト数を合算して求めることができる。また、ディスク帯域は、ディスクの読込速度とディスクの書込速度を合算して求めることができる。図5に示したネットワーク負荷テーブル108には、10秒単位の測定情報として、各サーバが有するNICを介するネットワークの受信速度(キロバイト/秒)、ネットワークの受信リクエスト数(回数/秒)、ネットワークの送信速度(キロバイト/秒)、ネットワークの送信リクエスト数(回数/秒)が格納されている。ネットワークI/O数は、ネットワークの受信リクエスト数とネットワークの送信リクエスト数を合算して求めることができる。また、ネットワーク帯域は、ネットワークの受信速度とネットワークの送信速度を合算して求めることができる。
上記のように、負荷管理部212は、サーバ10〜12の各々にて生じるCPU負荷(例えば、サーバ10〜12のCPU使用率)の測定値と、サーバ10〜12の各々にて生じるディスク及び/又はネットワークのI/O負荷(例えば、サーバ10〜12のディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域)の測定値とを記憶装置252に記憶する。
より具体的には、負荷管理部212は、サーバ10〜12の各々にて単位時間(例えば、10秒)ごとに測定されるディスク及び/又はネットワークのI/Oリクエスト数(即ち、サーバ10〜12のディスクI/O数、ネットワークI/O数)と、サーバ10〜12の各々にて単位時間(例えば、10秒)ごとに測定されるディスク及び/又はネットワークのI/O帯域(即ち、サーバ10〜12のディスク帯域、ネットワーク帯域)とを、サーバ10〜12の各々にて生じるI/O負荷の測定値として記憶装置252に記憶する。
性能設計部210は、サーバ10〜12の統合先となるサーバX(図示していない)のCPU負荷を見積もるための条件の入力を入力装置251から受け付ける。ここで、サーバXは、仮想化技術を用いて、1つの物理的なコンピュータを分割し、それぞれが独立したOSを有する複数の論理的なコンピュータ(即ち、仮想マシン)を動作させるものである。つまり、サーバXは、複数の仮想マシンを実行するサーバコンピュータである。サーバXは、サーバ10〜12を統合する場合、サーバ10〜12の各々を仮想化した仮想サーバを、それぞれの仮想マシンで稼動させることとなる。サーバXは、サーバ10〜12と同様に、ハードウェア資源として、少なくとも1つのCPUを有するとともに、HDDやNICを有する。サーバXは、仮想マシンサーバの一例である。性能設計部210は、負荷管理部212がCPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108に格納した測定情報と上記条件から、サーバXにてサーバ10〜12の仮想サーバを稼動させることにより生じるサーバXのCPU負荷の見積もりを行う。
以下、性能設計部210の各部の機能について説明する。
負荷変換部220に含まれるディスク負荷変換部221は、ディスクのI/O負荷をCPU負荷へ換算するための変換率の入力を入力装置251から受け付け、その変換率をI/O負荷変換率としてディスク負荷変換テーブル103に格納する。そして、ディスク負荷変換部221は、処理装置253を用いて、ディスク負荷変換テーブル103に格納したI/O負荷変換率に従い、ディスク負荷テーブル107に格納されているディスクのI/O負荷をCPU負荷へ換算する。また、負荷変換部220に含まれるネットワーク負荷変換部222は、ネットワークのI/O負荷をCPU負荷へ換算するための変換率の入力を入力装置251から受け付け、その変換率をI/O負荷変換率としてネットワーク負荷変換テーブル104に格納する。そして、ネットワーク負荷変換部222は、処理装置253を用いて、ネットワーク負荷変換テーブル104に格納したI/O負荷変換率に従い、ネットワーク負荷テーブル108に格納されているネットワークのI/O負荷をCPU負荷へ換算する。ここで、ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104の構成例を図6、図7にそれぞれ示す。ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104には、I/O負荷変換率として、I/O数変換率、帯域変換率が格納されるとともに、CPU性能の評価値が格納されている。I/O数変換率、帯域変換率は、事前にベンチマークテストを行い、そのテスト結果として算出された値である。CPU性能の評価値は、ベンチマークテストに利用されたサーバが有するCPUの性能を数値化した値である。
上記ベンチマークテストは、具体的には、サーバXと同じ仮想化技術を用いて仮想マシンを実行するサーバAを用意して行われる。サーバAは、サーバXと同様に、ハードウェア資源として、少なくとも1つのCPUを有するとともに、HDDやNICを有する。サーバAは、テストサーバの一例である。なお、ベンチマークテストを行う際にサーバXが既に用意できているのであれば、サーバXを、そのままベンチマークテスト用のサーバとして利用することも可能である。
上記ベンチマークテストでは、サーバAにて当該仮想マシンによるI/Oリクエストを発行することにより生じるサーバAのCPU負荷の測定値と、当該I/Oリクエスト数が算出される。例えば、前者の測定値は、サーバAが実行する仮想マシンがディスクからのデータの読み込みをリクエストした場合に、当該リクエストが受け付けられてディスクからのデータ転送を開始されるまでにサーバAのCPUにかかる負荷を測定した値である。そして、後者のI/Oリクエスト数は、当該リクエストの数である。I/O数変換率は、前者の測定値を後者のI/Oリクエスト数で割ることにより求められる。また、上記ベンチマークテストでは、サーバAにて当該仮想マシンによるI/Oリクエストを実行することにより生じるサーバAのCPU負荷の測定値と、当該I/O帯域が算出される。例えば、前者の測定値は、サーバAが実行する仮想マシンがディスクからのデータの読み込みをリクエストした場合に、ディスクからのデータ転送が開始されてから終了されるまでにサーバAのCPUにかかる負荷を測定した値である。そして、後者のI/O帯域は、ディスクからのデータ転送量である。帯域変換率は、前者の測定値を後者のI/O帯域で割ることにより求められる。また、上記ベンチマークテストでは、CPU性能の評価値として、サーバAが有するCPUのSPECint(整数演算処理性能の評価用のベンチマーク)が求められる。なお、CPU性能の評価値は、CPU性能を評価するための独自のベンチマークテストにより求められてもよい。
上記のように、負荷変換部220は、仮想マシンによるI/Oを処理することにより生じるサーバXのCPU負荷(例えば、サーバXのCPU使用率)の見積値をサーバ10〜12の各々にて生じるI/O負荷(例えば、サーバ10〜12のディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域)の測定値から求めるためのI/O負荷変換率(例えば、I/O数変換率、帯域変換率)を予め記憶装置252に記憶しておく。そして、負荷変換部220は、上記I/O負荷変換率を用いて、負荷管理部212により記憶されたI/O負荷の測定値から、サーバXにてサーバ10〜12の仮想サーバによるI/Oを処理することにより生じるサーバXのCPU負荷の見積値を処理装置253で計算する。
より具体的には、負荷変換部220は、サーバXと同じ仮想化技術を用いて仮想マシンを実行するサーバAにて、当該仮想マシンによるI/Oを処理することにより生じるテストサーバのCPU負荷(例えば、サーバAのCPU使用率)の測定値と当該I/O負荷(例えば、サーバAのディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域)の測定値との比率を、上記I/O負荷変換率として予め記憶装置252に記憶しておく。また、負荷変換部220は、サーバAが有するCPUの性能を数値化したCPU性能値(例えば、SPECint)を予め記憶装置252に記憶しておく。そして、負荷変換部220は、上記I/O負荷変換率を用いて、負荷管理部212により記憶されたI/O負荷の測定値から、サーバXにてサーバ10〜12の仮想サーバによるI/Oを処理することにより生じるサーバXのCPU負荷の見積値を処理装置253で計算し、上記CPU性能値を用いて、その見積値を、サーバAが有するCPUとサーバXが有するCPUとの性能差を考慮した数値に処理装置253で換算する。なお、厳密には、サーバAが有するCPUとサーバXが有するCPUとの性能差を考慮した数値を求めるためには、サーバAのCPU性能値だけでなく、サーバXのCPU性能値も用いる必要がある。しかしながら、負荷変換部220により求められる数値は最終的な見積値ではないため、サーバXのCPU性能値を用いた計算は省略している。
CPU性能換算部223は、CPUの構成や性能に関する情報の入力を入力装置251から受け付け、その情報をCPU性能情報としてCPU性能情報テーブル105に格納する。そして、CPU性能換算部223は、処理装置253を用いて、CPU性能情報テーブル105に格納したCPU性能情報に基づき、CPU負荷テーブル106に格納されたCPU使用率を、CPU性能の差を考慮した値に変換する。ここで、CPU性能情報テーブル105の構成例を図8に示す。CPU性能情報テーブル105には、CPU製品ごとに、当該CPUのクロック、コア数、チップ数、CPU性能値(例えば、SPECint)の組み合わせが格納されている。CPU性能換算部223は、例えば、構成情報テーブル101からサーバ10に実装されたCPU製品を、CPU負荷テーブル106からサーバ10のCPU使用率を割り出す。そして、CPU性能換算部223は、CPU性能情報テーブル105から、当該CPU製品のCPU性能値を割り出し、そのCPU性能値をサーバ10のCPU使用率に乗ずることでCPU使用率の値を、CPU性能の差を考慮した値に変換する。
上記のように、CPU性能換算部223は、サーバ10〜12の各々が有するCPUの性能を数値化したCPU性能値(例えば、SPECint)を予め記憶装置252に記憶しておく。そして、CPU性能換算部223は、上記CPU性能値を用いて、負荷管理部212により記憶されたサーバ10〜12のCPU負荷(例えば、サーバ10〜12のCPU使用率)の測定値を、サーバ10〜12の各々が有するCPUとサーバXが有するCPUとの性能差を考慮した数値に処理装置253で換算する。
CPUオーバヘッド算出部224は、仮想マシンの数と、仮想化によるCPUオーバヘッドを算出するための係数であるCPUオーバヘッド係数との組み合わせの入力を入力装置251から受け付け、その組み合わせをCPUオーバヘッドテーブル102に格納する。そして、CPUオーバヘッド算出部224は、処理装置253を用いて、サーバXの仮想マシンの数とCPUの数の比率を求め、その比率に対応するCPUオーバヘッド係数をCPUオーバヘッドテーブル102から取得する。ここで、CPUオーバヘッドテーブル102の構成例を図9に示す。CPUオーバヘッドテーブル102には、仮想マシンの数と物理的なCPUの数との比率と、対応するCPUオーバヘッド係数が格納されている。CPUオーバヘッド係数は、CPUオーバヘッドを考慮しない場合のサーバXのCPU使用率を1とした場合に、実際に想定されるサーバXのCPU使用率の割合を示すものである。例えば、サーバXにて3つの仮想マシンが実行されており、各仮想マシンのCPU使用率が20%である場合、単純に合計すればサーバXのCPU使用率は60%となる。しかしながら、実際には、仮想化技術を用いていることによりCPUオーバヘッドが生じるため、サーバXのCPU使用率は60%より大きくなる。例えば、CPUオーバヘッドが30%であれば、サーバXのCPU使用率は90%となる。この場合のCPUオーバヘッド係数は1.5となる。
上記のように、CPUオーバヘッド算出部224は、仮想マシンの数とサーバXが有するCPUの数との比率と、サーバXにて当該比率に応じて生じるサーバXのCPU負荷のオーバヘッドを示すCPUオーバヘッド係数とを予め記憶装置252に記憶しておく。そして、CPUオーバヘッド算出部224は、サーバXが実際に実行する仮想マシンの数とサーバXが実際に有するCPUの数との比率に対応するCPUオーバヘッド係数を記憶装置252から抽出する。
負荷見積部225は、処理装置253を用いて、統合対象のサーバ10〜12を仮想化してサーバXに統合する場合のサーバXのシステム負荷を算出する。具体的には、負荷見積部225は、CPU性能換算部223が、CPU負荷テーブル106に格納されたCPU使用率を、CPU性能の差を考慮した値に変換したものと、負荷変換部220に含まれるディスク負荷変換部221が、ディスク負荷テーブル107に格納されたディスクI/O数及びディスク帯域をCPU使用率へ換算し、さらに、CPU性能の差を考慮した値に変換したものと、負荷変換部220に含まれるネットワーク負荷変換部222がネットワーク負荷テーブル108に格納されたネットワークI/O数及びネットワーク帯域をCPU使用率へ換算し、さらに、CPU性能の差を考慮した値に変換したものとを合算する。そして、負荷見積部225は、当該合算値にCPUオーバヘッド算出部224がCPUオーバヘッドテーブル102から取得したCPUオーバヘッド係数を乗じ、さらに、サーバXのCPU性能値を用いて、サーバXのCPU使用率を見積もる。負荷見積部225は、見積もったサーバXのCPU使用率を出力装置254へ出力する。
上記のように、負荷見積部225は、CPU性能換算部223により換算された数値(例えば、サーバ10〜12のCPU使用率を、CPU性能の差を考慮した値に変換したもの)と、負荷変換部220により換算された数値(例えば、サーバ10〜12のディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域をサーバXのCPU使用率に換算した値を、さらに、CPU性能の差を考慮した値に変換したもの)との合計値を、サーバXにてサーバ10〜12の仮想サーバを稼動させることにより生じるサーバXのCPU負荷(例えば、サーバXのCPU使用率)の見積値として処理装置253で計算する。そして、負荷見積部225は、CPUオーバヘッド算出部224により抽出されたCPUオーバヘッド係数を用いて、上記合計値を、CPUオーバヘッドを考慮した数値に処理装置253で換算する。
負荷見積部225は、CPU性能換算部223により換算された数値と負荷変換部220により換算された数値との合計値ではなく、単に、負荷管理部212により記憶されたサーバ10〜12のCPU負荷の測定値と負荷変換部220により計算されたサーバXのCPU負荷の見積値との合計値を、サーバXにてサーバ10〜12の仮想サーバを稼動させることにより生じるサーバXのCPU負荷の見積値として処理装置253で計算してもよい。
図10は、コンピュータ30のハードウェア資源の一例を示す図である。
図10において、コンピュータ30は、CRT(Cathode・Ray・Tube)やLCD(液晶ディスプレイ)の表示画面を有する表示装置901、キーボード902(K/B)、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(Compact・Disc・Drive)、プリンタ装置906などのハードウェア資源を備え、これらはケーブルや信号線で接続されている。また、コンピュータ30は、プログラムを実行するCPU911を備えている。CPU911は、処理装置253の一例である。CPU911は、バス912を介してROM913(Read・Only・Memory)、RAM914(Random・Access・Memory)、通信ボード915(即ち、NIC)、表示装置901、キーボード902、マウス903、FDD904、CDD905、プリンタ装置906、磁気ディスク装置920(即ち、HDD)と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカードリーダライタなどの記憶媒体が用いられてもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置252の一例である。通信ボード915、キーボード902、マウス903、FDD904、CDD905などは、入力装置251の一例である。また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置254の一例である。
通信ボード915は、LAN20などに接続されている。通信ボード915は、LAN20に限らず、インターネット、あるいは、IP−VPN(Internet・Protocol・Virtual・Private・Network)、広域LAN、ATM(Asynchronous・Transfer・Mode)ネットワークなどのWAN(ワイドエリアネットワーク)などに接続されていても構わない。
磁気ディスク装置920には、オペレーティングシステム921、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。プログラム群923には、本実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。このプログラムは、仮想マシンサーバサイジングプログラムの一例である。また、ファイル群924には、本実施の形態の説明において、「〜データ」、「〜情報」、「〜ID」、「〜フラグ」、「〜結果」として説明するデータや情報や信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」や「〜テーブル」の各項目として記憶されている。「〜ファイル」や「〜データベース」や「〜テーブル」は、ディスクやメモリなどの記憶媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶されたデータや情報や信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理(動作)に用いられる。抽出・検索・参照・比較・演算・計算・制御・出力・印刷・表示などのCPU911の処理中、データや情報や信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、本実施の形態の説明において用いるブロック図やフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号は、RAM914などのメモリ、FDD904のフレキシブルディスク(FD)、CDD905のコンパクトディスク(CD)、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク(MD)、DVD(Digital・Versatile・Disc)などの記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体により伝送される。
また、本実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜工程」、「〜手順」、「〜処理」であってもよい。即ち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。あるいは、ソフトウェアのみ、あるいは、素子・デバイス・基板・配線などのハードウェアのみ、あるいは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実現されていても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどの記録媒体に記憶される。このプログラムはCPU911により読み出され、CPU911により実行される。即ち、プログラムは、本実施の形態の説明で述べる「〜部」としてコンピュータを機能させるものである。あるいは、本実施の形態の説明で述べる「〜部」の手順や方法をコンピュータに実行させるものである。
以下では、本実施の形態に係るシステムの動作(即ち、仮想マシンサーバサイジング方法)について説明する。
事前に、コンピュータ30に次の基礎データを登録する必要がある。構成管理部211は、構成情報テーブル101に、サーバ10〜12の構成情報として、各サーバのIPv4アドレスなどを登録する。構成管理部211は、その登録時に、各サーバに対してシステムIDを割り当てる。CPUオーバヘッド算出部224、ディスク負荷変換部221、ネットワーク負荷変換部222は、CPUオーバヘッドテーブル102、ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104に、係数や変換率として、事前に行われたベンチマークテストの結果から算出された値を格納する。CPU性能換算部223は、CPU性能情報テーブル105に、各サーバのSPECintのCPU性能値を格納する。前述したように、CPU性能換算部223は、CPU性能情報テーブル105に、独自の評価方法により算出したCPU性能値を格納してもよい。
サーバ10〜12の負荷測定部200〜202は、各サーバ上でvmstatコマンド、sarコマンド、iostatコマンドなど、OSに組み込まれている負荷測定コマンドを実行し、各サーバのCPU使用率(%)、ディスクアクセス数(回数/秒)、ディスクアクセス帯域(キロバイト/秒)、ネットワークアクセス数(回数/秒)、ネットワークアクセス帯域(キロバイト/秒)を一定周期で収集し、ログファイルに出力する。コンピュータ30の負荷収集部213は、例えばSSH(Secure・SHell)を利用してサーバ10〜12に接続し、tailコマンドなどを利用して、ログファイルから各サーバのシステム負荷の記録を一定周期ごとに読み取る。ログファイルは、CSV(Comma・Separated・Values)形式、バイナリ形式、テキスト形式など、負荷収集部213が読込可能な形式であれば、どのような形式をとってもよい。サーバ10〜12の負荷測定部200〜202は、測定結果をログファイルに出力する代わりに、サーバ10〜12のメモリ内に蓄積しておくだけでもよい。この場合、コンピュータ30の負荷収集部213は、負荷測定部200〜202とLAN20経由で直接コネクションを確立し、測定結果を取得する。
コンピュータ30の負荷収集部213は、構成情報テーブル101に登録されている全てのサーバ、又は、入力装置251からユーザにより指定された特定のサーバのIPアドレス、ログインアカウント、パスワードなど、各サーバに接続するために必要な情報を構成情報テーブル101からシステムIDをキーに取得する。負荷収集部213は、取得したIPアドレス、ログインアカウント、パスワードなどを用いて、各サーバに接続し、各サーバのシステム負荷の測定結果を一定周期で収集する。コンピュータ30の負荷管理部212は、負荷収集部213が収集した測定結果のデータに、収集時刻と収集元であるサーバのシステムIDを付与した上で、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108に格納する。
以下、コンピュータ30の性能設計部210が入力装置251から入力された見積条件からCPU負荷の見積もりを行う動作について説明する。前述したように、CPU負荷とは、CPU性能の差を吸収した、本実施の形態に係るシステム内でCPUにかかる負荷の量のことである。
図11は、コンピュータ30の性能設計部210の動作を示すフローチャートである。
図11において、サーバ10〜12に該当する統合対象サーバをS(i=1,・・・,m)、サーバXに該当する統合先サーバをS´(j=m+1,・・・,m+n)、i、jをシステムID、m>nとする。それぞれの統合先サーバS´に統合される統合対象サーバSのシステムIDの集合をXとする。性能設計部210は、以下の処理手順により、統合対象サーバS(i∈X)を統合先サーバS´上で仮想サーバとして動作させた場合のCPU負荷Ρ´cpu,jを、仮想化に起因するオーバヘッドを考慮した形で算出する。
まず、性能設計部210は、入力装置251から、S´に統合されるS(i∈X)のシステムIDの入力、及び、統合先サーバS´のスペックとして、少なくともCPU名、クロック、コア数、チップ数、搭載されるCPU数といったCPUに関する情報の入力を受け付ける(ステップS101)。次に、性能設計部210は、各統合対象サーバS(i∈X)のCPU負荷Ρcpu,i(i∈X)を、処理装置253で算出する(ステップS102:CPU負荷算出ステップ)。また、性能設計部210は、各統合対象サーバS(i∈X)のディスク負荷からディスクのI/Oに起因するCPU負荷Ρdisk−cpu,i(i∈X)を、処理装置253で算出する(ステップS103:ディスク負荷変換ステップ)。また、性能設計部210は、各統合対象サーバS(i∈X)のネットワーク負荷からネットワークのI/Oに起因するCPU負荷Ρnet−cpu,i(i∈X)を、処理装置253で算出する(ステップS104:ネットワーク負荷変換ステップ)。性能設計部210は、CPUオーバヘッド係数αcpu,jを、処理装置253で算出する(ステップS105:CPUオーバヘッド算出ステップ)。最後に、性能設計部210は、統合後のCPU負荷Ρ´cpu,jを、処理装置253で算出し、出力装置254へ出力する(ステップS106:負荷見積ステップ)。
以下では、上記ステップS102〜S106の各ステップの詳細について説明する。
まず、CPU負荷算出ステップ(ステップS102)の詳細について、図12のフローチャートを用いて説明する。
CPU負荷算出ステップでは、CPU性能換算部223は、統合対象サーバS(i∈X)の集合から、統合対象サーバSを1つ選択する(ステップS201)。CPU性能換算部223は、選択した統合対象サーバSのシステムIDをキーとして、負荷管理部212がCPU負荷テーブル106に格納した統合対象サーバSの10秒ごとのCPUのユーザ使用率、CPUのシステム使用率、CPUのI/O待ちの比率を取得する。CPU性能換算部223は、これらを合算して、統合対象サーバSの10秒ごとのCPU使用率を求め、その中からCPU使用率の最大値ρcpu,iを、処理装置253で選択する(ステップS202)。CPU性能換算部223は、構成管理部211が構成情報テーブル101に格納した統合対象サーバSのCPU情報(例えば、CPU名、CPU数)を参照して、CPU性能情報テーブル105から統合対象サーバSのCPUに対応するCPU性能値μを取得する(ステップS203)。CPU性能換算部223は、ステップS202で得られた統合対象サーバSのCPU使用率の最大値ρcpu,i、ステップS203で得られたCPU性能値μを用いて、下記の式(1)によって、CPUの性能差を考慮したCPU負荷Ρcpu,iを、処理装置253で算出する(ステップS204)。
Ρcpu,i=μ×ρcpu,i・・・(1)
そして、CPU性能換算部223は、全ての統合対象サーバS(i∈X)について、CPU負荷Ρcpu,iを求めると、CPU負荷算出ステップを終了する。
次に、ディスク負荷変換ステップ(ステップS103)の詳細について、図13のフローチャートを用いて説明する。
ディスク負荷変換ステップでは、ディスク負荷変換部221は、統合対象サーバS(i∈X)の集合から、統合対象サーバSを1つ選択する(ステップS301)。ディスク負荷変換部221は、選択した統合対象サーバSのシステムIDをキーとして、負荷管理部212がディスク負荷テーブル107に格納した統合対象サーバSの10秒ごとのディスクの読込リクエスト数、ディスクの書込リクエスト数を取得する。ディスク負荷変換部221は、これらを合算して、統合対象サーバSの10秒ごとのディスクI/O数を求め、その中からディスクI/O数の最大値ρdisk−req,iを、処理装置253で選択する。また、ディスク負荷変換部221は、選択した統合対象サーバSのシステムIDをキーとして、負荷管理部212がディスク負荷テーブル107に格納した統合対象サーバSの10秒ごとのディスクの読込速度、ディスクの書込速度を取得する。ディスク負荷変換部221は、これらを合算して、統合対象サーバSの10秒ごとのディスク帯域を求め、その中からディスク帯域の最大値ρdisk−th,iを、処理装置253で選択する(ステップS302)。ディスク負荷変換部221は、ディスク負荷変換テーブル103からI/O数変換率βdisk−req、帯域変換率βdisk−th、CPU性能値μβdiskを取得する(ステップS303)。ディスク負荷変換部221は、ステップS302で得られたディスクI/O数の最大値ρdisk−req,i、ディスク帯域の最大値ρdisk−th,i、ステップS303で得られたI/O数変換率βdisk−req、帯域変換率βdisk−th、CPU性能値μβdiskを用いて、下記の式(2)によって、CPUの性能差を考慮し、ディスク負荷から換算したCPU負荷Ρdisk−cpu,iを、処理装置253で算出する(ステップS304)。
Ρdisk−cpu,i=μβdisk(βdisk−req・ρdisk−req,i+βdisk−th・ρdisk−th,i)・・・(2)
そして、ディスク負荷変換部221は、全ての統合対象サーバS(i∈X)について、CPU負荷Ρdisk−cpu,iを求めると、ディスク負荷変換ステップを終了する。
次に、ネットワーク負荷変換ステップ(ステップS104)の詳細について、図14のフローチャートを用いて説明する。
ネットワーク負荷変換ステップでは、ネットワーク負荷変換部222は、統合対象サーバS(i∈X)の集合から、統合対象サーバSを1つ選択する(ステップS401)。ネットワーク負荷変換部222は、選択した統合対象サーバSのシステムIDをキーとして、負荷管理部212がネットワーク負荷テーブル108に格納した統合対象サーバSの10秒ごとのネットワークの受信リクエスト数、ネットワークの送信リクエスト数を取得する。ネットワーク負荷変換部222は、これらを合算して、統合対象サーバSの10秒ごとのネットワークI/O数を求め、その中からネットワークI/O数の最大値ρnet−req,iを、処理装置253で選択する。また、ネットワーク負荷変換部222は、選択した統合対象サーバSのシステムIDをキーとして、負荷管理部212がネットワーク負荷テーブル108に格納した統合対象サーバSの10秒ごとのネットワークの受信速度、ネットワークの送信速度を取得する。ネットワーク負荷変換部222は、これらを合算して、統合対象サーバSの10秒ごとのネットワーク帯域を求め、その中からネットワーク帯域の最大値ρnet−th,iを、処理装置253で選択する(ステップS402)。ネットワーク負荷変換部222は、ネットワーク負荷変換テーブル104からI/O数変換率βnet−req、帯域変換率βnet−th、CPU性能値μβnetを取得する(ステップS403)。ネットワーク負荷変換部222は、ステップS402で得られたネットワークI/O数の最大値ρnet−req,i、ネットワーク帯域の最大値ρnet−th,i、ステップS403で得られたI/O数変換率βnet−req、帯域変換率βnet−th、CPU性能値μβnetを用いて、下記の式(3)によって、CPUの性能差を考慮し、ネットワーク負荷から換算したCPU負荷Ρnet−cpu,iを、処理装置253で算出する(ステップS404)。
Ρnet−cpu,i=μβnet(βnet−req・ρnet−req,i+βnet−th・ρnet−th,i)・・・(3)
そして、ネットワーク負荷変換部222は、全ての統合対象サーバS(i∈X)について、CPU負荷Ρnet−cpu,iを求めると、ネットワーク負荷変換ステップを終了する。
次に、CPUオーバヘッド算出ステップ(ステップS105)の詳細について説明する。
CPUオーバヘッド算出ステップでは、CPUオーバヘッド算出部224は、統合対象サーバS(i∈X)の数(即ち、仮想マシン数)と統合先サーバS´のCPU数との比率を、処理装置253で計算する。そして、CPUオーバヘッド算出部224は、CPUオーバヘッドテーブル102から、その比率に「仮想マシン数と物理CPU数の比率」カラムの値が最も近いCPUオーバヘッド係数αcpu,jを取得する。
最後に、負荷見積ステップ(ステップS106)の詳細について説明する。
負荷見積ステップでは、負荷見積部225は、CPU負荷算出ステップで算出されたCPU負荷Ρcpu,i、ディスク負荷変換ステップで算出されたCPU負荷Ρdisk−cpu,i、ネットワーク負荷変換ステップで算出されたCPU負荷Ρnet−cpu,i、CPUオーバヘッド算出ステップで取得されたCPUオーバヘッド係数αcpu,jを用いて、下記の式(4)によって、統合対象サーバS(i∈X)を統合先サーバS´上で仮想サーバとして動作させた場合における、CPUの性能差を考慮したCPU負荷Ρ´cpu,jを、処理装置253で算出する。
Ρ´cpu,j=αcpu,j(ΣΡcpu,i+ΣΡdisk−cpu,i+ΣΡnet−cpu,i)・・・(4)
そして、負荷見積部225は、算出したCPU負荷Ρ´cpu,j、統合先サーバS´のCPU性能値μ´用いて、下記の式(5)によって、統合対象サーバS(i∈X)を統合先サーバS´上で仮想サーバとして動作させた場合における統合対象サーバS(i∈X)のCPU使用率の見積値ρ´cpu,jを、処理装置253で算出する。
ρ´cpu,j=Ρ´cpu,j/μ´・・・(5)
そして、負荷見積部225は、CPU使用率の見積値ρ´cpu,jを出力装置254により、例えば画面に表示して、負荷見積ステップを終了する。
以上のように、本実施の形態によれば、サーバ統合後のCPU負荷を見積もる処理において、サーバ統合前のディスク負荷、ネットワーク負荷の情報を基に、仮想化時のI/Oエミュレーションによって生じるCPU負荷を見積もり、当該見積値を最終的なCPU負荷の見積値に反映することによって、CPU負荷の見積もり精度を向上させることができる。
本実施の形態では、統合対象サーバから収集したシステム負荷の測定結果が、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108にそれぞれ別々に格納されるが、例えば、これらのテーブルを、システムIDをキーとする1つのシステム負荷テーブルに統合してもよい。また、必要なカラムが時系列で格納され、システムIDをキーとして検索可能なテーブルであれば、他の構成を持つテーブルを用いても構わない。
上記のように、本実施の形態に係るシステムは、統合対象の複数のサーバ10〜12と、仮想マシンサーバサイジング装置として動作するコンピュータ30から構成され、それらはネットワークで接続される。サーバ10〜12は負荷測定部200〜202を備える。コンピュータ30は、表示装置901、入力装置251、性能設計部210、構成管理部211、負荷管理部212、負荷収集部213、構成情報テーブル101、CPUオーバヘッドテーブル102、ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104、CPU性能情報テーブル105、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108を備える。性能設計部210は、ディスク負荷変換部221、ネットワーク負荷変換部222、CPU性能換算部223、CPUオーバヘッド算出部224、負荷見積部225を備える。ディスク負荷テーブル107は、サーバ10〜12から収集されたディスクアクセス数とディスクアクセス帯域を格納する。ネットワーク負荷テーブル108は、サーバ10〜12から収集されたネットワークアクセス数とネットワークアクセス帯域を格納する。ディスク負荷変換テーブル103は、ディスクアクセス数とディスクアクセス帯域からCPU負荷を算出するための変換率を格納する。ネットワーク負荷変換テーブル104は、ネットワークアクセス数とネットワークアクセス帯域からCPU負荷を算出するための変換率を格納する。
ディスク負荷変換テーブル103は、ディスクアクセス数をCPU負荷に変換するI/O数変換率、ディスクアクセス帯域をCPU負荷に変換する帯域変換率を格納する。ディスク負荷変換部221は、ディスクアクセス数、ディスクアクセス帯域、I/O数変換率、帯域変換率から、ディスク負荷変換式(2)によってCPU負荷を算出する。ネットワーク負荷変換テーブル104は、ネットワークアクセス数をCPU負荷に変換するI/O数変換率、ネットワークアクセス帯域をCPU負荷に変換する帯域変換率を格納する。ネットワーク負荷変換部222は、ネットワークアクセス数、ネットワークアクセス帯域、I/O数変換率、帯域変換率から、ネットワーク負荷変換式(3)によってCPU負荷を算出する。
ディスク負荷変換テーブル103は、変換率を算出した際の算出用のサーバAのCPU性能値を格納する。ディスク負荷変換部221は、ディスクアクセス数、ディスクアクセス帯域、I/O数変換率、帯域変換率、統合対象のサーバ10〜12のCPU性能値、サーバAのCPU性能値から、ディスク負荷変換式(2)によってCPU負荷を算出する。ネットワーク負荷変換テーブル104は、変換率を算出した際の算出用のサーバAのCPU性能値を格納する。ネットワーク負荷変換部222は、ネットワークアクセス数、ネットワークアクセス帯域、I/O数変換率、帯域変換率、統合対象のサーバ10〜12のCPU性能値、サーバAのCPU性能値から、ネットワーク負荷変換式(3)によってCPU負荷を算出する。
CPUオーバヘッドテーブル102は、仮想マシン数と物理CPU数との比率、その比率の値ごとに異なるCPUオーバヘッド係数を格納する。負荷見積部225は、仮想マシン数と統合先のサーバXの物理CPU数との比率がサーバXのCPU負荷に与える影響を考慮しながら、統合対象のサーバ10〜12のCPU負荷、ディスク負荷変換式(2)によって算出されたCPU負荷、ネットワーク負荷変換式(3)によって算出されたCPU負荷から、サーバXのCPU負荷を見積もる。
本実施の形態では、上記のように、仮想化環境におけるI/Oエミュレーションに必要なCPU負荷をディスク負荷及びネットワーク負荷から換算するため、サーバ統合後におけるCPU負荷の見積もりの精度が向上する。
実施の形態2.
本実施の形態について、主に実施の形態1との差異を説明する。
実施の形態1では、CPU負荷算出ステップ、ディスク負荷変換ステップ、ネットワーク負荷変換ステップにおいて、CPU負荷テーブル106、ディスク負荷テーブル107、ネットワーク負荷テーブル108から、統合対象サーバのCPU使用率、ディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域の最大値を求め、これらを統合先サーバのCPU負荷の見積もりに用いていた。しかしながら、最大値の代わりに、例えば、平均値、タイル値(例えば、90%タイル値)などを使用してもよい。また、例えば、最大値、最小値、タイル値などの複数の値を使用して、統合先サーバのCPU負荷の見積値を複数算出し、出力してもよい。
以上のように、本実施の形態によれば、サーバ統合後のCPU負荷を見積もる処理において、複数の見積値を求めることによって、CPU負荷の見積もり精度をさらに向上させることができる。
実施の形態3.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態におけるディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104、CPUオーバヘッドテーブル102の構成例を図15、図16、図17にそれぞれ示す。図6、図7、図9に示した実施の形態1におけるディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104、CPUオーバヘッドテーブル102の構成例と異なる点は、各テーブルに仮想化技術を特定するカラムを追加したことである。
図15に示したディスク負荷変換テーブル103、図16に示したネットワーク負荷変換テーブル104には、ベンチマークテストの際に利用された仮想化技術の種類ごとに、そのベンチマークテストの結果であるI/O数変換率、帯域変換率、CPU性能値が格納されている。同様に、図17に示したCPUオーバヘッドテーブル102には、ベンチマークテストの際に利用された仮想化技術の種類ごとに、そのベンチマークテストの結果であるCPUオーバヘッド係数が格納されている。仮想化技術の種類は、例えば、VMware(登録商標)やXenなど、ベンチマークテストの際に利用された仮想化ソフトウェアによって区別してもよいし、例えば、完全仮想化や準仮想化など、ベンチマークテストの際に利用された仮想化方式によって区別してもよいし、その両方の組み合わせによって区別してもよい。
実施の形態1では、図11のステップS101において、性能設計部210は、入力装置251から、統合先サーバS´のスペックとしてCPUに関する情報の入力を受け付けていたが、本実施の形態では、性能設計部210は、さらに、統合先サーバS´で利用される仮想化技術として仮想化ソフトウェアや仮想化方式に関する情報の入力も受け付ける。図13のステップS303において、ディスク負荷変換部221は、統合先サーバS´で利用される仮想化技術の種類をキーとして、ディスク負荷変換テーブル103からI/O数変換率βdisk−req、帯域変換率βdisk−th、CPU性能値μβdiskを取得する。同様に、図14のステップS403において、ネットワーク負荷変換部222は、統合先サーバS´で利用される仮想化技術の種類をキーとして、ネットワーク負荷変換テーブル104からI/O数変換率βnet−req、帯域変換率βnet−th、CPU性能値μβnetを取得する。
上記のように、本実施の形態では、負荷変換部220は、異なる仮想化技術(例えば、仮想化ソフトウェア、仮想化方式)を用いて仮想マシンを各々が実行する複数のサーバAにて、当該仮想マシンによるI/Oを処理することにより生じるサーバAのCPU負荷の測定値(例えば、サーバAのCPU使用率)と当該I/O負荷(例えば、サーバAのディスクI/O数、ディスク帯域、ネットワークI/O数、ネットワーク帯域)の測定値との比率を、前述したI/O負荷変換率として予め記憶装置252に記憶しておく。そして、負荷変換部220は、サーバXと同じ仮想化技術を用いるサーバAに対応するI/O負荷変換率を用いて、サーバXにてサーバ10〜12の仮想サーバによるI/Oを処理することにより生じるサーバXのCPU負荷の見積値を計算する。
また、本実施の形態では、CPUオーバヘッド算出部224は、仮想化技術(例えば、仮想化ソフトウェア、仮想化方式)を特定する項目と、仮想マシンの数とサーバXが有するCPUの数との比率と、サーバXにて当該項目で特定される仮想化技術と当該比率とに応じて生じるサーバXのCPU負荷のオーバヘッドを示すCPUオーバヘッド係数とを予め記憶装置252に記憶しておく。そして、CPUオーバヘッド算出部224は、サーバXが実際に用いる仮想化技術と、サーバXが実際に実行する仮想マシンの数とサーバXが実際に有するCPUの数との比率とに対応するCPUオーバヘッド係数を記憶装置252から抽出する。
以上のように、本実施の形態によれば、仮想化技術、仮想化方式による影響を考慮した変換率や係数を用いることによって、より精度の高い見積もりが可能となる。
上記のように、本実施の形態に係るシステムでは、ディスク負荷変換テーブル103とネットワーク負荷変換テーブル104が、VMware(登録商標)やXenといった仮想化製品を特定する情報を格納し、仮想化製品ごとに異なるI/O数変換率、帯域変換率を格納する。ディスク負荷変換部221は、仮想化製品の差が変換に与える影響を考慮しながら、ディスク負荷変換式(2)によってCPU負荷を算出する。ネットワーク負荷変換部222は、仮想化製品の差が変換に与える影響を考慮しながら、ネットワーク負荷変換式(3)によってCPU負荷を算出する。
また、本実施の形態に係るシステムでは、ディスク負荷変換テーブル103とネットワーク負荷変換テーブル104が、完全仮想化や準仮想化といった仮想化方式を特定する情報を格納し、仮想化方式ごとに異なるI/O数変換率、帯域変換率を格納する。ディスク負荷変換部221は、仮想化方式の差が変換に与える影響を考慮しながら、ディスク負荷変換式(2)によってCPU負荷を算出する。ネットワーク負荷変換部222は、仮想化方式の差が変換に与える影響を考慮しながら、ネットワーク負荷変換式(3)によってCPU負荷を算出する。
実施の形態4.
本実施の形態について、主に実施の形態3との差異を説明する。
実施の形態3では、図15、図16、図17にそれぞれ示したように、ディスク負荷変換テーブル103、ネットワーク負荷変換テーブル104、CPUオーバヘッドテーブル102に仮想化技術を特定するカラムを設けていたが、これと同様に、本実施の形態では、ネットワーク負荷変換テーブル104に、物理マシン内との通信か物理マシン外との通信かというネットワークトポロジを特定するカラムを設ける。
ネットワーク負荷変換テーブル104には、ベンチマークテストの際に仮想マシンがサーバA内で通信を行うものか、それともサーバA外との通信を行うものかによって、そのベンチマークテストの結果であるI/O数変換率、帯域変換率、CPU性能値が別々に格納されている。仮想化環境では、同じ物理マシン上の2つのゲストOSが通信する場合、物理マシン内での通信となり、仮想化機構が提供するスイッチに負荷がかかるなど、物理マシン外部との通信に比べてI/OエミュレーションによるCPU使用率が高くなる。本実施の形態は、その影響を考慮したものである。
上記のように、本実施の形態では、負荷変換部220は、同じ物理マシンで実行される他の仮想マシンと通信する第1の通信処理を行う仮想マシン(即ち、1つのサーバA内で他の仮想マシンと通信する仮想マシン)を一方が実行し、異なる物理マシンと通信する第2の通信処理を行う仮想マシン(即ち、1つのサーバAで実行される仮想マシンであって、他のサーバAで実行される仮想マシンと通信するもの)を他方が実行する2つのサーバAにて、当該仮想マシンによるネットワークのI/Oを処理することにより生じるサーバAのCPU負荷(例えば、サーバAのCPU使用率)の測定値と当該I/O負荷(例えば、サーバAのネットワークI/O数、ネットワーク帯域)の測定値との比率を、前述したI/O負荷変換率として予め記憶装置252に記憶しておく。そして、負荷変換部220は、上記第1の通信処理と上記第2の通信処理とのうち、サーバXと同じ通信処理を行う仮想マシンを実行するサーバAに対応するI/O負荷変換率を用いて、サーバXにてサーバ10〜12の仮想サーバによるネットワークのI/Oを処理することにより生じるサーバXのCPU負荷(例えば、サーバXのCPU使用率)の見積値を計算する。
以上のように、本実施の形態によれば、ネットワークトポロジによる影響を考慮した変換率を用いることによって、より精度の高い見積もりが可能となる。
上記のように、本実施の形態に係るシステムでは、ネットワーク負荷変換テーブル104が、物理マシン内部での通信か物理マシン間での通信かというトポロジを特定する情報を格納し、トポロジごとに異なるI/O数変換率、帯域変換率を格納する。ネットワーク負荷変換部222は、トポロジの差が変換に与える影響を考慮しながら、ネットワーク負荷変換式(3)によってCPU負荷を算出する。
以上、本発明の実施の形態について説明したが、これらのうち、2つ以上の実施の形態を組み合わせて実施しても構わない。あるいは、これらのうち、1つの実施の形態を部分的に実施しても構わない。あるいは、これらのうち、2つ以上の実施の形態を部分的に組み合わせて実施しても構わない。
実施の形態1に係るシステムの構成を示すブロック図である。 実施の形態1に係る構成情報テーブルの構成例を示す図である。 実施の形態1に係るCPU負荷テーブルの構成例を示す図である。 実施の形態1に係るディスク負荷テーブルの構成例を示す図である。 実施の形態1に係るネットワーク負荷テーブルの構成例を示す図である。 実施の形態1に係るディスク負荷変換テーブルの構成例を示す図である。 実施の形態1に係るネットワーク負荷変換テーブルの構成例を示す図である。 実施の形態1に係るCPU性能情報テーブルの構成例を示す図である。 実施の形態1に係るCPUオーバヘッドテーブルの構成例を示す図である。 実施の形態1に係る仮想マシンサーバサイジング装置のハードウェア資源の一例を示す図である。 実施の形態1に係る仮想マシンサーバサイジング方法を示すフローチャートである。 実施の形態1に係るCPU負荷算出ステップを示すフローチャートである。 実施の形態1に係るディスク負荷変換ステップを示すフローチャートである。 実施の形態1に係るネットワーク負荷変換ステップを示すフローチャートである。 実施の形態3に係るディスク負荷変換テーブルの構成例を示す図である。 実施の形態3に係るネットワーク負荷変換テーブルの構成例を示す図である。 実施の形態3に係るCPUオーバヘッドテーブルの構成例を示す図である。
符号の説明
10,11,12 サーバ、20 LAN、30 コンピュータ、101 構成情報テーブル、102 CPUオーバヘッドテーブル、103 ディスク負荷変換テーブル、104 ネットワーク負荷変換テーブル、105 CPU性能情報テーブル、106 CPU負荷テーブル、107 ディスク負荷テーブル、108 ネットワーク負荷テーブル、200,201,202 負荷測定部、210 性能設計部、211 構成管理部、212 負荷管理部、213 負荷収集部、220 負荷変換部、221 ディスク負荷変換部、222 ネットワーク負荷変換部、223 CPU性能換算部、224 CPUオーバヘッド算出部、225 負荷見積部、251 入力装置、252 記憶装置、253 処理装置、254 出力装置、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 オペレーティングシステム、922 ウィンドウシステム、923 プログラム群、924 ファイル群。

Claims (11)

  1. 複数の仮想マシンを実行する仮想マシンサーバにて、複数の実サーバを仮想化した複数の仮想サーバの各々を前記複数の仮想マシンの各々で稼動させることにより生じる仮想マシンサーバのCPU(Central・Processing・Unit)負荷の見積値を計算する仮想マシンサーバサイジング装置であって、
    前記複数の実サーバの各々にて生じる実サーバのCPU負荷の測定値と、前記複数の実サーバの各々にて生じるディスク及び/又はネットワークのI/O(Input/Output)負荷の測定値とを記憶装置に記憶する負荷管理部と、
    仮想マシンによるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を前記複数の実サーバの各々にて生じるI/O負荷の測定値から求めるためのI/O負荷変換率を予め前記記憶装置に記憶しておき、前記I/O負荷変換率を用いて、前記負荷管理部により記憶されたI/O負荷の測定値から、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を処理装置で計算する負荷変換部と、
    前記負荷管理部により記憶された実サーバのCPU負荷の測定値と前記負荷変換部により計算された仮想マシンサーバのCPU負荷の見積値との合計値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々を稼動させることにより生じる仮想マシンサーバのCPU負荷の見積値として前記処理装置で計算する負荷見積部とを備えることを特徴とする仮想マシンサーバサイジング装置。
  2. 前記仮想マシンサーバサイジング装置は、さらに、
    前記複数の実サーバの各々が有するCPUの性能を数値化したCPU性能値を予め前記記憶装置に記憶しておき、前記CPU性能値を用いて、前記負荷管理部により記憶された実サーバのCPU負荷の測定値を、前記複数の実サーバの各々が有するCPUと前記仮想マシンサーバが有するCPUとの性能差を考慮した数値に前記処理装置で換算するCPU性能換算部を備え、
    前記負荷見積部は、前記負荷管理部により記憶された実サーバのCPU負荷の測定値に代え、前記CPU性能換算部により換算された数値を用いて前記合計値を計算することを特徴とする請求項1に記載の仮想マシンサーバサイジング装置。
  3. 前記負荷変換部は、前記仮想マシンサーバと同じ仮想化技術を用いて仮想マシンを実行するテストサーバにて、当該仮想マシンによるI/Oを処理することにより生じるテストサーバのCPU負荷の測定値と当該I/O負荷の測定値との比率を、前記I/O負荷変換率として予め前記記憶装置に記憶しておくことを特徴とする請求項1又は2に記載の仮想マシンサーバサイジング装置。
  4. 前記負荷変換部は、前記テストサーバが有するCPUの性能を数値化したCPU性能値を予め前記記憶装置に記憶しておき、前記CPU性能値を用いて、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を、前記テストサーバが有するCPUと前記仮想マシンサーバが有するCPUとの性能差を考慮した数値に前記処理装置で換算し、
    前記負荷見積部は、前記負荷変換部により計算された仮想マシンサーバのCPU負荷の見積値に代え、前記負荷変換部により換算された数値を用いて前記合計値を計算することを特徴とする請求項3に記載の仮想マシンサーバサイジング装置。
  5. 前記負荷管理部は、前記複数の実サーバの各々にて単位時間ごとに測定されるディスク及び/又はネットワークのI/Oリクエスト数と、前記複数の実サーバの各々にて単位時間ごとに測定されるディスク及び/又はネットワークのI/O帯域とを、前記複数の実サーバの各々にて生じるI/O負荷の測定値として前記記憶装置に記憶し、
    前記負荷変換部は、前記テストサーバにて当該仮想マシンによるI/Oリクエストを発行することにより生じるテストサーバのCPU負荷の測定値を当該I/Oリクエスト数で割ったI/O数変換率と、前記テストサーバにて当該仮想マシンによるI/Oリクエストを実行することにより生じるテストサーバのCPU負荷の測定値を当該I/O帯域で割った帯域変換率とを、前記I/O負荷変換率として予め前記記憶装置に記憶しておき、前記I/O数変換率と前記負荷管理部により記憶されたI/Oリクエスト数との乗算値と、前記帯域変換率と前記負荷管理部により記憶されたI/O帯域との乗算値との合算値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値として前記処理装置で計算することを特徴とする請求項3又は4に記載の仮想マシンサーバサイジング装置。
  6. 前記負荷変換部は、異なる仮想化技術を用いて仮想マシンを各々が実行する複数のテストサーバにて、当該仮想マシンによるI/Oを処理することにより生じるテストサーバのCPU負荷の測定値と当該I/O負荷の測定値との比率を、前記I/O負荷変換率として予め前記記憶装置に記憶しておき、前記仮想マシンサーバと同じ仮想化技術を用いるテストサーバに対応するI/O負荷変換率を用いて、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を計算することを特徴とする請求項3から5までのいずれかに記載の仮想マシンサーバサイジング装置。
  7. 前記負荷管理部は、前記複数の実サーバの各々にて生じるネットワークのI/O負荷の測定値を前記記憶装置に記憶し、
    前記負荷変換部は、同じ物理マシンで実行される他の仮想マシンと通信する第1の通信処理を行う仮想マシンを一方が実行し、異なる物理マシンと通信する第2の通信処理を行う仮想マシンを他方が実行する2つのテストサーバにて、当該仮想マシンによるネットワークのI/Oを処理することにより生じるテストサーバのCPU負荷の測定値と当該I/O負荷の測定値との比率を、前記I/O負荷変換率として予め前記記憶装置に記憶しておき、前記第1の通信処理と前記第2の通信処理とのうち、前記仮想マシンサーバと同じ通信処理を行う仮想マシンを実行するテストサーバに対応するI/O負荷変換率を用いて、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるネットワークのI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を計算することを特徴とする請求項3から6までのいずれかに記載の仮想マシンサーバサイジング装置。
  8. 前記仮想マシンサーバサイジング装置は、さらに、
    仮想マシンの数と前記仮想マシンサーバが有するCPUの数との比率と、前記仮想マシンサーバにて当該比率に応じて生じる仮想マシンサーバのCPU負荷のオーバヘッドを示すCPUオーバヘッド係数とを予め前記記憶装置に記憶しておき、前記複数の仮想マシンの数と前記仮想マシンサーバが有するCPUの数との比率に対応するCPUオーバヘッド係数を前記記憶装置から抽出するCPUオーバヘッド算出部を備え、
    前記負荷見積部は、前記CPUオーバヘッド算出部により抽出されたCPUオーバヘッド係数を用いて、前記合計値を、前記オーバヘッドを考慮した数値に前記処理装置で換算することを特徴とする請求項1から7までのいずれかに記載の仮想マシンサーバサイジング装置。
  9. 前記CPUオーバヘッド算出部は、仮想化技術を特定する項目と、仮想マシンの数と前記仮想マシンサーバが有するCPUの数との比率と、前記仮想マシンサーバにて当該項目で特定される仮想化技術と当該比率とに応じて生じる仮想マシンサーバのCPU負荷のオーバヘッドを示すCPUオーバヘッド係数とを予め前記記憶装置に記憶しておき、前記仮想マシンサーバが用いる仮想化技術と、前記複数の仮想マシンの数と前記仮想マシンサーバが有するCPUの数との比率とに対応するCPUオーバヘッド係数を前記記憶装置から抽出することを特徴とする請求項8に記載の仮想マシンサーバサイジング装置。
  10. 複数の仮想マシンを実行する仮想マシンサーバにて、複数の実サーバを仮想化した複数の仮想サーバの各々を前記複数の仮想マシンの各々で稼動させることにより生じる仮想マシンサーバのCPU(Central・Processing・Unit)負荷の見積値を計算する仮想マシンサーバサイジング方法であって、
    コンピュータの記憶装置が、前記複数の実サーバの各々にて生じる実サーバのCPU負荷の測定値と、前記複数の実サーバの各々にて生じるディスク及び/又はネットワークのI/O(Input/Output)負荷の測定値とを記憶し、
    前記コンピュータの記憶装置が、仮想マシンによるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を前記複数の実サーバの各々にて生じるI/O負荷の測定値から求めるためのI/O負荷変換率を予め記憶しておき、
    前記コンピュータの処理装置が、前記I/O負荷変換率を用いて、前記記憶装置により記憶されたI/O負荷の測定値から、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を計算し、
    前記コンピュータの処理装置が、前記記憶装置により記憶された実サーバのCPU負荷の測定値と前記処理装置により計算された仮想マシンサーバのCPU負荷の見積値との合計値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々を稼動させることにより生じる仮想マシンサーバのCPU負荷の見積値として計算することを特徴とする仮想マシンサーバサイジング方法。
  11. 複数の仮想マシンを実行する仮想マシンサーバにて、複数の実サーバを仮想化した複数の仮想サーバの各々を前記複数の仮想マシンの各々で稼動させることにより生じる仮想マシンサーバのCPU(Central・Processing・Unit)負荷の見積値を計算する仮想マシンサーバサイジングプログラムであって、
    前記複数の実サーバの各々にて生じる実サーバのCPU負荷の測定値と、前記複数の実サーバの各々にて生じるディスク及び/又はネットワークのI/O(Input/Output)負荷の測定値とを記憶装置に記憶する負荷管理手順と、
    仮想マシンによるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を前記複数の実サーバの各々にて生じるI/O負荷の測定値から求めるためのI/O負荷変換率を予め前記記憶装置に記憶しておき、前記I/O負荷変換率を用いて、前記負荷管理手順により記憶されたI/O負荷の測定値から、前記仮想マシンサーバにて前記複数の仮想サーバの各々によるI/Oを処理することにより生じる仮想マシンサーバのCPU負荷の見積値を処理装置で計算する負荷変換手順と、
    前記負荷管理手順により記憶された実サーバのCPU負荷の測定値と前記負荷変換手順により計算された仮想マシンサーバのCPU負荷の見積値との合計値を、前記仮想マシンサーバにて前記複数の仮想サーバの各々を稼動させることにより生じる仮想マシンサーバのCPU負荷の見積値として前記処理装置で計算する負荷見積手順とをコンピュータに実行させることを特徴とする仮想マシンサーバサイジングプログラム。
JP2007299475A 2007-11-19 2007-11-19 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム Expired - Fee Related JP4906686B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007299475A JP4906686B2 (ja) 2007-11-19 2007-11-19 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム
US12/124,675 US20090133018A1 (en) 2007-11-19 2008-05-21 Virtual machine server sizing apparatus, virtual machine server sizing method, and virtual machine server sizing program
EP08011725A EP2060977A1 (en) 2007-11-19 2008-06-27 Virtual machine server sizing apparatus, virtual machine server sizing method, and virtual machine server sizing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007299475A JP4906686B2 (ja) 2007-11-19 2007-11-19 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム

Publications (2)

Publication Number Publication Date
JP2009123174A JP2009123174A (ja) 2009-06-04
JP4906686B2 true JP4906686B2 (ja) 2012-03-28

Family

ID=40184916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007299475A Expired - Fee Related JP4906686B2 (ja) 2007-11-19 2007-11-19 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム

Country Status (3)

Country Link
US (1) US20090133018A1 (ja)
EP (1) EP2060977A1 (ja)
JP (1) JP4906686B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8291416B2 (en) * 2009-04-17 2012-10-16 Citrix Systems, Inc. Methods and systems for using a plurality of historical metrics to select a physical host for virtual machine execution
US9396042B2 (en) 2009-04-17 2016-07-19 Citrix Systems, Inc. Methods and systems for evaluating historical metrics in selecting a physical host for execution of a virtual machine
JP5522171B2 (ja) * 2009-07-17 2014-06-18 日本電気株式会社 情報処理システム及び情報処理方法
JP5541289B2 (ja) * 2009-10-09 2014-07-09 日本電気株式会社 仮想サーバシステム、その自律制御サーバ、そのデータ処理方法およびコンピュータプログラム
JP5413210B2 (ja) * 2010-01-14 2014-02-12 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法およびプログラム
JP5549237B2 (ja) * 2010-01-21 2014-07-16 富士通株式会社 試験環境構築プログラム、試験環境構築方法、及び試験装置
US20120324471A1 (en) * 2010-02-26 2012-12-20 Nec Corporation Control device, management device, data processing method of control device, and program
JP5556393B2 (ja) 2010-06-04 2014-07-23 富士通株式会社 ネットワークシステム,管理サーバおよび仮想マシンの配置方法
US8423998B2 (en) 2010-06-04 2013-04-16 International Business Machines Corporation System and method for virtual machine multiplexing for resource provisioning in compute clouds
CN102232282B (zh) * 2010-10-29 2014-03-26 华为技术有限公司 一种实现数据中心资源负载均衡的方法及装置
JPWO2012093469A1 (ja) 2011-01-06 2014-06-09 日本電気株式会社 性能評価装置及び性能評価方法
JP5193327B2 (ja) * 2011-02-28 2013-05-08 シャープ株式会社 画像形成装置
GB201111975D0 (en) * 2011-07-13 2011-08-31 Centrix Software Ltd Modelling virtualized infrastructure
JP5983728B2 (ja) * 2012-03-08 2016-09-06 日本電気株式会社 仮想マシン管理装置及び仮想マシン管理方法
US9092235B2 (en) 2012-05-25 2015-07-28 Microsoft Technology Licensing, Llc Virtualizing integrated calls to provide access to resources in a virtual namespace
JP5646560B2 (ja) * 2012-08-15 2014-12-24 株式会社東芝 仮想os制御装置、システム、方法およびプログラム
WO2014045413A1 (ja) * 2012-09-21 2014-03-27 株式会社東芝 システム管理装置、ネットワークシステム、システム管理方法およびプログラム
JP5768796B2 (ja) * 2012-10-23 2015-08-26 日本電気株式会社 運用管理装置、運用管理方法、及び、プログラム
US9223636B2 (en) 2013-01-08 2015-12-29 International Business Machines Corporation Low-risk server consolidation
US9584364B2 (en) * 2013-05-21 2017-02-28 Amazon Technologies, Inc. Reporting performance capabilities of a computer resource service
US9383986B2 (en) 2013-06-18 2016-07-05 Disney Enterprises, Inc. Safe low cost web services software deployments
US9483299B2 (en) * 2014-06-30 2016-11-01 Bmc Software, Inc. Capacity risk management for virtual machines
JP6424632B2 (ja) * 2015-01-08 2018-11-21 富士通株式会社 負荷算出方法、負荷算出プログラム及び負荷算出装置
US9959148B2 (en) 2015-02-11 2018-05-01 Wipro Limited Method and device for estimating optimal resources for server virtualization
JP6693308B2 (ja) 2016-07-05 2020-05-13 富士通株式会社 負荷推定プログラム、負荷推定方法及び負荷推定装置
CN108170513A (zh) * 2017-12-28 2018-06-15 上海优刻得信息科技有限公司 对网络盘进行挂载的方法、装置、***和存储介质
US10613911B2 (en) 2018-01-09 2020-04-07 International Business Machines Corporation Integrating multiple distributed data processing servers with different data partitioning and routing mechanisms, resource sharing policies and lifecycles into a single process
JP6957431B2 (ja) * 2018-09-27 2021-11-02 株式会社日立製作所 Hci環境でのvm/コンテナおよびボリューム配置決定方法及びストレージシステム
CA3105553A1 (en) * 2021-01-11 2022-07-11 Walmart Apollo, Llc Cloud-based sftp server system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774668A (en) * 1995-06-07 1998-06-30 Microsoft Corporation System for on-line service in which gateway computer uses service map which includes loading condition of servers broadcasted by application servers for load balancing
JPH1153326A (ja) * 1997-07-30 1999-02-26 Internatl Business Mach Corp <Ibm> 分散処理システム、クライアントノード、サーバノードおよび分散処理方法
JP2002091936A (ja) * 2000-09-11 2002-03-29 Hitachi Ltd 負荷分散装置及び負荷見積もり方法
JP2002202959A (ja) * 2000-12-28 2002-07-19 Hitachi Ltd 動的な資源分配をする仮想計算機システム
US6721720B2 (en) * 2001-02-22 2004-04-13 Hewlett-Packard Development Company, L.P. Methods and structure for characterization of bayesian belief networks
JP4018900B2 (ja) * 2001-11-22 2007-12-05 株式会社日立製作所 仮想計算機システム及びプログラム
JP2003243967A (ja) * 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd ディジタルフィルタ係数設定装置およびその方法
US7912954B1 (en) * 2003-06-27 2011-03-22 Oesterreicher Richard T System and method for digital media server load balancing
US7203944B1 (en) * 2003-07-09 2007-04-10 Veritas Operating Corporation Migrating virtual machines among computer systems to balance load caused by virtual machines
JP3861087B2 (ja) * 2003-10-08 2006-12-20 株式会社エヌ・ティ・ティ・データ 仮想マシン管理装置及びプログラム
US8095228B2 (en) * 2004-05-27 2012-01-10 Canon Kabushiki Kaisha Data distribution apparatus, its control method, program, and storage medium
JP2006092053A (ja) * 2004-09-22 2006-04-06 Nec Corp システム使用率管理装置及びそれに用いるシステム使用率管理方法並びにそのプログラム
JP2006209165A (ja) * 2005-01-25 2006-08-10 Hitachi Ltd 同時実行多重度調整システム及び方法
WO2007048577A2 (en) * 2005-10-24 2007-05-03 Accenture Global Services Gmbh Dynamic server consolidation and configuration
JP4920391B2 (ja) * 2006-01-06 2012-04-18 株式会社日立製作所 計算機システムの管理方法、管理サーバ、計算機システム及びプログラム
US20070174429A1 (en) * 2006-01-24 2007-07-26 Citrix Systems, Inc. Methods and servers for establishing a connection between a client system and a virtual machine hosting a requested computing environment
JP4519098B2 (ja) * 2006-03-30 2010-08-04 株式会社日立製作所 計算機の管理方法、計算機システム、及び管理プログラム
US8056082B2 (en) * 2006-05-31 2011-11-08 Bluetie, Inc. Capacity management and predictive planning systems based on trended rate change of monitored factors and methods thereof
US8145760B2 (en) * 2006-07-24 2012-03-27 Northwestern University Methods and systems for automatic inference and adaptation of virtualized computing environments
US7673113B2 (en) * 2006-12-29 2010-03-02 Intel Corporation Method for dynamic load balancing on partitioned systems
JP4906674B2 (ja) * 2007-10-25 2012-03-28 株式会社日立製作所 仮想計算機システム及びその制御方法
WO2009063556A1 (ja) * 2007-11-13 2009-05-22 Fujitsu Limited 伝送装置、切替処理方法および切替処理プログラム

Also Published As

Publication number Publication date
EP2060977A1 (en) 2009-05-20
US20090133018A1 (en) 2009-05-21
JP2009123174A (ja) 2009-06-04

Similar Documents

Publication Publication Date Title
JP4906686B2 (ja) 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム
JP5680070B2 (ja) 複数の仮想計算装置の計算機活動をモニタする方法、装置及びプログラム
US9569245B2 (en) System and method for controlling virtual-machine migrations based on processor usage rates and traffic amounts
CN110865867B (zh) 应用拓扑关系发现的方法、装置和***
US10146396B2 (en) System-wide topology and performance monitoring GUI tool with per-partition views
US20130227566A1 (en) Data collection method and information processing system
US9547518B2 (en) Capture point determination method and capture point determination system
US11792263B2 (en) Methods and systems for managing a resource in a networked storage environment
CN104335180B (zh) 虚拟化i/o处理延迟的实时测量
US9594515B2 (en) Methods and systems using observation based techniques for determining performance capacity of a resource of a networked storage environment
JP2010039513A (ja) 消費電力を推定するシステムおよび方法
US20180101413A1 (en) Control device and control method
US9465548B1 (en) Methods and systems using model based techniques for determining performance capacity of a resource of a networked storage environment
US10574765B2 (en) Method, device, and non-transitory computer-readable recording medium
US20150332280A1 (en) Compliant auditing architecture
US11347512B1 (en) Substitution through protocol to protocol translation
US20170026265A1 (en) Methods and systems for determining performance capacity of a resource of a networked storage environment
CN111831389A (zh) 一种数据处理方法、装置以及存储介质
JP5814874B2 (ja) コンピュータ装置及びリソース使用量予測方法及びプログラム
US20220269520A1 (en) Factor identification method and information processing device
US20230036467A1 (en) Vector processing employing buffer summary groups
US20220206829A1 (en) Virtualization platform control device, virtualization platform control method, and virtualization platform control program
JP2007179309A (ja) グリッド環境用デバッグシステム、グリッドサービス管理装置、デバッグ方法およびプログラム
CN117215883A (zh) 一种预测服务质量的方法和计算装置
TW202305593A (zh) 使用緩衝概要群組之系統間處理

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4906686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees