JP4905120B2 - 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法 - Google Patents

負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法 Download PDF

Info

Publication number
JP4905120B2
JP4905120B2 JP2006351100A JP2006351100A JP4905120B2 JP 4905120 B2 JP4905120 B2 JP 4905120B2 JP 2006351100 A JP2006351100 A JP 2006351100A JP 2006351100 A JP2006351100 A JP 2006351100A JP 4905120 B2 JP4905120 B2 JP 4905120B2
Authority
JP
Japan
Prior art keywords
load
resource
service
resources
services
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006351100A
Other languages
English (en)
Other versions
JP2008165301A (ja
Inventor
博道 小橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006351100A priority Critical patent/JP4905120B2/ja
Priority to US11/903,967 priority patent/US20080163233A1/en
Publication of JP2008165301A publication Critical patent/JP2008165301A/ja
Application granted granted Critical
Publication of JP4905120B2 publication Critical patent/JP4905120B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/88Monitoring involving counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Multi Processors (AREA)

Description

この発明は、複数のリソースに分散した負荷を集約する負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法に関する。
従来、システムの構成に柔軟性がないために、処理能力の増強に多額の追加投資が必要になる場合がある。たとえば、ビジネスの状況の変化とともに必要なピーク性能が高くなり、追加の計算資源を余儀なくされている。逆に突発的な負荷上昇を見越して予め大量の予備のリソースを確保することもあるが、多くの場合無駄遣いになっている。
このため、資源利用者の優先度に基づく計算資源(以下、「リソース」という)の割り振りをおこなう、あるいは、リソースの解放を依頼された資源利用者がリソースを解放することにより、当該リソースを有効に使い回す技術が提案されている(たとえば、下記特許文献1参照。)。
また、優先度の低いサービスを強制待ち状態に遷移させ、この優先度の低いサービスに割り振られていたリソースを優先度の高いサービスに割り振ることにより、リソースを有効に利用する技術が提案されている(たとえば、下記特許文献2参照。)。
特開平10−97435号公報 特開平05−120041号公報
しかしながら、上述した特許文献1および特許文献2の従来技術では、あるサービスに複数のリソースが利用されている状況下で当該サービスの負荷が減少すると、各リソースに割り当てられている負荷が均等に減少し、サービスの負荷が複数のリソースに分散しすぎてしまう場合がある。
すなわち、サービスの負荷の減少にともなって、複数のリソースに割り当てられている負荷をどのように減少させるかについては想定されていないため、たとえば、少ない負荷が各リソースに均等に割り当てられた状態となってしまい、すべてのリソースにサービスの負荷が残ってしまう。
また、あるサービスに利用されているリソースを、他のサービスに利用されるリソースとして切り替えるためには、実行中のサービスを完全に停止したあとに、他のサービスに切り替えることが望ましい。
このため、すべてのリソースにサービスの負荷が残っている状態では、どのリソースを切り替え対象として選択した場合であっても、実行中のサービスを停止する時間的なコストがかかってしまい、結果的に他のサービスの提供に時間がかかってしまうという問題があった。
この発明は、上述した従来技術による問題点を解消するため、効率的なリソース融通を可能とすることにより、個々のサービスの円滑な提供を実現することができる負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、この発明にかかる負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法は、サービスに利用されているリソースごとの負荷情報を取得し、この負荷情報に基づいて、並列に実行されているサービスの負荷が当該サービスに割り振られている複数のリソースに、どのように分散されて割り当てられているかを示す指標値を算出し、この算出結果に基づいて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定し、前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出し、一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てることを特徴とする。
この発明によれば、一のリソースの負荷を他のリソースに割り当てることにより、サービスの負荷を集約させることができる。
また、上記発明において、複数のリソースのうち所定の閾値よりも少ない負荷のリソースの数を算出することとしてもよい。
この発明によれば、サービスに利用されている複数のリソースにおける負荷の少ないリソースの割合から、負荷集約の要否を適切に判定することができる。
また、上記発明において、サービスに利用されている複数のリソースの負荷平均を算出することとしてもよい。
この発明によれば、サービスに利用されている複数のリソースの負荷平均から、負荷集約の要否を適切に判定することができる。
また、上記発明において、サービスに利用されている複数のリソースの中から最も負荷の少ない一のリソースを検出することとしてもよい。
この発明によれば、一のリソースの負荷を他のリソースに割り当てる際の時間的なコストを削減することができ、サービスの負荷を効率的に集約させることができる。
また、上記発明において、一のリソースの負荷を、当該一のリソースの負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソースに割り当てることとしてもよい。
この発明によれば、一のリソースの負荷を他のリソースに割り当てることによって、サービスの負荷がさらに分散してしまうことを防ぐことができ、当該サービスの負荷を効率的に集約させることができる。
また、上記発明において、前記他のリソースに割り当て可能な負荷の許容量を算出し、この許容量と前記一のリソースの負荷とを比較することにより、前記他のリソースの中から前記一のリソースの負荷と適合する許容量のリソースを決定し、前記一のリソースの負荷を決定されたリソースに割り当てることとしてもよい。
この発明によれば、個々のリソースの処理能力を最大限に利用したサービスの実行をおこなうことができ、当該サービスの負荷をより効率的に集約させることができる。
本発明にかかる負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法によれば、効率的なリソース融通を可能とすることにより、個々のサービスの円滑な提供を実現することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法の好適な実施の形態を詳細に説明する。
(リソース融通システムのシステム構成図)
まず、この発明の実施の形態にかかるリソース融通システムのシステム構成について説明する。図1は、この発明の実施の形態にかかるリソース融通システム100のシステム構成図である。図1において、リソース融通システム100は、負荷集約装置101と、各サイトCに設置されているリソース102とが、ネットワーク110を介して通信可能に接続されている。
負荷集約装置101は、複数のサービス間で利用されるリソース102をブローカリングするとともに、各リソース102に割り当てる負荷を管理するコンピュータ装置である。また、負荷集約装置101は、リソース102ごとの負荷情報を記憶する負荷情報DB103を備えている。
具体的には、負荷集約装置101は、要求されるサービスに応じて、どのサイトCのどのリソース102を割り振るかを決定したり、あるサービスを提供しているあるサイトCのリソース102を他のサービスに割り振ったりする。
また、負荷集約装置101は、負荷情報DB103に記憶されているリソース102ごとの負荷情報に基づいて、各リソース102に割り当てるサービスの負荷を管理する。具体的には、サービスに利用されているリソース102に割り当てる負荷を適切に調整することにより、サービスの負荷が分散しすぎてしまうことを防ぐ。負荷情報DB103についての詳細な説明は後述する。
リソース102は、各サイトCに設置されており、サービスを実行するために利用されるコンピュータ装置である。具体的には、リソース102は、負荷集約装置101によって割り振られたサービスを端末(不図示)に提供する。
(コンピュータ装置のハードウェア構成)
つぎに、図1に示したコンピュータ装置のハードウェア構成について説明する。図2は、図1に示したコンピュータ装置のハードウェア構成を示すブロック図である。図2において、コンピュータ装置は、CPU201と、ROM202と、RAM203と、HDD(ハードディスクドライブ)204と、HD(ハードディスク)205と、FDD(フレキシブルディスクドライブ)206と、着脱可能な記録媒体の一例としてのFD(フレキシブルディスク)207と、ディスプレイ208と、I/F(インターフェース)209と、キーボード210と、マウス211と、スキャナ212と、プリンタ213とを備えている。また、各構成部は、バス200によってそれぞれ接続されている。
ここで、CPU201は、コンピュータ装置の全体の制御を司る。ROM202は、ブートプログラムなどのプログラムを記録している。RAM203は、CPU201のワークウェアとして使用される。HDD204は、CPU201の制御にしたがってHD205に対するデータのリード/ライトを制御する。HD205は、HDD204の制御で書き込まれたデータを記憶する。
FDD206は、CPU201の制御にしたがってFD207に対するデータのリード/ライトを制御する。FD207は、FDD206の制御で書き込まれたデータを記憶したり、FD207に記憶されたデータをコンピュータ装置に読み取らせたりする。
また、着脱可能な記録媒体として、FD207のほか、CD−ROM(CD−R、CD−RW)、MO、DVD(Digital Versatile Disk)、メモリカードなどであってもよい。ディスプレイ208は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。このディスプレイ208には、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。
I/F209は、通信回線を通じてインターネットなどのネットワーク110に接続され、このネットワーク110を介して他の装置に接続される。そして、I/F209は、ネットワーク110と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。I/F209には、たとえばモデムやLANアダプタなどを採用することができる。
キーボード210は、文字、数字、各種指示などの入力のためのキーを備え、データの入力をおこなう。また、タッチパネル式の入力パッドやテンキーなどであってもよい。マウス211は、カーソルの移動や範囲選択、あるいはウインドウの移動やサイズの変更などをおこなう。ポインティングデバイスとして同様の機能を備えるものであれば、トラックボールやジョイスティックなどであってもよい。
スキャナ212は、画像を光学的に読み取り、装置内に画像データを読み込む。なお、スキャナ212は、OCR機能を持たせてもよい。また、プリンタ213は、画像データや文書データを印刷する。プリンタ213には、たとえば、レーザプリンタやインクジェットプリンタなどを採用することができる。
(負荷情報DB103の記憶内容)
つぎに、図1に示した負荷情報DB103の記憶内容について説明する。図3は、負荷情報DB103の記憶内容を示す説明図(その1)である。図3において、負荷情報DB103には、リソースIDごとにサービス情報およびリソース情報からなる負荷情報が記憶されている。
ここで、リソースID:i(i=1〜N)とは、ネットワーク110を介して負荷集約装置101と通信可能に接続されている複数のリソース102のうち、どのリソース102かを特定する識別情報である。また、各リソースIDには、サービス情報およびリソース情報が関連付けられている。
サービス情報には、サービス名、サービス数およびサービスパワーに関する情報が含まれている。サービス名は、各リソース102に割り振られているサービスの名称である。サービスとは、リソース102のコンピュータ端末に提供する情報処理であり、たとえば、シミュレーションジョブのバッチ処理などの非インタラクティブなサービスやインターネット電話やテレビ会議システムといったインタラクティブなサービスがある。
サービス数は、各サービスについて要求されているサービスの数である。たとえば、5つの地域間を結ぶテレビ会議システムを提供するためには、少なくともサービスの数が5つ必要となる。サービスパワーは、1つのサービスを実行するために各リソース102で必要となるCPU性能やメモリ容量などの処理能力を数値的にあらわした指標である。
また、リソース情報には、リソースパワー、実行可能なサービス数および実行中のサービス数に関する情報が含まれている。リソースパワーは、各リソース102のCPU性能やメモリ容量などの処理能力を数値的にあらわす指標である。ここでは、サービスパワーおよびリソースパワーを統一的な指標によってあらわすこととする。
実行可能なサービス数は、各リソース102において並列に実行することができる最大数のサービスの数である。具体的には、たとえば、あるリソース102のリソースパワーが「100」であり、一つのサービスを実行するために必要となるサービスパワーが「30」であった場合、実行可能なサービス数は「3」となる。
実行中のサービス数は、各リソース102において現在実行中のサービスの数をあらわしている。具体的には、負荷集約装置101により、要求されているサービスの負荷に応じて、各リソース102にサービスが割り振られることとなる。
ここで、リソースID:3のリソース102を例に挙げると、サービス情報として、利用されているサービスのサービス名:サービスB、そのサービスBについて要求されているサービス数:4、1つのサービスBを実行するために必要となるサービスパワー:30が示されている。
また、リソース情報として、リソースパワー:100、並列に実行可能なサービスBの数:3、現在実行中のサービスBの数:2が示されている。なお、各リソース102の負荷情報は、時間の経過にともなって動的に変化するため、負荷情報DB103の記憶内容は一定時間ごとに更新されるようにしてもよい。
(負荷集約装置101の機能的構成)
つぎに、この発明の実施の形態にかかる負荷集約装置101の機能的構成について説明する。図4は、この発明の実施の形態にかかる負荷集約装置101の機能的構成を示すブロック図である。図4において、負荷集約装置101は、負荷情報DB103と、取得部401と、算出部402と、判定部403と、検出部404と、割当部405とを備えている。
取得部401は、サービスに利用されているリソース102ごとの負荷情報を取得する機能を有する。負荷とは、サービスの実行にともなう各リソース102でのCPU使用率、メモリ使用量およびネットワーク帯域の利用率(トラフィック)などを統一的にあらわした指標である。
また、負荷情報は、各リソース102に割り当てられているサービスの負荷に関する情報であり、時間の経過にともなって動的に変化する情報である。たとえば、上述したサービス情報やリソース情報(図3参照)などである。
具体的には、取得部401は、ネットワーク110を介して各リソース102から負荷情報を取得してもよく、また、各サービスに関する情報(たとえば、サービスに利用されている各リソース102の負荷やリソース102の割り振り状態)の収集と提供をおこなうコンピュータ装置から取得してもよい。
取得部401によって取得された負荷情報は負荷情報DB103に格納される。また、各リソース102の負荷情報は、時間の経過にともなって動的に変化するため、一定時間ごとに取得され、その都度、負荷情報DB103に記憶される。なお、取得部401によって取得される負荷情報は、ROM202やRAM203などのメモリに記憶されることとしてもよい。
具体的には、取得部401により、予め設定されている一定時間ごとに送信されてくる負荷情報を取得することとしてもよい。また、取得部401により、各リソース102に負荷情報の送信要求をおこなうことによって負荷情報を取得することとしてもよい。
なお、取得部401は、負荷情報DB103に記憶される負荷情報のうち、動的に変化する一部の情報(サービス数、サービスパワーなど)のみを取得することとしてもよい。この場合、その他の静的な情報(各リソース102のリソースパワーなど)は予め負荷情報DB103に記憶されていてもよい。
算出部402は、取得部401によって取得された負荷情報に基づいて、サービスに利用されているリソース間の負荷分散の割合を算出する機能を有する。具体的には、算出部402は、負荷情報DB103から各リソース102の負荷情報を読み出し、その負荷情報に基づく負荷分散の割合を所定の価値基準を用いて算出する。また、算出部402は、ROM202やRAM203などのメモリに記憶されている負荷情報を読み出して、その負荷情報に基づく負荷分散の割合を算出することとしてもよい。
ここで、負荷分散の割合とは、並列に実行されているサービスの負荷が当該サービスに割り振られている複数のリソース102に、どのように分散されて割り当てられているかを示す指標であり、複数のリソース102において相対的にあらわされる。
より具体的には、負荷分散の割合として、複数のリソース102のうち所定の閾値よりも少ない負荷のリソース102の数を算出することとしてもよい。所定の閾値は、負荷集約装置101に直接入力することによって任意に設定可能であり、予め設定されてROM202やRAM203などのメモリに記憶されている。
たとえば、「実行中のサービス数」を「実行可能なサービス数」で除算した値が所定の閾値よりも小さいリソース102を、負荷の少ないリソース102として計数することとしてもよい。すなわち、任意のリソース102について「(実行中のサービス数/実行可能なサービス数)<所定の閾値」となった場合に、そのリソース102を負荷の少ないリソース102として計数する。
このとき、サービスに割り振られているすべてのリソース102について、「実行中のサービス数/実行可能なサービス数<所定の閾値」となるか否かを判断してもよく、また、任意のリソース102についてのみ判断してもよい。なお、算出部402による負荷の少ないリソース102の数を算出する具体的処理については後述する。
また、負荷分散の割合として、サービスに利用されている複数のリソース102の負荷平均を算出することとしてもよい。負荷平均とは、サービスを並列に実行した場合に個々のリソース102にかかる負荷の平均である。
ここでは、「一つのサービスに必要なパワー」に「実行中のサービス数」を乗算したものを、「サービスに割り振られているすべてのリソース102のリソースパワーの総和」除算した値を負荷平均とする。なお、算出部402による負荷平均を算出する具体的処理については後述する。算出部402による算出結果はROM202やRAM203などのメモリに記憶される。
判定部403は、算出部402の算出結果に基づいて、複数のリソース102に分散しているサービスの負荷を集約させるか否かを判定する機能を有する。具体的には、判定部403は、ROM202やRAM203などのメモリに記憶されている算出結果を読み出して、その算出結果に基づいて負荷を集約させるか否かを判定する。
より具体的には、判定部403は、算出部402により、負荷分散の割合として、負荷の少ないリソース102の数が算出された場合には、その算出結果と予め設定されている所定の数Nとを比較する。そして、負荷の少ないリソース102の数が、予め設定されている所定の数Nよりも多くなった場合に、複数のリソース102に分散しているサービスの負荷を集約させると判定する。
なお、算出部402により算出された負荷の少ないリソース102の数と比較する所定の数Nは、負荷集約装置101に直接入力することによって任意に設定可能であり、予め設定されてROM202やRAM203などのメモリに記憶されている。
また、判定部403は、算出部402により、負荷分散の割合として、負荷平均が算出された場合には、その負荷平均と予め設定されている所定の閾値Zとを比較する。そして、負荷平均が所定の閾値Zより小さくなった場合に、複数のリソース102に分散しているサービスの負荷を集約させると判定する。
なお、算出部402により算出された負荷平均と比較する所定の閾値Zは、負荷集約装置101に直接入力することによって任意に設定可能であり、予め設定されてROM202やRAM203などのメモリに記憶されている。また、判定部403による判定結果はROM202やRAM203などのメモリに記憶される。
検出部404は、判定部403によってサービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソース102の中から一のリソース102を検出する機能を有する。具体的には、検出部404は、ROM202やRAM203などのメモリから判定結果を読み出して、その判定結果に従って、一のリソース102を検出する。
より具体的には、たとえば、検出部404は、負荷情報DB103に記憶されている負荷情報に基づいて、サービスに利用されている複数のリソース102の中から任意のリソース102を検出することとしてもよい。検出部404による検出結果はROM202やRAM203などのメモリに記憶される。
また、検出部404は、サービスに利用されている複数のリソース102の中から最も負荷の少ないリソース102を検出することとしてもよい。より具体的には、たとえば、検出部404は、実行中のサービス数が最も少ないリソース102を検出してもよく、また、サービスパワーおよび実行中のサービス数から各リソース102の負荷を算出し、最も負荷の少ないリソース102を検出することとしてもよい。
割当部405は、検出部404によって検出された一のリソース102の負荷を当該一のリソース102以外の他のリソース102に割り当てる機能を有する。具体的には、割当部405は、ROM202やRAM203などのメモリに記憶されている検出結果を読み出して、一のリソース102の負荷を当該一のリソース102以外の他のリソース102に割り当てる。
より具体的には、割当部405は、まず、一のリソース102にサービスの停止要求を送信し、一のリソース102で実行されているサービスを停止させる。そして、他のリソース102に負荷の割当要求を送信することにより、そのサービスに利用するリソース102を、一のリソース102以外の他のリソース102に切り替える。
このとき、一のリソース102で実行中のサービスの数が複数であった場合、すべてのサービスの負荷を同一の他のリソース102に割り当ててもよく、また、一つのサービスの負荷ごとに割り当てる他のリソース102を決定してもよい。
なお、一のリソース102の負荷を他のリソース102に割り当てる際の各種指示を、各サービスに関する情報の収集と提供をおこなうコンピュータ装置に送信することとしてもよい。この場合、そのコンピュータ装置から各リソース102に負荷の割り当てなどに関する指示がおこなわれることとなる。
また、割当部405は、検出部404によって検出された一のリソース102の負荷を、当該一のリソース102の負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソース102に割り当てる機能を有することとしてもよい。
具体的には、割当部405は、負荷情報DB103に記憶されている負荷情報を読み出して、一のリソース102の負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソース102を検索し、検索された他のリソース102に一のリソース102の負荷を割り当てることとしてもよい。
これにより、一のリソース102の負荷を他のリソース102に割り当てることによって、サービスの負荷がさらに分散してしまうことを防ぐことができ、サービスの負荷を効率的に集約させることができる。
また、割当部405は、許容量算出部406と決定部407とを有することとしてもよい。許容量算出部406は、他のリソース102に割り当て可能な負荷の許容量を算出する機能を有する。負荷の許容量とは、他のリソース102に割り当て可能な負荷をあらわす指標であり、たとえば、各リソース102におけるメモリの空き容量などである。
具体的には、たとえば、許容量算出部406は、負荷情報DB103に記憶されている負荷情報を読み出して、他のリソース102に割り当て可能な負荷の許容量をそれぞれ算出する。許容量算出部406によって算出された他のリソース102の負荷の許容量は、ROM202やRAM203などのメモリに記憶される。
決定部407は、許容量算出部406によって算出された許容量と一のリソース102の負荷とを比較することにより、他のリソース102の中から一のリソース102の負荷と適合する許容量のリソース102を決定する機能を有する。一のリソース102の負荷と適合する許容量のリソース102とは、一のリソース102の負荷を割り当て可能で、かつ、他のリソース102のうち最も負荷の許容量が少ないリソース102である。
具体的には、決定部407は、まず、ROM202やRAM203などのメモリに記憶された他のリソース102の負荷の許容量を読み出して、一のリソース102の負荷と比較する。このあと、一のリソース102の負荷と適合する許容量のリソース102を、他のリソース102の中から決定する。
これにより、個々のリソース102の処理能力を最大限に利用したサービスの実行をおこなうことができ、当該サービスの負荷をより効率的に集約させることができる。
また、負荷集約装置101は、他のサービスからのリソース要求があった場合、割当部405によって負荷が他のリソース102に割り当てられた一のリソース102を他のサービスに利用されるリソース102に切り替える機能を有していてもよい。
これにより、異なるサービス間でのリソース102の切り替えにかかる時間的なコストを削減することができ、効率的なリソース融通をおこなうことができる。
なお、上述した取得部401、算出部402、判定部403、検出部404、割当部405は、具体的には、たとえば、図2に示したROM202、RAM203、HD205などの記録媒体に記録されたプログラムを、CPU201が実行することによって、または、I/F209によって、その機能を実現する。
(リソース融通システム100の処理の概要)
つぎに、この発明の実施の形態にかかるリソース融通システム100の処理の概要について説明する。図5−1および図5−2は、この発明の実施の形態にかかるリソース融通システム100の処理の概要を示す説明図である。
ここでは、ある企業におけるバッチ処理(図5−1,図5−2中「サービスA」と表記する)およびテレビ会議システム(図5−1,図5−2中「サービスB」と表記する)に複数のリソース102が利用される場合について説明する。図5−1,図5−2において、時刻P〜Tは時刻をあらわしており、時刻P→時刻Q→時刻R→時刻S→時刻T→時刻Uの順に時間が経過している。
以下、図5−1,図5−2中丸印(以下、「負荷メータ」という)は、各リソース102における割り当て可能なサービスの負荷、すなわち、各リソース102において実行可能なサービスの数をあらわす。また、負荷が割り当てられている負荷メータはハッチングまたは黒塗りされており、負荷が割り当てられていない負荷メータは空白となっている
ここでは、リソース102−1および102−2のリソースパワーを「80」とし、リソース102−3〜102−8のリソースパワーを「100」とする。また、サービスAのサービスパワーを「25」とし、サービスBのサービスパワーを「30」とする。
図5−1中の時刻Pにおいて、リソース102−1およびリソース102−2がサービスAに利用されている。具体的には、サービスAのサービス数は「4」であり、そのうちリソース102−1に割り当てられているサービス数は「3」であり、リソース102−2に割り当てられているサービス数は「1」である。
また、リソース102−3および102−4がサービスBに利用されている。具体的には、サービスBのサービス数は「4」であり、そのうちリソース102−3に割り当てられているサービス数は「2」であり、リソース102−4に割り当てられているサービス数は「2」である。
なお、リソース102−5〜102−8は、どのサービスにも利用されておらず、すべての負荷メータが空白となっている。ここでは、どのサービスにも利用されていないリソース102(ここでは、リソース102−5〜102−8)を「フリー」と表記する。
図5−1中の時刻Qにおいて、テレビ会議システムを利用する人が増えたことにより、サービスBの負荷が高くなり、フリーとなっていたリソース102−5〜102−8がサービスBに利用されている。具体的には、サービスBのサービス数が「4」から「18」に増加することにより、リソース102−3〜102−8に割り当てられているサービス数が「3」となっている。
図5−1中の時刻Rにおいて、テレビ会議システムを利用する人が減ったことにより、サービスBの負荷が少なくなっている。このとき、サービスBに利用されているリソース102間の負荷分散の割合を算出し、サービスBの負荷が分散しすぎている場合には、その負荷を集約する。
なぜなら、図5−1中の時刻Rに示す状況下において、サービスBに利用されているリソース102−3〜102−8を他のサービス(たとえば、サービスA)に融通するためには、リソース102−3〜102−8において現在実行中のサービスBを停止する必要があり、時間的なコストがかかってしまう。
そこで、他のサービスからのリソース融通の要求を予め想定して、リソース102−3〜102−8の負荷を集約させておくことにより、リソース融通にかかる時間的なコストを削減する。ここで、負荷集約の要否を判定する際の具体的な処理の内容を説明する。
図6は、負荷情報DB103の記憶内容を示す説明図(その2)である。図6において、図5−1中の時刻RにおけるサービスBに利用されているリソース102−3〜102−8の負荷情報600−1〜600−6が示されている。この負荷情報600−1〜600−6を用いて、サービスBに関する負荷分散の割合を算出する。
ここでは、まず、負荷分散の割合として、リソース102−3〜102−8のうち所定の閾値よりも負荷の少ないリソース102の数を算出する場合について説明する。図7は、負荷集約の要否を判定する処理の概要を示す説明図である。
図7において、まず、図6中点線枠610内に示す「実行可能なサービス数」および「実行中のサービス数」に基づいて、各リソース102−3〜102−8における「実行中のサービス数/実行可能なサービス数」を算出する。そして、その算出結果が所定の閾値Pよりも小さくなったリソース102を負荷の少ないリソース102として計数する。
ここでは、上記算出結果と比較する所定の閾値Pを「P=0.5」とする。これは、各リソース102−3〜102−8での空きの負荷、すなわち、余分に割り当てることができるサービスBの負荷がそれぞれの処理能力の半分以上となっているリソース102を負荷の少ないリソース102とすることを意味する。
具体的には、リソース102−3については「実行中のサービス数/実行可能なサービス数=2/3>P」となるため、負荷の少ないリソース102として計数しない。また、リソース102−4については「実行中のサービス数/実行可能なサービス数=2/3>P」となるため、負荷の少ないリソース102として計数しない。
さらに、リソース102−5については「実行中のサービス数/実行可能なサービス数=1/3<P」となるため、負荷の少ないリソース102として計数する。同様に、リソース102−5〜102−8について「実行中のサービス数/実行可能なサービス数」を算出し、その算出結果が所定の閾値Pより小さくなるリソース102の数を計数する。この結果、「実行中のサービス数/実行可能なサービス数<P」となるリソース102は、リソース102−5,102−6,102−7,102−8の4台となる。
そして、負荷の少ないリソース102の数、すなわち、「実行中のサービス数/実行可能なサービス数<P」となるリソース102の数が予め設定されている所定の数Nよりも大きくなった場合に、負荷が分散しすぎているため集約する必要があると判定する。
ここでは、予め設定されている所定の数Nを「N=2」とすると、「実行中のサービス数/実行可能なサービス数<P」となるリソース102の数は「4」であり、「負荷の少ないリソース102の数>N=4」となるため、サービスBの負荷が分散しすぎているため集約する必要があると判定する。
つぎに、負荷分散の割合として、サービスBに利用されているリソース102−3〜102−8の負荷平均を算出する場合について説明する。ここでは、リソース102−3〜102−8の負荷平均を下記式(1)によって算出する。
負荷平均=(サービスBのサービスパワー×サービスBのサービス数)/(サービスBに利用されているリソース102−3〜102−8のリソースパワーの総和)
・・・(1)
具体的には、図6中点線枠620内に示す「サービスパワー」、「リソースパワー」および「実行中のサービス数」を上記式(1)に代入することにより、リソース102−3〜102−8の負荷平均を算出する。より具体的には、上記式(1)=「(30×8)/(100×6)=240/600=2/5」となる。
そして、この負荷平均が予め設定されている所定の閾値Zよりも小さくなった場合に、サービスBの負荷が分散しすぎているため集約すると判定する。ここでは、予め設定されている所定の閾値Zを「Z=1/2」とすると、「負荷平均=2/5」であり、「負荷平均<Z」となるため、サービスBの負荷が分散しすぎているため集約する必要があると判定する。
つぎに、図5−2中の時刻Sにおいて、リソース102−3〜102−8に分散しているサービスBの負荷が集約されている。具体的には、リソース102−3〜102−8に分散していたサービスBの負荷をリソース102−3〜102−5に集約する。
より具体的には、リソース102−8の負荷をリソース102−3に割り当て(図5−2中矢印x)、リソース102−7の負荷をリソース102−4に割り当て(図5−2中矢印y)、リソース102−6の負荷をリソース102−5に割り当てる(図5−2中矢印z)。
このときの負荷の割り当て手順を詳細に説明すると、まず、リソース102−3〜102−8のうち最も負荷の少ないリソース102−8を検出し、その負荷をリソース102−8の負荷と同等あるいはそれ以上の負荷が割り当てられているリソース102−3に割り当てる(図5−2中矢印x)。
つぎに、リソース102−3〜102−7のうち最も負荷の少ないリソース102−7を検出し、その負荷をリソース102−7の負荷と同等あるいはそれ以上の負荷が割り当てられているリソース102−4に割り当てる(図5−2中矢印y)。
最後に、リソース102−3〜102−6のうち最も負荷の少ないリソース102−6を検出し、その負荷をリソース102−7の負荷と同等あるいはそれ以上の負荷が割り当てられているリソース102−5に割り当てる(図5−2中矢印z)。
このようにして、負荷を割り当てる際の時間的なコストを削減することにより、サービスBの負荷を効率的に集約させることができる。この結果、リソース102−6〜102−8は、サービスBに割り振られてはいるが負荷のないリソース102となり、他のサービスへのリソース融通を効率的におこなうことができることとなる。
図5−2中の時刻Tにおいて、売上集計や受注集計のためにバッチ処理の利用が増えることにより、サービスAにかかる負荷が高くなっている。このとき、リソース102−6〜102−8は、サービスBに割り振られてはいるが、負荷のない状態、すなわち、サービスBに利用されていない状態となっている。
図5−2中の時刻Uにおいて、サービスBに割り振られていたリソース102−6〜102−8がサービスAに割り振られて利用されている。このとき、リソース102−6〜102−8は、サービスBに割り振られてはいるが負荷のない状態となっていたため、利用するサービスの切り替え(サービスBからサービスAへの切り替え)にかかる時間的なコストが少なくなり、効率的なリソース融通がおこなわれる。
このように、異なるサービス間でのリソース融通を予め想定してサービスの負荷を一部のリソース102に集約させておくことにより、効率的なリソース融通をおこなうことができ、個々のサービスの円滑な提供を実現することができる。
なお、図5−2中の時刻Sにおいて、リソース102−6〜102−8で実行されていたサービスBを完全に停止したあと、リソース102−6〜102−8をサービスAに割り振ることとしたが、リソース102−6〜102−8のうちサービスBの負荷がなくなった順にサービスAに割り振ることとしてもよい。
すなわち、リソース102−6〜102−8のうちサービスBの実行が完全に停止されたものから順にサービスAに割り振ることとしてもよい。これにより、リソース102−6〜102−8間でのサービスBの停止にかかる相対的な時間の差異にかかわらず、効率的なリソース融通をおこなうことができる。
(負荷集約装置101の負荷集約処理手順)
つぎに、この発明の実施の形態にかかる負荷集約装置101の負荷集約処理手順について説明する。図8は、この発明の実施の形態にかかる負荷集約装置101の負荷集約処理手順を示すフローチャートである。図8において、まず、取得部401により、サービスに利用されているリソース102ごとの負荷情報を取得したか否かを判断する(ステップS801)。
ここで、負荷情報を取得するのを待って(ステップS801:No)、取得した場合(ステップS801:Yes)、算出部402により、取得部401によって取得された負荷情報に基づいて、サービスに利用されているリソース102間の負荷分散の割合を算出する(ステップS802)。
このあと、判定部403により、算出部402の算出結果に基づいて、複数のリソース102に分散しているサービスの負荷を集約させるか否かを判定する(ステップS803)。ここで、サービスの負荷を集約させると判定された場合(ステップS803:Yes)、検出部404により、サービスに利用されている複数のリソース102の中から一のリソース102を検出する(ステップS804)。
そして、検出された一のリソース102の負荷の割り当て先となる他のリソース102を決定し(ステップS805)、割当部405により、一のリソース102の負荷を他のリソース102に割り当てる(ステップS806)。このあと、実行中のすべてのサービスについて負荷集約の要否を判定したか否かを判断する(ステップS807)。
ここで、すべてのサービスについて負荷集約の要否を判定したと判断された場合(ステップS807:Yes)、本フローチャートによる一連の処理を終了する。一方、すべてのサービスについて負荷集約の要否を判定していないと判断された場合(ステップS807:No)、ステップS801に戻り一連の処理を繰り返す。
また、ステップS803において、サービスの負荷を集約させないと判定された場合(ステップS803:No)、ステップS807に移行する。
このように、この発明の実施の形態によれば、異なるサービス間でのリソース融通を予め想定してサービスの負荷を一部のリソース102に集約させておくことにより、効率的なリソース融通をおこなうことができ、個々のサービスの円滑な提供を実現することができる。
なお、ステップS804において、検出部404により、サービスに利用されている複数のリソース102の中から最も負荷の少ない一のリソース102を検出することとしてもよい。
これにより、ステップS806において一のリソース102の負荷を他のリソース102に割り当てる際の時間的なコストを削減することができ、サービスの負荷を効率的に集約させることができる。
また、ステップS805において、検出部404によって検出された一のリソース102の負荷の割り当て先を、一のリソース102の負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソース102に決定することとしてもよい。
これにより、一のリソース102の負荷を他のリソース102に割り当てることによって、サービスの負荷がさらに分散してしまうことを防ぐことができ、当該サービスの負荷を効率的に集約させることができる。
また、ステップS805において、許容量算出部406により、他のリソース102に割り当て可能な負荷の許容量を算出し、決定部407により、許容量算出部406によって算出された許容量と一のリソース102の負荷とを比較することにより、他のリソース102の中から一のリソース102の負荷と適合する許容量のリソース102を、一のリソース102の負荷の割り当て先として決定することとしてもよい。
これにより、個々のリソース102の処理能力を最大限に利用したサービスの実行をおこなうことができ、当該サービスの負荷をより効率的に集約させることができる。
以上説明したように、負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法によれば、効率的なリソース融通を可能とすることにより、個々のサービスの円滑な提供を実現することができる。
なお、本実施の形態で説明した負荷集約方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
(付記1)サービスに利用されているリソースごとの負荷情報を取得させる取得工程と、
前記取得工程によって取得された負荷情報に基づいて、前記サービスに利用されているリソース間の負荷分散の割合を算出させる算出工程と、
前記算出工程の算出結果に基づいて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定させる判定工程と、
前記判定工程によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出させる検出工程と、
前記検出工程によって検出された一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てさせる割当工程と、
をコンピュータに実行させることを特徴とする負荷集約プログラム。
(付記2)前記算出工程は、
前記複数のリソースのうち所定の閾値よりも少ない負荷のリソースの数を算出させることを特徴とする付記1に記載の負荷集約プログラム。
(付記3)前記算出工程は、
前記サービスに利用されている複数のリソースの負荷平均を算出させることを特徴とする付記1に記載の負荷集約プログラム。
(付記4)前記検出工程は、
前記サービスに利用されている複数のリソースの中から最も負荷の少ない一のリソースを検出させることを特徴とする付記1〜3のいずれか一つに記載の負荷集約プログラム。
(付記5)前記割当工程は、
前記検出工程によって検出された一のリソースの負荷を、当該一のリソースの負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソースに割り当てさせることを特徴とする付記1〜4のいずれか一つに記載の負荷集約プログラム。
(付記6)前記他のリソースに割り当て可能な負荷の許容量を算出させる許容量算出工程と、
前記許容量算出工程によって算出された許容量と前記一のリソースの負荷とを比較することにより、前記他のリソースの中から前記一のリソースの負荷と適合する許容量のリソースを決定させる決定工程と、を前記コンピュータに実行させ、
前記割当工程は、
前記一のリソースの負荷を、前記決定工程によって決定されたリソースに割り当てさせることを特徴とする付記1〜5のいずれか一つに記載の負荷集約プログラム。
(付記7)付記1〜6のいずれか一つに記載の負荷集約プログラムを記録した前記コンピュータに読み取り可能な記録媒体。
(付記8)サービスに利用されているリソースごとの負荷情報を取得する取得工程と、
前記取得工程によって取得された負荷情報に基づいて、前記サービスに利用されているリソース間の負荷分散の割合を算出する算出工程と、
前記算出工程の算出結果に基づいて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定する判定工程と、
前記判定工程によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出する検出工程と、
前記検出工程によって検出された一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てる割当工程と、
を含んだことを特徴とする負荷集約方法。
(付記9)サービスに利用されているリソースごとの負荷情報を取得する取得手段と、
前記取得手段によって取得された負荷情報に基づいて、前記サービスに利用されているリソース間の負荷分散の割合を算出する算出手段と、
前記算出手段の算出結果に基づいて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定する判定手段と、
前記判定工程によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出する検出手段と、
前記検出手段によって検出された一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てる割当手段と、
を備えることを特徴とする負荷集約装置。
以上のように、本発明にかかる負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法は、異なるサービス間においてリソースの融通が可能なビジネスグリッドのミドルウェアに有用であり、特に、顧客のサーバを預かり、インターネットへの接続回線や保守・運用サービスなどを提供するIDC(Internet Data Center)に適している。
この発明の実施の形態にかかるリソース融通システムのシステム構成図である。 図1に示したコンピュータ装置のハードウェア構成を示すブロック図である。 負荷情報DBの記憶内容を示す説明図(その1)である。 この発明の実施の形態にかかる負荷集約装置の機能的構成を示すブロック図である。 この発明の実施の形態にかかるリソース融通システムの処理の概要を示す説明図(その1)である。 この発明の実施の形態にかかるリソース融通システムの処理の概要を示す説明図(その2)である。 負荷情報DBの記憶内容を示す説明図(その2)である。 負荷集約の要否を判定する処理の概要を示す説明図である。 この発明の実施の形態にかかる負荷集約装置の負荷集約処理手順を示すフローチャートである。
符号の説明
100 リソース融通システム
101 負荷集約装置
102 リソース
103 負荷情報DB
110 ネットワーク
401 取得部
402 算出部
403 判定部
404 検出部
405 割当部
406 許容量算出部
407 決定部

Claims (8)

  1. サービスに利用されているリソースごとの負荷情報を取得させる取得工程と、
    前記取得工程によって取得された負荷情報に基づいて、並列に実行されているサービスの負荷が当該サービスに割り振られている複数のリソースに、どのように分散されて割り当てられているかを示す指標値である、負荷が所定の閾値よりも少ないリソースの総数、又は、各々のリソースの前記サービスの実行にかかる負荷平均を算出させる算出工程と、
    前記算出工程の算出結果に基づいて、前記負荷が所定の閾値よりも少ないリソースの総数が所定の数よりも多いか否か、又は、前記負荷平均が所定の閾値よりも小さいか否かに応じて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定させる判定工程と、
    前記判定工程によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出させる検出工程と、
    前記検出工程によって検出された前記一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てさせる割当工程と、
    をコンピュータに実行させることを特徴とする負荷集約プログラム。
  2. 前記算出工程は、
    前記取得工程によって取得された負荷情報に基づいて、前記複数のリソースのうち実行中のサービス数を実行可能なサービス数で除算した値が所定の閾値よりも小さいリソースの数を前記負荷が所定の閾値よりも少ないリソースの総数として算出させることを特徴とする請求項1に記載の負荷集約プログラム。
  3. 前記算出工程は、
    前記取得工程によって取得された負荷情報に基づいて、前記サービスの実行に必要となる前記リソースのパワーと実行中の前記サービスのサービス数とを乗算した値を、前記複数のリソースのパワーの総和で除算した値を前記負荷平均として算出させることを特徴とする請求項1に記載の負荷集約プログラム。
  4. 前記検出工程は、
    前記サービスに利用されている複数のリソースの中から最も負荷の少ない一のリソースを検出させることを特徴とする請求項1〜3のいずれか一つに記載の負荷集約プログラム。
  5. 前記割当工程は、
    前記検出工程によって検出された一のリソースの負荷を、当該一のリソースの負荷と同等あるいはそれ以上の負荷が割り当てられている他のリソースに割り当てさせることを特徴とする請求項1〜4のいずれか一つに記載の負荷集約プログラム。
  6. 請求項1〜5のいずれか一つに記載の負荷集約プログラムを記録した前記コンピュータ
    に読み取り可能な記録媒体。
  7. コンピュータが、
    サービスに利用されているリソースごとの負荷情報を取得する取得工程と、
    前記取得工程によって取得された負荷情報に基づいて、並列に実行されているサービスの負荷が当該サービスに割り振られている複数のリソースに、どのように分散されて割り当てられているかを示す指標値である、負荷が所定の閾値よりも少ないリソースの総数、又は、各々のリソースの前記サービスの実行にかかる負荷平均を算出する算出工程と、
    前記算出工程の算出結果に基づいて、前記負荷が所定の閾値よりも少ないリソースの総数が所定の数よりも多いか否か、又は、前記負荷平均が所定の閾値よりも小さいか否かに応じて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定する判定工程と、
    前記判定工程によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出する検出工程と、
    前記検出工程によって検出された前記一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てる割当工程と、
    を実行することを特徴とする負荷集約方法。
  8. サービスに利用されているリソースごとの負荷情報を取得する取得手段と、
    前記取得手段によって取得された負荷情報に基づいて、並列に実行されているサービスの負荷が当該サービスに割り振られている複数のリソースに、どのように分散されて割り当てられているかを示す指標値である、負荷が所定の閾値よりも少ないリソースの総数、又は、各々のリソースの前記サービスの実行にかかる負荷平均を算出する算出手段と、
    前記算出手段の算出結果に基づいて、前記負荷が所定の閾値よりも少ないリソースの総数が所定の数よりも多いか否か、又は、前記負荷平均が所定の閾値よりも小さいか否かに応じて、前記複数のリソースに分散している前記サービスの負荷を集約させるか否かを判定する判定手段と、
    前記判定手段によって前記サービスの負荷を集約させると判定された場合、当該サービスに利用されている複数のリソースの中から一のリソースを検出する検出手段と、
    前記検出手段によって検出された前記一のリソースの負荷を当該一のリソース以外の他のリソースに割り当てる割当手段と、
    を備えることを特徴とする負荷集約装置。
JP2006351100A 2006-12-27 2006-12-27 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法 Expired - Fee Related JP4905120B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006351100A JP4905120B2 (ja) 2006-12-27 2006-12-27 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法
US11/903,967 US20080163233A1 (en) 2006-12-27 2007-09-25 Method and apparatus for service load consolidation, and computer product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006351100A JP4905120B2 (ja) 2006-12-27 2006-12-27 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法

Publications (2)

Publication Number Publication Date
JP2008165301A JP2008165301A (ja) 2008-07-17
JP4905120B2 true JP4905120B2 (ja) 2012-03-28

Family

ID=39585937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006351100A Expired - Fee Related JP4905120B2 (ja) 2006-12-27 2006-12-27 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法

Country Status (2)

Country Link
US (1) US20080163233A1 (ja)
JP (1) JP4905120B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392928B1 (en) * 2008-10-28 2013-03-05 Hewlett-Packard Development Company, L.P. Automated workload placement recommendations for a data center
JP4772854B2 (ja) * 2008-12-02 2011-09-14 株式会社日立製作所 計算機システムの構成管理方法、計算機システム及び構成管理プログラム
JP4947390B2 (ja) * 2009-07-15 2012-06-06 日本電気株式会社 共有データ管理システム、共有データ管理方法および共有データ管理プログラム
US20110161514A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for delegating computationally intensive functions
US9021152B2 (en) * 2013-09-30 2015-04-28 Google Inc. Methods and systems for determining memory usage ratings for a process configured to run on a device
US20150154048A1 (en) * 2013-12-04 2015-06-04 International Business Machines Corporation Managing workload to provide more uniform wear among components within a computer cluster
WO2018020292A1 (en) * 2016-07-25 2018-02-01 Telefonaktiebolaget Lm Ericsson (Publ) Decentralized base station load balancing and power
JP6690513B2 (ja) * 2016-11-30 2020-04-28 京セラドキュメントソリューションズ株式会社 情報処理装置、情報処理システム、及び情報処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319835A (ja) * 1994-05-24 1995-12-08 Matsushita Electric Ind Co Ltd マルチサーバ装置負荷分散装置
JPH08272750A (ja) * 1995-03-30 1996-10-18 Nec Corp 分散処理システムおよびその処理方法
JPH09274608A (ja) * 1996-04-04 1997-10-21 Hitachi Ltd マルチプロセッサシステムにおけるプロセッサ間の負荷配分制御方法
JPH10171673A (ja) * 1996-12-13 1998-06-26 Hitachi Ltd ネットワーク利用方法
JP2003271401A (ja) * 2002-03-18 2003-09-26 Fujitsu Ltd 負荷監視機能を有するマイクロプロセッサ
JP2004126968A (ja) * 2002-10-03 2004-04-22 Fujitsu Ltd 並列計算機のジョブスケジューリング装置
US7328259B2 (en) * 2002-11-08 2008-02-05 Symantec Operating Corporation Systems and methods for policy-based application management
US20050091399A1 (en) * 2003-09-30 2005-04-28 Candan Kasim S. Resource-aware adaptive multicasting in a shared proxy overlay network
JP4208769B2 (ja) * 2004-06-09 2009-01-14 キヤノン株式会社 情報処理装置、並びに、その制御方法および情報処理方法
US20060277206A1 (en) * 2005-06-02 2006-12-07 Bailey Philip G Automated reporting of computer system metrics
US7788717B2 (en) * 2006-11-02 2010-08-31 International Business Machines Corporation Apparatus, system, and method for selectively enabling a power-on password

Also Published As

Publication number Publication date
US20080163233A1 (en) 2008-07-03
JP2008165301A (ja) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4905120B2 (ja) 負荷集約プログラム、該プログラムを記録した記録媒体、負荷集約装置および負荷集約方法
US20190227835A1 (en) Capacity risk management for virtual machines
US9727383B2 (en) Predicting datacenter performance to improve provisioning
US10225333B2 (en) Management method and apparatus
JP6241300B2 (ja) ジョブスケジューリング装置、ジョブスケジューリング方法、およびジョブスケジューリングプログラム
US7698529B2 (en) Method for trading resources between partitions of a data processing system
JP6172649B2 (ja) 情報処理装置、プログラム、及び、情報処理方法
US20070112723A1 (en) Approach based on self-evolving models for performance guarantees in a shared storage system
US20090055834A1 (en) Virtualization planning system
JP5121936B2 (ja) リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
KR20120124386A (ko) 가속기를 이용한 워크로드의 목표 지향 퍼포먼스 관리
US20070198799A1 (en) Computer system, management computer and storage system, and storage area allocation amount controlling method
US8219359B2 (en) Performance evaluating apparatus
JP5385912B2 (ja) 算出装置、システム管理装置、算出方法およびプログラム
JP2008217332A (ja) 仮想マシン管理システム、その方法及びそのプログラム
US7251664B2 (en) Volume allocation within a storage management system
JP2013073402A (ja) 電力制御装置、電力制御方法、および電力制御プログラム
US8631118B2 (en) Recording medium having distributed processing program stored therein, distributed processing device and distributed processing method
JP6237170B2 (ja) 割当判定装置、制御方法、及びプログラム
US20220050716A1 (en) Virtual machine placement method and virtual machine placement device implementing the same
US11941450B2 (en) Automatic placement decisions for running incoming workloads on a datacenter infrastructure
WO2022034687A1 (ja) 割当問題を解くことを支援する情報処理システム及び方法
JP2023545316A (ja) システム性能に対する複数のアプリケーションの影響の決定
JP2018136681A (ja) 性能管理プログラム、性能管理方法、および管理装置
JPH10207847A (ja) 分散システムにおける自動負荷分散方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees