JP7469655B2 - コンテナ配置先決定プログラム、及びコンテナ配置先決定方法 - Google Patents

コンテナ配置先決定プログラム、及びコンテナ配置先決定方法 Download PDF

Info

Publication number
JP7469655B2
JP7469655B2 JP2020120485A JP2020120485A JP7469655B2 JP 7469655 B2 JP7469655 B2 JP 7469655B2 JP 2020120485 A JP2020120485 A JP 2020120485A JP 2020120485 A JP2020120485 A JP 2020120485A JP 7469655 B2 JP7469655 B2 JP 7469655B2
Authority
JP
Japan
Prior art keywords
container
virtual machine
program
application
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020120485A
Other languages
English (en)
Other versions
JP2022017754A (ja
Inventor
宏明 新井
昌浩 佐藤
公敬 山崎
裕二 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020120485A priority Critical patent/JP7469655B2/ja
Publication of JP2022017754A publication Critical patent/JP2022017754A/ja
Application granted granted Critical
Publication of JP7469655B2 publication Critical patent/JP7469655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Description

本発明は、コンテナ配置先決定プログラム、及びコンテナ配置先決定方法に関する。
仮想化技術の発展に伴い、データセンタ内で起動している仮想マシンを利用して種々のサービスを利用者に提供するクラウドが普及しつつある。特に、近年では異なるクラウド事業者のクラウド同士を組み合わせたマルチクラウドと呼ばれる新たなサービスが普及しつつある。マルチクラウドにおいては、いずれかのクラウド事業者に障害が発生しても、残りクラウド事業者のクラウドで仮想マシンを稼働し続けることができるため、サービスの可用性を高めることができる。
マルチクラウドを実現するためのアプリケーションプログラムは、仮想マシンが直接実行するのではなく、仮想マシンに起動したコンテナが実行することがある。なお、以下ではアプリケーションプログラムのことを単にアプリとも呼ぶ。
コンテナは、ゲストOSのカーネルの一部のみを利用した仮想的なユーザ空間であって、DOCKER(登録商標)等のコンテナエンジンによって生成される。アプリが実行時に参照するライブラリをコンテナに予め格納しておくことで、アプリをコンテナごと他の仮想マシンに移動したときに、移動前と同じ環境でアプリを実行することができる。
但し、コンテナを利用したマルチクラウドには、アプリ等のプログラム間の通信の遅延を抑制するという点で改善の余地がある。
特開2017-219972号公報
一側面によれば、プログラム間の通信の遅延を抑制することを目的とする。
一側面によれば、コンピュータに、第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、第2の仮想マシンを第1のコンテナのスケールアウト先として決定する、処理を実行させるためのコンテナ配置先決定プログラムが提供される。
一側面によれば、プログラム間の通信の遅延を抑制することができる。
図1は、本願発明者が検討したマルチクラウドのシステム構成図である。 図2は、処理の依頼元と依頼先の各アプリの模式図である。 図3は、スケールアウトの一例を示す模式図である。 図4は、スケールアウトをしたときの各アプリへの処理の振り分けを示す模式図である。 図5は、遅延時間の定義を示す模式図である。 図6は、本実施形態に係る情報処理システムの構成図である。 図7は、本実施形態に係る物理サーバの模式図である。 図8は、本実施形態において各クラウド拠点で動作している仮想マシン、コンテナ、及びアプリの各々を示す模式図である。 図9は、本実施形態において仮想マシン、コンテナ、及びアプリの各々によって構築されるシステムの模式図である。 図10は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その1)である。 図11は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その2)である。 図12は、本実施形態に係るコンテナ配置先決定方法について示す模式図(その3)である。 図13は、本実施形態における各コンテナのリソース使用率の監視結果を示す図である。 図14は、本実施形態に係る設計情報の模式図である。 図15は、本実施形態に係る管理情報の模式図である。 図16は、本実施形態においてスケールアウトを行った後におけるシステム30の模式図である。 図17は、本実施形態に係る情報処理装置の機能構成図である。 図18は、本実施形態に係るコンテナ配置先決定方法のフローチャートである。 図19は、本実施形態に係る情報処理装置のハードウェア構成図である。
本実施形態の説明に先立ち、本願発明者が検討した事項について説明する。
図1は、本願発明者が検討したマルチクラウドのシステム構成図である。
このシステム1は、利用者に対してサービスを提供するためのシステムであって、クラウドを提供する事業者やリージョンが異なる複数の仮想マシンVMを組み合わせて構築される。
リージョンは、仮想マシンVMを実行する物理マシンを収容したデータセンタが存在する地域である。例えば、「日本」や「米国」がリージョンとなる。また、事業者は、そのデータセンタを利用して仮想マシンVMを提供する事業者である。図1の例では、事業者Aと事業者Bの各々が提供する仮想マシンVMによってシステム1が構築される。以下では、事業者とリージョンの組のことをクラウド拠点と呼ぶ。例えば、(事業者A、日本)、(事業者A、米国)、(事業者B、日本)、及び(事業者B、米国)は、相異なるクラウド拠点の一例である。
なお、システム1の利用者がオンプレミスでデータセンタを運用している場合には、利用者が自己所有するデータセンタで仮想マシンVMを稼働し、その仮想マシンVMをシステム1に取り入れてもよい。
また、この例では、一つの仮想マシンVMの各々に複数のコンテナ4を配置する。そして、各々のコンテナ4にアプリ5を一つずつ配置する。これにより、コンテナ4をアプリ5ごと他の仮想マシンVMに移動することで、アプリ単位での仮想マシンVMの移動が可能となる。
このようなシステム1においては複数のアプリ5の各々が互いに処理を依頼し合うことにより一つのサービスが実現される。
図2は、処理の依頼元と依頼先の各アプリ5の模式図である。
図2の例では、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ5が、「appV」のアプリ5に処理を依頼する場合を想定している。このように「appV」のアプリ5に処理が集中すると、「appV」のアプリ5のコンテナ4に割り当てられたメモリやCPU(Central Processing Unit)等のリソースが不足し、該アプリ5の処理速度が低下するおそれがある。
これを避けるために、「appV」のアプリ5が動作しているクラウド拠点(事業者A、米国)に新たに仮想マシンVMを作成し、その仮想マシンVMに「appV」のアプリ5が動作しているコンテナ4をスケールアウトすることが考えられる。スケールアウトは、ある仮想マシンVMで動作しているコンテナ4を、そのコンテナ4で動作しているアプリ5ごと他の仮想マシンVMにコピーする操作である。これにより、クラウド拠点(事業者A、米国)の二つの仮想マシンVMで「appV」のアプリ5が動作するため、該アプリ5に処理が集中するのを抑制できる。
但し、このように新たな仮想マシンVMを作成すると、システム1に含まれる仮想マシンVMの個数が増えてしまうため、システム1の利用料金が増えてしまう。
そこで、利用料金が増えるのを防止しつつ、「appV」のアプリ5に処理が集中するのを抑制するために、次のようにシステム1に既に存在する仮想マシンVMをスケールアウト先とすることが考えられる。
図3は、この場合のスケールアウトの一例を示す模式図である。
図3の例では、クラウド拠点(事業者A、米国)において「appV」のアプリ5が動作しているコンテナ4を、クラウド拠点(事業者B、米国)の既存の仮想マシンVMにスケールアウトする。ここでは、スケールアウト前のアプリ5の名前「appV」にプライムを付けた名前「appV’」をスケールアウト先でのアプリ5の名前とする。
図4は、このようにスケールアウトをしたときの各アプリ5への処理の振り分けを示す模式図である。
図4の例では、適当な仮想マシンVMにおいてロードバランサ6を起動し、そのロードバランサ6を用いて「appV」と「appV’」の各アプリ5に処理を均等に振り分ける。これにより、「appV」のアプリ5のコンテナ4に割り当てられたメモリやCPU等のリソースが不足するのを抑制できる。しかも、スケールアウト先の仮想マシンVMはシステム1に元々存在しているため、当該仮想マシンVMを新たに作成する必要がなく、システム1の利用料金が増加するのを防止できる。
しかし、この例のようにスケールアウト先の仮想マシンVMのクラウド拠点が、スケールアウト元の仮想マシンVMのクラウド拠点と異なると、アプリ5の間の遅延時間が増大する可能性が高くなる。
図5は、遅延時間の定義を示す模式図である。
ここでは、「appA」のアプリ5が「appB」のアプリ5に処理を依頼してからその結果が通知されるまでの時間を応答時間TRとする。また、「appB」のアプリ5が当該処理をするのに要する時間を処理時間TPとする。この場合、遅延時間TLはTR - TPで定義される。この定義によれば、遅延時間TLは、通信路に起因した遅延の長さということになる。そのため、異なるクラウド拠点にあるアプリ5の間のように、地理的に離れたアプリ5の間において遅延時間TLは増大し易い。
利用者に対してサービスを提供するシステム1(図3参照)の要件には、遅延時間TLは上限値(例えば5msec)以下にすべきとの制約が課せられることがある。このとき、上記のようにスケールアウトによって二つのアプリ5が異なるクラウド拠点に配置されると、例えばこれらのアプリ5の間の遅延時間TLが10msecとなってしまい、システム1の要件を満たせなくなってしまう。
(本実施形態)
図6は、本実施形態に係る情報処理システムの構成図である。
この情報処理システム20は、マルチクラウドにより利用者にサービスを提供するシステムであって、インターネット等のネットワーク21を介して相互に接続された複数の物理サーバ22と情報処理装置23とを有する。
このうち、物理サーバ22は、クラウドを提供する事業者Aと事業者Bの各々のデータセンタに収容された計算機である。ここでは、事業者A、Bが、それぞれ「日本」と「米国」という異なるリージョンにデータセンタを保有しているものとする。なお、サービスの提供を受ける利用者が自己所有する物理サーバ22を情報処理システム20に含めてもよい。
各物理サーバ22には仮想マシンが起動しており、更にその仮想マシンの内部でコンテナが起動する。そして、各コンテナは、利用者にサービスを提供するための種々のアプリを実行する。
情報処理装置23は、ある仮想マシンで動作しているコンテナのリソース使用率が増えたときに、そのコンテナを他の仮想マシンにスケールアウトする制御を行うためのPC(Personal Computer)やサーバ等の計算機である。
図7は、物理サーバ22の模式図である。
図7に示すように、物理サーバ22は、CPU(Central Processing Unit)やメモリ等の物理的なリソース25を有しており、そのリソース25がホストOS26を実行する。
更に、物理サーバ22は、ホストOS26の上で複数の仮想マシン27を起動する。以下では、各仮想マシン27を「VM1」、「VM2」、…等の文字列で識別する。各仮想マシン27は、リソース25の一部を使用してコンテナ28を起動する。コンテナ28を起動するために各仮想マシン27が使用するコンテナエンジンとしては例えばDOCKER(登録商標)がある。そして、各コンテナ28が一つのアプリ29を実行する。
図8は、各クラウド拠点で動作している仮想マシン27、コンテナ28、及びアプリ29の各々を示す模式図である。
図8に示すように、例えばクラウド拠点(事業者A、米国)において「VM10」の仮想マシン27が動作しており、この仮想マシン27の各コンテナ28において「appV」、「appW」、「appX」の各アプリ29が動作している。
図9は、仮想マシン27、コンテナ28、及びアプリ29の各々によって構築されるシステム30の模式図である。
システム30は、利用者が利用するシステムであって、ネットワーク21によって相互に接続された複数の仮想マシン27を有する。そのシステム30においては、あるアプリ29に処理が集中すると、そのアプリ29を実行しているコンテナ28に割り当てられたリソース25(図7参照)が不足することがある。この場合には、以下のようにして情報処理装置23(図6参照)がコンテナ28をスケールアウトする。
図10~図12は、本実施形態に係るコンテナ配置先決定方法について示す模式図である。
まず、図10に示すように、情報処理装置23が、スケールアウトするコンテナ28として、「appV」のアプリ29が動作しているコンテナ28を特定する。一例として、情報処理装置23は、各コンテナ28のリソース使用率を監視し、リソース使用率が閾値を超えた「appV」のアプリ29が動作しているコンテナ28をスケールアウトが必要なコンテナ28として特定する。
図13は、各コンテナ28のリソース使用率の監視結果を示す図である。
図13においては、各コンテナ28で動作しているアプリ29の名前で各コンテナ28を区別する。また、この例では、各コンテナ28のリソース使用率としてCPU使用率とメモリ使用率の各々を採用し、リソース使用率の閾値として85%を採用した場合を想定する。この場合、情報処理装置23は、CPU使用率とメモリ使用率のいずれかが95%を超えたコンテナ28を、スケールアウトが必要なコンテナ28として特定する。
再び図10を参照する。
次に、情報処理装置23が、「appV」のアプリ29に対して処理を依頼している依頼元のアプリ29を特定する。アプリ29の特定方法は特に限定されない。ここでは、情報処理装置23は、各アプリ29同士が対応付けられた設計情報を参照することにより依頼元のアプリ29を特定する。
図14は、設計情報40の模式図である。
設計情報40は、開発者が情報処理システム20を設計した際に生成した情報であって、処理の依頼元と依頼先のアプリ29同士を対応付けた情報である。ここでは、二つのアプリ29が処理の依頼元と依頼先との関係にある場合に記号「〇」を付し、依頼元と依頼先との関係にない場合には記号「×」を付してある。図14によれば、情報処理装置23は、「appV」のアプリ29に対して処理を依頼している依頼元のアプリ29として、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ29を特定する。
再び図10を参照する。
次に、情報処理装置23が、「appV」のアプリ29に対して処理を依頼している各アプリ29が配置されている仮想マシン27を特定する。図10の例では、情報処理装置23は、「VM1」、「VM7」、及び「VM10」の仮想マシン27を特定する。
仮想マシン27の特定方法は特に限定されない。例えば、情報処理装置23は、Kubernetes等のコンテナ管理プログラムを実行することにより管理情報を生成し、その管理情報に基づいて仮想マシン27を特定する。
図15は、その管理情報41の模式図である。
管理情報41は、アプリ29とそれを実行する仮想マシン27とを対応付けた情報である。図15の例では、「VM1」の仮想マシン27が「appA」と「appB」の各コンテナ28を実行し、「VM7」の仮想マシン27が「appO」と「appP」の各コンテナ28を実行している。また、「VM10」の仮想マシン27が「appW」と「appX」の各コンテナ28を実行している。
次に、図11に示すように、情報処理装置23が、上記で特定した「VM1」と「VM7」の各仮想マシン27を、「appV」のアプリ29を実行しているコンテナ28のスケールアウト先として決定する。なお、「VM10」の仮想マシン27においては既に「appV」のアプリ29が実行されているため、情報処理装置23は、「VM10」の仮想マシン27についてはスケールアウト先から除外する。
その後、情報処理装置23が、「VM1」と「VM7」の各仮想マシン27に、「appV」のアプリ29を実行しているコンテナ28をスケールアウトする。ここでは、「VM1」の仮想マシン27にスケールアウトしたコンテナ28が実行するアプリ29の名前を「appV’」とし、「VM7」の仮想マシン27にスケールアウトしたコンテナ28が実行するアプリ29の名前を「appV”」とする。
次に、図12に示すように、情報処理装置23が、「appA」と「appB」の各アプリ29が処理を依頼する依頼先を、これらのアプリ29と同じ「VM1」の仮想マシン27にある「appV’」のアプリ29に変更する。同様に、情報処理装置23は、「appO」と「appP」の各アプリ29が処理を依頼する依頼先を、これらのアプリ29と同じ「VM7」の仮想マシン27にある「appV”」のアプリ29に変更する。
以上により、本実施形態に係るコンテナ配置先決定方法の基本的な処理を終える。
図16は、上記のようにスケールアウトを行った後におけるシステム30の模式図である。
図16に示すように、スケールアウトした後においては、「appA」と「appB」の各アプリ29が処理を依頼する依頼先が、これらのアプリ29と同じ「VM1」の仮想マシン27で動作する「appV’」のアプリ29となる。同様に、「appO」と「appP」の各アプリ29が処理を依頼する依頼先が、これらのアプリ29と同じ「VM7」の仮想マシン27で動作する「appV”」のアプリ29となる。
これにより、スケールアウトに起因して相異なるクラウド拠点にあるアプリ29間で処理の依頼が発生するのを抑制でき、アプリ29の間の通信の遅延を抑制できる。その結果、システム30の要件に遅延時間の上限値が規定されている場合に、スケールアウト後でもその要件を満たすことができるようになる。
次に、本実施形態に係る情報処理装置23の機能構成について説明する。
図17は、本実施形態に係る情報処理装置23の機能構成図である。
図17に示すように、情報処理装置23は、記憶部51、通信部52、及び制御部53を備える。
このうち、記憶部51は、前述の設計情報40(図14)と管理情報41(図15参照)とを記憶する。
また、通信部52は、情報処理装置23をネットワーク21(図6参照)に接続する通信インターフェースである。
制御部53は、情報処理装置23の各部を制御する処理部であって、リソース監視部55、アプリ特定部56、仮想マシン特定部57、決定部58、スケールアウト実行部59、及び依頼先変更部60を有する。
このうち、リソース監視部55は、システム30(図9参照)に含まれる全てのコンテナ28のリソース使用率を監視する処理部である。監視対象のリソース使用率としては、例えばメモリ使用率とCPU使用率がある。
アプリ特定部56は、リソース使用率が閾値を超えたコンテナ28で動作しているアプリ29を特定し、更にそのアプリ29に処理を依頼している依頼元のアプリ29を特定する処理部である。一例として、アプリ特定部56は、図14の設計情報40を参照して依頼元のアプリ29を特定する。図14の例において「appV」のアプリ29が動作しているコンテナ28のリソース使用率が閾値を超えた場合には、アプリ特定部56は、「appA」、「appB」、「appO」、「appP」、「appW」、及び「appX」の各アプリ29を依頼元として特定する。
仮想マシン特定部57は、図15の管理情報41を参照することにより、アプリ特定部56が特定したアプリ29が動作しているコンテナ28が配置されている仮想マシン27を特定する処理部である。図15の例では、仮想マシン特定部57は、「VM1」、「VM7」、及び「VM10」の各仮想マシン27を特定する。
決定部58は、仮想マシン特定部57が特定した仮想マシン27を、リソース使用率が閾値を超えたコンテナ28のスケールアウト先として決定する処理部である。図15の場合では、決定部58は、「VM1」と「VM7」の各仮想マシン27を、「appV」のアプリ29を実行しているコンテナ28のスケールアウト先として決定する。なお、決定部58は、既に「appV」のアプリ29を実行している「VM10」の仮想マシン27についてはスケールアウト先から除外する。
スケールアウト実行部59は、図11に示したように、決定部58が決定したスケールアウト先の仮想マシン27に実際にコンテナ28をスケールアウトする処理部である。
依頼先変更部60は、アプリ特定部56が特定したアプリ29が処理を依頼する依頼先を、スケールアウト後のコンテナ28で動作するアプリ29に変更する処理部である。図12の例では、依頼先変更部60は、「appA」と「appB」の各アプリ29が処理を依頼する依頼先を「appV’」のアプリ29に変更する。同様に、依頼先変更部60は、「appO」と「appP」の各アプリ29が処理を依頼する依頼先を「appV”」のアプリ29に変更する。
次に、本実施形態に係るコンテナ配置先決定方法について説明する。
図18は、本実施形態に係るコンテナ配置先決定方法のフローチャートである。
まず、リソース監視部55が、システム30(図9参照)に含まれる全てのコンテナ28のリソース使用率を監視する(ステップS11)。
次に、アプリ特定部56が、リソース使用率が閾値を超えたコンテナ28で動作しているアプリ29を特定し、更にそのアプリ29に処理を依頼している依頼元のアプリ29を特定する(ステップS12)。
次いで、仮想マシン特定部57が、依頼元のアプリ29が動作しているコンテナ28が配置されている仮想マシン27を特定する(ステップS13)。
続いて、決定部58が、ステップS13で特定した仮想マシン27を、リソース使用率が閾値を超えたコンテナ28のスケールアウト先として決定する(ステップS14)。
次に、スケールアウト実行部59が、ステップS14で決定したスケールアウト先の仮想マシン27に、リソース使用率が閾値を超えたコンテナ28をスケールアウトする(ステップS15)。
そして、依頼先変更部60が、ステップS12で特定したアプリ29が処理を依頼する依頼先を、スケールアウト後のコンテナ28で動作するアプリ29に変更する(ステップS16)。
以上により、本実施形態に係るコンテナ配置先決定方法の基本的な処理を終える。
上記した本実施形態によれば、リソース使用率が閾値を超えたコンテナ28のスケールアウト先を、該アプリ29に処理を依頼している依頼元のアプリ29が動作しているコンテナ28が配置されている仮想マシン27とする。これにより、処理の依頼元と依頼先の二つのアプリ29がスケールアウト後に同一の仮想マシン27で動作するため、異なるクラウド拠点にある二つのアプリ29の間で処理の依頼が発生しない。その結果、アプリ29の間における遅延時間TLを抑制することができ、遅延時間TLがシステム30の要件を満たさなくなる可能性を低減できる。
(ハードウェア構成)
図19は、情報処理装置23のハードウェア構成図である。
図19に示すように、情報処理装置23は、記憶装置23a、メモリ23b、プロセッサ23c、通信インターフェース23d、表示装置23e、入力装置23f、及び媒体読取装置23gを有する。これらの各部は、バス23iにより相互に接続される。
このうち、記憶装置23aは、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性のストレージであって、本実施形態に係るコンテナ配置先決定プログラム100を記憶する。
なお、コンテナ配置先決定プログラム100をコンピュータが読み取り可能な記録媒体23hに記録し、媒体読取装置23gを介してプロセッサ23cにそのコンテナ配置先決定プログラム100を読み取らせるようにしてもよい。
そのような記録媒体23hとしては、例えばCD-ROM (Compact Disc - Read Only Memory)、DVD (Digital Versatile Disc)、及びUSB (Universal Serial Bus)メモリ等の物理的な可搬型記録媒体がある。また、フラッシュメモリ等の半導体メモリやハードディスクドライブを記録媒体23hとして使用してもよい。これらの記録媒体23hは、物理的な形態を持たない搬送波のような一時的な媒体ではない。
更に、公衆回線、インターネット、及びLAN等に接続された装置にコンテナ配置先決定プログラム100を記憶させてもよい。その場合は、プロセッサ23cがそのコンテナ配置先決定プログラム100を読み出して実行すればよい。
一方、メモリ23bは、DRAM(Dynamic Random Access Memory)等のようにデータを一時的に記憶するハードウェアであって、その上にコンテナ配置先決定プログラム100が展開される。
プロセッサ23cは、情報処理装置23の各部を制御するCPUやGPU(Graphical Processing Unit)等のハードウェアである。また、プロセッサ23cは、メモリ23bと協働してコンテナ配置先決定プログラム100を実行する。
このようにメモリ23bとプロセッサ23cとが協働してコンテナ配置先決定プログラム100を実行することにより、情報処理装置23の制御部53(図17参照)が実現される。その制御部53には、リソース監視部55、アプリ特定部56、仮想マシン特定部57、決定部58、スケールアウト実行部59、及び依頼先変更部60が含まれる。
また、記憶部51(図17参照)は、記憶装置23aとメモリ23bによって実現される。
更に、通信インターフェース23dは、情報処理装置23をネットワーク21(図6参照)に接続するためのNIC(Network Interface Card)等のハードウェアである。その通信インターフェース23dにより通信部52(図17参照)が実現される。
そして、表示装置23eは、各種の情報を表示するための液晶ディスプレイやタッチパネル等のハードウェアである。
また、入力装置23fは、システム30の管理者が情報処理装置23に各種のデータを入力するためのキーボードやマウス等のハードウェアである。
媒体読取装置23gは、記録媒体23hを読み取るためのCDドライブ、DVDドライブ、及びUSBインターフェース等のハードウェアである。
1…システム、4…コンテナ、5…アプリ、6…ロードバランサ、20…情報処理システム、21…ネットワーク、22…物理サーバ、23…情報処理装置、25…リソース、27…仮想マシン、28…コンテナ、29…アプリ、30…システム、40…設計情報、41…管理情報、51…記憶部、52…通信部、53…制御部、55…リソース監視部、56…アプリ特定部、57…仮想マシン特定部、58…決定部、59…スケールアウト実行部、60…依頼先変更部。

Claims (5)

  1. コンピュータに、
    第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、
    前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、
    前記第2の仮想マシンを前記第1のコンテナのスケールアウト先として決定する、
    処理を実行させるためのコンテナ配置先決定プログラム。
  2. 前記コンピュータに、
    前記第2の仮想マシンに前記第1のコンテナをスケールアウトし、
    前記第2のプログラムが処理を依頼する依頼先を、スケールアウトにより前記第2の仮想マシンに配置された前記第1のコンテナで動作する前記第1のプログラムに変更する、
    処理を実行させるための請求項1に記載のコンテナ配置先決定プログラム。
  3. 前記第1の仮想マシンと前記第2の仮想マシンは、それぞれ異なるクラウド拠点に配置されていることを特徴とする請求項1に記載のコンテナ配置先決定プログラム。
  4. 前記コンピュータに、
    前記第1のプログラムと前記第2のプログラムとを対応付けた情報を記憶した記憶部を参照することにより、前記第1のプログラムに対して処理を依頼している前記第2のプログラムを特定する、
    処理を実行させるための請求項1に記載のコンテナ配置先決定プログラム。
  5. コンピュータが、
    第1の仮想マシンに配置されている第1のコンテナのリソース使用率が閾値を超えたときに、前記第1のコンテナで動作している第1のプログラムに対して処理を依頼している第2のプログラムを特定し、
    前記第2のプログラムが動作している第2のコンテナが配置されている第2の仮想マシンを特定し、
    前記第2の仮想マシンを前記第1のコンテナのスケールアウト先として決定する、
    処理を実行することを特徴とするコンテナ配置先決定方法。
JP2020120485A 2020-07-14 2020-07-14 コンテナ配置先決定プログラム、及びコンテナ配置先決定方法 Active JP7469655B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020120485A JP7469655B2 (ja) 2020-07-14 2020-07-14 コンテナ配置先決定プログラム、及びコンテナ配置先決定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020120485A JP7469655B2 (ja) 2020-07-14 2020-07-14 コンテナ配置先決定プログラム、及びコンテナ配置先決定方法

Publications (2)

Publication Number Publication Date
JP2022017754A JP2022017754A (ja) 2022-01-26
JP7469655B2 true JP7469655B2 (ja) 2024-04-17

Family

ID=80186157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020120485A Active JP7469655B2 (ja) 2020-07-14 2020-07-14 コンテナ配置先決定プログラム、及びコンテナ配置先決定方法

Country Status (1)

Country Link
JP (1) JP7469655B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221049A (ja) 2011-04-05 2012-11-12 Hitachi Ltd データセンタシステム管理方法、データセンタシステム、及び管理装置
JP2019135597A (ja) 2018-02-05 2019-08-15 富士通株式会社 性能調整プログラム、および性能調整方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221049A (ja) 2011-04-05 2012-11-12 Hitachi Ltd データセンタシステム管理方法、データセンタシステム、及び管理装置
JP2019135597A (ja) 2018-02-05 2019-08-15 富士通株式会社 性能調整プログラム、および性能調整方法

Also Published As

Publication number Publication date
JP2022017754A (ja) 2022-01-26

Similar Documents

Publication Publication Date Title
US10055257B2 (en) Virtual machine placement in a cloud computing environment based on factors including optimized processor-memory affinity
JP5497201B2 (ja) 資源を配分する方法、資源を配分するためのコンピュータ・プログラム、及び資源を配分するシステム
US9413683B2 (en) Managing resources in a distributed system using dynamic clusters
US8413142B2 (en) Storage optimization selection within a virtualization environment
US8904384B2 (en) Reducing data transfer overhead during live migration of a virtual machine
US9417912B2 (en) Ordering tasks scheduled for execution based on priority and event type triggering the task, selecting schedulers for tasks using a weight table and scheduler priority
RU2569805C2 (ru) Виртуальная архитектура неоднородной памяти для виртуальных машин
US10445122B2 (en) Effective and efficient virtual machine template management for cloud environments
EP3230873B1 (en) Computing method and apparatus with persistent memory
US8135899B1 (en) Expansion of virtualized physical memory of virtual machine
US20100115510A1 (en) Virtual graphics device and methods thereof
US20120254860A1 (en) Virtual machine placement to improve memory utilization
JP2013518330A5 (ja)
US20130167146A1 (en) Scheduling virtual central processing units of virtual machines among physical processing units
Fuerst et al. Memory-harvesting vms in cloud platforms
US20190188032A1 (en) Thread interrupt offload re-prioritization
CN113391881B (zh) 中断的管理方法、装置、电子设备及计算机存储介质
US11093403B2 (en) System and methods of a self-tuning cache sizing system in a cache partitioning system
KR102001641B1 (ko) 가상화 환경에서의 gpu 자원 관리 방법 및 장치
US20150186180A1 (en) Systems and methods for affinity dispatching based on network input/output requests
JP7469655B2 (ja) コンテナ配置先決定プログラム、及びコンテナ配置先決定方法
JP2021196687A (ja) 計算機システム及び計算機システムの制御方法
US20210326150A1 (en) Integrated network boot operating system installation leveraging hyperconverged storage
US11003488B2 (en) Memory-fabric-based processor context switching system
LU501202B1 (en) Prioritized thin provisioning with eviction overflow between tiers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7469655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150