JP6944156B2 - Orchestrator equipment, programs, information processing systems, and control methods - Google Patents

Orchestrator equipment, programs, information processing systems, and control methods Download PDF

Info

Publication number
JP6944156B2
JP6944156B2 JP2018177751A JP2018177751A JP6944156B2 JP 6944156 B2 JP6944156 B2 JP 6944156B2 JP 2018177751 A JP2018177751 A JP 2018177751A JP 2018177751 A JP2018177751 A JP 2018177751A JP 6944156 B2 JP6944156 B2 JP 6944156B2
Authority
JP
Japan
Prior art keywords
service
quality
chains
future
chain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018177751A
Other languages
Japanese (ja)
Other versions
JP2020053711A (en
Inventor
太一 川幡
太一 川幡
篤 谷口
篤 谷口
勇貴 南
勇貴 南
栗本 崇
崇 栗本
漆谷 重雄
重雄 漆谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Inter University Research Institute Corp Research Organization of Information and Systems
Original Assignee
Nippon Telegraph and Telephone Corp
Inter University Research Institute Corp Research Organization of Information and Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Inter University Research Institute Corp Research Organization of Information and Systems filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018177751A priority Critical patent/JP6944156B2/en
Publication of JP2020053711A publication Critical patent/JP2020053711A/en
Application granted granted Critical
Publication of JP6944156B2 publication Critical patent/JP6944156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、オーケストレータ装置、プログラム、情報処理システム、及び制御方法に関する。 The present invention relates to an orchestrator device, a program, an information processing system, and a control method.

従来、ネットワークサービスを提供するためのアプリケーションを、機能単位で複数の構成要素(マイクロサービス)に分けて開発し、ネットワーク上で連携させる技術が知られている(例えば、非特許文献1参照)。各マイクロサービスを実現する機能を「仮想ネットワーク機能(VNF;Virtual Network Function)」といい、互いに連携して1つのサービスを構成する複数のVNFの組合せを「サービスチェーン」という。例えば、ネットショッピングのサービスチェーンは、顧客管理機能、注文管理機能、在庫管理機能、及び出荷管理機能等の複数のVNFを含んで構成され得る。VNFは、物理プラットフォーム(例えば、物理計算機、又はIaaS(Infrastructure as a Service)やPaaS(Platform as a Service)等のデータセンタ)に配置される。当該技術は、システム構築における設計・試験の効率化及び運用における維持管理の簡易さ・コスト削減効果等から、今後も有望な技術と見込まれる。 Conventionally, there is known a technique of developing an application for providing a network service by dividing it into a plurality of components (microservices) for each function and linking them on a network (see, for example, Non-Patent Document 1). A function that realizes each microservice is called a "virtual network function (VNF)", and a combination of a plurality of VNFs that cooperate with each other to form one service is called a "service chain". For example, an online shopping service chain may be configured to include a plurality of VNFs such as a customer management function, an order management function, an inventory management function, and a shipping management function. The VNF is located on a physical platform (for example, a physical computer or a data center such as Infrastructure as a Service (IAaS) or Platform as a Service (PaaS)). This technology is expected to continue to be a promising technology because of the efficiency of design and testing in system construction, the ease of maintenance and cost reduction in operation, and so on.

Lianping Chen, “Microservices: Architecting for Continuous Delivery and DevOps”, in IEEE International Conference on Software Architecture, March 2018, Seattle, USA: IEEELianping Chen, “Microservices: Architecting for Continuous Delivery and DevOps”, in IEEE International Conference on Software Architecture, March 2018, Seattle, USA: IEEE

ハードウェアの発達とともに、単独のサービスではハードウェアリソースを余らせることが多くなる。コスト削減のために、多数の異なるVNFを同じ物理プラットフォームに配置することが多くなる。例えば、マイクロサービスアーキテクチャを効率的に運用するために、計算機のリソース量やネットワークの帯域に比較して実使用リソース量が少ないVNFは、1つの物理プラットフォームに集約させることで、運用コストを削減させる。しかしながら、単一の物理プラットフォームに多数のVNFを配置すると、特定のサービスチェーンの稼働率又はネットワーク帯域がピークに到達したとき、当該サービスチェーンは、他の同居しているサービスから影響を受け、サービス品質が低下するという問題がある。サービス提供者と物理プラットフォーム提供者とが異なる場合、当該問題の回避は困難である。また、当該サービスチェーンが、他の同居しているサービスに悪影響を与えたり、それらの性能を悪化させたりする場合がある。したがって、サービスチェーンの信頼性の向上が望まれている。 With the development of hardware, a single service often leaves more hardware resources. Many different VNFs are often located on the same physical platform to reduce costs. For example, in order to operate a microservice architecture efficiently, VNFs, which have a small amount of actual resources compared to the amount of computer resources and network bandwidth, can be consolidated on one physical platform to reduce operating costs. .. However, with multiple VNFs on a single physical platform, when a particular service chain's utilization or network bandwidth peaks, that service chain is affected by other co-existing services and services. There is a problem that the quality deteriorates. If the service provider and the physical platform provider are different, it is difficult to avoid the problem. In addition, the service chain may adversely affect other cohabiting services or deteriorate their performance. Therefore, it is desired to improve the reliability of the service chain.

かかる事情に鑑みてなされた本発明の目的は、サービスチェーンの信頼性を向上させることにある。 An object of the present invention made in view of such circumstances is to improve the reliability of the service chain.

本発明の一実施形態に係るオーケストレータ装置は、
複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置であって、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶部と、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定し、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定する制御部と、を備える。
The orchestrator device according to the embodiment of the present invention is
An orchestrator device that manages multiple service chains that are configured by linking multiple virtual network functions (VNFs) located on multiple physical platforms.
A storage unit that stores one or a plurality of neural networks that output an estimated value of service quality of each service chain, and a storage unit.
One of the plurality of service chains is set as the default service chain to be used by the user.
Obtain an estimate of the future quality of service of each service chain output from the neural network.
Based on the estimated value of the future service quality of each of the service chains, the other service chains that are estimated to have better future service quality than the default service chain are identified from the plurality of service chains.
It includes a control unit that resets the specified service chain to the default service chain.

本発明の一実施形態に係るプログラムは、
情報処理装置を、
複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置であって、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶部と、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定し、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定する制御部と、を備える、オーケストレータ装置として機能させる。
The program according to the embodiment of the present invention
Information processing device,
An orchestrator device that manages multiple service chains that are configured by linking multiple virtual network functions (VNFs) located on multiple physical platforms.
A storage unit that stores one or a plurality of neural networks that output an estimated value of service quality of each service chain, and a storage unit.
One of the plurality of service chains is set as the default service chain to be used by the user.
Obtain an estimate of the future quality of service of each service chain output from the neural network.
Based on the estimated value of the future service quality of each of the service chains, the other service chains that are estimated to have better future service quality than the default service chain are identified from the plurality of service chains.
It functions as an orchestrator device including a control unit that resets the specified service chain to the default service chain.

本発明の一実施形態に係る情報処理システムは、
複数の物理プラットフォームと、前記複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置と、を備える情報処理システムであって、
前記オーケストレータ装置は、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶部と、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定し、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定する制御部と、を有する。
The information processing system according to the embodiment of the present invention is
It is an information processing system including a plurality of physical platforms and an orchestrator device that manages a plurality of service chains configured by coordinating a plurality of virtual network functions (VNFs) arranged on the plurality of physical platforms. hand,
The orchestrator device is
A storage unit that stores one or a plurality of neural networks that output an estimated value of service quality of each service chain, and a storage unit.
One of the plurality of service chains is set as the default service chain to be used by the user.
Obtain an estimate of the future quality of service of each service chain output from the neural network.
Based on the estimated value of the future service quality of each of the service chains, the other service chains that are estimated to have better future service quality than the default service chain are identified from the plurality of service chains.
It has a control unit that resets the specified service chain to the default service chain.

本発明の一実施形態に係る制御方法は、
複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置の制御方法であって、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶ステップと、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定するステップと、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得する取得ステップと、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する特定ステップと、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定するステップと、を含む。
The control method according to the embodiment of the present invention is
It is a control method of an orchestrator device that manages a plurality of service chains configured by coordinating multiple virtual network functions (VNFs) arranged on a plurality of physical platforms.
A storage step that stores one or more neural networks that output quality of service estimates for each of the service chains.
A step of setting one of the plurality of service chains as the default service chain to be used by the user, and
An acquisition step for acquiring an estimate of the future quality of service of each service chain output from the neural network,
A specific step of identifying another service chain that is presumed to have better future service quality than the default service chain from among the plurality of service chains based on the estimated value of the future service quality of each said service chain. When,
Includes a step of resetting the identified service chain to the default service chain.

本発明の一実施形態に係るオーケストレータ装置、プログラム、情報処理システム、及び制御方法によれば、サービスチェーンの信頼性が向上する。 According to the orchestrator device, the program, the information processing system, and the control method according to the embodiment of the present invention, the reliability of the service chain is improved.

本発明の一実施形態に係る情報処理システムの概略構成を示す図である。It is a figure which shows the schematic structure of the information processing system which concerns on one Embodiment of this invention. サービスチェーンの概略構成を示す図である。It is a figure which shows the schematic structure of the service chain. ニューラルネットワークの例を示す図である。It is a figure which shows the example of the neural network. オーケストレータ装置の第1動作を示すフローチャートである。It is a flowchart which shows the 1st operation of an orchestrator apparatus. オーケストレータ装置の第2動作を示すフローチャートである。It is a flowchart which shows the 2nd operation of an orchestrator apparatus. オーケストレータ装置の第3動作を示すフローチャートである。It is a flowchart which shows the 3rd operation of an orchestrator apparatus.

以下、本発明の実施形態について説明する。概略として、本実施形態に係る発明は、サービスチェーンを構成する複数のVNFがネットワーク上に分散して配置されるマイクロサービス環境における信頼性を向上させる。具体的には、本実施形態では、同一のVNFをインターネット上に分散配置し、全ての組合せにおける性能を測定、測定結果を深層学習し、性能の劣化が予想される箇所を事前に検知し、その箇所への作業リクエスト配送^を減らすことで、サービス全体の効率を向上させる。 Hereinafter, embodiments of the present invention will be described. As a general rule, the invention according to the present embodiment improves reliability in a microservice environment in which a plurality of VNFs constituting a service chain are distributed and arranged on a network. Specifically, in the present embodiment, the same VNF is distributed and arranged on the Internet, the performance in all combinations is measured, the measurement results are deep-learned, and the portion where the deterioration of the performance is expected is detected in advance. By reducing the work request delivery ^ to that location, the efficiency of the entire service is improved.

例えば、多数のサービスチェーンを地理的に離れた場所に複製してそれらのサービス品質の周期性を学習することで、サービスチェーンのサービス品質悪化の兆候を検出し、事前に帯域を調整させる。同一のVNFを複数の場所に複製すると、単一の場所に配置するよりもコストが上昇すると思われるかもしれないが、動作を確実にするために、大きなリソースを確保した高価な特定箇所の物理プラットフォームを使用するよりは、小さなリソースを安価で確保した物理プラットフォームを世界中で分散させ、需要の予測に応じて柔軟にリソースを調整する方が、信頼性・コスト面で有利となることを目指す。 For example, by replicating a large number of service chains to geographically separated locations and learning the periodicity of their service quality, it is possible to detect signs of service quality deterioration in the service chain and adjust the bandwidth in advance. Duplicating the same VNF in multiple locations may seem more costly than placing it in a single location, but expensive specific physics with large resources to ensure operation. Rather than using a platform, we aim to be more reliable and cost effective by distributing physical platforms that secure small resources at low cost around the world and flexibly adjusting resources according to demand forecasts. ..

(情報処理システムの構成)
図1を参照して、本発明の一実施形態に係る情報処理システム1の概要について説明する。情報処理システム1は、複数の物理プラットフォームb(b〜b。ただし、nは2以上の整数。)と、オーケストレータ装置10と、ロードバランサc(c〜c。ただし、mは2以上の整数。)と、プローブ20と、を備える。各物理プラットフォームb、各ロードバランサc、オーケストレータ装置10、及びプローブ20は、例えばインターネット等を含むネットワーク30に接続される。
(Configuration of information processing system)
An outline of the information processing system 1 according to the embodiment of the present invention will be described with reference to FIG. The information processing system 1 includes a plurality of physical platforms b (b 1 to b n , where n is an integer of 2 or more), an orchestrator device 10, and a load balancer c (c 1 to cm , where m is an integer of 2 or more). An integer of 2 or more) and a probe 20 are provided. Each physical platform b, each load balancer c, an orchestrator device 10, and a probe 20 are connected to a network 30 including, for example, the Internet.

物理複数の物理プラットフォームb〜bには、サービスチェーンを構成するための複数のVNFa(a〜a)が配置される。1つの物理プラットフォームbに1つ又は複数のVNFaが配置されてもよい。少なくとも1つのVNFaは、複製されて2つ以上の物理プラットフォームbに分散配置される。本実施形態では、各物理プラットフォームbに全てのVNFa〜aが配置されている構成について例示的に説明する。2つ以上の物理プラットフォームbが、同一の地理的領域に存在してもよく、異なる地理的領域に存在してもよい。 Physical The plurality of physical platforms b 1 ~b n, a plurality of VNFa for configuring the service chain (a 1 ~a m) are disposed. One or more VNFa may be arranged on one physical platform b. At least one VNFa is replicated and distributed across two or more physical platforms b. In the present embodiment, all the VNFa 1 ~a m exemplarily described configuration are arranged on each physical platform b. Two or more physical platforms b may be located in the same geographical area or may be located in different geographical areas.

物理プラットフォームbは、例えば1つの情報処理装置であってもよく、或いは同一の地理的領域に設置され互いに通信可能な複数の情報処理装置であってもよい。物理プラットフォームbは、例えば通信インタフェースと、メモリと、プロセッサと、を備える。物理プラットフォームbは、通信インタフェースを介してネットワーク30に接続される。物理プラットフォームbは、配置されたVNFaを実現するために用いられる任意のソフトウェア資源をメモリに記憶する。物理プラットフォームbは、メモリに記憶された当該ソフトウェア資源を用いた情報処理をプロセッサで実行することによって、VNFaを実現する。 The physical platform b may be, for example, one information processing device, or may be a plurality of information processing devices installed in the same geographical area and capable of communicating with each other. The physical platform b includes, for example, a communication interface, a memory, and a processor. The physical platform b is connected to the network 30 via a communication interface. The physical platform b stores arbitrary software resources used to realize the deployed VNFa in memory. The physical platform b realizes VNFa by executing information processing using the software resource stored in the memory in the processor.

ロードバランサc〜cは、VNFa〜aに対応して設けられる。ロードバランサcは、クライアント又はプローブ20からのリクエストを、対応するVNFaが配置された複数の物理プラットフォームbの間で割り振ることで負荷を分散する。 Load Balancer c 1 to c m are provided in correspondence with the VNFa 1 ~a m. The load balancer c distributes the load by allocating the request from the client or the probe 20 among the plurality of physical platforms b in which the corresponding VNFa is arranged.

図2を参照して詳細に説明する。以下、VNFa (j)は、ロードバランサcに対応し、物理プラットフォームbに配置されているVNFaであることを示す。例えば、ロードバランサcは、対応するVNFa (1)〜a (n)のうち、いずれか1つのVNFa (j)が配置された物理プラットフォームbにリクエストを割り振る。VNFa (j)を実行した物理プラットフォームbは、リクエストを次のロードバランサcに送信する。最終的に、VNFa〜aが実行され、サービスチェーンが実現する。本実施形態では、同一種類のVNFaであっても、その実行主体によって異なるVNFaであるものとして扱う。したがって、VNFa〜aの実行主体である物理プラットフォームbの組合せが異なる場合、実現されるサービスチェーンも異なるものとして区別する。以下、サービスチェーンを{a (i1),a (i2),…,a (im)}(ただし、1≦i1,i2,…,im≦n。)とも表現する。例えば、VNFa〜aの全てを物理プラットフォームbが実行した場合のサービスチェーン{a (1),a (1),…,a (1)}と、VNFaを物理プラットフォームbが実行し、VNFa〜aを物理プラットフォームbが実行した場合のサービスチェーン{a (1),a (2),…,a (2)}とは互いに異なる。本実施形態では、n個の物理プラットフォームb〜bのそれぞれにm個のVNFa〜aが配置されているため、これらが複数のロードバランサc〜cによって接続され、n個のサービスチェーンが仮想的に構成される。 This will be described in detail with reference to FIG. Hereinafter, VNFa i (j) is indicative of a VNFa which corresponds to the load balancer c i, are arranged in the physical platform b j. For example, the load balancer c 1, the corresponding VNFa 1 (1) ~a 1 of the (n), allocates the request to the physical platform b j any one VNFa 1 (j) is located. Physical platform b j executing VNFa 1 a (j) sends a request to the following load balancer c 2. Finally, VNFa 1 ~a m is performed, the service chain is realized. In the present embodiment, even for the same type of VNFa i, treated as by the execution subject is different VNFa i. Therefore, when a combination of physical platform b is a main execution body of VNFa 1 ~a m are different, distinguished as different service chain is realized. Hereinafter, the service chain {a 1 (i1), a 2 (i2), ..., a m (im)} ( however, 1 ≦ i1, i2, ... , im ≦ n.) Also expressed. For example, VNFa 1 ~a all physical platform b service chain if 1 executes the m {a 1 (1), a 2 (1), ..., a m (1)} and, physics VNFa 1 platform b 1 executes, VNFa 2 ~a m the service chain in a case where the physical platform b 2 has executed {a 1 (1), a 2 (2), ..., a m (2)} are different from each other and. In the present embodiment, since the m VNFa 1 ~a m are arranged in each of the n physical platform b 1 ~b n, it is connected by a plurality of load balancers c 1 to c m, n m Individual service chains are virtually configured.

ここで、クライアント(例えば、ユーザの使用する端末装置)及びプローブ20のいずれからのリクエストであるかに応じて、ロードバランサcによる割り振り先の決定方法が異なる。クライアントからのリクエストである場合、ロードバランサcは、対応するVNFa (1)〜a (n)のうち、規定(デフォルト)の1つのVNFa (j)が配置された物理プラットフォームbを優先的に割り振り先として決定する。いずれの物理プラットフォームbを規定とするかは、オーケストレータ装置10によりロードバランサc毎に定められる。以下、規定のVNFa〜aにより実現されクライアント(ユーザ)に利用させるサービスチェーンを、デフォルトサービスチェーンともいう。したがって、例えば各物理プラットフォームbのパフォーマンスが十分高い場合(即ち、ロードバランシングを行う必要がない場合)、クライアントからのリクエストは、デフォルトサービスチェーンで処理される。なお、デフォルトサービスチェーンを構成する各VNFaには、当該VNFaが配置された物理プラットフォームbの、より大きなリソースとネットワーク帯域が割り当てられ、当該物理プラットフォームbに配置された他のVNFaには必要最低限のリソースしか割り当てられなくてもよい。 Here, the method of determining the allocation destination by the load balancer c differs depending on whether the request is from the client (for example, the terminal device used by the user) or the probe 20. If the request is from the client, the load balancer c i, the corresponding VNFa i (1) ~a of the i (n), defined one VNFa i (j) is arranged physical platform b j (default) Is preferentially determined as the allocation destination. Which physical platform b is specified is determined by the orchestrator device 10 for each load balancer c. Hereinafter, the service chain is utilized in the client is realized by VNFa 1 ~a m defined (user), also referred to as a default service chain. Therefore, for example, if the performance of each physical platform b is sufficiently high (that is, if load balancing does not need to be performed), the request from the client is processed by the default service chain. Each VNF that constitutes the default service chain is allocated a larger resource and network bandwidth of the physical platform b on which the VNF is located, and the other VNFs located on the physical platform b are the minimum required. Resources need only be allocated.

一方、プローブ20からのリクエストである場合、ロードバランサCは、対応するVNFa (1)〜a (n)が配置された全ての物理プラットフォームb〜bのうち、プローブ20によって指定された1つ以上の物理プラットフォームbを割り振り先として決定する。本実施形態では、プローブ20は、対応するVNFa (1)〜a (n)が配置された全ての物理プラットフォームb〜bを指定する。したがって、プローブ20からのリクエストは、n個のサービスチェーンそれぞれで処理される。 On the other hand, if the request is from the probe 20, the load balancer C i, the corresponding VNFa i (1) ~a i ( n) is of all the physical platform b 1 ~b n arranged, designated by the probe 20 One or more physical platforms b that have been assigned are determined as allocation destinations. In this embodiment, the probe 20 designate corresponding VNFa i (1) ~a i ( n) all the disposed physical platform b 1 ~b n. Therefore, the request from the probe 20 is processed by each of the nm service chains.

プローブ20は、リクエストをロードバランサcに送信することによりn個のサービスチェーンが実行されると、サービスチェーンのサービス品質の実績データQ=[q (1),…,q (n^m)]を測定する。ここで、q (i)(ただし、1≦i≦n。)は、i番目のサービスチェーンのサービス品質の実績値である。サービスチェーンのサービス品質は、サービスチェーンの観測可能な品質を示す情報であって、例えば当該サービスチェーンを利用するエンドユーザの体感品質(QoE;Quality of Experience)を任意の手法で定量化した情報であるが、これに限られず任意に定められてもよい。 Probe 20, the n m-number of the service chain is performed by sending a request to the load balancer c 1, results of the service quality of the service chain data Q 0 = [q 0 (1 ), ..., q 0 ( n ^ m) ] is measured. Here, q 0 (i) (where 1 ≦ i ≦ nm ) is the actual value of the service quality of the i-th service chain. The service quality of a service chain is information indicating the observable quality of the service chain, for example, information obtained by quantifying the quality of experience (QoE) of end users who use the service chain by an arbitrary method. However, the present invention is not limited to this, and may be arbitrarily determined.

オーケストレータ装置10は、例えばコンピュータ等の情報処理装置であって、ネットワーク30に接続される。オーケストレータ装置10は、複数のVNFa〜aが連携することによって構成されるサービスチェーンを管理する。具体的には、オーケストレータ装置10は、複数の物理プラットフォームb〜bに複数のVNFa〜aを分散配置し、これらを連携させることによって、複数(本実施形態では、n個)のサービスチェーンを構成する。本実施形態において「物理プラットフォームbにVNFaを配置する」ことは、当該VNFaの実行主体を当該物理プラットフォームbに決定すること、及び、当該VNFaを実現するためのソフトウェア資源を当該物理プラットフォームbに記憶させることを含んでもよい。 The orchestrator device 10 is an information processing device such as a computer, and is connected to the network 30. Orchestrator apparatus 10 includes a plurality of VNFa 1 ~a m manages the service chain constructed by linking. Specifically, orchestrator device 10 distributed multiple VNFa 1 ~a m multiple physical platforms b 1 ~b n, by linking them, a plurality of (in this embodiment, n m pieces ) Consists of the service chain. In the present embodiment, "arranging the VNFa on the physical platform b" means that the execution subject of the VNFa is determined to be the physical platform b, and the software resources for realizing the VNFa are stored in the physical platform b. May include letting.

概略として、本実施形態に係る情報処理システム1において、オーケストレータ装置10は、複数(例えば、n個)のサービスチェーンのうち、1つのサービスチェーンをデフォルトサービスチェーンに設定する。プローブ20は、測定した複数のサービスチェーンのサービス品質の実績データQをオーケストレータ装置10へ送信する。オーケストレータ装置10は、実績データQを後述するニューラルネットワークFに投入(入力)することにより、当該複数のサービスチェーンの将来のサービス品質の推定データQを取得する。オーケストレータ装置10は、当該推定データQに基づいて、デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する。例えば、デフォルトサービスチェーンのサービス品質の推定値qと、よりサービス品質が良い他のサービスチェーンのサービス品質の推定値qとの差又はその2乗値が所定の閾値以上である場合、デフォルトサービスチェーンよりも当該他のサービスチェーンの方が将来のサービス品質が良いと推定される。そして、オーケストレータ装置10は、特定した当該他のサービスチェーンをデフォルトサービスチェーンに再設定する。 As a general rule, in the information processing system 1 according to the present embodiment, the orchestrator device 10 sets one of a plurality of (for example, nm ) service chains as the default service chain. Probe 20 transmits the actual data Q 0 of the service quality of multiple services chains measured to orchestrator device 10. The orchestrator device 10 acquires the estimated data Q of the future service quality of the plurality of service chains by inputting (inputting) the actual data Q 0 to the neural network F described later. The orchestrator device 10 identifies another service chain that is estimated to have better future service quality than the default service chain based on the estimated data Q. For example, if the difference between the service quality estimate q of the default service chain and the service quality estimate q of another service chain with better service quality or its square value is greater than or equal to a predetermined threshold, the default service chain It is estimated that the other service chains will have better service quality in the future. Then, the orchestrator device 10 resets the specified other service chain to the default service chain.

このように、本実施形態によれば、将来のサービス品質がデフォルトサービスチェーンよりも良いと推定される他のサービスチェーンが特定された場合、当該他のサービスチェーンがデフォルトサービスチェーンに再設定されるので、デフォルトサービスチェーンの信頼性を向上可能である。 Thus, according to the present embodiment, when another service chain whose future service quality is estimated to be better than the default service chain is identified, the other service chain is reset to the default service chain. Therefore, the reliability of the default service chain can be improved.

次に、オーケストレータ装置10の構成について、詳細に説明する。図1に示すように、オーケストレータ装置10は、ハードウェアコンポーネントとして、通信部11と、記憶部12と、制御部13と、を備える。 Next, the configuration of the orchestrator device 10 will be described in detail. As shown in FIG. 1, the orchestrator device 10 includes a communication unit 11, a storage unit 12, and a control unit 13 as hardware components.

通信部11は、ネットワーク30に接続する通信モジュールを含む。例えば、通信部11は、有線LAN(Local Area Network)規格に対応する通信モジュールを含んでもよい。本実施形態において、オーケストレータ装置10は、通信部11を介してネットワーク30に接続される。 The communication unit 11 includes a communication module connected to the network 30. For example, the communication unit 11 may include a communication module corresponding to a wired LAN (Local Area Network) standard. In the present embodiment, the orchestrator device 10 is connected to the network 30 via the communication unit 11.

記憶部12は、1つ以上のメモリを含む。本実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限られない。記憶部12に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、オーケストレータ装置10の動作に用いられる任意の情報を記憶する。例えば、記憶部12は、システムプログラム及びアプリケーションプログラム等を記憶してもよい。 The storage unit 12 includes one or more memories. In the present embodiment, the "memory" is, for example, a semiconductor memory, a magnetic memory, an optical memory, or the like, but is not limited thereto. Each memory included in the storage unit 12 may function as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 12 stores arbitrary information used for the operation of the orchestrator device 10. For example, the storage unit 12 may store a system program, an application program, and the like.

制御部13は、1つ以上のプロセッサを備える。本実施形態において「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限られない。制御部13は、オーケストレータ装置10全体の動作を制御する。以下、制御部13によって制御されるオーケストレータ装置10の主要な動作の例として、第1〜第3動作について説明するが、オーケストレータ装置10の実行可能な動作はこれらに限られない。 The control unit 13 includes one or more processors. In the present embodiment, the "processor" is a general-purpose processor or a dedicated processor specialized for a specific process, but is not limited thereto. The control unit 13 controls the operation of the entire orchestra device 10. Hereinafter, the first to third operations will be described as examples of the main operations of the orchestra device 10 controlled by the control unit 13, but the feasible operations of the orchestrator device 10 are not limited thereto.

(第1動作)
オーケストレータ装置10の第1動作について説明する。概略として第1動作は、後述するニューラルネットワーク、又は類する教師付き学習を行う機械Fの生成及び学習を行う動作である。制御部13は、複数のサービスチェーンのサービス品質の実績データQ=[q (1),…,q (n^m)(ただし、n^mはnのm乗を意味する。)を入力Xとし、当該複数のサービスチェーンのサービス品質の推定データQ=[q(1),…,q(n^m)]を出力Yとする複数のニューラルネットワークF(F〜F。ただし、jは2以上の整数。)を生成し、記憶部12に記憶する。ここで、q (i)及びq(i)(ただし、1≦i≦n。)は、それぞれi番目のサービスチェーンのサービス品質の実績値及び推定値である。以下、ニューラルネットワークFに入力する実績データQを入力データXともいう。また、ニューラルネットワークFから出力される推定データQを出力データYともいう。各ニューラルネットワークFは、ベクトルである入力データXを入力し、ベクトルである出力データYを出力する関数Y=F(X)として振る舞う。
(First operation)
The first operation of the orchestrator device 10 will be described. As a general rule, the first operation is an operation of generating and learning a neural network or a similar supervised learning machine F, which will be described later. The control unit 13 has actual data of service quality of a plurality of service chains Q 0 = [q 0 (1) , ..., q 0 (n ^ m) ] T (where n ^ m means n to the mth power). A plurality of neural networks F (F 1 to F) with input X as input X and service quality estimation data Q = [q (1) , ..., Q (n ^ m)] of the plurality of service chains as output Y. j . However, j is an integer of 2 or more.) Is generated and stored in the storage unit 12. Here, q 0 (i) and q (i) (where 1 ≦ i ≦ nm ) are actual values and estimated values of service quality of the i-th service chain, respectively. Hereinafter, the actual data Q 0 input to the neural network F is also referred to as input data X. Further, the estimated data Q output from the neural network F is also referred to as output data Y. Each neural network F behaves as a function Y = F (X) that inputs input data X that is a vector and outputs output data Y that is a vector.

図3は、ニューラルネットワークFの構成例を示す。典型的には、ニューラルネットワークFは、1つの入力層(l=1)、1つ以上の任意の数の中間層(l=2、…、L−1)、及び1つの出力層(l=L)を含むL層(ただし、Lは3以上の整数。)で構成される。入力層は、ニューラルネットワークFの入力データXの成分数(ベクトルXの次元数)と同数のニューロンを含む。本実施形態では、入力データXの成分数は上述したようにn個であり、図3に示す入力層に含まれるニューロンの数もn個である。中間層は、2つ以上の任意の数のニューロンを含む。中間層の数は、任意に定められてもよい。図3に示す例では、中間層の数は3層(l=2、3、4)であり、各中間層に含まれるニューロンの数はr個である。中間層毎にニューロンの数が異なってもよい。出力層は、出力データYの成分数(ベクトルYの次元数)と同数のニューロンを含む。本実施形態では、出力データYの成分数は上述したようにn個であり、図3に示す出力層に含まれるニューロンの数もn個である。しかしながら、ニューラルネットワークFの構成は当該例に限られず、任意に定められてもよい。なお図3において、xは入力層のi番目のニューロンの出力を示し、z (j)はl=jの中間層のi番目のニューロンの出力を示し、yは出力層のi番目のニューロンの出力を示す。 FIG. 3 shows a configuration example of the neural network F. Typically, the neural network F has one input layer (l = 1), one or more arbitrary number of intermediate layers (l = 2, ..., L-1), and one output layer (l = 1). It is composed of an L layer including L) (where L is an integer of 3 or more). The input layer contains the same number of neurons as the number of components of the input data X of the neural network F (the number of dimensions of the vector X). In the present embodiment, the number of components in the input data X is n m pieces, as described above, the number of neurons in the input layer shown in FIG. 3 also n m pieces. The middle layer contains any number of neurons of two or more. The number of intermediate layers may be arbitrarily determined. In the example shown in FIG. 3, the number of intermediate layers is 3 (l = 2, 3, 4), and the number of neurons contained in each intermediate layer is r. The number of neurons may be different for each middle layer. The output layer contains the same number of neurons as the number of components of the output data Y (the number of dimensions of the vector Y). In the present embodiment, the number of components in the output data Y is n m pieces, as described above, the number of neurons in the output layer as shown in FIG. 3 also n m pieces. However, the configuration of the neural network F is not limited to this example, and may be arbitrarily determined. In FIG. 3, x i indicates the output of the i-th neuron in the input layer, z i (j) indicates the output of the i-th neuron in the middle layer of l = j, and y i is the i-th neuron in the output layer. Shows the output of neurons in.

ニューラルネットワークFの作成は、例えば各層のニューロン数、及びオンライン学習における学習用データの取得時間間隔等のハイパーパラメータを含むパラメータベクトルに基づいて実施されるが、これに限られず任意の手法で実施されてもよい。パラメータベクトルは、例えばユーザ入力に基づいて決定されてもよく、或いは制御部13が自動的に決定してもよい。各ニューラルネットワークFは、中間層の数及び/又は各中間層に含まれるニューロンの数が同一であってもよく、互いに異なってもよい。また、ニューラルネットワークFを作成するに際して、ニューロンの種類(例えば、線形、LSTM(Long Short-Term Memory)、又はGRU(Gated Recurrent Unit)等)、及び活性化関数として用いる関数の種類(例えば、ステップ関数、シグモイド関数、又はソフトマックス関数等の非線形関数の種類)が指定可能であってもよい。各ニューラルネットワークFは、ネットワークアーキテクチャ(例えば、順伝播型、CNN(Convolutional Neural Network)、又はRNN(Recurrent Neural Network)等)が同一であってもよく、互いに異なってもよい。 The neural network F is created based on a parameter vector including hyperparameters such as the number of neurons in each layer and the acquisition time interval of learning data in online learning, but is not limited to this. You may. The parameter vector may be determined based on, for example, user input, or may be automatically determined by the control unit 13. Each neural network F may have the same number of intermediate layers and / or the number of neurons contained in each intermediate layer, or may be different from each other. Further, when creating the neural network F, the type of neuron (for example, linear, RSTM (Long Short-Term Memory), or GRU (Gated Recurrent Unit), etc.), and the type of function used as an activation function (for example, step). A type of non-linear function such as a function, a sigmoid function, or a softmax function) may be specifiable. Each neural network F may have the same network architecture (for example, forward propagation type, CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), etc.) or may be different from each other.

本実施形態において、各ニューラルネットワークFはRNNであってもよい。かかる場合、各ニューラルネットワークFは、複数のサービスチェーンのサービス品質の実績データQの変化パターンを学習可能である。例えば、ネットワークサービスシステムにおける大規模な障害の発生によりサービス品質が低下する以前に、小規模な障害が周期的又は非周期的に発生する現象が従来観測されている。このような小規模な障害の発生に起因する、複数のサービスチェーンのサービス品質の実績データQの変化パターンを大規模障害の発生の予兆として学習することにより、将来のサービス品質の推定精度が向上し得る。 In this embodiment, each neural network F may be an RNN. In such a case, the neural network F is learnable change pattern of actual data Q 0 of a service quality of a plurality of service chains. For example, it has been conventionally observed that small-scale failures occur periodically or aperiodically before the service quality deteriorates due to the occurrence of a large-scale failure in a network service system. Due to the occurrence of such a small obstacle, by learning the change pattern of the service quality of the actual data Q 0 of the plurality of service chain as a sign of the occurrence of a large fault, future service quality estimation accuracy of Can improve.

制御部13は、入力データX(k−1)と、複数のサービスチェーンのサービス品質の実績データQ(k)である教師データと、を含む学習データを逐次取得し、当該学習データを用いるオンライン学習により各ニューラルネットワークFを修正する。ここでkは離散時刻であり、入力データX(k−1)は時刻k−1における入力データを示し、教師データQ(k)は時刻kにおける教師データを示す。入力データXは、上述したように、複数のサービスチェーンのサービス品質の実績データQ=[q (1),…,q (n^m)である。 The control unit 13 sequentially acquires learning data including input data X (k-1) and teacher data which is actual data Q 0 (k) of service quality of a plurality of service chains, and uses the learning data. Each neural network F is modified by online learning. Here, k is a discrete time, the input data X (k-1) indicates the input data at the time k-1, and the teacher data Q 0 (k) indicates the teacher data at the time k. As described above, the input data X is the actual data Q 0 = [q 0 (1) , ..., Q 0 (n ^ m) ] T of the service quality of the plurality of service chains.

制御部13は、各ニューラルネットワークFに入力データX(k−1)=実績データQ(k−1)を入力し、各ニューラルネットワークFから出力データY(k)=推定データQ(k)を取得する。制御部13は、サービス品質の推定データQ(k)と実績データQ(k)との差を低減するように、各ニューラルネットワークFを修正(学習)する。各ニューラルネットワークFの修正は、例えば誤差逆伝播法によって実施されるが、これに限られず任意の手法によって実施されてもよい。制御部13は、学習データを所定の時間間隔で逐次取得する度に、各ニューラルネットワークFを修正する。このようにして、各ニューラルネットワークFのオンライン学習が実施される。学習済みのニューラルネットワークFに、例えば現在の入力データX(k)を入力することにより、複数のサービスチェーンの将来のサービス品質を推定する(即ち、推定データQ(k+1)を出力する)ことが可能である。 The control unit 13 inputs input data X (k-1) = actual data Q 0 (k-1) to each neural network F, and outputs data Y (k) = estimated data Q (k) from each neural network F. To get. The control unit 13 modifies (learns) each neural network F so as to reduce the difference between the estimated service quality data Q (k) and the actual data Q 0 (k). The modification of each neural network F is carried out by, for example, an error backpropagation method, but the modification is not limited to this, and may be carried out by any method. The control unit 13 modifies each neural network F each time the learning data is sequentially acquired at a predetermined time interval. In this way, online learning of each neural network F is carried out. By inputting the current input data X (k) into the trained neural network F, for example, the future service quality of a plurality of service chains can be estimated (that is, the estimated data Q (k + 1) is output). It is possible.

(第2動作)
オーケストレータ装置10の第2動作について説明する。概略として第2動作は、デフォルトサービスチェーンを再設定する動作である。制御部13は、複数のニューラルネットワークF〜Fの精度を示す精度情報s(F)〜s(F)を初期値に設定する。初期値は任意の手法で定められてもよいが、各ニューラルネットワークFの精度情報s(F)は後述する第3動作によって逐次更新され得る。ニューラルネットワークFの精度情報s(F)は、当該ニューラルネットワークFを用いて推定される、複数のサービスチェーンの将来のサービス品質の推定精度を示す情報である。推定精度の高いニューラルネットワークFを用いることにより、複数のサービスチェーンの将来のサービス品質を精度良く推定し得る。以下、複数のニューラルネットワークF〜Fのうち、精度情報s(F)により示される推定精度が最も高い(即ち、最高精度の)ニューラルネットワークFをFhighともいい、精度情報s(F)により示される推定精度が最も低い(即ち、最低精度の)ニューラルネットワークFをFlowともいう。
(Second operation)
The second operation of the orchestrator device 10 will be described. As a general rule, the second operation is an operation of resetting the default service chain. Control unit 13 sets the accuracy information indicating the accuracy of the plurality of neural networks F 1 ~F j s (F 1 ) ~s the (F j) to the initial value. The initial value may be determined by any method, but the accuracy information s (F) of each neural network F can be sequentially updated by the third operation described later. The accuracy information s (F) of the neural network F is information indicating the estimation accuracy of the future service quality of a plurality of service chains estimated using the neural network F. By using the neural network F with high estimation accuracy, the future service quality of a plurality of service chains can be estimated with high accuracy. Hereinafter, among the plurality of neural networks F 1 to F j , the neural network F having the highest estimation accuracy (that is, the highest accuracy) indicated by the accuracy information s (F) is also referred to as F high, and the accuracy information s (F). the lowest estimation accuracy as indicated by (i.e., the minimum accuracy) referred to the neural network F and F low.

制御部13は、現在の入力データX(k)を取得する。制御部13は、入力データX(k)を最高精度のニューラルネットワークFhighに入力することにより、複数のサービスチェーンの将来のサービス品質の推定データQ(k+1)を取得する。制御部13は、取得した推定データQ(k+1)に基づいて、複数のサービスチェーンのうちから、デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する。ここで、複数のサービスチェーンのうち、将来のサービス品質が高い他のサービスチェーンが優先的に特定されてもよい。例えば、複数のサービスチェーンのうち将来のサービス品質が最高である他のサービスチェーンが特定され得る。 The control unit 13 acquires the current input data X (k). The control unit 13 acquires the estimated data Q (k + 1) of the future service quality of a plurality of service chains by inputting the input data X (k) into the highest-precision neural network High. Based on the acquired estimated data Q (k + 1), the control unit 13 identifies another service chain that is estimated to have better future service quality than the default service chain from among the plurality of service chains. Here, among the plurality of service chains, other service chains with high future service quality may be preferentially identified. For example, other service chains with the highest quality of service in the future may be identified among the plurality of service chains.

他のサービスチェーンを特定した場合、制御部13は、複数の物理プラットフォームb〜b及び複数のロードバランサc〜cと通信することにより、当該他のサービスチェーンをデフォルトサービスチェーンに再設定する。詳細には、制御部13は、当該他のサービスチェーンに対するリソース割り当て量を増加させる指示を各物理プラットフォームbに送信するとともに、デフォルトサービスチェーンを構成する各VNFaのルートを変更させる指示を各ロードバランサcに送信する。 When another service chain is identified, the control unit 13 reverts the other service chain to the default service chain by communicating with a plurality of physical platforms b 1 to b n and a plurality of load balancers c 1 to cm. Set. Specifically, the control unit 13 sends an instruction to increase the resource allocation amount to the other service chain to each physical platform b, and instructs each load balancer to change the route of each VNFa constituting the default service chain. Send to c.

(第3動作)
オーケストレータ装置10の第3動作について説明する。概略として第3動作は、複数のニューラルネットワークF〜Fの精度情報s(F)〜s(F)を更新するとともに、最低精度のニューラルネットワークFlowを、最高精度のニューラルネットワークFhighを構成するパラメータの近傍パラメータを有する新たなニューラルネットワークFnewに置き換える動作である。制御部13は、上述した第2動作によりデフォルトサービスチェーンを再設定した後、入力データX(k−1)及びサービス品質の実績データQ(k)を取得する。
(Third operation)
The third operation of the orchestrator device 10 will be described. As a general rule, the third operation updates the accuracy information s (F 1 ) to s (F j ) of a plurality of neural networks F 1 to F j , and changes the minimum accuracy neural network F low to the highest accuracy neural network F. This is an operation of replacing with a new neural network F new having neighborhood parameters of the parameters constituting high. Control unit 13, after resetting the default service chain by a second operation described above, it acquires the input data X (k-1) and the service quality of actual data Q 0 (k).

制御部13は、入力データX(k−1)を入力することにより複数のニューラルネットワークF〜Fから出力される、複数の推定データQ(k)〜Q(k)を取得する。 The control unit 13 acquires a plurality of estimated data Q 1 (k) to Q j (k) output from the plurality of neural networks F 1 to F j by inputting the input data X (k-1). ..

制御部13は、サービス品質の推定データQ(k)〜Q(k)のそれぞれと、サービス品質の実績データQ(k)と、の比較に基づいて、複数のニューラルネットワークF〜Fの精度情報s(F)〜s(F)を更新する。具体的には、制御部13は、サービス品質の実績データQ(k)と、ニューラルネットワークFを用いて取得したサービス品質の推定データQ(k)との差の絶対値(ノルム)又は2乗値が大きいほど当該ニューラルネットワークFの推定精度が低いと判定して、当該ニューラルネットワークFの精度情報s(k)を更新する。しかしながら、サービス品質の実績データQ(k)及び推定データQ(k)の比較に基づく精度情報s(F)の更新は、上記の例に限られず、任意の手法により実施されてもよい。例えば、サービス品質の実績データQ(k)と推定データQ(k)との差とともに、ニューラルネットワークFに入力データX(k−1)を入力してから出力データYが出力されるまでの時間を考慮して、当該ニューラルネットワークFの精度情報s(k)を更新してもよい。例えば、制御部13は、当該時間が長いほど当該ニューラルネットワークFの推定精度が低いと判定して、当該ニューラルネットワークFの精度情報s(k)を更新してもよい。 The control unit 13 compares a plurality of neural networks F 1 to each of the service quality estimation data Q 1 (k) to Q j (k) with the service quality actual data Q 0 (k). F j of accuracy information s (F 1) to update the ~s (F j). Specifically, the control unit 13 has an absolute value (norm) or 2 of the difference between the actual service quality data Q 0 (k) and the estimated service quality data Q (k) acquired using the neural network F. It is determined that the larger the multiplier value is, the lower the estimation accuracy of the neural network F is, and the accuracy information s (k) of the neural network F is updated. However, the update of the accuracy information s (F) based on the comparison between the actual service quality data Q 0 (k) and the estimated data Q (k) is not limited to the above example, and may be performed by any method. For example, along with the difference between the actual service quality data Q 0 (k) and the estimated data Q (k), from the input of the input data X (k-1) to the neural network F to the output of the output data Y. The accuracy information s (k) of the neural network F may be updated in consideration of time. For example, the control unit 13 may determine that the longer the time, the lower the estimation accuracy of the neural network F, and may update the accuracy information s (k) of the neural network F.

制御部13は、新たなニューラルネットワークFnewを生成して、記憶部12に記憶する。ニューラルネットワークFnewの生成は、任意の手法により実施されてもよい。例えば、制御部13は、複数のニューラルネットワークF〜Fのうち、最高精度のニューラルネットワークFhighのパラメータベクトル(ハイパーパラメータ)に基づいて、例えば焼きなまし法により新たなニューラルネットワークFnewを生成する。詳細には、制御部13は、最高精度のニューラルネットワークFhighのパラメータベクトルと、次に推定精度の高いニューラルネットワークFのパラメータベクトルと、の中間地点から各方向にランダムに微小な値だけ動かした新たなパラメータベクトルを決定し、当該新たなパラメータベクトルを用いて新たなニューラルネットワークFnewを生成する。 The control unit 13 generates a new neural network F new and stores it in the storage unit 12. The generation of the neural network F new may be carried out by any method. For example, the control unit 13 generates a new neural network F new by, for example, simulated annealing, based on the parameter vector (hyperparameter) of the most accurate neural network F high among the plurality of neural networks F 1 to F j. .. Specifically, the control unit 13, the parameter vector of the highest accuracy of the neural network F high, the parameter vector of the next highest estimation accuracy neural network F, moved from the intermediate point in each direction only small value randomly A new parameter vector is determined, and a new neural network F new is generated using the new parameter vector.

制御部13は、複数のニューラルネットワークF〜Fのうち最低精度のニューラルネットワークFlowを、新たなニューラルネットワークFnewに置き換える。ここで制御部13は、最低精度のニューラルネットワークFlowを廃棄(即ち、記憶部12から消去)してもよい。 Control unit 13, a minimum accuracy of the neural network F low among a plurality of neural networks F 1 to F j, replaced with a new neural network F new new. Here, the control unit 13 may discard (that is, erase from the storage unit 12) the neural network Flow with the lowest accuracy.

上述した第3動作により最低精度のニューラルネットワークFlowを新たなニューラルネットワークFnewに置き換えた後、上述した第2動作及び第3動作を再度実行する際、制御部13は、ニューラルネットワークFnewの学習が一定程度進むまで、ニューラルネットワークFnewを利用せずに(即ち、ニューラルネットワークFnewが「複数のニューラルネットワークF〜F」に含まれないものとして)第2動作及び第3動作を実行してもよい。また、過去の学習データを記憶部12に記憶しておき、当該過去の学習データを用いて新たなニューラルネットワークFnewをバッチ学習させてもよい。 After replacing the lowest precision neural network Flow with a new neural network F new by the above-mentioned third operation, when the above-mentioned second operation and the third operation are executed again, the control unit 13 receives the neural network F new . Until the learning progresses to a certain extent, the second operation and the third operation are performed without using the neural network F new (that is, assuming that the neural network F new is not included in "multiple neural networks F 1 to F j"). You may do it. Further, the past learning data may be stored in the storage unit 12, and the new neural network F new may be batch-learned using the past learning data.

(オーケストレータ装置の第1動作のフロー)
図4を参照して、オーケストレータ装置10の上述した第1動作のフローについて説明する。
(Flow of the first operation of the orchestrator device)
The flow of the above-described first operation of the orchestra device 10 will be described with reference to FIG.

ステップS100:制御部13は、複数のサービスチェーンのサービス品質の実績データQ=[q (1),…,q (n^m)を入力Xとし、当該複数のサービスチェーンのサービス品質の推定データQ=[q(1),…,q(n^m)]を出力Yとする複数のニューラルネットワークF(F〜F。ただし、jは2以上の整数。)を生成し、記憶部12に記憶する。 Step S100: The control unit 13 sets the actual data Q 0 = [q 0 (1) , ..., Q 0 (n ^ m) ] T of the service quality of the plurality of service chains as the input X, and sets the input X of the plurality of service chains. A plurality of neural networks F (F 1 to F j . However, j is an integer of 2 or more) whose output Y is the estimated service quality data Q = [q (1) , ..., Q (n ^ m)]. It is generated and stored in the storage unit 12.

ステップS101:制御部13は、入力データX(k−1)と、複数のサービスチェーンのサービス品質の実績データQ(k)である教師データと、を含む学習データを取得する。 Step S101: The control unit 13 acquires learning data including input data X (k-1) and teacher data which is actual data Q 0 (k) of service quality of a plurality of service chains.

ステップS102:制御部13は、学習データを用いるオンライン学習により各ニューラルネットワークFを修正する。 Step S102: The control unit 13 modifies each neural network F by online learning using the training data.

ステップS103:制御部13は、離散時刻kをインクリメントする。その後、プロセスはステップS101に戻る。 Step S103: The control unit 13 increments the discrete time k. The process then returns to step S101.

(オーケストレータ装置の第2動作のフロー)
図5を参照して、オーケストレータ装置10の上述した第2動作のフローについて説明する。
(Flow of the second operation of the orchestrator device)
The flow of the above-described second operation of the orchestra device 10 will be described with reference to FIG.

ステップS200:制御部13は、複数のサービスチェーンのうち1つのサービスチェーンを、複数のロードバランサc〜cと通信することによりデフォルトサービスチェーンに設定する。 Step S200: The control unit 13 sets one of the plurality of service chains as the default service chain by communicating with the plurality of load balancers c 1 to cm.

ステップS201:制御部13は、複数のニューラルネットワークF〜Fの精度を示す精度情報s(F)〜s(F)を初期値に設定する。 Step S201: The control unit 13 sets the accuracy information indicating the accuracy of the plurality of neural networks F 1 ~F j s (F 1 ) ~s the (F j) to the initial value.

ステップS202:制御部13は、現在の入力データX(k)を取得する。 Step S202: The control unit 13 acquires the current input data X (k).

ステップS203:制御部13は、入力データX(k)を最高精度のニューラルネットワークFhighに入力することにより当該ニューラルネットワークFhighから出力される、複数のサービスチェーンの将来のサービス品質の推定データQ(k+1)を取得する。 Step S203: The control unit 13, the input data X is output from the neural network F high by inputting (k) to the highest accuracy of the neural network F high, estimation data Q of future service quality of multiple services chain Get (k + 1).

ステップS204:制御部13は、取得した推定データQ(k+1)に基づいて、複数のサービスチェーンのうちから、デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する。当該他のサービスチェーンが特定できた場合(ステップS204−Yes)、プロセスはステップS205に進む。一方、当該他のサービスチェーンが特定できなかった場合(ステップS204−No)、プロセスはステップS206に進む。 Step S204: Based on the acquired estimated data Q (k + 1), the control unit 13 identifies another service chain that is estimated to have better future service quality than the default service chain from among the plurality of service chains. .. If the other service chain can be identified (step S204-Yes), the process proceeds to step S205. On the other hand, if the other service chain cannot be identified (step S204-No), the process proceeds to step S206.

ステップS205:制御部13は、複数の物理プラットフォームb〜b及び複数のロードバランサc〜cと通信することにより、当該他のサービスチェーンをデフォルトサービスチェーンに再設定する。 Step S205: The control unit 13 resets the other service chain to the default service chain by communicating with the plurality of physical platforms b 1 to b n and the plurality of load balancers c 1 to cm.

ステップS206:制御部13は、離散時刻kをインクリメントする。その後、プロセスはステップS201に戻る。 Step S206: The control unit 13 increments the discrete time k. The process then returns to step S201.

(オーケストレータ装置の第3動作のフロー)
図6を参照して、オーケストレータ装置10の上述した第3動作のフローについて説明する。第3動作は、例えば、上述した第2動作によりデフォルトサービスチェーンが再設定される度に実行される。
(Flow of the third operation of the orchestrator device)
The flow of the above-described third operation of the orchestra device 10 will be described with reference to FIG. The third operation is executed, for example, every time the default service chain is reset by the second operation described above.

ステップS300:制御部13は、上述した第2動作によりデフォルトサービスチェーンを再設定した後、入力データX(k−1)及びサービス品質の実績データQ(k)を取得する。 Step S300: The control unit 13, after resetting the default service chain by a second operation described above, it acquires the input data X (k-1) and the service quality of actual data Q 0 (k).

ステップS301:制御部13は、入力データX(k−1)を入力することにより複数のニューラルネットワークF〜Fから出力される、サービス品質の推定データQ(k)〜q(k)を取得する。 Step S301: The control unit 13 inputs service quality estimation data Q 1 (k) to q j (k ) output from a plurality of neural networks F 1 to F j by inputting input data X (k-1). ) To get.

ステップS302:制御部13は、サービス品質の推定データQ(k)〜Q(k)のそれぞれと、サービス品質の実績データQ(k)と、の比較に基づいて、複数のニューラルネットワークF〜Fの精度情報s(F)〜s(F)を更新する。 Step S302: The control unit 13 uses a plurality of neural networks based on a comparison between each of the service quality estimation data Q 1 (k) to Q j (k) and the service quality actual data Q 0 (k). F 1 to F j of accuracy information s (F 1) to update the ~s (F j).

ステップS303:制御部13は、新たなニューラルネットワークFnewを生成して、記憶部12に記憶する。 Step S303: The control unit 13 generates a new neural network F new and stores it in the storage unit 12.

ステップS304:制御部13は、複数のニューラルネットワークF〜Fのうち最低精度のニューラルネットワークFlowを、新たなニューラルネットワークFnewに置き換える。そして、プロセスは終了する。 Step S304: The control unit 13, a minimum accuracy of the neural network F low among a plurality of neural networks F 1 to F j, replaced with a new neural network F new new. Then the process ends.

以上述べたように、本実施形態に係るオーケストレータ装置10は、複数のサービスチェーンのサービス品質の推定データQ=[q(1),…,q(n^m)]を出力Yとする複数のニューラルネットワークF〜Fを記憶する。オーケストレータ装置10は、複数のサービスチェーンのうち1つのサービスチェーンをデフォルトサービスチェーンに設定する。オーケストレータ装置10は、ニューラルネットワークFから出力される複数のサービスチェーンの将来のサービス品質の推定データQを取得する。オーケストレータ装置10は、推定データQに基づいて、複数のサービスチェーンのうちから、デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する。そしてオーケストレータ装置10は、当該他のサービスチェーンをデフォルトサービスチェーンに再設定する。 As described above, the orchestrator device 10 according to the present embodiment has a plurality of output Ys of service quality estimation data Q = [q (1) , ..., Q (n ^ m)] of a plurality of service chains. The neural networks F 1 to F j of the above are stored. The orchestrator device 10 sets one of the plurality of service chains as the default service chain. The orchestrator device 10 acquires the estimated data Q of the future service quality of the plurality of service chains output from the neural network F. Based on the estimated data Q, the orchestrator device 10 identifies another service chain that is estimated to have better future service quality than the default service chain from among the plurality of service chains. Then, the orchestrator device 10 resets the other service chain to the default service chain.

かかる構成によれば、将来のサービス品質がデフォルトサービスチェーンよりも良いと予測される他のサービスチェーンが特定された場合、当該他のサービスチェーンがデフォルトサービスチェーンに再設定されるので、デフォルトサービスチェーンの信頼性を向上可能である。また、時系列的な要因によるサービスチェーンの障害やパフォーマンスをニューラルネットワークFで学習し、必要に応じて、近い将来に障害が予見されるサービスチェーンを迂回することができるようになり、低コストなVNFaを使用するサービスチェーンの信頼性を向上可能である。 According to such a configuration, if another service chain whose future service quality is expected to be better than the default service chain is identified, the other service chain is reset to the default service chain, so that the default service chain is used. It is possible to improve the reliability of. In addition, it is possible to learn service chain failures and performance due to time-series factors with neural network F, and if necessary, bypass service chains where failures are foreseen in the near future, resulting in low cost. It is possible to improve the reliability of the service chain that uses VNFa.

また、従来のオートスケーリングやディスアスタリカバリでは、障害やパフォーマンス劣化が発生してから、サービスチェーンの移動やルーティングの変更を行っていたため、途中のチェーンのVNFの通信パケットがキューから喪失する可能性があった。そのため、サービスの信頼性を高めるためには、サービスプロバイダは、プラットフォームサービス提供者に対し高額な料金を支払って、潤沢なリソースを確保する必要があった。その代償として、サービス要求が少ないときは確保したリソースが遊んでしまう問題があった。本実施形態は、信頼性を高めるために、一定量のリソースを高価な価格で予約するより、安価なサービスを多数予約し、それらを接続したサービスチェーンの複製を用意し、一定期間毎に性能を測定して機械学習に与えることで、サービスチェーンのサービス品質の変化パターンを学習させ、サービスチェーンの将来のサービス品質を推定し、将来のサービス品質がより良いと推定される他のサービスチェーンをデフォルトサービスチェーンに再設定することで、低コストでも信頼性の高いサービスを提供することを可能にする。 In addition, in the conventional auto scaling and disaster recovery, since the service chain is moved or the routing is changed after the failure or performance deterioration occurs, the VNF communication packet of the chain in the middle may be lost from the queue. was there. Therefore, in order to improve the reliability of the service, the service provider has to pay a high fee to the platform service provider to secure abundant resources. As a compensation, there was a problem that the reserved resources were idle when the service request was small. In this embodiment, in order to improve reliability, rather than reserving a certain amount of resources at an expensive price, a large number of inexpensive services are reserved, a copy of the service chain connecting them is prepared, and performance is provided at regular intervals. By measuring and giving to machine learning, we can learn the change pattern of service quality of the service chain, estimate the future service quality of the service chain, and estimate other service chains with better future service quality. By resetting to the default service chain, it is possible to provide reliable services at low cost.

本発明を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本発明の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present invention has been described with reference to the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and modifications based on the present disclosure. Therefore, it should be noted that these modifications and modifications are within the scope of the present invention. For example, the functions and the like included in each means or each step and the like can be rearranged so as not to be logically inconsistent, and a plurality of means or steps and the like can be combined or divided into one. ..

例えば、上述した実施形態において、オーケストレータ装置10を互いに通信可能な複数の情報処理装置に分割した構成も可能である。 For example, in the above-described embodiment, the orchestrator device 10 may be divided into a plurality of information processing devices capable of communicating with each other.

また、上述した実施形態では、オーケストレータ装置10が複数のニューラルネットワークF〜Fを用いる構成について説明した。しかしながら、例えばオーケストレータ装置10が1つのニューラルネットワークFを生成及び記憶し、当該1つのニューラルネットワークFを用いてデフォルトサービスチェーンを再設定する構成も可能である。かかる場合には、当該1つのニューラルネットワークFの精度情報s(F)を決定する必要はない。 Further, in the above-described embodiment, the configuration in which the orchestrator device 10 uses a plurality of neural networks F 1 to F j has been described. However, it is also possible, for example, that the orchestrator device 10 generates and stores one neural network F and resets the default service chain using the one neural network F. In such a case, it is not necessary to determine the accuracy information s (F) of the one neural network F.

また、ニューラルネットワークFのオンライン学習を行うために、情報処理システム1は、障害や性能劣化を意図的に付加する機能を有してもよい。かかる機能によれば、障害や性能劣化を発生させたときの学習データを容易に得ることができる。 Further, in order to perform online learning of the neural network F, the information processing system 1 may have a function of intentionally adding obstacles and performance deterioration. According to such a function, learning data when a failure or performance deterioration occurs can be easily obtained.

また、上述した実施形態において、デフォルトチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンが特定された場合に、必ずしもデフォルトサービスチェーンの再設定が実施されなくてもよい。例えば、当該他のサービスチェーンが特定された場合に、所定の確率でデフォルトサービスチェーンの再設定が実施されてもよい。 Further, in the above-described embodiment, when another service chain that is presumed to have better service quality in the future than the default chain is specified, the default service chain does not necessarily have to be reset. For example, when the other service chain is identified, the default service chain may be reset with a predetermined probability.

また、例えばコンピュータ等の情報処理装置を、上述した実施形態に係るオーケストレータ装置10として機能させる構成も可能である。具体的には、実施形態に係るオーケストレータ装置10の各機能を実現する処理内容を記述したプログラムを、情報処理装置のメモリに格納し、情報処理装置のプロセッサによって当該プログラムを読み出して実行させる。したがって、本実施形態に係る発明は、プロセッサが実行可能なプログラムとしても実現可能である。当該プログラムを記録媒体に記録して提供することも、ネットワークを通して提供することも可能である。 Further, for example, an information processing device such as a computer can be configured to function as the orchestrator device 10 according to the above-described embodiment. Specifically, a program describing processing contents for realizing each function of the orchestrator device 10 according to the embodiment is stored in the memory of the information processing device, and the processor of the information processing device reads and executes the program. Therefore, the invention according to the present embodiment can also be realized as a program that can be executed by the processor. The program can be recorded on a recording medium and provided, or can be provided through a network.

1 情報処理システム
10 オーケストレータ装置
11 通信部
12 記憶部
13 制御部
20 プローブ
30 ネットワーク
a VNF
b 物理プラットフォーム
c ロードバランサ
1 Information processing system 10 Orchestrator device 11 Communication unit 12 Storage unit 13 Control unit 20 Probe 30 Network a VNF
b physical platform c load balancer

Claims (7)

複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置であって、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶部と、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定し、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定する制御部と、
を備える、オーケストレータ装置。
An orchestrator device that manages multiple service chains that are configured by linking multiple virtual network functions (VNFs) located on multiple physical platforms.
A storage unit that stores one or a plurality of neural networks that output an estimated value of service quality of each service chain, and a storage unit.
One of the plurality of service chains is set as the default service chain to be used by the user.
Obtain an estimate of the future quality of service of each service chain output from the neural network.
Based on the estimated value of the future service quality of each of the service chains, the other service chains that are estimated to have better future service quality than the default service chain are identified from the plurality of service chains.
A control unit that resets the specified service chain to the default service chain,
An orchestrator device equipped with.
請求項1に記載のオーケストレータ装置であって、
前記記憶部は、前記複数のニューラルネットワークと、各前記ニューラルネットワークの精度情報と、を記憶し、
前記制御部は、
各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
前記複数のニューラルネットワークのうち最高精度の1つのニューラルネットワークから出力された各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
前記デフォルトサービスチェーンの再設定後、各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値と、各前記サービスチェーンのサービス品質の実績値と、の比較に基づいて各前記ニューラルネットワークの前記精度情報を更新する、オーケストレータ装置。
The orchestrator device according to claim 1.
The storage unit stores the plurality of neural networks and the accuracy information of each of the neural networks.
The control unit
Obtain an estimate of the future quality of service of each service chain output from each neural network.
Based on the estimated future service quality of each service chain output from one of the most accurate neural networks among the plurality of neural networks, the future of the plurality of service chains is higher than that of the default service chain. Identify other service chains that are presumed to have good quality of service
After resetting the default service chain, each of the above is based on a comparison between the estimated future service quality of each of the service chains output from each of the neural networks and the actual value of the service quality of each of the service chains. An orchestrator device that updates the accuracy information of a neural network.
情報処理装置を、請求項1又は2に記載のオーケストレータ装置として機能させる、プログラム。 A program that causes an information processing device to function as the orchestrator device according to claim 1 or 2. 複数の物理プラットフォームと、前記複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置と、を備える情報処理システムであって、
前記オーケストレータ装置は、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶部と、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定し、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定する制御部と、
を有する、情報処理システム。
It is an information processing system including a plurality of physical platforms and an orchestrator device that manages a plurality of service chains configured by coordinating a plurality of virtual network functions (VNFs) arranged on the plurality of physical platforms. hand,
The orchestrator device is
A storage unit that stores one or a plurality of neural networks that output an estimated value of service quality of each service chain, and a storage unit.
One of the plurality of service chains is set as the default service chain to be used by the user.
Obtain an estimate of the future quality of service of each service chain output from the neural network.
Based on the estimated value of the future service quality of each of the service chains, the other service chains that are estimated to have better future service quality than the default service chain are identified from the plurality of service chains.
A control unit that resets the specified service chain to the default service chain,
Information processing system.
請求項4に記載の情報処理システムであって、
前記記憶部は、前記複数のニューラルネットワークと、各前記ニューラルネットワークの精度情報と、を記憶し、
前記制御部は、
各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
前記複数のニューラルネットワークのうち最高精度の1つのニューラルネットワークから出力された各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
前記デフォルトサービスチェーンの再設定後、各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値と、各前記サービスチェーンのサービス品質の実績値と、の比較に基づいて各前記ニューラルネットワークの前記精度情報を更新する、情報処理システム。
The information processing system according to claim 4.
The storage unit stores the plurality of neural networks and the accuracy information of each of the neural networks.
The control unit
Obtain an estimate of the future quality of service of each service chain output from each neural network.
Based on the estimated future service quality of each service chain output from one of the most accurate neural networks among the plurality of neural networks, the future of the plurality of service chains is higher than that of the default service chain. Identify other service chains that are presumed to have good quality of service
After resetting the default service chain, each of the above is based on a comparison between the estimated value of the future service quality of each of the service chains output from each of the neural networks and the actual value of the service quality of each of the service chains. An information processing system that updates the accuracy information of a neural network.
複数の物理プラットフォームに配置された複数の仮想ネットワーク機能(VNF)が連携してそれぞれ構成される複数のサービスチェーンを管理するオーケストレータ装置の制御方法であって、
各前記サービスチェーンのサービス品質の推定値を出力する1つ又は複数のニューラルネットワークを記憶する記憶ステップと、
前記複数のサービスチェーンのうち1つの前記サービスチェーンを、ユーザに利用させるデフォルトサービスチェーンに設定するステップと、
前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得する取得ステップと、
各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定する特定ステップと、
特定した前記サービスチェーンを前記デフォルトサービスチェーンに再設定するステップと、
を含む、制御方法。
It is a control method of an orchestrator device that manages a plurality of service chains configured by coordinating multiple virtual network functions (VNFs) arranged on a plurality of physical platforms.
A storage step that stores one or more neural networks that output quality of service estimates for each of the service chains.
A step of setting one of the plurality of service chains as the default service chain to be used by the user, and
An acquisition step for acquiring an estimate of the future quality of service of each service chain output from the neural network,
A specific step of identifying another service chain that is presumed to have better future service quality than the default service chain from among the plurality of service chains based on the estimated value of the future service quality of each said service chain. When,
The step of resetting the specified service chain to the default service chain, and
Control methods, including.
請求項6に記載の制御方法であって、
前記記憶ステップは、前記複数のニューラルネットワークと、各前記ニューラルネットワークの精度情報と、を記憶し、
前記取得ステップは、各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値を取得し、
前記特定ステップは、前記複数のニューラルネットワークのうち最高精度の1つのニューラルネットワークから出力された各前記サービスチェーンの将来のサービス品質の推定値に基づいて、前記複数のサービスチェーンのうちから、前記デフォルトサービスチェーンよりも将来のサービス品質が良いと推定される他のサービスチェーンを特定し、
前記デフォルトサービスチェーンの再設定後、各前記ニューラルネットワークから出力される各前記サービスチェーンの将来のサービス品質の推定値と、各前記サービスチェーンのサービス品質の実績値と、の比較に基づいて各前記ニューラルネットワークの前記精度情報を更新するステップを更に含む、制御方法。
The control method according to claim 6.
The storage step stores the plurality of neural networks and the accuracy information of each of the neural networks.
The acquisition step acquires an estimate of the future quality of service of each service chain output from each neural network.
The specific step is performed from among the plurality of service chains as the default, based on an estimate of the future quality of service of each of the service chains output from one of the most accurate neural networks among the plurality of neural networks. Identify other service chains that are presumed to have better quality of service in the future than the service chain
After resetting the default service chain, each of the above is based on a comparison between the estimated future service quality of each of the service chains output from each of the neural networks and the actual value of the service quality of each of the service chains. A control method further comprising the step of updating the accuracy information of the neural network.
JP2018177751A 2018-09-21 2018-09-21 Orchestrator equipment, programs, information processing systems, and control methods Active JP6944156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018177751A JP6944156B2 (en) 2018-09-21 2018-09-21 Orchestrator equipment, programs, information processing systems, and control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177751A JP6944156B2 (en) 2018-09-21 2018-09-21 Orchestrator equipment, programs, information processing systems, and control methods

Publications (2)

Publication Number Publication Date
JP2020053711A JP2020053711A (en) 2020-04-02
JP6944156B2 true JP6944156B2 (en) 2021-10-06

Family

ID=69994288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177751A Active JP6944156B2 (en) 2018-09-21 2018-09-21 Orchestrator equipment, programs, information processing systems, and control methods

Country Status (1)

Country Link
JP (1) JP6944156B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022074435A1 (en) 2020-10-09 2022-04-14 ラクテン・シンフォニー・シンガポール・プライベート・リミテッド Network service management system and network service management method
WO2022074436A1 (en) 2020-10-09 2022-04-14 ラクテン・シンフォニー・シンガポール・プライベート・リミテッド Network service management system and network service management method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10375590B2 (en) * 2012-07-13 2019-08-06 Assia Spe, Llc Method and system for performance estimation of a communication link
US9467382B2 (en) * 2014-02-03 2016-10-11 Cisco Technology, Inc. Elastic service chains
US20160358099A1 (en) * 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning
JP2017143477A (en) * 2016-02-12 2017-08-17 株式会社日立製作所 Virtual network system, and network load distribution method
JP6724651B2 (en) * 2016-08-23 2020-07-15 富士通株式会社 Server device and virtual communication construction method

Also Published As

Publication number Publication date
JP2020053711A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US11410046B2 (en) Learning-based service migration in mobile edge computing
Mallick et al. Transfer learning with graph neural networks for short-term highway traffic forecasting
US11134126B2 (en) Adaptive routing of branch traffic in software-defined wide area network (SDWAN) deployments
KR940009780B1 (en) Method and apparatus for effcient resource allocation
Li et al. Performance-aware cost-effective resource provisioning for future grid IoT-cloud system
Liu et al. On dynamic service function chain reconfiguration in IoT networks
US20170012848A1 (en) Parallelized network traffic flow availability simulation using stochastic process and traffic engineering algorithms
Mora et al. Multilayer architecture model for mobile cloud computing paradigm
CN101873224A (en) Cloud computing load balancing method and equipment
Lera et al. Comparing centrality indices for network usage optimization of data placement policies in fog devices
JP6944156B2 (en) Orchestrator equipment, programs, information processing systems, and control methods
Jahromi et al. Online VNF placement and chaining for value-added services in content delivery networks
US20210110248A1 (en) Identifying and optimizing skill scarcity machine learning algorithms
US11431609B2 (en) Dynamic network service data routing based on measured network performance data
Spinnewyn et al. Resilient application placement for geo-distributed cloud networks
Battula et al. A generic stochastic model for resource availability in fog computing environments
Deng et al. Microservice pre-deployment based on mobility prediction and service composition in edge
Cao et al. Distributed workflow mapping algorithm for maximized reliability under end-to-end delay constraint
JP7456497B2 (en) Disaster recovery plan generation device, disaster recovery plan generation method, and program
JP6944155B2 (en) Orchestrator equipment, programs, information processing systems, and control methods
US10505840B2 (en) Methods and systems for failure recovery in a virtual network environment
CN111935005A (en) Data transmission method, device, processing equipment and medium
Manias et al. A machine learning-based migration strategy for virtual network function instances
Zamani et al. Locations of congested facilities with interruptible immobile servers
US20210216861A1 (en) System and method for predicting fall armyworm using weather and spatial dynamics

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R150 Certificate of patent or registration of utility model

Ref document number: 6944156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150