JP7347531B2 - 制御装置、制御方法及びプログラム - Google Patents

制御装置、制御方法及びプログラム Download PDF

Info

Publication number
JP7347531B2
JP7347531B2 JP2021553924A JP2021553924A JP7347531B2 JP 7347531 B2 JP7347531 B2 JP 7347531B2 JP 2021553924 A JP2021553924 A JP 2021553924A JP 2021553924 A JP2021553924 A JP 2021553924A JP 7347531 B2 JP7347531 B2 JP 7347531B2
Authority
JP
Japan
Prior art keywords
network
action
state
agent
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553924A
Other languages
English (en)
Other versions
JPWO2021084608A1 (ja
Inventor
晃人 鈴木
薫明 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021084608A1 publication Critical patent/JPWO2021084608A1/ja
Application granted granted Critical
Publication of JP7347531B2 publication Critical patent/JP7347531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L12/407Bus networks with decentralised control
    • H04L12/413Bus networks with decentralised control with random access, e.g. carrier-sense multiple-access with collision detection [CSMA-CD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5041Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
    • H04L41/5054Automatic deployment of services triggered by the service manager, e.g. service implementation by automatic configuration of network components

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

特許法第30条第2項適用 2019年8月29日に電子情報通信学会 信学技報 情報ネットワーク研究会(IN) vol.119 No.195 IN2019-29 pp.35-40にて発表
本発明は、制御装置、制御方法及びプログラムに関する。
仮想ネットワーク機能(VNF:Virtual Network Function)を柔軟に組み合わせることで、様々なネットワークサービスの提供を可能にするNFV(Network Function Virtualization)と呼ばれる技術が知られている。これらのネットワークサービスは、サービス提供者が構築した仮想ネットワーク(VN:Virtual Network)を、電気通信事業者が持つ物理リソースに割り当てることで提供される。
ところで、近年、高画質の動画配信やOS(Operating System)のアップデート等により、トラヒックやサーバ等の物理リソースの需要変動が激化している。このため、サービス提供者が構築した仮想ネットワークの物理リソースの需要も時間的に変動することが多い。これに対して、物理リソースの需要変動に応じて、ネットワークサービスの提供中に仮想ネットワークの割り当てを動的に制御する技術が知られている。例えば、ネットワーク状態と最適な制御方法との関係を深層強化学習により事前に学習しておき、実際の制御時における計算時間を不要とすることで、需要変動に追従可能な仮想ネットワークの動的割当方法が知られている(非特許文献1)。
鈴木 晃人,安孫子 悠,原田 薫明,"深層強化学習による動的仮想ネットワーク割当手法の検討",信学会総合大会,p.1,B-7-48,2018.
しかしながら、非特許文献1に記載されている動的割当方法では、サーバ数の増加や仮想ネットワーク数の増加等に対して事前学習に要する計算時間が増大する場合がある。また、ネットワーク機器の再設定や仮想マシン(VM:Virtual Machine)の移動等が多くなる場合があり、その結果、実制御における制御周期が増加し、仮想ネットワークの割当精度が低下することがある。
本発明の実施形態は、上記の点に鑑みてなされたもので、仮想ネットワークの動的割当を効率的かつ高精度に実現することを目的とする。
上記目的を達成するため、本実施形態に係る制御装置は、ネットワークサービスを提供するための仮想ネットワークをマルチエージェント深層強化学習により物理ネットワーク上に動的に割り当てる制御装置であって、時刻tにおいて、前記物理ネットワーク上への前記仮想ネットワークの割り当てを表す行動を実行するエージェントgを複数のエージェントの中から選択する選択手段と、前記物理ネットワークのネットワーク構成情報と、前記物理ネットワークの物理リソース量を示すネットワーク観測情報と、前記ネットワークサービスのユーザ端末の通信行動によって発生した物理リソースの需要量を示すユーザ需要情報とを入力として、時刻tにおける状態sを観測する観測手段と、将来にわたって受け取る報酬の総和の期待値を表す行動価値関数Qに基づいて、前記選択手段により選択されたエージェントgが取り得る前記行動の中から行動a を選択及び実行する割当手段と、前記割当手段により選択及び実行された行動a と、前記状態sと、前記観測手段により観測された時刻t+1における状態st+1とを用いて、時刻tにおける報酬rを計算する報酬計算手段と、1≦j≦tとして、前記行動a と前記状態sと前記状態sj+1とを用いて、前記行動価値関数Qを更新する学習手段と、を有することを特徴とする。
仮想ネットワークの動的割当を効率的かつ高精度に実現することができる。
本実施形態に係るネットワーク制御装置を含むシステムの全体構成の一例を示す図である。 本実施形態に係るネットワーク制御装置のハードウェア構成の一例を示す図である。 本実施形態に係る制御部の機能構成の一例を示す図である。 本実施形態に係る事前学習処理の一例を示すフローチャートである。 本実施形態に係る動的VN割当処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面を参照しながら詳細に説明する。本実施形態では、仮想ネットワークの動的割当を効率的かつ高精度に実現することができるネットワーク制御装置100について説明する。
<全体構成>
まず、本実施形態に係るネットワーク制御装置100を含むシステムの全体構成について、図1を参照しながら説明する。図1は、本実施形態に係るネットワーク制御装置100を含むシステムの全体構成の一例を示す図である。
図1に示すように、本実施形態に係るネットワーク制御装置100は物理ネットワーク400と接続される。物理ネットワーク400は電気通信事業者のネットワーク環境であり、例えば、サーバ装置10と、転送装置20と、ユーザ端末30とが含まれる。
ネットワーク制御装置100は、サービス提供者が構築した仮想ネットワーク(以降、単に「VN」とも表す。)を物理ネットワーク400上に動的に割り当てるコンピュータ又はコンピュータシステムである(すなわち、ネットワーク制御装置100は、NFVオーケストレータとして機能するコンピュータ又はコンピュータシステムである。)。ここで、ネットワーク制御装置100は、制御部200と、記憶部300とを有する。
制御部200は、物理ネットワーク400のネットワーク状態(以降、単に「NW状態」とも表す。)と最適なVN割当方法との関係をマルチエージェント深層強化学習により事前に学習しておくことで、仮想ネットワークの物理リソース需要(以降、「VN需要」とも表す。)に追従可能(つまり、VN需要の変動に追従可能)な動的VN割当を実現する。
ここで、NW状態とは、物理ネットワーク400に含まれる各物理リソースの量(例えば、各サーバ装置10のサーバ容量や各転送装置20の容量、物理ネットワーク400に含まれるリンクの容量)等のことである。また、仮想ネットワークの物理リソース需要とは、この仮想ネットワークによるネットワークサービスの実現に必要な物理リソースの需要量のことであり、例えば、トラヒック需要や仮想マシン需要(以降、単に「VM需要」とも表す。)等のことである。トラヒック需要とは、物理ネットワーク400に含まれる或るリンクで必要なトラヒック量(つまり、データ量)のことである。VM需要とは、サーバ装置10上に構築(配置)する必要があるVM数のことである。
また、VN割当とは、例えば、サーバ装置10上にVMを配置したり、ユーザ端末30からVMまでの最適な経路を決定したりすること等である。VN割当は、このVN割当を実現するための設定命令が制御部200から各サーバ装置10及び各転送装置20に送信されることで行われる。
上述したNW状態やVN需要(つまり、トラヒック需要及びVM需要)は、ネットワーク制御装置100に入力されるネットワーク構成情報やネットワーク観測情報、ユーザ需要情報等から得られる。
ネットワーク構成情報とは、例えば、物理ネットワーク400のネットワークトポロジー情報や物理リソースの制約条件(例えば、上述した物理リソースの量)等のことである。また、ネットワーク観測情報とは、例えば、物理ネットワーク400を構成する各リンクのトラヒックを示すトラヒック情報と各サーバ装置10のサーバ容量やVM数を示すサーバ利用情報のことである。また、ユーザ需要情報とは、例えば、ユーザ端末30のVN需要(つまり、トラヒック需要及びVM需要)を示す情報のことである。
記憶部300は、制御部200による事前学習や動的VN割当に必要な各種情報(例えば、ネットワーク構成情報やネットワーク観測情報、ユーザ需要情報等)を記憶する。
ここで、マルチエージェント深層強化学習とは、複数のエージェントを用いた深層強化学習のことである。本実施形態では、物理ネットワーク400全体のVN割当問題を複数のサブ問題に分割した上で、各サブ問題に対してエージェントを用意し、深層強化学習により事前学習を行う。より具体的には、物理ネットワーク400全体に対するVN需要を複数のグループに分割した上で、各グループに対してエージェントを用意し、これらのエージェントの各々を深層強化学習により事前学習を行う。これにより、VN数の増加やサーバ装置10の台数の増加等に対して、事前学習に要する計算時間の増大を防止することが可能となる。言い換えれば、VN数やサーバ装置10台数に対するスケール性を向上させることが可能となる。なお、VN割当問題は、最適化問題の一種であり、VNE(Virtual Network Embedding)問題とも呼ばれる。
また、本実施形態では、各制御周期で行動可能なエージェントを1つに限定する。これにより、各制御周期におけるVN割当量(例えば、ネットワーク機器の再設定やVMの移動等に関する変更回数や頻度等)を抑制することができ、制御周期の増加によるVN割当精度の低下を防止することが可能となる。更に、エージェント間でVN割当の競合が発生することによるVN割当精度の低下を防止することも可能となる。
サーバ装置10は、ネットワーク制御装置100によって配置されるVMを実現するコンピュータ又はコンピュータシステムである。サーバ装置10は、サーバ利用情報を収集して、収集したサーバ利用情報をネットワーク制御装置100に送信する。また、サーバ装置10は、ネットワーク制御装置100によって配置されたVMが実現する機能に従ってトラヒックを処理し、トラヒックを発生させる。なお、以降では、複数のサーバ装置10の各々を区別する場合は、サーバ装置10のインデックスを右下に付与して、「サーバ装置10」、「サーバ装置10」等と表す。
転送装置20は、トラヒックを転送するノードとして機能するネットワーク機器である。転送装置20は、トラヒック情報を収集して、収集したトラヒック情報をネットワーク制御装置100に送信する。また、転送装置20は、経路情報に従ってトラヒックを処理する。経路情報とは、例えば、ユーザ端末30とVMとの間の経路等を示す情報のことである。
ユーザ端末30は、ユーザの通信行動(例えば、ネットワークサービスの利用開始操作等)により発生したトラヒックをサーバ装置10等に送信するコンピュータである。また、ユーザ端末30は、ユーザ需要情報をネットワーク制御装置100に送信する。
<マルチエージェント深層強化学習の構成>
上述したように、本実施形態では、物理ネットワーク400のNW状態と最適なVN割当方法との関係をマルチエージェント深層強化学習により事前に学習しておくことで動的VN割当を実現する。そこで、以降では、マルチエージェント深層強化学習の構成例について説明する。なお、本実施形態では、一例として、深層強化学習の1つである深層Q学習又は深層Qネットワーク(DQN:Deep Q-Network)と呼ばれる手法を用いるものとする。
本実施形態では、制御周期毎の各時刻をタイムステップとしてtで表し、タイムステップt毎に事前学習及び動的VN割当を実行するものとする。ただし、事前学習では、次のタイムステップに遷移するにあたり、制御周期分の時間が実際に経過している必要はない。
このとき、本実施形態で用いる各記号を以下の表1及び表2に示すように定義する。
Figure 0007347531000001
Figure 0007347531000002
以降では、Mは2以上の整数、NはMの倍数であるものとする。なお、NがMの倍数でない場合は、NがMの倍数となるようにN若しくはM又はその両方の値を適宜調整すればよい。
また、VN割当問題の制約条件及び目的関数として、最大リンク利用率U と最大サーバ利用率U とがそれぞれ0以上1以下であることを制約条件とし、ネットワーク利用効率E NWとVN再割当回数とを目的関数とした。また、ネットワーク利用効率E NWを以下の式(1)で定義した。
Figure 0007347531000003
すなわち、最大リンク利用率U 及び最大サーバ利用率U が減少する程、ネットワーク利用効率E NWが増加するようにした。
本実施形態では、深層強化学習の状態及び報酬はエージェント間で共通であるものとし、行動のみエージェント毎に異なるものとする。まず、タイムステップtにおける状態s
Figure 0007347531000004
と定義する。なお、トラヒック需要D及びVM需要Vは、ユーザ需要情報から取得可能である。また、残余リンク容量R 及び残余サーバ容量R は、ネットワーク構成情報及びネットワーク観測情報から計算又は取得可能である。
次に、エージェントgの行動a はVN割当であるものとする。ここで、或る1つのVN需要に対するVN割当は、1台のVMと、このVMの配置先のサーバ装置10との組み合わせで決まり、当該VN需要に対応するユーザ端末30から当該サーバ装置10までの経路は一意に定まるものとする。また、エージェント数Mと同数のグループにVN需要を分割し、k番目のグループに属するVN需要に対するVN割当をエージェントgが行うものとする。したがって、エージェントgが行動a として取り得るVN割当(つまり、行動a の候補数)は、N/M個の各VN需要に対してS個のサーバ装置10のうちのいずれかのサーバ装置10にVMを配置する組み合わせの数SN/Mとなる。
ここで、例えば、上記の非特許文献1に記載されている動的割当方法では、エージェントが行動aとして取り得る行動数はSとなる。このため、本実施形態では、上記の非特許文献1に記載されている動的割当方法と比較して、各エージェントの学習に要する計算時間(つまり、計算コスト)を削減することが可能となる。また、本実施形態では、各タイムステップtで行動可能なエージェント数を1つに限定することで、再割当されるVN数を最大N/M個に限定することが可能となる。これにより、動的VN割当時(つまり、実制御時)における制御周期の増加によるVN割当精度の低下を防止することが可能となる。なお、VN再割当とは、同一のVNに関してVN割当の前後で物理リソースの位置が変わることを意味する(すなわち、本実施形態では、同一のVNに関してVN割当の前後でVMが配置されるサーバ装置10が異なる場合のことを意味する。)。
次に、タイムステップtにおける報酬rの設計指針として、本実施形態では、制約条件を満たさない場合は、大きな負の値を報酬rとして与えるものとする。また、VN再割当が発生した場合は、ネットワーク利用効率E NWの改善度又は改悪度に応じた値を報酬rとして与えるものとする。更に、不必要なVN再割当の抑制を目的として、ネットワーク利用効率E NWが高い場合には、一律で負の値を報酬rとして与えるものとする。これらの設計指針に基づいて、例えば、報酬rを-1≦r≦1の範囲で以下のように定義する。
(1)U >1又はU >1である場合、r=-1
(2)U >0.9又はU >0.9である場合、r←r-0.2
(3)VN再割当あり、かつ、「U <0.6又はU <0.6」である場合、r←r-0.2
(4)VN再割当ありである場合、r←r+2(Et+1 NW-E NW
(5)上記の(1)~(4)以外の場合、r=0
なお、「a←b」は、aをbで更新することを表す。
<ネットワーク制御装置100のハードウェア構成>
次に、本実施形態に係るネットワーク制御装置100のハードウェア構成について、図2を参照しながら説明する。図2は、本実施形態に係るネットワーク制御装置100のハードウェア構成の一例を示す図である。
図2に示すように、本実施形態に係るネットワーク制御装置100は、ハードウェアとして、外部I/F101と、RAM(Random Access Memory)102と、ROM(Read Only Memory)103と、プロセッサ104と、通信I/F105と、補助記憶装置106とを有する。これら各ハードウェアは、それぞれがバスBを介して通信可能に接続されている。
外部I/F101は、外部装置とのインタフェースである。外部装置には、記録媒体101a等がある。ネットワーク制御装置100は、外部I/F101を介して、記録媒体101aの読み取りや書き込み等を行うことができる。
記録媒体101aとしては、例えば、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
RAM102は、プログラムやデータを一時保持する揮発性の半導体メモリである。ROM103は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM103には、例えば、OSに関する設定情報や通信ネットワークに関する設定情報等が格納されている。
プロセッサ104は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等であり、ROM103や補助記憶装置106等からプログラムやデータをRAM102上に読み出して処理を実行する演算装置である。
通信I/F105は、ネットワーク制御装置100を物理ネットワーク400に接続するためのインタフェースである。
補助記憶装置106は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等であり、各種プログラムやデータを格納する。補助記憶装置106に格納されているプログラムやデータには、例えば、OS、当該OS上で各種機能を実現するアプリケーションソフトウェア、制御部200を実現する1以上のプログラム等がある。
なお、記憶部300は、例えば、補助記憶装置106を用いて実現可能である。ただし、記憶部300は、例えば、ネットワーク制御装置100と通信ネットワークを介して接続された記憶装置やデータベースサーバ等により実現されていてもよい。
本実施形態に係るネットワーク制御装置100は、図2に示すハードウェア構成を有することにより、後述する事前学習処理及び動的VN割当処理を実現することができる。なお、図2に示すハードウェア構成は一例であって、本実施形態に係るネットワーク制御装置100は、他のハードウェア構成を有していてもよい。例えば、本実施形態に係るネットワーク制御装置100は、複数のプロセッサ104を有していてもよいし、複数のメモリ装置(RAM102やROM103、補助記憶装置106等)を有していてもよい。また、例えば、本実施形態に係るネットワーク制御装置100は、上記のハードウェアに加えて、ディスプレイ等の表示装置と、キーボードやマウス等の入力装置とを有していてもよい。
<制御部200の機能構成>
次に、本実施形態に係る制御部200の機能構成について、図3を参照しながら説明する。図3は、本実施形態に係る制御部200の機能構成の一例を示す図である。
図3に示すように、本実施形態に係る制御部200には、初期化部201と、選択部202と、観測部203と、割当部204と、報酬計算部205と、学習部206と、設定命令部207とが含まれる。なお、制御部200は、例えば、補助記憶装置106に格納されている1以上のプログラムが、プロセッサ104に実行させる処理により実現される。
初期化部201は、事前学習において、各種パラメータの初期設定等を行う。初期設定対象のパラメータとしては、例えば、エージェント数MやVN数N、リンクの総数L、サーバ装置10の総数S、総タイムステップT等が挙げられる。
選択部202は、事前学習において、エージェント集合Gの中から、学習対象のエージェントgを選択する。また、選択部202は、動的VN割当において、エージェント集合Gの中から、行動するエージェントgを選択する。
観測部203は、事前学習及び動的VN割当において、タイムステップt毎に状態sを観測する。なお、上記で定義したように、状態sには、タイムステップtにおけるトラヒック需要とVM需要と残余リンク容量と残余サーバ容量とが含まれる。このため、観測部203は、ネットワーク構成情報やネットワーク観測情報、ユーザ需要情報を入力することで、状態sを観測することができる。
割当部204は、事前学習及び動的VN割当において、選択部202により選択されたエージェントgの行動a を選択及び実行することで、VN割当を行う。
報酬計算部205は、事前学習において、報酬rを計算する。なお、最大リンク利用率U を得るために必要なリンク利用率u は、ネットワーク構成情報及びネットワーク観測情報から計算又は取得可能である。同様に最大サーバ利用率U を得るために必要なサーバ利用率u は、ネットワーク構成情報及びネットワーク観測情報から計算又は取得可能である。
また、報酬計算部205は、sとa とrとst+1と対応付けてリプレイ記憶(Replay Memory)に格納する。リプレイ記憶は、例えば、RAM102や補助記憶装置106を用いて実現可能である。なお、sとa とrとst+1と対応付けた組(s,a ,r,st+1)は学習サンプルとも呼ばれる。
学習部206は、事前学習において、リプレイ記憶からランダムに選択した学習サンプル(s,a ,r,sj+1)を用いて、将来にわたって受け取る報酬rが最大となるように行動価値関数Q(s,a )を更新する。これにより、エージェントgが学習される。なお、行動価値関数は、将来にわたって受け取る報酬の総和(この総和は利得とも称される。)の期待値を表す。
設定命令部207は、動的VN割当において、割当部204が実行した行動a が表すVN割当を実現するための設定命令をサーバ装置10や転送装置20等に送信する。これにより、当該VN割当を実現するように、各サーバ装置10にVMが配置されたり、各転送装置20の設定が変更されたりする。
<事前学習処理>
次に、動的VN割当を行う前に実行される事前学習処理について、図4を参照しながら説明する。図4は、本実施形態に係る事前学習処理の一例を示すフローチャートである。なお、図4のステップS101~ステップS106は、エピソードe=0からe=Eまで繰り返し実行される。ただし、所定の終了条件(例えば、r=-1)となった場合には事前学習処理を終了する。
ステップS101:まず、初期化部201は、各種パラメータの初期設定を行う。なお、このとき、初期化部201は、事前学習に用いるネットワーク観測情報及びユーザ需要情報を生成し、記憶部300に格納してもよい。
以降のステップS102~ステップS107は、タイムステップt=1からt=Tまで繰り返し実行される(すなわち、エピソード毎に、ステップS102~ステップS107がT回繰り返し実行される。)。以降では、或るタイムステップtにおけるステップS102~ステップS107について説明する。
ステップS102:選択部202は、エージェント集合Gの中から、学習対象のエージェントgを選択する。例えば、選択部202は、tをMで割った余りをkとする(つまり、k=t mod M)ことで、学習対象のエージェントgを選択すればよい。
ステップS103:観測部203は、タイムステップtにおけるネットワーク構成情報やネットワーク観測情報、ユーザ需要情報を入力することで、状態sを観測する。なお、各タイムステップtでネットワーク構成情報が不変である場合、ネットワーク構成情報は初回のみ(つまり、t=1のときのみ)入力されればよい。
ステップS104:次に、割当部204は、上記のステップS102で選択されたエージェントgの行動a を選択及び実行する。このとき、割当部204は、1-εの確率でランダムに行動a を選択し、1-εの確率で行動価値関数Q(s,a )が最大となる行動a を選択する。これにより、選択及び実行された行動a が表すVN割当が行われ、VM配置At+1が更新される。なお、At+1={At+1 }は、例えば、各VNに対してVMが配置されているサーバ装置10のインデックスを表す。
ステップS105:次に、観測部203は、タイムステップt+1におけるネットワーク構成情報やネットワーク観測情報、ユーザ需要情報を入力することで、状態st+1を観測する。
ステップS106:次に、報酬計算部205は、状態sと行動a と状態st+1とを用いて、報酬rを計算する。また、報酬計算部205は、学習サンプル(s,a ,r,st+1)をリプレイ記憶に格納する。
ステップS107:そして、学習部206は、リプレイ記憶からランダムに選択した学習サンプル(s,a ,r,sj+1)を用いて、将来にわたって受け取る報酬rが最大となるように行動価値関数Q(s,a )を更新する。これにより、エージェントgが学習される。なお、学習部206は、深層Q学習又は深層Qネットワーク等に用いられる既知の更新式により行動価値関数Q(s,a )を更新すればよい。
以上により、本実施形態に係るネットワーク制御装置100では、将来にわたって受け取る報酬rが最大となるように(すなわち、ネットワーク利用効率を高くしつつ、かつ、VN再割当の回数が少なくなるように)、エージェントgを学習することができる。しかも、本実施形態に係るネットワーク制御装置100では、複数のVN需要をM個のグループに分割し、k番目のグループに属するVN需要に対するVN割当をエージェントgにより学習する。これにより、VN数の増加やサーバ装置10の台数の増加等に対する計算時間の増大を防止することが可能となる。
<動的VN割当処理>
次に、ネットワークサービス提供中に実行される動的VN割当処理について、図5を参照しながら説明する。図5は、本実施形態に係る動的VN割当処理の一例を示すフローチャートである。以降のステップS201~ステップS204は、制御周期毎(つまり、タイムステップt毎)に繰り返し実行される。
ステップS201:まず、選択部202は、エージェント集合Gの中から、行動するエージェントgを選択する。例えば、選択部202は、tをMで割った余りをkとする(つまり、k=t mod M)ことで、行動するエージェントgを選択すればよい。
ステップS202:次に、観測部203は、タイムステップtにおけるネットワーク構成情報やネットワーク観測情報、ユーザ需要情報を入力することで、状態sを観測する。なお、各タイムステップtでネットワーク構成情報が不変である場合、ネットワーク構成情報は初回のみ(つまり、t=1のときのみ)入力されればよい。
ステップS203:次に、割当部204は、上記のステップS201で選択されたエージェントgの行動a を選択及び実行する。このとき、割当部204は、行動価値関数Q(s,a )が最大となる行動a を選択する。
ステップS204:そして、設定命令部207は、上記のステップS203で実行された行動a が表すVN割当を実現するための設定命令をサーバ装置10や転送装置20等に送信する。これにより、各サーバ装置10にVMが配置されたり、各転送装置20の設定が変更されたりして、上記のステップS203で実行された行動a が表すVN割当が実現される。
以上により、本実施形態に係るネットワーク制御装置100では、事前に学習されたエージェント集合Gにより、各制御周期で効率的なVN割当(すなわち、ネットワーク利用効率を高くしつつ、かつ、VN再割当の回数が少なくなるようなVN割当)を実現することができる。しかも、本実施形態に係るネットワーク制御装置100では、各制御周期で行動可能なエージェントを1つに限定することで、各制御周期で再割当可能なVN数が限定され、制御周期の増加によるVN割当精度の低下を防止することが可能となる。また、エージェント間でVN割当の競合が発生することによるVN割当精度の低下を防止することも可能となる。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、他の技術との組み合わせ等が可能である。
10 サーバ装置
20 転送装置
30 ユーザ端末
100 ネットワーク制御装置
101 外部I/F
101a 記録媒体
102 RAM
103 ROM
104 プロセッサ
105 通信I/F
106 補助記憶装置
200 制御部
201 初期化部
202 選択部
203 観測部
204 割当部
205 報酬計算部
206 学習部
207 設定命令部
300 記憶部
400 物理ネットワーク

Claims (7)

  1. 複数のネットワークサービスをそれぞれ提供するための複数の仮想ネットワークをマルチエージェント深層強化学習により物理ネットワーク上に動的に割り当てる制御装置であって、
    時刻tにおいて、前記複数の仮想ネットワークのうち所定のグループに属する前記仮想ネットワークを前記物理ネットワーク上へ割り当てることを表す行動を実行するエージェントg として、複数のエージェントの中から前記所定のグループに対応するエージェントを選択する選択手段と、
    前記物理ネットワークのネットワーク構成情報と、前記物理ネットワークの物理リソース量を示すネットワーク観測情報と、前記ネットワークサービスのユーザ端末の通信行動によって発生した物理リソースの需要量を示すユーザ需要情報とを入力として、時刻tにおける状態sを観測する観測手段と、
    将来にわたって受け取る報酬の総和の期待値を表す行動価値関数Qに基づいて、前記選択手段により選択されたエージェントgが取り得る前記行動の中から行動a を選択及び実行する割当手段と、
    前記割当手段により選択及び実行された行動a と、前記状態sと、前記観測手段により観測された時刻t+1における状態st+1とを用いて、時刻tにおける報酬rを計算する報酬計算手段と、
    1≦j≦tとして、前記行動a と前記状態sと前記状態sj+1とを用いて、前記行動価値関数Qを更新する学習手段と、
    を有することを特徴とする制御装置。
  2. 前記仮想ネットワークの総数N個、前記エージェントの総数をM個として、
    前記選択手段は、
    N個の前記仮想ネットワークがN/M個ずつ分割されたグループのうちのk番目のグループに属する前記仮想ネットワーク割り当てることを表す行動を実行するエージェントgを選択する、ことを特徴とする請求項1に記載の制御装置。
  3. 前記選択手段は、
    k=t mod Mとして、前記エージェントgを選択する、ことを特徴とする請求項2に記載の制御装置。
  4. 前記報酬計算手段は、
    更に、前記行動a と前記状態sと前記状態sj+1との組をリプレイ記憶に格納し、
    前記学習手段は、
    前記jをランダムに選択し、前記リプレイ記憶に格納されている前記組のうち、前記jに対応する組に含まれる前記行動a と前記状態sと前記状態sj+1とを用いて、前記行動価値関数Qを更新する、ことを特徴とする請求項1乃至3の何れか一項に記載の制御装置。
  5. 前記報酬rは、
    前記物理ネットワークに含まれるサーバの利用率と前記物理ネットワークに含まれるリンクの利用率とで定義されるネットワーク利用効率が高いほど高い値となり、かつ、前記仮想ネットワークに対して割り当てられる前記物理リソースの変更回数が多いほど高い値となる、ことを特徴とする請求項1乃至4の何れか一項に記載の制御装置。
  6. 複数のネットワークサービスをそれぞれ提供するための複数の仮想ネットワークをマルチエージェント深層強化学習により物理ネットワーク上に動的に割り当てるコンピュータが、
    時刻tにおいて、前記複数の仮想ネットワークのうち所定のグループに属する前記仮想ネットワークを前記物理ネットワーク上へ割り当てることを表す行動を実行するエージェントg として、複数のエージェントの中から前記所定のグループに対応するエージェントを選択する選択手順と、
    前記物理ネットワークのネットワーク構成情報と、前記物理ネットワークの物理リソース量を示すネットワーク観測情報と、前記ネットワークサービスのユーザ端末の通信行動によって発生した物理リソースの需要量を示すユーザ需要情報とを入力として、時刻tにおける状態sを観測する観測手順と、
    将来にわたって受け取る報酬の総和の期待値を表す行動価値関数Qに基づいて、前記選択手順で選択されたエージェントgが取り得る前記行動の中から行動a を選択及び実行する割当手順と、
    前記割当手順で選択及び実行された行動a と、前記状態sと、観測された時刻t+1における状態st+1とを用いて、時刻tにおける報酬rを計算する報酬計算手順と、
    1≦j≦tとして、前記行動a と前記状態sと前記状態sj+1とを用いて、前記行動価値関数Qを更新する学習手順と、
    を実行することを特徴とする制御方法。
  7. コンピュータを、請求項1乃至5の何れか一項に記載の制御装置における各手段として機能させるためのプログラム。
JP2021553924A 2019-10-29 2019-10-29 制御装置、制御方法及びプログラム Active JP7347531B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/042338 WO2021084608A1 (ja) 2019-10-29 2019-10-29 制御装置、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2021084608A1 JPWO2021084608A1 (ja) 2021-05-06
JP7347531B2 true JP7347531B2 (ja) 2023-09-20

Family

ID=75715891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553924A Active JP7347531B2 (ja) 2019-10-29 2019-10-29 制御装置、制御方法及びプログラム

Country Status (3)

Country Link
US (1) US11765036B2 (ja)
JP (1) JP7347531B2 (ja)
WO (1) WO2021084608A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289199A (ja) 2008-05-30 2009-12-10 Okinawa Institute Of Science & Technology 制御器、制御方法および制御プログラム
JP2010092247A (ja) 2008-10-07 2010-04-22 Internatl Business Mach Corp <Ibm> 制御器、制御方法及び制御プログラム
WO2019188941A1 (ja) 2018-03-27 2019-10-03 日本製鉄株式会社 解析システム、解析方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844839B2 (en) * 2006-12-07 2010-11-30 Juniper Networks, Inc. Distribution of network communications based on server power consumption
US20140298349A1 (en) * 2008-04-21 2014-10-02 Adaptive Computing Enterprises, Inc. System and Method for Managing Energy Consumption in a Compute Environment
US8224993B1 (en) * 2009-12-07 2012-07-17 Amazon Technologies, Inc. Managing power consumption in a data center
CN106713055B (zh) * 2017-02-27 2019-06-14 电子科技大学 一种虚拟cdn的节能部署方法
US10467040B2 (en) * 2017-09-29 2019-11-05 Nec Corporation Intelligent self-configuring decision method for the cloud resources management and orchestration
KR102604735B1 (ko) * 2017-11-30 2023-11-22 삼성전자주식회사 전자장치에서 소모 전력 관리장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009289199A (ja) 2008-05-30 2009-12-10 Okinawa Institute Of Science & Technology 制御器、制御方法および制御プログラム
JP2010092247A (ja) 2008-10-07 2010-04-22 Internatl Business Mach Corp <Ibm> 制御器、制御方法及び制御プログラム
WO2019188941A1 (ja) 2018-03-27 2019-10-03 日本製鉄株式会社 解析システム、解析方法、およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
宮崎 和光 Kazuteru Miyazaki,マルチエージェント環境における間接報酬に関する一考察 A Study of an Indirect Reward on Multi-agent Environments,電気学会研究会資料 The Papers of Technical Meeting on "Systems",IEE Japan,日本,一般社団法人電気学会 The Institute of Electrical Engineers of Japan(IEEJ) ,2016年03月08日,P.1-6
島田 直希 NAOKI SHIMADA,Chainerで学ぶディープラーニング入門 初版 INTRODUCTION TO DEEP LEARNING WITH Cainer,日本,株式会社技術評論社 片岡 巌,2017年11月02日,P.170-181
鈴木 晃人 Akito SUZUKI,NFVにおける制御アルゴリズム間の連携による統合制御手法 A method of coordinating multiple control algorithms for NFV,電子情報通信学会技術研究報告 Vol.116 No.485 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年02月23日,P.37-42
鈴木 晃人 Akito Suzuki,深層強化学習による動的仮想ネットワーク割当手法の検討,電子情報通信学会2019年総合大会講演論文集 通信2 PROCEEDINGS OF THE 2019 IEICE GENERAL CONFERENCE,日本,一般社団法人電子情報通信学会,2019年03月05日,P.125,B-7-48

Also Published As

Publication number Publication date
WO2021084608A1 (ja) 2021-05-06
JPWO2021084608A1 (ja) 2021-05-06
US11765036B2 (en) 2023-09-19
US20220385536A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
US10904319B2 (en) Dynamic deployment of an application based on micro-services
Shi et al. MDP and machine learning-based cost-optimization of dynamic resource allocation for network function virtualization
WO2020162211A1 (ja) 制御装置、制御方法及びプログラム
WO2019099281A1 (en) Predictive rightsizing for virtual machines in cloud computing systems
US11520613B2 (en) Dynamic flavor allocation
EP3616055A1 (en) Cluster resource management in distributed computing systems
JP2009524135A (ja) リソースのフリープールをモデル化するための方法
JP2016126562A (ja) 情報処理システム、管理装置、及び情報処理システムの制御方法
US20230254214A1 (en) Control apparatus, virtual network assignment method and program
JPWO2018142700A1 (ja) 制御装置、制御方法、及びプログラム
JP5515889B2 (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
CN115580882A (zh) 动态网络切片资源分配方法及装置、存储介质及电子设备
JP7347531B2 (ja) 制御装置、制御方法及びプログラム
JP2017215933A (ja) 情報処理装置、及び、負荷分散制御方法
WO2012172588A1 (ja) リクエスト振分け計算機、リクエスト振分け方法及びプログラム
JP6158751B2 (ja) 計算機資源割当装置及び計算機資源割当プログラム
WO2020022018A1 (ja) リソース割当装置、リソース管理システム、および、リソース割当プログラム
CN115061813A (zh) 集群资源的管理方法、装置、设备及介质
JP7509234B2 (ja) 計算資源クラスタ管理装置、計算資源クラスタ管理方法、および、計算資源クラスタ管理プログラム
JP6374059B2 (ja) コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP2012181673A (ja) リソース割当装置、リソース割当方法、およびプログラム
JP2021105772A (ja) リソース利用量の予測管理システム、リソース利用量の予測管理方法
JPWO2018225747A1 (ja) 分散システム、データ管理装置、データ管理方法、及びコンピュータ読み取り可能な記録媒体
Al-Masri et al. Enhancing Resource Provisioning Across Edge-based Environments
JP6723951B2 (ja) 仮想資源割当装置及び仮想資源割当方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20220506

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7347531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150