JP2019008554A - 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 - Google Patents
情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 Download PDFInfo
- Publication number
- JP2019008554A JP2019008554A JP2017123678A JP2017123678A JP2019008554A JP 2019008554 A JP2019008554 A JP 2019008554A JP 2017123678 A JP2017123678 A JP 2017123678A JP 2017123678 A JP2017123678 A JP 2017123678A JP 2019008554 A JP2019008554 A JP 2019008554A
- Authority
- JP
- Japan
- Prior art keywords
- time
- traffic
- learning
- delay time
- delay
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
- Debugging And Monitoring (AREA)
Abstract
【課題】 ネットワークの遅延特性を簡便に再現することができる情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法を提供する。【解決手段】 情報処理装置は、ネットワークを流れるトラフィックのデータ量及び遅延時間を記憶する記憶部と、前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する。【選択図】図1
Description
本件は、情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法に関する。
例えばファイル転送やデータバックアップなどのアプリケーションは、ネットワークでの運用に先立ち、そのネットワークの環境を再現したエミュレータなどの検証システムによる性能試験や導入評価が行われる。この種の検証システムは、実際のネットワークとは異なり外乱の影響を受けないため、高精度な検証が可能である。
ネットワークの環境の再現に関し、例えば特許文献1には、実際のネットワークからの現場測定をもとにネットワークの性能予測を行う点が記載されている。また、特許文献2には、障害探索及びデバッグ作業の効率化のため、エミュレータにより計算機とコンソールの間の過去の通信状況を再現する点が記載されている。
上記のような検証システムにおいてネットワークの遅延特性を再現するためには、例えばネットワーク内の各装置の設定状態、伝送帯域の空き状況、及びパケットロス率などの多数の情報を調査し、調査結果に基づいて煩雑な設定を行う必要がある。また、クラウドサービスの普及や、例えばNFV(Network Functions Virtualization)及びSDN(Software-Defined Network)などのネットワーク仮想化技術の普及によりネットワーク構成が複雑化しているため、ネットワークの遅延特性の再現はさらに困難となりつつある。
そこで本件は、ネットワークの遅延特性を簡便に再現することができる情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法を提供することを目的とする。
1つの態様では、情報処理装置は、ネットワークを流れるトラフィックのデータ量及び遅延時間を記憶する記憶部と、前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する。
1つの態様では、情報処理システムは、ネットワークを流れる収集された第1トラフィックのデータ量及び遅延時間を記憶する第1記憶部と、前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記第1トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する情報処理装置と、他のネットワークを流れる第2トラフィックのデータ量及び遅延時間を記憶する第2記憶部と、前記第2トラフィックのデータ量及び遅延時間から、前記複数のパラメータの学習が完了した前記学習モデルを用いることにより前記ネットワークにおける前記第2トラフィックの遅延時間を予測する予測部と、前記予測部が予測した遅延時間を、前記他のネットワークを流れる前記第2トラフィックに与えるトラフィック処理部とを有する予測装置とを含む。
1つの態様では、情報処理プログラムは、ネットワークを流れるトラフィックのデータ量及び遅延時間を収集し、前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する、処理をコンピュータに実行させるプログラムである。
1つの態様では、情報処理方法は、ネットワークを流れるトラフィックのデータ量及び遅延時間を収集する工程と、前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する工程とを、コンピュータが実行する方法である。
1つの側面として、ネットワークの遅延特性を簡便に再現することができる。
図1は、遅延予測システムの一例を示す構成図である。また、図2は、遅延予測システムの動作の一例を示すフローチャートである。遅延予測システムは、トラフィック収集装置82と、情報処理装置の一例である学習モデル生成装置1と、予測装置の一例である遅延予測装置2とを含む。
トラフィック収集装置82は、運用中のネットワークシステム8からトラフィックを収集する(ステップSt41)。ネットワークシステム8は、例えば、パーソナルコンピュータなどの端末80,81同士を、インターネットなどのWAN(Wide Area Network)を介して接続したものが挙げられる。なお、WANはネットワークの一例であり、WANを流れるトラフィックは第1トラフィックの一例である。
トラフィック収集装置82は、単位時間ごとのトラフィックの遅延時間及びデータ量を解析する。より具体的には、トラフィック収集装置82は、トラフィックの送信時刻、遅延時間、及びパケットのサイズ(以下、「サイズ」と表記)を解析して学習トラフィックデータベース130に記録する。これにより、学習トラフィックデータベース130には、例えば1秒間隔の送信時刻に対応する遅延時間及びサイズが記録されている。なお、本例では単位時間を1秒とするが、これに限定されない。
次に、学習モデル生成装置1は、WAN内の遅延時間を予測するための各学習モデル(#1〜#N)(N:正の整数)を、学習トラフィックデータベース130から生成する(ステップSt42)。より具体的には、学習モデル生成装置1は、各学習モデル(#1〜#N)の複数のパラメータX0,・・・,Xi(i:正の整数)を、学習トラフィックデータベース130から学習する。
学習モデル生成装置1は、学習トラフィックデータベース130から互いに異なる時間分のデータを取得してそれぞれの学習処理を実行する。学習モデル生成装置1は、1秒分のデータから学習モデル(#1)を生成し、2秒分のデータから学習モデル(#2)を生成し、N秒分のデータから学習モデル(#N)を生成する。
次に、遅延予測装置2は、パラメータX0,・・・,Xiの学習が完了した各学習モデル(#1〜#N)を用いることにより、検証システム9を流れるトラフィックの運用中のネットワークシステム8における遅延時間を予測する(ステップSt43)。検証システム9は、例えばファイル転送やデータバックアップなどのアプリケーションAPLがインストールされた端末90,91を含む。各端末90,91はパケットを互いに送受信する。なお、検証システム9は他のネットワークの一例であり、検証システム9を流れるトラフィックは第2トラフィックの一例である。
遅延予測装置2は、検証システム9から各学習モデル(#1〜#N)に、互いに異なる時間分のトラフィックの送信時刻とパケットのサイズ(以下、「サイズ」と表記)を入力する。例えば、学習モデル(#1)には1秒分のトラフィックの時刻及びサイズが入力され、学習モデル(#2)には2秒分のトラフィックの時刻及びサイズが入力され、学習モデル(#N)にはN秒分のトラフィックの時刻及びサイズが入力される。
遅延予測装置2は、学習モデル(#1〜#N)をそれぞれ用いて予測処理を行うことにより遅延時間を算出する。遅延予測装置2は、各学習モデル(#1〜#N)により算出した遅延時間の平均化処理を実行する。これにより、遅延予測装置2は平均遅延時間を算出する。
次に、遅延予測装置2は、平均遅延時間を用いてWANの遅延特性を再現する(ステップSt44)。より具体的には、遅延予測装置2は、ネットワークエミュレータとして機能し、検証システム9のトラフィックに平均遅延時間を挿入する。これにより、検証システム9のトラフィックはWANと同様の遅延特性の影響を受けるため、アプリケーションAPLをWANで使用した場合の性能評価が可能となる。
なお、本例において、トラフィック収集装置82と学習モデル生成装置1は、別々の装置として構成されているが、1つの装置として構成されてもよい。また、学習モデル生成装置1と遅延予測装置2は、別々の装置として構成されているが、1つの装置として構成されてもよい。以下に、トラフィック収集装置82と学習モデル生成装置1と遅延予測装置2の構成及び機能について述べる。
図3は、トラフィック収集装置82の一例を示す構成図である。トラフィック収集装置82は、送受信部820と、トラフィック解析部821と、書き込み処理部822と、記憶部823とを有する。なお、本例において、トラフィック収集装置82は、一方の端末80とWANの間に設けられているが、点線の枠で示されるように、他方の端末81とWANの間に設けられてもよい。
送受信部820は、例えばネットワークタップであり、WANを介し各端末80,81の間で送受信されるパケットを取得し、トラフィック解析部821に出力する。トラフィック解析部821は、例えばパケットを解析することにより、1秒間隔の送信時刻ごとのサイズ及び遅延時間を取得して書き込み処理部822に出力する。トラフィック解析部821は、例えばFPGA(Field Programmable Gate Array)やASIC(Application Specified Integrated Circuit)などのハードウェアから構成される回路、もしくはソフトウェアの機能により構成される。
トラフィック解析部821は、例えば、端末80からパケットが入力された時刻を送信時刻として検出し、パケットのRTT(Round Trip Time)から遅延時間を算出する。また、トラフィック解析部821は、1個のパケットのデータ量をサイズとして検出してもよいが、1秒間のパケットのデータ量の合計をサイズとして検出してもよい。
書き込み処理部822は、記憶部823に格納された学習トラフィックデータベース(DB)130に送信時刻ごとのサイズ及び遅延時間を記録する。書き込み処理部822は、例えばFPGAやASICなどのハードウェアから構成される回路、もしくはソフトウェアの機能により構成され、記憶部823は例えばメモリにより構成される。
学習トラフィックDB130には、送信時刻ごとのサイズ及び遅延時間が記録されている。例えば、送信時刻「15:00:00」において、サイズは900(Byte)であり、遅延時間は6(msec)である。
トラフィックの収集手段としては、トラフィック収集装置82に限定されず、端末80,81に実装されたソフトウェアを用いることもできる。
図4は、トラフィック収集手段の他の例を示す図である。端末80,81には、パケットを収集するためのソフトウェア80a,81aが実装されている。ソフトウェア80a,81aとしては、「wireshark」(登録商標)、「tcpdump」、及び「netsh」などが挙げられ、この場合、ソフトウェア80a,81aは一方の端末80,81だけに実装されればよい。
また、両方の端末80,81にソフトウェア80a,81aを実装する場合、ソフトウェア80a,81aの一方から他方に試験用パケットを送信することによりトラフィックを収集することも可能である。
図5は、学習モデル生成装置1の一例を示す構成図である。学習モデル生成装置1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、HDD(Hard Disk Drive)13、通信ポート14、入力装置15、及び出力装置16を有する。CPU10は、互いに信号の入出力ができるように、ROM11、RAM12、HDD13、複数の通信ポート14、入力装置15、及び出力装置16と、バス19を介して接続されている。なお、CPU10はコンピュータの一例である。
ROM11は、CPU10を駆動するプログラムが格納されている。プログラムには、学習モデルを生成するための情報処理プログラムが含まれる。RAM12は、CPU10のワーキングメモリとして機能する。通信ポート14は、例えば無線LAN(Local Area Network)カードやNIC(Network Interface Card)であり、CPU10と他の装置との間の通信を処理する。
入力装置15は、CPU10に情報を入力する装置である。入力装置15としては、例えばキーボード、マウス、及びタッチパネルなどが挙げられる。入力装置15は、入力された情報を、バス19を介しCPU10に出力する。
出力装置16は、CPU10から情報を出力する装置である。出力装置16としては、例えばディスプレイ、タッチパネル、及びプリンタなどが挙げられる。出力装置16は、CPU10からバス19を介して情報を取得して出力する。
CPU10は、ROM11からプログラムを読み込むと、機能として、入力処理部100、学習処理部101、及び出力処理部102が形成される。入力処理部10は、例えば入力装置15からのユーザの操作情報に従い、トラフィック収集装置82から入力された学習トラフィックDB130をHDD13に格納する。
学習トラフィックDB130は、例えば、トラフィック収集装置82から通信ポート14を介して学習モデル生成装置1に入力される。なお、HDD13は、学習トラフィックDB130を記憶する第1記憶部の一例である。入力処理部100は、学習トラフィックDB130の格納が完了すると、格納完了を学習処理部101に通知する。
学習処理部101は、入力処理部100の通知に応じ、学習モデル(#1〜#N)の各パラメータX0,・・・,Xiを、単位時間ごとのトラフィックのデータ量及び遅延時間から学習する。より具体的には、学習処理部101は、学習トラフィックDB130から、ある送信時刻の遅延時間と、その送信時刻のサイズと、その送信時刻からn秒前(n:正の整数)までのサイズ・遅延時間との関係を示す複数の関係式を生成する。学習処理部101は、複数の関係式の共通の各パラメータX0,・・・,Xiを、複数の関係式を連立方程式として解くことによって算出する。
学習処理部101は、各パラメータX0,・・・,Xiを学習モデルデータベース(DB)131に記録する。学習処理部101は学習処理の完了を出力処理部102に通知する。出力処理部102は、学習処理部101の通知に応じ、学習モデルDB131を、例えば通信ポート14から遅延予測装置2に出力する。
図6は、学習モデル生成装置1の動作の一例を示すフローチャートである。本動作は、情報処理方法及び情報処理プログラムの一例である。
入力処理部100は、トラフィック収集装置82から学習トラフィックDB130を取得する(ステップSt1)。入力処理部100は、学習トラフィックDB130をHDD13に格納する。すなわち、入力処理部100は、WANを流れるトラフィックのサイズ及び遅延時間を収集する。
次に、学習処理部101は、学習トラフィックDB130の送信時刻から基準時刻Jを決定する(ステップSt2)。基準時刻Jは、学習処理に最初に用いるデータの送信時刻である。
次に、学習処理部101は変数nを1にセットする(ステップSt3)。変数nは、学習処理の対象の学習モデル(#1〜#N)の識別番号であり、1からNまで変化する。学習処理部101は、変数n=1〜NのそれぞれについてステップSt4〜St8の各処理を繰り返し実行する。学習処理部101は、n=1の場合、学習トラフィックDB130の1秒分のデータから学習モデル(#1)のパラメータX0,・・・,Xiを学習し、n=2の場合、学習トラフィックDB130の2秒分のデータから学習モデル(#2)のパラメータX0,・・・,Xiを学習する。
次に、学習処理部101は変数mを0にセットする(ステップSt4)。変数mは、基準時刻Jからの時刻のずれを示す。学習処理部101は、変数mを0から所定数M(n)(M(n):正の整数)まで変化させることにより、学習トラフィックDB130から取得するデータの送信時刻を1秒ずつずらしていく。なお、所定数M(n)は、変数nごとにあらかじめ設定された値である。
次に、学習処理部101は、学習トラフィックDB130から、送信時刻J+mからそのn秒前までのサイズ及び遅延時間を取得する(ステップSt5)。例えば、図3の学習トラフィックDB130の場合、基準時刻Jが「15:00:05」であり、変数nが1であるとき、送信時刻「15:00:05」及び「15:00:04」のサイズ及び遅延時間が取得される。
次に、学習処理部101は、送信時刻J+mからそのn秒前(つまり送信時刻J+m−n)までのサイズ及び遅延時間に基づいて、送信時刻J+mの遅延時間と、送信時刻J+mのサイズと送信時刻(J+m−1)〜(J+m−n)のサイズ及び遅延時間との関係を示す関係式を生成する(ステップSt6)。
T0=S0X0+S1X1+T1X2 (n=1) ・・・(1)
T0=S0X0+S1X1+S2X2+T1X3+T2X4 (n=2) ・・・(2)
T0=S0X0+S1X1+S2X2+T1X3+T2X4 (n=2) ・・・(2)
より具体的には、学習処理部101は、n=1の場合、上記の関係式(1)を生成し、n=2の場合、上記の関係式(2)を生成する。ここで、T0は送信時刻J+mの遅延時間であり、T1は送信時刻J+mの1秒前(送信時刻J+m−1)の遅延時間であり、T2は送信時刻J+mの2秒前(送信時刻J+m−2)の遅延時間である。また、S0は送信時刻J+mの遅延時間であり、S1は送信時刻J+mの1秒前の遅延時間であり、S2は送信時刻J+mの2秒前の遅延時間である。
関係式(1)は学習モデル(#1)に該当し、関係式(2)は学習モデル(#2)に該当する。すなわち、学習モデル(#1〜#N)は、予測対象の遅延時間T0を、サイズS0とパラメータX0の積と、過去のn秒分のサイズS1〜Sn及び遅延時間T1〜Tnと2n個のパラメータX1〜X2nの各々の積との和により表す。
学習処理部101は、ステップSt5及びSt6を{M(1)+1}分だけ繰り返すことにより{M(1)+1}個の関係式(1)を生成し、各関係式(1)を連立方程式として解くことにより学習モデル(#1)のパラメータX0,X1,X2を算出する。
また、学習処理部101は、ステップSt5及びSt6を{M(2)+1}回分だけ繰り返すことにより{M(2)+1}個の関係式(2)を生成し、各関係式(2)を連立方程式として解くことにより学習モデル(#2)のパラメータX0〜X4を算出する。
T0=S0X0+S1X1+S2X2+・・・+SnXn+
T1Xn+1+T2Xn+2+・・・+TnX2n ・・・(2a)
T1Xn+1+T2Xn+2+・・・+TnX2n ・・・(2a)
このように、学習処理部101は、nごとに上記の関係式(2a)を生成し、及びパラメータX0,・・・,X2nを算出する。
次に、学習処理部101は変数mに1を加算する(ステップSt7)。次に、学習処理部101は変数mと所定数M(n)を比較する(ステップSt8)。学習処理部101は、m≦M(n)が成立する場合(ステップSt8のNo)、再びステップSt5〜St7の各処理を実行する。
また、学習処理部101は、m>M(n)が成立する場合(ステップSt8のYes)、ステップSt5及びSt6を{M(n)+1}回分だけ繰り返すことにより生成した{M(n)+1}個の関係式を連立方程式として解くことによりパラメータX0,・・・,Xiを算出して学習モデルDB131に保存する(ステップSt9)。
次に、学習処理部101は変数nに1を加算する(ステップSt10)。次に、学習処理部101は変数nと所定数Nを比較する(ステップSt11)。学習処理部101は、n≦Nが成立する場合(ステップSt11のNo)、再びステップSt4〜St10の各処理を実行する。
また、n>Nが成立する場合(ステップSt11のYes)、出力処理部102は学習モデルDB131を遅延予測装置2に出力する(ステップSt12)。このようにして、学習モデル生成装置1が動作する。
次に、上記のステップSt5、St6、及びSt9の各処理の例を述べる。
図7は、学習トラフィックDBと学習モデル(#1)の取得データ70及びパラメータX0,X1,X2の一例を示す図である。本例において、学習処理部101は、変数n=1の場合、学習トラフィックDB130から上記の関係式(1)を3個生成して、学習モデル(#1)のパラメータX0,X1,X2を算出する。
学習処理部101は、点線の枠で示されるように、一例として、基準時刻Jを「15:00:05」に決定する。また、所定数M(1)は、一例として2とする。
学習処理部101は、学習モデル(#1)の生成のために学習トラフィックDB130から学習モデル(#1)の取得データ70を取得する。学習処理部101は、変数m=0の場合、学習トラフィックDB130から、基準時刻Jに該当する送信時刻「15:00:05」の遅延時間T0及びサイズS0と、基準時刻Jの1秒前に該当する送信時刻「15:00:04」の遅延時間T1及びサイズS1を取得する。
また、学習処理部101は、変数m=1の場合、学習トラフィックDB130から、基準時刻Jの1秒後(J+m)に該当する送信時刻「15:00:06」の遅延時間T0及びサイズS0と、その1秒前に該当する送信時刻「15:00:05」の遅延時間T1及びサイズS1を取得する。次に、学習処理部101は、変数m=2の場合、学習トラフィックDB130から、基準時刻Jの2秒後(J+m)に該当する送信時刻「15:00:07」の遅延時間T0及びサイズS0と、その1秒前に該当する送信時刻「15:00:06」の遅延時間T1及びサイズS1を取得する。
学習処理部101は、所定数M(1)が2であるため、m=2においてデータの取得を完了する。このようにして、取得データ70が取得される。
学習処理部101は、m=0、m=1、及びm=2の各場合の遅延時間T0,T1及びサイズS0,S1から上記の関係式(1)を生成する。より具体的には、学習処理部101は、取得データ70の遅延時間T0,T1及びサイズS0,S1の各値を、関係式(1)の遅延時間T0,T1及びサイズS0,S1に代入する。これにより、3個の関係式(1)が生成される。
学習処理部101は、3個の関係式(1)を連立方程式として解くことにより、符号71で示されるようにパラメータX0,X1,X2を算出する。
T0=−0.9136S0+0.243008S1+1.03856T1・・・(3)
学習処理部101は、算出したパラメータX0,X1,X2の各値を関係式(1)に代入することにより、上記の式(3)で表される学習モデル(#1)を生成する。学習処理部101は、学習モデル(#1)のパラメータX0,X1,X2を学習モデルDB131に保存する。
図8は、学習トラフィックDB130と学習モデル(#2)の取得データ72及びパラメータX0〜X4の一例を示す図である。本例において、学習処理部101は、変数n=2の場合、学習トラフィックDB130から上記の関係式(2)を5個生成して、学習モデル(#2)のパラメータX0〜X4を算出する。
学習処理部101は、点線の枠で示されるように、一例として、基準時刻Jを「15:00:03」に決定する。また、所定数M(2)は、一例として4とする。
学習処理部101は、学習モデル(#2)の生成のために学習トラフィックDB130から学習モデル(#2)の取得データ72を取得する。学習処理部101は、変数m=0の場合、学習トラフィックDB130から、基準時刻Jに該当する送信時刻「15:00:03」の遅延時間T0及びサイズS0と、基準時刻Jの1秒前に該当する送信時刻「15:00:02」の遅延時間T1及びサイズS1を取得する。さらに、学習処理部101は、学習トラフィックDB130から、基準時刻Jの2秒前に該当する送信時刻「15:00:01」の遅延時間T2及びサイズS2を取得する。
また、学習処理部101は、変数m=1の場合、学習トラフィックDB130から、基準時刻Jの1秒後(J+m)に該当する送信時刻「15:00:04」の遅延時間T0及びサイズS0と、その1秒前に該当する送信時刻「15:00:03」の遅延時間T1及びサイズS1を取得する。さらに、学習処理部101は、学習トラフィックDB130から、その2秒前に該当する送信時刻「15:00:02」の遅延時間T2及びサイズS2を取得する。
その後、学習処理部101は、上記と同様にm=2〜4の場合も学習トラフィックDB130から遅延時間T0〜T2及びサイズS0〜S2を取得する。学習処理部101は、所定数M(2)が4であるため、m=4においてデータの取得を完了する。このようにして、取得データ72が取得される。
学習処理部101は、m=0、m=1、m=2、m=3、及びm=4の各場合の遅延時間T0〜T2及びサイズS0〜S2から上記の関係式(2)を生成する。より具体的には、学習処理部101は、取得データ70の遅延時間T0〜T2及びサイズS0〜S2の各値を、関係式(2)の遅延時間T0〜T2及びサイズS0〜S2に代入する。これにより、5個の関係式(2)が生成される。
学習処理部101は、5個の関係式(2)を連立方程式として解くことにより、符号73で示されるようにパラメータX0〜X4を算出する。
T0=1.121788S0−0.20041S1−0.92045S2
+1.171634T1−0.97297T2 ・・・(4)
+1.171634T1−0.97297T2 ・・・(4)
学習処理部101は、算出したパラメータX0〜X4の各値を関係式(2)に代入することにより、上記の式(4)で表される学習モデル(#2)を生成する。学習処理部101は、学習モデル(#2)のパラメータX0〜X4を学習モデルDB131に保存する。
このように、学習処理部101は、WAN内の遅延時間を予測するための学習モデル(#1〜#N)の複数のパラメータX0〜Xiを、単位時間ごとのトラフィックのサイズ及び遅延時間から学習する。
このため、学習モデル生成装置1は、例えばWAN内の各装置の設定状態、伝送帯域の空き状況、及びパケットロス率などの多数の情報に基づく煩雑な設定の必要がなく、WANを流れるトラフィックから単位時間ごとのサイズ及び遅延時間を収集するだけで学習モデル(#1〜#N)を生成することができる。したがって、学習モデル生成装置1によると、WANの遅延特性を簡便に再現することができる。
また、学習モデル(#1〜#N)は、予測対象の遅延時間T0と、互いに異なる時間分のトラフィックのサイズ及び遅延時間のそれぞれとの関係を、複数のパラメータX0〜Xiにより表す。例えば、学習モデル(#1)は、式(3)のように、予測対象の遅延時間T0と、送信時刻J+mから1秒分のサイズS1及び遅延時間T1の関係をパラメータX1,X2により表す。また、学習モデル(#2)は、式(4)のように、予測対象の遅延時間T0と、送信時刻J+mから2秒分のサイズS1,S2及び遅延時間T1,T2の関係をパラメータX1〜X4により表す。
このため、学習モデル生成装置1は、複数個の予測対象の遅延時間T0が得られるように学習モデル(#1〜#N)を生成することができる。したがって、遅延予測装置2は、上述したように、例えば各学習モデル(#1〜#N)により予測した遅延時間T0の平均化処理を行うことによって、より高精度に遅延時間を予測することができる。
図9は、遅延予測装置2の一例を示す構成図である。遅延予測装置2は、検証システム9の各端末90,91の間の伝送路に設けられている。遅延予測装置2は、学習モデル生成装置1により生成された学習モデルDB131を用いて、各端末90,91の間で送受信されるパケットの遅延時間を予測し、そのパケットに与える。すなわち、遅延予測装置2は、WANのネットワークエミュレータとして機能する。
遅延予測装置2は、ポート241,242と、通信処理部28とを有する。一方のポート241は、端末91に接続され、端末91との間でパケットを送受信する。他方のポート242は、端末90に接続され、端末90との間でパケットを送受信する。なお、各ポート241,242は、例えば光通信モジュールなどから構成される。
通信処理部28は、各ポート241,242の間に設けられ、各ポート241,242の間でパケットを転送する。これにより、遅延予測装置2は、各端末90,91の間でパケットを転送する。なお、通信処理部28は、例えばFPGAやASICなどの回路により構成される。
通信処理部28は、バッファ281,282と、遅延挿入部280とを有する。バッファ281は、ポート241との間で入出力されるパケットを一時的に格納し、バッファ282は、ポート242との間で入出力されるパケットを一時的に格納する。
遅延挿入部280は、トラフィック処理部の一例であり、予測された遅延時間(以下、「予測時間」と表記)を、検証システム9を流れるトラフィックに与える。より具体的には、遅延挿入部280は、各ポート241,242の間のパケットのフローに遅延時間を挿入する。遅延挿入部280は、ポート241,242の一方からパケットを読み出して、予測時間だけ待機させた後、ポート241,242の他方に出力する。
また、遅延予測装置2は、CPU20と、ROM21、RAM22、HDD23、通信ポート24、及びハードウェアインターフェース部(HW−IF)27を有する。CPU20は、互いに信号の入出力ができるように、ROM21、RAM22、HDD23、通信ポート24、及びHW−IF27と、バス29を介して接続されている。
ROM21は、CPU20を駆動するプログラムが格納されている。RAM22は、CPU20のワーキングメモリとして機能する。通信ポート24は、例えば無線LANカードやNICであり、CPU20と他装置の通信を処理する。
HW−IF27は、CPU20の制御に従って、バッファ281,282及び遅延挿入部280をバス29に接続する。これにより、CPU20は、HW−IF27を介しバッファ281,282及び遅延挿入部280にアクセスすることができる。HW−IF27は、例えばFPGAやASICなどの回路により構成される。
HDD23には、試験トラフィックデータベース(DB)230と、学習モデルDB131とが格納されている。学習モデルDB131は、遅延時間の予測処理に先立って、CPU20の制御により学習モデル生成装置1から通信ポート24を介してHDD23に書き込まれる。
CPU20は、ROM21からプログラムを読み込むと、機能として、トラフィック取得部200と、遅延予測部201と、遅延設定部202とが形成される。
トラフィック取得部200は、HW−IF27を介しバッファ281,282からパケットを取得し、その送信時刻及びサイズを試験トラフィックDB230に記録する。トラフィック取得部200は、例えばパケットがバッファ281,282に入力された時刻を送信時刻とする。トラフィック取得部200は、例えば、一定時間ごとに試験トラフィックDB230へデータを書き込み、書き込みの完了を遅延予測部201に通知する。
遅延予測部201は、予測部の一例であり、試験トラフィックDB230から、学習モデルDB131を用いることにより、検証システム9を流れるトラフィックのWANにおける遅延時間を予測する。より具体的には、遅延予測部201は、各端末90,91のアプリケーションAPLの機能により送受信されるパケットが、WANを流れる場合の遅延時間を予測する。遅延予測部201は、予測時間を試験トラフィックDB230に記録する。
試験トラフィックDB230には、1秒間隔おきの送信時刻に対応してトラフィックのサイズ及び遅延時間が記録されている。遅延時間は、過去に遅延予測部201が予測した値である。なお、HDD23は、試験トラフィックDB230を記憶する第2記憶部の一例である。
遅延予測部201は、例えば所定時間分のパケットの遅延時間の予測の完了を、遅延設定部202に通知する。遅延設定部202は、遅延予測部201からの通知に応じて、遅延挿入部280に予測時間を通知する。遅延予測部201は、各ポート241,242の間の該当パケットを予測時間分だけ待機させる。これにより、検証システム9においてWANの遅延特性が再現される。
図10は、試験トラフィックDB230の一例を示す図である。本例では、送信時刻「15:00:03」の遅延時間T0を予測対象とする。例えば所定数Nが2である場合、遅延予測部201は、学習モデルDB131に記録された学習モデル(#1)及び学習モデル(#2)からそれぞれ予測時間(T0)を算出する。
遅延予測部201は、送信時刻「15:00:03」のサイズS0とその1秒前の送信時刻「15:00:02」のサイズS1及び遅延時間T1から上記の式(3)を用いて遅延時間を予測する。これにより、予測時間T0は、8.077121(=−0.9136×1000+0.243008×800+1.03856×7)と算出される。
また、遅延予測部201は、送信時刻「15:00:03」のサイズS0とその1秒前の送信時刻「15:00:02」のサイズS1及び遅延時間T1とその2秒前の送信時刻「15:00:01」のサイズS2及び遅延時間T2から上記の式(4)を用いて遅延時間を予測する。これにより、予測時間T0は、43.3703(=1.121788×1000−0.20041×800−0.92045×1000+1.171634×7−0.97297×6)と算出される。
次に、遅延予測部201は各予測時間の平均値を算出して試験トラフィックDB230に記録する。本例では、平均値は、25.72371(=(8.077121+43.3703)÷2)と算出される。また、遅延設定部202は、遅延挿入部280に対し、平均値を遅延時間として設定する。
図11は、遅延予測装置2の動作の一例を示すフローチャートである。トラフィック取得部200は、バッファ281,282からパケットを取得する(ステップSt31)。次に、トラフィック取得部200は、試験トラフィックDB230にパケットのサイズを記録する(ステップSt32)。
次に、遅延予測部201は、トラフィックのサイズ及び遅延時間から、学習モデル(#1〜#N)を用いることによりWANにおけるトラフィックの遅延時間を予測する(ステップSt33)。なお、ステップSt33の処理については後述する。
次に、遅延設定部202は、予測時間を遅延挿入部280に設定する(ステップSt34)。遅延挿入部280は、予測時間に従いパケットのフローに遅延時間を挿入する。これにより、遅延挿入部280は、検証システム9においてWANの遅延特性を再現することができる。
次に、遅延予測部201は、試験トラフィックDB230に予測時間を記録する(ステップSt35)。その後、ステップSt31以降の各処理が再び実行される。このようにして、遅延予測装置2は動作する。
図12は、遅延時間の予測処理の一例を示すフローチャートである。予測処理は、上記のステップSt33において実行される。
遅延予測部201は、試験トラフィックDB230から、予測処理が完了していない送信時刻Kを選択する(ステップSt21)。次に、遅延予測部201は変数nに1をセットする(ステップSt22)。
次に、遅延予測部201は、変数nを1から所定数Nまで変化させることにより学習モデル(#1〜#N)を用いて遅延時間を予測する。より具体的には、遅延予測部201は、試験トラフィックDB230から、送信時刻KのサイズS0と、その1〜n秒前の送信時刻のサイズS1〜Sn及び(予測済みの)遅延時間T1〜Tnを取得する(ステップSt23)。
次に、遅延予測部201は、サイズS0〜Sn及び遅延時間T1〜Tnから学習モデル(#n)を用いて遅延時間T0を予測する(ステップSt24)。遅延予測部201は、例えば、上記の式(3)を学習モデル(#1)として用い、上記の式(4)を学習モデル(#2)として用いる。次に、遅延予測部201は、変数nに1を加算する(ステップSt25)。
次に、遅延予測部201は変数nと所定数Nを比較する(ステップSt26)。遅延予測部201は、n≦Nが成立する場合(ステップSt26のNo)、再びステップSt23以降の各処理を実行する。
また、遅延予測部201は、n>Nが成立する場合(ステップSt26のYes)、各学習モデル(#1〜#N)を用いて予測した遅延時間T0の平均値を算出する(ステップSt27)。
Tav=(T0[#1]+T0[#2]+・・・+T0[#N])/N ・・・(5)
Tav=(W[#1]・T0[#1]+W[#2]・T0[#2]+・・・+W[#N]・T0[#N])/(W[#1]+W[#2]+・・・W[#N]) ・・・(6)
Tav=(W[#1]・T0[#1]+W[#2]・T0[#2]+・・・+W[#N]・T0[#N])/(W[#1]+W[#2]+・・・W[#N]) ・・・(6)
このとき、遅延予測部201は、例えば、上記の式(5)または式(6)を用いて平均値Tavを算出してもよい。式(5)及び式(6)において、T0[#p](p=1,2,・・・,N)は学習モデル(#1〜#N)により得られた予測時間である。また、式(6)において、W[#p]は、予測時間T0[#p]の重み係数である。
遅延予測部201は、式(5)を用いた場合、図10の例と同様に、通常の平均化の手法により平均値Tavを算出することができる。また、遅延予測部201は、式(6)を用いた場合、学習モデル(#1〜#N)ごとに設定した重み係数W[#1〜#N]によりT0[#1〜#N]を重み付けしたうえで平均値Tavを算出することができる。
次に、遅延予測部201は、予測処理を終了するか否かを判定する(ステップSt28)。遅延予測部201は、予測処理を継続する場合(ステップSt28のNo)、再びステップSt21以降の各処理を実行し、予測処理を終了する場合(ステップSt28のYes)、動作を終了する。このようにして、遅延予測部201は遅延時間の予測処理を実行する。
本例において、学習モデル生成装置1は、学習モデル(#1〜#N)のパラメータX0,・・・,Xiを、学習トラフィックDB130の送信時刻ごとのサイズ及び遅延時間から算出したが、さらに送信時刻を考慮してパラメータX0,・・・,Xiを算出してもよい。この場合、遅延予測装置2は、送信時刻に応じたWANのトラフィック量の変動に基づいて遅延時間を予測することができる。
図13は、学習モデル生成装置1の動作の他の例を示すフローチャートである。図13において、図6と共通する処理には同一の符号を付し、その説明は省略する。
学習処理部101は、ステップSt4またはステップSt8の処理の後、学習トラフィックDB130から、送信時刻J+m、送信時刻J+mからそのn秒前までのサイズ及び遅延時間を取得する(ステップSt5a)。このとき、学習処理部101は、送信時刻J+mに含まれる時間、分、及び秒のうち、一例として時間の数値(以下、「時間値」と表記)を取得する。例えば、送信時刻が「15:00:05」である場合、時間値は「15」である。
次に、学習処理部101は、送信時刻J+mの時間値と、送信時刻J+mからそのn秒前までのサイズ及び遅延時間とに基づいて、送信時刻J+m(秒)の遅延時間と、送信時刻J+mの時間値及びサイズと送信時刻(J+m−1)〜(J+m−n)のサイズ及び遅延時間との関係を示す関係式を生成する(ステップSt6a)。
T0=S0X0+S1X1+S2X2+・・・+SnXn+
T1Xn+1+T2Xn+2+・・・+TnX2n+H0X2n+1 ・・・(7)
T1Xn+1+T2Xn+2+・・・+TnX2n+H0X2n+1 ・・・(7)
より具体的には、学習処理部101は、上記の関係式(7)を生成する。ここで、H0は送信時刻J+mの時間値である。関係式(7)は学習モデル(#n)に該当する。
学習処理部101は、変数nごとにM(n)+1個の関係式(7)を生成して連立方程式として解くことによりパラメータX0,・・・,X2n+1を算出する(ステップSt9a)。このようにして、学習モデル生成装置1は動作する。
図14は、学習モデル(#1)の取得データ74及びパラメータの他の例を示す図である。本例において、学習処理部101は、変数n=1の場合、学習トラフィックDB130から関係式(7)を3個生成して、学習モデル(#1)のパラメータX0〜X2を算出する。
学習処理部101は、一例として、基準時刻Jを「15:00:05」に決定する。また、所定数M(1)は、一例として2とする。
学習処理部101は、学習モデル(#1)の生成のために学習トラフィックDB130から学習モデル(#1)の取得データ74を取得する。学習処理部101は、変数m=0の場合、学習トラフィックDB130から、基準時刻Jに該当する送信時刻「15:00:05」の時間値H0、遅延時間T0、及びサイズS0と、基準時刻Jの1秒前に該当する送信時刻「15:00:04」の遅延時間T1及びサイズS1を取得する。
また、学習処理部101は、変数m=1の場合、学習トラフィックDB130から、基準時刻Jの1秒後(J+m)に該当する送信時刻「15:00:06」の時間値H0、遅延時間T0、及びサイズS0と、その1秒前に該当する送信時刻「15:00:05」の遅延時間T1及びサイズS1を取得する。次に、学習処理部101は、変数m=2の場合、学習トラフィックDB130から、基準時刻Jの2秒後(J+m)に該当する送信時刻「15:00:07」の時間値H0、遅延時間T0、及びサイズS0と、その1秒前に該当する送信時刻「15:00:06」の遅延時間T1及びサイズS1を取得する。
学習処理部101は、所定数M(1)が2であるため、m=2においてデータの取得を完了する。このようにして、取得データ74が取得される。
学習処理部101は、m=0、m=1、及びm=2の各場合の時間値H0、遅延時間T0,T1、及びサイズS0,S1から上記の関係式(7)を生成する。より具体的には、学習処理部101は、取得データ70の時間値H0、遅延時間T0,T1、及びサイズS0,S1の各値を、関係式(7)の時間値H0、遅延時間T0,T1、及びサイズS0,S1に代入する。これにより、3個の関係式(7)が生成される。
学習処理部101は、3個の関係式(7)を連立方程式として解くことにより、符号75で示されるようにパラメータX0〜X2を算出する。
T0=−0.322658S0+0.5523611S1+
+1.870062T1+9.45602112H0 ・・・(8)
+1.870062T1+9.45602112H0 ・・・(8)
学習処理部101は、算出したパラメータX0〜X2の各値を関係式(7)に代入することにより、上記の式(8)で表される学習モデル(#1)を生成する。学習処理部101は、学習モデル(#1)のパラメータX0〜X2を学習モデルDB131に保存する。
このように、学習処理部101は、学習モデル(#1〜#N)の複数のパラメータX0〜Xiを、単位時間ごとのトラフィックのデータ量、遅延時間、及び送信時刻から学習する。このため、学習処理部101は、時刻に応じたWANのトラフィック量の変動を考慮した学習モデル(#1〜#N)を生成することができる。
本例において、学習処理部101は、学習モデル(#1〜#N)の複数のパラメータX0〜Xiの算出に送信時刻を用いたが、これに代えて、トラフィックの受信時刻を用いてもよい。この場合、トラフィック収集装置82は、例えば端末80へのパケットの出力時刻を、端末80における受信時刻として学習トラフィックDB130に記録する。
これにより、学習処理部101は、学習モデル(#1〜#N)の複数のパラメータX0〜Xiを、単位時間ごとのトラフィックのデータ量、遅延時間、及び受信時刻から学習することができる。このとき、学習処理部101は、受信時刻の時間、分、及び秒のうち、時間の値(時間値)を学習処理に用いる。このため、上記と同様の効果が得られる。
図15は、遅延予測装置2の動作の他の例を示すフローチャートである。本例の遅延予測装置2は、図13の動作により生成された学習モデル(#1〜#N)を用いて遅延時間を予測する。なお、図15において、図12と共通する処理には同一の符号を付し、その説明は省略する。
遅延予測部201は、検証システム9のトラフィックの送信時刻Kの時間値、データ量、及び遅延時間から、学習モデル(#1〜#N)を用いることによりWANにおけるトラフィックの遅延時間を予測する(ステップSt24a)。このため、遅延予測部201は、送信時刻を考慮した予測時間を算出することができる。なお、遅延予測部201は、送信時刻の時間値に代えて、受信時刻の時間値を予測処理に用いてもよい。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1) ネットワークを流れるトラフィックのデータ量及び遅延時間を記憶する記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する学習処理部とを有することを特徴とする情報処理装置。
(付記2) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記1に記載の情報処理装置。
(付記3) 前記記憶部は、前記トラフィックの送信時刻または受信時刻をさらに記憶し、
前記学習処理部は、前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び受信時刻から学習することを特徴とする付記1または2に記載の情報処理装置。
(付記4) ネットワークを流れる収集された第1トラフィックのデータ量及び遅延時間を記憶する第1記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記第1トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する情報処理装置と、
他のネットワークを流れる第2トラフィックのデータ量及び遅延時間を記憶する第2記憶部と、
前記第2トラフィックのデータ量及び遅延時間から、前記複数のパラメータの学習が完了した前記学習モデルを用いることにより前記ネットワークにおける前記第2トラフィックの遅延時間を予測する予測部と、
前記予測部が予測した遅延時間を、前記他のネットワークを流れる前記第2トラフィックに与えるトラフィック処理部とを有する予測装置とを含むことを特徴とする情報処理システム。
(付記5) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記第1トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記4に記載の情報処理システム。
(付記6) 前記第1記憶部は、前記第1トラフィックの送信時刻または受信時刻をさらに記憶し、
前記学習処理部は、前記複数のパラメータを、前記単位時間ごとの前記第1トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとの前記第1トラフィックのデータ量、遅延時間、及び受信時刻から学習し、
前記第2記憶部は、さらに前記第2トラフィックの送信時刻または受信時刻を記憶し、
前記予測部は、前記第2トラフィックの送信時刻、データ量、及び遅延時間、もしくは前記第2トラフィックの受信時刻、データ量、及び遅延時間から前記第2トラフィックの遅延時間を予測することを特徴とする付記4または5に記載の情報処理システム。
(付記7) ネットワークを流れるトラフィックのデータ量及び遅延時間を収集し、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する、処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記8) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記7に記載の情報処理プログラム。
(付記9) 前記トラフィックの送信時刻または受信時刻を収集し、
前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとのトラフィックのデータ量、遅延時間、及び受信時刻から学習する、処理を前記コンピュータに実行させることを特徴とする付記7または8に記載の情報処理プログラム。
(付記10) ネットワークを流れるトラフィックのデータ量及び遅延時間を収集する工程と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する工程とを、コンピュータが実行することを特徴とする情報処理方法。
(付記11) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記10に記載の情報処理方法。
(付記12) 前記トラフィックの送信時刻または受信時刻を収集する工程と、
前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとのトラフィックのデータ量、遅延時間、及び受信時刻から学習する工程と、前記コンピュータが実行することを特徴とする付記10または11に記載の情報処理方法。
(付記1) ネットワークを流れるトラフィックのデータ量及び遅延時間を記憶する記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する学習処理部とを有することを特徴とする情報処理装置。
(付記2) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記1に記載の情報処理装置。
(付記3) 前記記憶部は、前記トラフィックの送信時刻または受信時刻をさらに記憶し、
前記学習処理部は、前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び受信時刻から学習することを特徴とする付記1または2に記載の情報処理装置。
(付記4) ネットワークを流れる収集された第1トラフィックのデータ量及び遅延時間を記憶する第1記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記第1トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する情報処理装置と、
他のネットワークを流れる第2トラフィックのデータ量及び遅延時間を記憶する第2記憶部と、
前記第2トラフィックのデータ量及び遅延時間から、前記複数のパラメータの学習が完了した前記学習モデルを用いることにより前記ネットワークにおける前記第2トラフィックの遅延時間を予測する予測部と、
前記予測部が予測した遅延時間を、前記他のネットワークを流れる前記第2トラフィックに与えるトラフィック処理部とを有する予測装置とを含むことを特徴とする情報処理システム。
(付記5) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記第1トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記4に記載の情報処理システム。
(付記6) 前記第1記憶部は、前記第1トラフィックの送信時刻または受信時刻をさらに記憶し、
前記学習処理部は、前記複数のパラメータを、前記単位時間ごとの前記第1トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとの前記第1トラフィックのデータ量、遅延時間、及び受信時刻から学習し、
前記第2記憶部は、さらに前記第2トラフィックの送信時刻または受信時刻を記憶し、
前記予測部は、前記第2トラフィックの送信時刻、データ量、及び遅延時間、もしくは前記第2トラフィックの受信時刻、データ量、及び遅延時間から前記第2トラフィックの遅延時間を予測することを特徴とする付記4または5に記載の情報処理システム。
(付記7) ネットワークを流れるトラフィックのデータ量及び遅延時間を収集し、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する、処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記8) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記7に記載の情報処理プログラム。
(付記9) 前記トラフィックの送信時刻または受信時刻を収集し、
前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとのトラフィックのデータ量、遅延時間、及び受信時刻から学習する、処理を前記コンピュータに実行させることを特徴とする付記7または8に記載の情報処理プログラム。
(付記10) ネットワークを流れるトラフィックのデータ量及び遅延時間を収集する工程と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する工程とを、コンピュータが実行することを特徴とする情報処理方法。
(付記11) 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする付記10に記載の情報処理方法。
(付記12) 前記トラフィックの送信時刻または受信時刻を収集する工程と、
前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとのトラフィックのデータ量、遅延時間、及び受信時刻から学習する工程と、前記コンピュータが実行することを特徴とする付記10または11に記載の情報処理方法。
1 学習モデル生成装置
2 遅延予測装置
8 ネットワークシステム
9 検証システム
13,230 HDD
82 トラフィック収集装置
100 入力処理部
101 学習処理部
130 学習トラフィックデータベース
131 学習モデルデータベース
201 遅延予測部
230 試験トラフィックデータベース
280 遅延挿入部
2 遅延予測装置
8 ネットワークシステム
9 検証システム
13,230 HDD
82 トラフィック収集装置
100 入力処理部
101 学習処理部
130 学習トラフィックデータベース
131 学習モデルデータベース
201 遅延予測部
230 試験トラフィックデータベース
280 遅延挿入部
Claims (6)
- ネットワークを流れるトラフィックのデータ量及び遅延時間を記憶する記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する学習処理部とを有することを特徴とする情報処理装置。 - 前記学習モデルは、予測対象の遅延時間と、互いに異なる時間分の前記トラフィックのデータ量及び遅延時間のそれぞれとの関係を、前記複数のパラメータにより表すことを特徴とする請求項1に記載の情報処理装置。
- 前記記憶部は、前記トラフィックの送信時刻または受信時刻をさらに記憶し、
前記学習処理部は、前記複数のパラメータを、前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び送信時刻、もしくは前記単位時間ごとの前記トラフィックのデータ量、遅延時間、及び受信時刻から学習することを特徴とする請求項1または2に記載の情報処理装置。 - ネットワークを流れる収集された第1トラフィックのデータ量及び遅延時間を記憶する第1記憶部と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記第1トラフィックのデータ量及び遅延時間から学習する学習処理部とを有する情報処理装置と、
他のネットワークを流れる第2トラフィックのデータ量及び遅延時間を記憶する第2記憶部と、
前記第2トラフィックのデータ量及び遅延時間から、前記複数のパラメータの学習が完了した前記学習モデルを用いることにより前記ネットワークにおける前記第2トラフィックの遅延時間を予測する予測部と、
前記予測部が予測した遅延時間を、前記他のネットワークを流れる前記第2トラフィックに与えるトラフィック処理部とを有する予測装置とを含むことを特徴とする情報処理システム。 - ネットワークを流れるトラフィックのデータ量及び遅延時間を収集し、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する、処理をコンピュータに実行させることを特徴とする情報処理プログラム。 - ネットワークを流れるトラフィックのデータ量及び遅延時間を収集する工程と、
前記ネットワーク内の遅延時間を予測するための学習モデルの複数のパラメータを、単位時間ごとの前記トラフィックのデータ量及び遅延時間から学習する工程とを、コンピュータが実行することを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123678A JP2019008554A (ja) | 2017-06-23 | 2017-06-23 | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017123678A JP2019008554A (ja) | 2017-06-23 | 2017-06-23 | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019008554A true JP2019008554A (ja) | 2019-01-17 |
Family
ID=65028917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017123678A Pending JP2019008554A (ja) | 2017-06-23 | 2017-06-23 | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019008554A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168306A1 (ja) * | 2021-02-08 | 2022-08-11 | 日本電信電話株式会社 | 伝送システム、伝送方法、および、伝送プログラム |
WO2024028974A1 (ja) * | 2022-08-02 | 2024-02-08 | 日本電信電話株式会社 | 性能推定モデル生成装置、性能推定装置、プログラムおよび性能推定モデル生成方法 |
-
2017
- 2017-06-23 JP JP2017123678A patent/JP2019008554A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168306A1 (ja) * | 2021-02-08 | 2022-08-11 | 日本電信電話株式会社 | 伝送システム、伝送方法、および、伝送プログラム |
WO2024028974A1 (ja) * | 2022-08-02 | 2024-02-08 | 日本電信電話株式会社 | 性能推定モデル生成装置、性能推定装置、プログラムおよび性能推定モデル生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107071399B (zh) | 一种加密视频流的质量评估方法及装置 | |
US20210027173A1 (en) | Indicator determining method and related device | |
CN104517613A (zh) | 语音质量评估方法及装置 | |
CN110138617B (zh) | 数据传输质量测试方法、***、电子设备及存储介质 | |
WO2015085102A1 (en) | System and method for non-invasive application recognition | |
CN113612808B (zh) | 音频处理方法、相关设备、存储介质及程序产品 | |
CN110248189A (zh) | 一种视频质量预测方法、装置和电子设备 | |
JP2019008554A (ja) | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 | |
Chuprov et al. | How degrading network conditions influence machine learning end systems performance? | |
CN112001622A (zh) | 云虚拟网关的健康度评估方法、***、设备和存储介质 | |
CN116595690A (zh) | 基于知识融合图神经网络的计算机网络性能评估模型构建方法、***、设备及介质 | |
CN114071232B (zh) | 音视频质量可视化方法及其装置、设备、介质、产品 | |
Alsulami et al. | Improvement on a traffic data generator for networking AI algorithm development | |
WO2021053966A1 (ja) | 情報処理装置、パケット生成方法、システム、及びプログラム | |
qasim EL-ezzi et al. | Personalized quality of experience (QOE) management using data driven architecture in 5G wireless networks | |
Luo et al. | A novel Congestion Control algorithm based on inverse reinforcement learning with parallel training | |
US20230379737A1 (en) | Devices and methods for predicting a mobile network experience | |
WO2023203771A1 (ja) | 体感品質推定装置、機械学習方法、体感品質推定方法及びプログラム | |
WO2024028974A1 (ja) | 性能推定モデル生成装置、性能推定装置、プログラムおよび性能推定モデル生成方法 | |
Jurkiewicz | Flow-models 2.0: Elephant flows modeling and detection with machine learning | |
CN113784115B (zh) | 多媒体质量评估方法、装置、设备及存储介质 | |
JP3753704B2 (ja) | 通信品質測定装置及びその方法 | |
Baas et al. | Predicting virality on networks using local graphlet frequency distribution | |
Wichitwechkarn et al. | The Role of Isomorphism Classes in Multi-Relational Datasets | |
Brand et al. | Predicting Underperformance In 5G Cellular Networks Using Supervised Machine Learning Based on End-User Data |