JP5018809B2 - 時系列データ予測装置 - Google Patents

時系列データ予測装置 Download PDF

Info

Publication number
JP5018809B2
JP5018809B2 JP2009050116A JP2009050116A JP5018809B2 JP 5018809 B2 JP5018809 B2 JP 5018809B2 JP 2009050116 A JP2009050116 A JP 2009050116A JP 2009050116 A JP2009050116 A JP 2009050116A JP 5018809 B2 JP5018809 B2 JP 5018809B2
Authority
JP
Japan
Prior art keywords
unit
time
analysis
resolution
feature level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009050116A
Other languages
English (en)
Other versions
JP2010204974A (ja
Inventor
恵志 伊加田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2009050116A priority Critical patent/JP5018809B2/ja
Publication of JP2010204974A publication Critical patent/JP2010204974A/ja
Application granted granted Critical
Publication of JP5018809B2 publication Critical patent/JP5018809B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は例えば入力された数値(データ)から将来に発生する数値を予測する予測処理を行う時系列データ予測装置に関するものである。特に過去のデータに基づいて学習した予測モデルに基づいて処理を行うものである。
時間経過と共に継続的に変化が生じる株価、交通量、通信トラフィック等を数値として表し、その値を時系列に表したデータである時系列データを処理し、将来に発生しうる数値を精度よく予測することは、近い将来に起こりうる事態に備えたり、正常と違う振る舞いが生じることを検出するために必要とされる。このような時系列データに基づいて将来の値を予測するために、ARMAモデル、ニューラルネットワークのような数学モデルの作成、作成したモデルを用いた学習を行うモデル学習器等がある。
時系列データに基づく予測を行う一例としては、例えば時系列データの予測に適したニューラルネットワークを使用して株価の予測を試みているものがある(例えば、非特許文献1参照)。この予測で用いているニューラルネットワークは、TDNN(Time-Delay Neural Network:時間遅れ神経回路網)と呼ばれるものである。入力部分に時系列データに対する遅延層を設け、一単位ずつづらしながら入力することで、ニューラルネットワークの重み計数を最適なものに設定し、株価の予測モデルを学習等するものである。
また、ニューラルネットワークのようなモデル学習器を用い、さらに学習データとして時系列データを複数の周波数成分(解析レベル)に分け、それぞれの成分に基づいて予測を行い、合算するという方法で、将来値を予測しているものもある(例えば、特許文献1参照)。
特開平6−034221号公報(図1)
しかしながら、上述した非特許文献1に記載のTDNNは、時系列データを直接ニューラルネットワークに入力して学習等を行わせ、将来の値を予測しようとするものである。このため、刻々と複雑に変化するような特性を有する時系列データに対して予測モデルを精度よく学習させることが難しいため、場合によっては精度が低くなってしまうことがある。
一方、特許文献1に記載の装置では、複数の解析レベルをすべて入力して予測モデルの学習等を行わせ、単一モデルでは困難な、複雑な時系列データに対する予測精度を向上させるようにしている。そして、すべての解析レベルについてモデル学習器を設け、各解析レベルにおいて独立に予測を行うようにしている。このため、処理速度が遅くなるし、また、予測に用いるメモリの量が多くなってしまっていた。
そこで、精度の高い予測値算出を維持しつつ、処理に係る時間的、経済的コストを削減等することができるような時系列データ予測装置の実現が望まれていた。
本発明に係る時系列データ予測装置は、数値を時系列に表した時系列データを多重解像度解析し、複数の解析レベルにおける解析値を解像度データとして算出処理する多重解像度分解部と、複数の解析レベルのうち、予測値算出に用いる解析レベルを特徴レベルとして選択する特徴レベル選択部と、複数の入力インターフェースを有するモデル学習器入力部と、特徴レベルに係る解像度データを、対応する入力インターフェースに入力させる処理を行うモデル入力対応付け部と、複数の入力インターフェースから入力された解像度データに基づく演算処理を行い、予測値を算出するモデル学習部とを備えるものである。
本発明によれば、特徴レベル選択部が、予測値算出に必要となる特徴レベルを選択し、モデル入力部対応付け部が、特徴レベル選択部が選択した特徴レベルの解像度データを、モデル学習器入力部の対応する入力インターフェースに入力させる処理を行うようにしたので、多重解像度分解部の多重解像度解析により算出した解像度データにより、モデル学習部が予測処理を行うことで、複雑な時系列データに対する予測値算出の精度を高めつつ、予測処理に係る解析レベルの数を選択することで、学習処理及び予測処理に係る処理時間の短縮を図ることができる。
実施の形態1に係る時系列データ予測装置の構成を表す図である。 分解処理に用いるマザーウェーブレットを表す図である。 選択特徴レベル記憶部106が記憶するデータを概念的に表す図である。 モデル入力部対応付け記憶部104が記憶するデータを概念的に表す図である。 モデル学習部202の構成とその処理の概念を表す図である。 実施の形態1に係る時系列データ予測装置の構成を表す図である。
実施の形態1.
図1は本発明の実施の形態1に係る時系列データ予測装置の構成を表す図である。本実施の形態の時系列データ予測装置は、データ解析手段100とモデル学習器200とで構成するものとする。
データ解析手段100は、離散時系列データ入力部101、多重解像度分解部102、モデル入力部対応付け部103、モデル入力部対応付け記憶部104、特徴レベル選択部105、選択特徴レベル記憶部106及び動作モード切替部107の各部を有している。ここで、データ解析手段100の各部について、それぞれ異なる専用機器(ハードウェア)で構成することもできるが、例えば、CPU(Central Processing Unit )を中心とする演算制御手段(コンピュータ)でハードウェアを構成し、各部が行う処理の処理手順をあらかじめプログラム化し、ソフトウェア、ファームウェア等で構成しておいてもよい。そして、プログラムを実行により処理を行うことにより、上記の各部が行う処理を実現するようにしてもよい。これらのプログラムに係るデータは例えば記憶手段(図示せず)に記憶しておくようにする。
離散時系列データ入力部101は、入力される信号に含まれる時系列データの入力に係る処理を行う。場合によっては、例えば信号に対して一定周期でサンプリング等を行い、時系列データを生成する処理を行うようにしてもよい。多重解像度分解部102は、多重解像度解析(MRA)に基づいて時系列データを分解処理し、1又は複数のレベルにおける解像度データを生成する。本実施の形態では、解像度データとして、例えばウェーブレット係数を算出することで分解処理を行うものとする。
特徴レベル選択部105は、多重解析度分解部102が分解処理して生成したウェーブレット係数(解像度データ)に基づいて、モデル学習器200が処理に用いるウェーブレット係数のレベル(以下、特徴レベルという)を選択する。選択特徴レベル記憶部106は、特徴レベル選択部105が選択した特徴レベルに係るデータを記憶する。 選択特徴レベル記憶部106によりデータを記憶しておくことで、例えば予測処理時において、多重解像度分解部102は、予測値算出に用いる特徴レベルに係るウェーブレット係数だけを算出するようにすることもできる。
モデル入力部対応付け部103は、特徴レベル選択部105が選択した特徴レベルの各ウェーブレット係数について、モデル学習器入力部201のどの入力インターフェースから入力させるかを決定する。また、決定に基づいて、対応するウェーブレット係数をデータとして入力させる処理を行う。モデル入力部対応付け記憶部104は、モデル入力部対応付け部103の決定に基づいて、特徴レベルとモデル学習器入力部201の入力インターフェースとを対応付けて記憶する。
動作モード切替部107は、動作モードのデータに基づいて、学習処理を行うか予測処理を行うかを切り替える切替処理を行う。本実施の形態における学習処理とは、モデル学習器200のモデル学習部202が有する内部モデルを形成するための処理である。また、予測処理とは、入力される時系列データに対して内部モデルに基づく計算を行い、予測値を出力する処理である。
また、モデル学習器200は、モデル学習器入力部201、モデル学習部202、モデル学習器出力部203及び正答データ入力部204を有している。モデル学習器入力部201は、複数の入力インターフェース(in_1,in_2,…,in_n)を有し、入力されたデータ(信号)をモデル学習部202に送るための処理を行う。本実施の形態では、モデル学習器入力部201は5つの入力インターフェースを有しているものとする。モデル学習部202は、モデル学習部入力部201に入力されたウェーブレット係数から、内部モデルに基づく計算処理を行って予測値を算出する。モデル学習器出力部203は、予測処理時にはモデル学習部202が算出した予測値を、例えば外部に信号として出力する。また、学習処理時には、モデル学習部202が算出した予測値と正答データ入力部204から入力された正答データとの比較を行いながらモデル学習部202の内部モデルの補正処理を行う。正答データ入力部204は、学習処理時において、モデル学習部202が算出した予測値と比較を行うための値である正答データ(信号)をモデル学習器出力部203に送るための処理を行う。
次に、本実施の形態の時系列データ予測装置の動作について説明する。離散時系列データ入力部101は、時系列データを順番に多重解像度解析部102に送り、分解処理を行わせる。
図3は分解処理に用いるマザーウェーブレットを表す図である。多重解像度解析部102は、時系列データに対してウェーブレット変換を行い、レベル毎のウェーブレット係数を算出する分解処理を行う。多重解像度解析部102は、マザーウェーブレットと呼ばれる信号を表すデータと時系列データとに基づいて内積を算出し、スケーリング係数で除してウェーブレット係数を算出する。また、図3に示すように、マザーウェーブレットの周期幅を変えることで異なるレベルのマザーウェーブレットを生成し、各レベルについてウェーブレット係数を算出する。
例えば{1,3,5,11,12,13,0,1}という8個の値のデータを時系列データとする。レベル1のウェーブレット係数は、マザーウェーブレット(−1,1)との内積を算出してスケーリング係数で除して算出する。また、時間方向にスライドさせていきウェーブレット係数を計算していく。例えば時系列データ(1,3)とマザーウェーブレット(1,−1)との内積は1×(−1)+3×1=2である。スケーリング係数は21/2 であるため、ウェーブレット係数は21/2 =1.4142となる。以下、同様に(5,11)、(12,13)(0,1)について、それぞれウェーブレット係数を算出する。以上のようにして{1.4142,4.2426,0.7071,0.7071}の4つのウェーブレット係数を算出する。また、レベル2のウェーブレット係数は、周期を2倍にしたマザーウェーブレット(−1,−1,1,1)と時系列データの4個のデータとの内積を算出し、このレベルでのスケーリング係数の2で除することにより算出する。
図4は選択特徴レベル記憶部106が記憶するデータを概念的に表す図である。学習処理を行っているときには、学習用の時系列データを分解処理したウェーブレット係数により表される特徴量を判断し、特徴レベル選択部105は、モデル学習器入力部201に入力する特徴レベルを決定処理する。例えば各レベルのあらかじめ定めた個数のウェーブレット係数について、絶対値を選択指標として絶対値の大きいウェーブレット係数を有するレベルから順番に学習器入力部201に入力させる特徴レベルのデータとして選択する。また、各レベルにおいて、あらかじめ定めた個数のウェーブレット係数の分散値を算出し、分散値を選択指標として手分散値の大きなレベルから順番に選択するようにしてもよい。さらに、絶対値の平均値を算出し、平均値を選択指標として平均値の大きなレベルから順番に選択するようにしてもよい。また、あらかじめ定めた個数のウェーブレット係数の代わりに、あらかじめ定めたデータ区間におけるウェーブレット係数に基づいて、選択するようにしてもよい。
そして、選択した特徴レベルを表す識別子のデータを、選択特徴レベル記憶部106に記憶する。例えば図4では、特徴レベル選択部105が、レベル1、レベル2、レベル4、レベル6及びレベル7を選択し、識別子のデータを選択特徴レベル記憶部106に記憶している。
図5はモデル入力部対応付け記憶部104が記憶するデータを概念的に表す図である。特徴レベル選択部105が選択した特徴レベルのウェーブレット係数は、モデル学習器入力部201の複数の入力インターフェースに入力される。このとき各特徴レベルに対し、それぞれサンプリングした時間が現時刻に近い時系列データを分解処理して得られたウェーブレット係数から順番に任意のデータ数を組としてモデル学習器入力部201へ入力させるようにする。なお、入力可能な組は入力インターフェースにより異なってもよい。
例えば、時系列データをS={s1 ,s2 ,…,st }とし、特徴レベルlのウェーブレット係数をwl ={w1,1 ,w1,2 ,…,w1,n }とする。ここでw1,1 は、1から始まる時間領域で多重解像度解析部102が分解処理して算出したウェーブレット係数を表し、以降、w1,2 ,…は時間領域をずらして算出したウェーブレット係数である。w1,n はtを含む時間領域で分解処理して算出したウェーブレット係数である。
モデル入力部対応付け部103は、特徴レベルlにおけるウェーブレット係数の同時入力数をmと決定する。そして現時刻に最も近いtを含む時間領域で分解処理して算出したウェーブレット係数からデータ数mの組のウェーブレット係数{w1,n ,w1,n-1 ,…w1,n-m }を入力インターフェースin_kから入力させる。
図5は、モデル入力部対応付け記憶部104が特徴レベル、入力インターフェース及び組数を対応付けて記憶していることを示している。例えば、レベル1の4つのウェーブレット係数を組として入力インターフェースin_1から入力させる。同様に、レベル2の4つのウェーブレット係数を組として入力インターフェースin_2から入力させる。また、レベル4の5つのウェーブレット係数を組として入力インターフェースin_3から入力させる。さらに、レベル6の6つのウェーブレット係数を組として入力インターフェースin_4から入力させる。そして、レベル7の6つのウェーブレット係数を組として入力インターフェースin_5から入力させる。
一方、予測処理の際には、モデル入力部対応付け部103は、モデル入力部対応付け記憶部104に記憶されたデータに基づいて、各特徴レベルのウェーブレット係数について、その組数と入力させる入力インターフェースを判断して入力させる。
図6はモデル学習部202を構成する処理の概念を表す図である。モデル学習器200においては、モデル学習器入力部201が各入力インターフェースから入力されたウェーブレット係数を含む信号の処理を行う。そして、モデル学習部202が、内部モデルに基づき、ウェーブレット係数から予測値を算出する処理を行う。本実施の形態では、過去の時系列データに基づいて学習処理を行いながら内部モデルを形成するが、その内部モデルとしてニューラルネットワークを用いる。ニューラルネットワークとは、例えば、脳を構成する神経細胞(ニューロン)をモデルし、ネットワーク化して構成した処理機構である。
出力部203は、モデル学習部202が計算した予測値を処理する。ここで、学習処理を行っている場合には、出力部203は、モデル学習部202の予測値と正答データ入力部204から入力した正答(教師)データとを比較し、モデル学習部202の内部モデルを補正する。例えば、図6のようなニューラルネットワークで内部モデルを形成したモデル学習部202においては、バックプロパゲーションと呼ばれるモデル補正の手法がある。例えば、出力部203は、予測値と正答データが表す値との誤差を計算する。モデル学習部202の内部モデルにおいて表される個々のニューロンについて、期待されるニューロンの出力値と実際の出力値との差等を計算し、局所誤差を求める。この局所誤差が小さくなるように、予測値を算出する過程において経た順番とは逆順にニューロンの入力重みを調整していく。そのため、学習処理時においては、出力部203は、予測処理時に精度の高い予測値算出を行うことができるように内部モデルを形成するように、学習用の時系列データに基づいてバックプロパゲーションによる補正処理を繰り返し行うようにする。一方、予測処理においては、出力部203は、モデル学習部202が算出した予測値を含む信号を外部に出力する。
以上のように、実施の形態1の時系列データ予測装置は、特徴レベル選択部105が、予測値算出に必要となる特徴レベルを選択し、モデル入力部対応付け部103が、特徴レベル選択部105が選択した特徴レベルの各ウェーブレット係数を、モデル学習器入力部201の対応する入力インターフェースに入力させる処理を行うようにしたので、多重解像度分解部102のウェーブレット変換での多重解像度解析により、ウェーブレット係数をモデル学習部202が予測処理するデータとして複雑な時系列データに対する予測値算出の精度を高めつつ、予測処理に係る解析レベル及びウェーブレット係数の数を厳選することで学習処理及び予測処理に係る処理時間の短縮を図ることができる。また、本実施の形態では、モデル入力部対応付け部103により、特徴レベルのウェーブレット係数のデータを組にして、対応する入力インターフェースから1つのモデル学習部202に入力して処理を行わせるようにしたので、複数のモデル学習部202を設ける必要がない。このため、例えば学習処理、予測処理時において、演算等に用いるデータ等を一時的に記憶させておく記憶手段の記憶容量等を減少させることができる。また、モデル学習部202が1つでよいので、装置の金額的コスト、設置スペースのコスト等時系列データ予測装置に係るコストを減らすことができる。
多重解像度解析をウェーブレット変換により行い、解像度データとしてウェーブレット係数を算出するようにしたので、特に算出に係るレベルの数が多い場合でも、処理時間を抑えつつ、分解処理を行うことができる。
また、学習処理時において、特徴レベル選択部105があらかじめ特徴レベルを選択しておいて選択特徴レベル記憶部106に特徴レベルに係るデータを記憶しておき、予測処理時においては、多重解像度分解部102が特徴レベルに係る多重解像度解析を行うようにすることで、予測処理時における多重解像度分解部102の処理量を減らすことができ、処理時間、処理に係るデータを記憶しておく記憶容量の削減をはかることができる。
さらに、特徴レベル選択部105が特徴レベルを選択する際の判断基準とする特徴量として、ウェーブレット係数の絶対値、絶対値の平均値、分散値等を算出し、大きな値を有するレベルから選択するようにしたので、時系列データに関して、変化が大きなレベル(周波数成分)を予測値の算出に用いることができ、精度を高めることができる。このとき、各レベルにおいてあらかじめ定めた数のウェーブレット係数、また、同じデータ区間の時系列データを処理した各レベルのウェーブレット係数を用いる等、条件を同じにして特徴量の算出を行うようにしたので精度の高い予測値算出を行うことができる。
実施の形態2.
図7は本発明の実施の形態2に係る時系列データ予測装置の構成を表す図である。図7において、図1と同じ符号を付している手段等については、同様の動作を行うものとする。図7に示すように、本実施の形態の時系列データ予測装置は、多重解像度解析表示部109及び特徴レベル選択指示部110を有している。 本実施の形態では、多重解像度分解部102が行った多重解像度解析の結果を表示し、特徴レベルを指示することができるようにしたものである。
多重解像度解析表示部109は、多重解像度分解部102が行った多重解像度解析によるレベル毎の解像度データを表示する表示部である。また、特徴レベル選択指示部110は、特徴レベル選択部105に選択させる特徴レベルを指示するための入力部である。このため、特徴レベル選択部105に選択させる特徴レベルを指示し、所望する特徴レベルのウェーブレット係数をモデル学習器200に入力させることができる。
100 データ解析手段
101 離散時系列データ入力部
102 多重解像度分解部
103 モデル入力部対応付け部
104 モデル入力部対応付け記憶部
105 特徴レベル選択部
106 選択特徴レベル記憶部
107 動作モード切替部
109 多重解像度解析表示部
110 特徴レベル選択指示部
200 モデル学習器
201 モデル学習器入力部
202 モデル学習部
203 モデル学習器出力部
204 正答データ入力部

Claims (10)

  1. 数値を時系列に表した時系列データを多重解像度解析し、複数の解析レベルにおける解析値を解像度データとして算出処理する多重解像度分解部と、
    前記複数の解析レベルのうち、予測値算出に用いる前記解析レベルを特徴レベルとして選択する特徴レベル選択部と、
    複数の入力インターフェースを有するモデル学習器入力部と、
    前記特徴レベルに係る前記解像度データを、対応する前記入力インターフェースに入力させる処理を行うモデル入力対応付け部と、
    前記複数の入力インターフェースから入力された解像度データに基づく演算処理を行い、予測値を算出するモデル学習部と
    を備えることを特徴とする時系列データ予測装置。
  2. 前記モデル入力対応付け部は、時間的に新しい前記数値に係る時系列データを多重解像度解析して得られた各特徴レベルの解像度データを、あらかじめ定めた数だけ組にして、前記入力インターフェースに入力させる処理を行うことを特徴とする請求項1記載の時系列データ予測装置。
  3. 前記特徴レベル選択部が選択した前記特徴レベルに係るデータを記憶する選択特徴レベル記憶部とをさらに備え、
    前記モデル学習部にモデル学習をさせる学習処理時において、
    前記特徴レベル選択部は、前記多重解像度分解部が算出した複数の解析レベルの解像度データに基づいて、前記複数の解析レベルの中から前記特徴レベルを選択して、前記特徴レベルに係るデータを前記選択特徴レベル記憶部に記憶させておき、
    前記モデル学習部に前記予測値を算出させる予測処理時においては、前記多重解像度分解部は、前記選択特徴レベル記憶記憶部に記憶された前記データに基づいて、前記特徴レベルに係る解像度データを算出処理することを特徴とする請求項1又は2記載の時系列データ予測装置。
  4. 前記特徴レベル選択部は、前記各解析レベルの解像度データの絶対値を選択指標として算出し、絶対値の大きい解像度データを有する解析レベルから順に前記特徴レベルを選択することを特徴とする請求項1〜3のいずれかに記載の時系列データ予測装置。
  5. 前記特徴レベル選択部は、前記各解析レベルについて、前記解像度データの絶対値の平均値を選択指標として算出し、該平均値の大きい解析レベルから順に前記特徴レベルを選択することを特徴とする請求項1〜3のいずれかに記載の時系列データ予測装置。
  6. 前記特徴レベル選択部は、前記各解析レベルについて、前記解像度データの分散値を選択指標として算出し、該分散値の大きい解析レベルから順に前記特徴レベルを選択することを特徴とする請求項1〜3のいずれかに記載の時系列データ予測装置。
  7. 前記特徴レベル選択部は、あらかじめ定めた時間における前記時系列データを多重解像度解析して算出した前記各解析レベルの解像度データに基づいて、前記選択指標を算出することを特徴とする請求項4〜6のいずれかに記載の時系列データ予測装置。
  8. 前記特徴レベル選択部は、前記各解析レベルの、あらかじめ定めた数の解像度データに基づいて、前記選択指標を算出することを特徴とする請求項4〜6のいずれかに記載の時系列データ予測装置。
  9. 前記多重解像度分解部は、ウェーブレット解析による前記多重解像度解析を行い、ウェーブレット係数を前記解像度データとして算出処理することを特徴とする請求項1〜8のいずれかに記載の時系列データ予測装置。
  10. 前記モデル学習部は、ニューラルネットワークによって構成することを特徴とする請求項1〜9のいずれかに記載の時系列データ予測装置。
JP2009050116A 2009-03-04 2009-03-04 時系列データ予測装置 Expired - Fee Related JP5018809B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009050116A JP5018809B2 (ja) 2009-03-04 2009-03-04 時系列データ予測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009050116A JP5018809B2 (ja) 2009-03-04 2009-03-04 時系列データ予測装置

Publications (2)

Publication Number Publication Date
JP2010204974A JP2010204974A (ja) 2010-09-16
JP5018809B2 true JP5018809B2 (ja) 2012-09-05

Family

ID=42966389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009050116A Expired - Fee Related JP5018809B2 (ja) 2009-03-04 2009-03-04 時系列データ予測装置

Country Status (1)

Country Link
JP (1) JP5018809B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012035789A1 (ja) 2010-09-13 2012-03-22 三菱電機株式会社 空調制御装置、空調制御方法、及び、プログラム
JP5853465B2 (ja) 2011-07-27 2016-02-09 沖電気工業株式会社 ネットワーク分析システム
JP6329915B2 (ja) * 2015-02-27 2018-05-23 株式会社日立アドバンストシステムズ 測位システム
CN111507505A (zh) * 2020-03-20 2020-08-07 苏州丰华声赫智能科技有限公司 一种水库日入量预测模型的构建方法
CN113011630B (zh) * 2021-01-25 2024-01-23 国网浙江省电力有限公司杭州供电公司 一种大数据配电网台区时空负荷短期预测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3567073B2 (ja) * 1998-01-26 2004-09-15 株式会社日立製作所 時系列データ予測方法および装置
JP2000349646A (ja) * 1999-06-02 2000-12-15 Japan Science & Technology Corp ウェーブレット系数列を用いた時系列予測方法及びその装置

Also Published As

Publication number Publication date
JP2010204974A (ja) 2010-09-16

Similar Documents

Publication Publication Date Title
KR102492318B1 (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
Pernía-Espinoza et al. Stacking ensemble with parsimonious base models to improve generalization capability in the characterization of steel bolted components
US20190138887A1 (en) Systems, methods, and media for gated recurrent neural networks with reduced parameter gating signals and/or memory-cell units
JP2018181187A5 (ja)
JP5018809B2 (ja) 時系列データ予測装置
CN114519469B (zh) 一种基于Transformer框架的多变量长序列时间序列预测模型的构建方法
US20170039471A1 (en) Neural network learning device
EP3474274A1 (en) Speech recognition method and apparatus
KR20050007309A (ko) 자동 신경망 모델 생성 및 유지
US9934470B2 (en) Production equipment including machine learning system and assembly and test unit
JP6947108B2 (ja) データ予測装置、方法、及びプログラム
US20230268035A1 (en) Method and apparatus for generating chemical structure using neural network
JPWO2016151620A1 (ja) シミュレートシステム、シミュレート方法およびシミュレート用プログラム
Inage et al. Application of Monte Carlo stochastic optimization (MOST) to deep learning
JP6947029B2 (ja) 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラム
CN115619563A (zh) 一种基于神经网络的股票价格分析方法
Koczy et al. Computational intelligence in modeling complex systems and solving complex problems
JP7060130B1 (ja) 運用支援装置、運用支援方法及びプログラム
US20230050538A1 (en) Boosting and matrix factorization
Nastac An adaptive retraining technique to predict the critical process variables
Faqir et al. Combined extreme learning machine and max pressure algorithms for traffic signal control
JP2021135683A (ja) 学習装置、推論装置、学習方法及び推論方法
WO2023175722A1 (ja) 学習プログラム及び学習器
KR20200063318A (ko) 시간에 기초한 예측 정보를 생성하기 위한 장치 및 방법
WO2022054209A1 (ja) ハイパーパラメータ調整装置、ハイパーパラメータ調整プログラムを記録した非一時的な記録媒体、及びハイパーパラメータ調整プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

R150 Certificate of patent or registration of utility model

Ref document number: 5018809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees