JPH09282298A - Method and device for learning time-sequential data - Google Patents

Method and device for learning time-sequential data

Info

Publication number
JPH09282298A
JPH09282298A JP8118355A JP11835596A JPH09282298A JP H09282298 A JPH09282298 A JP H09282298A JP 8118355 A JP8118355 A JP 8118355A JP 11835596 A JP11835596 A JP 11835596A JP H09282298 A JPH09282298 A JP H09282298A
Authority
JP
Japan
Prior art keywords
time
learning
series data
error
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8118355A
Other languages
Japanese (ja)
Inventor
Kenichi Arai
賢一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8118355A priority Critical patent/JPH09282298A/en
Publication of JPH09282298A publication Critical patent/JPH09282298A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To maintain a stable state expression even for unknown input data while evading falling to a local minimum as much as possible in the learning of the time-sequential data of an RNN(recurrent neural network). SOLUTION: First, parameters such as an input element number for constituting a neural network, an intermediate element number, an output element number, a learning coefficient and an allowable error, etc., are decided and coupling weight is initialized with random number (steps 21 and 22). A learning progress degree is calculated and the value of β is calculated based on the learning progress degree (steps 23 and 24). An element value is initialized, the time sequential data are substituted to the element of an input layer and the value of the element is updated (steps 25-28). When all patterns are ended, the error of the output value of an output element and a target output value is calculated, the correction width of the coupling weight is obtained and the error is corrected (steps 30 and 31). In the case that the error exceeds an allowable range, the step 23 is returned.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、時系列パターン認
識、音声認識、動画像処理などの時系列情報の処理を行
う技術に関し、特に回帰結合を有する神経回路網が時系
列データの記憶や学習を効率的に行う時系列データの学
習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for processing time-series information such as time-series pattern recognition, voice recognition, moving image processing, etc., and in particular, a neural network having a regression connection stores or learns time-series data. The present invention relates to a method for efficiently learning time series data.

【0002】[0002]

【従来の技術】[Prior art]

(回帰型神経回路網と学習の方法)回帰結合を有する神
経回路網を用いて時系列データの記憶や学習を行う従来
の方法を説明する。
(Regressive Neural Network and Learning Method) A conventional method for storing and learning time series data using a neural network having a regression connection will be described.

【0003】この回帰結合を有する神経回路網は、リカ
ーレントニューラルネットワーク(Recurrent Neural Ne
tworks) と呼ばれており、以下ではRNNと略する。一
般的には、RNNを構成する各素子には相互に結合があ
り、これが回帰結合となる。また、素子には、入力デー
タが与えられる入力素子、目標出力値のある出力素子が
ある。
A neural network having this recursive connection is a recurrent neural network.
tworks) and is abbreviated as RNN below. Generally, each element forming the RNN has mutual coupling, and this is the recursive coupling. The elements include an input element to which input data is given and an output element having a target output value.

【0004】ここでは入力素子の集合(I)からなる入
力層、出力素子の集合(O)からなる出力層、それ以外
の素子、中間素子の集合(U)からなる中間層から構成
されるRNNを一例として示す。これらの素子は、離散
時間、連続値をとることとする。
Here, the RNN is composed of an input layer consisting of a set of input elements (I), an output layer consisting of a set of output elements (O), other elements, and an intermediate layer consisting of a set of intermediate elements (U). Is shown as an example. These elements take discrete values and continuous values.

【0005】全素子数をNとし、入力素子数NI 、中間
素子数NU 、出力素子数NO とする。また、時刻tでの
i番目の素子への入力をhi (t)とし、その素子の出
力値をSi (t)とする。wijをj番目の素子からi番
目の素子への結合の重みとすれば、hi (t),Si
(t)の時間発展は式(1),(2)のようになる。
It is assumed that the total number of elements is N, the number of input elements N I , the number of intermediate elements N U , and the number of output elements N O. The input to the i-th element at time t is h i (t), and the output value of that element is S i (t). Let w ij be the weight of the connection from the j-th element to the i-th element, then h i (t), S i
The time evolution of (t) is as shown in equations (1) and (2).

【0006】[0006]

【数1】 これらの神経回路網に対し、入力時系列データξ(t)
と目標出力時系列データ(教師信号)ζ(t)の対が式
(4),(5)のように複数個与えられる。
[Equation 1] Input time series data ξ (t) for these neural networks
And a plurality of target output time series data (teacher signal) ζ (t) are given as shown in equations (4) and (5).

【0007】[0007]

【数2】 式(1),(2)を入力素子を分けて書けば、[Equation 2] If you write equations (1) and (2) separately for each input element,

【0008】[0008]

【数3】 となる。(Equation 3) Becomes

【0009】ここで、ベクトル、行列を使った表現を示
す。出力素子、中間素子、入力素子の出力ベクトル値を
それぞれNO 次ベクトル
Here, an expression using a vector and a matrix will be shown. The output vector values of the output element, intermediate element, and input element are the N 0 -th order vectors, respectively.

【0010】[0010]

【外1】 U 次ベクトル[Outside 1] N U vector

【0011】[0011]

【外2】 I 次ベクトル[Outside 2] N I degree vector

【0012】[0012]

【外3】 とし、全素子の出力値ベクトルをN次ベクトル[Outside 3] And output value vectors of all elements are Nth order vectors

【0013】[0013]

【外4】 とすれば、[Outside 4] given that,

【0014】[0014]

【数4】 となる。また、(Equation 4) Becomes Also,

【0015】[0015]

【外5】 の作る行列をそれぞれ(NO +NU )×(NU +NI
行列W、(NO +NU )×(NU )行列WU 、(NO
U )×(NI )行列WI とすれば、次のような関係に
ある。
[Outside 5] The matrices created by are (N O + N U ) × (N U + N I ).
Matrix W, (N O + N U ) × (N U ) matrix W U , (N O +
Assuming that N U ) × (N I ) matrix W I has the following relationship.

【0016】[0016]

【数5】 以上でまとめて書くと、式(6),(7)は式(10)
のようになる。
(Equation 5) In summary, the formulas (6) and (7) are expressed by the formula (10).
become that way.

【0017】[0017]

【数6】 入力時系列データとそれに対する目標出力時系列データ
の対応をRNNを学習させる。具体的には、上のような
入力時系列データがRNNの入力素子に与えれたとき、
出力層からの出力値が目標出力時系列データと等しくな
るようなwijを求めればよい。
(Equation 6) The RNN learns the correspondence between the input time series data and the target output time series data. Specifically, when the above input time series data is given to the input element of the RNN,
It is only necessary to obtain w ij such that the output value from the output layer becomes equal to the target output time series data.

【0018】通常は、実際の出力値と目標出力値との誤
差からwijを逐次修正していく方法がとられる。wij
修正値を誤差が最も減少する方向(最急降下方向)にと
る方法を最急降下法という。
Usually, a method of sequentially correcting w ij from the error between the actual output value and the target output value is used. The method of taking the corrected value of w ij in the direction in which the error is most reduced (the steepest descent direction) is called the steepest descent method.

【0019】RNNの実際の出力値と目標出力値の誤差Error between actual output value of RNN and target output value

【0020】[0020]

【外6】 を自乗誤差として次のように定義する。[Outside 6] Is defined as the squared error as follows.

【0021】[0021]

【数7】 ここで、(Equation 7) here,

【0022】[0022]

【外7】 をwijで偏微分し、その地点での最急降下方向となる修
正値を求める。
[Outside 7] Is partially differentiated with respect to w ij to obtain a correction value that is the steepest descent direction at that point.

【0023】[0023]

【数8】 ここで、Δwijはwijの修正幅であり、またηは学習係
数と呼ばれ、学習を安定させるための係数であり、正の
値をとる。RNNにおいて、
(Equation 8) Here, Δw ij is the correction width of w ij , and η is called a learning coefficient, which is a coefficient for stabilizing learning and takes a positive value. In RNN,

【0024】[0024]

【外8】 を計算する方法はいくつか知られており、次に代表的な
2つの方法を示す。 (Real Time Recurrent Learning)まず、最急降下方向
を求める計算方法として、Real Time Reurrent Learnin
g(RTRL)を具体的に説明する。式(13),1
4)より、
[Outside 8] There are several known methods for calculating, and two representative methods are shown below. (Real Time Recurrent Learning) First, as a calculation method to find the steepest descent direction, Real Time Reurrent Learnin
g (RTRL) will be specifically described. Formula (13), 1
From 4),

【0025】[0025]

【数9】 となる。ここで、式(11),(12)より[Equation 9] Becomes Here, from equations (11) and (12)

【0026】[0026]

【数10】 である。ここで、(Equation 10) It is. here,

【0027】[0027]

【数11】 とおくと、式(2)の両辺をwpqで偏微分することによ
り、
[Equation 11] Then, by partially differentiating both sides of equation (2) with w pq ,

【0028】[0028]

【数12】 となり、(Equation 12) Next to

【0029】[0029]

【外9】 を逐次求めていくことができる。、ただし、初期条件
は、
[Outside 9] Can be obtained sequentially. However, the initial conditions are

【0030】[0030]

【数13】 である。(Equation 13) It is.

【0031】逐次求めたSequentially determined

【0032】[0032]

【外10】 によりΔwijを計算できる。このように、RTRLでは
時系列データが与えられると、その時点で、結合重みw
ijの修正値を計算でき、学習を進めていくことができ
る。 (Back Propagation Through Time)次に、最急降下法を
求める別の計算方法として、Back Propagation Through
Time (BPTT)を具体的に説明する。
[Outside 10] Δw ij can be calculated by In this way, in RTRL, when time series data is given, at that time, the connection weight w
The corrected value of ij can be calculated, and learning can proceed. (Back Propagation Through Time) Next, as another calculation method for finding the steepest descent method, Back Propagation Through Time
Time (BPTT) will be specifically described.

【0033】やはり、式(13),(14)より、From equations (13) and (14),

【0034】[0034]

【数14】 となる。[Equation 14] Becomes

【0035】[0035]

【数15】 とおけば、式(22)は次のように書ける。(Equation 15) If it says, Formula (22) can be written as follows.

【0036】[0036]

【数16】 i (τ)については、次のように求めることができ
る。
(Equation 16) z i (τ) can be obtained as follows.

【0037】[0037]

【数17】 このように、zi (τ)は時間逆方向に計算していく。
終端条件は、
[Equation 17] In this way, z i (τ) is calculated in the time reverse direction.
The termination condition is

【0038】[0038]

【数18】 である。 (有限オートマンの学習)離散時間、離散値の時系列デ
ータの学習の例として、有限オートマン学習について説
明する。まず、Moore 流に有限オートマン
(Equation 18) It is. (Learning of Finite Automan) Finite automan learning will be described as an example of learning of time series data of discrete time and discrete value. First, the finite automan in the Moore flow

【0039】[0039]

【外11】 を次のように定義する。[Outside 11] Is defined as follows.

【0040】[0040]

【数19】 入力記号列を与えたとき、それに対して有限オートマン
は出力記号列を返す。有限オートマンの学習では、これ
らいくつかの入力信号列と出力信号列の対をデータとし
て用いるのである。これらの記号は、入力素子ベクト
ル、出力素子ベクトルへとRNNで用いられるよう連続
値のベクトルに変換される。後は、上で説明した最急降
下法により学習を行う。
[Equation 19] Given an input symbol string, the finite automan returns an output symbol string for it. In the learning of finite automan, some pairs of these input signal sequences and output signal sequences are used as data. These symbols are converted into a vector of continuous values for use in the RNN into an input element vector, an output element vector. After that, learning is performed by the steepest descent method described above.

【0041】これらのデータに対して学習が成功したと
き、中間素子の出力値で作られる相空間中の軌道がクラ
スター状になる。このクラスターは有限オートマトンに
おける「状態」に対応することが知られている。
When learning is successful for these data, the trajectories in the phase space formed by the output values of the intermediate elements become clusters. This cluster is known to correspond to "states" in finite automata.

【0042】[0042]

【発明が解決しようとする課題】誤差を減少させる方向
へ結合重みを修正する方法では、一旦、最小値でない極
小値に落ち込んでしまうと、そこから抜け出せず、最小
値に到達できないという問題点がある。このような、最
小値でない極小値をローカルミニマムという。また、全
体としての最小値をグローバルミニマムという。
However, in the method of correcting the connection weight in the direction of reducing the error, once it falls to the minimum value other than the minimum value, there is a problem that it cannot be escaped and the minimum value cannot be reached. is there. Such a minimum value that is not the minimum value is called a local minimum. Also, the minimum value as a whole is called the global minimum.

【0043】学習に成功した、つまり、ローカルミニマ
ムに落ち込まなかった神経回路網でさえも未知の入力デ
ータに対しては内部表現が不安定になり、学習した効果
が得られないことも多い。
Even in a neural network that has been successfully learned, that is, has not fallen into a local minimum, the internal representation becomes unstable with respect to unknown input data, and the learned effect is often not obtained.

【0044】本発明の目的は、RNNの時系列データの
学習において、ローカルミニマムへの落ち込みを極力回
避しつつ、未知の入力データに対しても安定した状態表
現を維持できる時系列データ学習方法および装置を提供
することである。
An object of the present invention is to provide a time series data learning method capable of maintaining stable state expression even for unknown input data while avoiding a drop to a local minimum in learning of RNN time series data. It is to provide a device.

【0045】[0045]

【課題を解決するための手段】本発明の時系列データ学
習方法は、離散時間、離散値の入力時系列データとそれ
に対する離散時間、離散値の目標出力時系列データの組
がいくつか与えられたとき、離散時間、連続値の素子か
らなる回帰結合を有する神経回路網がその入出力時系列
データ間の関数を学習する時系列データ学習方法におい
て、誤差あるいは学習の進捗度合いにより神経回路網の
パラメータを制御し、目標出力時系列値と神経回路網の
実際の出力値との誤差が減少する方向に神経素子間の結
合重みを修正することを特徴とする。
The time series data learning method of the present invention is provided with several sets of discrete time, discrete value input time series data and corresponding discrete time, discrete value target output time series data. In the time-series data learning method in which a neural network having a regression connection consisting of discrete-time, continuous-valued elements learns a function between its input and output time-series data, the neural network of the neural network changes depending on the error or the progress of learning. It is characterized in that the parameter is controlled to correct the connection weight between the neural elements in a direction in which the error between the target output time series value and the actual output value of the neural network decreases.

【0046】また、本発明の時系列データ学習装置は、
離散時間、離散値の入力時系列データとそれに対する離
散時間、離散値の目標出力時系列データの組がいくつか
与えられたとき、離散時間、連続値の素子からなる回帰
結合を有する神経回路網がその入出力時系列データ間の
関数を学習する時系列データ学習装置であって、神経回
路網を構成するパラメータである少なくとも入力素子
数、中間素子数、出力素子数、学習係数、許容誤差を定
めるパラメータ設定部と、前記パラメータおよび各種デ
ータを蓄積するメモリと、結合重みを乱数により初期化
する結合重み初期化部と、結合重み初期化部の処理終了
後、学習の進捗度を計算する学習進捗度管理部と、学習
進捗度管理部の処理終了後、神経素子活性化パラメータ
の値を計算するβ計画部と、β計画部の処理終了後、各
素子値を初期化する素子初期化部と、素子初期化部の処
理終了後、入力時系列データを入力素子に代入するデー
タ入力部と、データ入力部の処理終了後、素子の時間発
展を計算し、素子値を更新する素子時間発展計算部と、
出力素子の出力値と目標出力値との誤差を計算する誤差
計算部と、前記誤差が減少する方向に、前記結合重みの
修正値を計算する修正幅計算部と、出力素子の出力値を
出力するデータ出力部と、素子時間発展計算部での処理
終了後、入力時系列データと出力時系列データの全ての
対について処理が済んだかどうか判定し、済んでいなけ
れば、素子初期化部から前記素子時間発展計算部までの
処理を繰り返し、済んでいれば誤差計算部を起動し、修
正幅計算部の処理終了後、前記誤差が前記許容誤差の範
囲内かどうか判定し、範囲内でなければ学習進捗度管理
部からの処理を繰り返す制御部を有する。
Further, the time series data learning device of the present invention is
A neural network with a regression connection consisting of discrete-time, continuous-valued elements, given several sets of discrete-time, discrete-valued input time-series data and corresponding discrete-time, discrete-valued target output time-series data Is a time-series data learning device that learns a function between the input and output time-series data, and at least the number of input elements, the number of intermediate elements, the number of output elements, the learning coefficient, and the allowable error, which are parameters that configure the neural network, A parameter setting unit that defines, a memory that stores the parameters and various data, a connection weight initialization unit that initializes connection weights by random numbers, and a learning process that calculates the progress of learning after the processing of the connection weight initialization unit is completed. After the processing of the progress degree management unit and the learning progress degree management unit, the β planning unit that calculates the value of the neural element activation parameter, and the element that initializes each element value after the processing of the β planning unit After the processing of the child initialization unit and the element initialization unit is completed, the data input unit that substitutes the input time series data into the input device and the processing of the data input unit are completed, and the time evolution of the device is calculated and the element value is updated. An element time evolution calculation unit that
An error calculation unit that calculates an error between the output value of the output element and the target output value, a correction width calculation unit that calculates the correction value of the coupling weight in the direction in which the error decreases, and outputs the output value of the output element After the processing in the data output section and the element time evolution calculation section, it is judged whether or not the processing has been completed for all pairs of input time series data and output time series data, and if not completed, from the element initialization section The process up to the element time evolution calculation unit is repeated, and if completed, the error calculation unit is activated, and after the correction width calculation unit finishes processing, it is determined whether the error is within the allowable error range, and the error must be within the range. For example, it has a control unit that repeats the process from the learning progress management unit.

【0047】本発明は、離散時間、離散値の入力時系列
データとそれに対する目標出力時系列データの組がいく
つか与えられたとき、離散時間、連続値の素子からなる
回帰的神経回路網がその入出力時系列の対応を学習する
学習方法において、回帰結合をもつ神経回路網がその時
系列データとの誤差を減少させる学習方法をするとき、
素子の利得に関する神経素子活性化パラメータβを次の
ように導入する。
The present invention provides a recursive neural network composed of discrete-time, continuous-valued elements when several sets of discrete-time, discrete-valued input time-series data and target output time-series data are given. In the learning method of learning the correspondence of the input / output time series, when the neural network having the regression coupling reduces the error with the time series data,
The neural element activation parameter β related to the element gain is introduced as follows.

【0048】[0048]

【数20】 これをまとめて(Equation 20) Put this together

【0049】[0049]

【数21】 と書く。本発明の時系列データ学習方法では、この神経
素子活性化パラメータを誤差あるいは学習の進捗度合い
により制御する手段を備えている。
(Equation 21) Write The time-series data learning method of the present invention comprises means for controlling the neural element activation parameter according to an error or a degree of learning progress.

【0050】従来の方法では、この神経素子活性化パラ
メータは固定されており、定数である。
In the conventional method, this neural element activation parameter is fixed and constant.

【0051】誤差Error

【0052】[0052]

【外12】 は神経回路網の結合重みwijの関数になっている。そこ
で、各wijを変数と考え、
[Outside 12] Is a function of the connection weight w ij of the neural network. Therefore, consider each w ij as a variable,

【0053】[0053]

【数22】 を誤差平面という。(Equation 22) Is called the error plane.

【0054】最急降下法でBy the steepest descent method

【0055】[0055]

【外13】 を計算することは、ある結合重みwijにおいて誤差平面
の最も勾配の急な方向を計算していることになる。つま
り、最急降下法においては初期値のwijから誤差平面の
最も急な方向にwijが移動していくことになる。このよ
うに、誤差平面を考えることで、学習の考察がしやすく
なる。 (神経素子活性化パラメータの誤差平面の形状に与える
影響)神経素子活性化パラメータβが0のとき、誤差平
面は傾き0の平坦な平面である。なぜならば、式(3
0)より、素子の出力値が結合重みwijによらず一定に
なるからである。
[Outside 13] Calculating is to calculate the steepest direction of the slope of the error plane for a given weight w ij . That is, in the steepest descent method, w ij moves from the initial value w ij to the steepest direction of the error plane. In this way, considering the error plane facilitates consideration of learning. (Effect of Neural Element Activation Parameter on Shape of Error Plane) When the neural element activation parameter β is 0, the error plane is a flat plane with a slope of 0. Because, the formula (3
From 0), the output value of the element becomes constant regardless of the connection weight w ij .

【0056】神経素子活性化パラメータβが∞のとき、
誤差平面は微細な階段状の面となる。なぜならば、式
(30)より、シグモイド関数は完全な{0,1}のス
テップ関数になり、
When the neural element activation parameter β is ∞,
The error plane is a fine stepped surface. Because, from the equation (30), the sigmoid function becomes a perfect {0, 1} step function,

【0057】[0057]

【外14】 も離散値をとるようになるからである。[Outside 14] Also takes discrete values.

【0058】また、βが0と∞の間では、神経素子活性
化パラメータβの増加に対して、始め平坦であった誤差
平面は、徐々に極小値の数を増しながら傾きも険しくな
るよう連続的に変化していくと考えられる。 (媒介変数と内部表現安定性関係)神経素子活性化パラ
メータβがある値より大きくなると、安定した内部表現
が得られる。安定した状態の内部表現が得られる理由を
ここでは、厳密に説明する。まず、幾つかの語句、記号
の定義をする。
Further, when β is between 0 and ∞, the error plane that was initially flat with respect to the increase in the neural element activation parameter β continues to increase steeply with increasing number of minimum values. It is thought to change over time. (Relationship between parameters and internal expression stability) When the neural element activation parameter β becomes larger than a certain value, a stable internal expression is obtained. The reason why an internal representation of a stable state is obtained is explained here strictly. First, some words and symbols are defined.

【0059】[0059]

【外15】 をNU 次元の単位超立方体[Outside 15] Is a unit hypercube of dimension N U

【0060】[0060]

【外16】 の頂点とする。すなわち、[Outside 16] To the top of. That is,

【0061】[0061]

【数23】 また、(Equation 23) Also,

【0062】[0062]

【外17】 を全頂点の集合とする。[Outside 17] Let be the set of all vertices.

【0063】結合行列Wと有限個の入力ベクトルJoin matrix W and a finite number of input vectors

【0064】[0064]

【外18】 が与えられたとする。[Outside 18] Is given.

【0065】超平面Hyperplane

【0066】[0066]

【外19】 [Outside 19] To

【0067】[0067]

【数24】 としたとき、この平面によってNU 次元ユークリッド空
(Equation 24) Then, this plane gives N U dimensional Euclidean space

【0068】[0068]

【外20】 は各部分空間[Outside 20] Is each subspace

【0069】[0069]

【外21】 へと分割される。さらに[Outside 21] Is divided into further

【0070】[0070]

【外22】 を次のように定義する。[Outside 22] Is defined as follows.

【0071】[0071]

【数25】 ここで、(Equation 25) here,

【0072】[0072]

【外23】 は次の意味である。[Outside 23] Means the following:

【0073】[0073]

【数26】 (Equation 26)

【0074】[0074]

【外24】 はαとβに依存しないことに注意しよう。なぜなら[Outside 24] Note that does not depend on α and β. Because

【0075】[0075]

【外25】 のとき、[Outside 25] When,

【0076】[0076]

【数27】 となるが、vi =0のとき[Equation 27] However, when v i = 0

【0077】[0077]

【数28】 となる。vi =1のとき[Equation 28] Becomes When v i = 1

【0078】[0078]

【数29】 となる。これより、明らかに、αとβに依存しないこと
がわかる。
(Equation 29) Becomes From this, it is clear that it does not depend on α and β.

【0079】[0079]

【外26】 を頂点間遷移関数と呼ぶことにする。[Outside 26] Is called the transition function between vertices.

【0080】[0080]

【外27】 によって[Outside 27] By

【0081】[0081]

【外28】 から[Outside 28] From

【0082】[0082]

【外29】 へ到達できる入力シンボル列α1 ,α2 ,・・・・,α
n が存在するとき
[Outside 29] Input symbol sequence α 1 , α 2 , ..., α that can reach
when n exists

【0083】[0083]

【外30】 [Outside 30] When

【0084】[0084]

【外31】 は連結しているという。連結している頂点の集合を[Outside 31] Are connected. The set of connected vertices

【0085】[0085]

【外32】 とする。[Outside 32] And

【0086】[0086]

【外33】 を次のように定義する。[Outside 33] Is defined as follows.

【0087】[0087]

【数30】 [Equation 30]

【0088】[0088]

【外34】 は、写像(素子値の更新)によって、[Outside 34] Is a map (update of element values),

【0089】[0089]

【外35】 へ写る領域を表しているので、[Outside 35] Since it represents the area that appears in

【0090】[0090]

【外36】 は各[Outside 36] Is each

【0091】[0091]

【外37】 によって[Outside 37] By

【0092】[0092]

【外38】 と同様の遷移のできる領域になる。つまり[Outside 38] It becomes a region where the same transition can be made. I mean

【0093】[0093]

【外39】 であるならば、任意の[Outside 39] If any

【0094】[0094]

【外40】 に対して、[Outside 40] For

【0095】[0095]

【外41】 となる。[Outside 41] Becomes

【0096】〔定理〕VC の全ての要素[Theorem] All elements of V C

【0097】[0097]

【外42】 に対して、[Outside 42] For

【0098】[0098]

【外43】 であるならば、次のような有限値のβ0 が存在する。β
がβ0 以上の任意の値のとき、
[Outside 43] Then there exists a finite value β 0 such that β
Is an arbitrary value greater than or equal to β 0 ,

【0099】[0099]

【数31】 が任意の(Equation 31) Is any

【0100】[0100]

【外44】 任意の長さの入力記号列[Outside 44] Input symbol string of arbitrary length

【0101】[0101]

【外45】 に対して成り立つ。ここで、[Outside 45] Holds for. here,

【0102】[0102]

【外46】 はそれぞれ[Outside 46] Are each

【0103】[0103]

【外47】 と同じ意味である。β0 をcritical newro gain と呼ぶ
ことにする。
[Outside 47] Has the same meaning as Let us call β 0 critical newro gain.

【0104】〔証明〕β>β0 のとき、全ての入力記号[Proof] When β> β 0 , all input symbols

【0105】[0105]

【外48】 、つまり、全ての入力ベクトル[Outside 48] , That is, all input vectors

【0106】[0106]

【外49】 に対して、[Outside 49] For

【0107】[0107]

【外50】 となる超立方体[Outside 50] Hypercube

【0108】[0108]

【外51】 が構成できることを示す。[Outside 51] Indicates that can be configured.

【0109】ある点Some point

【0110】[0110]

【外52】 と入力ベクトル[Outside 52] And the input vector

【0111】[0111]

【外53】 に対して、[Outside 53] For

【0112】[0112]

【数32】 とする。(Equation 32) And

【0113】[0113]

【外54】 に対して、もし[Outside 54] Against

【0114】[0114]

【外55】 であるならば、[Outside 55] If it is,

【0115】[0115]

【外56】 であり、もし[Outside 56] And if

【0116】[0116]

【外57】 であるならば[Outside 57] If it is

【0117】[0117]

【外58】 である。したがって、βが無限大に近づくとき[Outside 58] It is. Therefore, when β approaches infinity

【0118】[0118]

【外59】 はそれぞれ1と0に近づくことがわかる。[Outside 59] It can be seen that each approaches 1 and 0 respectively.

【0119】[0119]

【外60】 [Outside 60] To

【0120】[0120]

【外61】 の頂点とし、[Outside 61] The top of

【0121】[0121]

【外62】 を次のように決める。[Outside 62] Is determined as follows.

【0122】[0122]

【数33】 以上より[Equation 33] From the above

【0123】[0123]

【外63】 は次のように定めることができる。[Outside 63] Can be defined as follows.

【0124】[0124]

【数34】 (Equation 34) each

【0125】[0125]

【外64】 α,iに対して[Outside 64] for α, i

【0126】[0126]

【外65】 を次のように定める。全ての[Outside 65] Is defined as follows. All of

【0127】[0127]

【外66】 に対して[Outside 66] Against

【0128】[0128]

【数35】 を満たす最小のβを(Equation 35) The smallest β that satisfies

【0129】[0129]

【外67】 とする。ここで、[Outside 67] And here,

【0130】[0130]

【外68】 である。[Outside 68] It is.

【0131】ここで、Here,

【0132】[0132]

【外69】 は凸な空間であるので、[Outside 69] Is a convex space, so

【0133】[0133]

【外70】 が最大値や最小値は[Outside 70] Is the maximum or minimum

【0134】[0134]

【外71】 [Outside 71] But

【0135】[0135]

【外72】 の頂点上で生じる。よって、全ての[Outside 72] Occurs on the top of. Therefore, all

【0136】[0136]

【外73】 を調べる必要はなく、全ての頂点だけ条件を満たしてい
るか調べれば十分である。
[Outside 73] It is not necessary to check, and it is sufficient to check whether all the vertices satisfy the condition.

【0137】次のようにβ0 を選ぶ。Β 0 is selected as follows.

【0138】[0138]

【数36】 以上より、全ての[Equation 36] From the above, all

【0139】[0139]

【外74】 に対して[Outside 74] Against

【0140】[0140]

【外75】 [Outside 75] Is

【0141】[0141]

【外76】 の部分集合となる。[Outside 76] Is a subset of.

【0142】入力信号列のα1 ,α2 ,・・・・が与え
られたとき、頂点遷移関数により頂点が、
When α 1 , α 2 , ... Of the input signal sequence are given, the vertices are converted by the vertex transition function to

【0143】[0143]

【外77】 と遷移していくとしよう[Outside 77] Let's make a transition

【0144】[0144]

【外78】 このとき、βをβ0 以上に選んでおけば、まず、[Outside 78] At this time, if β is selected to be β 0 or more, first,

【0145】[0145]

【外79】 [Outside 79] Is

【0146】[0146]

【外80】 の部分集合となる。当然、[Outside 80] Is a subset of. Of course,

【0147】[0147]

【外81】 [Outside 81] Is

【0148】[0148]

【外82】 の部分集合であるので、さらに[Outer 82] Since it is a subset of

【0149】[0149]

【外83】 [Outside 83] Is

【0150】[0150]

【外84】 の部分集合となる。同様に、これらの操作を繰り返して
いけば、任意のワードに対して、常に
[Outside 84] Is a subset of. Similarly, if you repeat these operations, you will always get

【0151】[0151]

【外85】 の中に軌道が写像されることになり、定理は証明され
た。 (神経素子活性化パラメータの制御)上記の内容を鑑み
て、初め、神経素子活性化パラメータβをある小さい値
に設定し、誤差が最小値になるようwijを修正する。次
に、βを少しづつ大きくする。このとき、誤差平面の形
状は連続的にしか変わらない、つまりす少しづつしか変
わらないので、常に最小値を追従するようwijは修正さ
れ、ローカルミニマムへの落ち込みを回避していくこと
になる。
[Outside 85] The orbit is to be mapped into, and the theorem is proved. (Control of Neural Element Activation Parameter) In view of the above, first, the neural element activation parameter β is set to a certain small value, and w ij is corrected so that the error becomes the minimum value. Next, β is gradually increased. At this time, the shape of the error plane changes only continuously, that is, it changes little by little, so w ij is modified so as to always follow the minimum value, and a fall into the local minimum is avoided.

【0152】学習の進捗度合いによりβを急に大きくす
るが、この時期を上で示した定理の条件が満たされるよ
うに調整すれば、安定した状態の内部表現を得ることが
できる。
Although β is suddenly increased according to the degree of progress of learning, if this time is adjusted so that the condition of the theorem shown above is satisfied, a stable internal expression can be obtained.

【0153】[0153]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0154】図1は本発明の一実施形態の時系列データ
学習装置のブロック図である。
FIG. 1 is a block diagram of a time series data learning device according to an embodiment of the present invention.

【0155】本実施形態の時系列データ学習装置は、神
経回路網を構成するパラメータを定めるパラメータ設定
部1と、結合重みwijを乱数により初期化する結合重み
初期化部2と、各素子(中間素子、出力素子の全ての素
子)値を初期化する素子初期化部3と、入力された時系
列データを入力素子に代入するデータ入力部4と、素子
の時間発展を計算し、素子値を更新する素子時間発展計
算部5と、学習を行う学習部6と、出力素子の出力値と
目標出力値との誤差を計算する誤差計算部7と、結合重
みの修正値を計算する修正幅計算部8と、出力素子の出
力値を出力するデータ出力部9と、入出力データ、素子
の値などデータを蓄積しておくメモリ10と、学習の進
捗度(入力時系列データと出力時系列データの対応をど
のくらい正しく学習したかを示す)を管理する学習進捗
度管理部11と、神経素子活性化パラメータβの値を計
算するβ計画部12と、これら各部の動作を制御する制
御部13で構成されている。
The time-series data learning device of the present embodiment has a parameter setting unit 1 for defining parameters constituting a neural network, a connection weight initialization unit 2 for initializing connection weights w ij by random numbers, and each element ( All elements (intermediate elements and output elements), an element initialization unit 3 that initializes the values, a data input unit 4 that substitutes the input time series data into the input elements, and the time evolution of the elements is calculated to calculate the element values. , An element time evolution calculation unit 5 for updating, a learning unit 6 for learning, an error calculation unit 7 for calculating an error between an output value of an output element and a target output value, and a correction width for calculating a correction value of a coupling weight. The calculation unit 8, the data output unit 9 that outputs the output value of the output element, the memory 10 that stores data such as input / output data and the value of the element, the progress of learning (input time series data and output time series). How correctly to learn the correspondence of data Learning progress management unit 11 for managing the or a shown), a beta planning unit 12 to calculate the value of neural element activation parameter beta, and a control unit 13 for controlling the operations of these units.

【0156】図2は図1の時系列データ学習装置の全体
的な処理のフローチャートである。
FIG. 2 is a flowchart of the overall processing of the time series data learning device of FIG.

【0157】まず、神経回路網を構成する入力素子数、
中間素子数、出力素子数、学習係数、許容誤差、学習入
出力データ対の数、学習入出力データの最大長、βをス
ケジューリングする関数を決めるパラメータなどのパラ
メータを決める(ステップ21)。入力素子数、中間素
子数、出力素子数は初めメモリ10上に領域を確保する
とき使う。また、その後の計算(式(1),(2),
(6),(7),(11),(12),(13),(1
6),(18),(20),(21),(22)等)で
も和をとる範囲などで使う。修正幅計算部8が、Rea
l Time Recurrent Learning
あるいはBack Propagation Thro
ugh Timeで求めた修正幅に学習係数をかけるこ
とで、学習を効率的に行うことができる。結合重みwij
を乱数により初期化する(ステップ22)。学習進捗度
を計算する(ステップ23)。ある時点の神経素子活性
化パラメータβの値が学習進捗度の関数になっているの
で、学習進捗度に基づき神経素子活性化パラメータβの
値を計算する(ステップ24)。素子値を初期化する
(ステップ25)。入力層の素子に時系列データを代入
する(ステップ26)。素子の時間発展を計算し、素子
の値を更新する(ステップ27)。出力素子の出力値を
メモリ10に蓄積する(ステップ28)。全パターン
(入力時系列データと出力時系列データの対)を終了し
たか判定する(ステップ29)。全てのパターンが終了
されていなければステップ25に戻る。そうでなければ
ステップ30に進む。出力素子の出力値と目標出力値の
誤差を計算する(ステップ30)。該誤差の値に基づ
き、つまり、該誤差を使って、結合重みwijの修正幅を
前述したReal Time Recurrent L
earningまたはBackPropagation
Through Timeという計算方法で求め、結
合重みwijを修正する(ステップ31)。結合重みwij
の修正後誤差が許容範囲内かどうか判定する(ステップ
32)。誤差が許容範囲を越える場合はステップ23に
戻る。許容範囲内ならば、終了する。
First, the number of input elements forming the neural network,
Parameters such as the number of intermediate elements, the number of output elements, the learning coefficient, the allowable error, the number of learning input / output data pairs, the maximum length of the learning input / output data, and the parameter that determines the function for scheduling β are determined (step 21). The number of input elements, the number of intermediate elements, and the number of output elements are used when initially securing an area on the memory 10. In addition, subsequent calculations (formulas (1), (2),
(6), (7), (11), (12), (13), (1
6), (18), (20), (21), (22), etc.) are used in the range for summing. The correction width calculation unit 8
l Time Recurring Learning
Or Back Propagation Thro
The learning can be efficiently performed by multiplying the correction width obtained by the "ugh Time" by the learning coefficient. Connection weight w ij
Are initialized with random numbers (step 22). The degree of learning progress is calculated (step 23). Since the value of the neural element activation parameter β at a certain point is a function of the learning progress degree, the value of the neural element activation parameter β is calculated based on the learning progress degree (step 24). The element value is initialized (step 25). Time-series data is substituted into the elements of the input layer (step 26). The time evolution of the element is calculated and the value of the element is updated (step 27). The output value of the output element is stored in the memory 10 (step 28). It is determined whether all patterns (a pair of input time series data and output time series data) have been completed (step 29). If all patterns have not been completed, the process returns to step 25. Otherwise, go to step 30. The error between the output value of the output element and the target output value is calculated (step 30). Based on the value of the error, that is, using the error, the correction width of the connection weight w ij is used for the Real Time Recurrent L described above.
Earning or BackPropagation
It is obtained by a calculation method called Through Time, and the connection weight w ij is corrected (step 31). Connection weight w ij
It is determined whether the post-correction error is within the allowable range (step 32). If the error exceeds the allowable range, the process returns to step 23. If it is within the allowable range, the process ends.

【0158】[0158]

【発明の効果】以上説明したように、本発明によれば、
回帰結合をもつ神経回路網の時系列データの学習におい
て、誤差あるいは学習の進捗度合いにより神経回路網の
パラメータを制御し、目標出力時系列値と実際の出力値
の誤差が減少するように結合重みを修正することによ
り、ローカルミニマムへの落ち込みを抑制し、未知のデ
ータに対する内部表現の安定性を維持し、学習を効率的
に行うことが可能になる効果がある。
As described above, according to the present invention,
When learning the time series data of the neural network with regression coupling, the parameters of the neural network are controlled according to the error or the degree of progress of the learning, and the coupling weight is reduced so that the error between the target output time series value and the actual output value decreases. By modifying, there is an effect that the fall to the local minimum can be suppressed, the stability of the internal representation with respect to unknown data can be maintained, and learning can be efficiently performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態の時系列データ学習装置の
ブロック図である。
FIG. 1 is a block diagram of a time series data learning device according to an embodiment of the present invention.

【図2】図1の時系列データ学習装置の処理全体のフロ
ーチャートである。
FIG. 2 is a flowchart of the entire processing of the time series data learning device of FIG.

【符号の説明】[Explanation of symbols]

1 パラメータ設定部 2 結合重み初期化部 3 素子初期化部 4 データ入力部 5 素子時間発展計算部 6 学習部 7 誤差計算部 8 修正幅計算部 9 データ出力部 10 メモリ 11 学習進捗度管理部 12 β計画部 13 制御部 21〜32 ステップ 1 Parameter Setting Section 2 Connection Weight Initialization Section 3 Element Initialization Section 4 Data Input Section 5 Element Time Evolution Calculation Section 6 Learning Section 7 Error Calculation Section 8 Correction Width Calculation Section 9 Data Output Section 10 Memory 11 Learning Progress Management Section 12 β planning unit 13 control unit 21 to 32 steps

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 離散時間、離散値の入力時系列データと
それに対する離散時間、離散値の目標出力時系列データ
の組がいくつか与えられたとき、離散時間、連続値の素
子からなる回帰結合を有する神経回路網がその入出力時
系列データ間の関数を学習する時系列データ学習方法に
おいて、 誤差あるいは学習の進捗度合いにより神経回路網のパラ
メータを制御し、目標出力時系列値と神経回路網の実際
の出力値との誤差が減少する方向に神経素子間の結合重
みを修正することを特徴とする時系列データ学習方法。
1. When a set of discrete-time, discrete-valued input time-series data and corresponding discrete-time, discrete-valued target output time-series data sets are given, a regression combination consisting of discrete-time, continuous-valued elements In a time-series data learning method in which a neural network having a function learns a function between its input and output time-series data, the parameters of the neural network are controlled by the error or the degree of progress of learning, and the target output time-series value and neural network A method for learning time-series data, characterized in that the connection weight between neural elements is corrected in a direction in which the error from the actual output value of is reduced.
【請求項2】 離散時間、離散値の入力時系列データと
それに対する離散時間、離散値の目標出力時系列データ
の組がいくつか与えられたとき、離散時間、連続値の素
子からなる回帰結合を有する神経回路網がその入出力時
系列データ間の関数を学習する時系列データ学習装置で
あって、 神経回路網を構成するパラメータである少なくとも入力
素子数、中間素子数、出力素子数、学習係数、許容誤差
を定めるパラメータ設定部と、 前記パラメータおよび各種データを蓄積するメモリと、 結合重みを乱数により初期化する結合重み初期化部と、 前記結合重み初期化部の処理終了後、学習の進捗度を計
算する学習進捗度管理部と、 前記学習進捗度管理部の処理終了後、神経素子活性化パ
ラメータの値を計算するβ計画部と、 前記β計画部の処理終了後、各素子値を初期化する素子
初期化部と、 前記素子初期化部の処理終了後、入力時系列データを入
力素子に代入するデータ入力部と、 前記データ入力部の処理終了後、素子の時間発展を計算
し、素子値を更新する素子時間発展計算部と、 出力素子の出力値と目標出力値との誤差を計算する誤差
計算部と、 前記誤差が減少する方向に、前記結合重みの修正値を計
算する修正幅計算部と、 出力素子の出力値を出力するデータ出力部と、 前記素子時間発展計算部での処理終了後、入力時系列デ
ータと出力時系列データの全ての対について処理が済ん
だかどうか判定し、済んでいなければ、前記素子初期化
部から前記素子時間発展計算部までの処理を繰り返し、
済んでいれば前記誤差計算部を起動し、前記修正幅計算
部の処理終了後、前記誤差が前記許容誤差の範囲内かど
うか判定し、範囲内でなければ前記学習進捗度管理部か
らの処理を繰り返す制御部を有する時系列データ学習装
置。
2. When several sets of discrete-time, discrete-valued input time series data and corresponding discrete-time, discrete-valued target output time-series data are given, a regression combination consisting of discrete-time, continuous-valued elements. Is a time-series data learning device for learning a function between input and output time-series data, which has at least the number of input elements, the number of intermediate elements, the number of output elements, learning A parameter setting unit that determines the coefficient and the allowable error, a memory that stores the parameters and various data, a connection weight initialization unit that initializes the connection weight by a random number, and a learning weight after the processing of the connection weight initialization unit is completed. A learning progress management unit that calculates a progress, a β planning unit that calculates the value of a neural element activation parameter after the processing of the learning progress management unit is completed, and a processing of the β planning unit After completion, an element initialization unit that initializes each element value, after the processing of the element initialization unit, a data input unit that substitutes input time series data into an input element, and after the processing of the data input unit, An element time evolution calculation unit that calculates the time evolution of the element and updates the element value, an error calculation unit that calculates the error between the output value of the output element and the target output value, and the coupling that reduces the error. A correction width calculation unit for calculating the correction value of the weight, a data output unit for outputting the output value of the output element, and after the processing by the element time evolution calculation unit, all of the input time series data and the output time series data are Determine whether the processing is completed for the pair, if not completed, repeat the processing from the element initialization unit to the element time evolution calculation unit,
If completed, the error calculation unit is started, and after the correction width calculation unit finishes processing, it is determined whether the error is within the allowable error range. If not, the process from the learning progress management unit. A time-series data learning device having a control unit that repeats.
JP8118355A 1996-04-16 1996-04-16 Method and device for learning time-sequential data Pending JPH09282298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8118355A JPH09282298A (en) 1996-04-16 1996-04-16 Method and device for learning time-sequential data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8118355A JPH09282298A (en) 1996-04-16 1996-04-16 Method and device for learning time-sequential data

Publications (1)

Publication Number Publication Date
JPH09282298A true JPH09282298A (en) 1997-10-31

Family

ID=14734658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8118355A Pending JPH09282298A (en) 1996-04-16 1996-04-16 Method and device for learning time-sequential data

Country Status (1)

Country Link
JP (1) JPH09282298A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830096A (en) * 2012-08-29 2012-12-19 国电燃料有限公司 Method for measuring element concentration and correcting error based on artificial neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830096A (en) * 2012-08-29 2012-12-19 国电燃料有限公司 Method for measuring element concentration and correcting error based on artificial neural network

Similar Documents

Publication Publication Date Title
Tesauro Extending Q-learning to general adaptive multi-agent systems
US20040093315A1 (en) Neural network training
US5689622A (en) Method for adjusting network parameters in a multi-layer perceptron device provided with means for executing the method
CN114839884B (en) Underwater vehicle bottom layer control method and system based on deep reinforcement learning
Ahrns et al. On-line learning with dynamic cell structures
CN115730743A (en) Battlefield combat trend prediction method based on deep neural network
Livieris et al. A survey on algorithms for training artificial neural networks
JP2005516282A (en) Self-organizing feature map with performance improvement due to non-monotonic change in learning rate
Rady Reyni’s entropy and mean square error for improving the convergence of multilayer backprobagation neural networks: a comparative study
JPH07200512A (en) 1optimization problems solving device
JPH09282298A (en) Method and device for learning time-sequential data
Morales Deep Reinforcement Learning
CN115453880A (en) Training method of generative model for state prediction based on antagonistic neural network
JP2907486B2 (en) Neural network device
CN113807505A (en) Method for improving cyclic variation learning rate through neural network
JP6942204B2 (en) Data processing system and data processing method
JP2606317B2 (en) Learning processing device
JPH0991264A (en) Method and device for optimizing neural network structure
JP7491622B1 (en) Pattern recognition device, learning method, and program
JPH10134018A (en) Method and device for finding rule, storage device stored with rule finding program, method and device for neural learning, and storage medium stored with neural learning program
JPH08221378A (en) Learning machine
JPH10254846A (en) Learning method for regression-type neural network
JPH0962645A (en) Constructive learning method for expert's hierarchical mixture model
JP3310009B2 (en) Neural network system
US20220260995A1 (en) Machine learning for trajectory planning