JPH0451384A - Neural network and its construction method - Google Patents

Neural network and its construction method

Info

Publication number
JPH0451384A
JPH0451384A JP2161904A JP16190490A JPH0451384A JP H0451384 A JPH0451384 A JP H0451384A JP 2161904 A JP2161904 A JP 2161904A JP 16190490 A JP16190490 A JP 16190490A JP H0451384 A JPH0451384 A JP H0451384A
Authority
JP
Japan
Prior art keywords
neural network
weighting coefficient
layer
sum
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2161904A
Other languages
Japanese (ja)
Other versions
JP2862337B2 (en
Inventor
Yoshinobu Mita
三田 良信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2161904A priority Critical patent/JP2862337B2/en
Priority to EP91305363A priority patent/EP0461902B1/en
Priority to DE69130656T priority patent/DE69130656T2/en
Publication of JPH0451384A publication Critical patent/JPH0451384A/en
Priority to US08/026,093 priority patent/US5719955A/en
Priority to US08/969,832 priority patent/US6243490B1/en
Application granted granted Critical
Publication of JP2862337B2 publication Critical patent/JP2862337B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To reduce the scale of a circuit by substituting multiplication in the neuron of a neural network for bit shift and the sum of bit-shifted data. CONSTITUTION:One line in inputted binary data is delayed in a line buffer LB, and another one line is delayed in a line buffer LB 2. Data which is not delayed, data delayed by one line and two lines are latched by latches LT3-5 and they are delayed by one picture element. The outputs are delayed by one picture element by latches LT 6-8 and they are turned into binary PT data. Binary PT data is inputted to an intermediate part. The intermediate part executes an operation by bit shift and addition and the output is inputted to multipliers. The weight coefficient Wkj of an output layer is multiplied and the outputs of respective multipliers are added in an adder.

Description

【発明の詳細な説明】 本発明は、各種処理に好適なニューラルネットワーク及
びその構築方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a neural network suitable for various types of processing and a method for constructing the same.

[従来の技術] 近年、ニューラルネットワークによって各種処理を行な
うことが研究されている。
[Prior Art] In recent years, research has been conducted into performing various types of processing using neural networks.

ニューラルネットワークを用いる処理では、処理精度を
向上させるために、各素子にニーロン)は多数の入力に
対して演算処理を施して出力を行なう。
In processing using a neural network, in order to improve processing accuracy, each element performs arithmetic processing on a large number of inputs and outputs.

E発明が解決しようとする課題] しかしながら、ニューラルネットワークを単純にハード
化すると、その回路規模は非常に大きいものとなってし
まうという問題があった。
Problems to be Solved by Invention E] However, if the neural network were simply made into hardware, there was a problem in that the circuit scale would become extremely large.

[課題を解決するだめの手段及び作用コ上記課題を解決
するために、本発明のニューラルネットワークは、一部
の層における重み係数の乗算を、シフト演算により行な
う。
[Means and effects for solving the problem] In order to solve the above problem, the neural network of the present invention performs multiplication of weighting coefficients in some layers by a shift operation.

また、本発明ニューラルネットワークの他の形態は、一
部の層における重み係数の乗算を、シフト演算及び加算
により行なう。
Further, in another embodiment of the neural network of the present invention, weighting coefficients in some layers are multiplied by shift operations and additions.

また、本発明のニューラルネットワークの構築方法は、
入力層、1つ以上の中間層及び出力層を有し、学習によ
り決定されたニューラルネットワークにおいて、ある層
の重み係数に対して、もっとも近い2のべき乗を求め、
当該重み係数の乗算部を、求められた2のべき乗を乗算
するシフト演算部に置き換えたことを特徴とする。
Furthermore, the method for constructing a neural network of the present invention includes:
In a neural network that has an input layer, one or more hidden layers, and an output layer and is determined by learning, find the nearest power of 2 for the weighting coefficient of a certain layer,
The present invention is characterized in that the weighting coefficient multiplication unit is replaced with a shift calculation unit that multiplies the obtained power of 2.

また、本発明のニューラルネットワークの構築方法の他
の形態は、入力層、1つ以上の中間層及び出力層を有し
、学習により決定されたニューラルネットワークにおい
て、ある層の重み係数に対して、所定数以下の2のべき
乗和でもっとも近い値を求め、当該重み係数の乗算部を
、求められた2のべき乗和の2のべき乗の各々を乗算す
るシフト演算部とその結果を加算する加算部に置き換え
たことを特徴とする。
Further, in another embodiment of the neural network construction method of the present invention, in a neural network that has an input layer, one or more intermediate layers, and an output layer, and is determined by learning, for a weight coefficient of a certain layer, A shift calculation unit that calculates the closest value among the sums of powers of 2 that are less than or equal to a predetermined number, and multiplies the weighting coefficient multiplication unit by each power of 2 of the calculated sum of powers of 2, and an addition unit that adds the results. It is characterized by being replaced by .

更に、他のニューラルネットワークの構築方法は、入力
層、1つ以上の中間層及び出力層を有し、学習により決
定されたニューラルネットワークにおいて、ある層の重
み係数に対して、所定誤差以下となる2のべき乗和によ
る近似値を、和の項数を漸次増やしながら求め、当該重
み係数の乗算部を、求められた2のべき乗和の2のべき
乗の各々を乗算するシフト演算部とその結果を加算する
加算部に置き換えたことを特徴とする。
Furthermore, another method for constructing a neural network has an input layer, one or more hidden layers, and an output layer, and in a neural network determined by learning, the weight coefficient of a certain layer has a predetermined error or less. An approximate value based on a sum of powers of 2 is obtained by gradually increasing the number of terms in the sum, and a multiplication section for the weighting coefficient is used as a shift operation section that multiplies each power of 2 of the sum of powers of 2 obtained. It is characterized by replacing it with an adding section that adds.

[実施例] 先ず、パックプロパゲーション型ニニーラルネッ)・ワ
ークにおける学習の手順を第3図を例として説明する。
[Example] First, the learning procedure in a pack propagation type network will be explained using FIG. 3 as an example.

第3図に示されたニューラルネットワークは、入力層j
、1@よりなる中間層j、出力層kによって構成されて
いる。
The neural network shown in Figure 3 has an input layer j
, 1@, and an output layer k.

学習のためには、入力データと、それに対する理想出力
とを用意し、中間層における結合強度WJ3、出力層に
おける結合強度Wよ4の初期値を適当に決定し、この初
期値に基づいて結合されたネットワークに、用意した入
力データを与え、中間層、出力層の順で処理されて出力
データを得る。ここまでが、第3図における■および■
の流れである。次に、得られた出力層よりの出力と、用
意した理想出力とを比較し、この比較により教師信号を
生成し、この教師信号によって、出力層における結合強
度WkJを補正し、更に中間層における結合強度WJI
を補正する。これが■および■の流れである。
For learning, prepare the input data and the ideal output for it, appropriately determine the initial values of the connection strength WJ3 in the intermediate layer and the connection strength WY4 in the output layer, and perform the connection based on these initial values. The prepared input data is given to the network, which is processed in the intermediate layer and then the output layer to obtain output data. Up to this point, ■ and ■ in Figure 3
This is the flow. Next, the obtained output from the output layer is compared with the prepared ideal output, a teacher signal is generated by this comparison, the coupling strength WkJ in the output layer is corrected by this teacher signal, and the coupling strength WkJ in the intermediate layer is further corrected. Bond strength WJI
Correct. This is the flow of ■ and ■.

以上が学習の1工程であり、この学習を繰り返すことに
より、結合強度W 、1.W y==が適切な値へと修
正されていく。学習の結果、更新された結合強度がネッ
トワーク内に保持される。
The above is one step of learning, and by repeating this learning, the connection strength W, 1. W y== is corrected to an appropriate value. As a result of learning, updated connection strengths are maintained within the network.

上述の学習手順を、第4図のフローヂャートを用いて更
に詳細に説明する。
The above learning procedure will be explained in more detail using the flowchart of FIG.

先ず、ステップ5401で、重み係数(結合強度) W
J、、W k、+の初期値を与える。ここでは、学習過
程での収束を考慮して、−〇、5〜+05の範囲の値を
選択する。
First, in step 5401, the weighting coefficient (coupling strength) W
Give the initial value of J,,W k,+. Here, in consideration of convergence during the learning process, values in the range of -0, 5 to +05 are selected.

次に、ステップ5402で学習用の入力データjout
(i)を選択し、ステップ5403でこのブタjout
(i)を入力層にセットする。また、ステップ5404
で、入力データ1out(i)に対する理想出力(i 
deal out)を用意する。
Next, in step 5402, the learning input data jout
(i), and in step 5403 this pig jout
(i) is set in the input layer. Also, step 5404
Then, the ideal output (i
deal out).

そこで、ステップ5405で、中間層の出力jout(
j)を求める。
Therefore, in step 5405, the output jout(
Find j).

先ず、入力層よりのデータ1out(i)に中間層の重
み係数WJ、を掛け、その総和Sum、Jを、Sump
J=ΣW J l (j、 il*1out(i)によ
り計算し、次に、このSumFjにsigmoid関数
を作用させて、j番目の中間層の出力jout(j)を
、 によって計算する。
First, data 1out(i) from the input layer is multiplied by the weighting coefficient WJ of the intermediate layer, and the sum Sum, J is expressed as Sump
J=ΣW J l (j, il*1out(i), and then a sigmoid function is applied to this SumFj to calculate the output jout(j) of the j-th intermediate layer as follows.

次に、ステップ5406で、出力層の出力kout(k
)を求める。この手順はステップ840Gと同様である
Next, in step 5406, the output layer's output kout(k
). This procedure is similar to step 840G.

すなわち、中間層からの出力jout(j)に出力層の
重み係数WkJを掛け、その総和Sumpkを、Sum
Fk=ΣW k、+ (k、 j)*jout(j)に
より計算し、次に、このSumpkにsigmoid関
数を作用させて、k番目の中間層の出力kout (k
lを、 によって計算する。なお、この出力値は正規化されてい
る。また、一般には、出力層の素子数は複数であるが、
第3図の例では、1個だけとしている。
That is, the output jout(j) from the intermediate layer is multiplied by the weighting coefficient WkJ of the output layer, and the sum Sumpk is calculated as Sum
Calculate by Fk=ΣW k, + (k, j)*jout(j), and then apply a sigmoid function to this Sumpk to obtain the output kout (k
Calculate l by Note that this output value has been normalized. In addition, generally the number of elements in the output layer is plural;
In the example of FIG. 3, there is only one.

次に、ステップ5407では、以上により得られた出力
kout(k)と、ステップ5404で用意した理想出
力1deal out(k)とを比較し、出力層の教師
信号teach k(k)として、 teach k(k)  :=  (ideal ou
t(k)  −kout(k))*kout(k)*(
1−kout(kHを求める。ここで、kout(k)
*(1−kout(k))は、sigmojd関数ko
ut(k)の微分の意義を有する。
Next, in step 5407, the output kout(k) obtained in the above manner is compared with the ideal output 1deal out(k) prepared in step 5404, and the teacher signal teach k(k) of the output layer is set as teach k (k) := (ideal ou
t(k) −kout(k))*kout(k)*(
Find 1-kout(kH. Here, kout(k)
*(1-kout(k)) is the sigmojd function ko
It has the meaning of differentiation of ut(k).

次に、ステップ5408で、出力層の重み係数の変化幅
△w kJ(k、 j)を、 △W kJ(kl、+) =β*jout(j)*te
ach k(k)+α*△w yi (k、 j) により計算する。ここで、αは安定化定数、βは学習定
数と呼ばれる定数であり、急激な変化を押える役割を果
たしている。
Next, in step 5408, the variation width △w kJ (k, j) of the weighting coefficient of the output layer is calculated as △W kJ (kl, +) = β * jout (j) * te
Calculate by ach k(k)+α*△w yi (k, j). Here, α is a stabilizing constant, and β is a constant called a learning constant, which plays the role of suppressing sudden changes.

ステップ5409では、この変化幅に基づいて、重み係
数Wk、+(k+J)を、 W kJ(k、 j) = W kJ(k、 j)+△
w t、j(k、 j)と、更新する。すなわち学習を
行なう。
In step 5409, the weighting coefficient Wk,+(k+J) is determined based on this variation width as follows: W kJ(k, j) = W kJ(k, j)+△
Update w t,j(k, j). In other words, learn.

次に、ステップ5410で、中間層の教師信号teac
h j(jlを計算する。そのために、先ず、Sum!
lJ=Σteach k(k)* WkJ(j、i)に
基づいて、出力層から、中間層の各素子への逆方向の寄
与を計算する。次にこのSum8Jから、中間層の教師
信号teach j(j)を以下の式により演算する。
Next, in step 5410, the intermediate layer teacher signal teac
Calculate h j (jl. To do this, first, Sum!
lJ=Σteach k(k)*Based on WkJ(j,i), calculate the inverse contribution from the output layer to each element of the intermediate layer. Next, from this Sum8J, a teacher signal teach j (j) of the intermediate layer is calculated using the following formula.

teach j(j) = jout(j)*(1−j
out(j)l*sumgJ次に、ステップ5411で
、中間層の重み係数の変化幅△W 、+ l(j、 1
)を、△WJ+(j、i) =β*1out(i)*t
each j(j)+α*△WJl(jl) により計算する。
teach j(j) = jout(j)*(1-j
out(j)l*sumgJNext, in step 5411, the width of change in the weighting coefficient of the intermediate layer △W, + l(j, 1
), △WJ+(j,i) =β*1out(i)*t
Calculate by each j (j) + α*△WJl (jl).

ステップ5412では、この変化幅に基づいて、重み係
数W J+ (j、i)を、W 11(j、 L) =
 W JIF+ 1)+△W J+ (j、 i)と、
更新する。すなわち学習を行なう。
In step 5412, based on this variation range, the weighting coefficient W J+ (j, i) is determined as W 11 (j, L) =
W JIF+ 1)+△W J+ (j, i),
Update. In other words, learn.

こうして、ステップ8401〜412により、1組の入
力データとこれに対する理想出力とから、重み係数W 
4 、とWoとが1回学習された。
In this way, in steps 8401 to 412, from a set of input data and the ideal output for this, the weighting coefficient W
4, and Wo were learned once.

ステップ5413では、以上のような学習を全入力デー
タにつき行なったかを調べ、未だの場合は、ステップ8
401〜412を繰り返す。
In step 5413, it is checked whether the above learning has been performed for all input data, and if not, step 8
Repeat steps 401-412.

ステップ5414では、所定の学習回数に達したかを調
べ、不足の場合は、ステップ3401〜413を繰り返
す。
In step 5414, it is checked whether a predetermined number of learning times has been reached, and if not, steps 3401 to 413 are repeated.

以上がパックプロパゲーション法に基づいたニューラル
ネットワークの学習手順の説明である。
The above is an explanation of the neural network learning procedure based on the pack propagation method.

本発明では、以上のようにして確立されたニュラルネッ
トワークの中間層において、重み係数を乗じる部分を、
次のように変形する。
In the present invention, in the intermediate layer of the neural network established as described above, the part to be multiplied by the weighting coefficient is
Transform as follows.

〈方法1〉 各WJ、について、2のべき乗(2°)の中で最も値が
近いものを新しくW、1とする。
<Method 1> For each WJ, the closest value among the powers of 2 (2°) is set as a new W,1.

〈方法2〉 各W、、lについて、所定個以下の2のべき乗の和の全
ての組み合わせ(1個を含む)の中で最も値が近いもの
を新しくW、、とする。
<Method 2> For each W, , l, the one with the closest value among all combinations (including one) of sums of powers of 2 below a predetermined number is set as a new W, , .

〈方法3〉 許容される最大誤差△Eを先ず設定する。<Method 3> First, the maximum allowable error ΔE is set.

各W1.について、2のべき乗のうぢで、WJ、と最も
値が近いものとの差が△E以下であれば、それを新しく
W、、とする。
Each W1. If the difference between WJ and the closest value is less than or equal to △E in the power of 2, then it is newly set as W.

△E以下でない場合は、2のべき乗2個の和の中でWJ
、と最も値が近いものとの差が△E以下であれば、それ
を新しくW、3とする。
If it is not less than or equal to △E, WJ is the sum of two powers of 2.
, and the closest one is less than or equal to ΔE, then it is set as a new W,3.

これも△E以下でない場合は、更に、3個の和、4個の
和、・・・と順に増やしていき、△E以下となるものが
得られるまで続しプる。
If this is also not less than ΔE, the sum of 3, 4, etc. is further increased in this order until a value that is less than or equal to ΔE is obtained.

以上の方法1〜3において、W4.が2のべき乗2″と
なる場合は、入力にW、1を乗じる演算は、人力をnだ
けシフトすることにより実現される。
In the above methods 1 to 3, W4. is a power of 2, 2'', the operation of multiplying the input by W, 1 is realized by shifting the human power by n.

また、方法2または3において、W、lが2のべき乗の
和、例えば2” +2″+2’ となる場合は、入力に
WJ、を乗じる演算は、入力をそれぞれn、m、1だけ
シフトしたものの和をとることにより実現される。
In addition, in method 2 or 3, if W and l are the sum of powers of 2, for example 2" + 2" + 2', the operation of multiplying the input by WJ shifts the input by n, m, and 1, respectively. It is realized by taking the sum of things.

従って、重み係数の乗算部分は、シフト演算、またはシ
フト演算と加算とにより達成される。
Therefore, the multiplication part of the weighting factors is accomplished by a shift operation, or a shift operation and an addition.

しかしながら、上述の方法によれば、WJ、を、学習で
得られた値に近いながらも、それとは異なる値とするた
めに、出力層で得られる値にも、若干の誤差が生じる。
However, according to the above method, since WJ is set to a value that is close to but different from the value obtained by learning, some errors also occur in the values obtained in the output layer.

その誤差が、ニューラルネットワークとしての許容範囲
外であれば、新しい重み係数W1.を固定して再学習を
行なってもよい。
If the error is outside the permissible range for the neural network, a new weighting coefficient W1. You may fix it and relearn.

再学習のフローヂャ−1・を第5図に示す。Flowchart 1 of relearning is shown in FIG.

第5図は、第4図における中間層の重み係数の更新に必
要なステップ8410〜5412が省略されている点で
第4図と異なり、他は同じように学習を行なう。従って
、固定された重み係数W、に基づく中間層よりの出力に
対して、出力層の重み係数WkJだけが再学習され、出
力層よりの出力の誤差が低減される。
5 differs from FIG. 4 in that steps 8410 to 5412 necessary for updating the weighting coefficients of the intermediate layer in FIG. 4 are omitted, and learning is otherwise performed in the same manner. Therefore, with respect to the output from the intermediate layer based on the fixed weighting coefficient W, only the weighting coefficient WkJ of the output layer is relearned, and the error in the output from the output layer is reduced.

本発明に係るニューラルネットワークの回路構成につい
て、更に詳細に説明する。
The circuit configuration of the neural network according to the present invention will be explained in more detail.

第1図は、中間層における1個のニューロンによる処理
を実現する中間部である。
FIG. 1 shows an intermediate part that realizes processing by one neuron in the intermediate layer.

BFはビットシフト部であり、入力信号を配線」ニシフ
トして加算器ADに人力させるものであり、実際の回路
があるわけではない。また、ADではシフトされた入力
を加算し、sigmoid関数テブルFTでは、ADに
よる加算結果に対してsigmoid関数を作用させた
結果が得られる。
BF is a bit shift unit that manually shifts the input signal to the adder AD, and does not have an actual circuit. Further, in AD, shifted inputs are added, and in sigmoid function table FT, a result is obtained by applying a sigmoid function to the addition result by AD.

第2図は、ニューラルネットワークの全体構成例である
FIG. 2 is an example of the overall configuration of a neural network.

第2図(a、 )は、3X3領域の2値画像をニュラル
ネットワークの入力とする場合の入力部の例である。
FIG. 2(a,) is an example of an input unit when a binary image in a 3×3 area is input to a neural network.

先ず、入力された2値データは、ラインバッファLBI
で1ライン分の遅延が行なわれ、次にラインバッファL
B2において、もう1ライン分の遅延が行なわれ、合計
2ライン分の遅延が行なわれる。遅延されていないデー
タ、1ライン分及び2ライン分遅延されたデータは、そ
れぞれ、ラッチL73〜5にラッチされて1画素分遅延
され、その出力はラッチL76〜8により、更に1画素
分の遅延を受ける。これらによる出力は、水平ライン方
向、および垂直画素方向に連続する3×3の領域の2値
データとして、2値PTデタとなる。
First, the input binary data is sent to the line buffer LBI.
A delay of one line is performed in the line buffer L.
At B2, one more line of delay is performed, for a total of two lines of delay. Undelayed data, data delayed by one line, and data delayed by two lines are each latched by latches L73-5 and delayed by one pixel, and their outputs are further delayed by one pixel by latches L76-8. receive. The output from these becomes binary PT data as binary data of a 3×3 area continuous in the horizontal line direction and the vertical pixel direction.

2値PTデータは、中間部に人力される。中間部では、
第1図につき説明したように、ビットシフトと加算とに
より、中間層における演算を行なう。中間部の出力は、
乗算器に入力され、出力層の重み係数W w 1が乗じ
られ、各乗算器の出力は、加算器により全て加算される
。加算器による加算結果は、関数演算部F Tによるテ
ーブル変換により、対応するsigmoid関数値を最
終結果として得る。
The binary PT data is manually entered in the intermediate section. In the middle part,
As explained with reference to FIG. 1, operations in the intermediate layer are performed by bit shifting and addition. The output of the middle part is
The signals are input to a multiplier, multiplied by a weighting coefficient W w 1 of the output layer, and the outputs of each multiplier are all added together by an adder. The result of the addition by the adder is converted into a table by the function calculation unit FT to obtain the corresponding sigmoid function value as the final result.

以上のように、本発明によれば、ニューロンにおける乗
算を、ビットシフトまたは、ビットシフトされたもの同
士の和に置き換えることが可能となる。
As described above, according to the present invention, multiplication in neurons can be replaced by bit shifting or the sum of bit-shifted values.

特に、本発明を2値化された画像から、多値画像への復
元のためのニューラルネットワークにおける中間層に適
用すれば、入力は0または1に限られ、これに対するビ
ットシフトの結果の加算のためには、高々数ビツト程度
の加算器で十分に演算が可能となる。従って、ニューラ
ルネットワークのハードウェアをLSIやゲートアレイ
で組むことが可能となる。
In particular, if the present invention is applied to the intermediate layer in a neural network for restoring a binarized image to a multivalued image, the input is limited to 0 or 1, and the addition of the bit shift result to this input is limited to 0 or 1. For this purpose, an adder of at most several bits is sufficient to perform the calculation. Therefore, the hardware of the neural network can be assembled using LSI or gate arrays.

以上は、2値画像データの入力につき説明したが、他の
形式の人力データについても適用可能であることはいう
までもない。
Although the above description has been made regarding the input of binary image data, it goes without saying that the present invention can also be applied to other types of human input data.

[発明の効果コ 以上説明した如く、本発明によれば、ニューラルネット
ワークのニューロンにおける乗算を、ビットシフトまた
は、ビットシフト の和に置き換えることにより、回路規模を小さくするこ
とが可能となる。
[Effects of the Invention] As explained above, according to the present invention, by replacing multiplication in neurons of a neural network with a bit shift or a sum of bit shifts, it is possible to reduce the circuit scale.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、実施例のニューロンの構成図、第2図は、実
施例のニューラルネットワークの全体構成図、 第3図は、ニューラルネットワークの概念図、第4図は
、ニューラルネットワークの学習手順のフローチャー1
・、 第5図は、再学習手順のフローチャ−1・である。 1、2・・・ラインバッファ 3〜8・・・ラッチ BF・・・ピッi・シフト部 AD・・・加算器 FT・・・関数演算部
Figure 1 is a block diagram of the neuron in the example, Figure 2 is the overall configuration of the neural network in the example, Figure 3 is a conceptual diagram of the neural network, and Figure 4 is the learning procedure of the neural network. Flowchart 1
・, FIG. 5 is a flowchart 1 of the relearning procedure. 1, 2...Line buffers 3 to 8...Latch BF...Pip i shift section AD...Adder FT...Function operation section

Claims (8)

【特許請求の範囲】[Claims] (1)入力層、1つ以上の中間層及び出力層を有するニ
ューラルネットワークであって、一部の層における重み
係数の乗算を、シフト演算により行なうことを特徴とす
るニューラルネットワーク。
(1) A neural network having an input layer, one or more intermediate layers, and an output layer, characterized in that multiplication of weighting coefficients in some layers is performed by a shift operation.
(2)入力層、1つ以上の中間層及び出力層を有するニ
ューラルネットワークであって、一部の層における重み
係数の乗算を、シフト演算及び加算により行なうことを
特徴とするニューラルネットワーク。
(2) A neural network having an input layer, one or more intermediate layers, and an output layer, characterized in that multiplication of weighting coefficients in some layers is performed by shift operations and additions.
(3)前記重み係数を2のべき乗に設定することを特徴
とする請求項第1項記載のニューラルネットワーク。
(3) The neural network according to claim 1, wherein the weighting coefficient is set to a power of two.
(4)前記重み係数を2のべき乗の和に設定することを
特徴とする請求項第1項記載のニューラルネットワーク
(4) The neural network according to claim 1, wherein the weighting coefficient is set to a sum of powers of two.
(5)入力層、1つ以上の中間層及び出力層を有し、学
習により決定されたニューラルネットワークにおいて、
ある層の重み係数に対して、もっとも近い2のべき乗を
求め、当該重み係数の乗算部を、求められた2のべき乗
を乗算するシフト演算部に置き換えたことを特徴とする
ニューラルネットワークの構築方法。
(5) In a neural network determined by learning and having an input layer, one or more hidden layers, and an output layer,
A method for constructing a neural network, characterized in that the nearest power of 2 is determined for a weighting coefficient of a certain layer, and a multiplication unit for the weighting coefficient is replaced with a shift operation unit that multiplies the determined power of 2. .
(6)入力層、1つ以上の中間層及び出力層を有し、学
習により決定されたニューラルネットワークにおいて、
ある層の重み係数に対して、所定数以下の2のべき乗和
でもっとも近い値を求め、当該重み係数の乗算部を、求
められた2のべき乗和の2のべき乗の各々を乗算するシ
フト演算部とその結果を加算する加算部に置き換えたこ
とを特徴とするニューラルネットワークの構築方法。
(6) In a neural network determined by learning and having an input layer, one or more hidden layers, and an output layer,
A shift operation that calculates the closest value of the sum of powers of 2 that is less than or equal to a predetermined number for the weighting coefficient of a certain layer, and multiplies the multiplication part of the weighting coefficient by each power of 2 of the sum of powers of 2 that has been found. A method for constructing a neural network, characterized in that the neural network is replaced with an addition section that adds a section and its result.
(7)入力層、1つ以上の中間層及び出力層を有し、学
習により決定されたニューラルネットワークにおいて、
ある層の重み係数に対して、所定誤差以下となる2のべ
き乗和による近似値を、和の項数を順次増やしながら求
め、当該重み係数の乗算部を、求められた2のべき乗和
の2のべき乗の各々を乗算するシフト演算部とその結果
を加算する加算部に置き換えたことを特徴とするニュー
ラルネットワークの構築方法。
(7) In a neural network determined by learning and having an input layer, one or more hidden layers, and an output layer,
For the weighting coefficient of a certain layer, an approximate value of the sum of powers of 2 that is less than or equal to a predetermined error is obtained by sequentially increasing the number of terms in the sum, and the multiplication part of the weighting coefficient is A method for constructing a neural network, characterized in that a shift calculation unit that multiplies each power of , and an addition unit that adds the results are replaced.
(8)前記重み係数を、求められた2のべき乗または2
のべき乗和による近似値に固定して再学習を行ない、当
該重み係数以外の係数を更新することを特徴とする請求
項第5項乃至第7項記載のニューラルネットワークの構
築方法。
(8) The weighting coefficient is the determined power of 2 or 2
8. The method of constructing a neural network according to claim 5, wherein the re-learning is performed by fixing the value to an approximate value based on the sum of powers of , and updating coefficients other than the weighting coefficient.
JP2161904A 1990-06-14 1990-06-19 How to build a neural network Expired - Fee Related JP2862337B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2161904A JP2862337B2 (en) 1990-06-19 1990-06-19 How to build a neural network
EP91305363A EP0461902B1 (en) 1990-06-14 1991-06-13 Neural network
DE69130656T DE69130656T2 (en) 1990-06-14 1991-06-13 Neural networks
US08/026,093 US5719955A (en) 1990-06-14 1993-03-04 Data processing using neural networks having conversion tables in an intermediate layer
US08/969,832 US6243490B1 (en) 1990-06-14 1997-11-13 Data processing using neural networks having conversion tables in an intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161904A JP2862337B2 (en) 1990-06-19 1990-06-19 How to build a neural network

Publications (2)

Publication Number Publication Date
JPH0451384A true JPH0451384A (en) 1992-02-19
JP2862337B2 JP2862337B2 (en) 1999-03-03

Family

ID=15744231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161904A Expired - Fee Related JP2862337B2 (en) 1990-06-14 1990-06-19 How to build a neural network

Country Status (1)

Country Link
JP (1) JP2862337B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (en) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology Data creation circuit and method for creating data
JP2008065477A (en) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology Data processing device and method
WO2019064774A1 (en) * 2017-09-29 2019-04-04 ソニー株式会社 Information processing device and information processing method
WO2019181137A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device and information processing method
JPWO2018131059A1 (en) * 2017-01-10 2019-11-07 株式会社日立製作所 Neural network circuit
JPWO2019168088A1 (en) * 2018-03-02 2021-02-12 日本電気株式会社 Inference device, convolution operation execution method and program
WO2021039164A1 (en) * 2019-08-26 2021-03-04 ソニー株式会社 Information processing device, information processing system, and information processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108205519B (en) * 2016-12-20 2022-01-25 上海寒武纪信息科技有限公司 Matrix multiply-add operation device and method, processing device, chip and electronic device
CN111383156B (en) * 2018-12-29 2022-08-02 北京市商汤科技开发有限公司 Image processing method and device, intelligent driving system and vehicle-mounted operation platform
KR20210062485A (en) 2019-11-21 2021-05-31 삼성전자주식회사 Electronic apparatus and control method thereof

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (en) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology Data creation circuit and method for creating data
JP2008065477A (en) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology Data processing device and method
JPWO2018131059A1 (en) * 2017-01-10 2019-11-07 株式会社日立製作所 Neural network circuit
US11531896B2 (en) 2017-01-10 2022-12-20 Hitachi, Ltd. Neural network circuit providing for operations with bit shifting and rounded values of weight information
JP6504331B1 (en) * 2017-09-29 2019-04-24 ソニー株式会社 INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD
JP2019091512A (en) * 2017-09-29 2019-06-13 ソニー株式会社 Information processing device and information processing method
US11086969B2 (en) 2017-09-29 2021-08-10 Sony Corporation Information processing device and information processing method
WO2019064774A1 (en) * 2017-09-29 2019-04-04 ソニー株式会社 Information processing device and information processing method
JPWO2019168088A1 (en) * 2018-03-02 2021-02-12 日本電気株式会社 Inference device, convolution operation execution method and program
US11960565B2 (en) 2018-03-02 2024-04-16 Nec Corporation Add-mulitply-add convolution computation for a convolutional neural network
WO2019181137A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device and information processing method
JPWO2019181137A1 (en) * 2018-03-23 2021-03-25 ソニー株式会社 Information processing device and information processing method
US11768979B2 (en) 2018-03-23 2023-09-26 Sony Corporation Information processing device and information processing method
WO2021039164A1 (en) * 2019-08-26 2021-03-04 ソニー株式会社 Information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP2862337B2 (en) 1999-03-03

Similar Documents

Publication Publication Date Title
JPH0451384A (en) Neural network and its construction method
EP0384709B1 (en) Learning Machine
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
JPH07121498A (en) Method for constructing neural network
JPH04229362A (en) Learning machine
JPH0981723A (en) Image processor
JPH07141313A (en) Neural circuit element
JPH05101028A (en) Integral decision method for plural feature quantity
JPH0451386A (en) Neural network and its construction method
JP3262340B2 (en) Information processing device
JP3260538B2 (en) Control device
JPH0451383A (en) Neural network
JPH0981535A (en) Learning method for neural network
JP2859377B2 (en) Image processing method and image processing apparatus using neural network
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JPH05204885A (en) Device and method for accelerating learning of neural network
JPH0415882A (en) Picture quality evaluation device
JPH0644207A (en) Neural network and its constituting method
JPH0620048A (en) Image processor
JPH0233655A (en) Nerve circuit network type pattern processor
JPH0367358A (en) Learning machine
JPH0430280A (en) Learning method for neural network
JP3137996B2 (en) Neural network using membership function and its learning method
JPH07319844A (en) Device and method for learning neural network
JPH0522586A (en) Color conversion system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees