JPH0451384A - ニューラルネットワークの構築方法 - Google Patents

ニューラルネットワークの構築方法

Info

Publication number
JPH0451384A
JPH0451384A JP2161904A JP16190490A JPH0451384A JP H0451384 A JPH0451384 A JP H0451384A JP 2161904 A JP2161904 A JP 2161904A JP 16190490 A JP16190490 A JP 16190490A JP H0451384 A JPH0451384 A JP H0451384A
Authority
JP
Japan
Prior art keywords
neural network
weighting coefficient
layer
sum
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2161904A
Other languages
English (en)
Other versions
JP2862337B2 (ja
Inventor
Yoshinobu Mita
三田 良信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2161904A priority Critical patent/JP2862337B2/ja
Priority to DE69130656T priority patent/DE69130656T2/de
Priority to EP91305363A priority patent/EP0461902B1/en
Publication of JPH0451384A publication Critical patent/JPH0451384A/ja
Priority to US08/026,093 priority patent/US5719955A/en
Priority to US08/969,832 priority patent/US6243490B1/en
Application granted granted Critical
Publication of JP2862337B2 publication Critical patent/JP2862337B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 本発明は、各種処理に好適なニューラルネットワーク及
びその構築方法に関するものである。
[従来の技術] 近年、ニューラルネットワークによって各種処理を行な
うことが研究されている。
ニューラルネットワークを用いる処理では、処理精度を
向上させるために、各素子にニーロン)は多数の入力に
対して演算処理を施して出力を行なう。
E発明が解決しようとする課題] しかしながら、ニューラルネットワークを単純にハード
化すると、その回路規模は非常に大きいものとなってし
まうという問題があった。
[課題を解決するだめの手段及び作用コ上記課題を解決
するために、本発明のニューラルネットワークは、一部
の層における重み係数の乗算を、シフト演算により行な
う。
また、本発明ニューラルネットワークの他の形態は、一
部の層における重み係数の乗算を、シフト演算及び加算
により行なう。
また、本発明のニューラルネットワークの構築方法は、
入力層、1つ以上の中間層及び出力層を有し、学習によ
り決定されたニューラルネットワークにおいて、ある層
の重み係数に対して、もっとも近い2のべき乗を求め、
当該重み係数の乗算部を、求められた2のべき乗を乗算
するシフト演算部に置き換えたことを特徴とする。
また、本発明のニューラルネットワークの構築方法の他
の形態は、入力層、1つ以上の中間層及び出力層を有し
、学習により決定されたニューラルネットワークにおい
て、ある層の重み係数に対して、所定数以下の2のべき
乗和でもっとも近い値を求め、当該重み係数の乗算部を
、求められた2のべき乗和の2のべき乗の各々を乗算す
るシフト演算部とその結果を加算する加算部に置き換え
たことを特徴とする。
更に、他のニューラルネットワークの構築方法は、入力
層、1つ以上の中間層及び出力層を有し、学習により決
定されたニューラルネットワークにおいて、ある層の重
み係数に対して、所定誤差以下となる2のべき乗和によ
る近似値を、和の項数を漸次増やしながら求め、当該重
み係数の乗算部を、求められた2のべき乗和の2のべき
乗の各々を乗算するシフト演算部とその結果を加算する
加算部に置き換えたことを特徴とする。
[実施例] 先ず、パックプロパゲーション型ニニーラルネッ)・ワ
ークにおける学習の手順を第3図を例として説明する。
第3図に示されたニューラルネットワークは、入力層j
、1@よりなる中間層j、出力層kによって構成されて
いる。
学習のためには、入力データと、それに対する理想出力
とを用意し、中間層における結合強度WJ3、出力層に
おける結合強度Wよ4の初期値を適当に決定し、この初
期値に基づいて結合されたネットワークに、用意した入
力データを与え、中間層、出力層の順で処理されて出力
データを得る。ここまでが、第3図における■および■
の流れである。次に、得られた出力層よりの出力と、用
意した理想出力とを比較し、この比較により教師信号を
生成し、この教師信号によって、出力層における結合強
度WkJを補正し、更に中間層における結合強度WJI
を補正する。これが■および■の流れである。
以上が学習の1工程であり、この学習を繰り返すことに
より、結合強度W 、1.W y==が適切な値へと修
正されていく。学習の結果、更新された結合強度がネッ
トワーク内に保持される。
上述の学習手順を、第4図のフローヂャートを用いて更
に詳細に説明する。
先ず、ステップ5401で、重み係数(結合強度) W
J、、W k、+の初期値を与える。ここでは、学習過
程での収束を考慮して、−〇、5〜+05の範囲の値を
選択する。
次に、ステップ5402で学習用の入力データjout
(i)を選択し、ステップ5403でこのブタjout
(i)を入力層にセットする。また、ステップ5404
で、入力データ1out(i)に対する理想出力(i 
deal out)を用意する。
そこで、ステップ5405で、中間層の出力jout(
j)を求める。
先ず、入力層よりのデータ1out(i)に中間層の重
み係数WJ、を掛け、その総和Sum、Jを、Sump
J=ΣW J l (j、 il*1out(i)によ
り計算し、次に、このSumFjにsigmoid関数
を作用させて、j番目の中間層の出力jout(j)を
、 によって計算する。
次に、ステップ5406で、出力層の出力kout(k
)を求める。この手順はステップ840Gと同様である
すなわち、中間層からの出力jout(j)に出力層の
重み係数WkJを掛け、その総和Sumpkを、Sum
Fk=ΣW k、+ (k、 j)*jout(j)に
より計算し、次に、このSumpkにsigmoid関
数を作用させて、k番目の中間層の出力kout (k
lを、 によって計算する。なお、この出力値は正規化されてい
る。また、一般には、出力層の素子数は複数であるが、
第3図の例では、1個だけとしている。
次に、ステップ5407では、以上により得られた出力
kout(k)と、ステップ5404で用意した理想出
力1deal out(k)とを比較し、出力層の教師
信号teach k(k)として、 teach k(k)  :=  (ideal ou
t(k)  −kout(k))*kout(k)*(
1−kout(kHを求める。ここで、kout(k)
*(1−kout(k))は、sigmojd関数ko
ut(k)の微分の意義を有する。
次に、ステップ5408で、出力層の重み係数の変化幅
△w kJ(k、 j)を、 △W kJ(kl、+) =β*jout(j)*te
ach k(k)+α*△w yi (k、 j) により計算する。ここで、αは安定化定数、βは学習定
数と呼ばれる定数であり、急激な変化を押える役割を果
たしている。
ステップ5409では、この変化幅に基づいて、重み係
数Wk、+(k+J)を、 W kJ(k、 j) = W kJ(k、 j)+△
w t、j(k、 j)と、更新する。すなわち学習を
行なう。
次に、ステップ5410で、中間層の教師信号teac
h j(jlを計算する。そのために、先ず、Sum!
lJ=Σteach k(k)* WkJ(j、i)に
基づいて、出力層から、中間層の各素子への逆方向の寄
与を計算する。次にこのSum8Jから、中間層の教師
信号teach j(j)を以下の式により演算する。
teach j(j) = jout(j)*(1−j
out(j)l*sumgJ次に、ステップ5411で
、中間層の重み係数の変化幅△W 、+ l(j、 1
)を、△WJ+(j、i) =β*1out(i)*t
each j(j)+α*△WJl(jl) により計算する。
ステップ5412では、この変化幅に基づいて、重み係
数W J+ (j、i)を、W 11(j、 L) =
 W JIF+ 1)+△W J+ (j、 i)と、
更新する。すなわち学習を行なう。
こうして、ステップ8401〜412により、1組の入
力データとこれに対する理想出力とから、重み係数W 
4 、とWoとが1回学習された。
ステップ5413では、以上のような学習を全入力デー
タにつき行なったかを調べ、未だの場合は、ステップ8
401〜412を繰り返す。
ステップ5414では、所定の学習回数に達したかを調
べ、不足の場合は、ステップ3401〜413を繰り返
す。
以上がパックプロパゲーション法に基づいたニューラル
ネットワークの学習手順の説明である。
本発明では、以上のようにして確立されたニュラルネッ
トワークの中間層において、重み係数を乗じる部分を、
次のように変形する。
〈方法1〉 各WJ、について、2のべき乗(2°)の中で最も値が
近いものを新しくW、1とする。
〈方法2〉 各W、、lについて、所定個以下の2のべき乗の和の全
ての組み合わせ(1個を含む)の中で最も値が近いもの
を新しくW、、とする。
〈方法3〉 許容される最大誤差△Eを先ず設定する。
各W1.について、2のべき乗のうぢで、WJ、と最も
値が近いものとの差が△E以下であれば、それを新しく
W、、とする。
△E以下でない場合は、2のべき乗2個の和の中でWJ
、と最も値が近いものとの差が△E以下であれば、それ
を新しくW、3とする。
これも△E以下でない場合は、更に、3個の和、4個の
和、・・・と順に増やしていき、△E以下となるものが
得られるまで続しプる。
以上の方法1〜3において、W4.が2のべき乗2″と
なる場合は、入力にW、1を乗じる演算は、人力をnだ
けシフトすることにより実現される。
また、方法2または3において、W、lが2のべき乗の
和、例えば2” +2″+2’ となる場合は、入力に
WJ、を乗じる演算は、入力をそれぞれn、m、1だけ
シフトしたものの和をとることにより実現される。
従って、重み係数の乗算部分は、シフト演算、またはシ
フト演算と加算とにより達成される。
しかしながら、上述の方法によれば、WJ、を、学習で
得られた値に近いながらも、それとは異なる値とするた
めに、出力層で得られる値にも、若干の誤差が生じる。
その誤差が、ニューラルネットワークとしての許容範囲
外であれば、新しい重み係数W1.を固定して再学習を
行なってもよい。
再学習のフローヂャ−1・を第5図に示す。
第5図は、第4図における中間層の重み係数の更新に必
要なステップ8410〜5412が省略されている点で
第4図と異なり、他は同じように学習を行なう。従って
、固定された重み係数W、に基づく中間層よりの出力に
対して、出力層の重み係数WkJだけが再学習され、出
力層よりの出力の誤差が低減される。
本発明に係るニューラルネットワークの回路構成につい
て、更に詳細に説明する。
第1図は、中間層における1個のニューロンによる処理
を実現する中間部である。
BFはビットシフト部であり、入力信号を配線」ニシフ
トして加算器ADに人力させるものであり、実際の回路
があるわけではない。また、ADではシフトされた入力
を加算し、sigmoid関数テブルFTでは、ADに
よる加算結果に対してsigmoid関数を作用させた
結果が得られる。
第2図は、ニューラルネットワークの全体構成例である
第2図(a、 )は、3X3領域の2値画像をニュラル
ネットワークの入力とする場合の入力部の例である。
先ず、入力された2値データは、ラインバッファLBI
で1ライン分の遅延が行なわれ、次にラインバッファL
B2において、もう1ライン分の遅延が行なわれ、合計
2ライン分の遅延が行なわれる。遅延されていないデー
タ、1ライン分及び2ライン分遅延されたデータは、そ
れぞれ、ラッチL73〜5にラッチされて1画素分遅延
され、その出力はラッチL76〜8により、更に1画素
分の遅延を受ける。これらによる出力は、水平ライン方
向、および垂直画素方向に連続する3×3の領域の2値
データとして、2値PTデタとなる。
2値PTデータは、中間部に人力される。中間部では、
第1図につき説明したように、ビットシフトと加算とに
より、中間層における演算を行なう。中間部の出力は、
乗算器に入力され、出力層の重み係数W w 1が乗じ
られ、各乗算器の出力は、加算器により全て加算される
。加算器による加算結果は、関数演算部F Tによるテ
ーブル変換により、対応するsigmoid関数値を最
終結果として得る。
以上のように、本発明によれば、ニューロンにおける乗
算を、ビットシフトまたは、ビットシフトされたもの同
士の和に置き換えることが可能となる。
特に、本発明を2値化された画像から、多値画像への復
元のためのニューラルネットワークにおける中間層に適
用すれば、入力は0または1に限られ、これに対するビ
ットシフトの結果の加算のためには、高々数ビツト程度
の加算器で十分に演算が可能となる。従って、ニューラ
ルネットワークのハードウェアをLSIやゲートアレイ
で組むことが可能となる。
以上は、2値画像データの入力につき説明したが、他の
形式の人力データについても適用可能であることはいう
までもない。
[発明の効果コ 以上説明した如く、本発明によれば、ニューラルネット
ワークのニューロンにおける乗算を、ビットシフトまた
は、ビットシフト の和に置き換えることにより、回路規模を小さくするこ
とが可能となる。
【図面の簡単な説明】
第1図は、実施例のニューロンの構成図、第2図は、実
施例のニューラルネットワークの全体構成図、 第3図は、ニューラルネットワークの概念図、第4図は
、ニューラルネットワークの学習手順のフローチャー1
・、 第5図は、再学習手順のフローチャ−1・である。 1、2・・・ラインバッファ 3〜8・・・ラッチ BF・・・ピッi・シフト部 AD・・・加算器 FT・・・関数演算部

Claims (8)

    【特許請求の範囲】
  1. (1)入力層、1つ以上の中間層及び出力層を有するニ
    ューラルネットワークであって、一部の層における重み
    係数の乗算を、シフト演算により行なうことを特徴とす
    るニューラルネットワーク。
  2. (2)入力層、1つ以上の中間層及び出力層を有するニ
    ューラルネットワークであって、一部の層における重み
    係数の乗算を、シフト演算及び加算により行なうことを
    特徴とするニューラルネットワーク。
  3. (3)前記重み係数を2のべき乗に設定することを特徴
    とする請求項第1項記載のニューラルネットワーク。
  4. (4)前記重み係数を2のべき乗の和に設定することを
    特徴とする請求項第1項記載のニューラルネットワーク
  5. (5)入力層、1つ以上の中間層及び出力層を有し、学
    習により決定されたニューラルネットワークにおいて、
    ある層の重み係数に対して、もっとも近い2のべき乗を
    求め、当該重み係数の乗算部を、求められた2のべき乗
    を乗算するシフト演算部に置き換えたことを特徴とする
    ニューラルネットワークの構築方法。
  6. (6)入力層、1つ以上の中間層及び出力層を有し、学
    習により決定されたニューラルネットワークにおいて、
    ある層の重み係数に対して、所定数以下の2のべき乗和
    でもっとも近い値を求め、当該重み係数の乗算部を、求
    められた2のべき乗和の2のべき乗の各々を乗算するシ
    フト演算部とその結果を加算する加算部に置き換えたこ
    とを特徴とするニューラルネットワークの構築方法。
  7. (7)入力層、1つ以上の中間層及び出力層を有し、学
    習により決定されたニューラルネットワークにおいて、
    ある層の重み係数に対して、所定誤差以下となる2のべ
    き乗和による近似値を、和の項数を順次増やしながら求
    め、当該重み係数の乗算部を、求められた2のべき乗和
    の2のべき乗の各々を乗算するシフト演算部とその結果
    を加算する加算部に置き換えたことを特徴とするニュー
    ラルネットワークの構築方法。
  8. (8)前記重み係数を、求められた2のべき乗または2
    のべき乗和による近似値に固定して再学習を行ない、当
    該重み係数以外の係数を更新することを特徴とする請求
    項第5項乃至第7項記載のニューラルネットワークの構
    築方法。
JP2161904A 1990-06-14 1990-06-19 ニューラルネットワークの構築方法 Expired - Fee Related JP2862337B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2161904A JP2862337B2 (ja) 1990-06-19 1990-06-19 ニューラルネットワークの構築方法
DE69130656T DE69130656T2 (de) 1990-06-14 1991-06-13 Neuronale Netzwerke
EP91305363A EP0461902B1 (en) 1990-06-14 1991-06-13 Neural network
US08/026,093 US5719955A (en) 1990-06-14 1993-03-04 Data processing using neural networks having conversion tables in an intermediate layer
US08/969,832 US6243490B1 (en) 1990-06-14 1997-11-13 Data processing using neural networks having conversion tables in an intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161904A JP2862337B2 (ja) 1990-06-19 1990-06-19 ニューラルネットワークの構築方法

Publications (2)

Publication Number Publication Date
JPH0451384A true JPH0451384A (ja) 1992-02-19
JP2862337B2 JP2862337B2 (ja) 1999-03-03

Family

ID=15744231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161904A Expired - Fee Related JP2862337B2 (ja) 1990-06-14 1990-06-19 ニューラルネットワークの構築方法

Country Status (1)

Country Link
JP (1) JP2862337B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (ja) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology データ生成回路及びデータ生成方法
JP2008065477A (ja) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology データ処理装置及び方法
WO2019064774A1 (ja) * 2017-09-29 2019-04-04 ソニー株式会社 情報処理装置、および情報処理方法
WO2019181137A1 (ja) * 2018-03-23 2019-09-26 ソニー株式会社 情報処理装置および情報処理方法
JPWO2018131059A1 (ja) * 2017-01-10 2019-11-07 株式会社日立製作所 ニューラルネットワーク回路
JPWO2019168088A1 (ja) * 2018-03-02 2021-02-12 日本電気株式会社 推論装置、畳み込み演算実行方法及びプログラム
WO2021039164A1 (ja) * 2019-08-26 2021-03-04 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108205700B (zh) * 2016-12-20 2021-07-30 上海寒武纪信息科技有限公司 神经网络运算装置和方法
CN111383156B (zh) * 2018-12-29 2022-08-02 北京市商汤科技开发有限公司 图像处理方法、装置、智能驾驶***和车载运算平台
KR20210062485A (ko) 2019-11-21 2021-05-31 삼성전자주식회사 전자 장치 및 그 제어 방법

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (ja) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology データ生成回路及びデータ生成方法
JP2008065477A (ja) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology データ処理装置及び方法
JPWO2018131059A1 (ja) * 2017-01-10 2019-11-07 株式会社日立製作所 ニューラルネットワーク回路
US11531896B2 (en) 2017-01-10 2022-12-20 Hitachi, Ltd. Neural network circuit providing for operations with bit shifting and rounded values of weight information
JP6504331B1 (ja) * 2017-09-29 2019-04-24 ソニー株式会社 情報処理装置、および情報処理方法
JP2019091512A (ja) * 2017-09-29 2019-06-13 ソニー株式会社 情報処理装置、および情報処理方法
US11086969B2 (en) 2017-09-29 2021-08-10 Sony Corporation Information processing device and information processing method
WO2019064774A1 (ja) * 2017-09-29 2019-04-04 ソニー株式会社 情報処理装置、および情報処理方法
JPWO2019168088A1 (ja) * 2018-03-02 2021-02-12 日本電気株式会社 推論装置、畳み込み演算実行方法及びプログラム
US11960565B2 (en) 2018-03-02 2024-04-16 Nec Corporation Add-mulitply-add convolution computation for a convolutional neural network
WO2019181137A1 (ja) * 2018-03-23 2019-09-26 ソニー株式会社 情報処理装置および情報処理方法
JPWO2019181137A1 (ja) * 2018-03-23 2021-03-25 ソニー株式会社 情報処理装置および情報処理方法
US11768979B2 (en) 2018-03-23 2023-09-26 Sony Corporation Information processing device and information processing method
WO2021039164A1 (ja) * 2019-08-26 2021-03-04 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
JP2862337B2 (ja) 1999-03-03

Similar Documents

Publication Publication Date Title
JPH0451384A (ja) ニューラルネットワークの構築方法
EP0384709B1 (en) Learning Machine
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
JPH07121498A (ja) ニューラルネットワーク構築方法
JPH04229362A (ja) 学習機械
JPH0981723A (ja) 画像処理装置
JPH07141313A (ja) 神経回路素子
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH0451386A (ja) ニューラルネットワーク及びその構築方法
JP3262340B2 (ja) 情報処理装置
JPH0451383A (ja) ニューラルネットワーク
JPH0981535A (ja) ニューラルネットワークの学習方法
JP2859377B2 (ja) ニューラルネットを用いた画像処理方法および画像処理装置
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH0415882A (ja) 画質評価装置
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
JPH0620048A (ja) 画像処理装置
JPH0233655A (ja) 神経回路網型パターン処理装置
JPH0367358A (ja) 学習機械
JPH0430280A (ja) ニューラルネットワークの学習方法
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式
JPH0447474A (ja) ニューラルネットワークを用いた画像処理方式
JPH07319844A (ja) ニューラルネットワークの学習装置及びニューラルネットワークの学習方法
JPH0522586A (ja) 色変換システム

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees