JPH0243665A - ニューラルネットワーク装置 - Google Patents
ニューラルネットワーク装置Info
- Publication number
- JPH0243665A JPH0243665A JP63195035A JP19503588A JPH0243665A JP H0243665 A JPH0243665 A JP H0243665A JP 63195035 A JP63195035 A JP 63195035A JP 19503588 A JP19503588 A JP 19503588A JP H0243665 A JPH0243665 A JP H0243665A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- output
- circuit
- neural network
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 26
- 210000002569 neuron Anatomy 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 abstract description 5
- 230000008878 coupling Effects 0.000 abstract 3
- 238000010168 coupling process Methods 0.000 abstract 3
- 238000005859 coupling reaction Methods 0.000 abstract 3
- 210000000225 synapse Anatomy 0.000 abstract 3
- 230000000946 synaptic effect Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000002964 excitative effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、ニューラルネットワーク装置に関し。
特に学習過程において動的に変化する3値以上の重みを
持つニューラルネットワークの重み付き接続線(以下可
変シナプス結合と呼ぶ)を専用ハードウェアで実現する
ニューラルネットワーク装置に関する。
持つニューラルネットワークの重み付き接続線(以下可
変シナプス結合と呼ぶ)を専用ハードウェアで実現する
ニューラルネットワーク装置に関する。
最近、半導体技術やコンピュータ技術の発展に伴い、再
び米国を中心としてニューラルネットワークに関する研
究が盛んになり、またLSIや光学素子を用いてニュー
ラルネットワークをハードウェアで実現することも提案
されている。
び米国を中心としてニューラルネットワークに関する研
究が盛んになり、またLSIや光学素子を用いてニュー
ラルネットワークをハードウェアで実現することも提案
されている。
例えば、3層構層のニューラルネットワーク装置では、
ニューラルネットは入力層、中間層、および出力層から
構成され、各層を構成するユニットは各方向に可変シナ
プス結合で結ばれる。このため、あるユニットが複数の
入力を受ける場合、前段のユニットの出力と可変シナプ
ス結合の重みとの荷重総和が入力値となる。また入力層
の各ユニットに入力データを与えると、このデータは各
ユニットで変換されて中間層に伝わり、最後に出力層か
ら出力される。この際、実際の出力と望ましい出力(期
待値)とを比べ、その差が減少するように各可変シナプ
ス結合の重みを変化させる。
ニューラルネットは入力層、中間層、および出力層から
構成され、各層を構成するユニットは各方向に可変シナ
プス結合で結ばれる。このため、あるユニットが複数の
入力を受ける場合、前段のユニットの出力と可変シナプ
ス結合の重みとの荷重総和が入力値となる。また入力層
の各ユニットに入力データを与えると、このデータは各
ユニットで変換されて中間層に伝わり、最後に出力層か
ら出力される。この際、実際の出力と望ましい出力(期
待値)とを比べ、その差が減少するように各可変シナプ
ス結合の重みを変化させる。
また、このようなニューラルネットにおける学習のアル
ゴズムとしては、逆伝搬法(バック・プロパゲーション
)が代表的である。
ゴズムとしては、逆伝搬法(バック・プロパゲーション
)が代表的である。
このバック°プロパゲーションでは、入力データを与え
て実際に得る出力値と期待値との差を縮めるように、可
変シナプス結合の重みを変化させる手順を、出力層から
中間層、中間層から入力層というように順次移して行い
、この手順を繰り返す。これにより、入力データに対し
て望ましい出力データが得られるように可変シナプス結
合の重みを収束していく。
て実際に得る出力値と期待値との差を縮めるように、可
変シナプス結合の重みを変化させる手順を、出力層から
中間層、中間層から入力層というように順次移して行い
、この手順を繰り返す。これにより、入力データに対し
て望ましい出力データが得られるように可変シナプス結
合の重みを収束していく。
また、可変シナプス結合をハードウェアで実現する場合
、従来は増幅器で実現したニューロンがらの出力、ある
いはニューロンへの入力を電気的に接続したり、切断し
たりする方法が採用されていた。
、従来は増幅器で実現したニューロンがらの出力、ある
いはニューロンへの入力を電気的に接続したり、切断し
たりする方法が採用されていた。
この場合、可変シナプス結合の重みの値は−1(抑制性
接続あり)、O(接続なし)、+i(興奮性接続あり)
の3値を静的にプログラムすることが可能である。
接続あり)、O(接続なし)、+i(興奮性接続あり)
の3値を静的にプログラムすることが可能である。
なお、この種の装置として関連するものには。
例えば特願昭63−113238号が挙げられる。
また、従来のニューラルネット装置については、例えば
″米国を中心に加速するニューロコンピュータの研究・
開発2日経エレクトロニクス(1987年1月26日号
Lpρ、159〜1702日経マグロウヒル社”におい
て論じられている。
″米国を中心に加速するニューロコンピュータの研究・
開発2日経エレクトロニクス(1987年1月26日号
Lpρ、159〜1702日経マグロウヒル社”におい
て論じられている。
上記従来技術では、学習過程において動的に変化し、か
つ3値以上の重みを持つ可変シナプス結合を有するニュ
ーラルネットワーク、例えばバック・プロパゲーション
型ネットワークの可変シナプス結合の実現には適用でき
ないという問題があった・ 本発明の目的は、このような問題点を改善し、ニューラ
ルネットワークの可変シナプス結合を、書き換え可能な
記憶回路から構成された重み記憶回路と、前段のニュー
ロンの出力に可変シナプス結合の重みを乗算する乗算回
路とで構成することにより、学習過程において動的に変
化する3値以上の重みを持つニューラルネットワークの
可変シナプス結合をハードウェアで実現して、学習速度
および処理速度を向上するニューラルネットワーク装置
を提供することにある。
つ3値以上の重みを持つ可変シナプス結合を有するニュ
ーラルネットワーク、例えばバック・プロパゲーション
型ネットワークの可変シナプス結合の実現には適用でき
ないという問題があった・ 本発明の目的は、このような問題点を改善し、ニューラ
ルネットワークの可変シナプス結合を、書き換え可能な
記憶回路から構成された重み記憶回路と、前段のニュー
ロンの出力に可変シナプス結合の重みを乗算する乗算回
路とで構成することにより、学習過程において動的に変
化する3値以上の重みを持つニューラルネットワークの
可変シナプス結合をハードウェアで実現して、学習速度
および処理速度を向上するニューラルネットワーク装置
を提供することにある。
上記目的を達成するため、本発明のニューラルネットワ
ーク装置は、学習過程において動的に変化する3値以上
の重みを持つ可変シナプス結合を有するニューラルネッ
トワーク装置において、重み付き接続線を、書き換え可
能な記憶回路から構成された重み記憶回路と、前段のニ
ューロンの出力に重み付き接続線の重みを乗算する乗算
回路とで構成し、その重み記憶回路で重み付き接続線の
重みを保持して、前段のニューロンの出力とその重み記
憶回路に保持された重みとをその乗算回路で乗算して、
後段のニューロンに入力することに特徴がある。
ーク装置は、学習過程において動的に変化する3値以上
の重みを持つ可変シナプス結合を有するニューラルネッ
トワーク装置において、重み付き接続線を、書き換え可
能な記憶回路から構成された重み記憶回路と、前段のニ
ューロンの出力に重み付き接続線の重みを乗算する乗算
回路とで構成し、その重み記憶回路で重み付き接続線の
重みを保持して、前段のニューロンの出力とその重み記
憶回路に保持された重みとをその乗算回路で乗算して、
後段のニューロンに入力することに特徴がある。
本発明においては、多層構造型ニューラルネットワーク
装置の可変シナプス結合を、書き換え可能な重み記憶回
路と、前段のニューロンの出力に可変シナプス結合の重
みを乗算する乗算回路とで構成することにより、学習過
程で動的に変化する3値以上の重みを持つ可変シナプス
結合を専用ハードウェアで実現することができる。
装置の可変シナプス結合を、書き換え可能な重み記憶回
路と、前段のニューロンの出力に可変シナプス結合の重
みを乗算する乗算回路とで構成することにより、学習過
程で動的に変化する3値以上の重みを持つ可変シナプス
結合を専用ハードウェアで実現することができる。
例えば、重み記憶回路としてレジスタを用いた場合、学
習過程における入力層のあるユニットと中間層のあるユ
ニットを結ぶ可変シナプス結合の重みを記憶するため、
中間層のユニットは重みの符号および絶対値を示す2進
数のデータをレジスタに書き込み、レジスタはこれを保
持する。
習過程における入力層のあるユニットと中間層のあるユ
ニットを結ぶ可変シナプス結合の重みを記憶するため、
中間層のユニットは重みの符号および絶対値を示す2進
数のデータをレジスタに書き込み、レジスタはこれを保
持する。
また、入力層のユニットの出カイ直を0.1の2値とし
、乗算回路をANDゲートで構成した場合、その出力値
が0であれば1乗算回路のANDゲートの片方への入力
がOとなり、中間層のユニットへの入力値はOとなる。
、乗算回路をANDゲートで構成した場合、その出力値
が0であれば1乗算回路のANDゲートの片方への入力
がOとなり、中間層のユニットへの入力値はOとなる。
また入力層のユニットの出力値が1であれば、乗算回路
のANDゲートの片方への入力が1となり、ANDゲー
トの出力はレジスタの出力値と一致する。これにより、
前段のユニットの出力値に可変シナプス結合の重みを乗
算する。
のANDゲートの片方への入力が1となり、ANDゲー
トの出力はレジスタの出力値と一致する。これにより、
前段のユニットの出力値に可変シナプス結合の重みを乗
算する。
これらの回路で可変シナプス結合を構成することにより
、ニューラルネットワーク装置の学習速度および処理速
度を向上する。
、ニューラルネットワーク装置の学習速度および処理速
度を向上する。
以下、本発明の一実施例を図面により説明する。
第2図は、本発明を適用する多層構造型ニューラルネッ
トワークの構成図である。
トワークの構成図である。
第2図において、1は入力層のユニット(A。
B)、2は中間層のユニット(C,D)、3は出力層の
ユニット(E)である。また、矢印の付加された線6〜
11は重みを有する接続線(可変シナプス結合)、4,
5は入力層のユニットへの入力線、12は出力層のユニ
ットからの出力線である。なお、各1間の可変シナプス
結合には適当なアルゴリズム(例えばバック・プロパゲ
ーション・アルゴリズム)によって決定される重みが与
えられる。
ユニット(E)である。また、矢印の付加された線6〜
11は重みを有する接続線(可変シナプス結合)、4,
5は入力層のユニットへの入力線、12は出力層のユニ
ットからの出力線である。なお、各1間の可変シナプス
結合には適当なアルゴリズム(例えばバック・プロパゲ
ーション・アルゴリズム)によって決定される重みが与
えられる。
例えば、入力層のユニット1と中間層の二ニット2を結
ぶ可変シナプス結合の重みが+0.8で。
ぶ可変シナプス結合の重みが+0.8で。
ユニット1の出力が1の場合には、ユニット1からユニ
ット2への入力値は+0.8となる。
ット2への入力値は+0.8となる。
第1図は、本発明の一実施例における多層構造型ニュー
ラルネットワーク装置の層間を接続する可変シナプス結
合の構成図、第3図は本発明の一実施例における可変シ
ナプス結合の乗算回路の構成図である。
ラルネットワーク装置の層間を接続する可変シナプス結
合の構成図、第3図は本発明の一実施例における可変シ
ナプス結合の乗算回路の構成図である。
第1図において、13は入力層のユニット1と中間層の
ユニット2を接続する可変シナプス結合、14は書き換
え可能な重み記憶回路、15は(出力)×(重み)の乗
算回路、16は乗算回路15への入力線、17はユニッ
ト2からの出力線、18は重み記憶回路14への信号線
、19は乗算回路15への入力線、2oはユニット2へ
の入力線である。
ユニット2を接続する可変シナプス結合、14は書き換
え可能な重み記憶回路、15は(出力)×(重み)の乗
算回路、16は乗算回路15への入力線、17はユニッ
ト2からの出力線、18は重み記憶回路14への信号線
、19は乗算回路15への入力線、2oはユニット2へ
の入力線である。
また、接続線の重みを−0,1、−0,8,−0゜6、
−〇、4、−0.2.O1+0.2、+ ’0 、4、
+0.6、+0.8.+1.0という11個の値で与え
るものとし、適当な学習アルゴリズムにより重みの値が
動的に変化するものとする。またニューロンの出力値を
0または1の2値とする。
−〇、4、−0.2.O1+0.2、+ ’0 、4、
+0.6、+0.8.+1.0という11個の値で与え
るものとし、適当な学習アルゴリズムにより重みの値が
動的に変化するものとする。またニューロンの出力値を
0または1の2値とする。
まず、重み記憶回路14の動作について述べる。
なお、本実施例では重み記憶回路としてレジスタを用い
る。
る。
いま、学習過程でのある時刻におけるユニット1とユニ
ッ、ト2を結ぶ可変シナプス結合13の重みが+0.8
であったとする。
ッ、ト2を結ぶ可変シナプス結合13の重みが+0.8
であったとする。
この場合、ユニット2は入力線18を介して、重み記憶
回路であるレジスタ14に2進数で「1101」という
データを書き込む、なお、このデータの第1ビツトは重
みの符号を示しく1のとき正、0のときOまたは負)、
残り3ビツトは重みの絶対値を与える。
回路であるレジスタ14に2進数で「1101」という
データを書き込む、なお、このデータの第1ビツトは重
みの符号を示しく1のとき正、0のときOまたは負)、
残り3ビツトは重みの絶対値を与える。
これにより、第1ビツトが1なので重みの符号は正、残
り3ビツトは2進数で「101」なので10進数で5を
示し、重みの絶対値は5である。
り3ビツトは2進数で「101」なので10進数で5を
示し、重みの絶対値は5である。
従って、0から数えて5番目の重み、つまり+0゜8と
なる。
なる。
このように1本実施例ではレジスタ14によって可変シ
ナプス結合13の重みを記憶する。
ナプス結合13の重みを記憶する。
次に、乗算回路15の動作について述べる。なお、本実
施例では、第3図のように乗算回路15をANDゲート
21で構成し、これによりニューロンの2値の出力に3
値以上の重みを乗算する。
施例では、第3図のように乗算回路15をANDゲート
21で構成し、これによりニューロンの2値の出力に3
値以上の重みを乗算する。
例えば、入力層のユニット1の出方が0の場合、(出力
)×(重み)の乗算回路15内にあるANDゲート21
への片方の入力が0となるため、その出力はレジスタ1
4の出力値に拘らず0となり、ユニット2への入カイ直
も0となる。またユニットAの出力が1の場合には、(
出力)×(重み)の乗算回路15内にあるANDゲート
21への片方の入力が1となるため、その出力はレジス
タ14の出方値と一致する。
)×(重み)の乗算回路15内にあるANDゲート21
への片方の入力が0となるため、その出力はレジスタ1
4の出力値に拘らず0となり、ユニット2への入カイ直
も0となる。またユニットAの出力が1の場合には、(
出力)×(重み)の乗算回路15内にあるANDゲート
21への片方の入力が1となるため、その出力はレジス
タ14の出方値と一致する。
このように、(出力)×(重み)の乗算回路15は入力
層のユニット1の出力(0または1)と可変シナプス結
合の重みを乗算する。
層のユニット1の出力(0または1)と可変シナプス結
合の重みを乗算する。
なお、本実施例では、入力層のユニット1と中間層のユ
ニット2とを結ぶ可変シナプス結合13について述べた
が、他のシナプス結合についても同様に専用ハードウェ
アで実現できる。
ニット2とを結ぶ可変シナプス結合13について述べた
が、他のシナプス結合についても同様に専用ハードウェ
アで実現できる。
また、重みの値の数を11個とした場合について述べた
が、この数は容易に拡張することができることも明らか
である。
が、この数は容易に拡張することができることも明らか
である。
さらに、ニューロンの出力値を0,1の2値とした場合
について述べたが、0.1の2値以外である場合につい
ても、本実施例を応用することにより容易に可変シナプ
ス結合を専用ハードウェアで構成することができる。
について述べたが、0.1の2値以外である場合につい
ても、本実施例を応用することにより容易に可変シナプ
ス結合を専用ハードウェアで構成することができる。
本発明によれば、ニューラルネットワークの可変シナプ
ス結合を、書き換え可能な記憶回路と乗算回路とで構成
できるため、学習過程において動的に変化する3値以上
の重みを持つニューラルネットワークの可変シナプス結
合を専用ハードウェアで実現することが可能である。
ス結合を、書き換え可能な記憶回路と乗算回路とで構成
できるため、学習過程において動的に変化する3値以上
の重みを持つニューラルネットワークの可変シナプス結
合を専用ハードウェアで実現することが可能である。
また、汎用ハードウェア上にソフトウェアで可変シナプ
ス結合を実現する方法に比べ、学習速度および処理速度
を向上することができる。
ス結合を実現する方法に比べ、学習速度および処理速度
を向上することができる。
第1図は本発明の一実施例における多層構造型ニューラ
ルネットワーク装置の層間を接続する可変シナプス結合
の構成図、第2図は本発明を適用する多層構造型ニュー
ラルネットワークの構成図、第3図は本発明の一実施例
における可変シナプス結合の乗算回路の構成図である。 1:入力層のユニット(A、B)、2 :中間層のユニ
ット(C,D)、3 :出力層のユニット(E)。 4.5:入力層のユニットへの入力線、6〜11:重み
を有する接続線(可変シナプス結合)、12:出力層の
ユニットからの出力線、13:可変シナプス結合、14
:書き換え可能な重み記憶回路(レジスタ)、15:(
出力)×(重み)の乗算回路。 16二乗算回路15への入力線、17:ユニット2から
の出力線、18:重み記憶回路14への信号線、19:
乗算回路15への入力線、2o:ユニット2への入力線
。 特許出願人 日本電信電話株式会社 代理人 弁理士 磯 村 雅 俊
ルネットワーク装置の層間を接続する可変シナプス結合
の構成図、第2図は本発明を適用する多層構造型ニュー
ラルネットワークの構成図、第3図は本発明の一実施例
における可変シナプス結合の乗算回路の構成図である。 1:入力層のユニット(A、B)、2 :中間層のユニ
ット(C,D)、3 :出力層のユニット(E)。 4.5:入力層のユニットへの入力線、6〜11:重み
を有する接続線(可変シナプス結合)、12:出力層の
ユニットからの出力線、13:可変シナプス結合、14
:書き換え可能な重み記憶回路(レジスタ)、15:(
出力)×(重み)の乗算回路。 16二乗算回路15への入力線、17:ユニット2から
の出力線、18:重み記憶回路14への信号線、19:
乗算回路15への入力線、2o:ユニット2への入力線
。 特許出願人 日本電信電話株式会社 代理人 弁理士 磯 村 雅 俊
Claims (1)
- (1) 学習過程において動的に変化する3値以上の重
みを持つ重み付き接続線を有するニューラルネットワー
ク装置において、該重み付き接続線を、書き換え可能な
記憶回路で構成した重み記憶回路と、前段のニューロン
の出力に該重み付き接続線の重みを乗算する乗算回路と
で構成し、該重み記憶回路で該重み付き接続線の重みを
保持して、前段のニューロンの出力と該重み記憶回路に
保持された重みとを該乗算回路で乗算して、後段のニュ
ーロンに入力することを特徴とするニューラルネットワ
ーク装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63195035A JPH0243665A (ja) | 1988-08-04 | 1988-08-04 | ニューラルネットワーク装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63195035A JPH0243665A (ja) | 1988-08-04 | 1988-08-04 | ニューラルネットワーク装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0243665A true JPH0243665A (ja) | 1990-02-14 |
Family
ID=16334459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63195035A Pending JPH0243665A (ja) | 1988-08-04 | 1988-08-04 | ニューラルネットワーク装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0243665A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0540839A (ja) * | 1991-08-02 | 1993-02-19 | Fujitsu Ltd | 画像形成装置 |
US5287533A (en) * | 1990-06-28 | 1994-02-15 | Sharp Kabushiki Kaisha | Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition |
-
1988
- 1988-08-04 JP JP63195035A patent/JPH0243665A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5287533A (en) * | 1990-06-28 | 1994-02-15 | Sharp Kabushiki Kaisha | Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition |
JPH0540839A (ja) * | 1991-08-02 | 1993-02-19 | Fujitsu Ltd | 画像形成装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5444822A (en) | Semiconductor integrated circuit device carrying out parallel operational processing with electronically implemented neural network | |
US6151594A (en) | Artificial neuron and method of using same | |
US5257218A (en) | Parallel carry and carry propagation generator apparatus for use with carry-look-ahead adders | |
US4761760A (en) | Digital adder-subtracter with tentative result correction circuit | |
KR950001601B1 (ko) | 뉴-럴 네트워크 회로 | |
CN113805842B (zh) | 一种基于超前进位加法器实现的存算一体装置 | |
US5016211A (en) | Neural network implementation of a binary adder | |
US5347613A (en) | MOS multi-layer neural network including a plurality of hidden layers interposed between synapse groups for performing pattern recognition | |
JPH05282272A (ja) | ニューラルネットワーク並列分散処理装置 | |
JPH0243665A (ja) | ニューラルネットワーク装置 | |
KR930009065B1 (ko) | 다층신경회로망 및 그 회로설계방법 | |
US5586223A (en) | High speed segmented neural network and fabrication method | |
JPH07210534A (ja) | ニューラルネットワーク | |
EP0841621B1 (en) | Learning method in binary systems | |
JPH04229362A (ja) | 学習機械 | |
US4879675A (en) | Parity generator circuit and method | |
JPH04182769A (ja) | デジタル・ニューロプロセッサ | |
JPH04237388A (ja) | ニューロプロセッサ | |
CN116523011B (zh) | 基于忆阻的二值神经网络层电路及二值神经网络训练方法 | |
JPH05165987A (ja) | 信号処理装置 | |
JPH10207691A (ja) | アレイ方法による高速インクリメンタ | |
JPH05128285A (ja) | ニユーロプロセツサ | |
JPH07210542A (ja) | ニューロン回路 | |
US20220222044A1 (en) | Multiplication-and-accumulation circuits and processing-in-memory devices having the same | |
US20240143277A1 (en) | Artificial intelligence accelerators |