JPH0243665A - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JPH0243665A
JPH0243665A JP63195035A JP19503588A JPH0243665A JP H0243665 A JPH0243665 A JP H0243665A JP 63195035 A JP63195035 A JP 63195035A JP 19503588 A JP19503588 A JP 19503588A JP H0243665 A JPH0243665 A JP H0243665A
Authority
JP
Japan
Prior art keywords
weight
output
circuit
neural network
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63195035A
Other languages
English (en)
Inventor
Kazuhiro Obara
小原 和博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63195035A priority Critical patent/JPH0243665A/ja
Publication of JPH0243665A publication Critical patent/JPH0243665A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワーク装置に関し。
特に学習過程において動的に変化する3値以上の重みを
持つニューラルネットワークの重み付き接続線(以下可
変シナプス結合と呼ぶ)を専用ハードウェアで実現する
ニューラルネットワーク装置に関する。
〔従来技術〕
最近、半導体技術やコンピュータ技術の発展に伴い、再
び米国を中心としてニューラルネットワークに関する研
究が盛んになり、またLSIや光学素子を用いてニュー
ラルネットワークをハードウェアで実現することも提案
されている。
例えば、3層構層のニューラルネットワーク装置では、
ニューラルネットは入力層、中間層、および出力層から
構成され、各層を構成するユニットは各方向に可変シナ
プス結合で結ばれる。このため、あるユニットが複数の
入力を受ける場合、前段のユニットの出力と可変シナプ
ス結合の重みとの荷重総和が入力値となる。また入力層
の各ユニットに入力データを与えると、このデータは各
ユニットで変換されて中間層に伝わり、最後に出力層か
ら出力される。この際、実際の出力と望ましい出力(期
待値)とを比べ、その差が減少するように各可変シナプ
ス結合の重みを変化させる。
また、このようなニューラルネットにおける学習のアル
ゴズムとしては、逆伝搬法(バック・プロパゲーション
)が代表的である。
このバック°プロパゲーションでは、入力データを与え
て実際に得る出力値と期待値との差を縮めるように、可
変シナプス結合の重みを変化させる手順を、出力層から
中間層、中間層から入力層というように順次移して行い
、この手順を繰り返す。これにより、入力データに対し
て望ましい出力データが得られるように可変シナプス結
合の重みを収束していく。
また、可変シナプス結合をハードウェアで実現する場合
、従来は増幅器で実現したニューロンがらの出力、ある
いはニューロンへの入力を電気的に接続したり、切断し
たりする方法が採用されていた。
この場合、可変シナプス結合の重みの値は−1(抑制性
接続あり)、O(接続なし)、+i(興奮性接続あり)
の3値を静的にプログラムすることが可能である。
なお、この種の装置として関連するものには。
例えば特願昭63−113238号が挙げられる。
また、従来のニューラルネット装置については、例えば
″米国を中心に加速するニューロコンピュータの研究・
開発2日経エレクトロニクス(1987年1月26日号
Lpρ、159〜1702日経マグロウヒル社”におい
て論じられている。
〔発明が解決しようとする課題〕
上記従来技術では、学習過程において動的に変化し、か
つ3値以上の重みを持つ可変シナプス結合を有するニュ
ーラルネットワーク、例えばバック・プロパゲーション
型ネットワークの可変シナプス結合の実現には適用でき
ないという問題があった・ 本発明の目的は、このような問題点を改善し、ニューラ
ルネットワークの可変シナプス結合を、書き換え可能な
記憶回路から構成された重み記憶回路と、前段のニュー
ロンの出力に可変シナプス結合の重みを乗算する乗算回
路とで構成することにより、学習過程において動的に変
化する3値以上の重みを持つニューラルネットワークの
可変シナプス結合をハードウェアで実現して、学習速度
および処理速度を向上するニューラルネットワーク装置
を提供することにある。
〔課題を解決するための手段〕
上記目的を達成するため、本発明のニューラルネットワ
ーク装置は、学習過程において動的に変化する3値以上
の重みを持つ可変シナプス結合を有するニューラルネッ
トワーク装置において、重み付き接続線を、書き換え可
能な記憶回路から構成された重み記憶回路と、前段のニ
ューロンの出力に重み付き接続線の重みを乗算する乗算
回路とで構成し、その重み記憶回路で重み付き接続線の
重みを保持して、前段のニューロンの出力とその重み記
憶回路に保持された重みとをその乗算回路で乗算して、
後段のニューロンに入力することに特徴がある。
〔作用〕
本発明においては、多層構造型ニューラルネットワーク
装置の可変シナプス結合を、書き換え可能な重み記憶回
路と、前段のニューロンの出力に可変シナプス結合の重
みを乗算する乗算回路とで構成することにより、学習過
程で動的に変化する3値以上の重みを持つ可変シナプス
結合を専用ハードウェアで実現することができる。
例えば、重み記憶回路としてレジスタを用いた場合、学
習過程における入力層のあるユニットと中間層のあるユ
ニットを結ぶ可変シナプス結合の重みを記憶するため、
中間層のユニットは重みの符号および絶対値を示す2進
数のデータをレジスタに書き込み、レジスタはこれを保
持する。
また、入力層のユニットの出カイ直を0.1の2値とし
、乗算回路をANDゲートで構成した場合、その出力値
が0であれば1乗算回路のANDゲートの片方への入力
がOとなり、中間層のユニットへの入力値はOとなる。
また入力層のユニットの出力値が1であれば、乗算回路
のANDゲートの片方への入力が1となり、ANDゲー
トの出力はレジスタの出力値と一致する。これにより、
前段のユニットの出力値に可変シナプス結合の重みを乗
算する。
これらの回路で可変シナプス結合を構成することにより
、ニューラルネットワーク装置の学習速度および処理速
度を向上する。
〔実施例〕
以下、本発明の一実施例を図面により説明する。
第2図は、本発明を適用する多層構造型ニューラルネッ
トワークの構成図である。
第2図において、1は入力層のユニット(A。
B)、2は中間層のユニット(C,D)、3は出力層の
ユニット(E)である。また、矢印の付加された線6〜
11は重みを有する接続線(可変シナプス結合)、4,
5は入力層のユニットへの入力線、12は出力層のユニ
ットからの出力線である。なお、各1間の可変シナプス
結合には適当なアルゴリズム(例えばバック・プロパゲ
ーション・アルゴリズム)によって決定される重みが与
えられる。
例えば、入力層のユニット1と中間層の二ニット2を結
ぶ可変シナプス結合の重みが+0.8で。
ユニット1の出力が1の場合には、ユニット1からユニ
ット2への入力値は+0.8となる。
第1図は、本発明の一実施例における多層構造型ニュー
ラルネットワーク装置の層間を接続する可変シナプス結
合の構成図、第3図は本発明の一実施例における可変シ
ナプス結合の乗算回路の構成図である。
第1図において、13は入力層のユニット1と中間層の
ユニット2を接続する可変シナプス結合、14は書き換
え可能な重み記憶回路、15は(出力)×(重み)の乗
算回路、16は乗算回路15への入力線、17はユニッ
ト2からの出力線、18は重み記憶回路14への信号線
、19は乗算回路15への入力線、2oはユニット2へ
の入力線である。
また、接続線の重みを−0,1、−0,8,−0゜6、
−〇、4、−0.2.O1+0.2、+ ’0 、4、
+0.6、+0.8.+1.0という11個の値で与え
るものとし、適当な学習アルゴリズムにより重みの値が
動的に変化するものとする。またニューロンの出力値を
0または1の2値とする。
まず、重み記憶回路14の動作について述べる。
なお、本実施例では重み記憶回路としてレジスタを用い
る。
いま、学習過程でのある時刻におけるユニット1とユニ
ッ、ト2を結ぶ可変シナプス結合13の重みが+0.8
であったとする。
この場合、ユニット2は入力線18を介して、重み記憶
回路であるレジスタ14に2進数で「1101」という
データを書き込む、なお、このデータの第1ビツトは重
みの符号を示しく1のとき正、0のときOまたは負)、
残り3ビツトは重みの絶対値を与える。
これにより、第1ビツトが1なので重みの符号は正、残
り3ビツトは2進数で「101」なので10進数で5を
示し、重みの絶対値は5である。
従って、0から数えて5番目の重み、つまり+0゜8と
なる。
このように1本実施例ではレジスタ14によって可変シ
ナプス結合13の重みを記憶する。
次に、乗算回路15の動作について述べる。なお、本実
施例では、第3図のように乗算回路15をANDゲート
21で構成し、これによりニューロンの2値の出力に3
値以上の重みを乗算する。
例えば、入力層のユニット1の出方が0の場合、(出力
)×(重み)の乗算回路15内にあるANDゲート21
への片方の入力が0となるため、その出力はレジスタ1
4の出力値に拘らず0となり、ユニット2への入カイ直
も0となる。またユニットAの出力が1の場合には、(
出力)×(重み)の乗算回路15内にあるANDゲート
21への片方の入力が1となるため、その出力はレジス
タ14の出方値と一致する。
このように、(出力)×(重み)の乗算回路15は入力
層のユニット1の出力(0または1)と可変シナプス結
合の重みを乗算する。
なお、本実施例では、入力層のユニット1と中間層のユ
ニット2とを結ぶ可変シナプス結合13について述べた
が、他のシナプス結合についても同様に専用ハードウェ
アで実現できる。
また、重みの値の数を11個とした場合について述べた
が、この数は容易に拡張することができることも明らか
である。
さらに、ニューロンの出力値を0,1の2値とした場合
について述べたが、0.1の2値以外である場合につい
ても、本実施例を応用することにより容易に可変シナプ
ス結合を専用ハードウェアで構成することができる。
〔発明の効果〕
本発明によれば、ニューラルネットワークの可変シナプ
ス結合を、書き換え可能な記憶回路と乗算回路とで構成
できるため、学習過程において動的に変化する3値以上
の重みを持つニューラルネットワークの可変シナプス結
合を専用ハードウェアで実現することが可能である。
また、汎用ハードウェア上にソフトウェアで可変シナプ
ス結合を実現する方法に比べ、学習速度および処理速度
を向上することができる。
【図面の簡単な説明】
第1図は本発明の一実施例における多層構造型ニューラ
ルネットワーク装置の層間を接続する可変シナプス結合
の構成図、第2図は本発明を適用する多層構造型ニュー
ラルネットワークの構成図、第3図は本発明の一実施例
における可変シナプス結合の乗算回路の構成図である。 1:入力層のユニット(A、B)、2 :中間層のユニ
ット(C,D)、3 :出力層のユニット(E)。 4.5:入力層のユニットへの入力線、6〜11:重み
を有する接続線(可変シナプス結合)、12:出力層の
ユニットからの出力線、13:可変シナプス結合、14
:書き換え可能な重み記憶回路(レジスタ)、15:(
出力)×(重み)の乗算回路。 16二乗算回路15への入力線、17:ユニット2から
の出力線、18:重み記憶回路14への信号線、19:
乗算回路15への入力線、2o:ユニット2への入力線
。 特許出願人 日本電信電話株式会社 代理人 弁理士 磯 村 雅 俊

Claims (1)

    【特許請求の範囲】
  1. (1) 学習過程において動的に変化する3値以上の重
    みを持つ重み付き接続線を有するニューラルネットワー
    ク装置において、該重み付き接続線を、書き換え可能な
    記憶回路で構成した重み記憶回路と、前段のニューロン
    の出力に該重み付き接続線の重みを乗算する乗算回路と
    で構成し、該重み記憶回路で該重み付き接続線の重みを
    保持して、前段のニューロンの出力と該重み記憶回路に
    保持された重みとを該乗算回路で乗算して、後段のニュ
    ーロンに入力することを特徴とするニューラルネットワ
    ーク装置。
JP63195035A 1988-08-04 1988-08-04 ニューラルネットワーク装置 Pending JPH0243665A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63195035A JPH0243665A (ja) 1988-08-04 1988-08-04 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63195035A JPH0243665A (ja) 1988-08-04 1988-08-04 ニューラルネットワーク装置

Publications (1)

Publication Number Publication Date
JPH0243665A true JPH0243665A (ja) 1990-02-14

Family

ID=16334459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63195035A Pending JPH0243665A (ja) 1988-08-04 1988-08-04 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JPH0243665A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540839A (ja) * 1991-08-02 1993-02-19 Fujitsu Ltd 画像形成装置
US5287533A (en) * 1990-06-28 1994-02-15 Sharp Kabushiki Kaisha Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287533A (en) * 1990-06-28 1994-02-15 Sharp Kabushiki Kaisha Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition
JPH0540839A (ja) * 1991-08-02 1993-02-19 Fujitsu Ltd 画像形成装置

Similar Documents

Publication Publication Date Title
US5444822A (en) Semiconductor integrated circuit device carrying out parallel operational processing with electronically implemented neural network
US6151594A (en) Artificial neuron and method of using same
US5257218A (en) Parallel carry and carry propagation generator apparatus for use with carry-look-ahead adders
US4761760A (en) Digital adder-subtracter with tentative result correction circuit
KR950001601B1 (ko) 뉴-럴 네트워크 회로
CN113805842B (zh) 一种基于超前进位加法器实现的存算一体装置
US5016211A (en) Neural network implementation of a binary adder
US5347613A (en) MOS multi-layer neural network including a plurality of hidden layers interposed between synapse groups for performing pattern recognition
JPH05282272A (ja) ニューラルネットワーク並列分散処理装置
JPH0243665A (ja) ニューラルネットワーク装置
KR930009065B1 (ko) 다층신경회로망 및 그 회로설계방법
US5586223A (en) High speed segmented neural network and fabrication method
JPH07210534A (ja) ニューラルネットワーク
EP0841621B1 (en) Learning method in binary systems
JPH04229362A (ja) 学習機械
US4879675A (en) Parity generator circuit and method
JPH04182769A (ja) デジタル・ニューロプロセッサ
JPH04237388A (ja) ニューロプロセッサ
CN116523011B (zh) 基于忆阻的二值神经网络层电路及二值神经网络训练方法
JPH05165987A (ja) 信号処理装置
JPH10207691A (ja) アレイ方法による高速インクリメンタ
JPH05128285A (ja) ニユーロプロセツサ
JPH07210542A (ja) ニューロン回路
US20220222044A1 (en) Multiplication-and-accumulation circuits and processing-in-memory devices having the same
US20240143277A1 (en) Artificial intelligence accelerators