JP3229624B2 - 多層神経回路網及びその回路設計方法 - Google Patents

多層神経回路網及びその回路設計方法

Info

Publication number
JP3229624B2
JP3229624B2 JP20699191A JP20699191A JP3229624B2 JP 3229624 B2 JP3229624 B2 JP 3229624B2 JP 20699191 A JP20699191 A JP 20699191A JP 20699191 A JP20699191 A JP 20699191A JP 3229624 B2 JP3229624 B2 JP 3229624B2
Authority
JP
Japan
Prior art keywords
layer
input
output
neuron
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP20699191A
Other languages
English (en)
Other versions
JPH04245098A (ja
Inventor
鎬 宣 鄭
孝 鎭 韓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JPH04245098A publication Critical patent/JPH04245098A/ja
Application granted granted Critical
Publication of JP3229624B2 publication Critical patent/JP3229624B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Semiconductor Integrated Circuits (AREA)
  • Logic Circuits (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は多層神経回路網とその回
路設計方法に係り、特に多層神経回路網のVLSI回路
具現を容易に達成できる多層神経回路網とその回路設計
方法に関する。
【0002】
【従来の技術】最近、パターン認識分野において、実時
間処理のために大規模の並列処理のできる神経回路網の
導入が活発に進行されつつある。1988年ベル研究所
のHans P・Grafらはマトリックス状の抵抗性
結合素子を通じて、それらの入出力が相互連結される増
幅器で神経回路のシナプス(synaps)とニューロ
ン(neuron)を構成し、ニューロンとニューロン
との間の連結のために一対のメモリセル(RAM)に記
憶された内容に応じてスイッチングされる一対のスイッ
チを具備したパターン認識神経回路網を発表した。
【0003】本発明者はPMOSまたはNMOSトラン
ジスタでシナプスを構成し、一対のCMOSインバータ
を従属連結したバッファでニューロンを構成した神経回
路を用いて、加算器(アメリカ出願第07/473,6
53号)、積算器(第07/473,633号)、A/
D変換器(第07/473,631号、07/473,
634号)、パターン分類器(第07/473,464
号)等を出願中である。上述の従来の神経回路は、単層
神経回路網モデルを用いたもので、線形的に分離可能な
問題が解決できるが、線形的に分離できない非線形的な
問題は解決できなかった。従ってその適用範囲が極めて
制限的であることは不可避であった。例えば、排他論理
和回路、即ちXOR回路は単層神経回路網をもってはそ
の解が求められなかった。このような単層神経回路網の
制限性は多層神経回路網により克服でき、多層神経回路
網はエラー逆行伝達アルゴリズム(Back Prop
agation)により学習されうることが知られてい
る(1987年4月発刊されたIEEE ASSP M
AGAZINE 4〜22頁参照)。
【0004】
【発明が解決しようとする課題】多層神経回路網をハー
ドウェアに具現する時コンピュータによるソフトウェア
にシミュレーションする時とは異なり多くの制約が伴わ
れる。神経回路網のハードウェア具現は、現在のVLS
I技術に依存すべきであるが、神経回路の連結加重値と
非線形関数の回路的な具現でソフトウェアシミュレーシ
ョンでのように自由でない。また、ソフトウェアではフ
ローティングポイントを用いた実数演算をし、神経回路
網の接続とノードの数を多くすることができるが、これ
をVLSIに具現するにおいては種々の問題が生ずる。
【0005】従って、本発明の目的はこのような従来の
技術の問題を解決するために連結加重値を定数とし、段
階関数を有する多層神経回路網を提供することである。
【0006】本発明の他の目的は前記多層神経回路網を
新たな学習ルールにより設計するための多層神経回路網
の回路設計方法を提供することである。
【0007】
【課題を解決するための手段】前述した目的を達成する
ために、本発明の多層神経回路網は、mビットの入力を
受信してnビットの出力を発生する多層神経回路網にお
いて、一対のCMOSインバータを従属連結し、前記一
対のCMOSインバータのうち前段のCMOSインバー
タの出力ノードをその反転出力ノードとし、後段のCM
OSインバータの出力ノードをその非反転出力ノードと
するニューロンと、前記ニューロンをm個具備して前記
mビットの入力を受信する入力層と、前記ニューロンを
n個具備して前記nビットの出力を発生する出力層と、
前記ニューロンをn個具備して各々の層が前記入力層
はそのすぐ前段の下位層から受信された入力を前記出力
層及びその上位の総ての隠匿層に伝達するための少なく
とも一層以上の隠匿層と、前記入力層の各ニューロンの
出力を前記出力層及び前記少なくとも一つ以上の隠匿層
の各ニューロンに連結するためにそれぞれ所定の加重値
を有するマトリックス状の入力シナプス群と、前記隠匿
層の各ニューロンの出力をその上位の総ての隠匿層及び
前記出力層の各ニューロンに連結するためにそれぞれ所
定の加重値を有するマトリックス状の少なくとも一つ以
上の伝達シナプス群と、前記少なくとも一つ以上の隠匿
層及び前記出力層の各ニューロンの入力ノードをバイア
スするためのバイアスシナプス群を具備してなり、前記
入力シナプス群は前記出力層と前記少なくとも一層以上
の隠匿層の各ニューロンの入力ノードに前記入力層の各
ニューロンに受信される入力ビット値が“1”の場合は
連結加重値がポジティブであれば、前記入力層の各ニュ
ーロンの反転出力ノードにゲートの連結されたPMOS
トランジスタを通じて前記連結加重値の連結強さで第1
電源電圧を結合し、連結加重値がネガティブであれば、
前記入力層の各ニューロンの非反転出力ノードにゲート
の連結されたNMOSトランジスタを通じて前記連結加
重値の連結強さで第2電源電圧を結合し、前記入力ビッ
ト値が“0”の場合は連結加重値がポジティブであれ
ば、前記入力層の各ニューロンの非反転出力ノードにゲ
ートの連結されたPMOSトランジスタを通じて前記連
結加重値の連結強さで第1電源電圧を結合し、連結加重
値がネガティブであれば、前記入力層の各ニューロンの
反転出力ノードにゲートの連結されたNMOSトランジ
スタを通じて前記連結加 重値の連結強さで第2電源電圧
を結合し、前記入力ビット値が“1”または“0”の場
合、連結加重値の値が“0”であれば何の連結もせず、
前記伝達シナプス群は前記隠匿層のうちその上位の総て
の隠匿層及び出力層の各ニューロンの入力ノードに、前
記入力シナプス群と同一の方式で隠匿層の各ニューロン
の反転及び非反転出力ノードを連結するためのPMOS
またはNMOSトランジスタよりなることを特徴とす
る。
【0008】
【0009】前述した他の目的を達成するための本発明
の方法は、mビットの入力を受信してnビットの出力を
発生する前述した多層神経回路網の回路設計方法におい
て、前記入力シナプス群の連結加重値を初期化する第1
段階と、前記mビットの入力値とこの入力に対応するn
ビットの所望の出力値を設定する第2段階と、前記出力
層の各ニューロンの入力ノードで入力の加重値の和を求
め、階段関数により実際の出力を発生する第3段階と、
前記第3段階で得られた実際の出力値と第2段階で設定
された前記所望の出力値とを比較して誤差を計算し、こ
の誤差値により算出された加重値の変化分を貯蔵する第
4段階と、前記第2段階から第4段階までは2m 個の総
ての入出力対に対して行い、総ての出力値が所望の出力
値と等しければ学習を終え、そうでなければこの時の貯
蔵された加重値変化分の和をそれぞれ求めて、現在の各
加重値に加えて新たな加重値を求める第5段階と、前記
出力層の各ニューロンの入力ノードで前記第5段階で得
られた新たな加重値の和が定められた値以上の場合は一
定比率で加重値をそれぞれ減少させる第6段階と、定め
られた学習回数の間前記第6段階までを繰り返した後、
所望の結果が得られない場合は前記出力層を隠匿層と
し、新たな出力層を増加させその下位の総ての隠匿層の
出力と前記本来の入力を新たな入力として前記第2段階
から繰り返して行う第7段階よりなることを特徴とす
る。
【0010】
【作用】請求項1〜に記載された本発明の多層神経回
路網を請求項4,5に記載された本発明の多層神経回路
網の回路設計方法に従って動作させることにより、神経
回路網のVLSI回路具現を容易に達成でき、さらに回
路の簡略化が可能になる。
【0011】
【実施例】以下、本発明にかかる多層神経回路網および
その回路設計方法の好適な実施例を添付した図面を参照
して説明する。
【0012】図1は一般の多層神経回路網の概念図で、
これは入力ノードと出力ノードとの間に少なくとも一層
以上のノードを有するフィードフォーワード回路網であ
る。これらの追加層は入力ノード及び出力ノードの両側
に直接に連結されない隠匿ユニットまたはノードを含
む。3層神経回路網は、図1に示したように入力層L0
と出力層L3との間に2層の隠匿層L1,L2を有す
る。入力層L0は、入力X0 1 2 3 4を受信す
るために5個のニューロンユニットまたはノードNO1
〜NO5を有する。隠匿層L1,L2は、それぞれ3個
のニューロンユニットまたはノードN11〜N13,N
21〜N23を有し、出力層L3は出力Y 0 1 2
発生するために3個のニューロンユニットまたはノード
N31〜N33を有する。ここで、各層のニューロンユ
ニットの数は回路システムの入出力ビット数に従って決
定されることに留意すべきである。各層のニューロンユ
ニットまたはノードは、自分のすぐ前段の下位層の総て
のニューロンユニットからのみ連結(connecti
on)を受信する。
【0013】前記従来の多層神経回路網は、既知のエラ
ー逆行伝達アルゴリズム(BackPropagati
on Training Algorithm)により
学習されるが、このBPTAにおいては図2に示したグ
ラフ特性を有し、次の式(1)に表示されるシグモイド
関数を用いる。
【0014】
【数3】
【0015】しかし、前記シグモイド関数は指数関数な
ので、ハードウェア的に具現するにおいて困難性及び回
路の複雑性等の問題を有している。
【0016】また、2進化された入力と階段関数を用い
る場合従来の多層神経回路網は、層間の連結構造により
互いに異なる入力値に対して等しい値を有することがで
き、このようになれば上位層で入力値を区分しにくくな
る問題が生ずる。
【0017】図3は本発明による多層神経回路網の概念
図で、各層のニューロンユニットまたはノードはその下
位の総ての層の総てのニューロンユニットのみならず、
入力層の総てのニューロンユニットから連結される構成
が図1の多層神経回路網とは異なる。他の構成は図1と
同様なので同一符号を処理する。また、このような本発
明の多層神経回路網の学習においては図4に示したグラ
フ特性を有し、次の式(2)に表示されるステップ関数
を用いる。なお、このステップ関数に用いられるハード
リミット非線形関数fh(N)は、変数Nが0未満のと
き−1となり、変数Nが0以上のとき+1となる関数で
ある。
【0018】
【数4】
【0019】本発明による多層神経回路網は次の学習ア
ルゴリズムに従って回路設計される。
【0020】第1段階:総てのノード間の連結加重値を
初期化する。
【0021】第2段階:入力と所望の出力対を入出力に
提示する。
【0022】ここで、入力はmビットの2進値で総2m
個を有し、出力はnビットの2進値で入力に対応して2
m 個を有する。従って、互いに異なる入力に対して等し
い出力値を有することもある。
【0023】第3段階:各ノードで入力の加重値和を求
め、ステップ関数により実際の出力を発生する。
【0024】ここでステップ関数は上記(2)式を用い
る。
【0025】第4段階:出力ノードで所望の出力値と前
記第3段階で得られた実際の出力値とを比較して誤差を
計算し、この誤差値による加重値の変化分を貯蔵する。
【0026】即ち、誤差(δ)は δ=所望の出力−実際の出力 であり、加重値変化分(ΔW)は ΔW=δ×入力である。
【0027】第5段階:前記第2段階から第4段階まで
の過程を総ての入出力対について行い、総ての実際の出
力値が所望の出力値と等しければ学習(learnin
g)を終え、そうでなければこの時の加重値変化分(Δ
W)の総和をそれぞれの加重値に足す。
【0028】即ち、新たな加重値(WT )は、 WT =WT-1 +ΣΔW になる。ここでTは学習回数を示す。
【0029】第6段階:各ノードで入力に対する新たな
加重値WT の和が定められた値M以上の場合は一定比率
で加重値WT の値を減らす。
【0030】即ち、加重値WT は次の式により減少させ
る。
【0031】
【数5】
【0032】ここでWT はT回学習結果得られた加重値
である。
【0033】第7段階:前記新たな加重値WT を有して
前記第2段階から再び行って、定められた学習回数ほど
繰り返した後、所望の結果が得られない場合は現在の出
力総を隠匿層とし、新たな出力層を増加させた後下位の
総ての隠匿層の出力と本来の入力を新たな入力にして前
記第2段階から繰り返す。
【0034】即ち、学習はまず単層の学習から行い、そ
の結果所望の出力値の総てが正しく得られれば学習を終
え、ある与えられた回数ほど学習を繰り返した後にも結
果が正しく得られなければさらに一つの層を増やす。増
えた新たな層では、本来の入力とその下位の総ての隠匿
層の不完全な実際出力を新たな入力にして、次の層を学
習する過程を繰り返すことになる。この際初めの学習で
の出力層の役割が隠匿層に変わることになる。即ち次の
層では、入力が総ての隠匿層の出力数ほど増えることを
除いては1番目層の学習と同様の方法で学習が繰り返さ
れる。前記学習過程で加重値の変更は、一つの入力が加
える度にそれぞれの加重値の変化量を貯蔵しておいてか
ら総ての入力を適用させた後、総加重値の変化量の和を
加重値に加えて新たな加重値にさせる方式で行われる。
【0035】ここで一つのニューロンが、比較すべき加
重値の和がある定められた値M以上の場合は各加重値に
対して前記(3)式を適用して一定比率に減少させるこ
とにより加重値の和をM値以内に制限させる。
【0036】このような学習を通じて特定入出力に対し
最終的に得られた加重値を有する多層神経回路網は、
図5の(A)に示したようにCMOSインバータ、PM
OS及びNMOSトランジスタで具現する。図5の
(A)において、3層神経回路網は5ビットの入力と3
ビットの出力を有する。従って入力層L0は、5個のニ
ューロンN01〜N05とを、2個の隠匿層L1,L2
と1個の出力層L3は、それぞれ3個のニューロンN1
1〜N13,N21〜N23,N31〜N33を有す
る。ここで各層のニューロンは、図5の(B)に示した
ように一対のCMOSインバータINT1,INT2を
従属連結したもので、前段のCMOSインバータINT
1の出力ノードを反転出力ノードNDBにし、後段のC
MOSインバータINT2の出力ノードを非反転出力ノ
ードNDにするバッファで構成する。そして入力層の各
ニューロンと出力層の各ニューロンを連結するためのシ
ナプスは、次の方式に従ってPMOS及びNMOSトラ
ンジスタで構成する。
【0037】図5の(B)を参照するに各シナプスの
PMOSトランジスタ、NMOSトランジスタは、入力
ニューロンINに受信される入力ビット値が“1”の場
合は前述した学習により最終的に得られた加重値、即ち
連結加重値がポジティブであれば、前記入力ニューロン
INの反転出力ノードNDBにゲートの連結されたPM
OSトランジスタを通じて前記連結加重値の連結強さで
第1電源電圧、例えば供給電圧Vccを出力ニューロン
ONの入力ノードINDに結合されるようにし(図面で
“B”)、ネガティブであれば、前記入力ニューロンI
Nの非反転出力ノードNDにゲートの連結されたNMO
Sトランジスタを通じて前記連結加重値の連結強さで第
2電源電圧、例えば接地電圧GNDまたはVssを前記
出力ニューロンONの入力ノードINDに結合されるよ
うにする(図面で“C”)。
【0038】また、入力ニューロンINに受信される入
力ビット値が“0”の場合は、最終的に得られた連結加
重値がポジティブであれば、前記入力ニューロンINの
非反転出力ノードNDにゲートの連結さたPMOSト
ランジスタを通じて前記連結加重値の連結強さで第1電
源電圧Vccを出力ニューロンONの入力ノードIND
に結合されるようにし(図面で“A”)、ネガティブで
あれば、前記入力ニューロンINの反転出力ノードND
Bにゲートの連結されたNMOSトランジスタを通じて
前記連結加重値の連結強さで第2電源電圧GNDまたは
Vssを前記出力ニューロンONの入力ノードINDに
結合されるようにする(図面で“D”)。前記入力ビッ
ト値が“1”または“0”の場合、連結加重値が“0”
であればどの連結もしないようにする
【0039】このような方式で図5の(A)の入力シナ
プス群S1と伝達シナプス群S2,S3の各シナプスの
PMOS及びNMOSトランジスタ構成する。ここで
入力層L0の各ニューロンは、2個の隠匿層L1,L2
及び出力層L3の総てのニューロンの各入力ノードに上
述のマトリックス状の入力シナプス群S1を通じて連結
される隠匿層L1の各ニューロンは、総ての上位隠匿層
L2及び出力層L3の各ニューロンの入力ノードに上述
のマトリックス状の伝達シナプス群S2を通じて連結さ
れる。同様、隠匿層L2の各ニューロンは、出力層L3
の各ニューロンの入力ノードにマトリックス状の伝達シ
ナプス群S3を通じて連結される。
【0040】また、図5の(A)の2個の隠匿層L1,
L2及び出力層L3の総てのニューロンの入力ノード
は、それぞれバイアスシナプス群S4を通じて第2電源
電圧VssまたはGNDにバイアスされる。バイアスシ
ナプス群S4は入力の印加されない状態で各ニューロン
の入力ノードを第2電源電圧VssまたはGNDでバイ
アスさせることにより、各ニューロンの出力を“0”値
にバイアスさせるためにゲートに第1電源電圧Vccが
供給され、ドレインが各ニューロンの入力ノードに連結
されソースが第2電源電圧VssまたはGNDに連結さ
れたNMOSトランジスタで構成される。
【0041】ここでバイアスシナプス用NMOSトラン
ジスタは、単位加重値の連結強さを有するようにその幾
何学的形成比(チャンネル幅W/チャンネル長さL)を
有する。例えば、単位加重値NMOSトランジスタのW
/L値が2μm/2μmであるものを加重値にする場
合、PMOSトランジスタのW/L値は5μm/2μm
であるものにする。これは電子及び正孔移動度の比を考
慮して設定され、各加重値の値はこれらの単位加重値の
倍数で与えられる。この倍数は定数である。従って、前
記式(2)で“+1”の常数項はバイアスシナプス値を
考慮した常数項である。図5の(B)に示すPMOSト
ランジスタA,B及びNMOSトランジスタC,Dそれ
ぞれの幾何学的形成比は、前述の学習アルゴリズムで決
定された加重値に基づきバイアスシナプス用トランジス
タが有する幾何学的形成比を基準として決定される。
【0042】このような本発明の多層神経回路網を2ビ
ット全加算器と螺旋パターン認識回路に適用した実施例
は次の通りである。
【0043】〈実施例1〉2ビット全加算器 2ビット前記加算器は次の表1のように2ビットの加
数、2ビットと被加数及び1ビットのキャリ入力の5ビ
ット入力を有し3ビットの出力を有する。
【0044】
【表1】
【0045】前記入出力を前述した本発明の多層神経
路網の回路設計方法に従って学習した結果、この2ビッ
ト全加算器は3層の神経回路網で実現され得ることが分
かり、学習によって次の表2のようなシナプスの各加重
値を得た。この加重値(連結加重値)を有するように各
シナプスのPMOSトランジスタ、NMOSトランジス
タを構成することによって対応する多層神経回路網を実
現することが出来る。
【0046】
【表2】
【0047】〈実施例2〉螺旋パターン認識回路 螺旋パターン認識回路は図6に示したXY座標平面上の
XY値の6ビット入力と1ビット出力を有する。この入
出力値を前述した本発明の多層神経回路網の回路設計方
法に従って学習した結果、図7に示したように9層神経
回路網で所望の結果が得られた。
【0048】
【発明の効果】以上述べたように、本発明は学習の可能
な多層神経回路網をCMOS VLSI技術でハードウ
ェア化を容易に実現でき、従って従来の多層神経理論を
用いた信号処理システムのソフトウェア方式に比べて高
速動作が可能である。
【図面の簡単な説明】
【図1】従来の多層神経回路網の概念図である。
【図2】従来の多層神経回路網の学習で使用したシグモ
イド関数の特性グラフ線図である。
【図3】本発明による多層神経回路網の概念図である。
【図4】本発明による多層神経回路網の学習で使用した
ステップ関数の特性グラフ線図である。
【図5】(A)は本発明による多層神経回路網の一実施
例回路図、(B)は(A)のシナプス構造を説明するた
めの部分回路図である。
【図6】XY座標上の螺旋パターン図である。
【図7】本発明による多層神経回路網の回路設計方法に
従う図6Aの螺旋パターンを、学習を通じて得た各層の
螺旋パターン図である。
【符号の説明】 L0 入力層 L1,L2 隠匿層 L3 出力層 N01〜N05,N11〜N13,N21〜N23,N
31〜N33,… ニューロンまたはノード INT1,INT2 CMOSインバータ S1 入力シナプス群 S2,S3 伝達シナプス群 S4 バイアスシナプス群

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 mビットの入力を受信してnビットの出
    力を発生する多層神経回路網において、 一対のCMOSインバータを従属連結し、前記一対のC
    MOSインバータのうち前段のCMOSインバータの出
    力ノードをその反転出力ノードとし、後段のCMOSイ
    ンバータの出力ノードをその非反転出力ノードとするニ
    ューロンと、 前記ニューロンをm個具備して前記mビットの入力を受
    信する入力層と、 前記ニューロンをn個具備して前記nビットの出力を発
    生する出力層と、 前記ニューロンをn個具備して各々の層が前記入力層又
    はそのすぐ前段の下位層から受信された入力を前記出力
    層およびその上位の総ての隠匿層に伝達するための少な
    くとも一層以上の隠匿層と、 前記入力層の各ニューロンの出力を前記出力層及び前記
    少なくとも一つ以上の隠匿層の各ニューロンに連結する
    ためにそれぞれ所定の加重値を有するマトリックス状の
    入力シナプス群と、 前記隠匿層の各ニューロンの出力をその上位の総ての隠
    匿層及び前記出力層の各ニューロンに連結するためにそ
    れぞれ所定の加重値を有するマトリックス状の少なくと
    も一つ以上の伝達シナプス群と、 前記少なくとも一つ以上の隠匿層及び前記出力層の各ニ
    ューロンの入力ノードを一定電圧にバイアスするための
    バイアスシナプス群を具備してなり、 前記入力シナプス群は前記出力層と前記少なくとも一層
    以上の隠匿層の各ニューロンの入力ノードに前記入力層
    の各ニューロンに受信される入力ビット値が“1”の場
    合は連結加重値がポジティブであれば、前記入力層の各
    ニューロンの反転出力ノードにゲートの連結されたPM
    OSトランジスタを通じて前記連結加重値の連結強さで
    第1電源電圧を結合し、連結加重値がネガティブであれ
    ば、前記入力層の各ニューロンの非反転出力ノードにゲ
    ートの連結されたNMOSトランジスタを通じて前記連
    結加重値の連結強さで第2電源電圧を結合し、 前記入力ビット値が“0”の場合は連結加重値がポジテ
    ィブであれば、前記入力層の各ニューロンの非反転出力
    ノードにゲートの連結されたPMOSトランジスタを通
    じて前記連結加重値の連結強さで第1電源電圧を結合
    し、連結加重値がネガティブであれば、前記入力層の各
    ニューロンの反転出力ノードにゲートの連結されたNM
    OSトランジスタを通じて前記連結加重値の連結強さで
    第2電源電圧を結合し、 前記入力ビット値が“1”または“0”の場合、連結加
    重値の値が“0”であれば何の連結もせず、 前記伝達シナプス群は前記隠匿層のうちその上位の総て
    の隠匿層及び出力層の各ニューロンの入力ノードに、前
    記入力シナプス群と同一の方式で隠匿層の各ニューロン
    の反転及び非反転出力ノードを連結するためのPMOS
    またはNMOSトランジスタよりなることを特徴とする
    多層神経回路網。
  2. 【請求項2】 前記バイアスシナプス群は前記出力層及
    び前記少なくとも一層以上の隠匿層の各ニューロンの入
    力ノードを単位加重値の連結強さで前記第2電源電圧に
    バイアスさせるためにゲートに前記第1電源電圧が結合
    されるNMOSトランジスタよりなることを特徴とする
    請求項第1項記載の多層神経回路網。
  3. 【請求項3】 前記シナプス群の各加重値の連結強さは
    MOSトランジスタの幾何学的形状比(チャンネル幅/
    チャンネル長さ)で設定することを特徴とする請求項第
    2項記載の多層神経回路網。
  4. 【請求項4】 mビットの入力を受信してnビットの出
    力を発生する多層神経回路網において、一対のCMOS
    インバータを従属連結し、前記一対のCMOSインバー
    タのうち前段のCMOSインバータの出力ノードをその
    反転出力ノードとし、後段のCMOSインバータの出力
    ノードをその非反転出力ノードとするニューロンと、前
    記ニューロンをm個具備して前記mビットの入力を受信
    する入力層と、前記ニューロンをn個具備して前記nビ
    ットの出力を発生する出力層と、前記ニューロンをn個
    具備して各々の層が前記入力層又はそのすぐ前段の下位
    層から受信された入力を前記出力層及びその上位の総て
    の隠匿層に伝達するための少なくとも一層以上の隠匿層
    と、前記入力層の各ニューロンの出力を前記出力層及び
    前記少なくとも一つ以上の隠匿層の各ニューロンに連結
    するためにそれぞれ所定の加重値を有するマトリックス
    状の入力シナプス群と、前記隠匿層の各ニューロンの出
    力をその上位の総ての隠匿層及び前記出力層の各ニュー
    ロンに連結するためにそれぞれ所定の加重値を有するマ
    トリックス状の少なくとも一つ以上の伝達シナプス群
    と、前記少なくとも一つ以上の隠匿層及び前記出力層の
    各ニューロンの入力ノードを一定電圧にバイアスするた
    めのバイアスシナプス群を具備した多層神経回路網の回
    路設計方法において、 前記入力シナプス群の連結加重値を初期化する第1段階
    と、 前記mビットの入力値とこの入力に対応するnビットの
    所望の出力値を前記入力層と出力層の入出力に提示する
    第2段階と、 前記出力層の各ニューロンの入力ノードで入力の加重値
    の和を求め、段階関数により実際の出力を発生する第3
    段階と、 前記第3段階で得られた実際の出力値と前記所望の出力
    値とを比較して誤差を計算し、この誤差値による加重値
    の変化分を貯蔵する第4段階と、 前記第2段階から第4段階までは2m 個の総ての入出力
    対に対して行い、総ての出力値が所望の出力値と等しけ
    れば学習を終え、そうでなければこの時の貯蔵された加
    重値変化分の和をそれぞれ求めて、現在の各加重値に対
    して新たな加重値を求める第5段階と、 前記出力層の各ニューロンの入力ノードで前記第5段階
    で得られた新たな加重値の和が定められた値以上の場合
    は一定比率で加重値をそれぞれ減少させる第6段階と、 定められた学習回数の間前記第6段階までを繰り返した
    後、所望の結果が得られない場合は前記出力層を隠匿層
    とし、新たな出力層を増加させその下位の総ての隠匿層
    の出力と前記本来の入力を新たな入力として前記第2段
    階から繰り返して行う第7段階よりなることを特徴とす
    る多層神経回路網の回路設計方法。
  5. 【請求項5】 前記ステップ関数は次の式で表現される
    ことを特徴とする請求項第項記載の多層神経回路網の
    回路設計方法。 【数1】
JP20699191A 1990-08-18 1991-08-19 多層神経回路網及びその回路設計方法 Expired - Lifetime JP3229624B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR12915/1990 1990-08-18
KR1019900012915A KR930009066B1 (ko) 1990-08-18 1990-08-18 다층신경회로망 및 그 회로설계방법

Publications (2)

Publication Number Publication Date
JPH04245098A JPH04245098A (ja) 1992-09-01
JP3229624B2 true JP3229624B2 (ja) 2001-11-19

Family

ID=19302592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20699191A Expired - Lifetime JP3229624B2 (ja) 1990-08-18 1991-08-19 多層神経回路網及びその回路設計方法

Country Status (4)

Country Link
US (1) US5347613A (ja)
JP (1) JP3229624B2 (ja)
KR (1) KR930009066B1 (ja)
FR (1) FR2665969B1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438241B2 (ja) * 1992-10-29 2003-08-18 直 柴田 半導体神経回路装置
US5486999A (en) * 1994-04-20 1996-01-23 Mebane; Andrew H. Apparatus and method for categorizing health care utilization
US5717833A (en) * 1996-07-05 1998-02-10 National Semiconductor Corporation System and method for designing fixed weight analog neural networks
US6513023B1 (en) 1999-10-01 2003-01-28 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Artificial neural network with hardware training and hardware refresh
TWI251166B (en) * 2001-11-26 2006-03-11 Expl Of Next Generation Co Ltd Synapse element with learning function and semiconductor integrated circuit device including the synapse element
US10410117B2 (en) 2008-09-21 2019-09-10 Brainchip, Inc. Method and a system for creating dynamic neural function libraries
DE102011081197A1 (de) 2011-08-18 2013-02-21 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Modellierung eines technischen Systems
RU2475843C1 (ru) * 2011-12-15 2013-02-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Национальный исследовательский Томский государственный университет" (ТГУ) Адаптивное управляющее устройство, нейроподобный базовый элемент и способ организации работы такого устройства
CN105512723B (zh) * 2016-01-20 2018-02-16 南京艾溪信息科技有限公司 一种用于稀疏连接的人工神经网络计算装置和方法
US20190378017A1 (en) * 2018-06-12 2019-12-12 Sun-Yuan Kung System and method for implementing a neural network

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8720387D0 (en) * 1987-08-28 1987-10-07 British Telecomm Matching vectors
US5092343A (en) * 1988-02-17 1992-03-03 Wayne State University Waveform analysis apparatus and method using neural network techniques
EP0366804B1 (en) * 1988-03-25 1997-12-10 Hitachi, Ltd. Method of recognizing image structures
US4926180A (en) * 1988-03-25 1990-05-15 Trustees Of Columbia University In The City Of New York Analog to digital conversion using correlated quantization and collective optimization
US5220641A (en) * 1988-10-11 1993-06-15 Kabushiki Kaisha Toshiba Multi-layer perceptron circuit device
EP0377221B1 (en) * 1988-12-29 1996-11-20 Sharp Kabushiki Kaisha Neuro-computer
DE69032680T2 (de) * 1989-01-06 1999-06-02 Hitachi, Ltd., Tokio/Tokyo Neuronaler Rechner
KR920000840B1 (ko) * 1989-02-02 1992-01-30 정호선 신경회로망을 이용한 a/d변환기 회로
KR920007505B1 (ko) * 1989-02-02 1992-09-04 정호선 신경회로망을 이용한 곱셈기
US5195169A (en) * 1989-03-03 1993-03-16 Sharp Kabushiki Kaisha Control device for controlling learning of a neural network
US5195171A (en) * 1989-04-05 1993-03-16 Yozan, Inc. Data processing system
US5187680A (en) * 1989-06-15 1993-02-16 General Electric Company Neural net using capacitive structures connecting input lines and differentially sensed output line pairs
US5146542A (en) * 1989-06-15 1992-09-08 General Electric Company Neural net using capacitive structures connecting output lines and differentially driven input line pairs
US5214743A (en) * 1989-10-25 1993-05-25 Hitachi, Ltd. Information processing apparatus
FR2658337A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise.
FR2658336A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones en couches pour classification multiclasses et reseau de neurones en couches.
US5087826A (en) * 1990-12-28 1992-02-11 Intel Corporation Multi-layer neural network employing multiplexed output neurons

Also Published As

Publication number Publication date
FR2665969B1 (fr) 1994-12-09
FR2665969A1 (fr) 1992-02-21
US5347613A (en) 1994-09-13
KR930009066B1 (ko) 1993-09-22
KR920005005A (ko) 1992-03-28
JPH04245098A (ja) 1992-09-01

Similar Documents

Publication Publication Date Title
WO2019220975A1 (ja) ニューラルネットワーク回路装置、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
JPH0713950A (ja) 人工ニューロンおよびその使用方法
JP3229624B2 (ja) 多層神経回路網及びその回路設計方法
Hirotsu et al. An analog neural network chip with random weight change learning algorithm
Gardner et al. Training with noise and the storage of correlated patterns in a neural network model
JP3229623B2 (ja) 多層神経回路網及びその回路設計方法
US5485548A (en) Signal processing apparatus using a hierarchical neural network
Zhang et al. Arithmetic for digital neural networks
JPH07210534A (ja) ニューラルネットワーク
RU2168713C2 (ru) Способы обучения в двоичных системах
JP3114276B2 (ja) 階層型ニューラルネットワークの学習方法
JPH05165987A (ja) 信号処理装置
JPH09185596A (ja) パルス密度型信号処理回路網における結合係数更新方法
Cao et al. A local search based learning method for multiple-valued logic networks
Chakraborty et al. CMOS Implementation of a Piecewise Linear Activation Function Based Neuron Unit for Neural Network Accelerator
Bhatti Performance analysis and comparison of a minimum interconnections direct storage model with traditional neural bidirectional memories
Biederman et al. Design of a neural network-based digital multiplier
KR940005512B1 (ko) 신경 회로망의 비선형 시냅스회로
JPH0243665A (ja) ニューラルネットワーク装置
JP3253613B2 (ja) 信号処理装置
Gi et al. Implementation of STDP Learning for Non-volatile Memory-based Spiking Neural Network using Comparator Metastability
JPH04112355A (ja) 自己学習型アナログ方式ニューロン回路
Esfandiarpoor et al. Simplified neural network based on auxiliary layer and adaptive pruning rate
Masmoudi et al. A hardware implementation of neural network for the recognition of printed numerals
Choi et al. Implementation of MEBP learning circuitry with simple nonlinear synapse circuits

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080907

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080907

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090907

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 10

EXPY Cancellation because of completion of term