JPH0675933A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JPH0675933A
JPH0675933A JP4228304A JP22830492A JPH0675933A JP H0675933 A JPH0675933 A JP H0675933A JP 4228304 A JP4228304 A JP 4228304A JP 22830492 A JP22830492 A JP 22830492A JP H0675933 A JPH0675933 A JP H0675933A
Authority
JP
Japan
Prior art keywords
layer
value
neuron
learning
connection weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4228304A
Other languages
English (en)
Inventor
Miki Takeuchi
幹 竹内
Takao Watabe
隆夫 渡部
Yoshinobu Nakagome
儀延 中込
Masakazu Aoki
正和 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4228304A priority Critical patent/JPH0675933A/ja
Publication of JPH0675933A publication Critical patent/JPH0675933A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Read Only Memory (AREA)

Abstract

(57)【要約】 【目的】 本発明の目的は、予め論理設計することな
く、ニューラルネットワークの簡便な学習法によって所
望のプロセッサの機能を獲得できる情報処理装置を提供
することにある。 【構成】 3層の階層型ニューラルネットワークにおい
て、2層目と3層目との間の結合重み値は固定し、1層
目と2層目との間の結合重み値のみ学習で変化させる。
2層目と3層目との間の結合重み値は、興奮性のものか
ら抑制性のものまでアナログ値で幅広く分布させてお
く。 【効果】 2層間の学習で3層の階層型ニューラルネッ
トワークが形成できるので、VLSIに好適な簡便なア
ーキテクチャで学習が実現でき、かつ3層構造なので複
雑な演算が可能なニューラルネットワークが提供され
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習機能を有する階層
型ニューラルネットワークを用いた情報処理装置に関す
るものである。
【0002】
【従来の技術】生体の脳の高度な情報処理システムをモ
デル化したニューロコンピューティングと呼ばれる新し
い情報処理方式が注目を集めている。ニューロコンピュ
ーティングの例はたとえばニューラルネットワーク情報
処理(産業図書、麻生英樹著)などに述べられている。
【0003】ニューロコンピューティングの重要な利点
のひとつは、適当な入力値にたいして所望の出力値が得
られるプロセッサを、予め論理設計することなく、学習
によって造ることができることにある。すなわち、与え
られた入力値に対して所望の出力値が得られるように、
結合重み値と呼ばれる多数のパラメータを繰返し変化さ
せることにより、所望の入出力関係をもつプロセッサを
実現できる。
【0004】生体系の学習メカニズムは、まだ十分解明
されていないが、いくつかの人工的なモデルが提案され
ている。例えば、ニューラルネットワーク情報処理(産
業図書、麻生英樹著)などに述べられているバックプロ
パゲーション法などはその代表的な方法の一つである。
【0005】
【発明が解決しようとする課題】しかしながら、このよ
うな従来の人工的なモデルは複雑であり、数多くのニュ
ーロンを用いようとすると学習にかかる時間が膨大にな
るという欠点があった。また、LSI上に実現するため
には、微分回路などの複雑な論理回路が数多く必要であ
るという欠点もあった。従って、学習機能をもつ大規模
なネットワークを小さなLSIチップ上に実現するのは
困難であった。
【0006】
【課題を解決するための手段】3層の階層型ニューラル
ネットワークにおいて、2層目と3層目との間の結合重
み値は固定し、1層目と2層目との間の結合重み値のみ
学習で変化させる。2層目と3層目との間の結合重み値
は、興奮性のものから抑制性のものまでアナログ値で幅
広く分布させておく。
【0007】
【作用】2層目と3層目との間の結合重み値が固定され
ているので、学習時間が短縮でき、またLSI化も容易
となる。しかも、2層間の学習でありながら、3層ネッ
トワークに近い性能が得られる。なぜなら、例えばネッ
トワークをカテゴリ分類に用いる場合、2層目の中間ニ
ューロン群はあるカテゴリに入るか否かを判別するうえ
で手がかりとなる特徴を抽出する働きをもつ。その際、
結合重み値の固定は、2層目のニューロンが肯定的な特
徴を抽出し、どのニューロンが否定的な特徴を抽出する
かを初めからげんていするに過ぎない。また、通常数多
くのニューロンで構成されるニューラルネットワークで
は、予め準備した結合重み値のうち、最適値に適合する
値をもつ2層目ニューロンが高い確率で存在する。
【0008】なお、学習法としてはHebbian学習
法を用いると、より学習時間を短縮できる。
【0009】
【実施例】図1に本発明の一実施例を示す。図1(a)
に示すように、3層の階層型ネットワークにおいて、2
層目と3層目との間の結合重み値は固定され、1層目と
2層目との間の結合重み値のみ学習で決定される。そし
て、2層目と3層目との間の結合重み値は、図1(b)
に示すように、強い興奮性から強い抑制性までの特性を
持つ連続的な幅広い分布を持つ。結合重み値がアナログ
値で与えられるのに対し、各ニューロンは、たとえばV
ccと0との2値をとる。3層目の出力ニューロンの値
Voは、次式で与えられる。
【0010】Vo=(Vcc/2)(F(V2(i))/|F(V2(i))|+1) VoはF(V2(i))が正のときVccに、負のとき
0になる。ここで F(V2(i))=ΣW2(i)V2(i)-VOth である。VOthは3層目ニューロンのしきい値であ
る。W2(x)は、たとえば、 W2(x)=a(1/[1+exp{(x-n/2)/T}]-0.5) のような0を平均値としたフェルミ分布で与えられる。
本発明の階層型ネットワークでは、任意の入力値が所望
の分類に入るか入らないかの2値の判断を行う。たとえ
ば、2次元画像のビットパターンを1層目のニューロン
に入力したとき、それが直線であれば3層目のニューロ
ンがVcc、すなわち興奮状態になり、直線でなければ
0、すなわち平静状態になるといった判断を行う。2層
目のニューロンは、この判断を行う上で必要になる、入
力値の特徴を抽出するための役割を持つ。以下に述べる
学習の結果、V2(1)は所望の分類の特徴を強く示す
ニューロンとなり、入力値にその特徴が見られる場合に
強く興奮する。反対に、V2(n)は所望の分類に属さ
ないことを示す特徴を抽出するニューロンとなる。その
他の2層目のニューロンのうち、より正に大きなW2
(i)につながるものほど、「所望の分類に属する可能
性がより高いことを示す特徴」を抽出するニューロンと
なる。また、より負に大きなW2(i)につながるもの
ほど、「所望の分類に属しない可能性がより高いことを
示す特徴」を抽出するニューロンとなる。本発明の実施
例によれば、可変な結合重み値は1層目と2層目との間
だけなので、VLSI化がより容易な3層のニューラル
ネットワークが実現できる。
【0011】図2は、図1の実施例における学習方法を
示す、本発明の実施例である。学習は、1層目と2層目
との間の結合重み値に対してのみ行われる。2層目のニ
ューロンに対する教師信号D2(j)として、図2
(b)に示すようなものを与える。すなわち、ある入力
群V1(i)に対し、VoがVccになることが望まれ
るとき、D2(j)には、P(j)の確率でVccを、
1−P(j)の確率で0を与える。逆にVoが0である
べき場合にはP(j)の確率で0を与える。ここで、確
率といっているのは、ニューラルネットワークの学習は
多くの入力群に対して繰返し行い、同一の入力群に対し
ても複数回学習を行う場合があるからである。P(j)
は、W2(j)と正の相関を持つ関数、たとえば、 P(j)=b/[1+exp{(j-n/2)/T} のようなフェルミ分布で与えられる。以上の学習の結
果、V2(1)は所望の分類の特徴を最もよく示すニュ
ーロンとしての性格を獲得し、反対に、V2(n)は所
望の分類には属さないことを判断するための最も顕著な
特徴を示すニューロンとしての性格を獲得する。本発明
の実施例によれば、3層のニューラルネットワークにお
ける学習を2層のニューラルネットワークと同様に行う
ことができるので、たとえばよく知られた2層のニュー
ラルネットワークに対するHebbianの学習則を用
いることにより、学習が容易に行え、かつ3層のニュー
ラルネットワークなので複雑な演算が行なえる効果があ
る。
【0012】図3は、図2の実施例とほぼ同様な原理
で、VLSIで実現するのにより好適な学習方法を示
す、本発明の別の実施例である。学習は、図2と同様に
1層目と2層目との間の結合重み値に対してのみ行われ
る。2層目のニューロンに対する教師信号D2(j)と
して、 D2(j)=(Vcc/2)(Gj(V1,DVo)/|Gj(V1,DVo)|+1) を与える。D2(j)はGj(V1,DVo)が正のと
きVccに、負のとき0になる。DVoは、望ましい3
層目出力ニューロンの値である。ここで、 Gj(V1,DVo)=k・W2(j)・(DVo-Vcc/2)/Vcc−(1/m)ΣW1(i,j)
・(V1(i)-Vcc/2)/Vcc Gj(V1,DVo)の第1項は、W2(j)が正のと
きはD2(j)がDVoと一致するように作用し、W2
(j)が負のときはD2(j)がVoの反転になるよう
に作用する。Gj(V1,DVo)の第2項は、入力V
1(i)から計算される2層目ニューロンの値が、望ま
しい3層目ニューロンの値を反転させる方向にある場合
に特に学習を行なう働きがある。なお、Gjが負である
場合には、すでに結合重み値W1(i,j)は望ましい
値にあることを示しているので、学習を行わないように
してもよい。
【0013】図4は、VoがVccの場合の、Gj(V
1,DVo)が取る値の確率分布を示すものである。た
とえば、W1(i,j)がランダムなときには、Gj
(V1,DVo)の第2項は、ランダムな入力値V1
(i)に対し、平均値0のポアソン分布となる。Gj
(V1,DVo)の第1項をこれに加えると、W2
(j)がより正に大きいほどGj(V1,DVo)も正
になる確率が大きく、この結果、D2(j)はVccに
なりやすい。反対にW2(j)がより負に大きいほどG
j(V1,DVo)も負になる確率が大きくなり、この
結果、D2(j)は0になりやすい。すなわち、図3の
本発明の実施例によれば、ランダムな入力値V1(i)
とそれに対する望ましい出力値DVoとを繰返し与える
ことが、図2で述べたD2(j)を与えることと同様な
効果をもたらす。Gj(V1,DVo)はVLSI上の
回路構成で容易に実現できるので、図3の本発明の実施
例によれば、VLSIで実現するのにより好適な、学習
が容易な3層のニューラルネットワークが得られる。な
お、Gj(V1,DVo)が第2項によって第1項に対
し反転する場合、すなわち既に2層目ニューロンの値が
望ましい3層目ニューロンの値を与える関係にあるとき
は、学習を行なわなくてもよい。
【0014】図5は、図3の学習方法をVLSIで実現
するための、本発明の一実施例で、ダイナミックランダ
ムアクセスメモリ(DRAM)と類似の構成を持つもの
である。メモリセルMCijは、たとえば、図6に示す
ように1つのキャパシタと3つのトランジスタ、および
2つの抵抗で構成される。アナログ値で記憶されたMC
ijのキャパシタ電圧がVcc/2より大きいほどW1
(i,j)が正に大きいことを示し、Vcc/2より小
さいほどW1(i,j)が負に大きいことを示す。ワー
ド線が1層目のニューロンV1(i)に、データ線が2
層目のニューロンV2(j)に対応する。後に図8で説
明するように、V1(i)Dはどのような学習をすれば
よいか知るためにキャパシタ電圧をよみだすための信号
であり、V1(i)Uは学習結果をキャパシタに書き込
むための信号である。V1(i)Uは、図5のLWによ
りV1(i)に接続される。図5において、PCはデー
タ線をたとえばVcc/2に充電して学習または演算の
前準備をするための信号である。SA(j)はDRAM
で用いられているのと同様なセンスアンプであり、たと
えば図7に示す構成を持つ。
【0015】図8は、図5の回路構成における学習方法
を示す、本発明の動作波形である。任意の入力値V1
(i)およびそれに対する望ましい出力値DVoを準備
する。まず、PCをオフ状態にして、WEおよびV1
(i)をオン状態にする。V1(i)を与える時間は、
メモリセルのキャパシタの電位がたとえばVccの十数
分の一変動する程度とする。この結果、図3におけるG
jの第一項、すなわちW2(j)・(DVo−Vcc/
2)/Vccに対応する電圧が、データ線V2(j)
に、一方Gjの第二項に対応する電圧が、データ線V2
(j)Bに現われる。ただし、図3における0のレベル
が図5におけるVcc/2に対応する。ここで、図5に
おけるS・DVoは、データ線V2(j)B側に現われ
うる最大電圧値とほぼ同程度に設定する。この電圧は、
メモリセルMCのキャパシタ電圧がすべて最大値になっ
ている場合に、平均的なV1(i)の入力数に対してデ
ータ線V2(j)B側に現われうる電圧と考えてよい。
次に、センスアンプを動作させてデータ線V2(j)と
V2(j)Bとの電圧を比較する。これは、図3におけ
るGjの正負を判定し、D2(j)を求める動作に対応
する。この後直ちに後に述べる2層間のHebbian
学習に移ってもよいが、ここでは学習効率をあげるため
次の動作を行なう。すなわち、REをオフ状態にしてセ
ンスアンプをデータ線から切り離した後、LEをオン状
態にしてデータ線V2(j)Bを望ましい出力値DVo
またはその反転値DVoBに設定する。V2(j)とV
oとの間の結合重み値W2(j)が正の場合はDVo
に、負の場合はDVoBに設定する。この動作の効果は
後に説明する。この後、LWをオンにした状態でV1
(i)を再度ワード線に与えれば、図3(a)における
結合重み値W1(i)に対して、良く知られたHebb
ian学習が行われる。なぜなら、1層目のニューロン
が興奮状態にあるとき(ワード線V1(i)がVcc+
Vth+αのとき)、2層目のニューロンも興奮状態に
あれば(データ線V2(j)およびV2(j)BがVc
cであれば)、その間の結合重み値はわずかに正に変化
する(メモリセルMCijのキャパシタ電圧はわずかに
正に変化する)。また、1層目のニューロンが興奮状態
にあるとき(ワード線V1(i)がVcc+Vth+α
のとき)、2層目のニューロンが興奮状態でなければ
(データ線V2(j)およびV2(j)Bが0であれ
ば)、その間の結合重み値はわずかに負に変化する(メ
モリセルMCijのキャパシタ電圧はわずかに負に変化
する)。この様にして、記憶の増強がおこなわれる。こ
こで、V1(i)を再度ワード線に与える時間は、メモ
リセルのキャパシタの電位が、たとえばVccの十数分
の一変化する程度とする。また、前に行なったV1
(i)Dのみをオン状態にする時間よりは長くして学習
を十分行なう。ここで、以前行なったLEをオン状態に
した効果について説明する。図3におけるGjが正であ
った場合には、Hebbian学習時のデータ線対V2
(j)、V2(j)Bは同電位で、その結果メモリセル
の2つのトランジスタを通して十分な学習が行なわれ
る。一方、Gjが負であった場合には、データ線対の電
位は反対となり、ほとんど学習が行なわれないことに等
しい。なぜなら、一方のデータ線はキャパシタの電圧、
すなわち結合重み値をたとえばVccに引き上げようと
するのに対し、他方のデータ線はキャパシタの電圧を、
たとえば0Vに引き下げようとするからである。Gjが
負であることは、結合重み値W1(i,j)がすでに望
ましい値になっていることを示しているから、不必要に
学習を行なう必要がなく、以上の動作は学習の収束性を
高める効果がある。以上のようなHebbian学習
を、複数個の入力値V1(i)とそれに対する望ましい
出力値DVoの組について繰返し行えば、1層目と2層
目との間の結合重み値(キャパシタMCijのキャパシ
タ電圧)は、所望の演算を行う値へ変化する。このよう
にして得た結合重み値は、たとえばメモリセルMCij
のトランジスタT2(i,j)の電流値として読出すこ
とができる。なお、本発明の学習方法においては、メモ
リセルのキャパシタ電位のリークによる低下が問題とな
るが、動作を低温で行うことで解決できる。本発明の動
作方法によれば、図3で述べた3層のニューラルネット
ワークにおける学習が、VLSIにおいて容易に実現さ
れる。以上、図5から図8で説明した本発明の実施例に
よれば、特別な論理回路を用いることなく、ワード線と
データ線との交点で学習が行えるので、単純で高集積な
ニューラルネットワークが実現できる効果がある。
【0016】図9は、図1および図2に示したニューラ
ルネットワークをVLSIで実現するための、本発明の
一実施例である。データ線対はさらにV2H(j)とV
2L(j)、およびV2BH(j)とV2BL(j)と
に分かれている。学習すべき1層目と2層目との間の結
合重み値W1(i,j)は、ゲートがワード線V1
(i)につながる相補的な2つのトランジスタのしきい
電圧の変化として、アナログ的に記憶される。後に示す
ように、一方の端子がデータ線V2H(j)につながり
他方の端子が高電圧Vhにつながるトランジスタのしき
い電圧を上げると、W1(i,j)は負に大きくなる。
一方の端子がデータ線V2L(j)につながり他方の端
子が低電圧Vlにつながるトランジスタのしきい電圧を
上げると、W1(i,j)は正に大きくなる。このよう
なトランジスタとしては、たとえば図10の断面構造に
示すような、ドレインおよびソース領域が高濃度のp領
域でおおわれた電界効果トランジスタを用いることがで
きる。しきい電圧の上昇は、トランジスタ導通時にドレ
イン近傍の高電界領域で発生するホットキャリアのゲー
ト酸化膜への注入によりなされる。図10の実施例によ
れば、簡単なプロセスでニューラルネッワークをVLS
I化することができる。あるいは、図11の断面構造に
示すような、フローティングゲートを有する電界効果ト
ランジスタを用いてもよい。図11の実施例によれば、
しきい電圧の変化を短時間で起こすことができるので、
高速に学習が行なえるニューラルネットワークが実現で
きる。ワード線は1層目の入力ニューロンV1(i)に
対応し、SHRをオン状態にしてV2H(j)とV2L
(j)とをショートした時のデータ線が、2層目のニュ
ーロンV2(j)に対応する。SAjは2層目のニュー
ロンが興奮状態にあるか否かを検知するためのセンスア
ンプであり、DRAMで用いられているのと同様な回路
構成を使うことができる。1層目、2層目、3層目のニ
ューロンは、2値、たとえばVccと0の値をとる。こ
のニューラルネットワークにおいては、興奮状態の1層
目のニューロンにゲートがつながるトランジスタのしき
い電圧のアンバランスのために、データ線V2H
(j)、V2L(J)の電位が、学習を施していない比
較用のデータ線V2BH(j)、V2BL(j)の電位
に対して差を生じる。これをセンスアンプで検知、増幅
して2層目のニューロンが興奮状態にあるか否かを決定
する。さらに、図1に示した規則に従って固定されてい
る2層目・3層目間の結合重み値により3層目のニュー
ロンの出力値Voを計算する。2層目ニューロンの値か
ら3層目のニューロンの出力値Voを計算するには、た
とえば図12に示す回路構成を用いることができる。こ
こで、抵抗値R2(j)は結合重み値W2(j)に比例
する。図9の実施例によれば、電源を切ったあとも学習
内容が保持されるので、扱いの容易なVLSIニューラ
ルネットワークが実現できる。
【0017】図13は、図9のニューラルネットワーク
における学習方法を示す、本発明の動作波形である。ま
ず、任意の入力値V1(i)と、それに対する望ましい
出力値Voから図2の方法で規定される2層目のニュー
ロンへの教師信号D2(j)とを準備する。そして、次
のようにして1層目と2層目との間の結合重みをHeb
bian学習則に従って変化させる。最初にHPCをオ
フ状態にするとともにWEをオン状態にし、また、2層
目のニューロンの教師信号D2(j)を入力する。次
に、SHRをオン状態にすると、D2(j)の電圧がデ
ータ線V2H(j)およびV2L(j)に充電される。
そして、SHRをオフ状態にして、データ線V2H
(j)とV2L(j)とを分離してかつフローティング
状態とする。この後、V1(i)をワード線に与える
と、たとえば、D2(j)がVccでVhがVccに一
致している場合、V2L(j)のみの放電が起こり、電
流パスとなったトランジスタのしきい値が上昇する。こ
の結果、後に図14で述べる演算時にV2H(j)とV
2L(j)とをショートさせてV1(i)をワード線に
与えると、2層目のニューロンの望ましい出力値に対応
してデータ線はVcc側にひっぱられる。すなわち、H
ebbian学習が行われ、データ線の電位は教師信号
に一致しやすくなる。1つのトランジスタを流れる電流
量、すなわちしきい値の変動量は、興奮状態にある1層
目のニューロンの数にほぼ反比例する。このことは、興
奮状態にある1層目のニューロン数が少ないほど2層目
のニューロンの状態の決定に重要な役割を果たすことに
対応し、学習を速やかに収束させる効果がある。本発明
の実施例によれば、図2の学習方法をVLSIで実現す
ることができる。
【0018】図14は、図9のニューラルネットワーク
における演算方法を示す、本発明の動作波形である。ま
ず、データ線をHVD、たとえばVcc/2のレベルか
ら切り離した後、SHRとSHRBとをオン状態にす
る。次に1層目ニューロンの入力値V1(i)をワード
線に与え、学習により生じたトランジスタのしきい電圧
値のアンバランスに応じたデータ線V2H(j)、V2
L(j)の電圧を発生させる。比較として、データ線V
2BH(j)、V2BL(j)には未学習のトランジス
タによる電圧を発生させる。ワード線を再びオフ状態に
してデータ線をフローティングにした後、センスアンプ
SAjを動作させて2層目ニューロンが興奮状態にある
か否か(比較用データ線電圧より高いか低いか)を検
知、増幅する。さらに、図1に示した規則に従って固定
されている結合重み値により3層目のニューロンの出力
値Voを計算する。なお、各ニューロンのしきい値を0
以外に設定するため、比較用データ線電圧は外部から任
意の電圧に設定しても良い。また、演算中のトランジス
タしきい電圧値の変動をできるだけ少なくするため、演
算時に用いる電源電圧Vccは学習時に用いる電源電圧
Vccより低くするのが良い。以上、図9から図14を
用いて説明した本発明の実施例によれば、図1のニュー
ラルネットワークがVLSIで実現できる。また、学習
と演算とが同じ回路上で行えるので、高集積なニューラ
ルネットワークが実現できる効果がある。今までの実施
例では、第3層が1ニューロンの場合の例について説明
してきたが、第3層が複数ニューロンの場合は、各ニュ
ーロンごとに結合重み値がたとえば図1(b)の分布を
持つ第2層ニューロン群を準備すれば、本発明を用いて
同様に実現できる。
【0019】
【発明の効果】本発明によれば、2層の学習で3層のニ
ューラルネットワークが得られるので、複雑な論理設計
を行なうことなく、簡便な学習により所望のプロセッサ
の機能を獲得できる情報処理装置が得られる。学習のV
LSI化も容易なので、従来困難であった大規模なニュ
ーラルネットワークを高集積に実現できる。
【図面の簡単な説明】
【図1】本発明の3層の階層型ニューラルネットワーク
の構成(a)および2層目と3層目との間の結合重み値
(b)である。
【図2】図1の3層ニューラルネットワークにおける本
発明の学習方法(a)及び2層目のニューロンへの教師
信号の与え方(b)である。
【図3】図1の3層ニューラルネットワークにおける本
発明の学習方法である。
【図4】VoがVccの場合の図3のGjの値の発現頻
度である。
【図5】図3の学習方法をVLSIで実現するための本
発明の実施例である。
【図6】図5のメモリセルMCijの一実施例である。
【図7】図5のセンスアンプ回路SAの一実施例であ
る。
【図8】図5のニューラルネットワークにおける学習方
法を示す動作波形である。
【図9】図1のニューラルネットワークをVLSIで実
現するための本発明の実施例である。
【図10】図9の結合重み用トランジスタの一実施例で
ある。
【図11】図9の結合重み用トランジスタの一実施例で
ある。
【図12】図9の”2層目と3層目との間の演算回路”
の一実施例である。
【図13】図9のニューラルネットワークにおける学習
方法を示す動作波形である。
【図14】図9のニューラルネットワークにおける演算
方法を示す動作波形である。
【符号の説明】
V1(i)…1層目i番ニューロンの出力値、V2
(j)…2層目j番ニューロンの出力値、Vo…3層目
ニューロンの出力値、W1(i,j)…1層目i番ニュ
ーロンと2層目j番ニューロンとの間の結合重み値、W
2(j)…2層目j番ニューロンと3層目出力ニューロ
ンとの間の結合重み値、D2(j)…2層目j番ニュー
ロンへの教師信号、DVo…3層目出力ニューロンへの
教師信号、DVoB…DVoの反転信号、V2B(j)
…V2(j)の反転信号、SAj…センスアンプ、SA
N…センスアンプNMOS駆動信号、SAP…センスア
ンプPMOS駆動信号、WE…書き込み選択信号、RE
…読出し選択信号、PC…プリチャージ回路、HPC…
プリチャージ選択信号、MCij、MCijB…メモリ
セル、R1(i,j)…抵抗、Vp…プレート電圧、V
2H(j)、V2L(j)…データ線電圧、V2BH
(j)、V2BL(j)…比較用データ線電圧、SH
R、SHRB…データ線とセンスアンプの接続信号。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 青木 正和 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】3層の階層型ニューラルネットワークにお
    いて、2層目と3層目との間の結合重み値は固定され、
    1層目と2層目との間の結合重み値のみ学習で変化させ
    ることで所望の演算回路を形成することを特徴とする情
    報処理装置。
  2. 【請求項2】請求項1に記載の情報処理装置において、
    2層目に複数のニューロンを持ち、2層目と3層目との
    間の結合重み値が強い興奮性から強い抑制性までのアナ
    ログ的な分布を有することを特徴とする情報処理装置。
  3. 【請求項3】請求項2に記載の情報処理装置において、
    ニューロンの値は2値であり、1層目の任意の入力ニュ
    ーロンの値とそれに対する望ましい3層目の出力ニュー
    ロンの値とを与えることにより学習を行い、この学習
    は、2層目のニューロンに対して、3層目との固定され
    た結合重み値が興奮性の場合にはその興奮性結合の強さ
    に比例した確率で上記望ましい3層目の出力ニューロン
    の値と一致した値を与え、3層目との固定された結合重
    み値が抑制性の場合にはその抑制性結合の強さに比例し
    た確率で上記望ましい出力ニューロンの値と反対の値を
    与えることにより行う、1層目と2層目との間の結合重
    み値に対する2層間の学習であることを特徴とする情報
    処理装置。
  4. 【請求項4】請求項2に記載の情報処理装置において、
    ニューロンの値は2値であり、1層目の任意の入力ニュ
    ーロンの値とそれに対する望ましい3層目の出力ニュー
    ロンの値とを与えることにより学習を行い、この学習
    は、2層目と3層目との間の固定された結合重み値が興
    奮性でかつ1層目の入力ニューロン値から計算される2
    層目のニューロン値が上記望ましい3層目の出力ニュー
    ロンの値と不一致であるか、あるいは2層目と3層目と
    の間の固定された結合重み値が抑制性でかつ1層目の入
    力ニューロン値から計算される2層目のニューロン値が
    上記望ましい3層目の出力ニューロンの値と一致してい
    る場合に、2層目のニューロン値を反転させる方向に1
    層目と2層目との間の結合重み値を変化させる学習であ
    ることを特徴とする情報処理装置。
JP4228304A 1992-08-27 1992-08-27 情報処理装置 Pending JPH0675933A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4228304A JPH0675933A (ja) 1992-08-27 1992-08-27 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4228304A JPH0675933A (ja) 1992-08-27 1992-08-27 情報処理装置

Publications (1)

Publication Number Publication Date
JPH0675933A true JPH0675933A (ja) 1994-03-18

Family

ID=16874351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4228304A Pending JPH0675933A (ja) 1992-08-27 1992-08-27 情報処理装置

Country Status (1)

Country Link
JP (1) JPH0675933A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215988A (ja) * 2004-01-29 2005-08-11 Canon Inc パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
JP4532915B2 (ja) * 2004-01-29 2010-08-25 キヤノン株式会社 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体

Similar Documents

Publication Publication Date Title
Si et al. A dual-split 6T SRAM-based computing-in-memory unit-macro with fully parallel product-sum operation for binarized DNN edge processors
US11361216B2 (en) Neural network circuits having non-volatile synapse arrays
US5394511A (en) Coupling element for semiconductor neural network device
Choi et al. A high-precision VLSI winner-take-all circuit for self-organizing neural networks
US5028810A (en) Four quadrant synapse cell employing single column summing line
James et al. HTM spatial pooler with memristor crossbar circuits for sparse biometric recognition
US4956564A (en) Adaptive synapse cell providing both excitatory and inhibitory connections in an associative network
US5021988A (en) Semiconductor neural network and method of driving the same
JP3289748B2 (ja) 半導体装置
US11922299B1 (en) General purpose neural processor
KR20210029876A (ko) 뉴럴 네트워크를 구현하기 위한 전자 장치
Asai et al. Analog integrated circuits for the Lotka-Volterra competitive neural networks
Barve et al. NeuroSOFM: A neuromorphic self-organizing feature map heterogeneously integrating RRAM and FeFET
Thomas et al. Analysis of parasitic effects in a crossbar in CMOS based neuromorphic system for pattern recognition using memristive synapses
US5247206A (en) Neural network accommodating parallel synaptic weight adjustments in a single cycle
Ishii et al. Hardware-backpropagation learning of neuron MOS neural networks
CN108154227B (zh) 一种使用模拟计算的神经网络芯片
Wu et al. CMOS current-mode neural associative memory design with on-chip learning
CN112270409A (zh) 一种基于霍尔条的无监督学习突触单元电路
JPH0675933A (ja) 情報処理装置
Danneville et al. Sub-0.3 V CMOS neuromorphic technology and its potential application
Yang et al. Matching in memristor based auto-associative memory with application to pattern recognition
Gupta et al. On-chip unsupervised learning using STDP in a spiking neural network
Tuli et al. Design of a conventional-transistor-based analog integrated circuit for on-chip learning in a spiking neural network
Kim Mixed-signal circuits and architectures for energy-efficient in-memory and in-sensor computation of artificial neural networks