JPH0467257A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH0467257A
JPH0467257A JP2179665A JP17966590A JPH0467257A JP H0467257 A JPH0467257 A JP H0467257A JP 2179665 A JP2179665 A JP 2179665A JP 17966590 A JP17966590 A JP 17966590A JP H0467257 A JPH0467257 A JP H0467257A
Authority
JP
Japan
Prior art keywords
circuit
neuron
input
circuits
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2179665A
Other languages
English (en)
Other versions
JP2542107B2 (ja
Inventor
Kuniharu Uchimura
内村 国治
Osamu Saito
修 斉藤
Yoshihito Amamiya
好仁 雨宮
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2179665A priority Critical patent/JP2542107B2/ja
Priority to US07/727,065 priority patent/US5166539A/en
Priority to KR1019910011546A priority patent/KR950001601B1/ko
Priority to EP91111435A priority patent/EP0477486B1/en
Priority to DE69119172T priority patent/DE69119172T2/de
Publication of JPH0467257A publication Critical patent/JPH0467257A/ja
Priority to US07/909,993 priority patent/US5353383A/en
Priority to US08/266,691 priority patent/US5467429A/en
Application granted granted Critical
Publication of JP2542107B2 publication Critical patent/JP2542107B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、単位回路である多数のニューロン回路の入出
力端子間を接続することによってネットワーク回路を構
成したニューラルネットワーク回路に関する。
〔従来の技術] ニューラルネットワーク回路は生物の神経回路網をモデ
ル化して、従来のノイマン形計算機では難しかった文字
認識や音声認識などのパターン認識処理、最適化問題、
ロボット制御などを実現するものである。従来のノイマ
ン形計算機ではプロダラムに従って逐次処理するため計
算時間が膨大だったのに対して、ニューラルネットワー
ク回路ではニューロン回路が並列に演算を実行できるの
で処理速度が極めて高速になる特徴がある。また、ニュ
ーラルネットワーク回路の機能は、学習によってニュー
ロン間の接続状態を変えることによって実現される。こ
のため、処理手順がルール化しにくい問題でも学習教材
さえあれば機能を実現できる特徴がある。学習を常に行
いながら動作させると、環境の変化によって時間ととも
に望ましい機能が変化しても、それに追従することがで
きるなどの柔軟なシステムが構築できるものである。
さらに、同一のニューロン回路を多数接続してネットワ
ークを構成するため、故障した回路があっても他の正常
な回路に簡単に置き換えて動作できるので、LSI化す
る場合などに高い欠陥耐性を実現できる。本発明はこの
ようなニューラルネットワーク回路をLSI化する場合
に適し、少数のニューロン回路で高い性能の得られる構
成法に関するものである。
ニューラルネットワーク回路は神経細胞に相当するニュ
ーロン回路を単位として、ニューロン回路を多数接続し
て構成される。第1○図に、1個のニューロン回路の記
号を示す。1個のニューロン回路は複数の入力端子から
の信号を受けて、それぞれの入力信号に対して荷重係数
を持っており、荷重係数に応じて結合の強さを変えたり
、入力との誤差を計算し、その結果を全て加算して出力
を決定する。このニューロン回路の接続によりニューラ
ルネットワーク回路の構造がきまるが、最も簡単な構造
は第11図に示すような2層構造のニューラルネットワ
ーク回路である。入力端子の層を入力層あるいは第1層
、ニューロン回路の層を第2層あるいは出力層と言って
いる。それぞれの入力端子の信号は全てのニューロン回
路に並列に入力されており、それぞれにニューロン回路
は並列に入力信号を処理できるようになっている。入力
信号が加えられると、特定のニューロン回路が反応して
認識などの処理が実現される。
しかし、2層構造のニューラルネットワークでは処理能
力はあまり大きくないので、一般的には、第12図に示
すような3層構造のニューラルネットワークを使う場合
が多い。3層構造の場合には、第2層のニューロン回路
の層を中間層あるいは隠れ層、第3層のニューン回路の
層を出力層と呼んでいる。この第3層は第2層のニュー
ロン回路の出力を入力として、第2層と全く同じ構造を
持つ場合と興なる構造を持つ場合がある。同じ構造の場
合にはそれぞれの中間層の出力信号は全ての出力層のニ
ューロン回路に入力されるが、第12図に示すように出
力層のニューロン回路をOR論理処理のみの簡単な構造
にすることができる。この場合には中間層の出力は1個
の出力層のニューロン回路に接続されるだけなので回路
規模は大幅に低減できるとともに、パターン認識などに
使う場合には十分な能力を維持している。しかし、複雑
な処理に対応するためには、ネットワークの構造も複雑
なものが使用されるのが一般的であり、ニューロン回路
の出力が帰還されたり、3層以上の多層構造が使用され
たり、複数のネットワーク回路を組み合わせたりされる
従来のニューラルネットワーク回路で使用されていたニ
ューロン回路を第13図に示す。また、本発明者らによ
り発明されたニューロン回路を第14図に示す。n個の
入力に対応して、n個の荷重係数(w 1−w n )
を持ち、減算回路は入力信号と荷重係数の差を求め、そ
の結果を2乗回路で2乗するか絶対値回路で絶対値を計
算し、それぞれの入力と荷重係数に対する演算結果を全
て加算回路によって累積し、その結果の大きさによって
出力値が決定される。出力値を最終的に決定する閾値回
路は、第15図(a)〜(c)に示すような伝達特性を
もっている。(a)はステップ関数形、(b)は折れ線
形、(C)はシグモイド関数形である。第15図(C)
のシグモイド関数形がもっとも汎用性が高いが、演算が
複雑であるので(a)、(b)のような簡単化したもの
も使用できる。
[発明が解決しようとする課題] 第13.14図のニューロン回路を用いて、第12図の
ネットワーク回路を構成したものはパターン認識に多く
使用される。入力層に入力されたパターンによってニュ
ーロン回路が反応して認識を行う。入力信号の数に応じ
た次元数の多次元空間を認識する多数の領域に区切るよ
うにニューロン回路の荷重係数が決められていると、入
カバターンを含む領域を形成するニューロン回路が反応
する。
入力数が2個の場合、1個のニューロン回路が形成する
領域の形状は、第13図の従来形の場合には第4図に示
すように円状になる。例えば、入力l、2の値が円内の
部分に含まれる場合にニューロン回路が反応するように
するには、荷重係数w1、W2の値を円の中心点に設定
してベクトルWを決め、閾値回路のスレショルFレベル
hの大きさを半径に設定すればよい。つまり、ベクトル
Wと入力ベクトルの距離を計算し、距離がスレショルド
レベル6以内であればニューロン回路が反応出力(Lo
w)を出している。従って、ベクトルWから等距離にな
る半径りの円が境界になる。入力数が3個の場合の識別
領域は球状になり、4個以上では超球面になる。また、
第14図のニューロン回路では、入力数が2個の場合、
1個のニューロン回路が形成する領域の形状は第5図に
示すように四角形になる。入力数が3個の場合には8面
体になり)、4個以上では超多面体になる。閾値回路の
伝達特性を第15図(a)のステップ関数形に設定する
と、識別領域の境界は明確になるし、第15図(b)、
(c)の特性に設定すると境界は幅を持つことになる。
識別できる領域数はニューロン回路数が増えるほど多く
なる。
ところが、任意の形状の識別領域に対応するには、第1
2図のように出力層でOR処理を行うことにより、識別
領域を複数の超球面の集まりとして形成する。第7図(
a)は、多数のニューロン回路を用いて任意の形状の目
標識別領域に対応したときの例であるが、精度良く目標
形状に合致させるには円形の重なりが多くなり、極めて
多数のニューロン回路が必要になる問題があった。この
ため、装置が極めて大型化したり、消費電力も極めて大
きくなる問題があった。
本発明の目的は、従来の識別領域形状が固定のニューロ
ン回路では極めて多数のニューロン回路数を必要にして
いた任意形状の識別領域を、少ないニューロン回路数で
実現できる高機能なニューロン回路を作製することにあ
る。
[課題を解決するための手段] 上記の目的を達成するために、本発明は、n個の入力端
子と(nは1以上の整数)、上記入力端子のそれぞれに
対応して2個ずつ、合計2n個の荷重係数と、上記2個
の荷重係数から成る各組のうち大きい値の荷重係数をw
H1小さい値の荷重係数をwLとして、(入力信号−w
H)を求める減算回路と、(wL−入力信号)を求める
減算回路と、それぞれの減算結果の正の値だけを通過さ
せる整流回路と、上記整流回路の出力をそれぞれ2乗特
性などの非線形特性回路を経た後または直接に全て累積
する加算回路と、上記累積結果が平方根特性などの非線
形特性回路を経た後または直接に入力される閾値回路と
を有し、上記閾値回路の高力値を8力信号とするニュー
ロン回路を単位回路として、多数の上記ニューロン回路
の入出力端子間を接続することによってネットワーク回
路を構成し、上記ネットワーク回路に入力されたm個(
mは1以上の整数)の入力信号に対してそれぞれ独自の
上記荷重係数を持つ上記ニューロン回路が演算を実行し
、上記ネットワーク回路内の全てまたは一部の上記ニュ
ーロン回路の出力値を上記ネットワーク回路の出力信号
とし、それぞれの上記ニューロン回路の上記荷重係数と
上記閾値回路の閾値の大きさによって上記ネットワーク
回路の機能を制御することを特徴とする。
[作用] 従来のニューロン回路では識別領域形状が固定であるた
めに任意形状の識別領域を形成するのに極めて多数のニ
ューロン回路数を必要にしていた。
そこで、本発明では従来形の2倍の荷重係数を持つニュ
ーロン回路により、1個のニューロン回路の識別領域形
状を可変にして、少ないニューロン回路数で任意形状の
識別領域を形成できるようにした。
〔実施例] 本発明のニューロン回路の例を第1.2図に示す。n個
の入力端子と(nは1以上の整数)、それぞれの入力端
子に対応して2個ずつの合計2n個の荷重係数を持ち、
2個の組のうち大きい値の荷重係数をwH1小さい値の
荷重係数をwLとすると、減算回路は(入力信号−w 
H)と(wL−入力信号)を求めており、それぞれの減
算結果の正の値だけを通過させる整流回路を持っている
それぞれの入力と荷重係数に対する演算結果を全て加算
回路によって累積し、その結果によって出力値が決定さ
れるのは従来と同じである。出力値を最終的に決定する
閾値回路は、従来回路と同様に第15図に示すような伝
達特性をもっている。
第14図のニューロン回路における入力部分の伝達特性
を第3図(a)に示す。減算回路と絶対値回路の特性は
、入力信号に対して荷重係数W以下の部分で極性が反転
するので■字形の特性を持っている。第13図の2乗回
路を持つニューロン回路では、これが放物線特性になる
。これに対して、本発明による第2図のニューロン回路
では1個の入力に対してwH,wLの2個の荷重係数を
持っているので、入力部分の特性は第3図(b)のよう
な特性になる。wHとwLの間の入力に対して出力レベ
ルがゼロになる。wH以上とw L以下については従来
と同様な特性である。また、本発明による第1図のニュ
ーロン回路では2乗回路によって、wH以上とwL以下
の直線部分が放物曲線になる。
入力数が2個の場合、第1.2図の本発明によるニュー
ロン回路では、1個のニューロン回路が形成する領域の
形状は、第6図に示すような形状になる。荷重係数wH
1、wH2の値のベクトルWHと、荷重係数wL1%w
L2の値のベクトルWLと2個のベクトルをIMのニュ
ーロン回路がもっており、入力1(wLl、入力2 (
w L 2、の領域と、入力1(wLl、入力2)wH
2、の領域と、入力1)wHl、入力2(wL2、の領
域と、入力1)wHl、入力2)w−H2、の領域の4
領域では、従来形と同じ特性を示すが、それ以外の部分
では、入力1がwLlからwHlまでのときには入力1
に対する演算結果はゼロなので入力2だけで識別領域の
範囲が決まり、閾値回路がLowを出力するのは(wL
2−h)から(wH2+h)の範囲になる。また、入力
2がwL2からwH2までのときには入力2に対する演
算結果はゼロなので入力lたけで識別領域の範囲が決ま
り、閾値回路がLowを出力するのは(wLl−h)か
ら(wH1+h)の範囲になる。
従って、その両者を合わせた領域は第12図に示すよう
な形状になる。この(wLl、wL2)と(wHl、w
H2)の2点を対角線とする四角形は正方形ではなく長
方形であり、その形状は荷重係数によって制御できるこ
とが明らかである6人力数が3個の場合の識別領域は直
方体に厚さhの周辺部を含む形状になり、4個以上では
超直方体に厚さhの周辺部を含む形状になる。
本発明によるニューロン回路の識別領域の形状は、第6
図に示すようになることを説明したが、この形状はベク
トルWLとWHがほぼ等しい場合には従来形ニューロン
回路の識別領域の形状に近くなり、閾値レベルhが小さ
ければその形状はほとんど長方形になる。このように、
本発明のニューロン回路の識別領域の形状は自由度の高
いものになっている。
従って、第6図に任意形状を目標識別領域にして、従来
形と本発明のニューロン回路で対応した例を示す。従来
形では前記したように多数のニューロン回路が必要であ
ったのが、本発明では極めて少数のニューロン回路で済
むことがわかる。さらに、実際の応用ではパターン認識
に全ての入力データが有効に利用できるわけではなく、
パターンの特徴情報を抽出して利用されるので、不必要
な入力データが含まれていることが多い。第8図(a)
、(b)は入力2の値が意味のないデータであった場合
の例である。識別領域は入力lで決まり、入力2に関し
ては全ての範囲が領域に含まれる。このため、入力2の
方向に長い領域を実現しなければならない。ところが、
入力2を表現しているディジタル信号のビット数が大き
い場合や、浮動小数点表現である場合には入力2の範囲
は極めて広く、入力lの識別領域の幅が小さければ小さ
な半径の円で識別領域を埋めつくす必要があり、極めて
多数のニューロン回路が必要になる。現実問題としては
、ニューロン数に比例して回路規模が大きくなり、ニュ
ーロン数には限界があるので、逆に入力信号の範囲を狭
くすることで対処せざるを得ない。入力信号の範囲を狭
くすると、信号積、度(分解能)が低下するので、精度
の良いパターン認識はできなくなる。これに対して、本
発明ではこのような場合も入力信号の範囲に関係なく1
個のニューロン回路で対処できるので、必要なニューロ
ン数の低減効果は極めて大きい利点がある。
さらに、パターン認識の精度を大きく改善できることも
明らかである。
ディジタル回路によって本発明によるニューラルネット
ワーク回路を実現する場合のニューロン回路の構成例を
第9図に示す。第9図ではニューロン回路の入力部分で
ある1番目の入力と荷重係数に対する演算回路と1から
nまでの演算結果の累積を行うi番目の加算器のみを示
している。入力信号と荷重係数の減算を実行する加算回
路のキャリー出力(CO)がii 1 uのときに演算
結果が負数であるので、整流回路はANDゲート回路を
用いて負数が伝達しないようになっている。また、wH
とwLの係数に対する演算結果のうち少なくとも1個は
ゼロ8力であるので、両者の加算はORゲートで簡単に
実現できるので、累積に使用する加算回路の個数は従来
形より増加しない。従って、本発明の1個のニューロン
回路の回路規模は従来形に対して荷重係数の演算に使用
する加算回路が1個から2個に増加するのみである。
ニューロン回路全体で回路規模を比較すると、第1図の
実施例では2乗回路が1人力につき2個必要であるよう
に書かれているが、第9図のような構成をとればOR回
路で加算したあとに2乗回路を配置しても同じ演算がで
きるので、2乗回路は1人力につき1個になり、従来形
と同じである。
加算器と2乗回路の回路規模を比較すると2乗回路の方
が圧倒的に大きいので、本発明の1個のニューロン回路
の回路規模増加の割合は小さい。第8図の実施例では2
乗回路がないので、もともと回路規模が小さい構成であ
ったので、増加率は約1.5倍になる。
以上説明したように、1個のニューロン回路の回路規模
の増加は1.5倍あるいはそれ以下であるのに対して、
必要なニューロン数の低減効果は応用により大きく違う
が、規模の大きなニューラルネットワーク回路はど低減
効果は大きく、l/100〜1710000以上になる
と考えられるので、本発明のニューラルネットワーク回
路としての回路規模の低減効果は極めて大きい。
ニューラルネットワーク回路をハード化するとき、必要
なニューロン回路数は応用によって異なるが、一般的に
はニューロン回路数が大きいほど処理能力は向上する。
そのため、LSI化によって多数のニューロン回路を搭
載したニューラルネットワーク回路の実現が期待されて
いる。しかし、チップサイズの制限によって1チツプに
搭載できる回路規模は限られているし、放熱や実装の問
題から1チツプで消費できる電力も制限がある。従って
、LSI化されたニューラルネットワーク回路が実用的
な性能を発揮するために、ニューロン回路の回路規模と
消費電力の低減が最も重要な課題になっている。このた
め、本発明のニューロン回路を用いることにより、ニュ
ーラルネットワーク回路が実用的なレベルまで性能が向
上する効果は極めて大きい。
以上本発明を上記実施例に基づいて具体的に説明したが
、本発明は上記実施例に限定されるものではなく、その
要旨を逸脱しない範囲において種々変更可能であること
は勿論である。
[発明の効果〕 以上説明したように、本発明のニューラルネットワーク
回路では、必要なニューロン回路数を大幅に低減でき、
かつパターン認識の精度を大きく改善できるとともに、
回路規模を低減できる。
【図面の簡単な説明】
第1図は本発明の超球面識別形ニューロン回路の構成の
一例を示す図、第2図は本発明の越冬面体識別形ニュー
ロン回路の構成の一例を示す図、第3図(a)、(b)
はニューロン回路の入力部の伝達特性を示す図で、(a
)は減算回路と絶対値回路の特性を示し、(b)は減算
回路と整流回路の特性を示し、第4図は従来の超球面識
別形ニューロン回路の識別領域(2人力の場合)を示す
図、第5図は従来の越冬面体識別形ニューロン回路の識
別領域(2人力の場合)を示す図、第6図(a)、(b
)は本発明によるニューロン回路の識別領域の形状(2
人力の場合)を示す図で、(a)は超球面形を示し、(
b)は超多面体形を示し、第7図(a)、(b)は複数
のニューロン回路による識別領域の第1の形成例(2人
力の場合)を示す図で、(a)は従来形を示し、(b)
は本発明を示し、第8図(a)、(b)は複数のニュー
ロン回路による識別領域の第2の形成例を示す図で、(
a)は従来形を示し、(b)は本発明を示し、第9図は
本発明の越冬面体識別形ニューロン回路の演算回路の構
成例を示す図、第10図はニューロン回路の記号を示す
図、第11図は2層構造のニューラルネットワーク回路
の構成を示す図、第12図は3層構造のニューラルネッ
トワーク回路(OR処理出力形)の構成を示す図、第1
3図は従来の超球面識別形ニューロン回路の構成を示す
図、第14図は従来の越冬面体識別形ニューロン回路の
構成を示す図、第15図(a)、(b)、(c)は閾値
回路の伝達特性を示す図で、(a)はステップ関数形、
(b)は折れ線形、(C)はシグモイド関数形を示す。 特許呂願人 日本電信電話株式会社

Claims (1)

    【特許請求の範囲】
  1. 1.n個の入力端子と(nは1以上の整数)、上記入力
    端子のそれぞれに対応して2個ずつ、合計2n個の荷重
    係数と、上記2個の荷重係数から成る各組のうち大きい
    値の荷重係数をwH、小さい値の荷重係数をwLとして
    、(入力信号−wH)を求める減算回路と、(wL−入
    力信号)を求める減算回路と、それぞれの減算結果の正
    の値だけを通過させる整流回路と、上記整流回路の出力
    をそれぞれ非線形特性回路を経た後または直接に全て累
    積する加算回路と、上記累積結果が非線形特性回路を経
    た後または直接に入力される閾値回路とを有し、上記閾
    値回路の出力値を出力信号とするニューロン回路を単位
    回路として、多数の上記ニューロン回路の入出力端子間
    を接続することによってネットワーク回路を構成し、上
    記ネツトワーク回路に入力されたm個(mは1以上の整
    数)の入力信号に対してそれぞれ独自の上記荷重係数を
    持つ上記ニユーロン回路が演算を実行し、上記ネットワ
    ーク回路内の全てまたは一部の上記ニューロン回路の出
    力値を上記ネットワーク回路の出力信号とし、それぞれ
    の上記ニューロン回路の上記荷重係数と上記閾値回路の
    閾値の大きさによって上記ネットワーク回路の機能を制
    御することを特徴とするニューラルネットワーク回路。
JP2179665A 1990-07-09 1990-07-09 ニュ―ラルネットワ―ク回路 Expired - Fee Related JP2542107B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2179665A JP2542107B2 (ja) 1990-07-09 1990-07-09 ニュ―ラルネットワ―ク回路
KR1019910011546A KR950001601B1 (ko) 1990-07-09 1991-07-08 뉴-럴 네트워크 회로
US07/727,065 US5166539A (en) 1990-07-09 1991-07-08 Neural network circuit
DE69119172T DE69119172T2 (de) 1990-07-09 1991-07-09 Neuronalnetzwerkschaltung
EP91111435A EP0477486B1 (en) 1990-07-09 1991-07-09 Neural network circuit
US07/909,993 US5353383A (en) 1990-07-09 1992-07-07 Neural network circuit
US08/266,691 US5467429A (en) 1990-07-09 1994-06-28 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2179665A JP2542107B2 (ja) 1990-07-09 1990-07-09 ニュ―ラルネットワ―ク回路

Publications (2)

Publication Number Publication Date
JPH0467257A true JPH0467257A (ja) 1992-03-03
JP2542107B2 JP2542107B2 (ja) 1996-10-09

Family

ID=16069739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2179665A Expired - Fee Related JP2542107B2 (ja) 1990-07-09 1990-07-09 ニュ―ラルネットワ―ク回路

Country Status (1)

Country Link
JP (1) JP2542107B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157233A (ja) * 2015-02-24 2016-09-01 国立大学法人広島大学 Lvqニューラルネットワーク
CN109443419A (zh) * 2018-08-31 2019-03-08 广州市世科高新技术有限公司 一种基于机器学习的整流器在线监测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157233A (ja) * 2015-02-24 2016-09-01 国立大学法人広島大学 Lvqニューラルネットワーク
CN109443419A (zh) * 2018-08-31 2019-03-08 广州市世科高新技术有限公司 一种基于机器学习的整流器在线监测方法
CN109443419B (zh) * 2018-08-31 2021-08-31 广州致新电力科技有限公司 一种基于机器学习的整流器在线监测方法

Also Published As

Publication number Publication date
JP2542107B2 (ja) 1996-10-09

Similar Documents

Publication Publication Date Title
CN109949255B (zh) 图像重建方法及设备
Isokawa et al. Quaternionic neural networks: Fundamental properties and applications
EP0477486B1 (en) Neural network circuit
CN110472695B (zh) 一种工业生产过程的异常工况检测和分类方法
US5355436A (en) Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
Li et al. An extended multilayer perceptron model using reduced geometric algebra
Seow et al. Recurrent neural network as a linear attractor for pattern association
CN112734022A (zh) 一种具有识别和排序功能的四字符忆阻神经网络电路
JPH0467257A (ja) ニューラルネットワーク回路
Shibata et al. Gauss-sigmoid neural network
JPH05101028A (ja) 複数特徴量の統合判定方法
Banarer et al. Design of a multilayered feed-forward neural network using hypersphere neurons
JPH04182769A (ja) デジタル・ニューロプロセッサ
Dawwd et al. Video based face recognition using convolutional neural network
Nitta Reducibility of the complex-valued neural network
Tokunaga et al. Modular network SOM: Self-organizing maps in function space
Park Signal space interpretations of Hopfield neural network for optimization
Dawwd et al. A reconfigurable interconnected filter for face recognition based on convolution neural network
PANDYA et al. A stochastic parallel algorithm for supervised learning in neural networks
JPH04295976A (ja) ニューラルネットワーク回路
Ghorbani et al. Incremental communication for multilayer neural networks
Yang et al. A linear ridgelet network
Kanwal et al. Survey paper on Advanced Equipment Execution of ANN for FPGA
JPH04112354A (ja) ニューラルネットワーク回路
McGinnity et al. Novel architecture and synapse design for hardware implementations of neural networks

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees