JP3315449B2 - ニューラルディジタルプロセッサ - Google Patents

ニューラルディジタルプロセッサ

Info

Publication number
JP3315449B2
JP3315449B2 JP32792492A JP32792492A JP3315449B2 JP 3315449 B2 JP3315449 B2 JP 3315449B2 JP 32792492 A JP32792492 A JP 32792492A JP 32792492 A JP32792492 A JP 32792492A JP 3315449 B2 JP3315449 B2 JP 3315449B2
Authority
JP
Japan
Prior art keywords
neural
function
processor
digital processor
nonlinear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32792492A
Other languages
English (en)
Other versions
JPH05242068A (ja
Inventor
デヴィーユ イヤニック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JPH05242068A publication Critical patent/JPH05242068A/ja
Application granted granted Critical
Publication of JP3315449B2 publication Critical patent/JP3315449B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、ディジタル データ
用第1入力手段と;入力データおよびニューロン同士間
またはニューロンと入力手段間接続に関係するシナプス
係数の作用に従ってニューロン ポテンシャルを計算す
るニューラル ユニットと;前記シナプス係数を蓄積す
る第2手段と;少なくとも1つのニューラル状態STA
Tを発生させるため少なくとも1つのニューラル ポテ
ンシャルをn個のセグメントにより形成される少なくと
も1つの近似非線形活性化関数に従わせる第3手段と;
を具えたニューラル ディジタル プロセッサに関する
ものである。
【0002】本発明はさらに非線形制御およびかかる制
御のための非線形転送関数の創作に関するものである。
【0003】
【従来の技術】ニューラル ディジタル プロセッサは
ニューラル ネットワークとして知られている全体シス
テムの一部を形成するものである。ニューラル ネット
ワークは課題の識別用、特に物体の形状とか文字の認識
用、信号処理とか音声処理とか画像処理用、または情報
の圧縮用に使用される。
【0004】ニューラル ネットワークはシナプス係数
が割当てられるシナプスによって一般に相互接続される
非線形自動素子により形成される。それは通常の直列型
コンピュータでは解決するのが困難な問題の解決を可能
にする。
【0005】ニューラル ネットワークの2つの最も普
通の形はホップフィールド(Hopfield)ネットワークと称
されるすべてが接続されるネットワークと、層状のネッ
トワークで、後者ではニューロンが引続く層でグループ
を形成し、各ニューロンは次の層のすべてのニューロン
に接続され、情報は入力層から次の層(隠れた層)に出
力層に到達するまで進む。
【0006】これらシステムは実例に従って学習を進め
たりそれらを組織化することが可能である。直列型コン
ピュータを使用する場合に非常に長い計算時間がかかる
のを、ほぼ並列演算が履行されて時間短縮され、それら
演算は学習フェーズや決定フェーズを具えるものであ
る。
【0007】与えられた処理を実行するために、ニュー
ラル ネットワークは前もって演算の手順を学習してお
かねばならない。このフェーズは学習フェーズと称せら
れ実例を使用するものである。多くのアルゴリズムにつ
いて、これら実例に基づいた出力に得られるべき結果は
前もって一般に知られている。初期には、ニューラルネ
ットワークは所望の作業に未だ適合されてなく正しい結
果を伝えていない。次に得られた結果と得られるべき結
果との間で誤差が決められ、適合判定基準に基づいてシ
ナプス係数がニューラル ネットワークをして選択され
た実例を学習させるよう修正される。このステップはニ
ューラル ネットワークによる十分な学習に必要と考え
られるすべての実例について繰返えされる。
【0008】学習アルゴリズムの2つのカテゴリがあ
る:1つは、ニューロン“b”をニューロン“a”に接
続するシナプス係数の修正がニューロン“a”と“b”
により用意された情報にのみ依存するという局所的学
習、もう1つは、前記修正がそのネットワークを介して
進呈された情報に依存する局所的でない学習で、この学
習は例えば層状ネットワークにおける誤差逆伝播による
学習である。
【0009】与えられたニューロンはかくてその上流に
接続されたニューロンによりなされる寄与の組みを積算
する。次にそれはニューロン ポテンシャルPOT を供給
する。出力には出力ニューロンと称せられる1つまたは
複数のニューロンが用意されるかもしれない。ニューロ
ンのニューラル ポテンシャルPOT は一般にプロセッサ
が精確に決定されるよう非線形活性化関数NLFに支配
されるべきものである。この活性化関数は与えられた判
定基準を満足すべきで、その最も重要なことは変数の絶
対値が増加する時それは飽和し、いかなる点でもその導
関数が計算できるものであるべきである。
【0010】いくつかの活性化関数が現在では公知のニ
ューラル プロセッサに使用されている。最も普通の関
数はシグモイド(sigmoid) 関数で、その理由はこれら関
数が得られるべき最適な、特に学習ステップ間での収束
の速度について最適な、必要なら、例えばニューラル
プロセッサを所望の計算式(アプリケーション)に適合
させるのに最適な結果を可能とするからである。
【0011】ニューラル ポテンシャルPOT を非線形活
性化関数NLFに従わせるには現在種々の方法が知られ
ている。これらの方法はプロセッサの内部か外部にある
演算を利用する。外部演算は計算機によるあらかじめ計
算された表からの読みとりにより実行される。(学習フ
ェーズ中の)シナプス係数または(決定フェーズ中の)
ニューラル状態用の計算精度は前記計算機または前記あ
らかじめ計算された表の計算ステップに全く依存する。
かくて特にあらかじめ計算された表の大きさについて、
または計算機による計算の持続期間についての制限が存
在する。
【0012】さらに、別の活性化関数との演算のための
表の再配列はよりゆっくりしたプロセスであるべきこと
が示されている。活性化関数F(x/T)を修正させう
る“温度”パラメータと称されるパラメータTを容易に
変えることはもはや不可能である。さらに活性化関数と
その導関数の計算は2つの異なった演算を構成する。
【0013】さらに、外部の演算はニューラル プロセ
ッサからの初期のディジタル データ(ニューラル ポ
テンシャルPOT )の抽出が必要で、次に処理されたディ
ジタル データ(ニューラル状態STAT)のニューラル
プロセッサへの再導入が必要である。これら演算は特殊
なハードウェア同様集積回路の形での実施なら好適に排
除できる処理時間と転送時間とを必要とする。
【0014】それ故計算手段をニューラル プロセッサ
に直接集中化し、選択された非線形活性化関数の適用を
可能とすることが目標とされてきた。ハードウェア削減
が非線形関数の履行に必要とされる時は、簡単な非線形
関数のみが使用されるという制限が存在する。これらの
ことは現在の所極めて容易に不正確になることがわかっ
てきた。
【0015】十分小さなステップでシグモイド関数の計
算を実行するのは必ずしも容易ではないから、今やシグ
モイド関数を切片状線形関数で近似する方向へ向かいつ
つある。例えば文献GB第2,236,608 A号は切片状線形
関数により形成された近似非線形関数を計算する手段を
具えたディジタル ニューラル ネットワークを開示し
ている。そして、その原理はパルスコード変調を有する
A型の圧縮法則の適用に存する。
【0016】
【発明が解決しようとする課題】しかしながら、引用し
た前記文献に述べているようなかく得られた近似は、不
完全でニューラル プロセッサの演算で誤差が生じてし
まう。それ故シグモイド関数のより厳密な近似が望まれ
る。そしてまたシグモイド関数以外の関数を近似するた
めに、近似非線形関数がすみやかに再プログラムされ得
ることが望まれるかもしれない。この変更は速やかに実
施されるべきであり、加うるに、上述の非常に速やかな
導入と同じように、非線形関数の温度修正が可能である
べきである。
【0017】もう一方、学習フェーズの間に使用される
近似非線形関数の導関数の計算を必要とする学習アルゴ
リズムを利用することも可能である。それ故低コストで
演算のこのモードをまた実施し得ることがハードウェア
に望まれる。
【0018】
【課題を解決するための手段】前述の目的を達成するた
め、冒頭に記載した本発明に係るニューラル ディジタ
ル プロセッサは、ディジタル データ用第1入力手段
(13)と;入力データおよびニューロン同士間またはニュ
ーロンと入力手段間接続に関係するシナプス係数の作用
に従ってニューロン ポテンシャルを計算するニューラ
ルユニット(12)と;前記シナプス係数を蓄積する第2手
段(16)と;少なくとも1つのニューラル状態STATを
発生させるため少なくとも1つのニューラル ポテンシ
ャルPOT をn個のセグメントにより形成される少なくと
も1つの近似非線形活性化関数ANLFに従わせる第3手段
(14)と;を具えたニューラル ディジタル プロセッサ
(10)において、前記近似非線形活性化関数ANLFを前記
ニューラル ポテンシャルPOT に適用した結果を計算す
るため、前記第3手段(14)は別のニューラル ディジタ
ル プロセッサ(14)を具え、その別のニューラル ディ
ジタル プロセッサは:Hj を1≦j≦nなる予め定め
られたシナプス係数、Thj をしきい値とした時、n個
の組Mj =Hj.POT +Thj を計算する手段(20)と;少
なくとも1つの別の非線形関数CNLFの組合せMj の計算
式Sj =F(Mj )を計算する手段(22)と;近似非線形
活性化関数ANLFの前記適用した結果を発生させるためシ
ナプス係数Dj を有するn個の式F(Mj )を線形に組
合わせる手段(24)と;を具え前記別の非線形関数CNLFは
xを独立変数とした時、xが−xmin とxmax の間に位
置する時一定ではないセグメントF(x) と、それぞれx
≧xmax 及びx≦−xmin の時2つのセグメントF(x)
=Fmax およびF(x) =−Fmin とにより形成されるこ
とを特徴とするものである。
【0019】前記活性化関数ANLFはかくて別のニューラ
ル プロセッサにより魅力的に計算され、そのためそれ
は別の非線形関数CNLFが2つの飽和セグメント−Fmin
とFmax により限定される与えられた間隔の中で単純に
定義されるという条件を満たしている。間隔(−x
min ,xmax )ではF(x) は近似的ANLFが求められる非
線形関数NLF に関係して選択される。シグモイドの近似
を得るために、一定でないセグメントF(x) は、例えは
3次の多項式またはランプ関数によって形成される関数
の一部であってもよい。この3次の多項式による変換
は、かなり制限された数の値のみしか蓄積を必要としな
いが、それでも小さなステップで非線形関数ANLFの計算
が可能な表によりハードウェアとし実現されるかもしれ
ない。
【0020】ランプ関数は非常に有利である。それは表
を省略することができ、必要とするハードウェア手段が
さらに削減されるからである。
【0021】一定でないセグメントF(x) を構成する関
数の選択は近似が要求される非線形関数NLFと左程厳
密には関係しない。かくて、このセグメントの選択は実
施の容易さによって主として決まるかもしない。あらか
しめ定められたシナプス係数の数Hj と値Dj が望まし
いものとして選択される精度を有した非線形関数の近似
を可能とする。
【0022】本発明は近似非線形関数ANLFの計算用に限
定されたハードウェアの使用を可能とする。かくてこの
削減されたハードウェアは非線形関数ANLFの導関数の計
算実行のため倍にされる。関数と導関数とはかくて同じ
方法で別々に処理される2つの関数と考えられる。
【0023】ランプ関数の使用は関数ANLFとその導関数
の計算実行を可能とし、必要とするハードウェアを倍に
しなくてもすみ、ハードウェアの構成には有利である。
【0024】非線形関数ANLFおよび/またはその導関数
の計算はニューラル形手段により実行されてきたが、こ
れらの手段はハードウェア手段を削減するため一般にニ
ューラル プロセッサの別のニューラル手段と組合わす
ことができる。
【0025】本発明を他の観点からみてみると、本発明
は受信入力データに基づいてニューラルポテンシャルを
創作するユニットであって、かつ、そのニューラルポテ
ンシャルが入力データのそれぞれの1つにそれぞれのシ
プナス係数を乗じたそれぞれの乗算値をそれぞれ1つの
積とするそれら積の積算値を含むユニットを有するニュ
ーラルネットワークを機能的に具えたデータ処理システ
ムを備えている。前記ニューラル ネットワークはさら
にニューロン出力データを創作するため非線形関数をニ
ューラル ポテンシャルに適用する非線形関数手段を具
えている。本発明によれば、この非線形関数手段は複数
の別のユニットを有する別のニューラルネットワークを
機能的に具えている。複数の別のユニットのそれぞれの
1つはニューラル ポテンシャルにそれぞれの因子を乗
ずる乗算を含むそれぞれの別の積を創作すべく演算され
るとともに、それぞれの結果を創作すべくその別の積に
それぞれ別の非線形関数を適用している。非線形関数手
段はまた組合わせ手段を具え、それは前記ニューラルポ
テンシャルと関連したはじめに述べた非線形関数の値を
提供すべくそれぞれの結果を線形的に組合わせている。
【0026】また、その別の非線形関数とニューラル
ネット(積の積算)の典型的な演算とははじめに述べた
非線形関数を創作する。非線形関数手段の簡易さとニュ
ーラル ネットに対するその構造的類似性とは1つのニ
ューラル ネット、特に唯1つのチップのニューラル
ネットでの実施という意味で本発明を非常に魅力あるも
のにしている。さらに好適には、各別の非線形関数は2
つの飽和値間のランプ関数で構成されている。
【0027】本発明がニューラル ネットの分野で有す
る価値とは別に、複数の非線形基本関数から非線形転送
機能を創作するこの方法は、より一般的な非線形制御の
分野、そこでは入力信号と出力信号が非線形の形態で関
係しあう分野で明らかに興味あるものである。例えばそ
の演算がファジイ(fuzzy) 論理に基づくファジイ制御が
ある。一般に非線形転送機能は計算に多大の処理時間を
必要とするのでルックアップテーブルで実施される。
【0028】それ故本発明はまた出力信号を創作すべく
入力信号に非線形転送機能を実施する非線形関数手段を
具えたデータ処理システムにも関係する。本発明によれ
ば、非線形関数手段はそれぞれの結果を創作するため入
力信号へ複数のそれぞれの基本非線形関数を適用する基
本手段と、出力信号を発生するためそれぞれの結果を線
形に組合わせる組合せ手段とを機能的に具えている。
【0029】
【実施例】以下添付図面を参照して実施例により本発明
を詳細に説明する。図1は所与の瞬間に少なくとも1つ
のニューラルポテンシャルPOT を供給するニューラルユ
ニット12を具える既知のニューラルプロセッサ10の線図
である。ニューラルユニット12は入力手段13からのデー
タVb と手段16からのシナプス係数Cabを受信し、かつ
以下の式
【数1】 のようにニューラルポテンシャルを計算する。
【0030】関連する技術的適用の性質に依存して、ニ
ューラルユニット12は所与の瞬間にニューラルポテンシ
ャルPOT が決定されるいくつかのニューロンを有するこ
とができる。もし時間シーケンスが考慮されるなら、同
じニューロンに対してニューラルポテンシャルPOT のシ
ーケンスが現れる。これらのポテンシャルは一般に非線
形活性化関数NLF に個別に従わなければならない。その
計算がニューラルプロセッサで実行される場合、非線形
活性化関数NLF を近似する非線形活性化関数ANLFが適用
できる(ブロック14)。このようにニューラルポテンシ
ャルPOT はニューラル状態STATに変換され、それは大多
数のニューロンに対して、処理の間にニューラルユニッ
ト12に再導入される。
【0031】シナプス係数Cabはメモリ16に蓄積されて
いる。それらは要素「b」を要素「a」に接続する接続
を特徴付ける。それらは入力手段13のデータVb 、ある
いはニューラルユニット12のニューロンのいずれかの入
力であってよい。
【0032】学習フェーズ(learning phase)の間に、
シナプス係数はメモリ16に負荷される(接続15)。決定
フェーズ(resolving phase)の間に、シナプス係数はメ
モリ16で読み取られる(接続17)。
【0033】そのようなニューラルディジタルプロセッ
サの構造と演算は当業者に既知である。
【0034】シグモイド(sigmoid) 関数(NLF)を近似す
る非線形関数ANLFは図2に示されている。一例として、
奇関数NLF が考慮され、それに対して非線形で等しく奇
関数ANLFが決定されよう。従って、このことは零である
しきい値Th に対応する。それは横座標(x0,x1),
(x1,x2), (x2,x3), ....の間の直線セグメントか
らなるセグメントにより近似されている。本発明は図3
に示されたニューラルディジタルプロセッサ14によりこ
の種の近似の実行を提案する。それは入力ニューラルユ
ニット20、別の非線形関数CNLFを適用する手段22、出力
ニューラルユニット24、およびニューラルユニット20と
24用それぞれにシナプス係数Hj とDj を蓄積する手段
26を具えている。入力ニューラルユニット20はニューラ
ルプロセッサ10のニューラルユニット12からデータ(ニ
ューラルポテンシャルPOT )を受信する。出力ニューラ
ルユニット24は入力に到着する各ニューラルポテンシャ
ルPOT のニューラル状態STATを供給する。関数NLF が奇
でない場合には、2つのニューラルユニット20, 24はし
きい値Th を受信し、しきい値Th はニューロンの活性
化しきい値を修正するためにニューラルユニットの各ニ
ューロンに作用する。
【0035】図4はニューラルプロセッサ14の詳細な線
図を示している。ニューラルユニット20はn個のニュー
ロン、301 ....30j ....30n を具え、その各々はそれ自
身のシナプス係数H1 ....Hj ....Hn を受信し、かつ
その全ては非線形関数ANLFに従うべき同じニューラルポ
テンシャルPOT を受信する。近似非線形関数ANLFの同じ
象限(quadrant)に非零傾斜セグメントが存在するのと
同様に多くのニューロンが存在する。各ニューロンはニ
ューラルポテンシャルM1 ....Mj ....Mn を供給し、
ここで
【数2】 であり、Th1....Thjj ..Thnn は関数NLF が奇である
場合には零である。
【0036】n個の組合せMn は既に述べられているよ
うにn個のニューロンの層を介するか、あるいはn個の
組合せを供給するニューロンのいくつかの層を介するか
のいずれかで得ることができる。これらのニューラルポ
テンシャルは非線形関数CNLFに従う。
【0037】関数CNLFを適用する手段22はユニット35
1 ...., 35j ...., 35n により形成され、その各々は同
じ関数CNLFを適用することが好ましい。ユニット35n
は、Mnがxmax より大きいか等しいかどうか、xmin
より小さいか等しいかどうかを検出する例えば2個の比
較器361, 362により形成される。表37は比較器361 , 36
2が活性である場合にはそれらの比較器の出力による
か、あるいは比較器が活性でない場合にはMn によるか
のいずれかでアドレスされる。表は値F(x),Fmax およ
び−Fmin で前以て負荷される。各ポテンシャル
1,... ,Mj , ....,Mnでは連続して演算する単一
ユニット35のみを使用することが可能である。
【0038】図5は非線形関数CNLFの例を示している。
間隔(−xmin ,xmax )の外ではすべての関数はそれ
ぞれ−Fmin とFmax で飽和になる。
【0039】間隔(−xmin ,xmax )では、関数F
(x) はランプ関数(曲線F1 )、三次多項式(曲線F2
)、さらに複雑な曲線(曲線F3 )のいずれかによっ
て形成できる。
【0040】本発明によると、ランプ関数は間隔(−x
min ,xmax )の間で使用されることが好ましい。この
関数は、ほんの僅かのハードウエアだけの使用しか必要
でないという利点を提供する。その導関数の関連計算が
限定された補助手段のみを必要とすることは追加の利点
である。
【0041】図6はn次チャネルのランプ関数の場合の
例えば35n のようなユニット35の一実施例を示してい
る。図面を簡単化するために、Fmax と−Fmin の値は
+1と−1でそれぞれ正規化され、xmax と−xmin
同様である。
【0042】ニューラルポテンシャルMn はMn ≧1か
n ≦1かどうかをそれぞれ検出する2個の比較器36
1 , 362 に入る。Mn ≧1の場合、出力621 は活性(状
態Y)である。それは次に出力Sn に値Fmax =+1を
印加する要素63を活性化する。Mn ≦−1の場合、出力
621 は活性(状態Y)である。それは次に出力Sn に値
min =−1を印加する要素67を活性化する。−1<M
n <+1の場合、出力612 と622 は活性(状態N)であ
る。それらは出力Sn に各値Mn を転送する(バス38)
転送ゲート65に作用するアンドゲート64に印加される。
このようにしてニューラルポテンシャルMn と状態Sn
の間に対応が存在する。
【0043】図4のすべてのユニット351 −35n はすべ
てのポテンシャルMj が同じ関数F(x) に従う場合には
同一である。異なる関数F(x) も選択できる。シナプス
係数Dj により、以下の計算、
【数3】 を実行するニューラルユニット24(図4)にすべての状
態(S1 −Sn )が到達する。
【0044】ニューラルユニット24は活性化関数が必ず
しも後続しない単一ニューロンにより形成される。ニュ
ーラルユニット20と24でそれぞれ使用されるようにメモ
リ26に蓄積された係数Hj とDj は使用された非線形関
数NLF ,ANLFおよびCNLFの選択関数として、および受け
入れられた近似誤差の選択関数として予め決定されなけ
ればならない。CNLFがランプ関数である場合、計算方法
は以下のようになる。
【0045】非線形活性化関数ANLFの決定 非線形関数ANLF A(x) は非線形関数NLF T(x) の近似
であり、xは独立変数である。異なる判定規準は関数AN
LF A(x) の規定に使用できる。すなわち、− 第1の
判定規準は位置xにおける関数NLF とANLFの間の差の上
限を特定する誤差Eを事前に規定することからなってい
てもよい。− 第2の判定規準は関数NLF T(x) の近似
A(x) を創作しようとする多数のセグメント(すなわ
ち、ニューラルユニット20により供給されたニューラル
ポテンシャルMj )を事前に規定することからなってい
てもよい。
【0046】第1の判定規準によると、横座標x0 =0
(図2)から傾斜直線p0 がプロットされ、かつ横座標
1 は上記の傾斜直線が関数NLF の曲線と出合う点につ
いて計算され、同時に直線セグメントと上記の曲線との
間の最大誤差は値E以下に留まることが保証される。こ
の計算は関数NLF の全曲線に関して点x1 について繰り
返される等々である。この計算は最大誤差が値Eより小
さくなる場合に終了する。このように、その傾斜と端に
より規定される直線セグメントのシーケンスが得られ
る。xK とxK+1 の間の次数kの直線セグメントの式
は、
【数4】 であり、ここでpk は傾斜であり、qk は原点における
縦座標である。
【0047】A(x) とT(x) がセグメントの端で一致す
るから、
【数5】 が得られ、ここでpn =0である。というのは、最後の
セグメントは傾斜零を有し、かつ
【数6】 であるからである。関数T(x) は凸(x≧0)かつ奇で
あると仮定されている。計算はx≧0に関して行われ
る。
【0048】2つの曲線T(x) とA(X) の間の誤差ek
(x) は、
【数7】 のように書ける。
【0049】上記の誤差ek が最大である点x=xk
max は、
【数8】 により規定される。
【0050】T(x) が双曲線正接関数である場合には、
非零傾斜を有するセグメントに対して
【数9】 が現れる。
【0051】既知の増大するk,xk により連続的に進
めることにより、かつek max がEに等しいと書くこと
により、次数kのラインの各セグメントに対してそのパ
ラメータ(xk+1 ,pk およびqk )が得られる。
【0052】第2の判定規準によると、多数のセグメン
トは事前に固定される。セグメントの端は最後のセグメ
ントの最大誤差を含めて各セグメントの最大誤差が厳密
に等しいように決定される。第1の判定規準について述
べられた計算方法は第2の判定規準に対して少々修正で
きる。この演算は当業者にとって明白であろう。
【0053】近似の精度は最大許容誤差の値Eあるいは
関数ANLFを形成するセグメントの数のいずれかを事前に
固定することにより予め決定できる。
【0054】シナプス係数の決定 近似非線形関数ANLFが決定されると、シナプス係数HJ
とDJ (1≦j≦n)はなお計算されるべきである。シ
ナプス係数の数nは非零傾斜を有しかつ第1象限で関数
ANLFを構成するセグメントの数に等しいことが好まし
い。セグメントの端と傾斜を係数HJ とDJ に一致させ
ることにより、ランプ関数の場合に、一組の可能なシナ
プス係数は
【数10】 である。
【0055】一例として、ランプ関数により形成された
非線形関数CNLFによる直線の15個のセグメントによる双
曲線正接関数の近似の場合、10有効数字(10 significa
nt digits)の精度で以下のシナプス係数Hj とDj が表
1,2に示されるように計算された。
【数11】 表1はシナプス係数Hj を示し、表2はシナプス係数D
j を示している。
【0056】上述の方法は関数CNLFがランプ関数を具え
る場合に実行される。この方法は関数CNLFがランプ関数
を具えないが、しかしもっと複雑な関数部を具える場合
に同様に適用できる。
【0057】関数ANLFの導関数の決定 ニューラルプロセッサ10を使用する間に、関数ANLFの導
関数の使用を必要とする学習アルゴリズムを適用する必
要があるかもしれない。第1の解決法はこの導関数を新
しい関数として考慮し、かつ上述のようにその近似を実
行することである。第2の解決法は所与のハードウエア
手段の無効な二重化が回避され、かつ関数ANLFの導関数
の近似計算が無しで済ますことのできるよう関数ANLFへ
のアプローチの使用からなっており、それとは逆に、関
数ANLFの第1の正確な導関数がその代わりに計算されて
いる。ランプ関数は特別に興味ある場合を現わしてい
る。
【0058】既に
【数12】 が記述されており、ここでR( .) はランプ関数であ
る。
【0059】関数ANLFの導関数は実際にはAの導関数の
計算であり、すなわち
【数13】 である。
【0060】ランプ関数Rの導関数は、
【数14】
【0061】上に与えられた式(1)と(2)の比較に
より、A(POT )とA′(POT) の間の差はランプ関数Rか
ら関数HJ .R′への変換からなっていることが見いだ
されている。
【0062】導関数の計算は図7に示されるようなブロ
ック35を除いて、図4に示されるものと同一な形態によ
って実行できる。ニューラルポテンシャルMJ (1≦j
≦n)はMJ ≧1かMJ ≦−1かどうかを検出する比較
器361 , 362 に入る。出力612 と622 は−1<MJ <1
の場合に活性化される。出力612 と622 はは因数(inde
x )jを有するポテンシャルMj に対応するシナプス係
数HJ を転送する転送ゲート70を活性化するアンドゲー
ト64に入る。
【0063】条件−1<Mj <1が検証されない場合、
アンドゲート64は出力Sj に信号零を印加する要素71を
制御するインバータ72を活性化する。
【0064】図6と図7の線図は、関数ANLFの計算、あ
るいはその導関数の計算のいずれかに連続的に使用され
るように組合せ可能である(図8)。この目的で、機能
信号FUNCT は1つのモードあるいは他のモードの選択を
可能にする。
【0065】信号FUNCT が活性化されると、それは前に
述べられたブロック63, 65, 67を制御するアンドゲート
80, 82, 84を活性化する。非活性化信号FUNCT はこのよ
うに導関数の計算指令を構成する。この信号は前述のブ
ロック70, 71を制御するアンドゲート81, 83を活性化す
るインバータ85に印加される。
【0066】このように、コンパクトなブロック35が得
られ、それは関数ANLFあるいは関数ANLFの正確な1次導
関数のいずれかの計算を可能にする。関数ANLFによる関
数NFL の近似は所望されるだけ高い所定の精度で得るこ
とができる。
【0067】導関数は異なるやり方でも計算できる。既
に述べたように、転送ゲート70(図7と図8)は係数H
j の値の伝ぱんに役立つ。ゲート70の入力を値1に設定
し、かつシナプス係数Dj およびシプナス係数Hj で状
態Sj を乗算(ここでjは定数である)することにより
同一の結果を得ることができる。このことは、例えばメ
モリ26(図3)にシナプス係数Dj .Hj を蓄積するこ
とにより実現される。ブロック22のかかる構成が、シナ
プス係数Hj とDj を使用する関数Fの計算から、シナ
プス係数Hj とDj .Hj を有するその導関数F′の計
算への変更についてかく魅力的に修正されないのには利
点がある。
【0068】図4に示された別のニューラルプロセッサ
14はニューラルプロセッサ10(図1)の別の手段とは無
関係なハードウエアにより形成できる。しかし、ニュー
ラルユニット12とニューラルプロセッサ10のメモリ16に
基づいて別のニューラルプロセッサ14を実現するのは魅
力的である。実際に、ニューラルポテンシャルPOT の計
算と活性化関数の適用は時間的に別の演算を構成してい
る。ニューラルユニット12のニューロンは第1期間にニ
ューラルポテンシャルPOT の計算を含み、その後で、そ
れらは非線形関数ANLFの適用によりニューラル状態STAT
の計算に使用できる。
【0069】非線形関数の構成の実例 実際に、ニューラルネットの範疇で、本発明は複数の単
純関数の線形の組合せにより非線形伝達関数(実質的に
ニューラルネットの演算である)を構成する優雅な態様
を与える。
【0070】基本関数Sを使用する非線形伝達関数Aの
構成は実例として図9−12に詳細に示されている。この
例で、非線形伝達関数Aは複数の直線セグメントからな
る断片的線形関数であると仮定されている。伝達関数A
はニューラルネット演算で通常採用されているような奇
のシグモイド関数の近似であると考えられている。伝達
関数Aは各シナプス係数により加重されている特定のニ
ューロンへの各入力信号の和を含むニューラルポテンシ
ャルPOT に演算する。図9の線図はα,β,δで屈折点
(kink)を持つ4個の線形セグメントを含むことを示す
Aの正の部分を例示している。
【0071】基本関数として図10の線図に例示されたよ
うな以下の関数、
【数15】 が利用可能であるとさらに仮定されている。
【0072】第1に、POT で演算す3個の線形関数Mj
(1≦j≦3)が創作され、それは、
【0073】
【数16】 である。これは図11の線図に示されている。Hj は以下
に明らかにされるように予め定められた定数である。
【0074】次に、基本関数SはSj を発生する各Mj
について演算し、それは図12の線図に示されたようなPO
T の関数
【数17】 である。これら3個のSj は図9の非線形関数Aを与え
るよう適当に組合わされるべきである。すなわち、以下
の表現
【数18】 で関数Aに等しいように因数D1 ,D2 ,D3 が選ばれ
るべきである。
【0075】さて、POT =1/Hj を越えると、基本関
数Sj は1に等しいままであり、かつH1 >H2 >H3
であることに注意されたい。それ故、POT のその値を越
えるA(POT )へのSj の寄与は一定のままである。POT
=1/H3 を越えると、Sjへの寄与は一定である。1
/H2 ≦POT ≦1/H3 では、S1 とS2 の寄与は一定
であり、一方、S3 はAに対して線形的に変化する寄与
を与える。1/H1 ≦POT ≦1/H2 に対して、S2
3 の寄与は線形的に変化し、そしてS1 は一定であ
る。0≦POT ≦1/H1 に対して、S1 ,S2 およびS
3 の寄与はすべて線形的に変化する。
【0076】従って、以下の式、
【数19】 が良好に保持される。
【0077】1/Hj は伝達関数Aが屈折点(α,βお
よびδ)を有し、かつ相互に異なるPOT の値に一致する
から、Dj は3個の未知数を含む3個の線形方程式のこ
の組から容易に決定される。現在示されることは、基本
関数Sj の適当な組合せが予め定められた非線形伝達関
数Aの創作に使用できることである。実際の結末は、さ
らに複雑なニューラルネットの非線形関数演算を与える
ためにMおよびS関数がかなり単純なニューラルネット
機能を使用して容易に実現できることである。
【0078】非線形関数手段14とニューラルプロセッサ
10は同じチップに集積できることに注意されたい。非線
形関数手段14はニューラルプロセッサ10の部分を機能的
に形成するニューロンユニット(301 −30n )を有する
ことにも注意されたい。というのは、ニューロンプロセ
ッサ10の一部分としてのこれらユニットの演算サイクル
は非線形関数手段14の一部分としてのこれらユニットの
演算サイクルに先行するからである。
【0079】高い複雑レベルの非線形関数の上述の構成
はニューラルネットに限定されるだけでなく、本質的演
算として非線形伝達関数を使用する非線形制御の分野に
も適用できる。例えば、そのような制御は制御すべきシ
ステムの現在の状態を規定する入力データを受信し、か
つ所望の状態に向かってシステムを導く制御データを供
給する。制御データは一般に入力データに非線形なやり
方で依存し、特に制御すべきシステムが所望の状態、例
えば平衡状態からはるかに離れたパラメータ領域に移動
する場合にそうである。非線形伝達関数を実現するため
に、非線形制御それ自身は単純関数の線形組合せを使用
する断片的線形伝達関数を発生する単純なニューラルネ
ットを含むことができる。
【0080】たとえ上述の議論がディジタル的アプロー
チに主として関連していても、本発明はアナログ回路で
実現することもできる。しかし、上述の計算を実現する
アナログ回路の精度は雑音感受性あるいはパラメータの
広がりのために限定されることに注意すべきである。
【図面の簡単な説明】
【図1】 図1は既知のニューラルプロセッサの一般的
線図を示している。
【図2】 図2はシグモイド曲線の一部分と、第1象限
におけるセグメント化された線形関数によるその近似を
示している。
【図3】 図3は本発明によるニューラルプロセッサの
一般的線図を示している。
【図4】 図4は本発明による別のニューラルディジタ
ルプロセッサのさらに詳しい線図を示している。
【図5】 図5は本発明により使用できる曲線F(x) の
別の形状を示している。
【図6】 図6は別の非線形関数CNLFがランプ関数であ
る場合に関連する線図を示している。
【図7】 図7は別の非線形関数CNLFがランプ関数であ
る場合の関数ANLFの導関数の計算の線図を示している。
【図8】 図8は別の非線形関数CNLFがランプ関数であ
る場合の関数ANLFとその導関数を計算する線図を示して
いる。
【図9】 図9は各々が2つの飽和値の間でランプ関数
を有する非線形基本関数を使用する非線形伝達関数の形
成を例示している。
【図10】 図10は各々が2つの飽和値の間でランプ関
数を有する非線形基本関数を使用する非線形伝達関数の
形成を例示している。
【図11】 図11は各々が2つの飽和値の間でランプ関
数を有する非線形基本関数を使用する非線形伝達関数の
形成を例示している。
【図12】 図12は各々が2つの飽和値の間でランプ関
数を有する非線形基本関数を使用する非線形伝達関数の
形成を例示している。
【符号の説明】
10 ニューラルプロセッサ 12 ニューラルユニット 13 入力手段 14 ニューラルプロセッサあるいは非線形関数手段 15 接続 16 蓄積手段 17 接続 20 入力ニューラルユニット 22 手段 24 出力ニューラルユニット 26 蓄積手段 30 ニューロン(ユニット) 35 ユニット 36 比較器 37 表 38 バス 61 出力 62 出力 63 転送ゲート 64 アンドゲート 65 転送ゲート 67 転送ゲート 70 転送ゲート 71 転送ゲート 72 インバータ 75 ブロック 80 アンドゲート 81 アンドゲート 82 アンドゲート 83 アンドゲート 84 アンドゲート 85 インバータ
───────────────────────────────────────────────────── フロントページの続き (73)特許権者 590000248 Groenewoudseweg 1, 5621 BA Eindhoven, T he Netherlands (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60

Claims (10)

    (57)【特許請求の範囲】
  1. 【請求項1】 ディジタル データ用第1入力手段(13)
    と; 入力データおよびニューロン同士間またはニューロンと
    入力手段間接続に関係するシナプス係数の作用に従って
    ニューロン ポテンシャルを計算するニューラルユニッ
    ト(12)と; 前記シナプス係数を蓄積する第2手段(16)と; 少なくとも1つのニューラル状態STATを発生させる
    ため少なくとも1つのニューラル ポテンシャルPOT を
    n個のセグメントにより形成される少なくとも1つの近
    似非線形活性化関数ANLFに従わせる第3手段(14)と; を具えたニューラル ディジタル プロセッサ(10)に
    おいて、 前記近似非線形活性化関数ANLFを前記ニューラル ポテ
    ンシャルPOT に適用した結果を計算するため、前記第3
    手段(14)は別のニューラル ディジタル プロセッサ(1
    4)を具え、その別のニューラル ディジタル プロセッ
    サは: Hj を1≦j≦nなる予め定められたシナプス係数、T
    j をしきい値とした時、n個の組Mj =Hj.POT +T
    j を計算する手段(20)と; 少なくとも1つの別の非線形関数CNLFの組合せMj の計
    算式Sj =F(Mj )を計算する手段(22)と; 近似非線形活性化関数ANLFの前記適用した結果を発生さ
    せるためシナプス係数Dj を有するn個の式F(Mj
    を線形に組合わせる手段(24)と;を具え前記別の非線形
    関数CNLFはxを独立変数とした時、xが−xmin とx
    max の間に位置する時一定ではないセグメントF(x)
    と、それぞれx≧xmax 及びx≦−xmin の時2つのセ
    グメントF(x) =Fmax およびF(x) =−Fmin とによ
    り形成されることを特徴とするニューラル ディジタル
    プロセッサ。
  2. 【請求項2】 請求項1記載のプロセッサにおいて、式
    F(Mj ) を計算する手段(22)は: 組合せMj が−xmin とxmax の間にあるかこの間の外
    にあるかを検出する手段(361, 362 ,64)と; この間での値F(Mj )を計算する手段(37)と; それぞれMj ≧xmax およびMj ≦−xmin の時F(M
    j )にそれぞれ値Fma x および−Fmin を割当てる手段
    (37)と; を具えることを特徴とするニューラル ディジタル プ
    ロセッサ。
  3. 【請求項3】 請求項2記載のプロセッサにおいて、手
    段(37)は予め定められた値F(Mj )をアドレスMj
    蓄積する表を具えることを特徴とするニューラルディジ
    タル プロセッサ。
  4. 【請求項4】 請求項2記載のプロセッサにおいて、別
    の非線形関数CNLFがランプ関数で、手段(37)はニュ
    ーラル ポテンシャル値Mj をニューラル状態Sj に適
    用する転送手段(38,65) により形成されることを特徴と
    するニューラルディジタル プロセッサ。
  5. 【請求項5】 請求項1から4いずれか記載のプロセッ
    サにおいて、別のニューラル ディジタル プロセッサ
    はまた近似非線形活性化関数ANLFの導関数F′を計算す
    る手段(75)を具えることを特徴とするニューラル ディ
    ジタル プロセッサ。
  6. 【請求項6】 請求項5記載のプロセッサにおいて、手
    段(75)は組合せMj が−xmin とxmax の間に位置しこ
    の外側で値が零である時、その計算式S′j =F′(M
    j ) の予め定められた値を蓄積する少なくとも1つの表
    を具えることを特徴とするニューラル ディジタル プ
    ロセッサ。
  7. 【請求項7】 請求項6記載のプロセッサにおいて、別
    の非線形関数CNLFはランプ関数で、その表は各計算式
    S′j =F′(Mj ) ごとに対応するシナプス係数Hj
    の値を複写するブロック(70)により置換されることを特
    徴とするニューラルディジタル プロセッサ。
  8. 【請求項8】 請求項6記載のプロセッサにおいて、別
    の非線形関数CNLFはランプ関数で、手段(26)は近似非線
    形活性化関数ANLFの計算のため値Hj とDj を蓄積し、
    その導関数の計算のため値HjとDj. Hjを蓄積し、
    表はその入力でユニット値のデータを受信するブロック
    (70)により置換されることを特徴とするニューラル デ
    ィジタル プロセッサ。
  9. 【請求項9】 請求項1から8いずれか記載のプロセッ
    サにおいて、手段(22)は近似非線形活性化関数ANLFとそ
    の導関数とに従って順次に式を計算するために使用され
    ることを特徴とするニューラル ディジタル プロセッ
    サ。
  10. 【請求項10】 請求項1から9いずれか記載のプロセ
    ッサにおいて、ニューラル ユニット(12)および別のニ
    ューラル プロセッサ(14)は共通のニューロンを有する
    ことを特徴とするニューラル ディジタル プロセッ
    サ。
JP32792492A 1991-12-11 1992-12-08 ニューラルディジタルプロセッサ Expired - Fee Related JP3315449B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9115373 1991-12-11
FR9115373A FR2685109A1 (fr) 1991-12-11 1991-12-11 Processeur numerique neuronal operant avec une approximation d'une fonction d'activation non lineaire.

Publications (2)

Publication Number Publication Date
JPH05242068A JPH05242068A (ja) 1993-09-21
JP3315449B2 true JP3315449B2 (ja) 2002-08-19

Family

ID=9419921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32792492A Expired - Fee Related JP3315449B2 (ja) 1991-12-11 1992-12-08 ニューラルディジタルプロセッサ

Country Status (5)

Country Link
US (1) US5796925A (ja)
EP (1) EP0546624B1 (ja)
JP (1) JP3315449B2 (ja)
DE (1) DE69223221T2 (ja)
FR (1) FR2685109A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0683462A3 (fr) * 1994-03-31 1996-01-17 Philips Electronique Lab Procédé et processeur pour construire une fonction linéaire par morceaux avec discontinuités éventuelles.
FR2724027A1 (fr) * 1994-11-25 1996-03-01 France Telecom Operateur neuronal
US7433097B2 (en) * 2003-04-18 2008-10-07 Hewlett-Packard Development Company, L.P. Optical image scanner with moveable calibration target
DE102006046204B3 (de) * 2006-09-29 2008-07-17 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung
US20140143191A1 (en) 2012-11-20 2014-05-22 Qualcomm Incorporated Piecewise linear neuron modeling
US10049326B1 (en) * 2013-02-01 2018-08-14 The United States of America as Represented by the Admin of National Aeronautics and Space Administration Systems and methods for transfer function estimation using membership functions
EP2821183B1 (en) 2013-07-05 2017-06-21 Black & Decker Inc. Hammer Drill
CN105893159B (zh) * 2016-06-21 2018-06-19 北京百度网讯科技有限公司 数据处理方法和装置
JP2018092294A (ja) * 2016-12-01 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 演算装置、演算方法及びコンピュータプログラム
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US10872290B2 (en) 2017-09-21 2020-12-22 Raytheon Company Neural network processor with direct memory access and hardware acceleration circuits
US11468332B2 (en) 2017-11-13 2022-10-11 Raytheon Company Deep neural network processor with interleaved backpropagation
JP6391900B1 (ja) 2017-11-27 2018-09-19 三菱電機株式会社 準同型推論装置、準同型推論方法、準同型推論プログラム及び秘匿情報処理システム
US11475305B2 (en) * 2017-12-08 2022-10-18 Advanced Micro Devices, Inc. Activation function functional block for electronic devices
RU182699U1 (ru) * 2018-05-31 2018-08-28 Федеральное государственное бюджетное образовательное учреждение высшего образования "МИРЭА - Российский технологический университет" Импульсный блок расчета активационной функции искусственной нейронной сети
US11775805B2 (en) * 2018-06-29 2023-10-03 Intel Coroporation Deep neural network architecture using piecewise linear approximation
CN110688088B (zh) * 2019-09-30 2023-03-28 南京大学 一种面向神经网络的通用非线性激活函数计算装置和方法
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
CN113935480B (zh) * 2021-11-12 2022-10-18 成都甄识科技有限公司 面向神经网络在线学习的激活函数加速处理单元
KR102651560B1 (ko) * 2021-12-01 2024-03-26 주식회사 딥엑스 프로그램된 활성화 함수 실행 유닛을 포함하는 신경 프로세싱 유닛

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3601811A (en) * 1967-12-18 1971-08-24 Matsushita Electric Ind Co Ltd Learning machine
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
US4979126A (en) * 1988-03-30 1990-12-18 Ai Ware Incorporated Neural network with non-linear transformations
US5131072A (en) * 1988-08-31 1992-07-14 Fujitsu, Ltd. Neurocomputer with analog signal bus
FR2639736B1 (fr) * 1988-11-25 1991-03-15 Labo Electronique Physique Procede de retropropagation du gradient et structure de reseau de neurones
FR2639739B1 (fr) * 1988-11-25 1991-03-15 Labo Electronique Physique Procede et dispositif de compression de donnees d'image utilisant un reseau de neurones
US5293459A (en) * 1988-12-23 1994-03-08 U.S. Philips Corporation Neural integrated circuit comprising learning means
US5107442A (en) * 1989-01-12 1992-04-21 Recognition Equipment Incorporated Adaptive neural network image processing system
FR2648253B1 (fr) * 1989-06-09 1991-09-13 Labo Electronique Physique Procede de traitement et structure de reseau de neurones mettant en oeuvre le procede
US5109351A (en) * 1989-08-21 1992-04-28 Texas Instruments Incorporated Learning device and method
GB2236608B (en) * 1989-10-06 1993-08-18 British Telecomm Digital neural networks
US5067095A (en) * 1990-01-09 1991-11-19 Motorola Inc. Spann: sequence processing artificial neural network
JP2785155B2 (ja) * 1990-09-10 1998-08-13 富士通株式会社 ニューロコンピュータの非同期制御方式
US5097141A (en) * 1990-12-12 1992-03-17 Motorola, Inc. Simple distance neuron
US5228113A (en) * 1991-06-17 1993-07-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Accelerated training apparatus for back propagation networks

Also Published As

Publication number Publication date
JPH05242068A (ja) 1993-09-21
EP0546624B1 (fr) 1997-11-19
DE69223221T2 (de) 1998-05-14
DE69223221D1 (de) 1998-01-02
EP0546624A1 (fr) 1993-06-16
FR2685109A1 (fr) 1993-06-18
US5796925A (en) 1998-08-18

Similar Documents

Publication Publication Date Title
JP3315449B2 (ja) ニューラルディジタルプロセッサ
US4866645A (en) Neural network with dynamic refresh capability
US4979126A (en) Neural network with non-linear transformations
US4874963A (en) Neuromorphic learning networks
US6151594A (en) Artificial neuron and method of using same
EP0357016B1 (en) Neuron architecture
EP0333798A1 (en) Apparatus for pattern recognition
US5075868A (en) Memory modification of artificial neural networks
WO1994001823A1 (en) A tree-like perceptron and a method for parallel distributed training of such perceptrons
JPH02193251A (ja) エラー後方伝ぱん法と神経網システム
EP0722587A1 (en) Learning neural network and methods thereof
US5103496A (en) Artificial neural network system for memory modification
US4901271A (en) Computational network
JPH07271748A (ja) データを正規化する手段を含むニューラル・プロセッサ
JPH0363870A (ja) 学習方法及びニューラル ネットワーク構造
Ghobakhlou et al. Adaptive speech recognition with evolving connectionist systems
Sorheim A combined network architecture using ART2 and back propagation for adaptive estimation of dynamical processes
FI103304B (fi) Assosiatiivinen neuroni
CN113269313A (zh) 突触权重训练方法、电子设备和计算机可读介质
JP3729868B2 (ja) 連想ニューラル・ネットワーク
JPH04237388A (ja) ニューロプロセッサ
JPH09138786A (ja) ニューラルネットワークの学習装置
JPH0981535A (ja) ニューラルネットワークの学習方法
KR20230086584A (ko) 시스톨릭 어레이 기반의 신경망 가속기를 이용한 순환 신경망 데이터 처리 방법 및 신경망 가속기
KR20220076271A (ko) 간소화된 시그모이드 함수 회로 및 이를 포함하는 뉴로모픽 프로세서

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees