JPH06509670A - 差分ニューロンを包含したニューラルネットワーク - Google Patents

差分ニューロンを包含したニューラルネットワーク

Info

Publication number
JPH06509670A
JPH06509670A JP4511451A JP51145192A JPH06509670A JP H06509670 A JPH06509670 A JP H06509670A JP 4511451 A JP4511451 A JP 4511451A JP 51145192 A JP51145192 A JP 51145192A JP H06509670 A JPH06509670 A JP H06509670A
Authority
JP
Japan
Prior art keywords
vector
value
output
input
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4511451A
Other languages
English (en)
Inventor
セリグソン,ダニエル
Original Assignee
インテル・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル・コーポレーション filed Critical インテル・コーポレーション
Publication of JPH06509670A publication Critical patent/JPH06509670A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2453Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Neurology (AREA)
  • Nonlinear Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】
発明の名称 差分ニューロンを包含した二二−ラルネットワーク発明の技術分野 本発明は、人工神経細胞および二1−ラルネットワーク(人工神経細胞網)に関 するもので、これらは、大部分が並列的であり、且つ高度に相互接続された非線 形演算ノードを利用することができる。 発明の背景 人工神経細胞網(以下、ニューラル本ブトワークと称す)の歴史は、71クロー チ(McCulloeh)およびビッツ(Pltts)によるパイオニア的な仕 事により開始される。両者の著者1数学的生物物理学プリテン” (1943年 発行、vol、5.第113〜IIs頁)の記事“神経作用における切迫した考 えの論理的演算”によれば、簡単なスレッシュホールドデバイスとしてモデル化 された神経細胞(二ニーロン)は、論理機能を実行することによって演算可能で あることが開示されていた。 1962年にローゼンブラート(Rosenbl att)は、′ニューロダイナミックの基Il!″にコーヨーク州の5part an Books社より発行)を書き、単一の神経細胞層を持った適合性(学習 )神経細胞網“パーセプトロン(percept ronどを定義したその後す ぐに、これら単一層神経細胞構造は限定された有用なものであることが確認され た。演算上、更に大規模な多層適合性二コーラルネットワークが研究され、以下 の書籍が発行されるようになった。即ち、1986年、ディ・ランメルハート( D、 Ru■elhart)およびジェ・ンー・マツクセランド(J、C,Me Clelland、 Eds、、)により“並列分配型処理” (MI7プレス 社、ケンブリッジMA)が発行され、これには、多層適合性学習手順が記載され ており、この手順には、広く知られたく周知の)バックブロパゲーン曹ンアルゴ リズムが包含されている。 従来のニューラル本ブトワークは、主として、前述のマブクローチおよびビッツ (以下、単に畦と称す)の神経細胞モデルに基づいたものである。このMPニュ ーロン(神経細胞)は、非線形、通常はS字形状のスレッシュホールド関数に供 給された入力の加重総和によって決められた出力を発生するモデルに基づいて予 測されるものである。本発明の神経細胞モデルは、非MP神経細胞に基づくもの で、局部的受容性・フィールド、即ち差分二ニーロンと称される非畦ニューロン に基づくもので1、−の二、s07モデルは、差の測定四重を利用し、て推測さ れるものである。、二の差の測定規準は、差分ニューロンに供給される、入力ベ クトルと変更可能な基準ベクトルとの間の差の測定規準を表す。6二】−ロンの 出力は、これら2つのベクトル間の距離の測定規準と、この測定規準に与えられ たオフセットと、更に、差分二j−はンの非線形出力とによって制御される。 ニューラル本ブトワークに対する代表的な4つの適用分野としては以下のものが 包含されている。 (1)ノイズで汚染された、または不完全なパターンの分類。 (2)入カバターンからクラス見本を発生ずる、組合わせまたは内容をアドレス できるメモリ。 (3)イメー/′オよびスピーチデータの帯域幅圧縮に対するベクトル量子化。 (4)多変量非線形関数の近似法および補間法。 これらの応用の各々において、デ・−夕のかたまり(集合)を識別する能力は、 11要な属性である。単一のMPニューロンは、N−空間における超平面、即ち 、2−空間における直線によって決定空間を分割できるだけである。この特性の ために、このMP:′−コーロンは、直線的分割可能な識別子として知られてお り、この識別子はデータ空間を2つの半部に三等分することに限定されてしまう 。また、MPニューロンの三層ネットワークでは、信号ベクトル空間内の閉鎖領 域を超平面手段によっで隔離する必要がある。 N−空間内の一回転楕円面状領域を、それの中心部を基準ベクトルによって規定 された点に配置することによって隔離すること、その半径(または選択度)をオ フセットによって制御すること、適当な差分の測定規準を選択することによっで そ第1.形状を制御できる能力を有する単一の差分ニューロンを実現することが 本発明の目的である。 差分ニューロンに関する従来技術の文献が種々に存在しており、例えば、ポギイ オ(T、 Pogglo)およびギイロ/(F、 Glrosl)著の−Reg ulirlzation Algorithms ror Learning  That Are Equlvalent to MulLIlayer Ne tworks−(1990年2月Q3日発行 のサイエンス、vol、 247.第978〜9821’りには、多層ニューラ ルネットワークが記載されている。この二j−ラルネットワークは、入力値の加 重総和を構成するりニア(直線性)ネットワークと乎行なニューロンの単一層よ り構成され、これの出力は、単一の共通の加算接点と組合わされている。これら ニューロンの各々によって、重み付けされた半径バイアス関数が生成され、これ には、入力ベクトルと基準ベクトルとの間の差のニークリ・yドノルム上に非線 形演算子が利用される。 しかし乍ら、この文献において、著者達は、半径をコントロールするための差分 ノルムに対するオフセットの応用について教示しないと共に、超楕円形状のコン トロールのためのノルムを選択することにも教示しなか7た。 また、ハートスティン(^、 Hartsteln)およびコーチ(R,11, Koch)による二a−ラルネットワーク会議(1988年7月号ンディエゴ)  IEEE刊行物”^Self−Learning Threghold Co ntrolled Neural Network”(第1−425〜1−43 0頁)には以下の従来技術が記載されている。即ち、ポツプフィールド型のネッ トワークで、入力ベクトルと基準ベクトルとの間の差を表すための一次のミンコ ウスキー距離測定規準を利用している。これら入力ベクトルと出力ベクトルとの 間の差から生成される絶対誤差に基づいて、リニアヘビアン学習ルールが成り立 つ。しかし乍ら、この従来技術の文献には、選択制御におけるオフセットの有用 性について何ら教示しないばかりか、一回転楕円面形状の制御の目的のために差 分ノルムの選択についても何ら教示していないものである。 本発明の差分二)−ラルネブトワークは学習アルゴリズムによってサポートされ ており、このアルゴリズムによって、基準ベクトル重みおよびオフセット値が適 用され、これによって所定の入力ベクトルに対する所望の出力応答を近似するこ とができる。これらのアルゴリズムは基準ベクトルに関する誤差傾斜に基づくも のである。また、基準ベクトルは調整可能な重みより構成されており、入力ベク トルの各成分に対する1つの重みが各二ニーロンセルに対するものである。この オフセット値は、超回転楕円形の解像度、即ち、半径を制御する。 発明の概要 人工神経細胞にとって良好な弁別特性が要求される観点から、本発明の目的の1 つとしては、制御可能な超回転楕円面状弁別特性を有する差分二1−ロン(神経 細胞)を提供することである。 他の目的としては、ユーザによって超回転楕円の半径を制御することにより弁別 特性を選択的に調整できる人工神経細胞を提供することである。 また、他の目的と1.では、ユーザによって、一回転楕円体の表面影状を選択的 に制御して変数を提供することである。 また、他の目的としては、強調された弁別特性用の差分二ニーロンを包含したニ ューラルネットワークを提供することである。 また、他の目的としては、すべてのニー−ロンが差分二)−ロンである多層ニュ ーラルネットワークを提供することである。 更に、他の目的としては、差分ニューラルネットワークをディジタル的に実現で きることであり、この結果、標準の畦ニューロンと比較してより濃密なネットワ ークが実現できる。 従って、距離の測定規準を利用した人工神経細胞が記載されている。従来のマツ クローチ・ピラノ(MP)ニューロンとは異なり、即ちこの畦二ニーロンによっ て、入力信号ベクトルと加重ベクトルとのベクトルドツト積の非線形関数を生成 するニューロンとは翼なり、本発明の差分二講−ロンにより、入力信号ベクトル と基準ベクトルとの間のベクトル差分の非線形関数を生成するものである。これ ら距離の測定規準および非線形関数の種々のものについて以下詳述する。距離の 測定規準には、一般化されたミンコスキー距離関数(Minkowski di stance functlons)が包含されており、この距離関数によって 、通常、一般化された超回転楕円形状弁別関数が導出される。また、出力弁別関 数を生成するに先立って、距離の測定基準に対するオフセット手段によって、弁 別式を選択的に制御する方法が記載されている。また、偶数および奇数対称性を 有する出力非線形関数についても記載されている。差分タイプ二二−口ンがマル チニューロンネットワーク中に組込まれている。 一好適実施例によれば、正方向送り二二−ラルネyトワークを、少な(とも一層 の平行な差分ニューロンより構成する。一般に、この第1層の各ニューロンを入 力信号ベクトルと十分に相互接続すると共に、それ自身の基準ベクトルと十分に 相互接続する。この第1層の差分ニューロンの各々の出力の組によって、出力ベ クトルが構成される、この出力ベクトルを入力信号ベクトルとして第2のニュー ラル層に対して利用するか、または最終出力ベクトルとして利用できる。第21 を利用した場合に、それのニューロンセルの各々は、組合わされた基準ベクトル を有している。このような方法において、多層ネットワークを構成することがで き、継続した層の各々は、それより前の層出力ベクトルをそれ自身の入力ベクト ルとして利用4−る。この最終層の出力がネットワーク出力層となる。 適合蟹正方向送り差分ニューラルネットワークが記載されており、このネットワ ークによって、これに組合わされた基準ベクトルの構成要素値を学習(適合)す ることかぐきるので、適合したネットワークの出力は、統=1学的な観点で振舞 う。これの振舞いは、ネットワークの“1・1/−ユング1中に利用したターゲ ットバター二ノに従って行われるものである。このトレーニングまたは適合動作 は、所定の入力ベクトル(パターン)によって発生したトライアルの出力を、目 I!(所望)のパターンと比較すること、およびエラー測定規準を発生させるこ と、ならびに適切な調整値をこれと組合わせた基部ベクトルに与えて応答エラー を最小化することにより実行できる。従って、このトレーニング手順に基づいて 基準ベクトル値を調整する適合制御方法および装置が記載されている。同一の制 御システムを利用してこの二二−ラルネブトワークの動作を構築すると共に制御 することができる。 また、正方向送り二1−ラルネットワークを採用した帰還盟ニューラル本フトワ ークも記述されている。 図面の簡単な説明 本発明の特性部分である新規な特徴が付帯された請求の範囲に規定されている。 しかし乍ら、発明そのものならびに、これの特徴および利点は、以下の記載を添 付の図面を参照し乍ら理解できるものである。以下これら図面について簡単に説 明する。 図1は、従来の代表的なマツクローチ・ビ1ソ(MP)二二−ラルセルを示す線 図。 図2は、この計ニューロン中に利用される3つの代表的な非直線性(線形)を表 す線図。 図3は、種々の2次元の識別関数を表す線図。 図4は、差分ニューロンの機能ブロック線図。 図5は、一般化された2次元の超回転楕円(円形)のパラメータ処理された組合 わせを示す線図。 図6は、表示的差分二ニーロン出力の非線形およびそれに対応する識別関数を表 す線図。 図7は、2層の差分ニューラルネットワークのブロック線図。 図8は、マルチプレックス処理したアナログの差分ニューラルネットワークを示 す線図。 図9は、差分タイプのマルチプレックス処理したアナログニューロンの最新にお ける好適実施例を示す線図。 図10は、マルチプレックス処理したディジタル差分ニューラルネyトヮークを 示す線図。 図11は、差分タイプのマルチプレックス処理したディノタルニューロンの最新 における好適実施例を示す線図。 図12は、適合型ニューラルネットワークおよびフントロールシステムの機能ブ ロック線図。 図13は、適合方法を説明するフローチャート。 図14は、差分タイプの二ニーロンを利用した帰還ネットワークを示す線図。 図15は、帰還ネットワーク用の基準ベクトルを発生する方法を示すフローチャ ート。 詳細な説明 !、序文(MPニコーロン) 71クローチおよびビlノ(MP)の二ニーロン(神経細胞)モデルは、人工ニ ューラルセルおよび人工ニューラルネットワークの従来例としては卓越したもの である□図1は、代表的なMPセルを示す機能ブロック線図である。入力信号ベ クトル”Uoは、信号レベル(U3.・・・、LIN)の並列組により構成され 、これら信号レベルは入力ターミナルI−Nへ供給されている。これら入力信号 の各々が加重帽み付け)手段IOに供給されて、この結果、積W+Ll++W山 +”’、W*u、b’表す一組の信号値をこれら加重手段の出力に発生する。こ れら積の項が加算1112で加算されて、以下のようなベクトルドツト積を表す 加算器が得られる:w”uw XWPJi 更に、スーパースクリプトのTは転置演算子である。この加算器10の出力にも 、オフセット項一〇が念まれでおり、これを加算器1Gの入力に供給する。この オフセット項を、スレ1ンユホールド値とも称する。この加算器lOの完全出力 、即ち、を、非線形変換手段16に供給することによって、出力信号−y’を得 る。ここで、y= f (v’u−θ) である。 この畦タイプの二二一うルセルで使用された代表的な非線形転送特性を図2に示 す。これら転送特性として、図2aの符号関数、即ち、バー ドリミブタと、図 2bの線形スレッシ1ホールド論理演算子と、図2cの5字関数、即ち“ソフト リミッタ”とが含才れる。概念的な表示によって、これら加算器12、オフセッ ト14、非線形変換手段16を、単一の非線形演算または処理エレメント(PE )18に組込むことができる。 人工ニコーロンの品質を向上させる有用な方法は、ベクトル空間を論理的に分離 または分類できる能力によるものである。例えば、図1に示した代表的な2次元 MPニューロンについ°C考察する。この加算器12の出力は以下のものである :v”u−θ=J111+W−LIt−7?この合計値を非線形出力16に与え ると、図23に示したような非線形の符号関数となる。この出力°y”は以下の ようになるy=sgn (w+u++マ5ue−θ)更に、 y= + l 、 W1111+W1L11−〇〉0の場合−1,それ以外の場合 これは、U、、U、面の2つの領域を弁別できる能力を意味する。これら2つの 領域間のボーダーラインは、以下の条件を満足するラインによって表される。即 ち、y−o または O=1+u+ 4−w、む−θ ulについて解くことによって、以下が得られる:・ノまり、−(W、/豐ハの 傾きを有する、ul、u、平面内の線形方程式および図31に示したθ/91の 縦座標オフセットが得られる。陰影の付いた準平面は、Ll+、utの値に対応 するのア、この結果として、符号関数の偏角は、0より小さいものである。即ち 、 曹tut+マ1ul−θく0 まtこは、 W+L+++W*LIm< 0図2bおよび図2Cの非線形特性は 、同様に、この平面を、“ぼやけた(ファジィな)′転移領域を除いて2つの領 域に分割するようになる。図2bのスレ1シ1ホールド論理非綿形特性は、2状 態出力および線形転移領域を有するリミ’?夕である。図2cの5字関数は、小 さな(〜O)入力に対してほぼ線形領域を有するソフトリミI夕である。しかし 、これは、時として、非線形特性の選択となってしまう。 その理由は、この5字関数の′滑らかさ“によつて、微分可能性が保証されるか らである。即ち、周知のバックブロジエクンJンアルゴリズムのような適合戦略 にとって重要な特性である。 一上述した分析を三次元まで展開した場合に、境界条件は以下のようになる:w lu、→−曹+uw+11uh=θ これは3空間における線形方程式であり、この3空間は空間を2分する平面を表 10更に追加の次元、例えばN空間を導入するとこれは、これに適用される空間 を2分するN−1次元の超甲面となる。 2、差分二ニーロン 図4は本発明の一好適実施例の機能ブロック線図である。ベクトルドツト積”豐 T、−に基づいた従来のMI’二ニーロンとは異なり、本例の二ニーロンは、入 力ベクトル゛11−と基準ベクトル°W−との間のベクトル差、ならびにこの差 分を表す測定規準、即ち、距離関数s(u、w)に基づくものである( Wor n/Worn共著−Mathe++atleal Handbook for  5eientlsts and Englneers−マグロウヒル社刊、19 61年345頁、セフシーン12.5−2)。 図4に戻り、入力ライン21によって、入力ベクトルu”’(11+、us、・ ・・、U++)の各エレメントを、一般に25で表示される差分ユニットへ供給 する。また、入力ライン23によって、基準ベクトルマ;(マ1.”l+・・・ 、!、)の各エレメントを、これら差分ユニブト25の対応のターミナルへ供給 して、ベクトル差分を形成する、即ち、u−++= [(ul−wt)、 (u −−w−)、 −、(u−−v−)]が得られ、これが距離関数発生11 (D FG) 2Gへの入力に現れる。 この発生器DF02Gは、選択した特定距離測定規準に依存して、種々の非線形 転送特性を持つことができる。 これら測定規準s(a、b)のすべては、以下の条件を満すようになる。 s(a、a)−0 s(a、 b)≦s(a、 e) + s(b、 cl、 (三角形特性)、こ れは更に、以下を意味する:s(a、 b) > O;および s(a、 b) = s(b、 a) 一般化された距離関数は、以下の式で与えられたミンコフスキー(Minkow ski)の0次の測定規準である: ’n(a、b)−[pak−b、1? ここで、ベクトルは !=[!1,11.・・・、i]1b−[b+、 bs、 ・・・、b11]” である。 興味を引(特別なケースには、第1次のミンコフスキー距離関us+(tb)、 また“シティブロブク(cHy blockど測定規準としC知られている関数 8+(a、b):および、ユークリッド距離としても知られている第2次の関数 1s(a、b) :を包含している。 ここで、ミンコフスキー距離規準の整数および分数のべき、例え+i s”、( a、b)謀11a、 −b了 は、距離測定規準を規定する」二連の条件を満足 するものである。 従って、発生gIDF026の目的は、差分エレメント25によって発生したベ クトル差5)(it−w)を適当な距離関数に変換することであり、この距離関 数11、入力ベクトル″11と7ji準ベクトル−W′との間の分離の絶対値の 測定を表してL12゜この出力S(U。 W)を加算器27で1フセy)i([−0に加算して、出力非線形手段(OWL )281こ供給する。 、−の差分ニューロンおよび従来の畦二、−oンの利点を比較すると共:こ識別 するために、空間を分離するための差分二ニーロンの能力の検査方法1こつ−1 で考察す”る。irt述のように2次元空間を考察する。出力非線形手段(ON L)211への入力としか尋人られ、0.による、1n番目の1nべき数のミン フフスキータイプの距離測定規準オフセy+・となる。更に、この0旧8を図2 aに示したような、、plJミ・ット型lト線影のままとする。甲面(ul、  un)を以下に示したように2つの領域1こ分離する:これら2つの領域間の境 界を形成する軌跡が以下のように与えられる:l Ll+−W+ 1 ”+ l  us vw l−−θ−もLm=2ならば、−[述の式は、以下のような二次 方程式を生成する:l ul−W+ビNIImW*じ−θ。 この方程式は、図3bで示j、たように、fθ、の半(¥を有する中心が11. !、である円を表す。陰影の11いた部分はtut−マ、ビ+l us−911 ’(θ、を表す。もし、■=l+、にらば、以下のようになる; l ul W+ l + l ulW+ l =01これは、図3c中にプロッ トされている。2つの領域間の境界を表す方程式を、θ−−00で割算すること によって正規した場合に、次式が境界を規定する:この方程式を、整数用の一般 化されたm次の円であると考えられると共に、mの分数値であるとも考えられる 。m = 1/3.1/2.1.2.3.4に対するm次の円が図5にプロット されている。 一1述したように、この二次元の例を展開して、それより高次元の空間を包含さ せることができるので、この結果として、測定規準のクラスのために、選択され た汎用の円は汎用の球面になり、次に、これが一般化されたN次元の超球面とな る。 ここで重要なことは、前述したように、この差分二コーaンは、極めて改良さ4 また弁別能力を有するようになることで、この弁別能力は、オフセットθを用い て超球面の半径を調整できると共に、基準の重み(ベクトル要素)1マ、1の選 択によってこの球面の中心に配置できるようになる。これに加えて、超空間の“ 形状”を、適当な距離測定規準を選ぶことによって調整することができる。 図3bおよび図30は、方程式s、(u、v)x(+−を満足する点の軌跡によ って5S(U、マ)=θ0く0に1する負の値の領域が包囲されていることを表 している。従って、図4の出力非線形手段(ON+、)26を適切に選択するこ とによって、必須のm次の放射状に女1fトな弁別関数が得られる。例えば、図 6に示した3つの例について考察する。 6例は、その左側に非線形転送特性および、その右側にこれに対応した二次元の 弁別表面から構成される。図63は二次元の八−ドリミッタの場合を表し、図6 bはガウスベルの場合を表し、更に図6cは2個の環の場合を表す。これらの例 は厳密なものでなく、多大な選択可能なものを連想するためのものである。 3、差分二j−ラルネノトワーク 図1に示した前述のタイプの差分ニューロンを相互接続して、一層または多層の 差う)二、−ラルネットワークを構成する。図7は、完全に相互接続された二層 の75)二、1−ラルネノトワークの例である。N個の構成成分(U、U、、・ ・・、u、)をeする入力ベクトル゛U−を人力ライン31に供給する。これら 入力ライン31の各々を、第1層の差分ニューロン20の各々におけるN本の入 力ライン21に接続する。ニューロ7ON−11からDN−Nlによってこの第 1層を構成する。更に、二ニーロンpト11の各々は、7&準ベクトルマ+l  I+を入力として受信すると共に、出力、+ll+を形成する。 組合わせられた出力(、+111.、+111.・・・、y“l)によって第1 層の出力ベクトル110が形成され、ここでこの出力ベクトルは以下のものであ る:、Il+ = (,1111,、+ll+、・・・、、+l1ll)また、 この出力ベクトルを第2のニューラル層へ供給し、この第2のニューラル層は、 ニューロンDト12からDN−N2までを、これらの対応の組の差分ベクトル( W″11、、+111.・・・、1Ntllと一緒に有しこれによ7て、以下の 第2層の出力ベクトルが形成される: 、+11 = (,1I11.y′tw1.、、、%#jl)明らかに、追加の 層を図7に示したネットワークに追加することができ、これは、k番目の層の出 力ベクトル、nlを入力として、(k−1)番目のニューラル層に対して処理す ることによって実現する。また、Nl4のニューロンを各層内に表示したが、特 定の実施によって各層中にNl4のニューロンより多いまたは少ない二j−ワン を利用できる。同様に、何れか特定の二j−口ンを、すべて利用できる入力およ び基準ベクトル″l’素に対して、これより少ない個数で接続することができる 。この観点から考えて、ニューラル出力が無いことは、入力ベクトルか基準ベク トルのいずれかの接続が欠如していることに等しくなる。 あらゆる入力ベクトル°U°に対するこのネットワークの応答は、基準ベクトル w″′1中に保存された饋ならびに、前述したように図4で示したPEユニット 29で用いたnva形タイプのものとによって制御される。2&準ベクトルマ′ 11の要素に対して値を当てはめる、即ち割当てる方法が後述の第4車に説明さ れている。 図8に示す差分ニューラルネットワークの一実施例は、マルチプレツクス動作を 、コンポーネントの数量を減少させたり、コストや物理的寸法を縮減する手段と して利用する特徴を有している。図9は図8のネットワークで使用するためのマ ルチプレックス型の差分二ニーロン構成を示す。 図8において、入力ベクトル”U”をマルチブレ1クサMUX4Gの人力に供給 する。 このマルチプレックサMLIス40を用いてN個の人力レベルのルベル°Lll −を以下の方法によって選択する。即ち、選択コントロール41を用いると共に 、この選択したレベルを、番号42で代表された第一層のニューラル入力の各々 に供給することによって選択する。、適当な基準ベクトル、、onの対応する値 を3番目のニューロンの払準入ツバ4に供給する。ここでJ=1.2.・・・、 nである。ベクトル1N11.11111の3番目の値を、D/Aフンバータ( DAC)4♂によってそれの入力49に供給したディジタルコードに基づいて発 生ずる。この方法にわいて、第1層の出力ベクトルの1番目の値がMIIXl+ Oで利用できるようになり、このMUX60によって第1層出力ベクトルy(1 )のN個の値の1つの選択を制御して、第2二1−チル層への入力とする。 図9にわいて、人力ライン42および4δ上のベクトルエレメントu、、、 1 1m1を、エレメント54によっ゛〔差分処理して、差分ベクトルコンポーネン ト、 、 −v 、 + I m lを影成ケる。叶G2Gによって、図4に関 連して前述したように、距離の測定規準を生成する。このDFG!6の出力を積 分器56で累積する。この積分器ユニ1トs6のクリアコントロールS7を用い るので、この結果、差分値u、−wI″″′に相当する第1 DFG26の出力 値を累積するn;1に、積分器56をクリアする(零にする)。このような方法 によって、所望の加n値を得るために、DF026のN個の出力を累積する。例 えば、この累積値は、以下に示したに次のミンコプスキー距離測定規準(k”  order Mlnkowski disLanee metric)に相当す る。 また、11 )t 41Σ1u1−マ1″″llkは、k次のミンコフスキー距 離測定規準のに番]」のべき数に相当する1、積分′r4S6の出力を加算器5 3によってオフセット“−θ°に加算すると共に、081.28まで通過させる 。このONL2gによって、あらゆる追加的に要求された非線形変換を実行して 、一般に第に二−ラルネブトワーク層の1番目のコンポーネントに相当する出力 値y′I11を生成する。 ニューロン64、DA(J8と入力69、DAC70と入カフェとは、層番号1 の動作中に、ニューロン44、I)AC411、入力49、DAC5Oおよび入 力51として層番号2において、それぞれ?1 (Elの没スリを果し、この結 果として、所望の出力ベクトルI m l−(、L I I l 、 y L  +1、・・、 +*1+ )を生成する。明らかに、この構造を、所望の多くの 層まで展開することができる。また、例えば0^Cユニツトの追加のマルチプレ ックス動作を利用して、更に動車的使用が考えられる。 図10および図11は、それぞれ、図8のマルチプレ1クス壓のアナログネット ワークに対するディジタル方式わよび図9のマルチプレックス型の差分ニューロ ンに対するディジタル方式のものである。 図1Oにおいて、アナログ入力ベクトルUをマルチプレックスMUX80に供給 し、それの個々のエレメント<”++u*+・・・、LIN)が選択コントロー ル81によって、^/Dコン/イータ(^DC182に順次供給される。この八 DC63の出力u1をラッチ64(こ一時的!ごストアして、更に、一般にユニ ット86として表示されているマルチプレブクスニューロンの第1層へ平行に供 給する。基準ベクトルエレメントマ″・llG人力90に順次供給する。 代表的jjマルチブレyクス型のディジタルニューロン86の構成が図111ご 表示されている。ベクトルUと豐+lslの対応する3番目のエレメントを、ユ ニット94の入力ライン88と90とに、それぞれ供給して、差分項U、−マI ′+11を生成する。この差分填をユニブト96に(1(給し、このユニット9 6によって、例えば、以下に示した1次のミノコツスキー測定規準をその出力に 発生する:ユニノ)96は以下のように動作する。即ち、差分ユニット94の出 力をラッチ9g1こ一時、ストアし、DEMUXユニyト100によってネゲー トユニット102に対するラッチ98の内容を、このラブ498の輿sb(最上 位ビット)が負の値を表した場合gこ、ライン101丁段により切換えるように する。それ以外では、このラッチ98をアキエムレータ(累積器)104に直1 妾接続する。このアキ講ムレータ104によって、結果として11ら4t6Lの t6を、最?刀1こ、クリアコントロール106によってクリアして、加算Cる と共に、この合81値を、ライフ92上に得られるオフセット−〇にアダー10 8でIJ+rItル。ON+、 ROMll011、ROM’t’ ア’l、コ 4L(7) l モ’J 内容カフ ! 108ニJ−q で7ドレス処叩され 、これの出力はベクトルyIl+のエレメントy L I 1 ’および1番目 のフン1′−ネントにり1応する。同様に、第1層のN個のニューロンの各々に よってy(1)の対応のエレメントを発生する。ニューロンδGの出力をラッチ +12にストアすると共に、次のコンポーネント値が演算されている間にMUX 1+4で得られる。 N(l!]のベクトルコンポーネントは、MtlKL14およびセレクトコント ローlし$151こよって選択することが可能であり、これは第2二ニーロンに 対して応用されるものであり、二、−ロン116は、第2層中のニューロンを表 している。このニューロン116は、ユニット86のような構成を1丁しており 、ライン+111上の入力ベクトルとして、Il+を受信すると共に、基準ベク トルに対応するものとしてw I l−を受信する。 これの出力がうyチ124に保持されて、このラッチからディジタル値として、 まt二は、アナログ出力用の0ACIZ6を介して出力される。明らかに、追加 の層を、この第2層の構成を繰返すことによって追加することが可能である。 4、ニューラルネットワークコントロールおよびその適用図12は、ニューラル ネットワークを制御、構築および適用するためのシステムである。このシステム には、ニューラル才fトワーク102とフンノfレータ+06とが設けられてい る。このニューラルネットワーク102は、セレクタ+1luX)103によっ て選択的に入力ライン21へ供相された入力ベクトルを有しており、このセレク タ103を入力ライン+05および入力ベクトル発生器■8へ接続する。このコ ンl(レータ106によって、ライン11O」二の二1−ラルネットワーク+0 2の出力ベクトル−,1m1−と、ライン!01として供給された出力ターゲッ トベクトル゛1とを比較する。この基準ベクトルは、出ブぴ−ゲメト発生1CH 1zによって得られるフントロールプロセッサ+04は、ライン107上のコン パレータl0Iiによって発生されたエラー信号を受信すると共に、二〉−ラル ネットワーク102によって利用される基準賃みおよびオフセットの新しい組を 演算する。g11!懐手段をこのプロセッサ中に設けて、入力発生器108kj よび出力発生器112をそれぞれドライブするための見本人力ベクトルおよび見 本ターゲットベクトルをストアする。 また、コントロールプロセッサ104を利用して、人力ターミナル105の手段 による構築を行う。一般に、構築パラメータには、基準ベクトルとオフセット用 の初N1値と、入力/出力ラインの数mと、ネットワーク中の層の数量とが含ま れている。 最小2乗法や最急降下法を含んだ差分ニューラルネットワークに対して、数橿類 の適用アルゴリズムを採用できる。 最小2乗法は、−組の変数パラメータに対する2次コスト関数(quadr為L ie co@+ FUNCTIONEDを最小化することに基づいている。本例 の場合に、これらt4ラメータの組は、基準ベクトル重みとオフセツトである。 例えば、このコスト関数をエラーベクトルの内(ドツト)積に採用することがで き、即ち、o=(y”’−t)’(y”’−t) ここで、y l″1は二5−ラルネットワーク出力ベクトルであり、tはターゲ ットベクトルである。もし、出力およびターゲットベクトルの種々のものを利用 した場合に、P(集団指標)上の総和を利用できるので、この結果、以下のコス ト関数I)が1得られる: ここで、r、″は、p番目の入力ベクトルに対するニューラルネットワーク応答 であり、PIは、p番目のターゲットベクトルである。 このコスト関数を、q番の層パラメータベクトルv11に対して、このコスト関 数は傾きを変えることによって最小化する。ここで層パラメータベクトルv I  @lは以Fの通りである。 vl・+ −rvll@1.vlfsl、、、、v (−嶋)]!および v+ ms+−[、+’″1.θ1ael] ?、 (、ICs*1.、.1ap1. 、、、、、%″1.θls@l] ?ベクトルv1m@lは、基準ベクトルと、 q′ti目の層内のm番目のニューロンの組合わされI、−オフセットO1″l l′を表す。従って、コスト関数りの傾きをゼロに設定して規定されt一方程式 の系、即ち、 によ、)で、パラメータ選択処理に幻ψ−る最小2乗法解法が暗黙の内に規定さ れる。 、これリニj−Ijノの人力/出力関係がI]線形であるために、ベクトルv″ 1に対4る汎用の分析解法がrr在しない。更に、反1(近似技術を、例えば、 共通に用いられる最2降ト法を適用する必要がある。バックブロパゲー/ロンと 呼ばれているニューラルネットワークトレーニングアルゴリズムは、このような 方法の一例である。 最急降下法は以下のステ1プより構成されている:(1)初期値をパラメータに 割当てるステップ。 (2) コスト関数りの概数的に傾きを演算するステップ。 (3) この傾きの方向に沿って、係数εによって増加するようにパラメータを 変化させるステップ。 (4) コスト関数が最小化されると、または、池の収束基準(大きさりのテス トのような基準)が達成されると、この処理を停止するか、またはステ1ブ(2 )に戻るステップ。 このコスト関数の収束を確実に行うために、εとηとを降下手順の反復と一緒に 変化させる。この限定値を、成功したl・レイμの後に減少させることもできる 。 図13は、好適な適用プロセス200のフローダイヤグラムである。このプロセ ス200を、6値をε=ε、、ηばη、に設定すると共に符号計数値誼0に設定 することによって、イニシャライズする。p番目の見本ベクトル対をステップ2 04で選択する。 ステップ206は、(y−1)のビークエラーがη、より小さいかどうかをチェ ックして収束性をテストする。もし、小さければ、このプロセスはテスト210 へ進む、これ以外であれば、ステップ208の符合計数値をインクレメントする と共に、ステップ210でベクトル■、のベクトル基準値を調整することによっ て、失敗を明記する。ステップ212において、人力/出力集合指[pをチェ・ 1りして、すべての見本ケースが利用されてしまったかどうかを決定する。もし 、利用されてしまった場合には、ステップ216へ進み、逆ならば、指1pをス テップ214でインクレメントすると共に、ステップ204へ戻る。 ステップ2Hでは、コスト関MDを用いて、すべての見本(標本)における累積 1’ )J 誤mを演算することによって、ターゲットベクトルに対するベクト ルy l s lの収束を監視する。この1)とコスト関数最小[D、、、とを 比較する。この結果、処理又テップの反tW中にこのようにして得られる。この DがDlllをある決められた基準だけ、例えば17の係数だけ超過した場合に 、この処理ステップはステシブ218・\移動する。このステップにおいて、ε およびηを一定の係数、例えば2/3でデイクレメントすると共に、Dl、にお ける重みv′″″を復元する。このコントロールがステップ202へ進む。関数 りにおける基準を満足しない場合には、この処理手順はステシブ220へ移る。 テストステップ206で失敗が起らなかった場合には、符合数−〇となると共に 、この処理手順がテストステップ222へ進む。このステップ222では、εお よびηがディクレメントされる。ステップ206で失敗が起ると、符合数〉口と なり、コノトロールがステップ220から224へ移る。ここでは、関数りの全 体の収束が測定される。関数りの減少率が、成るユーザのプリセット値、例えば 、−反1v動作当りl/+000パートの場合に、この降下手順は収束したもの と見なされると共に、この処理が終了したことになる。それ以外では、ステップ 202へ戻る。 5 ニューラルネットワークの帰還 図4の差分ニューロンを、前述したフィードバック(帰還)ネットワークは元よ り、フィー1′フオワード(正方向送り)ネットワーク内に組込むことができる 。 二】−ラルフイードバックネ・!トワークの例が図14に示されており、このネ ットワ−クは、l1opfleldのネットワーク(J、 J、 1IopNe ld著の−neural Network and Physical Sys Lcms マロh Emergent Co11ective Computa tional ^blllLles−PProcee dings or Na1ionsl Academy 5cienclll、  IIs^、第81@、1984年5月、第3018−30X2頁) と
【η用学的に!J′I似している。しかし、この本発明のネットワークは、1 lopfieldの才y)ワークとは異なるものである。その理由は、このネッ トワークは、マアクU −チ・ピッy (MI’1タイプの二ニーロンの代わり に、むしろ差分ニューロン動作Ill しているからである。このタイプのフィ ードバック構成のものは、特に以下の使用においてTf用なものである。即ち、 ノイズで汚染された、または不完全な入カバターフのill生のための結合メモ リまたはメモリ内容にアドレス可能なメモリとして、このタイプのフィードパ、 り構成のものを利用することが特に有益である。 図14に戻り、このオyトワーク実施例は、N個のディノタルタイプの差分ニュ ーロンDN、〜DN1.の1it−Rを有しており、これらは差分ニューロン3 02で代表される。 また、基準およびオフセットベクトルυ1を入力ターミナル310へ供給する。 各ニューロンの出力は二進数(0,1)であり、この出力をj番目二ニーロン3 02の出力におけるラッチ304のような出力ラッチに一時的にストアする。例 えば、304で示した出力ラッチによって、各ニューロン入力ベクトルu l  11 (> )のコンポーネントエレメントが与えられ、ここで、この人力ベク トルは以下のように規定される:u”’(k)= [y+(k)、y+(k)、 ・−・、y+−+(k)、y+++(k)、・”、yw(k)] ’ここでkは 時間または反復指標である。このネットワークは、初期出力ベクトルy(0)を 出力ラッチの組合わせ中にストアすることによってイニシャライズされ、このラ ッチ304が表示される。 晶二ニーロンによって、以下の式で規定された出力を演算する=ここでNはニュ ーロンの数■を示し、vl ++1は基準ベクトルの1番目のコンポ−ネットで あり、θ、はこれと組合わされたオフセット値である。関数g(・)は、図4の 出力非線形(ONL)手段28によって実行される動作を表す。この特別な実施 例において、通常、このONL手段28は、ハードリミッティング特性または5 字関数転送特性を有するように選択される。オフセット、即ち半径パラメータθ 、をN/2にセットする。 多数回の反1!の後で、出力ベクトル”y”は、汚れていないと共に完全な入カ バターンの組を表す一組の安定なフオーム(形態)の1つに収束する。このよう な決定は、予め得られた2!準ベクトルの組に基づいて成されるものである。図 15のフローダイヤグラムは、基準ベクトルの組を、N11MのエレメントのP 個の二値見本ベクトルl、 IPI lの一組から決定する方法を表している。 各ベクトルエレメントは■または0である。 上述の動作についての記載は、ディジタルネットワークの同期動作を意味するが 、独立のクロックに関連したニューロン動作の各々と組合わされた非同期動作に よらて同様の結果が導出される。 処理400を標本指標p−==1にセットすることによってイニシャライズする 。ステップ402においてp番目の標本【ゞ″をPの組から選択すると共に、ス テップ404に移動し、ここでは、エレメノトハ、を有するIIXII相関マト リックスJを、最初に、以下に示した種本平均値を除去することによって演算す る:ここで、t%rlはp番目の標本ベクトルの1番目エレメントである。テス トステップ406において、P個の標本をすべて利用してマトリ1クスJを形成 したかどうかをテストすると共に、もし形成した場合には、この処理はステップ 410へ移る。もし形成されなければ、IWtlDをインクレメントすると共に 次の標本をステ、ブ402で選択する。 ステップ402において、マトリックスJのエレメントが最大値IJ1.−に対 して探索され、次にこれをステップ412で利用して以下に示したような適当な フォーマ、トテペクトルフノボーネント豐、+′を演算する:v+”’=l/2 [1−J、/Hmaxl]ここで、!!+1は」番目の基準ベクトルの1番目の コンポーネントを表す。これら一連の処理が完了すると共にこれら結果を記憶す ると、この処理がステップ414で終了する。 上述したように、I〜−ドリミブティングONL手段28、即ち、g(x)−2 signum (xi−1を利用したフィードバックネットワークは、本来のH opNeldモデルと一致した検索特性を有している。この代わりに、以下に示 したようなS字状転送特性を採用した場合、即ち、 を採rII Lだ場合、この検索特性は、γの正の値を減少させ乍ら低下してし まう。 前述した明細書においては、本発明が、特定の見本的な実施例を参照し乍ら記載 されている。しかし乍ら、添付された特許請求の範囲に規定された本発明の広範 な技術的υ悲から逸脱することなく、種々の変形および変更を実施できることは 明らかである。従って、これら明細書および図面は、本発明を限定するためでな く雫に表現するものであると見なすことができる。 浄書(内容に変更なし) FIG、1 FIG、 5 FIG、 8 浄書(内容に変更なし) 4食を重文I−曵1yなし) 浄書(内容;二変更なし) 補正書の写しくn訳文)提出書(特許法第184条の8)71’ 雷()”J  e 1− &ノーφvI補正請求の範囲 1.s)入力信号ベクトルと基準信号ベクトルとの間の距離を表す距離信号を発 生する以下の1)〜II+>を備えた距離値発生器と:i)前記人力ベクトル信 号および前記基準ベクトル信号の対応のエレメント間の距離を表す差分ベクトル 信号を形成する引算回路:1i)この引算回路の出力に接続され、前記差分ベク トル信号のエレメントから、差分距離ベクトルの大きさを表す一組の単一極性信 号を形成する大きさ回路:1ll)この絶対値回路の出力からの単一極性信号を 累積して、それ自身の出力から距離信号値を形成する累積回路と;b)それ自身 の出力から組合わせ信号を形成し、前記累積回路出力に接続された第1人力と、 オフセット値信号に接続された第2人力とを有し、前記組合わせ信号を前記距離 信号値から前!【3オフセッ;値を減算することによって形成し、更に、二二− ロノセル超回転楕円形弁別関数表面の半径を制御する減算回路と;C)前記組合 わせ信号値を予め決められた弁別関数を表す値に対してマブピングする非線形回 路とを具備したことを特徴とする差分型人工ニューラルセル回路。 2、前記大きさ回路が絶対値回路であることを特徴とする請求項1記載のニュー ラル回路。 3、前記大きさ回路が二乗検波器であることを特徴とする請求項!記載の二3− ラル回路。 4、前記大きさ回路が、その大きさのn番目のべき数に比例した単一極性ベクト ルエレメントを発生する0次転送特性デバイスであることを特徴とする請求項! 記載の二1−ラル回路。 5、前記距離値発生回路に、更に、m次逆転送特性を有する回路を設け、この回 路の入力を前記累積器の出力に接続し1.二の回路の出力を前記減算回路の第2 人力に接続し、この出力から、m次のミンコフスキー距離信号値を表す信号を得 るようにしたことを特徴とする請求項4記載のニューラル回路。 6、前記距離値発生回路と、減算回路と714綿形回路とをディジタル回路とし たことを特徴とする請求項5紀載のニューラル回路。 7、前記距離値発生回路と、減算回路と非線形回路とをディジタル回路としたこ とを特徴とする請求項l記載のニューラル回路。 8、前記非線形回路の転送特性がS字状関数であることを特徴とする請求項l記 載のニューラル回路。 9、前記非線形回路の転送特性が線形スレブシコボールド論理演算子であること を特徴とする請求項l記載のニューラル回路。 lO前記非線形回路の転送特性がガウスベル関数であることを特徴とする請求項 l記載の二1−ラル回路。 比第1ニコーラルセル層と、追加的に設けられた高次のニューラルセル層とを有 する正方向送りタイブニューラルネ・ブトワークにおいて、a)少なくとも1つ の下記の1)〜…)を備えたニューラルセル層と:五)データベクトルを受信す る一組の入力データターミナル;+t)予め決められた基準ベクトルと、これと 組合わされたオフセット値信号とを受信し、前記二コーラルセル層内の各二ニー ロンに対する、−組の基準ベクトル入力用ターミナル; illニコーロンの各々を前記−組の入力データターミナルおよび予め割当てら れた組の基準ベクトル入力ターミナルに選択的に接続し、かつ出方ターミナルお よび出力データベクトルを出方する一組のニューロン出方ターミナルを有する、 −組の下記のaaL bbL ce)を備えた差分タイプ二二−ロン;aal入 力信号ベクトルと基準信号ベクトルとの間の距離を表す距離信号値を発生する下 記の1)〜3)を備えた距離値発生器、1)前記人力ベクトル信号および前記基 準ベクトル信号の対応エレメント間の差を表す差分ベクトル信号を形成する減算 回路;2)この減算回路の出方に接続され、前記差分距離ベクトルの大きさを表 す差分ベクトル信号のエレメントから、−組の単一極性信号を形成する大きさ回 路;3)この絶対値回路の出力から得られ、前記−組の単一極性信号に属する信 号を累積して、前記距離信号値を形成する累積回路;bb)この累積回路出力に 接続された第1人力と、前記基準ベクトル信号と組合わされたオフセット値信号 に接続された第2人力とを有し、それ自身の出方に組合わせ信号を発生させ、こ の距離信号値からオフセ・ノド値を減算することによってこの組合わせ信号を形 成15、二1−ロノセル超回転楕円形弁別関数の表面の半径を制御する減算回路 と、更に cc)この組合わせ信号値を予め決められた弁別関数を表す値に対してマブビン グする非線形回路とを設け、 b)第1二1−ラルセル層の一組の入力データターミナルに接続された、−組の ニューラルネットワークデータ入力ターミナルと;C)次の低次のニューラルセ ル層の出力ターミナル組に接続された入力データターミナルを有する高次のニュ ーラルネットワーク層と、d)、−の高次の二21−ラルネブ1ワーク層の出力 ターミナルに対応した一組の出力ターミナルとを具備したことを特徴とする正方 向送りタイプニューラルネットワーク。 12、前記差分二1−ロンの各々を、前記入力ベクトルの各エレメントに完全に 接続したことを特徴とする請求項11記載のニューラルネットワーク。 13、請求項II紀記載差分ニューラル本、・1ワークへ適用する装置で、前記 −組の基準ベクトルと、これと組合わされたオフセットとのエレメントを初期化 すると共に調整するコントロールフンビュー夕によって利用された手順において :み)各オフセフトを、これと組合わされた基準ベクトルに追加することによっ て、差分ニュー ロンパラメータを形成するステップと;b)、:の差分二ニー ロンパラメータベクトル回路値を任意の値で初期化するステ1ブと; e)+1本人力ベクトルを前記差分二コーラルネ・ブトワークの第一層入カデー タベクトルターミナルに接続するステップと;d)結果として得られる出力ベク トルと、対応する標本出力ベクトルとを比較して誤差値を得るステtプと: C)この誤差値からコスト関数の値を演算するステップと:「)これら差分ニュ ーロンパラメータベクトルの各に対して、これらコスト関数の傾きを予測するス テップと; g)前記パラメータベクトルエレメントを、予測した傾きの方向に沿って増加的 に変化させるステップと: h)この誤差値と予め決められた値とを比較し、この誤差値がこの値より小さい 場合には、この処理手順を終了させ、それ以外の場合には、新しい反復動作のた めにステップb)へ戻るようなステップとを具備したことを特徴とする差分ニュ ーラルネットワーク適用装置。 +4.前記傾きの分数部分を前記差分二ニーロンパラメータベクトルエレメント に与えたことを特徴とする請求項13記載の方法。 15、前記コスト関数の演算ステップに、更に、み)コスト関数値を記憶するス テップと;b)エラーコストが増加しているかどうかを決定するために、コスト 関数の値を順次比較し、もし増加しているならば、最新のパラメータベクトル回 路値を以前のベクトル回路値で置換し、更に、与えた傾きの分数部分の値を減少 させるステップとを設けたことを特徴とする請求項13記載の方法。 +6.更に、 a)前記誤差値が特定の限界値を超えるような標本の数を計数するステップと; b)このIll数値がゼロの場合に、前記傾きの分数部分と限界値とを減少させ るステップとを設けたことを特徴とする請求項14紀載の方法。 17、前記コスト関数の減少率を比較し、この比較結果が予め決められた値より 少ない場合には、この処理手順を終了するようにするステップを更に設けたこと を特徴とする請求項14記載の方法。 1δ、少なくとも1つの差分タイブニj−ロンの層を有する差分タイプニー1− ラルネツトワークを調整するための適用装置において、このニスーロン層は、入 力データベクトルターミナルと、−組の基準ベクトルターミナルとを有し、これ ら基準ベクトルターミナルの各々によって予め決められた基準ベクトルとこれと 組合わされ、弁別差分ニューロン用のオフセット値を受信するようにし、少な( とも1つの差分エコーロンは、入力データベクトルと基準ベクトルとの間の距離 を表す距離信号値をそれ自身の出方から発生する距離値発生器を有し、この距離 値発生器には、前記入力データベクトルターミナルに接続された第1ベクトル入 方と、前記基準ベクトルターミナルの組の予め決められた基準ベクトルターミナ ルに接続された第2ベクトル入力と、前記距離値発生器の出力に接続された第1 人力および前記予め決められた基準ベクトルと組合わされたオフセット値に接続 された第2人力を有し、(れ自身の出力から前記距離値信号値と前記オフセット 値との間の差分を表す組合I〕せ信号を生成する減算回路と、この減算回路の出 力にtl読され、予め決められた弁別関数を表す値に対して前記組合わせ信号を マツピングする非線形回路とが設けられ、前記第1層入力データベクトルターミ ナルに供給された外部I・−タベクトルによって得られた第1層入力データベク トルと、次の低位層出力ベクトルによっ′C供給されたあらゆる高位層入力デー タベクトルと、最高0層出力ベクトルとが、差分タイプ二一−ラルネットワーク 出力であると共に、これらベクトルがニエーラルネブトヮーク出力ターミナルで 利用でき、。 前記適用装置は; 3)標本データベクトルを前記入力差分タイプニューラルネプトワークを供給す る入力データベクトルターミナルと; b>*別基準ベクトル七これと組合わ甘た、各差分ニューロン用のオフセットと を供給する、前記差分タイブニ、−ラルネットワーク中の差分二1−ロン用を一 つは含む一組の基準ベクトルターミナルと:C)このニューラルネットワーク出 力ターミナルからニューラルネットワーク出力ベクトルを受信するニューラルネ ットワークレスポンスベクトルターミナルとd)前記人力データベクトルターミ ナルに接続され、少なくともlっの標本人力ベクトルを前記二5−ラルネ1ト1 ノーク入方データベクトルターミナルに供給するコノピユータ制御可能な標本デ ータベクトル発生器と;e)前記ニューラルネットワークデータベクトルターミ ナルに供給された各標本人力ベクトルに対応した所望のニューラルネットワーク 応答ベクトルを発生するコノピユータ制御可能な標本出力ベクトル発生器と;r )このニコーラルネブトワーク応答ベクトルターミナルに接続された第1人力と 、このコンピュータ制御可能な出力ベクトル発生器の出方に接続された第2人力 とをffL、これ自身の出力に、前記第1および第2ベクトルターミナルに供給 したベクレレ間のベクトル差分を表す信号を発生するベクトルコンパレータと; g)このベクトルコンパレータの出方に接続され、このベクトルボンパレータ出 力を利用して、予め決められた手順に従って前記=1−チルネットワークに供給 すべき基準ベクトルおよびこれと組合わせたオフセット値の各エレメントを初期 化すると共にiI整するコントロールコンピュータとを具備し、このコントロー ルフンピユータを、前記コンピュータ制御可能な標本データベクトル発生器と前 記標本出力ベクトル発生器とに接続して、対応する標本データベクトルと出方ベ クトルとの一対のベクトルの発生器よび選択を制御し、および、前記コントロー ルコンビュータを一組の基準ターミナルに結合して、初期/m整済み基準ベクト ルおよびこれと組合わされたオフセット値を前記二1−ラルネットワークに供給 することを特徴とする適用装置。 +s−GEコントロールプロセッサによって前記入力および出カ標本ベクトル発 生器を制御したことを特徴とする請求項18記載の装置。 20、前記フントロールフンピユータに、構成および初期化制御用の入力手段を 更に設けたことを特徴とする請求項1g記載の装u021、 ifl記コントロ ールコンビ二一夕に、標本ベクトルを記憶するメモリを更に設けたことを特徴と する請求項2o記載の装置。 22、 ff1I記コントロールコンピユータに、前述のコスト関数値ゎよび、 検索用にこれに組合わされた基準/オフセットデータを記憶するメモリを更に設 けたことを特徴とする請求項21記載の装M。 23、帰還差分↑ニューラルネプトヮークにおいて、3)下記のI)〜■ンを* 、また、少な(とも1つの二1−ラルセル層を有する正方向送り差分型ニューラ ルネットワークと;i)データベクトルを受信する一組の入カデータターミナル ;ill予め決められた基準ベクトルと、これと組合わされたオフセット値信号 とを受信し、前記ニューラルセル層内の各二j−ロンに対する、−組の基準ベク トル入力用ターミナル: ■)ニューロンの各々を前記−組の入力データターミナルおよび予め割当てられ た組の基準ベクトル入力ターミナルに選択的に接続15、各ニー−ロンは出方タ ーミナルおよび出方データベクトルを出方する一組のニューロン出力ターミナル を口する下記のaa)、bb)、ce)を備えた一組の差分タイプニューロン; aa)入力信号ベクトルと基準信号ベクトルとの間の距離を表す距離信号値を発 生するF記の1)〜3)を備えた距離値発生器;】)前記入力ベクトルf3号お よび前記基準ベクトル信号の対応エレメント間の差を表す差分ベクトル信号を形 成するベクトル減算回路;2)この鎮n回路の出力に接続され、前記差分距離ベ クトルの大きさを表す差分ベクトル(5号のニレメンtから、−組の単一極性1 3号を形成する大きさ回路;3)前記絶対値回路の出力から得られた単一極性( 3号を累積して前記距離fΔ号値を生成する累積回路; bb)この累積回路出力に接続された第1人力と、前記基準ベクトル信号と組合 わされたオフセット値信号に接続された第2人力とを有し、それ自身の出力の組 合わせず5号を発生させ、この距離信号値からオフセット値を減算することによ っ−にの組合わせ信号を杉成し、−瓢一〇ノセル超回転楕円形弁別関数の表面の 半径を制御する減算回路: ec)この組合え)せ信号値を予め決められた弁別関数を表す値に対してマツピ ングする非線形回路と; b)第1ニューラルセル層の一組の入力データターミプルに接続された、−組の フィードバックニ1−ラルネテトワークデータ入力ターミナルと;C)次の低次 の二4−ラルセル層の出力ターミナル組に接続された入力データターミナルを有 する高次の二二−ラルネッlワーク層;d)この高次のニューラルネットワーク 層の出力ターミナルに対応した一組の出力ターミナルと、前記正方向送り差分型 ニューラルネットワークが、そのニューラルネ11ワークの入力ターミナルの少 なくとも1つのターミナルに接続された、少なくと61つの出力ターミナルを有 し;C)前記正方向送り差分型ニコーラルネyトヮークの入力ターミナルの組に 結合され、前記人力ベクトルの状態を初期化する信号記憶回路とを具備したこと を特徴とする帰yl差分42二j−ラルネットワーク。 24、前記正方向送りニコーラルネ!トワークを、第1ニューラル層を有するマ ルチチャネル人力ベクトルを受信するように構成し、この第1二1−チル層を、 人力ベクトルの信号エレメントに選択された少なくとも1つの差分型二1−ロン から構成し、これによって、出方ベクトルを得るようにし、この出方ベクトルの 構成要素を前記ニューラル出力の組の少なくとも一組であることを特徴とする請 求項23記載の帰還差分型ニューラルネットワーク。 25、前記正方向送り二j−ラルネットワークを前記入力ベクトルの各エレメン トに完全に接続したことを特徴とする請求項24記載の帰還差分ヤニューラルネ ットワーク。 26、帰jwヤニ1〜ラルネブ倉ワークに対して0.基準ベクトルフンボーネン トiおよびオフセット値を調整することによつて、基準ベクトルおよびこれと組 合わされたオフセットを決定する方法および装置において;a)下記の1)を備 えた帰R差分型ニューラルネットワークと;1)ニューラルセル層のそれぞれが 下記のam)、bb)、、ee)、dd)、ee)、n)を償えた、少なくとも 1つのニューラルセル層を有する正方向送り差分型ニューラルネットワーク: aa)データベクトルを受信する一組の入力データターミナル;bb)予め決め られた基準ベクトルと、これと組合わされたオフセットとを受信し、前記ニュー ラルセル層内の各二ニーロンに対する、−組の基準ベクトル入力用ターミナル; ec)下記の1)〜3)を備えたニューロンの各々を前記−組の入力データター ミナルおよび予め割当てられた組の基準ベクトル入力ターミナルに選択的に接続 し、かつ出力ターミナルおよび出方データベクトルを出方する一組のニニーロン 出カターミナルを有する一組の差分タイブニエーロン:1)人力信号ベクトルと 基準信号ベクトルとの間の距離を表す距離信号値を発生ずる下記のaaa)、b bb)、eec)を備えた距離値発生器;asa)前記入力ベクトル信号および 前記基準ベクトル信号の対応エレメント間の差を表す差分ベクトル信号を生成す る減算回路;bbb)この引算回路の出力に接続され、前記差分ベクトル信号の エレメントから、差分距離ベクトルの大きさを表す一組の単一極性信号を形成す る大きさ回路cce)この絶対値回路の出力からの単一極性信号を累積して、距 離信号値を形成する累積回路; 2)それ自身の出力から組合わせ信号を形成し、前記累積回路出力に接続された 第1入力と、予め決められた基準ベクトルと組合わされたオフセット値信号に接 続される第2人力とを有し、前記組合わせ信号を前記距離信号値から前記オフセ ット値を減算することによって形成し、更に、二ニーロンセル超回転楕円形弁別 関数表面の半径を制御する減算回路;3)前記組合わせ18号値を予め決められ た弁別関数を表す値に対してマフピングする非線形回路; dd)ml二1−ラルセル層の−・組の入力データターミナルに接続された、− 組のニエーラルネットワークデータ入カターミナル;ee)次の低次のニューラ ルセル層の出力ターミナル組に接続された入力データターミナルを有する高次の 二1−ラルネプトワーク層;U)前記正方回送り差分型二二一うルネプトヮーク が、そのニューラルネットワークの少なくとも1つの入力ターミナルに接続され た少な(とも1つの出力ターミナルを備え、前記高次のニューラルネットワーク 層の出力ターミナルに対応した一組の出力ターミナル: b)この二二−ラルネットワークの入力ターミナルの組に結合され、前記入力ベ クトルの状萼を初期化する信号記憶回路と;C)−組の予め決められた応答出力 標本ベクトルから相関マトリックスを演算し、このマトリックス内て最大相関値 を用いてマトリックスのコンポーネントを正規化するコントロールコンピュータ とを具備し、マトリックスの各行が、それと組合わせたオフセツトを所定の基準 ベクトルに付加することによって形成した弁別パラメータベクトルであり、この コントロールコンピュータを前記差分型ニューラルネットワークに結合させてパ ラメータベクトルコンポーネント値の各々を調整した。′:、とを特徴とする基 準ベクレレおよびこれと組合わせた]フセ1トを決定する方法および装置。 27、前記コントロールコンピュータを駆使して前記標本出力ベクトルの平均値 のI11算処理を更に具備したことを特徴とする請求項26記載の基準ベクトル コンポーネント値およびオフセットを決定する方法および装置。 28、前記非#l杉回路がRO鷲であることを特徴とする請求項7記載の二1− ロン。 29、 a)順番に配置された入力データベクトルを受信する入力コネクタと: b)前記入力ベクトルエレメントの順序に対応させて配置された基準ベクトルと それと組合わされたオフセット値信号とを受信する入力コネクタと;C)前記入 力ベクトルとこれに対応した基準ベクトルとのエレメント間の差を生成するベク トル差分形成回路と; d)この差分形成回路に接続され、前記入力ベクトルと基準ベクトルとの間の距 離を表す出力値を生成する距離値発生回路と;e)前記距離値発生回路の出力お よび前記オフセット値人力信号に接続され、このオフセット値入力信号を距離値 信号から減算することによって組合わせ出力信号値を形成し、これによって、二 xoンセルの超回転楕円形弁別関数面の半径を制御する減算回路と; r)この組合わせ値信号を、予め決められた弁別関数を表す値に対してマフピン グする非線形回路とを具備したことを特徴とするマルチプレックス差分タイプ二 二−ロン。 30、 a)前記ベクトル差分回路がデジタル減算回路であり、b)前記距1l lI11発生回路には、前記差分回路の出力に接続された絶対値入力を有するデ ジタル絶対値回路と、この絶対値回路の出力が、これの入力信号の絶対値を表す デジタル信号であり、更に、この絶対値回路の出力にそれ自身の入力が接続され 、前記入力ベクトルと前記基準ベクトルとの間の距離を表す信号値を累積する累 積回路とが設けられ; C)前記減算回路はデジタル減算ネットワークを有し;d)前記非線形回路は、 非線形転送特性を記憶すると共に、メモリ内のアドレスからその出力に値を供給 するROMを設け、このアドレスが前記減算回路の出力信号値であることを特徴 とする請求項29記載の二重−クン。 31、 a)入力データベクトルを受信すると共にラッチするネットワーク入力 データコネクタ詰よびラッチと、これら人カデークどクトルフンボーネント値の 各々は、予め決められた到来間隔で連続的に到来し;b)少なくとも1つのマル チブレ・ツクス差分望二ツーロンを有する第1ニコーロノネツトワーク層と、こ のマルチプレックス差分二x*ンは、入力ベクトルデータコネクタと、基準ベク トル人力コネクタと、オフセットコネクタとを有し、第菫層入カデータコネクタ を、前記ネットワーク入力データコネクタに接続して、連続入力データベクレト コンポーネントを受信するように[7、基準ベクトル入力コネクタを、前記入力 データラップ入力ベクトルコンポーネント値に対応した基準ベクトルエレメント を連続的に供給する基準ベクトルコンポーネント値のソースに接続し、オフセッ トコネクタの各々を前記第1ニス−ロン層のマルチブレブクス差分ヤニューロン 用のオフ上1ト値ソースにtllEし;C)−組の第1層出力ラッチと、これら ラッチの各々を、前記第1層マルチプレックス差分タイプ二二−ロンの出力に接 続して、この第1層マルチプレックス差分型:j−ロンから値を受信17、記憶 し、更に、連続的に出力するようにし:d)前記第1層出力ラッチ用の1つの入 力接続部と、マルチプレ・ソクサ出力ター1”ルトに出力するための入力接続部 の1つを連続的に選択する選択フントロール手段とを有し、マルチプレックス処 理さ1また第1層出力信号を供給する次層人力マルチプレックサネットワークと を具備したことを特徴とするマルチブレプクサ差分型ニューラルネメトワークサ ブアノセンブ嘗几32 連続的に接続したマルチプレックス差分H2二j−ラル ネットワークサブアブセ/ブリを有し、これらサブアッセンブリの各々が弁別ニ ューラルネットワーク層に対応し、これらサブアノセンブリの各々は:a)入力 データベクトルを受信すると共にラッチするネットワーク入力データコネクタお よびうYチと、これら入力データベクトルコンポーネント値の各りは、予め決め られた到来間隔で連続的に到来し;b)少なくとも1つのマルチブレックス差分 梨ニ二一ロンを有する第1ニューロンネットリーク層と、このマルチブレプクス 差分二コーロンは、入力ベクトルデータコネクタと、基準ベクトル入力コネクタ と、オフセットコネクタとを有し、第1層人力データコネクタを、nq記ネット ワーク入力データコネクタに接続して、連続入力データベクトルコンポーネント を受信するようにし、基準ベクトル入力コネクタを、前記入力データラッチ入力 ベクトルコンポーネント値に対応した基準ベクトルエレメントを連続的に供給す る基準ベクトルコンポーネント値のソースに接続し、オフセットコネクタの各々 を前記第1二ニーロン層のマルチプレブクス差分型二5−ロン用のオフセット値 ソースに接続し;C)−組の第1層出力ラッチと、これらラッチの各々を、前記 第1層マルチブレ1クス差分タイプニ講−ロンの出力に接続して、この第1層マ ルチプレックス差分型二ニーロンから値を受信し、記憶し、更に、連続的に出力 するようにし;d)前記第1層出力ラッチ用の1つの入力接続部と、マルチブレ ブクサ出力ターミナル上に出力するための入力接続部の1つを連続的に選択する 選択コントロール手段とを有し、マルチプレックス処理された第1層出力信号を 供給する次層入力マルチプレ1クサネブトワークとを具備したことを特徴とする マルチブレγクサ差分室二二一うルネブトワーク。 手続補正帯(方式) 平成6年6月238 特許+i長官 殿 1、事件の表示 平成4年特許願 第511451号 (国際出願番号)PCT/US921035092、発明の名称・ 差分ニューロンを包含したニューラルネットワーク3、補正をする者 事件との関係 特許出願人 名称 インテル・コーボレーン、ン 4、代理人 居 所 〒100 東京都千代田区永田町2丁目4番2号秀和溜池ビル8階 山川国際特許事務所内 6、補II−の対象 口)特許法第184条の5第1項の規定にJる書面の特許出願人の欄(2)t! 、4面の翻訳文 (3)委任状Φ同訳文 7、補正の内容 国際調査報告 11ゞ1”121111′−t’s4<aフInKraフロントページの続き DK、 ES、 FR,GB、 GR,IT、 LU、 MC,NL、 SE) 、 0A(BF、 BJ、 CF、 CG、 CI、 CM、 GA、 GN、  ML、 MR,SN、 TD、 TG)、 AT、 AU、 BB、 BG、  BR,CA、 CH,DE、 DK。 ES、 FI、 GB、 HU、 JP、 KP、 KR,LK、 LU、 M G、 MW、 NL、 No、 RO,RU、 SD、 SE

Claims (1)

  1. 【特許請求の範囲】 1.a)入力信号ベクトルと基準ベクトルとの間の距離を表す信号値を発生する 手段と; b)弁別解像度を制御する前記距離信号からオフセット値を減算することによっ て組合わせ信号を形成する手段と; c)前記組合わせ信号値を規定された弁別関数を表す値に対してマッピングする 第1の非線形手段とを具備したことを特徴とする差分タイプ人工神経細胞(ニュ ーロン)セル。 2.前記距離値発生手段は、 a)前記入力信号の対応のエレメントと、前記標本ベクトルの対応のエレメント との開の距離を表す差分ベクトルを形成する差分回路と;b)前記差の大きさを 表す前記差分ベクトルの構成要素(エレメント)から、一組の単極性信号を形成 する第2の非線形手段と;c)この一組の単極性信号を加算することによって、 前記距離値を表す総和を生成するアキュムレータ(累積器)手段とを有したこと を特徴とする請求項1記載のニューロン。 3.前記第2の非線形手段が絶対値回路であることを特徴とする請求項2記載の 4.前記第2の非線形手段が二乗検波器であることを特徴とする請求項2記載の 5.前記第2の非線形手段がn次デバイスであることを特徴とする請求項2記載 のニューロン。 6.前記第2の非線形手段が指数関数デバイスであることを特徴とする請求項2 記載のニューロン。 7.前記距離値発生手段がミンコフスキーノルム発生器であることを特徴とする 請求項1記載のニューロン。 8.前記距離値発生手段および前記第1の非線形手段がディジタル回路であるこ とを特徴とする請求項1記載のニューロン。 9.前記第1の非線形手段がS字状関数を表したことを特徴とする請求項1記載 のニューロン。 10.前記第1の非線形手段がリニアスレッシュホールド論理演算子を表したこ とを特徴とする請求項1記載のニューロン。 11.前記第1の非線形手段が、ガウスベル関数を表すことを特徴とする請求項 1記載のニューロン。 12.マルチチャネル入力ベクトルを受信するように構成された正方向送り式人 工神経細胞網(ニューラルネットワーク)において、入力ベクトルの信号エレメ ントに、選択的に接続された少なくとも1つの差分タイプニューロンから成る第 1のニューラル層を具え、出力ベクトルを生残し、この出力ベクトルの構成要素 が、ニューラル出力の組の少なくとも1つであることを特徴とするニューラルネ ットワーク。 13.前記差分ニューロンの各々を、前記入力ベクトルの各エレメントに完全に 接続したことを特徴とする請求項12記載のニューラルネットワーク。 14.更に、 a)少なくとも1つの追加の層を具え、この層内では、前記第1層の出力ベクト ルを前記第2層の入力に選択的に接続し;b)次のニューロン層入力を先行のニ ューロン層出力に選択的に接続したことを特徴とする請求項13記載のニューラ ルネットワーク。 15.差分ニューラルネットワークにおける各ニューロン(神経細胞)に対して 、オフセットを含む基準ベクトルコンポーネント値を適切に調整するに当たり、 a)任意の値でニューラル基準ベクトルとオフセットコンポーネント値とを初期 化し; b)標本入力ベクトルを供給し; o)結果として得られる出力ベクトルと、対応する標本出力ベクトルとを比較し て、誤差値を得るようにし; d)これら比較動作からコスト関数の値を演算し;8)前記ニューラル基準ベク トルとオフセットとの各々に関して、前記コスト関数の傾きを予測し; f)前記基準ベクトルと前記オフセット値をこの傾きの方向に向かって増加させ ながら変化させ;および g)前記誤差値と予め決められた値とを比較し、もし、この誤差値が予め決めら れた値より小さい場合にこの処理ステップを終了させ、それ以外の場合には、上 記ステップ(b)まで戻って新たに反復処理動作するステップを具備したことを 特徴とする差分ニューラルネットワークにおける基準ベクトルコンポーネント値 調整方法。 16.前記傾斜の分数部分を前記基準ベクトルと前記オフセット値に与えたこと を特徴とする請求項15記載の処理方法。 17.前記処理ステップ(4)に、 a)前記コスト関数値を記憶するステップと;b)順次存在する値を比較してエ ラーコストが増大しているかどうかを決定し、もし増大しているならば、最新の 基準ベクトルおよびオフセット値を先行するこれら値の組によって更新させ、な らびに、前記与えた傾斜の分数部分の値を減少させるステップとを更に具備した ことを特徴とする請求項16記載の処理方法。 18.更に、 a)前記誤差値が特定の限度値を超過するような標本の個数を計数するステップ と; b)この計数値がゼロの場合に、前記傾きの分数部分および前記限度値を減少さ せるステップとを具備したことを特徴とする請求項16記載の処理方法。 19.更に、 前記コスト関数の減少率を比較するステップおよび、この比較値が予め決められ た値より小さい場合に、この処理プロセスを終了させるステップを具備したこと を特徴とする請求項16記載の処理方法。 20.差分ニューラルネットワークおよび適用装置において、a)差分ニューラ ルネットワークと; b)この差分ニューラルネットワーク入力に接続された、制御可能な入力標本ベ クトル発生器と; c)対応する人標本ベクトルに対して所望のネットワークレスポンスを発生する 、制御可能な出力標本ベクトル発生器と;d)第1および第2入力ポートと、ベ クトル差分を表す信号をその出力に発生するベクトル比較手段と、この第1入力 を前記ニューラルネットワークに接続し、この第2入力を前記標本ベクトル発生 器の出力に接続し;e)前記比較器の出力に接続され、一組の基準ベクトルとオ フセット(前記ニューラルネットワークの各ニューロンに対して一組)のエレメ ントを、前記比較器の出力を利用して予め決められた手順に従って初期化すると 共に調整するコントロールプロセッサとを具備したことを特徴とする差分ニュー ラルネットワークコントロールおよび適用装置。 21.前記コントロールプロセッサによって、前記入力および出力標本ベクトル 発生器を制御したことを特徴とする請求項20記載の装置。 22.前記コントロールプロセッサに、構成および初期化をコントロールする入 力手段を更に設けたことを特徴とする請求項21記載の装置。 23前記コントロールプロセッサに、標本ベクトルを記憶するメモリを更に設け たことを特徴とする請求項22記載の装置。 24.前記コントロールプロセッサに、所望に応じて、先行するコスト関数の値 と、これと組合わされ、検索用の基準およびオフセットデータとを記憶するメモ リを更に設けたことを特徴とする請求項23記載の装置。 25.a)正方向送り差分タイプのニューラルネットワークと;b)この正方向 送り差分タイプのニューラルネットワークの入力にその出力を選択的に結合させ る手段と; c)前記正方向送りニューラルネットワークヘのこの入力ベクトルの状態を初期 化する手段とを具備することを特徴とする帰還型人工ニューラルネットワーク。 25.前記正方向送りニューラルネットワークを、第1ニューラル層を有するマ ルチチャネル入力ベクトルを受信するように構成し、この第1ニューラル層を、 人力ベクトルの信号エレメントに選択された少なくとも1つの差分型ニューロン から構成し、これによって、出力ベクトルを得るようにし、この出力ベクトルの 構成要素を前記ニューラル出力の組の少なくとも一組であることを特徴とする請 求項25記載の帰還型人工ニューラルネットワーク。 27.前記正方向送りニューラルネットワークを前記入力ベクトルの各エレメン トに完全に接続したことを特徴とする請求項26記載の帰還型人工ニューラルネ ットワーク。 28.a)前記第1層出力ベクトルが前記第2層の入力に選択的に接続されるよ うな、少なくとも1つの追加のニューロン層と;b)先行するニューロン層出力 に選択的に接続された後続のニューロン層とを更に具備したことを特徴とする請 求項27記載の帰還型人工ニユーラルネットワーク。 29.帰還差分型ニューラルネットワーク用の基準ベクトルコンポーネント値お よびオフセットを決定するに当たり、 a)一組の出力標本ベクトルから相関マトリックス(行列)を演算するステップ と: b)このマトリックス内の最大相関値を利用して、前記マトリックス内のコンポ ーネント値を正規化するステップとを具備したことを特徴とする基準ベクトルコ ンポーネント値およびオフセットを決定する方法。 30.前記標本ベクトルの平均値を移動するステップを更に設けたことを特徴と する請求項29記載の基準ベクトルコンポーネント値およびオフセットを決定す る方法。 31.所望のニューラルセルフォーマットとの互換性のために、前記器機ベクト ルをフォーマットするステップを更に設けたことを特徴とする請求項29記載の 基準ベクトルコンポーネント値およびオフセットを決定する方法。
JP4511451A 1991-04-29 1992-04-28 差分ニューロンを包含したニューラルネットワーク Pending JPH06509670A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US69267691A 1991-04-29 1991-04-29
US692,676 1991-04-29
PCT/US1992/003509 WO1992020029A1 (en) 1991-04-29 1992-04-28 Neural network incorporating difference neurons

Publications (1)

Publication Number Publication Date
JPH06509670A true JPH06509670A (ja) 1994-10-27

Family

ID=24781546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4511451A Pending JPH06509670A (ja) 1991-04-29 1992-04-28 差分ニューロンを包含したニューラルネットワーク

Country Status (4)

Country Link
US (1) US5359700A (ja)
JP (1) JPH06509670A (ja)
AU (1) AU1978592A (ja)
WO (1) WO1992020029A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822742A (en) * 1989-05-17 1998-10-13 The United States Of America As Represented By The Secretary Of Health & Human Services Dynamically stable associative learning neural network system
US5166539A (en) * 1990-07-09 1992-11-24 Nippon Telegraph And Telephone Corporation Neural network circuit
US5634087A (en) * 1991-02-28 1997-05-27 Rutgers University Rapidly trainable neural tree network
DE69333664T2 (de) * 1992-06-19 2005-11-17 United Parcel Service Of America, Inc. Verfahren und Gerät zur Einstellung eines Neurons
DE69327080T2 (de) * 1992-09-08 2000-06-08 Hitachi Ltd Informationsverarbeitungsvorrichtung mit Schlussfolgerung und adaptivem Lernen
JPH06266868A (ja) * 1992-12-24 1994-09-22 Olympus Optical Co Ltd ニューロン素子
US5517667A (en) * 1993-06-14 1996-05-14 Motorola, Inc. Neural network that does not require repetitive training
US5535148A (en) * 1993-09-23 1996-07-09 Motorola Inc. Method and apparatus for approximating a sigmoidal response using digital circuitry
US6167390A (en) * 1993-12-08 2000-12-26 3M Innovative Properties Company Facet classification neural network
US5542054A (en) * 1993-12-22 1996-07-30 Batten, Jr.; George W. Artificial neurons using delta-sigma modulation
US5486999A (en) * 1994-04-20 1996-01-23 Mebane; Andrew H. Apparatus and method for categorizing health care utilization
US5926804A (en) * 1994-07-01 1999-07-20 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Plantations Discriminant neural networks
EP0694852B1 (en) * 1994-07-28 2002-06-26 International Business Machines Corporation Innovative neuron circuit architectures
US6059724A (en) * 1997-02-14 2000-05-09 Biosignal, Inc. System for predicting future health
US6058206A (en) * 1997-12-01 2000-05-02 Kortge; Chris Alan Pattern recognizer with independent feature learning
US6110109A (en) * 1999-03-26 2000-08-29 Biosignia, Inc. System and method for predicting disease onset
US6904408B1 (en) * 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US8127075B2 (en) * 2007-07-20 2012-02-28 Seagate Technology Llc Non-linear stochastic processing storage device
RU2609745C2 (ru) * 2014-05-28 2017-02-02 Общество с ограниченной ответственностью "ПАВЛИН Технологии" Способ осуществления операции скалярного умножения произвольного вектора на загружаемый в устройство векторный коэффициент и опционального сложения со скалярным коэффициентом
US9489620B2 (en) 2014-06-04 2016-11-08 Gm Global Technology Operations, Llc Quick analysis of residual stress and distortion in cast aluminum components
CN111651203B (zh) * 2016-04-26 2024-05-07 中科寒武纪科技股份有限公司 一种用于执行向量四则运算的装置和方法
KR20200027085A (ko) 2018-08-30 2020-03-12 삼성전자주식회사 전자 장치 및 그 제어 방법
US20200184335A1 (en) * 2018-12-06 2020-06-11 Western Digital Technologies, Inc. Non-volatile memory die with deep learning neural network

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
US4760604A (en) * 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
US4852018A (en) * 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
US4918618A (en) * 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US4979124A (en) * 1988-10-05 1990-12-18 Cornell Research Foundation Adaptive, neural-based signal processor
JPH02170787A (ja) * 1988-12-23 1990-07-02 Matsushita Electric Ind Co Ltd ベクトル量子化符号化器とベクトル量子化復号化器
US5073867A (en) * 1989-06-12 1991-12-17 Westinghouse Electric Corp. Digital neural network processing elements
US5052043A (en) * 1990-05-07 1991-09-24 Eastman Kodak Company Neural network with back propagation controlled through an output confidence measure
US5097141A (en) * 1990-12-12 1992-03-17 Motorola, Inc. Simple distance neuron
US5276772A (en) * 1991-01-31 1994-01-04 Ail Systems, Inc. Real time adaptive probabilistic neural network system and method for data sorting

Also Published As

Publication number Publication date
AU1978592A (en) 1992-12-21
US5359700A (en) 1994-10-25
WO1992020029A1 (en) 1992-11-12

Similar Documents

Publication Publication Date Title
JPH06509670A (ja) 差分ニューロンを包含したニューラルネットワーク
WO1989009449A1 (en) Functional link neural net
Bruske et al. Dynamic cell structures
Linsker A local learning rule that enables information maximization for arbitrary input distributions
WO1990014631A1 (en) Dynamically stable associative learning neural system
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
Soni et al. Low-resolution image recognition using cloud hopfield neural network
Lin et al. A competitive continuous Hopfield neural network for vector quantization in image compression
Elshafei et al. Fuzzification using space-filling curves
CN114387028A (zh) 一种面向网络购物平台的商品需求量的智能分析方法
Kwon et al. Contrast enhancement for backpropagation
CN113205182A (zh) 一种基于稀疏剪枝方法的实时电力负荷预测***
Misra et al. Particle swarm optimized polynomials for data classification
Wan et al. Introducing cost-sensitive neural networks
Korner et al. A VLSI friendly neural network with localised transfer functions
JP3082530B2 (ja) ニューラルネットワーク回路
Pope et al. A comparison between neural network and conventional vector quantization codebook algorithms
JP2654686B2 (ja) ニューラルネットワーク
Linaro et al. Piecewise-linear approximation of the hindmarsh-rose neuron model
Hassan et al. Integrating neural network with genetic algorithms for the classification plant disease
Takanashi et al. Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation
Ma et al. Facial expression recognition using constructive neural networks
King et al. Adaptive Contrast Enhancement by Entropy Maximization with a 1-K-1 Constrained Network1
WO2022119466A1 (en) Device and method for implementing a tensor-train decomposition operation