JPH0258157A - 人工ニユーロン回路網アーキテクチユア - Google Patents

人工ニユーロン回路網アーキテクチユア

Info

Publication number
JPH0258157A
JPH0258157A JP1171769A JP17176989A JPH0258157A JP H0258157 A JPH0258157 A JP H0258157A JP 1171769 A JP1171769 A JP 1171769A JP 17176989 A JP17176989 A JP 17176989A JP H0258157 A JPH0258157 A JP H0258157A
Authority
JP
Japan
Prior art keywords
neuron
network
input
output
adder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1171769A
Other languages
English (en)
Inventor
Ulrich Ramacher
ウルリッヒ、ラマツヒアー
Juergen Pandel
ユルゲン、パンデル
Karl Knauer
カール、クナウエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JPH0258157A publication Critical patent/JPH0258157A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ディジタル的に動作する大きい人工ニヱーロ
ン回路W (KNN)のプログラム可能なエミュレーシ
ョンのための回路網アーキテクチュアに関するものであ
る。
〔従来の技術〕
大工ニューロン回路kR(以下ではKNNと呼ぶ)は(
たとえば音声および画像の)パターン認識および処理の
目的で非常に大きいデータ量を並列に処理するために予
定されている。このようなKNNは、可変の“重み係数
”を介して互いに交叉結合されている多数の非線形のプ
ロセッサ要素にニューロン)から成っている。
ニューロンのモデル化に関して文献には下記の非線形伝
達特性が提案されている〔アール、ピーリップマン(p
、P、Ltpp楕ann) :  ニューロン回路網に
よる計算へのイントロダクション”、I EEEASS
P雑誌、1987年4月、第4〜22頁参照〕 ニ −2値デシジヨナ一 一飽和特性を有する線形ランプ関数、 −シグモイド関数、 双曲正接関数。
さらにニューロンの交叉結合に対する多数の相異なる構
造が存在する(たとえば“ホップフィールド回路網” 
 ハミング回路網”パーセプトロン” 〔同じく上記リ
ップマンの文献参照〕)。
二のような大きい回路網を直接ディジタル的に実現する
ことは集積回路製造のための現在のテクノロジーでは、
多数(>1000)のニューロンを必要とするために、
不可能であると思われる。その際に主な問題は、接続の
数、従ってまた可変の重み係数の数がニューロンの数の
増大により二乗関係で増大することにある。たとえば1
000個のニューロンでは1つの完全に網状に構成され
た回路網のなかに100万の重み付けが必要である。
プログラム可能または非プログラム可能な回路網に対し
てたとえば54または256個のニューロンを有する小
さいKNNのいくつかの実現について述べている文献が
ある〔例えばエイチ、ピーグラフ(H,P、Graf)
 、ピー、デヴエガー(、P、deVeger) :ニ
ューロン回路網に基づ<CMO3連想メモリチップ、I
EEE固体回路国際会ml 987論文集、第304.
305.437頁;エイチ。
ピー、グラフ()1、P、Graf)他:数100のニ
ューロンを有するニューロン回路網メモリのVLS l
インブリメン)、AIP会議論文集151、“計算用の
ニューロン回路網”、第182〜187頁、ユタ州、ス
ノーバード、1986年:ダブリューフッバード(W、
 Hubbard)他、a量的ニューロン回路網、AI
P会i!!論文集151、“計算用のニューロン回路網
”、第227〜234頁、ユタ州、スノーバード、19
86年、ジェイ、ビー、サゲ(J、P、Sage) 、
チー1.トムプソン(に、Thompson)アール、
ニス、ウィサース(R,S、Withers) : M
NOS/CCD原理に基づく人工ニューロン回路網集積
回路、AIP会議論文集151、“計算用のニエーロン
回路に!4″、第381〜384頁、ユタ州、スノーバ
ード、1986年を参照〕。その際に一貫してアナログ
KNNのアナログ的実現が扱われている。それらはディ
ジタル的実現にくらべて、インプリメント面積がはるか
に小さいという利点を有する。しかし、欠点として、必
要な抵抗マトリックスにより条件付けられる電流消費が
高く、このことは(数100ニユーロンよりも多い)よ
り大きいプログラム可能な回路網の実現の妨げになって
いる。これまでに提案されたKNNのモデル化の挙動お
よび特性は主としてベクトル計算機、ワークステーショ
ンまたは特殊なプロセッサフィールド上でのシミュレー
ションにより検証される。この方法の基本的な欠点は、
ニューロン回路網に固有の(空間)並列性が情報の処理
中に完全にまたは部分的に失われ、従ってまた特に大き
いニューロン組織に対してシミュレートされた回路網の
計算時間が、前記の課題の迅速なまたは準リアルタイム
での処理が妨げられまたは不可能になるようなオーダー
に増大する。
それに対して、ハードウェアーエミュレータによれば、
計算時間の顕著な短縮およびはるかに大きいパターンス
ルーブツトが得られる。ハードウェアーシミュレータと
対照的に、ハードウェアエミュレータはより小さい大き
さの人工ニューロン回路網を含んでおり、それを用いて
より大きい回路網がエミュレートされ得る。
KNNのディジタル的実現の利点は、より大きい自由度
でのより高いスループントとならんで、ユーザーが回路
網に典型的なパラメータ(たとえばディスクリミネータ
関数)を選択かつ設定し得ることにある。
一方では小さいアーキテクチュアを有するニューロン回
路網のアルゴリズムはより迅速に実行され得るので、ま
た他方では数100のニューロンしか存していない回路
網はそのわずかなメモリ容量のために有意義な応用から
遠ざかるので、大工ニューロン回路網に対するディジタ
ルエミュレータ(以下ではニューロ−エミュレータと呼
ぶ)の設計の際には下記の点に特に考慮する必要がある
二二ニーローエミエレー夕は 一任意の形式および応用に対する十分な大きさのニュー
ロン回路網を合成することができなければならず(モジ
エール性)、 重みおよびしきい値の外部プログラミングを許し、また
は自ら行わなければならず、 知られているディスクリミネータ関数を含んでいなけれ
ばならず、 一入力または出力の分岐または非分岐を許さなければな
らず、 −(分岐または非分岐〕入力端への出力のフィードバッ
クを可能にしなければならず、 −付随された開発環境への非常に簡単なインタフェース
を有していなければならず、またより大きいエミュレー
タに対するモジエールとして使用可能でなければならな
、い。
切識相に するエミュレータ−アーキテクチュア1、大
工ニューロン回路網に対するディジタル基本モジュール 1、 1  ニューロン−アルゴリズム大工ニューロン
回路網はいわゆる認識柑のなかでの簡単なアルゴリズム
構造により優れている:i=1・・・M(1) その際にNはすべてのニューロンに共通の入力端a、(
以下では分岐入力端と呼ぶ;存在しない接続は零にセッ
トされた重みにより表される)を、Mは回路網のニュー
ロンの数を、マトリックスWは分岐入力端に対する重み
を、Wjは第iニエーロンの非分岐の個別の入力端の重
みを、またθ、はそのスイッチングしきいを表す、!後
にfはディスクリミネータ関数(すなわちニューロンの
特性曲線形式)を、またyIは第iニューロンの出力を
表す。パラメータλによりディスクリミネータ関数は急
峻化または平坦化され、またさらに1つのボルツマン分
布がサポートされ得る。さらにこのパラメータは正規化
の目的に利用され得る。
ニューロン回路網のアルゴリズム仕様に、場合によって
は、フィードバックされた回路網にかかわる問題である
という事情が加わる:出力端y、は入力@ajまたはす
、と接続されている。式(11は、人工ニューロン回路
網の1つの特定のモデルに対して強制的であるよりも一
般的に保たれている。それに関して式(1)は、もしa
、の代わりに式 を式(1)に挿入すれば、すべての知られているモデル
の取扱いを解明する〔“人工ニューロンシステムに関す
るワークショップ”、主催者、′5tate of t
he art” 、ミュンヘン1987年参照〕。
2、ニューロン回路網のエミュレーションの必要性 小さいニューロン回路網を対象とする場合には、(1)
のなかに含まれているアルゴリズム並列性は制限なしに
ハードウェア的に利用され得る。現在54ニユーロンを
有するプログラム可能な回路網および256ニユーロン
を有するプログラムネ可能な回路網はアナログ的に実現
され得る〔エイチ、ピー、グラフ(H,P、Graf)
他−数100のニューロンを有するニューロン回路網メ
モリのVLSlインプリメント、AIP会議論文集15
1、“計算用のニューロン回路網”、第182〜187
頁、ユタ州、スノーバード、1986年およびエイチ、
ピー9 グラフ(H,P、Graf) 、ビー、デヴエ
ガー(P、deVeger) :  ニューロン回路網
に基づ<CMO3連想メモリチンプ、IEEE固体回路
国際会議1987論文集、′;JA304.305.4
37頁参照〕。それとは逆にディジタル的実現は約1ダ
ースのニューロンを1つのチップの上に納めることのみ
を許す、将来のサブミクロン−テクノロジーまたは超大
面積4A積〔ニー、ラマッハー(U、Ramacher
)  :大規模集積への道−離散的および冗長性ウェー
ハ規模集積、ITG専門報告、第98巻、“大規模集積
”、第81〜91頁、バーデンバーデン、1987年お
よびニー、ラマッハ−(U、Ramacher)  :
故障を許容し得るVLS l/WS■システムのための
コスト−オリエンテッドな冗長性モデル、収率のための
設計に関するワークシタツブ論文集、オンクスフォード
、1987年7月参照〕によっては数100以上のニュ
ーロンは1つのチップ内でディジタル的にほとんど実現
され得ないことが察知される。アナログ的実現では現在
のアーキテクチュア提案ではニューロンの数と共に二乗
関係で増 する電力消費のために(目下は54ニユーロ
ンに対して250mW(エイチ、ピー、グラフ(tl、
P、Graf)他:数100のニューロンを有するニュ
ーロン回路網メモリのVLSIインプリメント、AIP
会議論文集151、°“計算用のニューロン回路網”、
第182〜187頁、ユタ州、スノーバード、1986
年およびエイチ、ビー、グラフ()1.P、Graf)
 、ビー、デヴエガー(P、deVeger) :  
二s −o 7回路網に基づ<CMO3連想メモリチン
プ、IEEE固体回路国際会議1987論文集、第30
4.305.437頁参照〕、プログラム可能なニュー
ロン回路網の応用に対して規範的な約1000ニユーロ
ンの下側しきいを達成することは困難である。
両実現可能性に共通にさらにバスおよび(または)ピン
の問題がある。たとえば256のアナログ的に実現され
たニューロンの1つのホップフィールド回路網を考察す
ると、入力あたり約3MH2の帯域幅が生した〔エイチ
、ピー、グラフ(H。
P、Graf)他:数100のニューロンを存するニュ
ーロン回路網メモリのVLS Iインプリメント。
AIP会議論文集151、゛計算用のニューロン回路網
“、第182〜187頁、ユタ州、スノーバード、19
86年およびエイチ、ピー、グラフ(l(、P、Gra
f) 、ビー、デヴエガー(P、deVeger) :
ニューロン回路網に基づ<0MO3連想メモリチップ、
IEEE固体回路国際会議1987論文集、第304.
305.437頁参照〕。必要な数のピンは高価な特殊
ケースと共にのみ利用できるので、多量の並列性の速度
上の利点をとにかく利用し得るためには、特殊なインタ
フェースモジュールが開発されなければならなかった。
〔発明が解決しようとする課題〕
本発明の課題は、大きいディジタルニューロン回路網を
構成するための冒頭に記載した種類の回路網アーキテク
チュアであって、現在利用できるテクノロジー的可能性
により実現され得る小さいニューロンユニットの使用を
可能にする回路網アーキテクチュアを提供することであ
る。
〔課題を解決するための手段〕
この課題は、本発明によれば、請求項1の前文による回
路網アーキテクチュアにおいて、その特徴部分に記載の
手段によって解決される。
本発明の有利な実施例は請求項2以下にあげられている
本発明によれば、小さいニューロン回路網はm個のニュ
ーロンおよび重み付けのためのm2個の乗算器を備えて
いる。選択されたアーキテクチュアは大工ニューロンの
前記のすべての非線形伝達特性を有する任意の網構造の
迅速なエミュレーションを許す。
本発明によるハードウェアーアーキテクチュアは大きい
ニューロン回路網を、ハードウェア実現がなお可能であ
るこのようなより小さいニューロン回路網により構成す
ることを可能にする。多数のこれらの小さい回路網がた
とえばより大きい回路網として組み合わされ得るし、ま
たは大きい回路網のアルゴリズム(1)が小さい回路網
のアルゴリズムにより網目構成化され得る。後者はより
小さい回路網による大きい回路網のエミュレーションを
意味する。
m(たとえば=4)個(mはNの除数;N7m−二K)
へのM(たとえば1000)個のニューロンの回路網の
分解は(1)の書き換えにより達成され得る: i−1・・・M(2) [実施例] 以下、図面ににより本発明の種々の実施例を一層詳細に
説明する。
4ニユーロンユニツトの機能の仕方 第1図および第2図には、N個の入力端およびM個の出
力端を有する回路網を例として、式(2)の処理をディ
ジタル的に実現し得るm=4のニューロンを存するニュ
ーロンユニットの構成および動作の仕方が示されている
第1図には4ニユーロンユニツトのアーキテクチュアが
示されている。ここで1つのニューロンは4つの乗算器
、2つの加算器、1つのアキュムレータ、2つのマルチ
プレクサおよび1つのディスクリミネータ(2値、“直
線ランプ°°−、シグモイドおよびtanh特性が選択
され得る)から成っている。さらに、なかんずくシグモ
イド関数の特性曲線を急峻化し、またそれによりボルツ
マン分布をサポートし得る乗算器が設けられている。
式(2)、n=o、J=1の計算の開始時に、分岐する
入力の重み付けに対して並列に式“wHJ+θr  、
t=1ないし4が形成され、またアキュムレータAKK
が後続のクロックで加算器ADDに続くマルチプレクサ
によりこの値に予め設定される。後続のに一1クロック
(K = N / m )で両マルチプレクサがアキュ
ムレータ経路を閉じ、また式(2)の二乗和が計算され
る。最後に第(K+1)クロックでアキュムレータが読
出され(rのアーギュメントがλ=1に対して計算され
ている)、またディスクリミネータに供給される。
こうして4つの出力端にM個の出力ベクトルのうちの最
初の4つかにクロックの後に(レジスタは考慮されてい
ない)、またその後のにクロックの後にすぐ次の4つの
出力ベクトルが現れる(以下同様)。全体でこの過程は
M / m回行われる必要がある。
第2図には、どの時間的リズムで入力ベクトル、重みお
よびしきい値が4ニユーロンユニツトに供給されなけれ
ばならないか、また出力ヘクトルが現れるかが示されて
いる。これは負帰還なしの任意の構造化された回路網に
当てはまる。負帰還された回路網の場合には出力ベクト
ルは先ず1つのローカルメモリのなかに記憶される。こ
れはその後に分岐または非分岐入力端にニーロンモデル
に応じて)上に読出され、また前記の過程が同一の重み
、しきい値などで繰り返される(アナログ的に実現され
るエミュレータは負帰還された大きい回路網を反復によ
らずにエミュレートし得ないことは理解されよう)。
しきい値および非分岐入力端に対する導線は、追加的な
りロックが費やされるならば、節減され得る。たとえば
分岐入力端に先ずb1、b!、b3、b4を、また重み
入力端に(w、000)、(Owzoo)、(OOW3
0)、(000w4)を与え、またすぐ次のクロックb
lまたはW、を1またはθ、により置換すれば、w、b
L+θ、が計算される。それにその後、前記のように、
分岐入力端の重み付けが続く、全体として計算時間は2
M/mクロックだけ上昇する。こうして64個のパッド
および4つの加算器が節減される(第3図参照)。
4ニユーロンユニツトのスループットおよヒ計龍 mニューロンユニットにより“フィードホワード(fe
edforward) ”回路網に対するすべてのM出
力ベクトルを計算するため、複数個の(N / m )
  ・(M / m )クロックを必要とする。計算時
間(単一のmニューロンユニットを使用する際のスルー
プントに相当する)はユニットのなかに位置しているニ
ューロンの二乗に逆比例していることは認識される。し
かし、考慮すべきこととして、重み、しきい値、入力お
よび出力ベクトルに対する8ビツト入力端の数は4m+
m”に比例して増大する。
1.5μmテクノロジーに基づいて設計された乗)lは
、4ニユーロンユニツトに対して〈50nSのクロック
時間が達成可能であると見積もられ得る。こうして4ニ
ユーロンユニツトにより10hまたは10’の接続が3
msまたは0.3Sのうちに分類され得る。負帰還され
た回路網に対しては前記の時間はなお反復の数により乗
算されなければならない。
mニューロンユニ トのスループットノ1、例:インス
ター(N>M) 重みのマトリックスはランクMXNを有し、計算時間は
N−M/m”  50nsである、第4図C参照。
2、例ニアウドスター(N<M) 重みのマトリックスはランクMXNを有し、計算時間は
N−M/m”  50nsである、第4図す参照。
3、例:フィードホワード多重層パーセブトロンN個の
入力端、H個の隠されたニューロンおよびM個の出力端
か設けられている、第4図C参照。
単一のmニューロンユニットによる実現の際には先ず式 %式%(3) が処理され、次いで出力ベクトルh、が分岐入力端に与
えられ、また式 %式%(4) が実行される。計算時間は(N  H/m2+HM/m
”)50nsである。
4、例:”°オーダードーフィードバック(Order
edFeedback) ”多重層パーセブトロン第0
反復段が式(3)、bi =θ、および(4)の順次処
理により記述される。第1の反復に対しては貴す、がy
、により置換され(負帰還に関与しないニューロンはw
=Qの重みを得る)、また第1の反復の出力ベクトルy
 (1−が計算される。
第2の反復に対しては量y、が量y(1)、により置換
され、また第2の反復の出力ヘクトルy(2)が計算さ
れる(以下同様)。完全な反復または負帰還は再帰的シ
ステム i = l−M、に−H/m    (6)により記述
される。その際に反復指数はl≦L≦Tである。
5、例:負帰還されたホップフィールド回路網第図4d
にN=M=4を有するこのような負帰還されたポンプフ
ィールド回路網の一例が示されている。
第0反復の間は重み付けは行われない。式が計算される
。その後に第1反復およびすべての後続の反復では分岐
入力端の重み付けが考慮され、また完全な式 が任意に高い1≦t≦Tに対して計算される。
4ニエーロンーエミエレー のイン フェースお主でノ
」ビ月」■ mニューロンユニットの前記の使用を可能にするため、
相応のインタフェースおよびメモリを有する基本モジュ
ールが構成されていなければならない。第5図には、単
一の4ニユーロンユニツトにより構成されたニューロ−
エミュレータ″“形式ビのローカルメモリ周辺が示され
ている。それは最大100000入力端(アキュムレー
タのピント幅により制限される)および最大64・10
6の重み付け(それぞれ8ビツト)を有する回路網に対
して設計されている。8ビツト入力端の数および8ピン
ト出力端の数の積は≦64・10’にとどまらなければ
ならないので、もう1つの“高速パインタフエースが設
けられており、それを介して重み何けが外部から読込ま
れ得る。欠点は、インタフェースが12820Mbit
/sの高速でなければならないことである。それとは逆
にローカルメモリはより小さい帯域幅を有する直列イン
タフェースを許す。
原理的にはmニューロンユニットに対するより高いいわ
ゆるパイプライン等級が考えられ、またスルーブツトが
相応に高められ得よう、しかし、注意すべきこととして
、重みの伝達は非常に広くかつ速いインタフェースを介
して、もしくはローカルメモリの続出しにより行われな
ければならない、既に50nsクロック時間において端
子ビンおよびビット線あたり20Mbit/sのデータ
転送率が生ずる。
ニューローエミュレー     1°°のニューロ−エ
ミュレータの性能特徴についての先にあげられた要求カ
タログで測られて、下記の特性が達成可能である。
ニューロ−エミュレータ“” 形式1°゛は一最大1o
ooooの入力端を有する任意の形式の回路網を合成し
、 −重みおよびしきい値の外部プログラミングを必要とし
、また64・106の接続に対する重みをローカルに記
憶することができ、 −知られているディスクリミネータ関数を含んでおり、 一入力端または出力端の分岐または非分岐を許し、−(
分岐または非分岐)入力端への出力の負帰還を可能にし
、 一随伴する開発環境に対する簡単なインタフェースを存
し、 3・N−M  ns (4≦N、M)の・うちにN入力
端およびM出力端を重み付けしかつ弁別する。
線形収縮 装置のなかへの 本モジュールの埋め込み ベクトルの 重利 説明される基本モジュールは線形収縮性装置のなかへの
埋め込みによく適している。〔ティーノル(T、No1
l)  :収縮性セルフイールド、rTG専門報告、第
98巻、゛大規模集積”、第203〜207頁、バーデ
ンバーデン、1987年およびニー、ラマッハ−(U、
Ra11acher)  :  ”自己試験WSIマト
リックスーマトリックス乗算器°°、つ工−ハ規模集積
に関するIFIPワークショップ論文集、プルネル、英
国、1987年9月参照〕。
L個のmニューロンユニットを相前後して接続すると(
第6図参照)、入力ベクトルa1・・・aNはもはやM
 / m回ではなくM/(Lm)回のみ反復されなけれ
ばならない、こうして、非常に迅速に一層大きいニュー
ロン回路網をエミュレートし得るmLニエーロンヲ有ス
る大きいニューロ−エミュレータが構成され得る。
mエーロ−エミュレータの  の K = N / mクロックの後に出力ベクトルy1・
・・y、がマルチプレクサを介して第1のmニューロン
ユニットの第1の出力レジスタのなかに読まれる。第2
のユニットは1クロツクの後にマルチプレクサを介して
その出力ベクトルy。、1・・・Vt、、をその第1の
出力レジスタに送る。この時点てy・・・y、は第1の
mニューロンユニットの第2の出力レジスタのなかに位
置している。さらに1クロツクの後にyl・・・ylま
たは)’ s++ ・・・ylは第1のmニューロンユ
ニットの第1の出力レジスタのなかに(マルチプレクサ
は切換えられている)または第2の出力レジスタのなか
に位置している。
L要素の連鎖が最初に出力ベクトルy4L  3・・・
y4Lを、また最後にyl・・・y4を出力することば
理解されよう。一般にM≠4Lが成り立つので、入力ベ
クトルは、すべての出力ベクトルy、・・・yHが得ら
れるまで、M/4L回相前移相前後置内へ送られなけれ
ばならない。収縮性ニューロ−エミュレータのデータの
流れは第7図に示されている(スペースの理由から非分
岐入力w、Jおよびしきい値θ、は示されておらず、ま
た短縮μ=(M−1)/4Lが使用される)。
最初のLM出力ベクトルが得られるまでに(N7m)+
L−1クロンクが必要であるので、最後の出力ヘクトル
yイが計算されるまでにその後の(N7m)   ((
M/mL)  1)りa 7りが待たれなければならな
い。最後に、装置内に位置している最後の出力ベクトル
を出力端に取り出すために、なおLクロックが必要とさ
れる。全体として計算時間に対しては式 が住する。スループントは(9)式中の第1の被加数に
より決定されている。
こうしてΔ=50ns、L=100およびm−4により
1Oh1101′または1010(7)接続が約30u
s、3msまたは300m5のうちに重み付けられかつ
弁別され得る。
ニューロ−エミュレータ“形式2″は250の4ニュー
ロンユニツトから成っている。四ニューロンユニットあ
たりN  M/250の重みが必要とされる。ユニット
あたり128X128kbiLがローカルメモリとして
用意されると、5.24×1011接続が実現され得る
。4ニエーロンユニントのアキュムレータは最大100
000入力ベクトルに対して出力ベクトルの所望の8ビ
ット精度を保証するので、第8図中に示されているイン
タフェースおよび同じく第8図中に示されているメモリ
周辺が生ずる。
特に強調すべきこととして、ニューローエミュレーダ°
形式2”はデータ線に対する接続ピン数をニューロ−エ
ミュレータ゛形式1”の場合と同じ数で間に合わせられ
ることである。しかし、同時にニューロ−エミュレータ
“形式2”はニューロ−エミュレータ“形式1″゛にく
らべて本質的に改善された性能特徴を提供する(後記の
説明を参■召) 。
読出し/書込み操作を同時に行い得るように、32 3
2kbitメモリが二重に設けられている。重みに対す
るローカルメモリの利点は、前記のように、250の重
みメモリが直列にロードされ得ることにある。これは計
算時間の倍数を生み出し、また、i?1. 織組での重
みは入力ベクトルの長い列にわたり変化しないので、非
番を異的である。
ニューロン回路網の学習用では重みW 、 、 ;4<
 N入力ベクトルの各セントに従ってδ(Wij)だけ
変化するので、他方において学習用に対する基本モジュ
ールのアーキテクチュアの開発の際に、これらの変化δ
(Wij)が重みW8.により内部で計算され、また学
習用の継続時間にわたり累算されることに注意されなけ
ればならない。学習用の終了の後に、学習された重みW
’ijが重みメモリのなかにロードされ得る。
ニューロ−エミュレータ”   2”のニューロ−エミ
ュレータ“形式2°°は4つではft < 1000の
ニエーロンから成っているので、前記の考察が成り立つ
、さらに、エミュレータ゛形式1パ (第1図)および
エミュレータ゛形式2°゛の分岐入力端の双方向性が、
場合によっては必要とされるエミュレータ゛形式2゛に
よる反復の有利な実現のために利用され得る。収縮性装
置の出力ベクトルは入力ベクトルとは別の装置端に現れ
るので、M出力ベクトルの完全なセットをこの装置端に
供給し得ること、また逆方向に装置を通して送ることは
有利である。こうして、分岐入力端へのデータの流れは
各反復の後に方向を反転する。
これは双方向性ドライバおよびレジスタにより達成され
る。
ニューローエミュレ−2゛の 二ニーローエミュレータ゛形式2°゛は−最大1000
00の入力端を有する任意の形式の回路網を合成し、 重みおよびしきい値の外部プログラミングを必要とし、
また524・10hの接続に対する重みをローカルに記
憶することができ、 −知られているディスクリミネータ関数を含んでおり、 入力端または出力端の分岐または非分岐を許し、(分岐
または非分岐)入力端への出力の負帰還を可能にし、 一随伴する開発環境に対する簡単なインタフェースを有
し、 12・N・Mps(4≦N;1000≦M)のうちにN
入力端およびM出力端を重み付けしかつ弁別する。
lム皇芝1旦■ 入力ベクトルのPの異なるセットの並列処理のために1
つの線形収縮性装置による重みの多重利用が考慮に値す
る、第9図参照、この用途は、多数の仮説的パターンか
ら実際に存在するパターンがコ忍識されるべきときに生
ずる(たとえば流れるような音声の認識の際)。
第9図から、mニューロンユニットの入力ベクトルが先
行のユニットの入力ベクトルにくらべて1クロツクだけ
遅らされなければならないことは明らかである。明らか
に装置のスルーブツトは、単一の(同一の課題を有する
)mニューロンユニットにより得られるスループットよ
りもP倍高い。
インタフェースおよびメモリ周辺の形成およびこの収縮
性装置の性能特徴の評価はそれぞれ専門家にゆだねられ
得る。
斂 ディスクリミネータユニットの課題は、ニューロンの非
線形伝達特性を実現することである。最大限のフレキシ
ビリティを得るため、このユニットのなかにニューロン
回路網に対して重要なすべての伝達特性が含まれている
。ディスクリミネータの入力信号2(第1図中のアキュ
ムレータAKKの出力)は32ビツトにより“2の補数
”表現に符号化されており、その際に最下位ビットは桁
値2−14を有する。このディスクリミネータユニット
のなかで下記の非線形ディスクリミネータ関数が実現さ
れる。
第10図a 2値デシジヨナー    (10a)第1
0図b ランプ関数 (10b) 0.5+λ Z を有する 第10図Cシグモイド関数 y (z)= (1+exρ(−λz))これらの関数
に対して出力信号yは常に零に等しくまたは零よりも大
きい。変換y−2y−1により値範囲(0,1)が(−
1,1)に写像され得る。シグモイド関数(10c)か
ら下式が得ら(10c) れる。
第10図d             (10d)y 
 (z)=tanh  (λ2) パラメータλ(λ〉0)の変更によりランプ関数、シグ
モイド関数および双曲線関数の急峻度が変更され得る(
第1O図す、c、d参@)。λの値範囲は、曲線カ月に
よる重み付けに比較して急峻(λ〉■)にも平坦(λく
1)にも経過し得るように選定されている。さらにパラ
メータにより重み係数の値範囲が変更され得る。λの値
は32ビツトにより符号化され、その際に最小の桁の重
みは2−16であり、従って下式が成り立つ。
その際に61は個々の桁の重みを表す。すなわち数値範
囲は0から+32768−2−”までにわたっている。
ディスクリミネータユニットの構 ディスクリミネータユニットの回路図が第11図に示さ
れている。定数λおよび2の数値はレジスタREGIお
よびREG2のなかに記憶されている。REGIは直列
に続出され、また後続の直列乗算ユニットのなかで2に
よる乗算が行われる。
続いて飽和マルチプレクサによる必要な語幅への数値フ
ォーマットの減少が行われる。2値デシジゴナーの場合
には極性符号ビットのみが伝達されればよい。ランプ関
数の選択の際には飽和マルチプレクサの出力信号が変更
されずに伝達され、またシグモイド関数およびLanh
関数の際には別のユニットのなかで直線近似が行われる
。最後のブロックのなかで最後に負の出力数値の発生の
ための線形数値変換が行われる。
1刀来夏三三上上 パラメータλによる信号Zの乗算は直列乗算器ユニット
のなかで行われる。レジスタのなかに記憶されている数
値は最下位ビットで初めて直列に続出され、また乗算ユ
ニットに供給される(第12図参照)。
乗算はいわゆるホーナー(Horner)法により行わ
れる〔エル ガツィ(L、Gazsi) ニブログラム
可能なディジクル信号プロセッサを使用する波ディジタ
ルフィルタのハードウェアインプリメント、回路理論お
よび設計に関する1981年ヨーロッパ会議論文集、第
1052〜1057頁、ヘーグ、■981年8月参照〕
λ、=2IS(δs+z+2−’(δ36Z+ ” ’
 +2(δtz+2−’(δ、z+2−’δ、z)) 
・−・)1δ、、i=oないし31による2の乗算はア
ンド回路により実現される(第12図)。乗算の際に生
ずる追加的な下位ビット(“リアーピッドパはその後の
処理で必要とされないので、アキュムレータ語長は部分
和の計算のためにフロントピントだけ拡張されればよい
。λ2の計算の前に、設けられているアキュムレータレ
ジスタREG3がリセットされなければならない(第1
2図中のりセント信号)、その後に最初のサイクルで第
1の項δ。2がアキュムレータレジスタREG3のなか
に記憶される。加算器への負帰還は固定配線されたlポ
ジションだけの°“右シフドパを介して行われ、その際
に極性符号が二重にされる(算術的シフト、2−1によ
る部分和の乗算)。すぐ次のサイクルで結果(2柑δ。
Z)がδ、2に加算される。この過程は、32サイクル
の後に式(11)中の中括弧のなかの計算が終わるまで
、繰り返される。215による乗算は同じく固定配線さ
れたシフトにより行われる。
飽和マルチプレクサ 結果はいま33ピントの語幅で存在し、表現可能な数値
範囲は−224から2”−1′□′までにわたっており
、LSBは2−7の桁値を有する。しかしディスクリミ
ネータの出力信号は8ビツトの語幅に制限されていなけ
ればならない。2値デシジヨナーでは極性符号の間合せ
のみで十分であり、それと異なりランプ関数では語幅が
飽和特性の応用のもとに8ピントに制限されなければな
らない。
当該の飽和マルチプレクサの入力信号はz’=λ2であ
り、また出力信号はz+−’である。その場合、飽和特
性は Z、    = シグモイド関数の計算は直線セクションにより行われる
。式(10c)の代わりに下記のように書くことができ
る。
y (z’ )=0.5+0.5tanh (z’ /
2)(13)式中の第2項は2′中の奇数関数であるの
で、この項を2′の正の値に対して直線セクションによ
り近似すれば十分である。近似の際には誤差がl LS
Bよりも、すなわち21よりも小さくなければならない
。精度推定は、2′の数値範囲が間隔(−8,8)に制
限され得ること、また最下位ビットの桁値が2−5より
も太き(ではならないことを明らかにする。その結果、
2′の数値表現のために少なくとも9ビツトが必要であ
る。
それに応じて、飽和特性が 2、   2+ により与えられている第2の飽和マルチプレクサが必要
である。その際に量z、′はこの飽和マルチプレクサの
出力信号を示す。
両開数の共通の実現が第13図に示されている。
l′のLSBは桁値2−7を有するので、ランプ関数の
応用の際にはまさに7つの下位ピントが選択されなけれ
ばならない。2′≧1−2−’の場合、すなわち極性符
号ピントがOであり、かつそれ以外の25の主導的ピン
トの少なくとも1つが1である場合には、すべての出力
ビットは極性符号ピントを例外として1にセットされな
ければならない。これはマルチプレクサMUX (1)
ないしMUX (7)により行われる。MUX (3)
を例外として左に示されている入力端は、この場合、反
転された極性符号ビットにより1にセントされ、またM
UX (3)の相応の入力端は、設けられているPLA
(プログラム可姥論理装置)により1にセットされる。
マルチプレクサの切換は同しくこのPLAにより制御さ
れる。相応のことが2〈0に対しても、すなわち極性符
号ピントが1に等しく、かつそれ以外の25の主導的ビ
ットの少なくとも1つが0である場合にも成り立つ。こ
の場合にはすべての出力ビットが0にセットされるべき
である。
シグモイド関数およびtanh関数の発生のためにはM
SBおよびそれ以外の22ビツトが、数値範囲超過が存
在するか否かを確認するために検査されなければならな
い。出力信号はいまMUX(3)ないしMUX(10)
により形成され、その際にLSBは飽和の際に常に1で
あり(式(14)参照)、またそれ以外のビットは前記
の仕方と同一の仕方で形成される。
シグモイド関 の 前記のように、式(13)中の第2の項、g(z’ )
=0.5tanh Cz’ /2)はZ′の正の値に対
して直線セクションにより近イ以され、その際に誤差は
21よりも小さくなければならない。
2′の負の値の際の計算のためには極性符号−絶対価一
数値表現が必要である。その後、出力値yは 第1の間隔内では V = 0.5 +sign(z’ )  ・ml・第
2の間隔内では Y =0.5 +sign(z’ ) 噛(m、 、、
+ +m2(l z’  l −z、’N 第1の間隔内では y = 0.5 +sign(z’ )・ (m、・2
.′+11z(Zz’  Z+’ ) + ” ・m 
t−+(z;Zi−2’ )+m1(lz’  l  
Zi−1’ ) 1により与えられている。その際にs
ign(z’)は符号関数、またZ、′は付属の上側間
隔限界を示す。
これは y −0,5+sign(z’ ) ・(Ct+mt(
l zzi−1’ ) ) Zi−1′≦2′≦z(’、i=1.−.kに対して(
15a) Cr  =  Σ 11r  (zt’  −z=−、
’  )+zo’  =o    (15b)にまとめ
られ得る。ここでkは間隔の全数である。
すべての間隔が等しい長さΔz’ =2.’ −Z。
=1′を有し、かつさらに2の=数に等しい場合には、 Δz’ =zr’ −Zi1’ =2L、      
 (16a)z、+ =i ・2L、  i=o、  
・・・k、     (16b))’ =0.5 +s
ign(z’ )・(Ct+mt(l z(i−1)2
L)〕、               (16c)C
I =2L Σ m。
j+ (16d) が成り立つ。
2′の極性符号−絶対値−数値表現の際には下位のビッ
トは位置2L−1を含めてまさに項(lz(i−1)2
L)を含んでおり、またそれ以外の上位のビット(極性
符号なし)はセグメントを特徴付ける。これにより回路
技術的実現が非常に簡単化される。2.およびm、の数
値は、直接にこれらの上位ビットによりアドレス指定さ
れる1つのROMのなかに記憶され得る0項(IZ′−
(k−1)2L)によるm、の乗算およびC4への加算
は直列に行われ得る。z′の極性符号に応じて結果が0
.5に加えられ、またはそれから差し引かれる。
いまの場合には、2−7よりも小さい誤差を保証するた
めに、Δz′=1の長さを存するに−8のセグメントで
十分である。この少数の項のために、ROMの代わりに
PLAを使用することは回路技術的に有利である。
回路技術的実現が第14図に示されている。最初に、9
ビツトにより2の補数に符号化された数2′が極性符号
−絶対値−数値表現に変換される。
そのために最初にZ′の絶対値が形成され、他方におい
て極性符号ビットは不変にとどまる。絶対値は8ビツト
幅のレジスタREG2のなかに記憶される。このレジス
タの3つの上位ビット(セグメントa別)はCiおよび
m、の呼出しのために必要とされ、C4はマルチプレク
サMUX2を介してアキュムレーターレジスタREG4
のなかに、mlはR2O3のなかにロードされる。レジ
スタREG2の下位の5ビツトは続いて、LSBで初め
て、直列に読出される。アンド回路により各サイクル中
に部分積が計算され、またアキュムレータ内容に加算さ
れる。結果は各サイクルの後に固定配線された“ピン”
を介してlポジションだけ右へずらされ、またアキュム
レーターレジスタREG4のなかに記憶される。5サイ
クルの後に結果C,+mH(z”−(i−1)2L)が
レジスタREG5のなかに得られる。後続の段でこの数
値が0.5に加えられ、または負の2′の際にはそれか
ら差し引かれる。
の     る−゛イスク1ミネー   曲 の発生 これまでに説明された回路ユニットでは単極性(非負)
の出力信号のみが発生され得る。しかし、多くの場合に
、座標原点に対して対称に位置するディスクリミネータ
特性曲線が望まれる。2値デシジヨナーでは、またシグ
モイド関数では、線形変換による(−1,1)への間隔
(0,1)の写像で十分であるが、ランプ関数ではそれ
と異なり、直列乗算器ユニットのなかでz’=0.5+
λ2が計算されることに注意されなければならない。こ
れは簡単に、アキュムレータが6リセント信号°゛によ
りOにではなく値Ω、5にセットされることにより達成
される。
ディスクリミネータ出力信号は8ビツトで°°2の補数
“表現に符号化されているので、最大表現可能な数は1
−21である。その際に128の量子化ステップが存在
する。従って、対称な特性曲線を得るためには、0から
この数までの数値範囲が−1+2−”から12−’まで
の範囲に写像されなければならず、その際に量子化ステ
ップの数は不変にとどまる。この写像は変換 y’ =2y−1+2−’         (17)
により行われる。
回路技術的実現(第15図)は主としてマルチプレクサ
から成っている。2による乗算は非常に簡単に固定配線
された左シフトにより、また2−7の加算は最下位マル
チプレクサ入力端における1により行われる。−1の加
算のためには単に最上位ビットの反転が必要である。
【図面の簡単な説明】
第1図は本発明による4ニユーロンユニツトのアーキテ
クチュアを示す図、第2図は4ニユーロンユニツトのな
かのデータの流れの概要を示す図、第3図は第1図によ
る4ニユーロンユニツトにくらべて減ぜられた数の入力
端を有する本発明による別の4ニユーロンユニツトを示
す図、第4図aはいわゆるインスター回路網のなかにm
ニューロンユニットを使用する第1の例を示す図、第4
図すはいわゆるアウトスター回路網のなかにmニューロ
ンユニットを使用する第2の例を示す図、第4図Cはい
わゆるフィードホワード−多重層−バーセプトロンのな
かにmニューロンユニットヲ使用する第3の例を示す図
、第4図dはいわゆるホップフィールド回路網のなかに
mニューロンユニットを使用する別の例を示す図、第5
図は本発明による4ニユーロンユニツトのインタフェー
スおよびメモリ周辺の概要を示す図、第6図はL個のm
ニューロンユニントを有するいわゆる収縮性二ニーロー
エミュレータ装置の概要を示す図、第7図はいわゆる収
縮性ニューロ−エミュレータのなかのデータの流れの概
要を示す図、第8図は250個の4ニユーロンユニツト
を有する本発明による二ニーローエミュレータの第2の
形式(形式2)のインタフェースおよびメモリ周辺の概
要を示す図、第9図はP個のmニューロンユニットヲ有
スるいわゆる収縮性ニュー四−エミュレータ装置の概要
を示す図、第10図a、第10圀b、第10図Cおよび
第10図dは本発明によるディスクリミネータユニット
の種々の特性曲線形式を示す図、第11図は本発明によ
るディスクリミネータユニットの構成を示すブロック回
路図、第12図は直列乗算ユニットの概要を示す図、第
13図はいわゆる飽和マルチプレクサの概要回路図、第
14図は第10図によるシグモイド関数を実現するため
の回路装置のブロック回路図、第15図は式(17)に
よる線形変換を実現するための回路装置の原理回路図で
ある。 A・・・出力端 ADD・・・加算器 AKK・・・アキュムレータ E・・・入力端 FKT・・・関数要素 MUL・・・乗算器 MUX・・・マルチプレクサ 0・・・しきいイ直 REG・・・レジスタ SM・・・直列乗算ユニ、ト SMUX・・・飽和マルチプレクサ W・・・重み(直 WDF・・・ディスクリミネータ関数 I01 IG 2 AN AN−−−−AN 八N FIo 3 FIo4  a、 a。 aNLI aN aN、l ’N ’N、l aN N入力 y。 yv、+ yM M出力 FIo 7 FIG 8 FIG 9 出力 FIG 10 +a+ +bl dl tanhtA8 アキュムレータから 飽和マルチプレクサへ 2()盲 デノジタナ ノグモイド/ 1anh関数 線形ランプ関斂 IG 15 出力y

Claims (1)

  1. 【特許請求の範囲】 1) ディジタル的に動作する大きい人工ニューロン回
    路網(KNN)のプログラム可能なエミュレーションの
    ための回路綱アーキテクチュアにおいて、  m個のニューロンにより構成された同一の構成の多数
    (L個)のニューロンユニットが設けられており、それ
    らの入力端(E)が多重化または分岐されて個々の入力
    レジスタ(REG_N)を介して回路網入力端(E_N
    )と接繞されており、それらの出力端(A)が個々のマ
    ルチプレクサ(MUX)および個々の出力レジスタ(R
    EG_A)を介して相異なる時点で回路網出力端(A_
    N)に接続可能であり、また個々の補助入力端を有し、
    それらを介して、当該のニューロン接続の重み付けのた
    めの重み値および入力信号の評価のためのしきい値(0
    )を表す信号を供給され得ることを特徴とする人工ニュ
    ーロン回路網のプログラム可能なエミュレーションのた
    めの回路網アーキテクチュア。 2)m=4であることを特徴とする請求項1記載の回路
    網アーキテクチュア。 3)m個の互いに等しいニューロンがそれぞれ4つの入
    力端を有し、それらにそれぞれ1つのディジタル乗算器
    (MUL)が対応付けられており、その一方の乗数入力
    端が当該の入力端と接続されており、またその他方の乗
    数入力端が個々の補助入力端の1つと接続されており、
    乗算器(MUL)の結果出力端がそれぞれ、当該のニュ
    ーロンに対応付けられているディジタル加算器(ADD
    )の個々の入力端と接繞されており、加算器(ADD)
    の結果出力端がレジスタ(REG)を介して当該のニュ
    ーロンのディジタルアキュムレータ(AKK)の第1の
    入力端と接繞されており、アキュムレータ(AKK)の
    結果出力端が、当該のニューロンに個々に対応付けられ
    ているマルチプレクサ(MUX)および別のレジスタ(
    REG)を介して、当該のニューロンに個々に対応付け
    られている関数要素(FKT)の1つの信号出力端と接
    続されており、その信号出力端が別のレジスタ(REG
    )を介して当該の回路網出力端(A_N)と接続されて
    おり、アキュムレータ(AKK)の第2の入力端が別の
    レジスタ(REG)を介してマルチプレクサ(MUX)
    の別の出力端と接続されており、またディスクリミネー
    タ関数(WDF)を選択するための選択導線がレジスタ
    (REG)を介して多重化または分岐されて関数要素(
    FKT)の各々の選択導線と接続されていることを特徴
    とする請求項1記載の回路網アーキテクチュア。 4)関数要素(FKT)の関数を選択するための導線が
    ニューロン特有に設けられていることを特徴とする請求
    項3記載の回路網アーキテクチュア。 5)選択的に単位ステップ関数(第10図a)、リニア
    −ランプ関数(第10図b)、シグモイド関数(第10
    図c)またはTanh関数(第10図d)が関数要素(
    FKT)のなかで実行可能であることを特徴とする請求
    項3または4記載の回路綱アーキテクチュア。 6)ニューロンに対する非多重化または非分岐入力端が
    設けられており、その際にこれらの入力端の第1のもの
    は第1のニューロンに対応付けられている1つの別の加
    算器(ADD)の第1の加算器入力端と接続されており
    、これらの入力端の第2のものは第2のニューロンに対
    応付けられている第2の加算器(ADD)の第1の加算
    器入力端と接続されており、これらの入力端の第3のも
    のは第3のニューロンに対応付けられている第2の加算
    器(ADD)の第1の加算器入力端と接繞されており、
    またこれらの入力端の第4のものは第4のニューロンに
    対応付けられている第2の加算器(ADD)の第1の加
    算器入力端と接繞されており、またその際に各ニューロ
    ンに個々の捕助入力端が対応付けられており、この捕助
    入力端に、重み値を表す信号が供給可能であり、またこ
    の補助入力端がレジスタを介して第2の加算器(ADD
    )の第2の加算器入力端と接続されており、また個々の
    アキュムレータ(AKK)の各々に別のマルチプレクサ
    (MUX)が設けられており、その出力端が第2の加算
    器(ADD)の出力端と接続されており、またその他の
    出力端がアキュムレータ経路を形成するため第1のマル
    チプレクサ(MUX)の出力端と接続されていることを
    特徴とする請求項3記載の回路網アーキテクチュア。 7)ニューロンによりいわゆるインスター回路綱が形成
    されていることを特徴とする請求項1ないし6の1つに
    記載の回路綱アーキテクチュア。 8)ニューロンによりいわゆるアウトスター回路綱が形
    成されていることを特徴とする請求項1ないし6の1つ
    に記載の回路網アーキテクチュア。 9)ニューロンによりいわゆるフィードフォワードーマ
    ルチプレイヤーパーセプトロンが 形成されていることを特徴とする請求項1ないし6の1
    つに記載の回路網アーキテクチュア。 10)ニューロンによりいわゆるホップフィールド回路
    網が形成されていることを特徴とする請求項1ないし6
    の1つに記載の回路綱アーキテクチュア。 11)読出し/書込みを同時に実行し得るように、m−
    ニューロンユニットに対応付けられているメモリがそれ
    ぞれ二重に設けられていることを特徴とする請求項1な
    いし10の1つに記載の回路綱アーキテクチュア。 12)m−ニューロンユニットの入力ベクトルが先行ユ
    ニットの入力ベクトルにくらべて1クロックだけ遅らさ
    れていることを特徴とする請求項1ないし11の1つに
    記載の回路綱アーキテクチュア。 13)ディスクリミネータユニットが設けられており、
    そのなかで定数および数値がレジスタ(REG1、RE
    G2)内に記憶され、これらのレジスタ(REG1、R
    EG2)の後に直列乗算ユニット(SM)が接続されて
    おり、その出力端が乗算結果の数値フォーマットを飽和
    マルチプレクサ(SMUX)により必要な語幅に減少す
    るためにこの飽和マルチプレクサの相応の入力端と接繞
    されていることを特徴とする請求項1ないし12の1つ
    に記載の回路綱アーキテクチュア。
JP1171769A 1988-07-05 1989-07-03 人工ニユーロン回路網アーキテクチユア Pending JPH0258157A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE3822758.4 1988-07-05
DE3822758 1988-07-05

Publications (1)

Publication Number Publication Date
JPH0258157A true JPH0258157A (ja) 1990-02-27

Family

ID=6358016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1171769A Pending JPH0258157A (ja) 1988-07-05 1989-07-03 人工ニユーロン回路網アーキテクチユア

Country Status (4)

Country Link
US (1) US5253330A (ja)
EP (1) EP0349820B1 (ja)
JP (1) JPH0258157A (ja)
DE (1) DE58909182D1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04232562A (ja) * 1990-05-22 1992-08-20 Internatl Business Mach Corp <Ibm> コンピユータ装置
JPH04311254A (ja) * 1991-03-20 1992-11-04 American Teleph & Telegr Co <Att> ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置
US11522671B2 (en) 2017-11-27 2022-12-06 Mitsubishi Electric Corporation Homomorphic inference device, homomorphic inference method, computer readable medium, and privacy-preserving information processing system

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2035338C (en) * 1990-03-21 1995-07-25 Bernhard Boser Operational speed improvement for neural networks
EP0461902B1 (en) * 1990-06-14 1998-12-23 Canon Kabushiki Kaisha Neural network
US5350953A (en) * 1993-05-28 1994-09-27 Swenson Richard M Digitally weighted neuron for artificial neural network
US5473731A (en) * 1993-07-20 1995-12-05 Intel Corporation Lattice based dynamic programming classification system
US5535148A (en) * 1993-09-23 1996-07-09 Motorola Inc. Method and apparatus for approximating a sigmoidal response using digital circuitry
KR0170505B1 (ko) * 1995-09-15 1999-03-30 양승택 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법
JP3524250B2 (ja) * 1995-11-27 2004-05-10 キヤノン株式会社 デジタル画像処理プロセッサ
JPH09163162A (ja) * 1995-12-08 1997-06-20 Canon Inc 画像処理方法及び装置
US5903886A (en) * 1996-04-30 1999-05-11 Smartlynx, Inc. Hierarchical adaptive state machine for emulating and augmenting software
JP3283040B2 (ja) * 1997-12-19 2002-05-20 ビーエイイー システムズ パブリック リミテッド カンパニー 重み付けなしニューラル技術を利用したデジタル信号フィルタ
US7107347B1 (en) * 1999-11-15 2006-09-12 Fred Cohen Method and apparatus for network deception/emulation
US6836767B2 (en) * 2001-10-03 2004-12-28 International Business Machines Corporation Pipelined hardware implementation of a neural network circuit
US20050060295A1 (en) * 2003-09-12 2005-03-17 Sensory Networks, Inc. Statistical classification of high-speed network data through content inspection
US8081816B1 (en) 2008-06-06 2011-12-20 Kevin Maurice Irick Apparatus and method for hardware implementation of object recognition from an image stream using artificial neural network
JP5911165B2 (ja) * 2011-08-05 2016-04-27 株式会社メガチップス 画像認識装置
US9256823B2 (en) * 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
FR3011659B1 (fr) * 2013-10-04 2015-10-16 Commissariat Energie Atomique Circuit electronique, notamment apte a l'implementation d'un reseau de neurones, et systeme neuronal
US11997123B1 (en) 2015-07-15 2024-05-28 Management Analytics, Inc. Scaleable cyber security assessment system and method
US10942711B2 (en) * 2016-02-12 2021-03-09 Sony Corporation Information processing method and information processing apparatus
CN108320018B (zh) * 2016-12-23 2020-03-06 中科寒武纪科技股份有限公司 一种人工神经网络运算的装置及方法
US10990525B2 (en) * 2018-12-12 2021-04-27 Mipsology SAS Caching data in artificial neural network computations
US11783187B2 (en) * 2020-03-04 2023-10-10 Here Global B.V. Method, apparatus, and system for progressive training of evolving machine learning architectures

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4044243A (en) * 1976-07-23 1977-08-23 Nestor Associates Information processing system
US4338675A (en) * 1980-02-13 1982-07-06 Intel Corporation Numeric data processor
JPH0769893B2 (ja) * 1988-01-25 1995-07-31 日本電気株式会社 ニューラルネットワークシミュレータ
US4944982A (en) * 1988-04-04 1990-07-31 Fuji Photo Film Co., Ltd. Information recording medium having magnetizable hub
US4974169A (en) * 1989-01-18 1990-11-27 Grumman Aerospace Corporation Neural network with memory cycling

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04232562A (ja) * 1990-05-22 1992-08-20 Internatl Business Mach Corp <Ibm> コンピユータ装置
JPH04311254A (ja) * 1991-03-20 1992-11-04 American Teleph & Telegr Co <Att> ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置
US11522671B2 (en) 2017-11-27 2022-12-06 Mitsubishi Electric Corporation Homomorphic inference device, homomorphic inference method, computer readable medium, and privacy-preserving information processing system

Also Published As

Publication number Publication date
EP0349820A1 (de) 1990-01-10
US5253330A (en) 1993-10-12
EP0349820B1 (de) 1995-04-19
DE58909182D1 (de) 1995-05-24

Similar Documents

Publication Publication Date Title
JPH0258157A (ja) 人工ニユーロン回路網アーキテクチユア
US4994982A (en) Neural network system and circuit for use therein
CN107924227B (zh) 电阻处理单元
US5617512A (en) Triangular scalable neural array processor
Forrest et al. Implementing neural network models on parallel computers
KR20150016089A (ko) 신경망 컴퓨팅 장치 및 시스템과 그 방법
JPH04293151A (ja) 並列データ処理方式
US5146543A (en) Scalable neural array processor
US5065339A (en) Orthogonal row-column neural processor
US5148515A (en) Scalable neural array processor and method
US5243688A (en) Virtual neurocomputer architectures for neural networks
US5742741A (en) Reconfigurable neural network
Svensson et al. Execution of neural network algorithms on an array of bit-serial processors
KR100442434B1 (ko) 학습된 신경망 설계를 위한 어레이 구조 연산 방법
US5146420A (en) Communicating adder tree system for neural array processor
Kim et al. An Asynchronous Inter-Processor Communication Based, Input Recycling Parallel Architecture for Large Scale Neural Network Simulation
Bermak et al. VLSI implementation of a neural network classifier based on the saturating linear activation function
Walker et al. A neuromorphic approach to adaptive digital circuitry
Ghorbani et al. Incremental communication for multilayer neural networks
Marchesi et al. Design of multi-layer neural networks with powers-of-two weights
Malhotra et al. Evaluation of electronic artificial neural network implementations
Jutten et al. Simulation machine and integrated implementation of neural networks: A review of methods, problems and realizations
Garth A dedicated computer for simulation of large systems of neural nets
Brouwer Using a feed-forward network to incorporate the relation between attractees and attractors in a generalized discrete Hopfield network
Alhalabi et al. Hybrid Chip Set for Artificial Neural Network Systems