JPH0883261A - ニューロ演算装置 - Google Patents

ニューロ演算装置

Info

Publication number
JPH0883261A
JPH0883261A JP6219179A JP21917994A JPH0883261A JP H0883261 A JPH0883261 A JP H0883261A JP 6219179 A JP6219179 A JP 6219179A JP 21917994 A JP21917994 A JP 21917994A JP H0883261 A JPH0883261 A JP H0883261A
Authority
JP
Japan
Prior art keywords
units
data
unit
neuro
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6219179A
Other languages
English (en)
Inventor
Takayuki Saito
藤 貴 之 斉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP6219179A priority Critical patent/JPH0883261A/ja
Publication of JPH0883261A publication Critical patent/JPH0883261A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 データ領域の効率的な活用を図ると共に、ニ
ューロ演算の高速化を図る。 【構成】 表2はグループ結合関係テーブルの内容を示
すものであり、入力層グループu1 〜u4 及び出力層グ
ループu5 〜u8 と各ユニットu1 〜u8 との結合関係
の有無を示す2値データが記載されている。表3はデー
タ配置テーブルの内容を示すものであり、表2におい
て、「1」が付された組合わせのみを取り出し、その組
合わせに含まれるユニット同士の結合度が格納されるア
ドレスとデータを記載したものである。表2における要
素数は16個であり、表3における要素数は4×11=
44個である。表1は従来のデータ配置テーブルの内容
を示すものであり全体の要素数は8×8=64個である
から、64−(16+44)=4個だけメモリ領域が節
約できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ある対象から得られた
入力情報に対し、一定の操作を施すユニットを複数個用
いて情報の変換を行うニューロ演算装置に関する。
【0002】
【従来の技術】近年、生体の神経細胞の情報処理をモデ
ル化したユニットを多数用いた情報処理システムが、制
御やパターン認識などに応用されている。例えば、文字
認識などでは、サンプル文字とそれが表している実際の
文字とを学習データとして与え、ネットワークの結合度
を学習し、実際に入力装置から入力された文字をそのネ
ットワークを用いて判定する。
【0003】ユニットは、入力に対し、ある演算を施し
て出力する多入力1出力の素子である。すなわち、図7
に示すように、複数のデータO1 ,O2 ,…Oi ,…O
n がユニットuj に入力されるとすると、これらのデー
タにそれぞれw1 ,w2 ,wi ,…wn を乗じたものの
合計加算値からしきい値θj を減じたものを入力値iと
して扱う。そして、図8に示すような出力関数f(ij
に基いて出力値Oj を出力する。
【0004】各ユニットは、他のユニットと結合してネ
ットワークを構成している。この結合は、そのユニット
間の結合の強さを、正の値、ゼロ、又は負の値として表
現した結合度(重み係数)をもっている。そして、上記
のように、各ユニットが複数のデータの入力に基いて出
力を行う動作をニューロ演算と呼ぶ。
【0005】ネットワーク構造は2種類に大別される。
1つは、各ユニットが層をなし、入力情報が入力層から
出力層に向かって次々に変換される階層型ネットワーク
である。もう1つは、各ユニットが相互に結合をもつ相
互結合型ネットワークである。階層型ネットワークに
は、出力層の出力値が入力層に戻されるフィードバック
ループをもつものや、各層内だけに相互結合をもつもの
など様々なネットワークが存在する。
【0006】図9は層内結合をもたない3層の階層型ネ
ットワークの例を示す概念図であり、図10は層内結合
を有する2層の階層型ネットワークの例を示す概念図で
ある。
【0007】図11はこのようなネットワークを実現す
るための従来装置の構成を示すブロック図である。この
図において、ニューロ演算部1は前記のニューロ演算を
行うものであり、各ユニットに対応するニューロプロセ
ッサを有している。プログラム記憶部2は、このニュー
ロ演算の方法及び学習法則を記憶するものである。
【0008】ユニット状態記憶部3は、ある入力に対し
て一定の処理を施して得られたユニットの出力値とユニ
ットの状態(2値データで表わされる特定の状態)を記
憶するものである。結合データ記憶部4は、ユニット間
の結合の強さを示す結合度(結合の程度を示す0〜1の
数値)を記憶するものである。
【0009】知識ベース5は結合関係テーブル6を有し
ている。この結合関係テーブル6には、複数のユニット
の相互結合関係の有無を示す2値データが記憶されてお
り、データ配置テーブル7には、この結合関係テーブル
6に記載されたユニット同士の結合度に関するデータを
格納しているアドレスが記載されている。
【0010】次に、この結合関係テーブル6の記載内容
について説明する。まず、図9の3層の階層型ネットワ
ークの場合について説明すると、この入力層はユニット
1,u2 ,u3 により、中間層はu4 ,u5 ,u6
より、出力層はu7 ,u8 ,u9 によりそれぞれ構成さ
れている。そして、各層においては層内結合は行なわれ
ていない。
【0011】この図9から明らかなように、入力層のユ
ニットu1 ,u2 ,u3 のそれぞれは、中間層のユニッ
トu4 ,u5 ,u6 の全てと結合関係を有しており、ま
た、中間層のユニットu4 ,u5 ,u6 のそれぞれは、
出力層のユニットu7 ,u8,u9 の全てと結合関係を
有している。したがって、ユニット同士が結合関係を有
していることを「1」で示すことにすれば、図9の各ユ
ニット同士の結合関係は図12(a)の表11のように
表わされる。
【0012】ところで、ニューロ計算は、同じような計
算を繰り返し実行するため、並列に、且つ、逐次的に処
理することができ、また、そうすることにより、高速化
を図ることができる。ユニットu1 ,u2 ,u3 は、共
にユニットu4 ,u5 ,u6へ結合をもち、しかも、そ
れら以外へは結合をもたない。したがって、図12
(b)の表12のように、ユニットu4 ,u5 ,u6
けを並列に、且つ、逐次的に処理することができる。ま
た同様に、ユニットu4 ,u5 ,u6 に関して、ユニッ
トu7 ,u8 ,u9 だけを並列に且つ逐次的に処理する
ことができる。したがって、結合テータ記憶部4に記憶
しておく結合度のデータは、実際に結合関係があるユニ
ット同士のデータのみでよいはずであり、結合関係と同
様のデータ配置テーブル7により、データを取り出すこ
とができるはずである。しかし、実際には、結合関係テ
ーブル6には、全てのユニット同士の結合関係が記載さ
れていた。
【0013】次いで、図10の2層の階層型ネットワー
クの場合について説明すると、この入力層はユニットu
1 〜u4 により構成され、中間層はユニットu5 〜u8
により構成されている。そして、各層において層内結合
が行なわれており、各ユニット同士の結合関係は図13
(a)の表13のように表わされる。
【0014】表13から明らかなように、ユニットu1
は自己以外の全てのユニットu2 〜u8 と結合関係を有
しているため並列的且つ逐次的な処理が可能であるが、
それ以外のユニットはユニットu1 のように全てのユニ
ットと結合しているわけではないため並列的且つ逐次的
に処理を行うことができない。
【0015】そこで、図13(b)の表14に示すよう
に、実際には結合関係を有していないのに、恰も結合関
係を有しているかのように、結合関係のないユニットを
「0」で示すようにし、これにより並列的且つ逐次的な
処理を可能にしている。知識ベース5内の結合関係テー
ブル6には、この表4に示すような2値データ「1」,
「0」が記載されている。
【0016】ニューロ演算装置には、各ユニットに対応
したニューロン(ネットワーク構造上のユニットと区別
するために、ニューロ演算装置内のユニットをニューロ
ンと呼ぶことにする。)があり、各ニューロンはニュー
ロプロセッサで実現している。いま、ニューロンiをn
iと書くことにすると、図10のネットワークにおける
ユニットu1 ,u2 ,…,u8 は、ニューロンn1 ,n
2 ,…,n8 に割当られることになる。しかし、ニュー
ロ演算装置内に入れることができるニューロン数(ニュ
ーロプロセッサ数)には、装置の面積と大きさの限界が
ある。そこで、並列処理するユニット数が装置内のニュ
ーロン数に比べて多い場合は時分割処理を行うことにな
る。例えば、装置内に64個のニューロン(32個のニ
ューロプロセッサで構成される。)が搭載されているも
のとすると、並列処理すべきユニット数が65個以上に
なると時分割処理を行う。
【0017】
【発明が解決しようとする課題】ある入力に対して、希
望の出力を得るために、または、各ユニットの状態を得
るために、ネットワークの学習を行わなければならな
い。その学習には種々の方法がある。いま、1000
(=1.0×103 )個のユニットで構成される相互結
合型ネットワークでは、各ユニットは全てのユニットか
らの結合をもっているとすると、総結合数は1.0×1
6 にもなる。これらすべての結合について、所望の入
出力関係を得るためには、数百組にも及ぶ入出力データ
を教師データとして与え、学習法則を適用して結合度を
学習しなければならない。この場合、ユニットの個数、
結合の数により、学習及びネットワーク動作に要する時
間は指数関数的に急激に増加する。
【0018】一方、図9,10のように、すべてのユニ
ット同士が互いに結合しているわけではない所謂疎結合
のネットワークにおいては、ネットワークの規模が大き
くなるにしたがって、「0」のような意味のない無効デ
ータが付されたユニットに係るデータについてのアドレ
スを格納する要素数が多くなり、無駄なデータ領域が多
くなる。
【0019】例えば、総結合数が、上記のように、1.
0×106 である場合に、その1%が実際には結合がな
いものであるとすると、無効データ数は1.0×104
となり、無駄なデータ領域は非常に大きなものとなる。
【0020】また、共通処理(例えば、共通処理におけ
る時分割処理)を行う場合においても、無効データのみ
を扱う共通処理が増え、無駄な処理時間の占める割合い
が非常に大きくなる。
【0021】すなわち、いま仮に、ニューロ演算装置の
ニューロンがn1 ,n2 ,n3 の3個であるとすると、
図10のネットワークのユニット数は8であるから、時
分割処理を行う必要がある。いま、図14の表15に示
すように、ニューロンn1 には、ユニットu1 ,u4
7 を、ニューロンn2 にはユニットu2 ,u5 ,u8
を、ニューロンn3 にはユニットu3 ,u6 をそれぞれ
割り当てることにする。すると、全体の時分割処理数2
4に対して無効時分割処理数が11となり、全体の46
%が無駄な処理ということになる。したがって、演算の
高速化を阻害する大きな要因となっていた。
【0022】本発明は上記事情に鑑みてなされたもので
あり、データ領域の効率的な活用を図ると共に、ニュー
ロ演算の高速化を図ることが可能なニューロ演算装置を
提供することを目的としている。
【0023】
【課題を解決するための手段】上記課題を解決するため
の手段として、請求項1記載の発明は、ニューラルネッ
トワークを構成する複数のユニットの相互結合関係に関
するデータが記載されているテーブルを有する知識ベー
スと、前記知識ベースのテーブルに基いてニューロ演算
を行うニューロ演算部と、を備えたニューロ演算装置に
おいて、前記知識ベースは、前記複数のユニットが所定
数のグループに分けられており、各グループと各ユニッ
トとの間の結合関係を示す2値データが記載されたグル
ープ結合関係テーブルと、前記グループ結合関係テーブ
ルに記載された各グループと各ユニットとの組合わせの
うち結合関係を有することを意味する2値データが記載
された組合わせのみについて、その組合わせに含まれる
複数のユニット同士の結合度が格納されているアドレス
のデータが記載されたデータ配置テーブルと、から成る
ことを特徴とするものである。
【0024】請求項2記載の発明は、請求項1記載の発
明において、前記グループ結合関係テーブルのグループ
は、共通処理が可能なユニットの集合体であること、を
特徴とするものである。
【0025】請求項3記載の発明は、請求項2記載の発
明において、前記共通処理は時間分割処理であり、前記
ニューロ演算部は、前記個別結合関係テーブルに基いて
時分割処理を行う時分割制御手段を有すること、を特徴
とするものである。
【0026】
【作用】請求項1記載の発明において、複数のユニット
は所定数に分けられ、各グループと各ユニットとの結合
関係を示す2値データがグループ結合関係テーブルに記
載されている。
【0027】そして、データ配置テーブルにおいて、結
合関係を有するグループとユニットとの組合わせのみに
ついて、この組合わせに含まれる複数のユニット同士の
結合度が格納されているアドレスのデータが記載されて
いる。
【0028】もちろん、このデータ配置テーブルにおい
て無効データは存在するけれども、結合関係を有しない
グループとユニットとの組合せに属するユニットは排除
されているので、その無効データ数は従来よりも小さな
ものとなる。
【0029】そして、請求項2記載の発明のように、グ
ループ分けを、共通処理が可能なユニットの集合体毎に
行うようにすれば共通処理を効率的に行うことができ
る。
【0030】さらに、請求項3記載の発明のように、こ
の共通処理として時分割処理を行うようにすれば、時分
割処理を効率的に行うことができる。
【0031】
【実施例】以下、本発明の実施例を図1乃至図6に基き
説明する。但し、図11と同様の構成要素には同一符号
を付して重複した説明を省略する。
【0032】図1は請求項1記載の発明の実施例に係る
ブロック図である。この実施例の知識ベース5Aは、グ
ループ結合関係テーブル6A及びデータ配置テーブル7
Aを有している。
【0033】図2(b)の表2は、図10のネットワー
クにおけるグループ結合関係テーブル6Aの内容を示す
ものであり、ユニットu1 〜u4 から成る入力層グルー
プと各ユニットu1 〜u8 との結合関係、及びユニット
5 〜u8 から成る出力層グループと各ユニットu1
8 との結合関係を示す2値データが記載されている。
【0034】図2(c)の表3は、データ配置テーブル
7Aの内容を示すものである。これは、表2におけるグ
ループとユニットとの組合わせのうち「1」が付された
もののみを取り出し、それらに含まれるユニット同士の
結合度が格納されているアドレスのデータを記載したも
のである。この表中のa1 ,b1 ,c1 ,…,g7 等は
アドレスデータを示しており、「0」は結合度がゼロの
データのアドレスを示している。
【0035】図2(a)の表1は従来のデータ配置テー
ブルの内容を示すものである。表1における、全体の要
素数は、8×8=64個であり、有効データについての
アドレス数は19個であるから、有効活用率は19/6
4=0.30すなわち30%である。
【0036】そして、表2における要素数は16個であ
り、表3における要素数は4×11=44個である。し
たがって、64−(44+16)=4となり、表2及び
表3のように、結合関係を階層的にしたテーブルを用い
ることにより、要素数を4個減少させることができる。
【0037】表2では、縦方向に記載されたユニットu
1 〜u4 及びユニットu5 〜u8 をそれぞれ入力層グル
ープ及び出力層グループとして分けたが、他の分け方と
して、並列処理を行うユニットを同一グループとする分
け方もある。
【0038】すなわち、図3(a)の表4では、横方向
のユニットu1 〜u4 及びユニットu5 〜u8 の2つの
グループに分け、これらのグループと各ユニットとの結
合関係を示す2値データを記載している。そして、図3
(b)の表4では、表4におけるグループとユニットと
の組合わせのうち「1」が付されたもののみを取り出
し、それらに含まれるユニット同士の結合度が格納され
ているアドレスのデータが記載されている。
【0039】表4における要素数は16個であり、表5
における要素数は4×9=36個である。したがって、
64−(36+16)=12となり、表1の場合よりも
12個だけメモリ領域を減少させることができる。
【0040】また、複数のユニットをグループ分けする
前にユニット間の組合わせを変えることも可能である。
例えば、図13(a)の表13において、縦方向のユニ
ットu2 ,u7 間、及びユニットu3 ,u8 間で入れ替
えを行う。図4(a)の表6は、この状態を表わしたも
のである。そして、この表6に基いてグループ分けを行
なったのが表7のグループ結合関係テーブルであり、表
7に対応するデータ配置テーブルの内容が表8である。
表7における要素数は16個であり、表8における要素
数は4×10=40個である。したがって、 64−(40+16)=8 となり、表1の場合よりも8個だけメモリ領域を減少さ
せることができる。
【0041】図5は請求項3記載の発明の実施例に係る
ブロック図である。この実施例のニューロ演算部1Aは
時分割制御手段8を有している。
【0042】図6(a)の表9は、図10のネットワー
クにおけるグループ結合関係テーブル6Aの内容を示す
ものである。表15にも示したように、ニューロンn1
にはユニットu1 ,u4 ,u7 を、ニューロンn2 には
ユニットu2 ,u5 ,u8 を、ニューロンn3 にはユニ
ットu3 ,u6 を割当てることにすると、この場合は、
1サイクル目の時分割処理グループu1 〜u3 と、2サ
イクル目の時分割処理グループu4 〜u6 と、3サイク
ル目の時分割処理グループu7 ,u8 とにグループ分け
が行なわれる。そして、図6(b)の表10は表9に対
応するデータ配置テーブルである。
【0043】表9から明らかなように、全体の時分割処
理回数は24回となっているが、「1」が付されている
組合わせのみの処理を行なえばよいので、実際の時分割
処理回数は13回となる。したがって、時分割処理回数
を大幅に低減でき、ニューロ演算の高速化を図ることが
できる。
【0044】
【発明の効果】以上のように、本発明によれば、データ
領域の効率的な活用を図ると共に、ニューロ演算の高速
化を図ることが可能になる。
【図面の簡単な説明】
【図1】請求項1記載の発明の実施例に係るブロック
図。
【図2】図1における知識ベースが有するテーブルの内
容を示す図表。
【図3】図1における知識ベースが有するテーブルの内
容を示す図表。
【図4】図1における知識ベースが有するテーブルの内
容を示す図表。
【図5】請求項2記載の発明の実施例に係るブロック
図。
【図6】図2における知識ベースが有するテーブルの内
容を示す図表。
【図7】ニューラルネットワークに用いられるユニット
の説明図。
【図8】図7のユニットに係る出力の関数を示す特性
図。
【図9】層内結合をもたない3層の階層型ネットワーク
の概念図。
【図10】層内結合を有する2層の階層型ネットワーク
の概念図。
【図11】従来装置に係るブロック図。
【図12】従来装置の課題を説明するための図表。
【図13】従来装置の課題を説明するための図表。
【図14】従来装置の課題を説明するための図表。
【符号の説明】
1 ニューロ演算部 2 プログラム記憶部 3 ユニット状態記憶部 4 結合データ記憶部 5A 知識ベース 6A グループ結合関係テーブル 7A データ配置テーブル 8 時分割制御手段

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】ニューラルネットワークを構成する複数の
    ユニットの相互結合関係に関するデータが記載されてい
    るテーブルを有する知識ベースと、 前記知識ベースのテーブルに基いてニューロ演算を行う
    ニューロ演算部と、 を備えたニューロ演算装置において、 前記知識ベースは、 前記複数のユニットが所定数のグループに分けられてお
    り、各グループと各ユニットとの間の結合関係を示す2
    値データが記載されたグループ結合関係テーブルと、 前記グループ結合関係テーブルに記載された各グループ
    と各ユニットとの組合わせのうち結合関係を有すること
    を意味する2値データが記載された組合わせのみについ
    て、その組合わせに含まれる複数のユニット同士の結合
    度が格納されているアドレスのデータが記載されたデー
    タ配置テーブルと、 を有することを特徴とするニューロ演算装置。
  2. 【請求項2】請求項1記載のニューロ演算装置におい
    て、 前記グループ結合関係テーブルのグループは、共通処理
    が可能なユニットの集合体であること、 を特徴とするニューロ演算装置。
  3. 【請求項3】請求項2記載のニューロ演算装置におい
    て、 前記共通処理は時間分割処理であり、 前記ニューロ演算部は、前記個別結合関係テーブルに基
    いて時分割処理を行う時分割制御手段を有すること、 を特徴とするニューロ演算装置。
JP6219179A 1994-09-13 1994-09-13 ニューロ演算装置 Pending JPH0883261A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6219179A JPH0883261A (ja) 1994-09-13 1994-09-13 ニューロ演算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6219179A JPH0883261A (ja) 1994-09-13 1994-09-13 ニューロ演算装置

Publications (1)

Publication Number Publication Date
JPH0883261A true JPH0883261A (ja) 1996-03-26

Family

ID=16731442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6219179A Pending JPH0883261A (ja) 1994-09-13 1994-09-13 ニューロ演算装置

Country Status (1)

Country Link
JP (1) JPH0883261A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP2020197922A (ja) * 2019-06-03 2020-12-10 株式会社東芝 ニューラルネットワークの演算装置、ニューラルネットワーク、ニューラルネットワークの制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) * 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
JP2020197922A (ja) * 2019-06-03 2020-12-10 株式会社東芝 ニューラルネットワークの演算装置、ニューラルネットワーク、ニューラルネットワークの制御方法

Similar Documents

Publication Publication Date Title
Castillo Functional networks
CN112784964A (zh) 基于桥接知识蒸馏卷积神经网络的图像分类方法
CN107292352A (zh) 基于卷积神经网络的图像分类方法和装置
Funabiki et al. A parallel algorithm for channel routing problems (VLSI)
Takefuji et al. Neural computing for optimization and combinatorics
CN110223553A (zh) 一种答题信息的预测方法及***
Chung A neuro-based expert system for facility layout construction
JPH0883261A (ja) ニューロ演算装置
JPH02136034A (ja) ニューラルネットワークによる最適電力負荷配分システム
CN111027669A (zh) 在现场可编程门阵列上实现深度神经网络的方法及装置
EP0595033A2 (en) High speed segmented neural network and fabrication method
Horváth Model Organized Theoretical and Experimental Research in Collaborative Space
JPH0440581A (ja) ニューロプロセッサ
Xu et al. Synergism of neural networks and expert systems for system identification
JPH02189635A (ja) ファジィ推論装置
Hu Intelligent engineering-its application
JPH0652139A (ja) ニューラルネットワークのデータ構造
JPH08339360A (ja) ニューラルネットを応用した学習システム
Panos Neural networks for control system [A]
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
Cordoro et al. Dynamic business intelligence, automated decision making with Fuzzy Cognitive Maps
Jaramillo-Botero et al. Parallel, high-speed PC fuzzy control
JP3389684B2 (ja) ニューラルネットワークの学習方法
JPH0415773A (ja) 神経回路網装置
Prat et al. Application of a multiagent distributed architecture for time series forecasting