JPH0652140A - ニューラルネットワークのデータ構造 - Google Patents

ニューラルネットワークのデータ構造

Info

Publication number
JPH0652140A
JPH0652140A JP22504692A JP22504692A JPH0652140A JP H0652140 A JPH0652140 A JP H0652140A JP 22504692 A JP22504692 A JP 22504692A JP 22504692 A JP22504692 A JP 22504692A JP H0652140 A JPH0652140 A JP H0652140A
Authority
JP
Japan
Prior art keywords
cell
input
function
cells
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22504692A
Other languages
English (en)
Inventor
Tetsuro Muraji
哲朗 連
Chinami Tanaka
ちなみ 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mikuni Corp
Original Assignee
Mikuni Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mikuni Corp filed Critical Mikuni Corp
Priority to JP22504692A priority Critical patent/JPH0652140A/ja
Publication of JPH0652140A publication Critical patent/JPH0652140A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 コンピュータ上でニューラルネットワークを
扱うに際し、これらの記憶形式を考慮したNNのデータ
構造を得ること。 【構成】 ニューラルネットワークを構成するセル毎
に、これら各セルに接続するセル番号と結合係数からな
るシナプス情報と入出力関数情報を用いてNNを記述す
るようにした。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピュータ上でニュ
ーラルネットワークを扱うに際してのNNのデータ構造
に関する。
【0002】
【従来の技術】近年、ニューロコンピュータが開発さ
れ、各種の研究成果が発表されている。ニューロコンピ
ュータとは、脳の基本素子であるニューロン(神経細
胞)に着目したものであり、これらが結合した結果でき
るニューラルネットワークをヒントにすることにより、
脳と同じような機能を達成しようとするものである。そ
して、従来のコンピュータがアルゴリズムに基づいた直
列情報処理であるのに対して、ニューロコンピュータは
各ニューロン間の並列情報処理である点を特徴としてい
る。しかも実際のネットワークモデルとしては、各ニュ
ーロンに対応したセルを備えた入力層,中間層及び出力
層からなり、各層にあるセルは、その前後の層にある全
てのセルと結合する構成を有している。又、各セル同士
の結合には荷重と称する結合係数を導入し、かつ、これ
らの係数は学習により修正(補正)するようにしてい
る。
【0003】
【発明が解決しようとする課題】上記した従来技術から
明らかなように、各階層に属するセルは、前後の層の全
てのセルと結合しているため、これをコンピュータ上の
ソフトウェアにて処理しようとすると、NNに関する全
てのデータを一旦メモリ上に記憶し、逐次プログラムが
そのデータを読み込んで演算しなければならず、メモリ
も膨大になるばかりか、NNの形にも柔軟性がないと言
う欠点を有する。本発明は上記欠点を解決するためにな
されたものであり、コンピュータ上でNNを扱うに際
し、これらのデータの記憶形式を考慮したNNのデータ
構造を提供することを目的としている。
【0004】
【課題を解決するための手段】上記目的を達成するた
め、本発明はNNを構成する各セル毎に、これらの各セ
ルに接続するセル番号と結合係数からなるシナプス情報
と入出力関数情報を用いてNNを記述するように構成し
た。
【0005】
【実施例】以下図面を参照して実施例を説明する。図1
は一つのセル(セル番号i)とそのセルの入力端に結合
するセルとの関係を示す図である。図において、N1
2 ,…,Nj ,…,Njmx は各入力セルに付けられた
番号であり、W1 ,W2 ,…,Wj ,…Wjmx は結合係
数、G1 ,…,Gjmx は学習ゲインである。図2はセル
iのシナプス情報を示すメモリ構造であり、最初のfnc
はそのセルの入力関数で、N1 はセル番号、W1 は結合
係数、G1 は学習ゲインで、これらが各セル番号毎に記
述され、最後の0はセルiの情報の終りを示す。なお、
ncはセルiの入力関数を表わす数値で、例えば「0」
は図5(a) に示されるシグモイド関数を示し、「1」は
同じく恒等関数を示す。
【0006】図3は他の実施例を説明するためのであ
る。本実施例は入力端(あるいは出力端)に結合がある
セルの入出力関数とシナプス情報とを表わしたものであ
る。この場合、図1に示したセルの集りとして表現でき
る。図において、1〜7はセル番号、a〜jは結合係
数、セル1,2は入力セル、セル3,4,5は中間セ
ル、セル6,7は出力セルであり、F3 〜F7 は入力関
数を表わす数値である。図3のNNを表わすメモリ構造
を図4に示す。図4では各セル毎に一連の情報が順次、
列として示される。即ち、セル3については最初に入力
関数を表わす数値F3 、セル番号1、結合係数a、学習
ゲインGaが列として示される。その他のセルについて
も同様であるため、説明を省略する。図4に示したメモ
リ情報の他に入力セルと中間セルと出力セルの数がわか
ればNNの計算が行なえる。又、本実施例の特徴は、セ
ル毎に入出力関数を指定できる点にある。
【0007】
【発明の効果】以上説明したように、本発明によればN
Nを構成する各セル毎に、これら各セルに接続するセル
番号と結合係数からなるシナプス情報と入出力関数情報
を用いてNNを記述する構成としたので、各セルにて任
意の入出力関数が設定できるばかりか、セルの結合に関
する規制がなくなり、NNの設計に柔軟性がでるデータ
構造を提供できる。
【図面の簡単な説明】
【図1】一つのセルと、そのセルの入力端に結合するセ
ルとの関係を示す図。
【図2】図1のセルiのシナプス情報を示すメモリ構造
図。
【図3】他の実施例を説明する図。
【図4】図3のメモリ構造図。
【図5】入出力関数を示す図。
【符号の説明】
1 〜Njmx 入力セルの番号 W1 〜Wjmx ,a〜j 結合係数 Ga 〜Gj 学習ゲイン fnc 入出力関数

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワーク(以下NNと称
    す)を構成する各セル毎に、これら各セルに接続するセ
    ル番号と結合係数からなるシナプス情報と入出力関数情
    報を用いてNNを記述することを特徴とするNNのデー
    タ構造。
JP22504692A 1992-07-31 1992-07-31 ニューラルネットワークのデータ構造 Pending JPH0652140A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22504692A JPH0652140A (ja) 1992-07-31 1992-07-31 ニューラルネットワークのデータ構造

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22504692A JPH0652140A (ja) 1992-07-31 1992-07-31 ニューラルネットワークのデータ構造

Publications (1)

Publication Number Publication Date
JPH0652140A true JPH0652140A (ja) 1994-02-25

Family

ID=16823196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22504692A Pending JPH0652140A (ja) 1992-07-31 1992-07-31 ニューラルネットワークのデータ構造

Country Status (1)

Country Link
JP (1) JPH0652140A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652139A (ja) * 1992-07-31 1994-02-25 Mikuni Corp ニューラルネットワークのデータ構造
WO2016166881A1 (ja) * 2015-04-17 2016-10-20 Cocoro Sb株式会社 処理システム及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652139A (ja) * 1992-07-31 1994-02-25 Mikuni Corp ニューラルネットワークのデータ構造
WO2016166881A1 (ja) * 2015-04-17 2016-10-20 Cocoro Sb株式会社 処理システム及びプログラム
JPWO2016166881A1 (ja) * 2015-04-17 2018-02-22 Cocoro Sb株式会社 処理システム及びプログラム

Similar Documents

Publication Publication Date Title
JPH08297716A (ja) ニューラル・ネットワーク用の適応型重み調整回路
US5317675A (en) Neural network pattern recognition learning method
JPH0652140A (ja) ニューラルネットワークのデータ構造
Yang et al. A general mean-based iterative winner-take-all neural network
JPH0652139A (ja) ニューラルネットワークのデータ構造
JPH04237388A (ja) ニューロプロセッサ
JPS6219940A (ja) 高速推論処理方式
JPH05159087A (ja) ニューロプロセッサ
JPH02189635A (ja) ファジィ推論装置
JPH0652141A (ja) ニューラルネットワークのデータ構造
CN118014054B (zh) 一种基于平行重组网络的机械臂多任务强化学习方法
JPH0883261A (ja) ニューロ演算装置
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
CN108446890A (zh) 一种审批模型训练方法、计算机可读存储介质及终端设备
JP3296609B2 (ja) メンバーシップ関数を出力するニューラルネットワーク
JP2654686B2 (ja) ニューラルネットワーク
JP3389684B2 (ja) ニューラルネットワークの学習方法
JPH0752439B2 (ja) ダイナミックプログラミング機能を有するニューラルネットワーク
JP3618007B2 (ja) ニューラルネットワークの学習装置及び学習方法
JP3491317B2 (ja) フィードフォワード型ニューラルネットワークの構築方法
JPH06301663A (ja) 直列結合型リカレントニューラルネットワークの学習方式
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JP3393511B2 (ja) 文字認識装置及び方法
Touzet et al. Application of connectionist models to fuzzy inference systems
JPH0744513A (ja) 直列結合型リカレントニューラルネットワークの学習方式