JP3035106B2 - Large-scale information recognition circuit - Google Patents

Large-scale information recognition circuit

Info

Publication number
JP3035106B2
JP3035106B2 JP5051066A JP5106693A JP3035106B2 JP 3035106 B2 JP3035106 B2 JP 3035106B2 JP 5051066 A JP5051066 A JP 5051066A JP 5106693 A JP5106693 A JP 5106693A JP 3035106 B2 JP3035106 B2 JP 3035106B2
Authority
JP
Japan
Prior art keywords
neural network
recognition
data
processing
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5051066A
Other languages
Japanese (ja)
Other versions
JPH06266688A (en
Inventor
原 和太郎 篠
木 康 夫 高
野 穣 飯
真 司 林
矢 純 子 大
田 有 一 千
井 雅 彦 村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5051066A priority Critical patent/JP3035106B2/en
Priority to US08/208,584 priority patent/US5619619A/en
Publication of JPH06266688A publication Critical patent/JPH06266688A/en
Priority to US08/782,289 priority patent/US5832183A/en
Application granted granted Critical
Publication of JP3035106B2 publication Critical patent/JP3035106B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像データや音声デー
タなどの単体情報量が大きく、また冗長的な表現形式を
持つ大規模な情報を扱う大規模情報認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a large-scale information recognizing apparatus for handling large-scale information having a large amount of single information such as image data and audio data and having a redundant expression form.

【0002】[0002]

【従来の技術】従来の大規模情報処理装置は、通常ノイ
マン型計算回路を基礎とするCPUを有する計算機で構
成されていた。そして、大規模な情報処理に対応するた
めに、CPU自体を高速化したり、複数のCPUを並列
につなぎ同時に使用することにより高速化をはかってい
た。
2. Description of the Related Art A conventional large-scale information processing apparatus is usually composed of a computer having a CPU based on a Neumann-type calculation circuit. In order to cope with large-scale information processing, the speed of the CPU itself has been increased, or the speed has been increased by connecting a plurality of CPUs in parallel and using them at the same time.

【0003】しかし、これらの装置は情報の認識基準を
自ら学習する手段がなく、すべて人間がプログラムとし
てあらかじめ与える必要があった。ところが、大規模な
データを認識するためには、数多くの認識ルールを相矛
盾することなく与えねばならず、大規模情報の認識処理
の実現は実質的に不可能であった。
[0003] However, these devices have no means for learning the recognition criteria of information by themselves, and all of them have to be provided by a human in advance as a program. However, in order to recognize large-scale data, many recognition rules must be given without inconsistency, and it has been practically impossible to realize large-scale information recognition processing.

【0004】また、自動的に認識基準を学習する装置と
してニューラルネットワークが存在することが知られて
いる。このネットワークは、入出力の関係を例えばシグ
モイド関数のような形で与えた多くのニューロンから構
成され、これらのニューロンは適当な重み係数を介して
階層的に結合されている。そして、この回路全体の入出
力信号の関係が入力信号−教師信号の関係と近似的等し
くなるように、前期の重み係数を調節する。調整方法と
しては、例えば、バックプロパゲーション手法が知られ
ており、入力信号と教師信号を繰り返し与えることによ
り、自動的に認識基準を獲得していく。
It is known that a neural network exists as a device for automatically learning a recognition criterion. This network is composed of a number of neurons that provide input / output relationships in the form of, for example, a sigmoid function, and these neurons are hierarchically connected via appropriate weighting factors. Then, the weight coefficient of the previous period is adjusted so that the relationship between the input and output signals of the entire circuit is approximately equal to the relationship between the input signal and the teacher signal. As an adjustment method, for example, a back propagation method is known, and a recognition criterion is automatically acquired by repeatedly supplying an input signal and a teacher signal.

【0005】しかし、従来のニューラルネットワーク
は、それが、ソフトとして計算機上に実現されたもので
あれ、アナログまたはデジタル回路でハードとして実現
されたものであれ、回路全体の入出力信号間の関係を一
体として学習するものであった。したがって、大規模な
データを学習し数多くの認識ルールを得ようとすると、
飛躍的に学習に要する繰り返し回数が増大するため、ニ
ューラルネットワークによってもやはり大規模情報の認
識処理の実現は不可能であった。
[0005] However, the conventional neural network, whether it is realized on a computer as software or realized as hardware with an analog or digital circuit, defines the relationship between input and output signals of the entire circuit. It was something to learn as one. Therefore, when learning large data and trying to get many recognition rules,
Since the number of repetitions required for learning is dramatically increased, it has not been possible to realize recognition processing of large-scale information even by a neural network.

【0006】[0006]

【発明が解決しようとする課題】以上述べたように、従
来の大規模情報認識装置は、大規模なデータは扱えるも
のの認識ルールを設定することが困難なノイマン型の認
識装置、または、認識ルールは自動的に学習するものの
大規模なデータを取り扱うことが困難な一体型ニューラ
ルネットワークであった。
As described above, the conventional large-scale information recognizing device can handle large-scale data, but it is difficult to set a recognition rule. Was an integrated neural network that learned automatically but was difficult to handle large-scale data.

【0007】本発明は上記実情に鑑みてなされたもの
で、その目的とするところは大規模情報に容易に対応す
ることができる大規模情報認識装置を提供することにあ
る。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a large-scale information recognizing apparatus which can easily cope with large-scale information.

【0008】[0008]

【課題を解決するための手段】本発明の一態様に係る大
規模情報認識装置の基本的構成は、ニューラルネットワ
ークからなる複数の認識処理ユニットと、その複数の認
識処理ユニット各々に対し個別に教師信号を供給する複
数の教師信号伝送路と、上記複数の認識処理用ユニット
各々に対し個別に処理対象データを供給する複数の処理
対象データ伝送路と、上記複数の認識処理用ユニット各
々の出力信号を個別に伝送する複数の出力信号伝送路
と、上記複数の出力信号伝送路各々を上記複数の処理対
象データ伝送路のうちの少なくとも一つと複数の外部送
出伝送路のうちの少なくとも一つとに切替え接続する切
替え手段とを備えていることを特徴とする。
The basic structure of a large-scale information recognition apparatus according to one aspect of the present invention is that a plurality of recognition processing units composed of a neural network and a teacher is individually assigned to each of the plurality of recognition processing units. A plurality of teacher signal transmission paths for supplying signals, a plurality of processing target data transmission paths for individually supplying processing target data to the plurality of recognition processing units, and an output signal of each of the plurality of recognition processing units A plurality of output signal transmission lines for individually transmitting the plurality of output signal transmission lines, and each of the plurality of output signal transmission lines is switched to at least one of the plurality of processing target data transmission lines and at least one of the plurality of external transmission transmission lines. Switching means for connection.

【0009】また、本発明の別態様に係る大規模情報認
識装置の基本的構成は、処理対象データについて複数段
の教師なし学習型ニューラルネットワークによりその概
分類を行うカテゴリ分類装置と、そのカテゴリ分類装置
の最終段出力として決定されるカテゴリ分類毎に上記処
理対象データについて教師あり学習型ニューラルネット
ワークにより最終的な情報認識を行うカテゴリ別認識装
置とを備えていることを特徴とする。
A basic configuration of a large-scale information recognition device according to another aspect of the present invention is a category classification device for roughly classifying data to be processed by a multistage unsupervised learning neural network, and the category classification. And a category-specific recognition device that performs final information recognition on the processing target data by a supervised learning type neural network for each category classification determined as a final stage output of the device.

【0010】本発明の更に別の態様に係る大規模情報認
識装置の基本的構成は、少なくとも一つの教師なし学習
型ニューラルネットワークからなり、かつ所定の教師な
し学習型用のネットワーク構造情報が設定されることに
よりその機能が決定される第1の認識処理手段と、少な
くとも一つの教師あり学習型ニューラルネットワークか
らなり、かつ所定の教師あり学習型用のネットワーク構
造情報が設定されることによりその機能が決定される第
2の認識処理手段と、上記教師なし学習型用及び教師あ
り学習型用のネットワーク構造情報を記憶する第1の記
憶手段と、上記第1、第2の認識処理手段における処理
対象情報を記憶する第2の記憶手段と、上記第1、第2
の認識処理手段の切替えと上記第1、第2の記憶手段か
らの設定情報の切替えとを行うことにより、複数種の認
識処理の実行を実現させる制御手段とを備えていること
を特徴とする。
A basic configuration of a large-scale information recognition apparatus according to still another aspect of the present invention includes at least one unsupervised learning type neural network and sets predetermined network structure information for unsupervised learning type. The first recognition processing means, the function of which is determined by this, and at least one supervised learning type neural network, and the function is set by setting predetermined network structure information for supervised learning type. Second recognition processing means to be determined, first storage means for storing the network structure information for the unsupervised learning type and for the supervised learning type, and processing objects in the first and second recognition processing means A second storage means for storing information;
Control means for realizing the execution of a plurality of types of recognition processing by performing switching of the recognition processing means and switching of the setting information from the first and second storage means. .

【0011】[0011]

【作用】本発明によれば、それぞれ所定の機能を分担す
る複数のニューラルネットワークユニットを個別に学習
させることができ、それらの組合わせによって総合的な
認識処理を行うようになっていることから、従来実現す
ることができなかった、多数の学習データにより多数の
認識ルールを自動的に獲得する大規模情報認識装置を実
現することができる。また、このルール獲得に要する反
復計算回数も現実的回数である。さらに、各ニューラル
ネットワークユニットは通常数十程度のニューロンから
成るので、その結合回路の数は実現可能な数となり、さ
らに、ユニット間の結合回路に関しても、各々のユニッ
トの入力信号と出力信号ラインから構成されているの
で、容易に実現可能な回路数であり、従来大規模ニュー
ラルネットワーク回路で問題となっていた結合回路数の
爆発の問題も回避できる。
According to the present invention, a plurality of neural network units each sharing a predetermined function can be individually learned, and a comprehensive recognition process is performed by combining them. It is possible to realize a large-scale information recognition apparatus that cannot be realized conventionally and automatically obtains a large number of recognition rules from a large number of learning data. Further, the number of repetitive calculations required for acquiring the rule is also a realistic number. Further, since each neural network unit is usually composed of several tens of neurons, the number of connecting circuits is a feasible number. Further, regarding the connecting circuits between the units, the input signal and the output signal line of each unit are used. Since it is configured, the number of circuits can be easily realized, and the problem of explosion of the number of coupling circuits, which has conventionally been a problem in large-scale neural network circuits, can be avoided.

【0012】そして、複数段のクラスタリング処理によ
るカテゴリ分類を採用した場合には、各最終分類カテゴ
リに属する学習データ数を十分絞っておけば、階層構造
型のニューラルネットワーク構成を有するカテゴリ別認
識装置による学習はほぼその収束が保証され、実用的な
エンジニアリング負荷で、認識システムを構成すること
が可能になると共に、大規模データ群の適切かつ高速な
認識・分類が実現されることとなる。
When a category classification by a plurality of stages of clustering processing is adopted, if the number of learning data belonging to each final classification category is sufficiently reduced, a category-based recognition device having a hierarchically structured neural network configuration can be used. The convergence of learning is almost guaranteed, and a recognition system can be configured with a practical engineering load, and appropriate and high-speed recognition and classification of a large-scale data group can be realized.

【0013】また、限られた数のネットワークハードウ
エア資源をこれに対するデータの入替えによって多数の
ネットワークとして利用する思想によれば、多数ニュー
ラルネットワーク処理を最低限の数の実処理装置で実現
でき、大規模データ認識の各分野への実用的な応用を可
能とする。さらに、1チップ化を考えた場合、ニューラ
ルネットワークハードウエア素子数を増やすことなく大
規模ニューラルネットワークが構成できるのでニューラ
ルネットワーク装置に必要なスペースを削減することが
でき、結線数も少なくて済むのでニューラルネットワー
ク装置としての信頼性の向上が期待でき、ニューラルネ
ットワークハードウエア素子とニューラルネットワーク
データ保存用RAM間のデータ転送も、同一チップ上に
構成された内部データバスを介して行うことができるの
で、データの高速転送が可能となり、ニューラルネット
ワーク装置の計算時間の短縮化が図れる。また、これら
の素子を同一のチップ上に構成するためにハードウエア
素子としての信頼性も向上することとなる。
According to the idea of using a limited number of network hardware resources as a large number of networks by exchanging data with respect to the hardware resources, a large number of neural network processing can be realized with a minimum number of actual processing devices. Enables practical application of scale data recognition to various fields. Furthermore, when considering a single chip, a large-scale neural network can be configured without increasing the number of neural network hardware elements, so that the space required for the neural network device can be reduced, and the number of connections can be reduced. The reliability of the network device can be improved, and the data transfer between the neural network hardware element and the RAM for storing the neural network data can be performed through the internal data bus configured on the same chip. Can be transferred at a high speed, and the calculation time of the neural network device can be reduced. Further, since these elements are configured on the same chip, the reliability as hardware elements is also improved.

【0014】[0014]

【実施例】以下に本発明の実施例について図面を参照し
つつ説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】図1は本発明の一実施例に係る大規模情報
認識装置であるニューラルネットワークボードの構成を
示すブロック図、図2は図1に示す装置を組込んだ画像
認識装置の構成を示すブロック図、図3はその動作の一
例を示す説明図である。
FIG. 1 is a block diagram showing a configuration of a neural network board which is a large-scale information recognition device according to an embodiment of the present invention, and FIG. 2 shows a configuration of an image recognition device incorporating the device shown in FIG. FIG. 3 is a block diagram, and FIG. 3 is an explanatory diagram showing an example of the operation.

【0016】図1に示す装置は、複数個のニューラルネ
ットワークユニットNNにより大規模情報用として構築
されたもので、それぞれが独立に学習データと教師信号
とを入力し、各自において個別に学習可能とされてい
る。
The apparatus shown in FIG. 1 is constructed for large-scale information by a plurality of neural network units NN, each of which independently inputs learning data and a teacher signal, and is capable of individually learning. Have been.

【0017】各ユニットNN間には切替えスイッチSW
が接続されており、各ユニットNNの出力端はその一方
の入力端に接続され、他方の入力端には学習データが供
給されるようになっている。
A changeover switch SW is provided between each unit NN.
Are connected, the output terminal of each unit NN is connected to one input terminal, and the other input terminal is supplied with learning data.

【0018】図1(b)では各ユニットNNとスイッチ
SWとを拡大して示しており、同図(a)では入出力ラ
インが1本、対応的にスイッチが1個として示されてい
る。しかし、実際には同図(b)に示すように、各ユニ
ットNNは複数本の入出力ラインを備え、スイッチSW
はその入出力側に位置するユニットNNの出力ラインあ
るいは入力ラインの数に対応する個数だけ設けられる。
FIG. 1B shows an enlarged view of each unit NN and switch SW, and FIG. 1A shows one input / output line and correspondingly one switch. However, in practice, as shown in FIG. 2B, each unit NN has a plurality of input / output lines and the switch SW
Are provided in a number corresponding to the number of output lines or input lines of the unit NN located on the input / output side.

【0019】学習の際には、各切替えスイッチSWがa
側に設定され、各ユニットNNに学習データならびに教
師データを与え、各個別の出力信号を見て各個で独自の
出力信号が生成される収束状態に至るまで学習を行う。
各ユニットNNが収束すると、全ての切替えスイッチS
Wをb側に設定し、各個の機能の組合わせからなる大規
模ニューラルネットワークボードとして構築する。
At the time of learning, each switch SW is set to a
The learning data and the teacher data are given to each unit NN, and learning is performed until a convergence state in which each unit NN sees each individual output signal and generates its own output signal.
When each unit NN converges, all the changeover switches S
W is set on the b side, and a large-scale neural network board composed of a combination of individual functions is constructed.

【0020】なお、入出力ライン、切替えスイッチ等は
ハードウエア的表現であるが、実際には計算機上のソフ
トウエアで構成されるものである。
Although the input / output lines, the changeover switches, and the like are expressed in terms of hardware, they are actually constituted by software on a computer.

【0021】このように構成されるニューラルネットワ
ークボードを画像認識制御装置に適用した場合に図2に
示すような構成とされる。
When the neural network board configured as described above is applied to an image recognition control device, the configuration is as shown in FIG.

【0022】この図において、まず、テレビカメラ10
1により画像信号を得る。この画像信号はNTSC信号
であるので、画像信号取り込みボード102によりデジ
タル信号に変換する。画像処理ボード103は、このデ
ジタル信号を用いて対象物の特徴抽出を行うもので、エ
ッジ検出や画面全体の明暗、重心の位置などを求めるこ
とができる。この結果を入力信号として大規模ニューラ
ルネットワークボード104は、学習した認識基準に応
じて対象物を認識・判断する。この結果を制御演算ボー
ド105に出力する。制御演算ボード105は、予め与
えられたロジックに従い制御信号を出力する。
In this figure, first, the TV camera 10
1 to obtain an image signal. Since this image signal is an NTSC signal, it is converted into a digital signal by the image signal capturing board 102. The image processing board 103 performs feature extraction of the object using the digital signal, and can detect edge detection, brightness of the entire screen, the position of the center of gravity, and the like. Using the result as an input signal, the large-scale neural network board 104 recognizes and determines an object according to the learned recognition criteria. The result is output to the control operation board 105. The control operation board 105 outputs a control signal according to a given logic.

【0023】次に、画像処理ボード103の働き及び大
規模ニューラルネットワークボード104の働きについ
て、図3を用いて詳細に説明する。
Next, the operation of the image processing board 103 and the operation of the large-scale neural network board 104 will be described in detail with reference to FIG.

【0024】同図(a)はカメラ101に映った元の画
像である。デジタル化によって多少劣化はあるものの、
ほぼ同等の信号を画像処理ボード103は受け取る。こ
の信号に対し、エッジ検出を画像処理ボード103に命
令したときの画像処理ボード103の出力を同図(b)
に示す。この信号に対し、例えば山の高さを判定するよ
うに学習した大規模ニューラルネットワークボード10
4の出力は同図(c)に示すように“高い山”である。
この判断結果は、学習時の学習データと教師データに依
存して任意に変えられる。
FIG. 1A shows an original image reflected on the camera 101. Although there is some deterioration due to digitalization,
The image processing board 103 receives substantially equivalent signals. The output of the image processing board 103 when the edge detection is instructed to the image processing board 103 in response to this signal is shown in FIG.
Shown in For this signal, for example, a large-scale neural network board 10 that has learned to determine the height of the mountain
The output of No. 4 is a "high mountain" as shown in FIG.
This determination result can be arbitrarily changed depending on the learning data at the time of learning and the teacher data.

【0025】このようなニューラルネットワークボード
104の判断機能によれば、人の表情を判断し、感情を
類推することも可能となる。この場合には例えば次のよ
うな学習を行わせる。例として顔全体の画像から目、
眉、口を抽出し、その表情判断を行う場合を考える。
According to the judgment function of the neural network board 104, it is possible to judge a person's facial expression and infer an emotion. In this case, for example, the following learning is performed. For example, eyes,
Consider a case where eyebrows and mouth are extracted and their facial expressions are determined.

【0026】各ユニットNNの役割分担は、例えば、N
N11が顔全体から目の抽出、NN21が目の位置・大きさ
補正、NN31が目の緊張パターン検出、NN12が顔全体
からの眉の抽出、NN22が眉の位置・大きさ補正、NN
32が眉の緊張パターン検出、NN13が顔全体の画像から
の口の抽出、NN23が口の位置・大きさ補正、NN33が
口の緊張パターン検出、をそれぞれ担うものとする。
The role assignment of each unit NN is, for example, N
N11 is eye extraction from the entire face, NN21 is eye position / size correction, NN31 is eye tension pattern detection, NN12 is eyebrow extraction from the entire face, NN22 is eyebrow position / size correction, NN
It is assumed that 32 is responsible for detecting the eyebrow tension pattern, NN13 is responsible for extracting the mouth from the image of the entire face, NN23 is responsible for correcting the position and size of the mouth, and NN33 is responsible for detecting the mouth tension pattern.

【0027】このような場合、ユニットNN11の学習デ
ータとしては顔全体の映った画像データ、教師データと
しては目を示唆するデータを与え、その出力が目を示す
ようになるまで、あらゆるパターンを与えて学習させ
る。これにより、ユニットNN11は目の形、他の部分と
の位置的関係等を含む総合的特徴検出能力を内包したこ
ととなり、人間が見て判断するときのように顔全体の中
から目を特定するようになる。
In such a case, as the learning data of the unit NN11, image data showing the entire face is shown, and as the teacher data, data suggesting the eyes are given, and all patterns are given until the output shows the eyes. To learn. As a result, the unit NN11 incorporates the comprehensive feature detection capability including the shape of the eyes, the positional relationship with other parts, and the like, and specifies the eyes from the entire face as in the case of human judgment. I will be.

【0028】ユニットNN21の学習データとしては各種
位置に存在する各種の大きさの目を示すパターン(つま
り、システム実使用時にユニットNN11が出力すると予
想される各種のパターン)を与え、教師データとしては
対応するパターンの位置及び大きさ補正後のパターンを
与え、学習を繰返す。これにより、ユニットNN21は、
やがて、あらゆる位置に存在するあらゆる大きさの目を
一定の位置・一定の大きさに補正した目のパターンを出
力するようになる。
As the learning data of the unit NN21, patterns indicating eyes of various sizes existing at various positions (that is, various patterns expected to be output from the unit NN11 during actual use of the system) are given. The position and size of the corresponding pattern after pattern correction are given, and learning is repeated. Thereby, the unit NN21 is
Eventually, an eye pattern in which eyes of all sizes present at all positions are corrected to a certain position and a certain size will be output.

【0029】ユニットNN31の学習データとしては位置
・大きさが定まっているが形状において様々の目のパタ
ーン(すなわち、ユニットNN21から出力されると予想
される各種のパターン)を与え、教師データとして、対
応するパターンが緊張パターンか否か(「1」Possitiv
e or「0」Negative)のいずれであるかを示すデータを
与え、「1」、「0」の答えが一定の率で正解するよう
になるまで(例えば、人が見ても緊張しているのか否か
の判別が難しい場合を除いて正答するようになるまで)
学習を繰返させる。
As the learning data of the unit NN31, various eye patterns (that is, various patterns expected to be output from the unit NN21) are given in terms of the shape and position, although the position and size are determined. Whether the corresponding pattern is a tension pattern ("1" Possitiv
e or "0" Negative) until the answer of "1" or "0" is correct at a certain rate (for example, people are nervous even if they see it) Unless it is difficult to determine whether or not it is correct, until you can answer correctly)
Make learning repeat.

【0030】眉や口についても同様である。要約する
と、ユニットNN12にはあらゆる顔全体の映った画像デ
ータ(学習データ)、その眉を示唆する画像データ(教
師データ)を与え、ユニットNN22には各種位置に存在
する各種の大きさの眉を示すパターン(学習データ)、
その位置・大きさを定めた眉のパターン(教師デー
タ)、ユニットNN32には位置・大きさが定まっている
が形状が様々の眉のパターン(学習データ)、対応する
パターンが緊張パターンか否か(「1」Possitive or
「0」Negative)のいずれであるかを示すデータを与
え、それぞれ学習させることとなる。
The same applies to the eyebrows and mouth. In summary, image data (learning data) showing the entire face and image data (teacher data) suggesting the eyebrows are given to the unit NN12, and eyebrows of various sizes existing at various positions are given to the unit NN22. Patterns shown (learning data),
The eyebrow pattern (teacher data) whose position and size are determined, whether the unit NN32 has a fixed position and size but various eyebrow patterns (learning data), and whether the corresponding pattern is a tension pattern ("1" Possitive or
Data indicating which is “0” (Negative) is given, and each is learned.

【0031】また、ユニットNN13にはあらゆる顔全体
の映った画像データ(学習データ)、その口を示唆する
画像データ(教師データ)を与え、ユニットNN23には
各種位置に存在する各種の大きさの口を示すパターン
(学習データ)、その位置・大きさを定めた口のパター
ン(教師データ)を与え、ユニットNN33には位置・大
きさが定まっているが形状が様々の口のパターン(学習
データ)、対応するパターンが緊張パターンか否か
(「1」Possitive or「0」Negative)のいずれである
かを示すデータを与え、それぞれ学習させることとな
る。
The unit NN13 is provided with image data (learning data) showing the entire face and image data (teacher data) suggesting the mouth, and the unit NN23 is provided with various sizes of images existing at various positions. A pattern indicating the mouth (learning data) and a pattern of the mouth (teacher data) defining its position and size are given. The unit NN33 has a determined position and size but various shapes of the mouth patterns (learning data). ), Data indicating whether the corresponding pattern is a tension pattern or not (“1” Possitive or “0” Negative) is given, and each is learned.

【0032】そして、それぞれの学習が収束したら各切
替えスイッチSW(i-1)jをb側に設定し、実際に使用す
ると、各ユニットNNijの連繋機能により最終的な判断
が得られるようになる。
Then, when each learning is converged, each changeover switch SW (i-1) j is set to the b side, and when actually used, a final judgment can be obtained by the linking function of each unit NNij. .

【0033】以上説明したように、従来実現することが
できなかった、多数の学習データにより多数の認識ルー
ルを自動的に獲得する大規模情報認識装置を実現するこ
とができる。また、このルール獲得に要する反復計算回
数も現実的回数である。さらに、各ニューラルネットワ
ークユニットは通常数十程度のニューロンから成るの
で、その結合回路の数は実現可能な数である。また、ユ
ニット間の結合回路に関しても、各々のユニットの入力
信号と出力信号のバスから構成されているので、容易に
実現可能な回路数であり、従来大規模ニューラルネット
ワーク回路で問題となっていた結合回路数の爆発の問題
も回避できる。
As described above, it is possible to realize a large-scale information recognizing apparatus which can not be realized conventionally and automatically obtains a large number of recognition rules from a large number of learning data. Further, the number of repetitive calculations required for acquiring the rule is also a realistic number. Furthermore, since each neural network unit is usually composed of about several tens of neurons, the number of its connection circuits is a feasible number. Also, as for the coupling circuit between the units, the number of the circuits can be easily realized because each unit is constituted by the bus of the input signal and the output signal of each unit, which has been a problem in the conventional large-scale neural network circuit. The problem of explosion of the number of coupling circuits can be avoided.

【0034】次に、図4は本発明の大規模情報認識装置
の学習処理の構成を示すフローチャート、図5は同装置
の認識処理の構成を示すフローチャート、図6は本装置
の基本構成を示すブロック図、図7はカテゴリ分類装置
を構成する教師なし学習型ニューラルネットワークの構
成処理におけるポインティングデバイスを用いた各段の
クラスタ指定処理を示す説明図、図8はカテゴリ分類装
置を構成する教師なし学習型ニューラルネットワークの
分類処理を示す説明図、図9はカテゴリ別認識装置を構
成する教師あり学習型ニューラルネットワークの構成を
示す説明図、図10は本実施例の比較対象となる従来の
大規模情報認識処理の基本思想を示すブロック図、図1
1は従来の大規模情報認識装置の一例としてニューラル
ネットワーク組合わせによる文字認識装置の構成を示す
ブロック図、図12は従来の教師なし学習型ニューラル
ネットワークと教師あり学習型ニューラルネットワーク
との組合わせ構成を示す説明図である。
Next, FIG. 4 is a flowchart showing the configuration of the learning process of the large-scale information recognition device of the present invention, FIG. 5 is a flowchart showing the configuration of the recognition process of the device, and FIG. 6 shows the basic configuration of the device. FIG. 7 is a block diagram, FIG. 7 is an explanatory diagram showing a cluster designation process of each stage using a pointing device in the configuration process of the unsupervised learning type neural network forming the category classification device, and FIG. 8 is unsupervised learning forming the category classification device. FIG. 9 is an explanatory diagram showing a classification process of a neural network of a type, FIG. 9 is an explanatory diagram showing a configuration of a supervised learning type neural network constituting a recognition device for each category, and FIG. 10 is conventional large-scale information to be compared with the present embodiment. FIG. 1 is a block diagram showing the basic idea of the recognition process.
1 is a block diagram showing a configuration of a character recognition device using a combination of neural networks as an example of a conventional large-scale information recognition device. FIG. 12 is a combination configuration of a conventional unsupervised learning neural network and a supervised learning neural network. FIG.

【0035】本実施例のシステムは最終的には処理対象
データを、そのデータ自身がもつ何らかの特徴的性質に
基づいて認識・分類することが目的となるが、先にも述
べたように、その特徴的性質を効率的に圧縮表現できる
特徴量指標が明確に知られていない場合、その分類は、
分類するカテゴリ毎の代表的データによって特徴づけら
れることになる。すなわち、各カテゴリ毎に集められた
代表的データから、その背後に存在する分類法則を獲得
し、新たに得られたデータを適切にカテゴリ分類できる
ような機構を構成することが必要になる。
The purpose of the system of this embodiment is to finally recognize and classify the data to be processed on the basis of some characteristic property of the data itself. If a feature index that can efficiently express the characteristic properties in a compressed manner is not clearly known, the classification is
It will be characterized by representative data for each category to be classified. That is, it is necessary to obtain a classification rule existing from the representative data collected for each category and configure a mechanism that can appropriately classify the newly obtained data.

【0036】そこで、図6を参照しつつ基本システム構
成について説明すると、まず、本実施例に係る大規模情
報認識装置はカテゴリ分類装置401とニューラルネッ
トワーク切替え装置402とカテゴリ別認識装置403
とから大略構成される。カテゴリ分類装置401は処理
対象データについて複数段の教師なし学習型ニューラル
ネットワークによりその概分類を行うものである。例え
ば、ひらがな・漢字・カタカナの手書き文字認識を考え
ると、カテゴリ分類装置401は、認識対象文字がそれ
らの文字属性のうちのいずれであるかを認識する。カテ
ゴリ別認識装置403はそれらの文字属性別に文字種
(つまり、ひらがなであれば五十音「あ」、「い」、
「う」、…のいずれであるか)の認識機能を持つ複数の
ニューラルネットワーク4031,4032,…,40
3nを持ち、ニューラルネットワーク切替え装置402
はカテゴリ分類装置401の最終段出力であるカテゴリ
データに従って、動作させるニューラルネットワークを
選択し、その選択されたニューラルネットワークに処理
対象情報を供給する機能を有している。
The basic system configuration will be described with reference to FIG. 6. First, the large-scale information recognition apparatus according to the present embodiment comprises a category classification apparatus 401, a neural network switching apparatus 402, and a category-based recognition apparatus 403.
It is roughly composed of The category classification device 401 roughly classifies data to be processed by a plurality of stages of unsupervised learning neural networks. For example, considering handwritten character recognition of Hiragana / Kanji / Katakana, the category classification device 401 recognizes which of the character attributes the recognition target character has. The category-specific recognizing device 403 uses the character type (that is, the Japanese syllabary "a", "i",
A plurality of neural networks 4031, 4032,... 40 having a recognition function of “U”,.
3n, neural network switching device 402
Has a function of selecting a neural network to be operated according to the category data output from the final stage of the category classification device 401 and supplying processing target information to the selected neural network.

【0037】図4のフローチャートはカテゴリ分類装置
401及びカテゴリ別認識装置403の構成手順を記述
したものに相当する。
The flowchart of FIG. 4 corresponds to the description of the configuration procedure of the category classification device 401 and the category-specific recognition device 403.

【0038】まず、ステップ201において、ある段に
生じたクラスタに対応する学習データの教師なし学習型
ニューラルネットワークによる分類を行うもので、現在
の分類段をiとしたとき、ステップ201ではi−1段
目に生じている複数クラスタの一つについて分類を行う
こととなる。次いで、ステップ202においては、全て
のクラスタに対応する分類が完了したかどうか、換言す
れば、未分類のクラスタがあるかどうかの判断を行う。
未分類のものが残っている場合にはステップST201
へ戻る。このようにして、一段分のクラスタ分類がステ
ップ201,202の繰返しによって行われる。そし
て、ステップ202の判断の結果、対象となっている段
のクラスタすべてについて分類が完了した場合には、ス
テップ203で新たなクラスタに対応する学習データ数
は適切か否かが判断される。つまり、クラスタ分類を換
言すれば後の教師あり学習型ニューラルネットワークの
学習すべきデータの生成処理に相当し、その学習データ
数として適切かどうか、更に言ってしまえばクラスタ数
が分類されるべきカテゴリ数以上となったかいなか、あ
るいは学習データ数が多すぎはしないか、ということを
判断する。この判断の結果、例えば、学習データ数が適
切な数でない場合にはステップ206へ移って更に下位
の段を設定する。その後、ステップ201へ戻る。
First, in step 201, the learning data corresponding to the cluster generated in a certain stage is classified by an unsupervised learning type neural network. When the current classification stage is i, in step 201, i-1 Classification is performed on one of a plurality of clusters occurring at the stage. Next, in step 202, it is determined whether or not the classification corresponding to all the clusters has been completed, in other words, whether or not there is any unclassified cluster.
If there are unclassified items, step ST201
Return to In this way, one-stage cluster classification is performed by repeating steps 201 and 202. Then, as a result of the determination in step 202, if the classification has been completed for all the target clusters, it is determined in step 203 whether the number of learning data corresponding to the new cluster is appropriate. In other words, in other words, the cluster classification corresponds to the process of generating data to be learned by the supervised learning neural network later, and whether the number of learning data is appropriate or not, or more specifically, the category in which the number of clusters should be classified It is determined whether the number is larger than the number or whether the number of learning data is too large. If the result of this determination is that the number of learning data is not an appropriate number, for example, the process proceeds to step 206, where a lower stage is set. Then, the process returns to step 201.

【0039】このようにして教師あり学習型ニューラル
ネットワークの学習データ数として適当な数のクラスタ
分類がなされるまで、ステップ201〜203を繰返す
こととなり、各カテゴリごとの代表データとして与えら
れた多数の学習データは、カテゴリ分類装置401内の
各段において教師なし学習型ニューラルネットワークに
より、いくつかのクラスタに分類されることとなる。こ
の際の教師なし学習型ニューラルネットワークの学習則
としては、Kohonennなどにより提案されているLVQ法
(T.Kohonen:Self-Organization and Associative Memor
y(3rd Ed.),pp199-209,Springer-Verlag(1989))をはじ
めとする代表的な学習法やその改良法などが利用可能で
ある。
Steps 201 to 203 are repeated until an appropriate number of clusters are classified as the number of learning data of the supervised learning type neural network in this manner, and a large number of data given as representative data for each category are obtained. The learning data is classified into several clusters by the unsupervised learning type neural network at each stage in the category classification device 401. At this time, the learning rule of the unsupervised learning type neural network includes the LVQ method proposed by Kohonenn and others.
(T.Kohonen: Self-Organization and Associative Memor
y (3rd Ed.), pp199-209, Springer-Verlag (1989)) and other typical learning methods and their improved methods can be used.

【0040】クラスタの決定にあたっては、このような
従来提案型のアルゴリズムをそのまま流用しても良い
が、この決定自身をシステム構築者が受け持つことも可
能である。特に認識の対象となるプロセスが、人間が通
常行うようなものがある場合には、クラスタリング処理
にシステム構築者が積極的に係わることが、望ましいシ
ステムを構成するために必要となる。図7は、マウスや
タッチペンなどのポインティングデバイスを用いたクラ
スタ設定の様子を示した図である。同図(a)に示すよ
うにマウスポインタによりエリアを指定すると、同図
(b)に示すようにそのエリア内が同一クラスタとして
登録される。このようなポインティングデバイスによる
柔軟なクラスタ設定により、全体的な認識処理にとって
効果的なカテゴリ分類が可能となる。
In deciding a cluster, such a conventionally proposed algorithm may be used as it is, but it is also possible for the system builder to take the decision itself. In particular, when a process to be recognized is a process that is usually performed by a human, it is necessary for a system builder to actively participate in the clustering process in order to configure a desirable system. FIG. 7 is a diagram illustrating a state of cluster setting using a pointing device such as a mouse or a touch pen. When an area is designated by a mouse pointer as shown in FIG. 11A, the area is registered as the same cluster as shown in FIG. By such a flexible cluster setting by the pointing device, an effective category classification for the overall recognition processing can be performed.

【0041】カテゴリ分類装置401における最初の処
理段以外の各段では、前段で獲得されたクラスタ毎にそ
の各クラスタに属する学習データのみに対して、さらに
教師なし学習型ニューラルネットワークによりクラスタ
分類が行われる。この複数段にわたるクラスタ分類の様
子を示したのが図8である。前述したようなクラスタ分
類を繰返すことで、最終的には、学習データに対するク
ラスタ分類のツリー構造が、教師なし学習型ニューラル
ネットワークの処理を介して得られることになる。例え
ば、図8のデータαに対する分類アドレスは、(2,
4,…,l)(第i要素が、第i段における所属クラス
タ番号を表す)で与えられる。よって、この複数段にわ
たる教師なし学習型ニューラルネットワークの分類機能
から構成されるカテゴリ分類装置lは、入力として与え
られたデータに対して、その分類カテゴリを所属クラス
タのディレクトリパス情報の形で最終段にて出力する。
In each of the stages other than the first processing stage in the category classification device 401, for each cluster acquired in the previous stage, only the learning data belonging to each cluster is subjected to cluster classification by an unsupervised learning neural network. Will be FIG. 8 shows a state of cluster classification over a plurality of stages. By repeating the above-described cluster classification, a tree structure of the cluster classification for the learning data is finally obtained through the processing of the unsupervised learning neural network. For example, the classification address for the data α in FIG.
4,..., L) (the i-th element represents the cluster number belonging to the i-th stage). Therefore, the category classifying device 1 composed of the classifying function of the unsupervised learning type neural network extending over the plurality of stages, classifies the classification category into the final stage in the form of the directory path information of the belonging cluster for the data given as input. Output with.

【0042】次に、最終段で得られた分類カテゴリ(デ
ィレクトリパスの数だけ存在)毎の学習データを、今度
は、カテゴリ別認識装置403により、最終的な認識結
果との詳細な対応関係が学習され、最終的な認識結果と
の詳細な対応関係が学習される。これはステップ20
4,205の処理である。ステップ204では一つの学
習データについての詳細分類を行い、その収束後、ステ
ップ205で未処理学習データが残っているか否かが判
断される。その判断の結果、未処理学習データがある場
合にステップ204に移り、残っている学習データのう
ちの一つについて学習を行わせる。このようにして全て
の学習データについて詳細分類が完了するとシステムの
完成となる。
Next, the learning data for each of the classification categories (existing by the number of directory paths) obtained in the last stage is converted into a detailed correspondence relationship with the final recognition result by the category recognition device 403. It learns and learns the detailed correspondence with the final recognition result. This is step 20
4,205. In step 204, detailed classification is performed on one learning data, and after convergence, it is determined in step 205 whether unprocessed learning data remains. If the result of the determination is that there is unprocessed learning data, the process proceeds to step 204, where learning is performed on one of the remaining learning data. When the detailed classification is completed for all the learning data in this way, the system is completed.

【0043】カテゴリ別認識装置403の各ニューラル
ネットワークの構成イメージを示したものが図9であ
る。入出力形態は、通常の階層構造型ニューラルネット
ワークの学習形式そのままであり、入力は、画像データ
(全画素分入力ユニットを用意しても良いし、何らかの
入力情報の圧縮を行うことも可能)、出力は、その入力
データに対する認識結果(入力と同様、認識・分類項目
ごとに出力ユニットを用意しても良いし、何らかのコー
ド化を行っても良い)、という形になる。学習則として
は、Rumelhart らの文献(Nature,vol.323.pp.533-536,1
986)に示されたバックプロパゲーション法と呼ばれる方
法やその改良法などを用いることが可能である。
FIG. 9 shows a configuration image of each neural network of the category-specific recognition device 403. The input / output form is the same as the learning form of the ordinary hierarchical structure type neural network, and the input is image data (an input unit may be prepared for all pixels, or some kind of input information may be compressed). The output is in the form of a recognition result for the input data (an output unit may be prepared for each recognition / classification item or some coding may be performed, similarly to the input). The learning rule is described in Rumelhart et al. (Nature, vol.323.pp.533-536, 1
986), a method called a back propagation method, an improved method thereof, and the like can be used.

【0044】前述したように、学習データが多くなる
と、階層構造型のニューラルネットワークによる教師あ
り学習は学習収束が著しく遅くなり、その収束性能を左
右するパラメータであるネットワーク層数や層ごとのユ
ニット数、結合重みの初期値などを適切に決定すること
は、それ自体が複雑な非線形最適化問題と等価になって
しまうため、実用的な負荷で実際的な収束性能を得るこ
とは難しくなってしまう。しかし、上記のように、複数
段のクラスタリング処理によるカテゴリ分類を採用する
ことで、各最終分類カテゴリに属する学習データ数を十
分絞っておけば、階層構造型のニューラルネットワーク
構成を有するカテゴリ別認識装置403による学習はほ
ぼその収束が保証され、実用的なエンジニアリング負荷
で、認識システムを構成することが可能になる。以下、
全カテゴリに対するカテゴリ別認識装置403の学習が
終了した段階で、認識システムの構成が完了する。
As described above, as the amount of learning data increases, supervised learning using a hierarchical neural network significantly slows down learning convergence, and the number of network layers and the number of units per layer are parameters that affect the convergence performance. However, it is difficult to obtain practical convergence performance with a practical load because properly determining the initial values of the connection weights and the like are equivalent to a complicated nonlinear optimization problem itself. . However, as described above, by adopting a category classification by a plurality of stages of clustering processing, if the number of learning data belonging to each final classification category is sufficiently reduced, a category-based recognition apparatus having a hierarchical structure type neural network configuration In the learning by 403, the convergence is almost guaranteed, and a recognition system can be configured with a practical engineering load. Less than,
When the learning of the category-specific recognition device 403 for all categories is completed, the configuration of the recognition system is completed.

【0045】次に、学習データ以外のデータに対する認
識処理(図5の認識処理フローチャート)は、上記のシ
ステム構成手順の学習を除いた手順とほぼ等価になる。
すなわち、ステップ301において、認識対象データを
カテゴリ分類装置401に提示することにより、カテゴ
リ分類装置401は、そのデータに対する最終分類カテ
ゴリ、および認識対象データを認識用ニューラルネット
ワーク切替え装置402に出力するか、あるいは整合性
のあるパスが存在しないことを示すデータを出力する。
続いて、ステップ302ではカテゴリ分類装置401に
おいて整合性のある分類パスが存在したか否かの判断が
なされ、その結果、存在していた場合にはステップ30
3に移る。ここでは、ニューラルネットワーク切換装置
402が、受取った最終分類カテゴリに対応するカテゴ
リ別認識装置403に認識対象データを送り、ステップ
304において、カテゴリ別認識装置403が最終的な
認識結果を出力する。なお、ステップ302における判
断が整合性のある分類パスなしとなった場合には、ステ
ップ305で認識不能をモニタすることで処理を終了す
る。
Next, the recognition processing for the data other than the learning data (recognition processing flowchart in FIG. 5) is substantially equivalent to the above-described procedure of the system configuration except for the learning.
That is, in step 301, by presenting the recognition target data to the category classification device 401, the category classification device 401 outputs the final classification category and the recognition target data for the data to the recognition neural network switching device 402, Alternatively, data indicating that a consistent path does not exist is output.
Subsequently, in step 302, it is determined whether or not a consistent classification path exists in the category classification device 401.
Move to 3. Here, the neural network switching device 402 sends recognition target data to the category-specific recognition device 403 corresponding to the received final classification category, and in step 304, the category-specific recognition device 403 outputs a final recognition result. If it is determined in step 302 that there is no consistent classification path, the process is terminated by monitoring the recognition failure in step 305.

【0046】これらの一連の認識処理にかかる演算量は
小さいものであるため、認識処理の部分に限れば、パソ
コンクラスの処理性能しかもたない計算機でも十分に高
速な認識処理が実現できる。
Since the amount of calculation required for a series of these recognition processes is small, a sufficiently high-speed recognition process can be realized by a computer having only the processing performance of a personal computer, if only the recognition process is performed.

【0047】ここで比較のために、従来の大規模情報認
識システムについて紹介する。
Here, a conventional large-scale information recognition system will be introduced for comparison.

【0048】まず従来の大規模情報認識の基本思想が図
10のように表現できる。大規模なデータを扱う際に
は、情報処理の負荷をできるだけ小さくするために、最
終的な分類認識の目的に沿った特徴量を選定し、その特
徴抽出という処理に代表される情報圧縮を行うことが基
本となっている。その情報圧縮処理を行うのが前処理部
分501である。この前処理部分501で抽出された特
徴量に基づいて認識システム502が最終的な認識処理
を行い、その結果を出力する。実際、適切な特徴量(多
くの場合はいくつかのスカラ量からなる)が選択できた
場合には総合的な処理負荷は非常に軽減される。
First, the basic concept of conventional large-scale information recognition can be expressed as shown in FIG. When dealing with large-scale data, in order to minimize the load of information processing, feature amounts are selected according to the purpose of final classification recognition, and information compression represented by the feature extraction process is performed. That is the basis. The pre-processing part 501 performs the information compression processing. The recognition system 502 performs final recognition processing based on the feature amounts extracted in the pre-processing part 501, and outputs the result. In fact, if an appropriate feature quantity (often consisting of several scalar quantities) can be selected, the overall processing load is greatly reduced.

【0049】しかし、プロセス制御の現場などで実際に
求められている認識システムにおいては、そのような最
終目的に必要十分な情報を有する特徴量を必ずしも適切
に選択できないばかりか、時にはそのような有効な特徴
量が実際の認識処理実施環境下では存在しない場合も有
り得る。
However, in a recognition system that is actually required in the field of process control or the like, not only a feature quantity having necessary and sufficient information for such an end purpose cannot always be appropriately selected, but also such an effective There may be cases in which a feature amount does not exist in an actual recognition processing implementation environment.

【0050】そこで、近年、計算機能力の向上に支えら
れて各種の並列処理手法の現実適用性が注目されるよう
になってきている。その中でも特にニューラルネットワ
ークは、教師あり学習型・教師なし学習型、の両ネット
ワークとも、大規模データの分類・認識の有効な手法と
して期待されている。このニューラルネットワーク技術
は、文字認識、音声認識などの分野においてその応用例
が多く見られるが、そこでは従来からあった認識処理手
法などとニューラルネットワーク技術を組合せること
で、全体の認識率を向上させる例などが報告されてい
る。図11は従来のノイマン型計算機からなる文字認識
装置601とニューラルネットワーク認識装置602と
の組合わせからなるものに相当する。この場合、従来技
術のみでも95%以上の認識率が得られており、ニュー
ラルネットワークは、さらに2〜3%のレベルの認識率
向上のためにのみ使われている。
Therefore, in recent years, the real applicability of various parallel processing techniques has been attracting attention, supported by the improvement of the computational capability. Among them, the neural network, especially the supervised learning type and the unsupervised learning type, is expected as an effective method for classifying and recognizing large-scale data. There are many applications of this neural network technology in fields such as character recognition and voice recognition, where the combination of conventional recognition processing techniques and neural network technology improves the overall recognition rate. Examples have been reported. FIG. 11 corresponds to a combination of a character recognition device 601 comprising a conventional Neumann computer and a neural network recognition device 602. In this case, a recognition rate of 95% or more is obtained by the conventional technique alone, and the neural network is used only for improving the recognition rate by a further 2-3%.

【0051】しかしながら、より一般的な画像認識にお
いては、必ずしもこのように優れた既存技術を利用でき
る場合はむしろ少なく、ニューラルネットワーク側の認
識処理負荷がはるかに重くなることが多い。また、この
ような認識処理で通常よく使われる教師あり学習ネット
は、詳細な認識・分類システムを実現する上での重要な
プロセスである学習処理において、有効なネットワーク
構造の決定が非常に難しく、分類・認識すべきデータ数
が増加すると、学習そのものが急激に収束しにくくな
る、といった大きな欠点がある。
However, in more general image recognition, there are few cases where such excellent existing technologies can be used, and the recognition processing load on the neural network side is often much heavier. In addition, supervised learning nets that are commonly used in such recognition processing are extremely difficult to determine an effective network structure in learning processing, which is an important process in achieving a detailed recognition and classification system. When the number of data to be classified / recognized increases, there is a major drawback in that the learning itself hardly converges rapidly.

【0052】これに対して、学習処理が簡便で、総合的
な学習処理の停滞も少ない教師なし学習型ネットを認識
処理の中心ネットワークアーキテクチュアとして用いる
ことも考えられるが、教師なし学習型ネットは、一般に
は、大まかな分類(粗いカテゴリ分類)には有効なもの
の、詳細なカテゴリ分類や認識を必要とする場合にはそ
れだけでは対応が困難であることが多い。
On the other hand, it is conceivable to use an unsupervised learning type net which is simple in learning processing and has little stagnation of comprehensive learning processing as a central network architecture for recognition processing. In general, it is effective for rough classification (coarse category classification), but it is often difficult to cope with detailed classification and recognition alone.

【0053】このような背景から、最近は、上記の教師
なし学習型ネットと教師あり学習型ネットとを組合せ、
教師なし学習型ネットであらかじめ、ある程度特徴抽出
的な処理を行った上で、その出力を教師あり学習型ネッ
トに与え、データ分類能力を学習獲得させるなどの試み
が行われている。図12はそのイメージを図解するもの
で、701は教師なし学習型ニューラルネットワーク、
702は教師あり学習型ニューラルネットワークであ
る。
From such a background, recently, the unsupervised learning type net and the supervised learning type net are combined,
Attempts have been made to perform a feature extraction process to some extent on an unsupervised learning type network in advance, and then provide the output to a supervised learning type net to learn the data classification ability. FIG. 12 illustrates the image, 701 is an unsupervised learning type neural network,
Reference numeral 702 denotes a supervised learning type neural network.

【0054】しかし、このシステムの場合でも、取扱う
データの量が膨大になってくると、現在の計算機技術か
ら計れる実用的な負荷で、十分な認識・分類を可能とす
るシステムを構築することが難しいという点が問題点と
して残っていた。
However, even in the case of this system, if the amount of data to be handled becomes enormous, a system capable of sufficiently recognizing and classifying with a practical load measured by current computer technology can be constructed. Difficulties remained as a problem.

【0055】上述した本実施例の装置は、このような問
題点を解決するものであり、複数段のカテゴリ分類を行
う教師なし学習型ニューラルネットワークと詳細な認識
・分類を行う教師あり学習型ニューラルネットワークと
を備えた認識・分類機構により、大規模データ群の適切
かつ高速な認識・分類が実現されることとなる。
The above-described apparatus of the present embodiment solves such a problem, and includes an unsupervised learning type neural network for performing multiple-stage category classification and a supervised learning type neural network for performing detailed recognition and classification. The recognition and classification mechanism provided with the network realizes appropriate and high-speed recognition and classification of a large-scale data group.

【0056】図13は別態様に係る本発明大規模情報認
識装置の構成を示すブロック図、図14はその装置を回
収ボイラプラントのチャーベット形状認識に適用した場
合のシステム構成を示すブロック図、図15はその中核
をなす大規模情報認識装置の具体的構成例を示すブロッ
ク図、図16は回収ボイラプラントの概要説明図、図1
7はチャーベットの各種形状例を示す説明図、図18は
チャーベットの前処理結果イメージの説明図、図19は
教師なし学習型ニューラルネットワークの認識動作時の
処理イメージ説明図、図20は教師あり学習型ニューラ
ルネットワークの認識動作時の処理イメージ説明図、図
21は教師あり学習型ニューラルネットワークの学習時
の処理イメージ図、図22は大規模情報認識装置の参考
例の構成を示すブロック図である。
FIG. 13 is a block diagram showing a configuration of a large-scale information recognition apparatus according to another embodiment of the present invention. FIG. 14 is a block diagram showing a system configuration in a case where the apparatus is applied to charbet shape recognition of a recovery boiler plant. FIG. 15 is a block diagram showing an example of a specific configuration of a large-scale information recognition device which forms the core of the device, FIG. 16 is a schematic explanatory diagram of a recovery boiler plant, and FIG.
7 is an explanatory view showing various examples of the shape of the charbet, FIG. 18 is an explanatory view of an image of the pre-processing result of the charbet, FIG. FIG. 21 is an explanatory diagram of a processing image at the time of a recognition operation of a supervised learning type neural network, FIG. 21 is a processing image diagram of a supervised learning type neural network at the time of learning, and FIG. 22 is a block diagram illustrating a configuration of a reference example of a large-scale information recognition device. .

【0057】まず、図13において、教師なし学習型と
教師あり学習型との両アーキテクチュアを必要とする複
数のニューラルネットワーク処理に対して、実際の処理
を行う装置は、それぞれのネットワークアーキテクチュ
アに対応した専用処理装置(教師なし学習型ネットワー
ク処理装置801、教師あり学習型ネットワーク処理装
置802)がそれぞれ1つずつ用意される。個々のニュ
ーラルネットワーク処理は、ネットワーク管理装置80
3がその処理に必要なネットワークアーキテクチュアを
もつ専用処理装置への切替えをネットワーク切替え装置
806に指示することで開始する。ネットワークの選択
後、該ネットワーク管理装置803は、さらに処理デー
タ記憶装置804及びネットワーク構造情報記憶装置8
05に対して、それぞれ、処理対象であるデータと、そ
の処理上必要となるネットワークの構造情報(結合重み
データなど)との該ニューラルネットワーク処理装置
(教師なし学習型ネットワーク処理装置801or教師
あり学習型ネットワーク処理装置802)への転送指示
を送る。この転送指示により処理データとネットワーク
の結合重みデータとがニューラルネットワーク処理装置
801,802と処理装置内部メモリ807,808へ
送られ、処理実行が可能になると、当該ニューラルネッ
トワーク処理装置はネットワーク管理装置803に対し
て準備が完了した旨を通知し、処理実行の返信を受ける
と、規定の処理を実行し、実行結果を処理データ記憶装
置804へ書出し、処理終了のシグナルをネットワーク
管理装置803へ送信することで、一つのニューラルネ
ットワーク処理が終了する。このプロセスを適宜繰り返
すことで、処理に必要となるネットワークアーキテクチ
ュア数に対応した最低数のネットワーク専用処理装置
で、多数のニューラルネットワーク処理を実現すること
ができる。
First, in FIG. 13, an apparatus that actually performs processing for a plurality of neural network processes that require both the unsupervised learning type and the supervised learning type architectures corresponds to each network architecture. One dedicated processing device (unsupervised learning type network processing device 801 and supervised learning type network processing device 802) is prepared. Each neural network processing is performed by the network management device 80
3 starts by instructing the network switching device 806 to switch to a dedicated processing device having a network architecture necessary for the processing. After selecting the network, the network management device 803 further stores the processing data storage device 804 and the network structure information storage device 8
05, the neural network processing device (the unsupervised learning network processing device 801 or the supervised learning type) of the data to be processed and the network structure information (such as connection weight data) required for the processing. A transfer instruction to the network processing device 802) is sent. According to this transfer instruction, the processing data and the connection weight data of the network are sent to the neural network processing devices 801 and 802 and the internal memories 807 and 808 of the processing device, and when the processing can be executed, the neural network processing device changes the network management device 803. Is notified that the preparation has been completed, and upon receiving a reply of the execution of the process, executes the prescribed process, writes the execution result to the process data storage device 804, and transmits a signal of the process end to the network management device 803. Thus, one neural network process ends. By repeating this process as needed, a large number of neural network processes can be realized with the minimum number of network-dedicated processing devices corresponding to the number of network architectures required for the process.

【0058】以上は、確定したネットワークに対する処
理の説明であるが、ニューラルネットワーク処理装置8
01,802が学習機能を持っている場合には、処理デ
ータ(この場合は学習データ)は上記の処理と同様に毎
回読み込まれる。が、ネットワーク構造情報(結合重み
データ)は処理開始時に1回だけ読込まれ、それ以降は
各処理専用装置上のメモリ(807,808)に保持さ
れた形で更新が行われ、処理終了時に、上記で処理結果
を処理データ記憶装置804に書出した代わりに、結合
重みデータをネットワーク構造情報記憶装置805に書
出す形になる。
The above is a description of the processing for the determined network.
When 01 and 802 have a learning function, the processing data (in this case, learning data) is read every time as in the above-described processing. However, the network structure information (connection weight data) is read only once at the start of the processing, and thereafter, is updated in the form of being held in the memories (807, 808) on the dedicated processing devices, and at the end of the processing, Instead of writing the processing result to the processing data storage device 804, the connection weight data is written to the network structure information storage device 805.

【0059】上記大規模データ認識装置を用いて、回収
ボイラの炉内チャーベット形状を認識するシステムを構
成した実施例を次に示す。
An embodiment in which a system for recognizing the shape of the in-furnace charbet of the recovery boiler using the large-scale data recognition device will be described below.

【0060】まず、図16を参照して回収ボイラシステ
ムの概要について簡単に説明する。回収ボイラというの
は製紙プロセスに見られるプラントで、チップの蒸解工
程で出た廃液(これを黒液と呼ぶ)に含まれる有機成分
をボイラ内で燃やしその燃焼熱で蒸気を生成し、かつボ
イラ内に構成される乾燥した黒液の堆積物(これをチャ
ーベットと呼ぶ)内で起こる化学反応を利用して廃液内
に含まれる蒸解工程で用いた高価な薬品を回収するもの
である。この回収ボイラの運転状況は、黒液の性状や化
学反応の進行具合によって大きく変化するため、その運
転は完全自動化はされておらず、熟練のオペレータが炉
内の様子などを監視しながら運転を行っている。その
際、オペレータは、図17に示すようなチャーベットの
形状を参考にしながら炉内の状況を判断しており、シス
テム自動化のためには、このようなチャーベット形状の
自動認識システムの構築が不可欠である。しかしなが
ら、オペレータが見ているモニタ上に映し出されている
画像は実際には図17(a)〜(e)に示したようなき
れいなものではなく、図17(f)のように、山の輪郭
線がはっきりしなかったり、炉内を覗くカメラの縁にゴ
ミのようなものが付いたりするといった状況が大半であ
る。
First, the outline of the recovery boiler system will be briefly described with reference to FIG. A recovery boiler is a plant found in the papermaking process. It burns organic components contained in the waste liquor (black liquor) produced during the chip digestion process in the boiler, generates steam using the combustion heat, and generates boiler steam. Expensive chemicals used in the cooking process contained in the waste liquid are recovered by utilizing a chemical reaction that occurs in a dried black liquor deposit (referred to as a charbed) formed therein. The operation of this recovery boiler varies greatly depending on the properties of the black liquor and the progress of the chemical reaction.Therefore, the operation is not fully automated, and a skilled operator monitors the inside of the furnace while monitoring the conditions inside the furnace. Is going. At that time, the operator judges the condition in the furnace while referring to the shape of the charbed as shown in FIG. 17, and for the purpose of system automation, it is necessary to construct such an automatic recognition system of the charvet shape. It is essential. However, the image displayed on the monitor viewed by the operator is not actually a clean image as shown in FIGS. 17 (a) to 17 (e), and as shown in FIG. Most of the time, the lines are not clear, or the camera looks into the furnace and there is something on the edge of the camera.

【0061】このような画像からチャーベットの輪郭線
情報を得るために、通常のエッジ検出処理や2値化処理
を行った画像処理結果のイメージ図を図18に示す。こ
の図に示すように、カメラの視野の上隅についたゴミや
炉内背景ノイズの影響が処理画像中に現れるため、従来
の画像認識手法ではオペレータが無意識に行っているよ
うな大きな見誤りのない頑健な認識を実現することは非
常に難しい。
FIG. 18 shows an image diagram of a result of image processing in which ordinary edge detection processing and binarization processing are performed to obtain contour information of charvet from such an image. As shown in this figure, the effects of dust and furnace background noise in the upper corner of the camera's field of view appear in the processed image, and the conventional image recognition method has a large misunderstanding that the operator does unconsciously. It is very difficult to achieve no robust recognition.

【0062】そこで、ここ数年、この人間が行っている
ような頑健性の高い認識機能を実現するために、ニュー
ラルネットワーク処理を用いた認識手法が提案されてき
ている。しかし、この場合も、さまざまな動作点の変更
に伴う炉内燃焼状況の変化に対して安定した認識を実現
するためには、その学習の段階で大規模な画像データを
数百枚のオーダで学習することが必要であると考えら
れ、そのような認識システムの構築には、教師なし学習
型ネットワークと教師あり学習型ネットワークを多数用
いた分類処理を組込むことが要求される。
Therefore, in recent years, a recognition method using neural network processing has been proposed in order to realize a highly robust recognition function as performed by humans. However, in this case as well, in order to realize stable recognition of changes in the in-furnace combustion conditions caused by changes in various operating points, large-scale image data must be prepared on the order of several hundred sheets at the learning stage. It is considered necessary to learn, and in order to construct such a recognition system, it is required to incorporate a classification process using a large number of unsupervised learning networks and supervised learning networks.

【0063】図14は、このようなチャーベット認識を
実現するシステム構成の一つを示したものである。
FIG. 14 shows one system configuration for realizing such charbet recognition.

【0064】回収ボイラ901の内部を覗いているカメ
ラ902を通して取込まれたチャーベット画像は、前処
理装置904にてノイズ低減などの処理を行った後、図
13でその構成を説明した大規模データ認識装置905
に処理データ記憶装置804を介して送られる。大規模
データ認識装置905内では、既に説明した通り、教師
なし学習型及び教師あり学習型の両ニューラルネットワ
ーク用それぞれの高速処理ボードが切替え使用され、複
数のニューラルネットワーク処理の組合わせによるデー
タ認識が行われる。さらに、文字認識などの場合と同様
に、従来手法を組合わせて認識能力を高めることもあ
る。最終的な認識結果は、原画像や前処理済み画像と共
に、監視情報としてモニタ装置903に送られたり、下
位の制御システムへのフィードバック情報として用いら
れる。
The pre-processing device 904 performs processing such as noise reduction on the charbet image captured through the camera 902 looking into the inside of the recovery boiler 901, and then describes the large-scale configuration described in FIG. Data recognition device 905
Via the processing data storage device 804. As described above, in the large-scale data recognition device 905, high-speed processing boards for both unsupervised learning type and supervised learning type neural networks are switched and used, and data recognition by a combination of a plurality of neural network processes is performed. Done. Further, as in the case of character recognition, the recognition ability may be increased by combining conventional methods. The final recognition result is sent to the monitor device 903 as monitoring information together with the original image and the preprocessed image, or is used as feedback information to a lower control system.

【0065】以下、大規模データ認識装置905の中の
構成についてさらに説明を行う。
Hereinafter, the configuration of the large-scale data recognition device 905 will be further described.

【0066】図15に示したものは、大規模データ認識
装置905のいくつかの構成例である。
FIG. 15 shows some examples of the configuration of the large-scale data recognition device 905.

【0067】図15(a)は、まず、教師なし学習ネッ
トワークB01による大まかなカテゴリ分類を行った
後、そのカテゴリ分類データを用いて教師あり学習型ニ
ューラルネットワークB02が最終的な認識結果を出力
する場合の構成で、図6に示す思想を応用したものであ
る。
FIG. 15 (a) shows that the rough classification is first performed by the unsupervised learning network B01, and then the supervised learning type neural network B02 outputs the final recognition result using the category classification data. In this case, the concept shown in FIG. 6 is applied.

【0068】図19に教師なし学習型ネットワークB0
1の処理イメージを示す。教師なし学習型ニューラルネ
ットワークの場合、各ユニットは基本的には処理対象画
像の全ユニット出力を入力として受取り、各ユニット内
部処理の結果、最も大きな出力値を出しているユニット
を中心にその入力対象画像に対するカテゴリを形成する
ように学習が進行する(図中、影付きのユニットがカテ
ゴリの中心ユニットを意味する)。
FIG. 19 shows an unsupervised learning type network B0.
1 shows a processing image. In the case of an unsupervised learning type neural network, each unit basically receives as input all unit outputs of the image to be processed, and as a result of the internal processing of each unit, focuses on the unit that outputs the largest output value Learning proceeds so as to form a category for the image (in the figure, a shaded unit means a central unit of the category).

【0069】十分な処理対象画像を学習後の教師なし学
習型ニューラルネットワークB01は、新たに提示され
た処理対象画像に対して、その分類カテゴリデータを出
力することが可能となる。このデータをシンボリックな
認識につなげるため、次段の処理として教師あり学習型
ニューラルネットワークB02が用意される。教師あり
学習型ニューラルネットワークB02の処理イメージを
図20に示す。
The unsupervised learning type neural network B01 after learning the sufficient image to be processed can output the classification category data for the newly presented image to be processed. In order to link this data to symbolic recognition, a supervised learning neural network B02 is prepared as the next process. FIG. 20 shows a processing image of the supervised learning type neural network B02.

【0070】教師なし学習型ネットワークB02による
カテゴリ分類は、ある意味で粗い予備分類を行っている
と言える。これよりさらに明確な情報圧縮を行うため
に、特徴抽出用の機能モジュールを付加したものが、図
15(b)に示す構成である。この場合、従来用いられ
ているような特徴抽出装置B03が利用可能な場合に
は、それを合わせて組込み・利用できる。
In the category classification by the unsupervised learning type network B02, it can be said that in a certain sense, coarse preliminary classification is performed. FIG. 15B shows a configuration in which a function module for feature extraction is added in order to perform clearer information compression. In this case, if the feature extraction device B03 as conventionally used is available, it can be combined and used together.

【0071】図21に特徴抽出ネットワークB04の構
成時の処理イメージを示す。このネットワークでは、入
力層と出力層とのユニット数は等しく、かつ、入力層の
ユニット数>>第2中間層のユニット数(一般的には、中
央の層のユニット数)の関係が成り立っている。ネット
ワークは、入力として提示された画像と同一のものを出
力するように学習が行われるので、通常の教師あり学習
型ネットワークとしてなんらかわりはない。学習終了後
の中央中間層(図の場合は、第2中間層)の出力パター
ンは、入力画像をネットワーク出力層で再生するのに十
分な情報を有しているという意味で、特徴量信号ベクト
ルとなっていると解釈できる。よって、このネットワー
ク中の前半3層(入力層と第1・2中間層)で構成され
るネットワークは、特徴抽出ネットワークB04として
利用できる。従来特徴抽出手法が利用可能であるなら
ば、その特徴パラメータと合わせて、ユニットB05に
より、適宜、選択・合成を行って得られた最終的な特徴
パラメータを用いて、最終の認識結果が教師あり学習型
ニューラルネットワークB02を介して与えられること
となる。
FIG. 21 shows a processing image at the time of configuring the feature extraction network B04. In this network, the number of units in the input layer and the number of units in the output layer are equal, and the relationship of the number of units in the input layer >> the number of units in the second intermediate layer (generally, the number of units in the center layer) holds. I have. The network is trained so as to output the same image as the image presented as an input, so there is no change as a normal supervised learning type network. The output pattern of the middle hidden layer (the second hidden layer in the case of the figure) after the learning is completed has a feature amount signal vector in the sense that it has enough information to reproduce the input image at the network output layer. Can be interpreted as Therefore, the network composed of the first three layers (the input layer and the first and second intermediate layers) in this network can be used as the feature extraction network B04. If the conventional feature extraction method is available, the final recognition result is supervised by the unit B05 using the final feature parameters obtained by appropriately selecting and combining the feature parameters together with the feature parameters. It is provided via the learning type neural network B02.

【0072】得られた特徴量がなお冗長なデータである
場合には、図15(c)に示すように、さらにそのカテ
ゴリ分類を行う教師なし学習型ネットワークB01を機
能ブロックとして組込んだ図15(c)のような構成を
とることも可能である。この(b)や(c)の構成の発
展形として、さらに多数の教師なし学習型ニューラルネ
ットワークや教師あり学習型ニューラルネットワークを
組込み、分類・認識の細分化・高機能化を図ることが当
然考えられるが、その際にも、本大規模データ分類・認
識装置の構成をとることで、少数のハードウエア資源を
用いて大規模な認識システムを実用的なレベルで実現す
ることができる。
If the obtained feature is still redundant data, as shown in FIG. 15C, the unsupervised learning type network B01 for further performing the category classification is incorporated as a functional block. It is also possible to adopt a configuration as shown in FIG. As a development of the configurations of (b) and (c), it is naturally considered that a large number of unsupervised learning neural networks and supervised learning neural networks are incorporated to achieve subdivision and high functionality of classification and recognition. However, also in this case, by adopting the configuration of the large-scale data classification / recognition apparatus, a large-scale recognition system can be realized at a practical level using a small number of hardware resources.

【0073】ここで、図22を比較参照すると、ここで
は、各機能実現ニューラルネットワークを個別ハードウ
エアユニットで構成しており、教師なし学習型ニューラ
ルネットワーク処理装置11は、処理シーケンス管理装
置41からの指示により処理データ記憶装置4からデー
タを読込み、ネットワーク処理装置11内部に設置され
た結合重み保持メモリ31に保持されている結合重みに
基づき処理を行い処理結果を該処理データ4に書き出
す。この教師なし学習型ニューラルネットワーク処理装
置11からの処理終了通知信号を受け、シーケンス管理
装置41に下位の教師あり学習型ニューラルネットワー
ク処理装置21へ処理開始の指示を送る。処理開始の指
示を受けた該教師あり学習型ニューラルネットワーク処
理装置21は、教師なし学習型ニューラルネットワーク
処理装置11の場合と同様に、個々のネットワーク中の
設置された内部メモリ32内に保持された結合重みのデ
ータに基づいて処理を行い最終結果が出力される。これ
らの処理では、教師なし学習型ニューラルネットワーク
処理装置11はそのアーキテクチュアに対して求められ
る処理が1つであるため処理装置に無駄がないが、下位
の教師あり学習型ニューラルネットワーク処理装置21
に関しては、同一のアーキテクチュアをもつネットワー
ク処理であるにもかかわらず、処理の数だけネットワー
ク処理装置が必要となり、無駄が多い。
Here, referring to FIG. 22, the neural network for realizing each function is constituted by an individual hardware unit, and the unsupervised learning-type neural network processing device 11 Data is read from the processing data storage device 4 in accordance with the instruction, processing is performed based on the connection weight held in the connection weight holding memory 31 installed inside the network processing device 11, and the processing result is written to the processing data 4. Upon receiving the processing end notification signal from the unsupervised learning type neural network processing device 11, the sequence management device 41 is instructed to start processing to the lower-order supervised learning type neural network processing device 21. The supervised learning-type neural network processing device 21 that has received the processing start instruction is held in the internal memory 32 installed in each network, similarly to the case of the unsupervised learning-type neural network processing device 11. Processing is performed based on the connection weight data, and the final result is output. In these processes, the unsupervised learning type neural network processing device 11 has only one process required for its architecture, so there is no waste in the processing device.
Regarding the above, despite the fact that the network processing has the same architecture, the number of network processing devices required is the same as the number of processings, which is wasteful.

【0074】特に、ニューラルネットワーク処理装置が
専用の処理ボードであるような場合は、システム構成上
要求されるハードウエア資源が過大となり、他のシステ
ムとの共存が困難になるため著しく実用性を欠くことに
なる。
In particular, when the neural network processing device is a dedicated processing board, the hardware resources required for the system configuration become excessively large, and coexistence with other systems becomes difficult. Will be.

【0075】前述した図13に示す実施例は、この問題
点を解決するもので、多数ニューラルネットワーク処理
を最低限の数の実処理装置で実現でき、大規模データ認
識の各分野への実用的な応用を可能とする。
The embodiment shown in FIG. 13 described above solves this problem. The neural network processing can be realized by a minimum number of actual processing devices, and practically applicable to various fields of large-scale data recognition. Application is possible.

【0076】ここにおいて、入出力数や中間層数の非常
に多い大規模ニューラルネットワークを構成するとき、
ニューラルネットワーク素子をそれぞれ一つのハードウ
エアで構成した場合には、ハードウエア素子数が膨大と
なり、それに伴う結線数も非常に多くなる。その結果、
ニューラルネットワークシステム回路の信頼性は低下し
て、実現のためのハードウエアの占める面積も非常に広
いスペースが必要となる。
Here, when constructing a large-scale neural network having a very large number of input / outputs and intermediate layers,
When each neural network element is configured by one piece of hardware, the number of hardware elements becomes enormous, and the number of connections associated therewith becomes very large. as a result,
The reliability of the neural network system circuit is reduced, and a very large space is required for the realization of the hardware.

【0077】そこで、1つのニューラルネットワークハ
ードウエア素子の入力信号、出力信号を計算機のソフト
ウエアで制御し、見かけ上、複数のニューラルネットワ
ーク素子によって構成されるニューラルネットワークを
ソフトウエア的に構成することが考えられる。すなわ
ち、ニューラルネットワーク素子間の重み係数データや
各ニューラルネットワーク素子の入出力信号データを、
外部バスを用いて計算機RAMに読込み、計算機中のC
PUで演算後に再度外部バスを通してニューラルネット
ワーク素子の結合重み係数や入出力信号データとして各
ニューラルネットワーク素子に転送すればニューラルネ
ットワークとしての実現は可能である。
Therefore, the input signal and the output signal of one neural network hardware element are controlled by software of a computer, so that a neural network constituted by a plurality of neural network elements is apparently configured as software. Conceivable. That is, the weight coefficient data between the neural network elements and the input / output signal data of each neural network element are
It is read into the computer RAM using the external bus, and C in the computer is read.
A neural network can be realized by performing a calculation by the PU and transferring the connection weight coefficient of the neural network element and input / output signal data to each neural network element again via an external bus.

【0078】しかしながら、外部バスを用いてニューラ
ルネットワーク素子と計算機とのデータの転送には非常
に時間がかかること、計算機のCPUは汎用であり、ニ
ューラルネットワーク素子としては最適時間で計算され
ているわけではないことのために、大規模ニューラルネ
ットワークの学習や順方向伝播には膨大な時間を要する
ことになる。
However, it takes a very long time to transfer data between the neural network element and the computer using the external bus, and the CPU of the computer is general-purpose. However, learning and forward propagation of a large-scale neural network require a huge amount of time.

【0079】このような観点から図13に示す装置のよ
うに、一つのネットワークハードウエアに対する、必要
なネットワーク構造情報の入替えによって少数のハード
ウエア資源で、見かけ上、多機能大規模ニューラルネッ
トワークを構成することができ、1チップ化の実現が可
能となる。
From this point of view, a multifunctional large-scale neural network is apparently configured with a small number of hardware resources by replacing necessary network structure information with one network hardware as shown in FIG. This makes it possible to realize a single chip.

【0080】図23はそのハードウエア構成例を示すブ
ロック図、図24はその順方向伝播コントロールアルゴ
リズム、図25は逆方向伝播コントロールアルゴリズム
の各フローチャートである。
FIG. 23 is a block diagram showing an example of the hardware configuration, FIG. 24 is a flowchart of the forward propagation control algorithm, and FIG. 25 is a flowchart of the backward propagation control algorithm.

【0081】まず、図23において、D01はニューラ
ルネットワークハードウエア素子であり、算術演算回
路、RAM、ROMなどが含まれており、ニューラルネ
ットワーク素子としての基本演算を行う。ニューラルネ
ットワークハードウエア素子D01は、各ニューラルネ
ットワーク素子間の重み係数データ、各ニューラルネッ
トワーク素子の入出力信号データが内部データバスを介
して、それぞれ各ニューラルネットワーク素子間の結合
重み係数を保存するために用いるニューラルネットワー
ク結合係数メモリD02、各ニューラルネットワーク素
子の入出力信号データを保存するために用いるニューラ
ルネットワーク素子入出力信号メモリD03と結合され
ており、データの転送ができる。ニューラルネットワー
クハードウエア素子D01とニューラルネットワーク結
合係数メモリD02、ニューラルネットワーク素子入出
力信号メモリD03とのデータ転送の制御は内部データ
バスコントローラD07によって行われ、ニューラルネ
ットワーク素子装置と外部装置とのデータの転送につい
ては外部データバスコントローラD04が行う。内部デ
ータバスコントローラD07は主としては、ニューラル
ネットワークハードウエア素子D01とメモリD02,
D03とのデータ転送を担当するためにデータ転送の高
速化が図れる。プログラムコントローラD05は、一つ
のニューラルネットワークハードウエア素子D01を複
数個のニューラルネットワーク素子として用いる場合の
ソフトウエアの設定、およびそのソフトウエアに従った
シーケンス制御を行う。また、アドレス発生部D06
は、プログラムコントローラの命令に従って、ニューラ
ルネットワークハードウエア素子D01に読込むデータ
やメモリD02,D03に書込むデータのアドレスを発
生する。
First, in FIG. 23, D01 is a neural network hardware element, which includes an arithmetic operation circuit, a RAM, a ROM, etc., and performs basic operations as a neural network element. The neural network hardware element D01 is used to store weighting coefficient data between the respective neural network elements and input / output signal data of the respective neural network elements via the internal data bus so as to store connection weighting coefficients between the respective neural network elements. The neural network coupling coefficient memory D02 to be used is connected to the neural network element input / output signal memory D03 used to store input / output signal data of each neural network element, so that data can be transferred. The control of data transfer between the neural network hardware element D01, the neural network coupling coefficient memory D02, and the neural network element input / output signal memory D03 is performed by the internal data bus controller D07, and the data transfer between the neural network element device and the external device. Is performed by the external data bus controller D04. The internal data bus controller D07 mainly includes a neural network hardware element D01 and a memory D02,
Since the data transfer with D03 is performed, the speed of the data transfer can be increased. The program controller D05 performs software setting when one neural network hardware element D01 is used as a plurality of neural network elements, and performs sequence control according to the software. Further, the address generation unit D06
Generates an address of data to be read into the neural network hardware element D01 or data to be written into the memories D02 and D03 in accordance with a command of the program controller.

【0082】このように構成されたニューラルネットワ
ークチップの学習処理は、図24に示す順方向伝播アル
ゴリズム、図25に示す逆方向伝播アルゴリズムにより
可能であり、これらのアルゴリズムはプログラムコント
ロールD05により実行される。
Learning processing of the neural network chip configured as described above can be performed by the forward propagation algorithm shown in FIG. 24 and the backward propagation algorithm shown in FIG. 25, and these algorithms are executed by the program control D05. .

【0083】まず、順方向伝播コントロールアルゴリズ
ムを示す図24を参照すると、まず、ステップE01に
おいて、ニューラルネットワーク素子iの入力に結合さ
れているすべての結合係数WijをメモリD02から読込
む。このiというのは、一つのニューラルネットワーク
素子D01をソフトウエア的に多数のニューラルネット
ワーク素子として使用することを考えたときのソフトウ
エアにより実現される各ニューラルネットワーク素子に
対して用いている符号である。このステップE01では
一つのニューラルネットワーク素子iについての結合係
数WijをメモリD02から読込むこととなる。続いて、
ステップE02においては、ニューラルネットワーク素
子iに対して入力信号をメモリD03から読込む。次い
で、ステップE03で、ニューラルネットワーク素子i
に対して必要なすべてのデータをメモリからニューラル
ネットワークハードウエア素子D01に読込んだことを
確認後、ステップE04において、ニューラルネットワ
ークハードウエア素子D01を計算動作させ、その結果
を得る。その計算結果は、ステップE05において、ニ
ューラルネットワーク素子iからソフトウエア的に捕ら
えたときの別のニューラルネットワーク素子kへの出力
値をメモリD03に書込む。すべてのニューラルネット
ワーク素子i,k,…について計算すれば最終的なニュ
ーラルネットワークの出力値が得られることとなる。
First, referring to FIG. 24 showing the forward propagation control algorithm, first, in step E01, all the coupling coefficients Wij coupled to the input of the neural network element i are read from the memory D02. This i is a code used for each neural network element realized by software when one neural network element D01 is considered to be used as a large number of neural network elements by software. . In this step E01, the coupling coefficient Wij for one neural network element i is read from the memory D02. continue,
In step E02, an input signal to the neural network element i is read from the memory D03. Next, in step E03, the neural network element i
After confirming that all necessary data has been read from the memory into the neural network hardware element D01, in step E04, the neural network hardware element D01 is operated to calculate and obtain the result. As a result of the calculation, in step E05, an output value to another neural network element k when captured from the neural network element i by software is written to the memory D03. By calculating for all the neural network elements i, k,..., The final output value of the neural network can be obtained.

【0084】次に、誤差逆伝播学習は、学習データに対
して順方向伝播を行った後、ニューラルネットワークの
出力値と規範出力との誤差に基づいて各ニューラルネッ
トワーク素子間の結合重み係数が計算される。具体的な
計算アルゴリズムは、例えば、コンピュートロールN
o.24pp53〜60を参照されると良い。
Next, in the error back propagation learning, after forward propagation is performed on the learning data, a connection weight coefficient between the neural network elements is calculated based on an error between the output value of the neural network and the reference output. Is done. A specific calculation algorithm is, for example, Compute roll N
o. 24 pp 53 to 60 may be referred to.

【0085】ここで、この逆方向伝播コントロールアル
ゴリズムを示す図25を参照すると、まず、ステップF
01として図24に示すアルゴリズムが含まれており、
ここにおいて学習データを用いた順方向伝播によりニュ
ーラルネットワーク装置の出力を順方向伝播コントロー
ルアルゴリズムに従って計算する。その後、に逆方向伝
播学習の本体部に入る。まず、ステップF02にてニュ
ーラルネットワーク装置の出力信号と規範出力との誤
差、メモリD02に格納されている出力層との結合重み
係数に基づき、誤差逆伝播アルゴリズムを用いて出力層
と出力層から一つ前の中間層への伝播誤差、更新された
結合重み係数を計算する。次に、出力層から入力層方向
の順序で結合重み係数の更新を行うこととなり、まず、
ステップF03において、ニューラルネットワーク素子
iとニューラルネットワーク素子iの出力が入力となっ
ているニューラルネットワーク素子jとの結合重み関数
WijをメモリD02から読込み、続いてステップF04
においてニューラルネットワーク素子iの学習データに
対する出力値をメモリD03からニューラルネットワー
クハードウエア素子D01に読込む。更に、ステップF
05において出力層から順番に計算された伝播誤差をメ
モリD03から読込む。その後、ステップF06にて、
誤差逆伝播アルゴリズムを用いて次の中間層に伝播する
誤差、および更新後の結合重み係数Wijを計算し、ステ
ップF07で、計算された伝播誤差、結合重み係数の更
新まで行われる。その後、ステップF08において、ソ
フトウエア的に全てのニューラルネットワーク素子に対
しての計算が終了したか否かの判定がなされ、その結果
がYESになるまでステップF03〜ステップF07を
繰返すこととなる。
Here, referring to FIG. 25 showing the backward propagation control algorithm, first, in step F
01 includes the algorithm shown in FIG.
Here, the output of the neural network device is calculated according to the forward propagation control algorithm by the forward propagation using the learning data. After that, the main part of the back propagation learning is entered. First, in step F02, based on the error between the output signal of the neural network device and the reference output, and the coupling weight coefficient between the output layer and the output layer stored in the memory D02, one of the output layers and the output layer is determined using an error back propagation algorithm. Calculate the propagation error to the previous intermediate layer and the updated coupling weight coefficient. Next, the connection weight coefficient is updated in the order from the output layer to the input layer.
In step F03, a connection weight function Wij between the neural network element i and the neural network element j to which the output of the neural network element i is input is read from the memory D02.
, The output value for the learning data of the neural network element i is read from the memory D03 to the neural network hardware element D01. Step F
At 05, the propagation errors calculated in order from the output layer are read from the memory D03. Then, in step F06,
The error to be propagated to the next intermediate layer and the updated connection weight coefficient Wij are calculated using the error backpropagation algorithm, and in step F07, the calculated propagation error and the updated connection weight coefficient are updated. Thereafter, in step F08, it is determined by software whether or not the calculation has been completed for all the neural network elements, and steps F03 to F07 are repeated until the result becomes YES.

【0086】以上のように1チップ型ニューラルネット
ワーク装置とすれば、ニューラルネットワークハードウ
エア素子数を増やすことなく大規模ニューラルネットワ
ークが構成できるのでニューラルネットワーク装置に必
要なスペースを削減することができ、結線数も少なくて
済むのでニューラルネットワーク装置としての信頼性の
向上が期待でき、ニューラルネットワークハードウエア
素子とニューラルネットワークデータ保存用RAM間の
データ転送も、同一チップ上に構成された内部データバ
スを介して行うことができるので、データの高速転送が
可能となり、ニューラルネットワーク装置の計算時間の
短縮化が図れる。また、これらの素子を同一のチップ上
に構成するためにハードウエア素子としての信頼性も向
上することとなる。
As described above, in the case of a one-chip type neural network device, a large-scale neural network can be configured without increasing the number of neural network hardware elements, so that the space required for the neural network device can be reduced, and connection can be made. Since the number is small, the reliability as a neural network device can be expected to improve, and the data transfer between the neural network hardware elements and the RAM for storing the neural network data is also performed via an internal data bus configured on the same chip. As a result, the data can be transferred at a high speed, and the calculation time of the neural network device can be reduced. Further, since these elements are configured on the same chip, the reliability as hardware elements is also improved.

【0087】[0087]

【発明の効果】以上説明したように本発明によれば、従
来実現することができなかった、多数の学習データによ
り多数の認識ルールを自動的に獲得する大規模情報認識
装置を実現することができる。また、このルール獲得に
要する反復計算回数も現実的回数である。さらに、各ニ
ューラルネットワークユニットは通常数十程度のニュー
ロンから成るので、その結合回路の数は実現可能な数と
なり、さらに、ユニット間の結合回路に関しても、各々
のユニットの入力信号と出力信号ラインから構成されて
いるので、容易に実現可能な回路数であり、従来大規模
ニューラルネットワーク回路で問題となっていた結合回
路数の爆発の問題も回避できる。
As described above, according to the present invention, it is possible to realize a large-scale information recognition apparatus which can not be realized conventionally and automatically obtains a large number of recognition rules from a large number of learning data. it can. Further, the number of repetitive calculations required for acquiring the rule is also a realistic number. Further, since each neural network unit is usually composed of several tens of neurons, the number of connecting circuits is a feasible number. Further, regarding the connecting circuits between the units, the input signal and the output signal line of each unit are used. Since it is configured, the number of circuits can be easily realized, and the problem of explosion of the number of coupling circuits, which has conventionally been a problem in large-scale neural network circuits, can be avoided.

【0088】そして、複数段のクラスタリング処理によ
るカテゴリ分類を採用した場合には、各最終分類カテゴ
リに属する学習データ数を十分絞っておけば、階層構造
型のニューラルネットワーク構成を有するカテゴリ別認
識装置による学習はほぼその収束が保証され、実用的な
エンジニアリング負荷で、認識システムを構成すること
が可能になると共に、大規模データ群の適切かつ高速な
認識・分類が実現されることとなる。
When a category classification by a plurality of stages of clustering processing is employed, the number of learning data belonging to each final classification category is sufficiently reduced, and a category-based recognition device having a hierarchically structured neural network configuration is used. The convergence of learning is almost guaranteed, and a recognition system can be configured with a practical engineering load, and appropriate and high-speed recognition and classification of a large-scale data group can be realized.

【0089】また、限られた数のネットワークハードウ
エア資源をこれに対するデータの入替えによって多数の
ネットワークとして利用する思想によれば、多数ニュー
ラルネットワーク処理を最低限の数の実処理装置で実現
でき、大規模データ認識の各分野への実用的な応用を可
能とする。さらに、1チップ化を考えた場合、ニューラ
ルネットワークハードウエア素子数を増やすことなく大
規模ニューラルネットワークが構成できるのでニューラ
ルネットワーク装置に必要なスペースを削減することが
でき、結線数も少なくて済むのでニューラルネットワー
ク装置としての信頼性の向上が期待でき、ニューラルネ
ットワークハードウエア素子とニューラルネットワーク
データ保存用RAM間のデータ転送も、同一チップ上に
構成された内部データバスを介して行うことができるの
で、データの高速転送が可能となり、ニューラルネット
ワーク装置の計算時間の短縮化が図れる。また、これら
の素子を同一のチップ上に構成するためにハードウエア
素子としての信頼性も向上することとなる。
Also, according to the idea of using a limited number of network hardware resources as a large number of networks by exchanging data for the hardware resources, a large number of neural network processing can be realized with a minimum number of actual processing devices. Enables practical application of scale data recognition to various fields. Furthermore, when considering a single chip, a large-scale neural network can be configured without increasing the number of neural network hardware elements, so that the space required for the neural network device can be reduced, and the number of connections can be reduced. The reliability of the network device can be improved, and the data transfer between the neural network hardware element and the RAM for storing the neural network data can be performed through the internal data bus configured on the same chip. Can be transferred at a high speed, and the calculation time of the neural network device can be reduced. Further, since these elements are configured on the same chip, the reliability as hardware elements is also improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る大規模情報認識装置で
あるニューラルネットワークボードの構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing a configuration of a neural network board which is a large-scale information recognition device according to one embodiment of the present invention.

【図2】図1に示す装置を組込んだ画像認識装置の構成
を示すブロック図。
FIG. 2 is a block diagram showing a configuration of an image recognition device incorporating the device shown in FIG.

【図3】その動作の一例を示す説明図。FIG. 3 is an explanatory diagram showing an example of the operation.

【図4】本発明の大規模情報認識装置の学習処理の構成
を示すフローチャート。
FIG. 4 is a flowchart showing a configuration of a learning process of the large-scale information recognition device of the present invention.

【図5】同装置の認識処理の構成を示すフローチャー
ト。
FIG. 5 is a flowchart showing a configuration of a recognition process of the apparatus.

【図6】本装置の基本構成を示すブロック図。FIG. 6 is a block diagram showing a basic configuration of the present apparatus.

【図7】カテゴリ分類装置を構成する教師なし学習型ニ
ューラルネットワークの構成処理におけるポインティン
グデバイスを用いた各段のクラスタ指定処理を示す説明
図。
FIG. 7 is an explanatory diagram showing a cluster designation process of each stage using a pointing device in a configuration process of an unsupervised learning type neural network constituting the category classification device.

【図8】カテゴリ分類装置を構成する教師なし学習型ニ
ューラルネットワークの分類処理を示す説明図。
FIG. 8 is an explanatory diagram showing a classification process of an unsupervised learning neural network constituting the category classification device.

【図9】カテゴリ別認識装置を構成する教師あり学習型
ニューラルネットワークの構成を示す説明図。
FIG. 9 is an explanatory diagram showing a configuration of a supervised learning type neural network constituting the category-specific recognition device.

【図10】本実施例の比較対象となる従来の大規模情報
認識処理の基本思想を示すブロック図。
FIG. 10 is a block diagram showing a basic concept of a conventional large-scale information recognition process to be compared with the embodiment.

【図11】従来の大規模情報認識装置の一例としてニュ
ーラルネットワーク組合わせによる文字認識装置の構成
を示すブロック図。
FIG. 11 is a block diagram showing a configuration of a character recognition device using a combination of neural networks as an example of a conventional large-scale information recognition device.

【図12】従来の教師なし学習型ニューラルネットワー
クと教師あり学習型ニューラルネットワークとの組合わ
せ構成を示す説明図。
FIG. 12 is an explanatory diagram showing a combination configuration of a conventional unsupervised learning neural network and a supervised learning neural network.

【図13】別態様に係る本発明大規模情報認識装置の構
成を示すブロック図。
FIG. 13 is a block diagram showing a configuration of a large-scale information recognition device according to another embodiment of the present invention.

【図14】その装置を回収ボイラプラントのチャーベッ
ト形状認識に適用した場合のシステム構成を示すブロッ
ク図。
FIG. 14 is a block diagram showing a system configuration in a case where the apparatus is applied to charbet shape recognition of a recovery boiler plant.

【図15】その中核をなす大規模情報認識装置の具体的
構成例を示すブロック図。
FIG. 15 is a block diagram showing a specific configuration example of a large-scale information recognition device that forms the core of the device.

【図16】回収ボイラプラントの概要説明図。FIG. 16 is a schematic explanatory diagram of a recovery boiler plant.

【図17】チャーベットの各種形状例を示す説明図。FIG. 17 is an explanatory view showing examples of various shapes of the charbet.

【図18】チャーベットの前処理結果イメージの説明
図。
FIG. 18 is an explanatory diagram of an image of a pre-processing result of char bet.

【図19】教師なし学習型ニューラルネットワークの認
識動作時の処理イメージ説明図。
FIG. 19 is an explanatory diagram of a processing image during a recognition operation of the unsupervised learning neural network.

【図20】教師あり学習型ニューラルネットワークの認
識動作時の処理イメージ説明図。
FIG. 20 is an explanatory diagram of a processing image at the time of a recognition operation of the supervised learning neural network.

【図21】教師あり学習型ニューラルネットワークの学
習時の処理イメージ図。
FIG. 21 is a processing image diagram during learning of a supervised learning type neural network.

【図22】大規模情報認識装置の参考例の構成を示すブ
ロック図。
FIG. 22 is a block diagram showing a configuration of a reference example of a large-scale information recognition device.

【図23】そのハードウエア構成例を示すブロック図。FIG. 23 is a block diagram showing an example of the hardware configuration.

【図24】その順方向伝播コントロールアルゴリズム。FIG. 24 shows the forward propagation control algorithm.

【図25】逆方向伝播コントロールアルゴリズムの各フ
ローチャート。
FIG. 25 is a flowchart of a backward propagation control algorithm.

【符号の説明】[Explanation of symbols]

NN ニューラルネットワーク素子 INt 教師データ伝送路 IN 処理対象データ伝送路 OUT 出力信号伝送路 SW 切替えスイッチ 104 ニューラルネットワークボード 401 カテゴリ分類装置 403 カテゴリ別認識装置 801 第1の認識処理手段となる教師なし学習型ニュ
ーラルネットワーク 802 第2の認識処理手段となる教師あり学習型ニュ
ーラルネットワーク 803 ネットワーク管理装置 804 処理対象情報記憶装置 805 ネットワーク構造情報記憶装置 806 ニューラルネットワーク切替え装置 905 大規模情報認識装置 D01 ニューラルネットワークハードウエア素子 D02 結合係数メモリ D03 入出力信号メモリ D04 外部データバスコントローラ D05 プログラムコントローラ D06 アドレス発生部 D07 内部データバスコントローラ
NN Neural network element INt Teacher data transmission path IN Data transmission path to be processed OUT Output signal transmission path SW Changeover switch 104 Neural network board 401 Category classification device 403 Category recognition device 801 Unsupervised learning neural network serving as first recognition processing means Network 802 Supervised learning-type neural network serving as second recognition processing means 803 Network management device 804 Information storage device to be processed 805 Network structure information storage device 806 Neural network switching device 905 Large-scale information recognition device D01 Neural network hardware element D02 Coupling coefficient memory D03 I / O signal memory D04 External data bus controller D05 Program controller D06 Address generator D07 Internal data bus controller

───────────────────────────────────────────────────── フロントページの続き (72)発明者 林 真 司 神奈川県川崎市幸区小向東芝町1 株式 会社東芝 研究開発センター内 (72)発明者 大 矢 純 子 神奈川県川崎市幸区小向東芝町1 株式 会社東芝 研究開発センター内 (72)発明者 千 田 有 一 神奈川県川崎市幸区小向東芝町1 株式 会社東芝 研究開発センター内 (72)発明者 村 井 雅 彦 神奈川県川崎市幸区小向東芝町1 株式 会社東芝 研究開発センター内 (56)参考文献 特開 平3−296880(JP,A) 電子情報通信学会論文誌 92/3 V ol.J75−D−▲II▼ No.3 p545−553 堀田健一他3名「大規模ニ ューラルネット“ComNET−▲II ▼”」 (58)調査した分野(Int.Cl.7,DB名) G06N 3/00 G06G 7/60 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shinji Hayashi 1 Toshiba-cho, Komukai, Saiwai-ku, Kawasaki-shi, Kanagawa Prefecture Inside the Toshiba R & D Center (72) Sumiko Oya, Innovator Sumiko Komukai, Kawasaki-shi, Kanagawa Toshiba Town 1 Toshiba R & D Center (72) Inventor Yuichi Senda Komukai Toshiba Town 1 Saiyuki-ku, Kawasaki City, Kanagawa Prefecture Toshiba R & D Center (72) Inventor Masahiko Murai Kawasaki, Kanagawa Prefecture 1 Tokoba, Komukai Toshiba-cho, Sachi-ku Toshiba R & D Center (56) References JP-A-3-296880 (JP, A) IEICE Transactions on Information and Systems 92/3 Vol. J75-D- ▲ II ▼ No. 3 p545-553 Kenichi Hotta et al. “Large-scale neural network“ ComNET-IIII ”” (58) Fields investigated (Int.Cl. 7 , DB name) G06N 3/00 G06G 7/60 JICST file (JOIS )

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ニューラルネットワークからなる複数の認
識処理用ユニットと、 該複数の認識処理用ユニット各々に対し個別に教師信号
を供給する複数の教師信号伝送路と、 前記複数の認識処理用ユニット各々に対し個別に処理対
象データを供給する複数の処理対象データ伝送路と、 前記複数の認識処理用ユニット各々の出力信号を個別に
伝送する複数の出力信号伝送路と、 前記複数の出力信号伝送路各々を前記複数の処理対象デ
ータ伝送路のうちの少なくとも一つと複数の外部送出伝
送路のうちの少なくとも一つとに切替え接続する切替え
手段とを備えていることを特徴とする大規模情報認識回
路。
A plurality of recognition processing units each comprising a neural network; a plurality of teacher signal transmission paths for individually supplying a teacher signal to each of the plurality of recognition processing units; each of the plurality of recognition processing units A plurality of processing target data transmission paths for individually supplying processing target data, a plurality of output signal transmission paths for individually transmitting output signals of the plurality of recognition processing units, and the plurality of output signal transmission paths. A large-scale information recognition circuit, comprising: switching means for switching and connecting each to at least one of the plurality of processing target data transmission paths and at least one of the plurality of external transmission transmission paths.
【請求項2】処理対象データについて複数段の教師なし
学習型ニューラルネットワークによりその概分類を行う
カテゴリ分類装置と、 該カテゴリ分類装置の最終段出力として決定されるカテ
ゴリ分類毎に前記処理対象データについて教師あり学習
型ニューラルネットワークにより最終的な情報認識を行
うカテゴリ別認識装置とを備えていることを特徴とする
大規模情報認識装置。
2. A category classifier for roughly classifying data to be processed by a plurality of stages of unsupervised learning neural networks, and for each category classified as a final stage output of the category classifier, A large-scale information recognition apparatus, comprising: a category-based recognition apparatus that performs final information recognition by a supervised learning type neural network.
【請求項3】少なくとも一つの教師なし学習型ニューラ
ルネットワークからなり、かつ所定の教師なし学習型用
のネットワーク構造情報が設定されることによりその機
能が決定される第1の認識処理手段と、 少なくとも一つの教師あり学習型ニューラルネットワー
クからなり、かつ所定の教師あり学習型用のネットワー
ク構造情報が設定されることによりその機能が決定され
る第2の認識処理手段と、 前記教師なし学習型用及び教師あり学習型用のネットワ
ーク構造情報を記憶する第1の記憶手段と、 前記第1、第2の認識処理手段における処理対象情報を
記憶する第2の記憶手段と、 前記第1、第2の認識処理手段の切替えと前記第1、第
2の記憶手段からの設定情報の切替えとを行うことによ
り、複数種の認識処理の実行を実現させる制御手段とを
備えていることを特徴とする大規模情報認識装置。
3. A first recognition processing means comprising at least one unsupervised learning type neural network, the function of which is determined by setting predetermined network structure information for unsupervised learning type; A second recognition processing means which is composed of one supervised learning type neural network, and whose function is determined by setting predetermined network structure information for supervised learning type; and A first storage unit for storing network structure information for a supervised learning type; a second storage unit for storing processing target information in the first and second recognition processing units; and a first and a second storage unit. By performing switching of the recognition processing unit and switching of the setting information from the first and second storage units, execution of a plurality of types of recognition processing is realized. A large-scale information recognition device, comprising: a control unit.
JP5051066A 1993-03-11 1993-03-11 Large-scale information recognition circuit Expired - Lifetime JP3035106B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP5051066A JP3035106B2 (en) 1993-03-11 1993-03-11 Large-scale information recognition circuit
US08/208,584 US5619619A (en) 1993-03-11 1994-03-11 Information recognition system and control system using same
US08/782,289 US5832183A (en) 1993-03-11 1997-01-13 Information recognition system and control system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5051066A JP3035106B2 (en) 1993-03-11 1993-03-11 Large-scale information recognition circuit

Publications (2)

Publication Number Publication Date
JPH06266688A JPH06266688A (en) 1994-09-22
JP3035106B2 true JP3035106B2 (en) 2000-04-17

Family

ID=12876432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5051066A Expired - Lifetime JP3035106B2 (en) 1993-03-11 1993-03-11 Large-scale information recognition circuit

Country Status (1)

Country Link
JP (1) JP3035106B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101113891B (en) * 2006-07-27 2011-06-29 三丰株式会社 Optical measuring machine

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096727B (en) * 2016-06-02 2018-12-07 腾讯科技(深圳)有限公司 A kind of network model building method and device based on machine learning
JP6853354B2 (en) * 2016-11-04 2021-03-31 グーグル エルエルシーGoogle LLC Mixed Expert Neural Network
WO2020023518A1 (en) * 2018-07-23 2020-01-30 Hrl Laboratories, Llc A method of real time vehicle recognition with neuromorphic computing network for autonomous driving
WO2020079843A1 (en) * 2018-10-19 2020-04-23 三菱電機株式会社 Elevator door device abnormality diagnostic system
JP7357225B2 (en) * 2020-03-27 2023-10-06 パナソニックIpマネジメント株式会社 How to perform inference
JP7487159B2 (en) * 2021-10-12 2024-05-20 キヤノン株式会社 Medical image processing device, medical image processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会論文誌 92/3 Vol.J75−D−▲II▼ No.3 p545−553 堀田健一他3名「大規模ニューラルネット"ComNET−▲II▼"」

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101113891B (en) * 2006-07-27 2011-06-29 三丰株式会社 Optical measuring machine

Also Published As

Publication number Publication date
JPH06266688A (en) 1994-09-22

Similar Documents

Publication Publication Date Title
Roli et al. Design of multiple classifier systems
US5832183A (en) Information recognition system and control system using same
CN112784964A (en) Image classification method based on bridging knowledge distillation convolution neural network
Chartier et al. NDRAM: Nonlinear dynamic recurrent associative memory for learning bipolar and nonbipolar correlated patterns
Delgado et al. A multiobjective genetic algorithm for obtaining the optimal size of a recurrent neural network for grammatical inference
CN112036260A (en) Expression recognition method and system for multi-scale sub-block aggregation in natural environment
Qi et al. Multi-scale capsule attention-based salient object detection with multi-crossed layer connections
KR20190098801A (en) Classificating method for image of trademark using machine learning
Zhang et al. Rich feature combination for cost-based broad learning system
JP3035106B2 (en) Large-scale information recognition circuit
Masood et al. Scene recognition from image using convolutional neural network
Tsang et al. Refinement of generated fuzzy production rules by using a fuzzy neural network
Zheng et al. Learning associative memories by error backpropagation
Kumara et al. Use of associative memory and self-organization in conceptual design
US5467427A (en) Memory capacity neural network
Klaseen et al. The functional link net in structural pattern recognition
CN112926517B (en) Artificial intelligence monitoring method
Tambouratzis A novel artificial neural network for sorting
Parekh et al. Constructive neural network learning algorithms for multi-category pattern classification
Bijjani et al. An M-ary neural network model
JP3485420B2 (en) Large-scale neural network construction equipment
Liang Problem decomposition and subgoaling in artificial neural networks
Chang et al. Polynomial and standard higher order neural network
Wu et al. Improved one-shot learning for feedforward associative memories with application to composite pattern association
JP3618007B2 (en) Neural network learning apparatus and learning method