JP3606982B2 - Pattern recognition device - Google Patents

Pattern recognition device Download PDF

Info

Publication number
JP3606982B2
JP3606982B2 JP01706996A JP1706996A JP3606982B2 JP 3606982 B2 JP3606982 B2 JP 3606982B2 JP 01706996 A JP01706996 A JP 01706996A JP 1706996 A JP1706996 A JP 1706996A JP 3606982 B2 JP3606982 B2 JP 3606982B2
Authority
JP
Japan
Prior art keywords
pattern
weight
recognition
output
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01706996A
Other languages
Japanese (ja)
Other versions
JPH09190420A (en
Inventor
貴史 北口
憲彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP01706996A priority Critical patent/JP3606982B2/en
Publication of JPH09190420A publication Critical patent/JPH09190420A/en
Application granted granted Critical
Publication of JP3606982B2 publication Critical patent/JP3606982B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明はパターン認識装置、特にパターン認識効率の向上に関するものである。
【0002】
【従来の技術】
入力パターンを認識するパターン認識装置としてはニューラルネットワークを用いてパターン認識をしているものがある。例えば特開平6−309464号公報に掲載した多判定器によるパターン認識装置では、複数の判定器群の出力結果と予め学習した辞書とを比較し、辞書の中で判定器の出力結果に最も近いパターンを最終パターン認識結果として出力してパターン認識の精度を高めている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記多判定器によるパターン認識装置においては、未学習の入力パターンに対して高い認識率を得るためには、数多くの辞書データを用意する必要があり、それら全てに対してマッチングを取るため計算時間が膨大になる。
【0004】
この発明はかかる短所を解消するためになされたものであり、パターン認識のための補助情報を用いて認識効率の向上を図ることを目的とする。
【0005】
【課題を解決するための手段】
この発明に係るパターン認識装置は、前処理装置と複数の判定器と重み供給器と複数の重み付加器と総合評価器を有し、前処理装置は認識対象パターンを入力して認識対象パターンの特徴を抽出し抽出した特徴を表す信号を各判定器に対して出力し、各判定器は前処理装置が出力した認識パターンの特徴を表す信号を基にそれぞれ異なったパターン認識基準によるパターン中間認識結果を表わす値を出力し、重み供給器はニューラルネットワーク演算手段を備え、パターン認識の補助情報を入力しパターン認識の補助情報の特徴を示す情報を求め、求めた補助情報の特徴を示す情報を基に各判定器からのパターン中間認識結果に加える複数の重み値を定め出力し、各重み付加器は判定器から出力されたパターンの中間認識結果を表わす値を重み供給器からの対応した重み値で重み付けし、総合評価器は重み付けされたパターン中間認識結果を表わす値を評価して最終パターン認識結果を出力して、パターン認識率を高めると同時にパターン認識時間を短縮する。
【0009】
【発明の実施の形態】
この発明のパターン認識装置は、ロボット及び情報機器における画像、音声及び文字等の入力パターンを認識するものであり、その入力パターン認識精度を高めると同時に認識時間の短縮を図るものである。
【0010】
パターン認識装置は、例えば前処理装置と複数の判定器と重み供給器と複数の重み付加器と総合評価器を有する。前処理装置は認識対象パターンを入力して認識対象パターンの特徴を抽出し、抽出した特徴を表す信号を各判定器に対して出力する。各判定器は前処理装置が出力した認識パターンの特徴を表す信号を入力して、例えばパターンマッチングをしてパターン中間認識結果を表わす値を出力する。なお、各判定器はそれぞれ認識方法が異なるものであっても良いし、認識できるパターン群が異なるものであっても良い。一方、重み供給器は、例えば予めパターン認識の各補助情報に対応した重み値を辞書として用意し、パターン認識のための補助情報を入力して各判定器からのパターン中間認識結果に加える複数の重み値を出力する。なお、パターン認識のための補助になる情報とは、例えばCCDカメラとマイクを備えたロボットで、CCDカメラが捕らえた画像パターンを認識する場合のマイクから入力した音声パターン情報のように、対象となるパターンの認識の補助に用いる情報で、前処理装置に入力した情報と異なった基準による情報をいう。
【0011】
各重み付加器は、例えば乗算器を備え、判定器からのパターンの中間認識結果を重み供給器からの重み値で重み付けする。総合評価器は各重み付加器が重み付けしたパターン中間認識結果を入力し、入力した値が最も大きいパターンを入力したパターンとして認識し最終的なパターン認識結果として出力して、パターン認識時間を短縮する。ここで、重み付けの方法としては、例えば判定器からのパターンの中間認識結果と重み供給器からの重み値の積をとる等の方法がある。
【0012】
なお、上記重み供給器、重み付加器及び総合評価器はニューラルネットワーク演算手段を備えるものであっても良い。ニューラルネットワーク演算手段は協調、競合作用及び自己組織化能力に基づいて入力信号をいくつかの特徴に分析すると共に、それらを統合するニューラルネットワークによって構成したものである。例えば総合評価器がニューラルネットワーク演算手段を備える場合は予め認識させたい重み付加器からの情報を実際に入力したときのデータをサンプリングしこれらのデータを入力層に入力し、出力層に分類したいパターン数分のニューロンを用意し、各パターンとニューロンを対応させておく。ある情報を重み付加器から入力したときそれに対応するニューロンの出力が「1」となり、それ以外のニューロンの出力が「0」となるように、例えば逆伝搬法(バックプロパゲーション法)等で学習させておく。ニューラルネットワーク演算手段はこのようにして得られた結合係数と同じ結合係数でニューラルネットワーク演算を行なう。
【0013】
【実施例】
図1はこの発明の一実施例のパターン認識装置を組み込んだ自走ロボットの構成図である。図に示すように、自走ロボットはパターン認識装置1、CCDカメラ2、マイク3、増幅器4及び音声信号加工部5を備える。
【0014】
パターン認識装置1は、図2に示すように前処理装置11、判定器群12、重み供給器13、重み付加部14及び総合評価器15を有し、認識対象パターンを示す信号を入力しパターン認識結果を出力する。前処理装置11は認識対象パターンとして、例えばCCDカメラ2からの画像信号を入力し、入力した認識対象パターンの特徴を抽出し、抽出した特徴を表す信号を判定器群12の各判定器12a〜12nに対して出力する。判定器群12は複数の判定器12a〜12nを備え、各判定器12a〜12nは前処理装置11が出力した認識パターンの特徴を表す信号を入力して、例えばパターンマッチングをしてパターン中間認識結果を表わす値を出力する。なお、前処理装置11が出力する信号は各判定器12a〜12nに対して同じものであっても良いし、判定器12a〜12n毎に異なったものであっても良い。各判定器12a〜12nは前処理装置1の出力方法に応じて、それぞれ認識方法が異なるものであっても良いし、それぞれ認識できるパターン群が異なるものであっても良い。
【0015】
重み供給器13は、例えば図3に示すようなニューラルネットワーク演算手段18を備え、パターン認識の補助情報としてマイク3からの音声信号のうち高周波成分を入力して、各判定器12a〜12nからのパターン中間認識結果に加える複数の重み値を出力する。なお、重み供給器13は、例えば予めパターン認識の各補助情報に対応した重み値を辞書として用意し、各判定器12a〜12nからのパターン中間認識結果に加える複数の重み値を出力するようにしても良い。ニューラルネットワーク演算手段18は協調、競合作用及び自己組織化能力に基づいて入力信号をいくつかの特徴に分析すると共に、それらを統合するニューラルネットワークによって構成したものである。ニューラルネットワーク演算手段18は実際に入力したサンプルデータをサンプリングしこれらのデータを入力層18aに入力し、出力層18cに分類したいパターン数分のニューロンを用意し、各パターンとニューロンを対応させておく。ある情報を入力したときそれに対応するニューロンの出力が「1」となり、それ以外のニューロンの出力が「0」となるように、例えば逆伝搬法(バックプロパゲーション法)等の学習法でで学習させておく。
【0016】
重み付加部14は複数の重み付加器14a〜14nを備え、各重み付加器14a〜14nは判定器12a〜12nからのパターンの中間認識結果を表わす値と重み供給器13からの重み値を入力しその積をとり、パターンの中間認識結果を重み付けする。総合評価器15は、例えば重み供給器と同様にニューラルネットワーク演算手段18を備え、各重み付加器14a〜14nが重み付けしたパターン中間認識結果を表わす値を入力して入力パターンの特徴を示す情報を求め、求めた入力パターンの特徴を示す情報を基に入力パターンを認識して最終パターン認識結果を出力する。
【0017】
CCDカメラ2は位置認識のための画像パターンの光信号を入力して、電気信号に変換する。マイク3は音声信号を電気信号に変換する。増幅器4はCCDカメラ2から入力した画像パターンの信号を増幅してパターン認識装置1の前処理装置11に出力する。音声信号加工部5はマイク3から入力した信号を増幅及び整形してパターン認識装置1の重み供給部13に出力する部分であり、例えばマイクからの信号の高周波成分を抽出してパターン認識装置1の重み供給部13に出力する。
【0018】
上記構成の自走式ロボットがCCDカメラ2からの入力パターンを認識して自分の居る場所を認識する場合の動作について、図4のフローチャートを参照して説明する。
【0019】
自走式ロボットは、例えばCCDカメラ2からの画像データをパターン認識対象の入力パターンとして、マイク3からの音声信号をパターン認識の補助情報として入力する(ステップS1)。前処理装置11は、例えばCCDカメラ2からの「256」×「256」画素の入力パターンを「16」×「16」の領域に分割し、その各領域毎に平均値を算出して「16」×「16」の特徴量パターンとして出力する(ステップS2)。判定器群12の各判定器12a〜12nは、例えばパターンマッチングにより場所毎の特徴量パターンを認識するものであり、図5(a)に示すように判定器12aは場所a1,場所a2及び場所a3の特徴量パターンを認識しそれぞれの場所に対する認識信頼度を示す値として「0.8」、「0.1」及び「0.0」を出力し、判定器12bは場所b1,場所b2及び場所b3の特徴量パターンを認識しそれぞれの場所に対する認識信頼度を示す値として「0.1」、「0.5」及び「0.2」を出力し、判定器12nは場所n1,場所n2及び場所n3の特徴量パターンを認識しそれぞれの場所に対する認識信頼度を示す値として「0.9」、「0.0」及び「0.9」を出力する(ステップS3)。
【0020】
ここで、それぞれの判定器12a〜12nが設置された場所で発生している音声の高周波スペクトルをスペクトルa〜スペクトルnとする。マイク3からの音声信号の高周波成分(例えば8サンプル)を重み供給器13内のニューラルネットワーク演算手段131に入力すると、重み供給器13はニューラルネットワーク演算手段131の出力ニューロンから各判定器12a,12b,12nの特徴量パターンの認識結果に加える重みを判定器12a,12b,12nの出力に対してそれぞれ「0.8」,「0.2」,「0.0」と定め出力する(ステップS4)。なお、各重みは入力した音声スペクトルと学習時の音声スペクトル(スペクトルa〜スペクトルn)との距離に応じて予め決定する。
【0021】
重み付加器14a,14b,14nは判定器12a,12b,12nの出力値と重み供給器13から入力した重みの積を取り、図5(b)に示すように場所a1,a2,a3,b1,b2,b3,n1,n2,n3に対してそれぞれ「0.64」,「0.08」,「0.0」,「0.02」,「0.1」,「0.04」,「0.0」,「0.0」,「0.0」を出力する(ステップS5)。総合評価器15は重み付加器14a,14b,14nが出力した値を入力し、各重み付加器14a,14b,14nの出力の最大値として、図5(c)に示すようにそれぞれ「0.64」,「0.1」,「0.0」を求める。ここで、場所a1に対する値である「0.64」が最大値であるので、総合評価器15は場所a1を自分の居る場所と認識して、図5(d)に示すように場所a1を示す信号を出力する(ステップS6)。
【0022】
このように、CCDカメラ2からの入力パターンを認識して自分の居る場所を認識する場合に、パターン認識の補助情報としてマイク3からの音声信号を入力し重み付けをするので、簡単な構成で迅速且つ高精度にパターン認識をすることができる。
【0023】
なお、上記実施例では重み付加器14a〜14nは判定器12a〜12nからのパターンの中間認識結果を表わす値と重み供給器13からの重み値を入力しその積を出力しているが、各重み付加器14a〜14nはそれぞれニューラルネットワーク演算手段18を備え、判定器12a〜12nからのパターン中間認識結果を表わす値と重み供給器13からの重み値を入力し重みを付加したパターンの特徴を示す情報を出力し、総合評価器15は各重み付加器14a〜14nから重みを付加したパターンの特徴を示す情報を入力して最終的なパターン認識結果を出力するようにしても良い。
【0024】
【発明の効果】
この発明は以上説明したように、認識対象パターンをニューラルネットワークに入力してパターン認識の補助情報の特徴を示す情報を求め、求めた補助情報の特徴を示す情報を基に各判定器からのパターン中間認識結果に加える複数の重み値を定め、認識対象パターンの特徴を抽出し抽出した特徴を基にパターンの中間的な認識をし、パターン認識の補助情報に応じてパターンの中間認識結果に重みを加え、最終的なパターン認識結果を出力するので、演算回数が少なくなり、パターン認識率を高めると同時にパターン認識時間を短縮することができる。
【図面の簡単な説明】
【図1】この発明の実施例を示す構成図である。
【図2】パターン認識装置の構成図である。
【図3】ニューラルネットワーク演算手段の構成図である。
【図4】自走式ロボットの動作を示すフローチャートである。
【図5】ニューラルネットワークの動作を説明する説明図である。
【符号の説明】
1 パターン認識装置
2 CCDカメラ
3 マイク
11 前処理装置
12 判定器群
13 重み供給器
14 重み付加部
15 総合評価器
18 ニューラルネットワーク演算手段
12a〜12n 判定器
14a〜14n 重み付加器
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pattern recognition apparatus, and more particularly to improvement of pattern recognition efficiency.
[0002]
[Prior art]
Some pattern recognition apparatuses that recognize input patterns recognize patterns using a neural network. For example, in the pattern recognition apparatus using a multi-determination device disclosed in Japanese Patent Application Laid-Open No. 6-309464, the output results of a plurality of determination device groups are compared with a previously learned dictionary, and the closest to the output result of the determination device in the dictionary. The pattern is output as the final pattern recognition result to improve the pattern recognition accuracy.
[0003]
[Problems to be solved by the invention]
However, in the pattern recognition apparatus using the multi-decision unit, in order to obtain a high recognition rate for an unlearned input pattern, it is necessary to prepare a large number of dictionary data, and to match all of them. Calculation time becomes enormous.
[0004]
The present invention has been made to eliminate such disadvantages, and an object thereof is to improve recognition efficiency by using auxiliary information for pattern recognition.
[0005]
[Means for Solving the Problems]
A pattern recognition device according to the present invention includes a preprocessing device, a plurality of determiners, a weight supply device, a plurality of weight adders, and a comprehensive evaluator. The preprocessing device inputs a recognition target pattern and inputs a recognition target pattern. Extracting features and outputting the extracted feature signals to each determiner, and each determiner performs pattern intermediate recognition based on different pattern recognition criteria based on the recognition pattern feature signals output by the preprocessor. A value representing the result is output, and the weight supplier is provided with a neural network computing means , inputs auxiliary information for pattern recognition to obtain information indicating the characteristics of auxiliary information for pattern recognition, and information indicating the characteristics of the auxiliary information thus obtained A plurality of weight values to be added to the pattern intermediate recognition result from each determiner are determined and output based on, and each weight adder outputs a value representing the intermediate recognition result of the pattern output from the determiner. The total evaluator evaluates the weighted pattern intermediate recognition result and outputs the final pattern recognition result to increase the pattern recognition rate and at the same time the pattern recognition time. To shorten.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
The pattern recognition apparatus according to the present invention recognizes input patterns such as images, voices, and characters in robots and information devices, and improves the input pattern recognition accuracy and shortens the recognition time.
[0010]
The pattern recognition device includes, for example, a preprocessing device, a plurality of determiners, a weight supplier, a plurality of weight adders, and a comprehensive evaluator. The preprocessing device inputs a recognition target pattern, extracts features of the recognition target pattern, and outputs a signal representing the extracted features to each determiner. Each determiner receives a signal representing the feature of the recognition pattern output from the preprocessing device, and performs pattern matching, for example, and outputs a value representing the pattern intermediate recognition result. Each of the determiners may have a different recognition method or may have a different pattern group that can be recognized. On the other hand, the weight supplier prepares, for example, a weight value corresponding to each auxiliary information for pattern recognition in advance as a dictionary, and inputs a plurality of auxiliary information for pattern recognition to be added to the pattern intermediate recognition result from each determiner. Output weight value. Note that the information for assisting pattern recognition is, for example, a robot equipped with a CCD camera and a microphone, such as voice pattern information input from a microphone when recognizing an image pattern captured by the CCD camera. This information is used for assisting in recognizing the pattern, and is information based on a different standard from the information input to the preprocessing device.
[0011]
Each weight adder includes a multiplier, for example, and weights the intermediate recognition result of the pattern from the determiner with the weight value from the weight supplier. The comprehensive evaluator inputs the pattern intermediate recognition result weighted by each weight adder, recognizes the pattern with the largest input value as the input pattern, and outputs it as the final pattern recognition result, thereby shortening the pattern recognition time . Here, as a weighting method, for example, there is a method of taking the product of the intermediate recognition result of the pattern from the determiner and the weight value from the weight supplier.
[0012]
The weight supplier, the weight adder, and the comprehensive evaluator may include a neural network calculation unit. The neural network computing means is constituted by a neural network that analyzes an input signal into several features based on cooperation, competitive action, and self-organization ability, and integrates them. For example, if the comprehensive evaluator is equipped with a neural network computing means, a pattern that samples the data when the information from the weight adder that you want to recognize in advance is actually input, inputs these data to the input layer, and is classified into the output layer Prepare a few minutes of neurons and associate each pattern with a neuron. When certain information is input from the weight adder, the corresponding neuron output is “1”, and other neuron outputs are “0”, for example, learning by the back propagation method (back propagation method), etc. Let me. The neural network computing means performs neural network computation with the same coupling coefficient as the coupling coefficient thus obtained.
[0013]
【Example】
FIG. 1 is a block diagram of a self-running robot incorporating a pattern recognition apparatus according to an embodiment of the present invention. As shown in the figure, the self-running robot includes a pattern recognition device 1, a CCD camera 2, a microphone 3, an amplifier 4, and an audio signal processing unit 5.
[0014]
As shown in FIG. 2, the pattern recognition device 1 includes a preprocessing device 11, a determiner group 12, a weight supplier 13, a weight adding unit 14, and a comprehensive evaluator 15, and receives a signal indicating a recognition target pattern and inputs a pattern. Output the recognition result. The preprocessing device 11 receives, for example, an image signal from the CCD camera 2 as a recognition target pattern, extracts the features of the input recognition target pattern, and uses the signals representing the extracted features as the determination devices 12a to 12 in the determination device group 12. Output to 12n. The determiner group 12 includes a plurality of determiners 12a to 12n. Each of the determiners 12a to 12n receives a signal representing the feature of the recognition pattern output from the preprocessing device 11, and performs pattern matching, for example, pattern intermediate recognition. A value representing the result is output. The signal output from the preprocessing device 11 may be the same for each of the determiners 12a to 12n, or may be different for each of the determiners 12a to 12n. Each of the determiners 12a to 12n may have a different recognition method or may have a different recognizable pattern group depending on the output method of the preprocessing device 1.
[0015]
The weight supplier 13 includes, for example, a neural network calculation means 18 as shown in FIG. 3 and inputs a high frequency component of the audio signal from the microphone 3 as auxiliary information for pattern recognition, and outputs from each of the determiners 12a to 12n. A plurality of weight values to be added to the pattern intermediate recognition result are output. The weight supplier 13 prepares, for example, a weight value corresponding to each auxiliary information for pattern recognition as a dictionary in advance, and outputs a plurality of weight values to be added to the pattern intermediate recognition results from the determiners 12a to 12n. May be. The neural network calculation means 18 is constituted by a neural network that analyzes an input signal into several features based on cooperation, competitive action, and self-organization ability, and integrates them. The neural network calculation means 18 samples actually input sample data, inputs these data to the input layer 18a, prepares neurons for the number of patterns to be classified in the output layer 18c, and associates each pattern with the neuron. . Learning with a learning method such as the back-propagation method (back-propagation method) so that when a certain information is input, the output of the corresponding neuron becomes “1” and the output of other neurons becomes “0”. Let me.
[0016]
The weight adding unit 14 includes a plurality of weight adders 14a to 14n, and each of the weight adders 14a to 14n receives a value representing an intermediate recognition result of the pattern from the determiners 12a to 12n and a weight value from the weight supplier 13. The product is taken, and the intermediate recognition result of the pattern is weighted. The comprehensive evaluator 15 includes, for example, a neural network calculation unit 18 like the weight supplier, and inputs information indicating the characteristics of the input pattern by inputting values representing the pattern intermediate recognition results weighted by the weight adders 14a to 14n. The input pattern is recognized based on the obtained information indicating the characteristics of the input pattern, and the final pattern recognition result is output.
[0017]
The CCD camera 2 inputs an optical signal of an image pattern for position recognition and converts it into an electrical signal. The microphone 3 converts an audio signal into an electric signal. The amplifier 4 amplifies the image pattern signal input from the CCD camera 2 and outputs the amplified signal to the preprocessing device 11 of the pattern recognition device 1. The audio signal processing unit 5 is a part that amplifies and shapes the signal input from the microphone 3 and outputs the amplified signal to the weight supply unit 13 of the pattern recognition apparatus 1. For example, the pattern recognition apparatus 1 extracts a high-frequency component of the signal from the microphone. To the weight supply unit 13.
[0018]
The operation when the self-propelled robot having the above configuration recognizes the input pattern from the CCD camera 2 and recognizes the place where it is located will be described with reference to the flowchart of FIG.
[0019]
The self-propelled robot inputs, for example, image data from the CCD camera 2 as an input pattern for pattern recognition and an audio signal from the microphone 3 as auxiliary information for pattern recognition (step S1). For example, the preprocessing device 11 divides the input pattern of “256” × “256” pixels from the CCD camera 2 into “16” × “16” areas, calculates an average value for each area, and calculates “16 ”ד 16 ”as a feature quantity pattern (step S2). Each of the determiners 12a to 12n in the determiner group 12 recognizes a feature amount pattern for each location by pattern matching, for example. As illustrated in FIG. 5A, the determiner 12a includes a location a1, a location a2, and a location. The feature amount pattern of a3 is recognized, and “0.8”, “0.1”, and “0.0” are output as values indicating the recognition reliability for each location, and the determiner 12b receives the locations b1, b2, and “0.1”, “0.5”, and “0.2” are output as values indicating the recognition reliability for each location by recognizing the feature amount pattern at the location b3, and the determiner 12n receives the location n1 and location n2. And the feature amount pattern of the place n3 is recognized, and “0.9”, “0.0”, and “0.9” are output as values indicating the recognition reliability for each place (step S3).
[0020]
Here, the high frequency spectrum of the sound generated at the place where each of the determiners 12a to 12n is installed is referred to as spectrum a to spectrum n. When a high-frequency component (for example, 8 samples) of the audio signal from the microphone 3 is input to the neural network calculation unit 131 in the weight supply unit 13, the weight supply unit 13 receives each of the determiners 12a and 12b from the output neuron of the neural network calculation unit 131. , 12n, the weights added to the recognition results of the feature amount patterns are determined as “0.8”, “0.2”, and “0.0” for the outputs of the determiners 12a, 12b, and 12n, respectively, and output (step S4). ). Each weight is determined in advance according to the distance between the input speech spectrum and the speech spectrum during learning (spectrum a to spectrum n).
[0021]
The weight adders 14a, 14b, and 14n take the products of the output values of the determiners 12a, 12b, and 12n and the weights input from the weight supplier 13, and place a1, a2, a3, b1 as shown in FIG. , B2, b3, n1, n2, and n3 are “0.64”, “0.08”, “0.0”, “0.02”, “0.1”, “0.04”, respectively. “0.0”, “0.0”, and “0.0” are output (step S5). The total evaluator 15 receives the values output from the weight adders 14a, 14b, and 14n, and sets the maximum value of the outputs of the weight adders 14a, 14b, and 14n to “0. 64 "," 0.1 ", and" 0.0 "are obtained. Here, since “0.64”, which is the value for the place a1, is the maximum value, the comprehensive evaluator 15 recognizes the place a1 as the place where it is, and sets the place a1 as shown in FIG. The signal shown is output (step S6).
[0022]
As described above, when the input pattern from the CCD camera 2 is recognized to recognize the place where the user is, the audio signal from the microphone 3 is input and weighted as auxiliary information for pattern recognition. In addition, pattern recognition can be performed with high accuracy.
[0023]
In the above-described embodiment, the weight adders 14a to 14n input values representing intermediate recognition results of patterns from the determiners 12a to 12n and weight values from the weight supplier 13, and output the products. Each of the weight adders 14a to 14n includes a neural network calculation means 18, and inputs the value representing the pattern intermediate recognition result from the determiners 12a to 12n and the weight value from the weight supplier 13 and adds the weight to the pattern features. The comprehensive evaluator 15 may output information indicating the characteristics of the pattern to which the weight is added from each of the weight adders 14a to 14n and output a final pattern recognition result.
[0024]
【The invention's effect】
As described above, the present invention obtains information indicating features of auxiliary information for pattern recognition by inputting a recognition target pattern into a neural network, and patterns from each determination unit based on the information indicating the features of the auxiliary information thus obtained. Define multiple weight values to be added to the intermediate recognition result, extract the features of the recognition target pattern, perform intermediate recognition of the pattern based on the extracted features, and weight the intermediate recognition result of the pattern according to the auxiliary information for pattern recognition In addition, since the final pattern recognition result is output, the number of calculations is reduced, the pattern recognition rate can be increased and the pattern recognition time can be shortened.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of the present invention.
FIG. 2 is a configuration diagram of a pattern recognition apparatus.
FIG. 3 is a block diagram of a neural network calculation means.
FIG. 4 is a flowchart showing the operation of the self-propelled robot.
FIG. 5 is an explanatory diagram for explaining the operation of a neural network.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Pattern recognition apparatus 2 CCD camera 3 Microphone 11 Preprocessing apparatus 12 Judgment device group 13 Weight supply device 14 Weight addition part 15 Comprehensive evaluation device 18 Neural network operation means 12a-12n Judgment devices 14a-14n Weight addition device

Claims (1)

前処理装置と複数の判定器と重み供給器と複数の重み付加器と総合評価器を有し、
前処理装置は認識対象パターンを入力して認識対象パターンの特徴を抽出し抽出した特徴を表す信号を各判定器に対して出力し、
各判定器は前処理装置が出力した認識パターンの特徴を表す信号を基にそれぞれ異なったパターン認識基準によるパターン中間認識結果を表わす値を出力し、
重み供給器はニューラルネットワーク演算手段を備え、パターン認識の補助情報を入力しパターン認識の補助情報の特徴を示す情報を求め、求めた補助情報の特徴を示す情報を基に各判定器からのパターン中間認識結果に加える複数の重み値を定め出力し、
各重み付加器は判定器から出力されたパターンの中間認識結果を表わす値を重み供給器からの対応した重み値で重み付けし、
総合評価器は重み付けされたパターン中間認識結果を表わす値を評価して最終パターン認識結果を出力することを特徴とするパターン認識装置。
A pre-processing device, a plurality of determiners, a weight supplier, a plurality of weight adders, and a comprehensive evaluator;
The preprocessing device inputs a recognition target pattern, extracts features of the recognition target pattern, and outputs a signal representing the extracted features to each determiner.
Each determiner outputs a value representing a pattern intermediate recognition result based on a different pattern recognition standard based on a signal representing the feature of the recognition pattern output by the preprocessing device,
The weight supply unit includes a neural network calculating means, inputs auxiliary information for pattern recognition , obtains information indicating characteristics of the auxiliary information for pattern recognition, and receives information from the respective determiners based on information indicating the characteristics of the auxiliary information obtained. Define and output multiple weight values to be added to the pattern intermediate recognition result,
Each weight adder weights the value representing the intermediate recognition result of the pattern output from the determiner with the corresponding weight value from the weight supplier,
A comprehensive evaluator evaluates a value representing a weighted pattern intermediate recognition result and outputs a final pattern recognition result.
JP01706996A 1996-01-08 1996-01-08 Pattern recognition device Expired - Fee Related JP3606982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01706996A JP3606982B2 (en) 1996-01-08 1996-01-08 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01706996A JP3606982B2 (en) 1996-01-08 1996-01-08 Pattern recognition device

Publications (2)

Publication Number Publication Date
JPH09190420A JPH09190420A (en) 1997-07-22
JP3606982B2 true JP3606982B2 (en) 2005-01-05

Family

ID=11933706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01706996A Expired - Fee Related JP3606982B2 (en) 1996-01-08 1996-01-08 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP3606982B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8428950B2 (en) 2007-02-06 2013-04-23 Nec Corporation Recognizer weight learning apparatus, speech recognition apparatus, and system
CN109686108B (en) * 2019-02-19 2023-11-21 广州华南路桥实业有限公司 Vehicle target track tracking system and vehicle track tracking method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3265701B2 (en) * 1993-04-20 2002-03-18 富士通株式会社 Pattern recognition device using multi-determiner

Also Published As

Publication number Publication date
JPH09190420A (en) 1997-07-22

Similar Documents

Publication Publication Date Title
US11216729B2 (en) Recognition system and recognition method
EP4047598B1 (en) Voice matching method and related device
Chacon-Rodriguez et al. Evaluation of gunshot detection algorithms
Senthilkumar et al. Speech emotion recognition based on Bi-directional LSTM architecture and deep belief networks
CN111601074A (en) Security monitoring method and device, robot and storage medium
JPH02160298A (en) Noise removal system
CN110992985A (en) Identification model determining method, identification method and identification system for identifying abnormal sounds of treadmill
CN113160852A (en) Voice emotion recognition method, device, equipment and storage medium
JP4760614B2 (en) Method for selecting learning data of signal identification device
Adiga et al. Multimodal emotion recognition for human robot interaction
JP3606982B2 (en) Pattern recognition device
Chinmayi et al. Emotion Classification Using Deep Learning
Cerezuela-Escudero et al. Musical notes classification with neuromorphic auditory system using FPGA and a convolutional spiking network
Rakowski et al. Frequency-aware CNN for open set acoustic scene classification
Seddik et al. A computer-aided speech disorders correction system for Arabic language
JP3283971B2 (en) Voice recognition method
EP0450521B1 (en) A learning method for a data processing system
CN111429937A (en) Voice separation method, model training method and electronic equipment
JPH0494000A (en) Voice recognition device
Su End-to-End Spoofing Speech Detection based on CNN-LSTM
JP2518939B2 (en) Speaker verification system
JPH03230200A (en) Voice recognizing method
JP2000030069A (en) Signal collating device
Roul et al. Text Independent Speaker Recognition Using Fuzzy Based Neural Network
Burman et al. Face Recognition using Wavelet Transform and ANN

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041006

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees