JP6827721B2 - Pattern discrimination device, information processing device, pattern discrimination method - Google Patents

Pattern discrimination device, information processing device, pattern discrimination method Download PDF

Info

Publication number
JP6827721B2
JP6827721B2 JP2016121223A JP2016121223A JP6827721B2 JP 6827721 B2 JP6827721 B2 JP 6827721B2 JP 2016121223 A JP2016121223 A JP 2016121223A JP 2016121223 A JP2016121223 A JP 2016121223A JP 6827721 B2 JP6827721 B2 JP 6827721B2
Authority
JP
Japan
Prior art keywords
pattern
weak
feature
weak discriminator
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016121223A
Other languages
Japanese (ja)
Other versions
JP2017068827A5 (en
JP2017068827A (en
Inventor
ソクイ チン
ソクイ チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/277,191 priority Critical patent/US10268881B2/en
Publication of JP2017068827A publication Critical patent/JP2017068827A/en
Publication of JP2017068827A5 publication Critical patent/JP2017068827A5/ja
Application granted granted Critical
Publication of JP6827721B2 publication Critical patent/JP6827721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、パターン判別技術に関するものである。 The present invention relates to a pattern discrimination technique.

画像中の人体や顔といった特定のパターンを判別する技術が提案されている。特に、近年、携帯端末や車載機器等の組み込みシステム向けの高速・低コストなパターン判別手法が注目されている。 A technique for discriminating a specific pattern such as a human body or a face in an image has been proposed. In particular, in recent years, high-speed and low-cost pattern discrimination methods for embedded systems such as mobile terminals and in-vehicle devices have attracted attention.

非特許文献1では、パターン検出を高速化させるためのアルゴリズムが提案されている。このアルゴリズムでは、ブースティング学習によってパラメータを生成し、特徴画像を用いて弱判別器を順に処理する。そして、弱判別器の判別結果に基づいて、次の弱判別器を処理するかどうかを判断する。次の弱判別器を処理しないと判断する場合、残りの弱判別器の処理を省略する。 Non-Patent Document 1 proposes an algorithm for speeding up pattern detection. In this algorithm, parameters are generated by boosting learning, and weak discriminators are processed in order using feature images. Then, based on the discrimination result of the weak discriminator, it is determined whether or not to process the next weak discriminator. When it is determined that the next weak discriminator is not processed, the processing of the remaining weak discriminator is omitted.

非特許文献2では、非特徴文献1を拡張し、特徴画像の種類を増加させることにより、精度向上を図っている。 In Non-Patent Document 2, the accuracy is improved by expanding Non-Feature Document 1 and increasing the types of feature images.

非特許文献3では、顔検出を高速化させるためのハードウェア実装方法が提案されている。非特許文献3に記載の技術では、複数カテゴリ(姿勢等)の顔を判別するための弱判別器を空間並列に処理し、画像ウィンドウバッファから特徴画像を読出し、処理時間の短縮を図っている。 Non-Patent Document 3 proposes a hardware mounting method for speeding up face detection. In the technique described in Non-Patent Document 3, weak discriminators for discriminating faces in a plurality of categories (postures, etc.) are processed in spatial parallel, and feature images are read from an image window buffer to shorten the processing time. ..

P. Viola, M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Vol. 1, pp. 511-518, December 2001.P. Viola, M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Vol. 1, pp. 511-518, December 2001. Piotr Dollar, et al., “Integral Channel Features,” Proceedings of British Machine Vision Conference, pp. 91.1-91.11, September 2009.Piotr Dollar, et al., “Integral Channel Features,” Proceedings of British Machine Vision Conference, pp. 91.1-91.11, September 2009. Junguk Cho, et al., “Hardware acceleration of multi-view face detection,”Proceedings of IEEE Symposium on Application Specific Processors, pp. 66-69, July 2009.Junguk Cho, et al., “Hardware acceleration of multi-view face detection,” Proceedings of IEEE Symposium on Application Specific Processors, pp. 66-69, July 2009.

高精度のパターン判別を実現するため、カスケード接続された複数の弱判別器を用いた判別処理(非特許文献1、非特許文献2、非特許文献3)は、高速・低コストな手法としてよく使用されている技術である。また、特徴画像の種類は判別処理の処理速度と精度に影響する一つの要素である。特徴画像の種類を増やすことにより、判別処理の性能を向上させることが可能になるが、特徴画像を保持するためのメモリも増加する。 In order to realize highly accurate pattern discrimination, discrimination processing using a plurality of cascaded weak discriminators (Non-Patent Document 1, Non-Patent Document 2, Non-Patent Document 3) is often used as a high-speed and low-cost method. The technology used. In addition, the type of feature image is one factor that affects the processing speed and accuracy of the discrimination process. By increasing the types of feature images, it is possible to improve the performance of the discrimination processing, but the memory for holding the feature images also increases.

また、特徴画像の参照時間を短縮し、弱判別器処理を高速化させるため、非特許文献3では特徴画像を保持するためのレジスタを設けている。レジスタから特徴画像を並列に参照し、同時に複数の弱判別器を処理する。しかしながら、レジスタはデータ保持装置として、その回路規模が大きいという課題がある。性能向上を目的とし、特徴画像を増加させた場合(非特許文献2)、この課題が一層大きくなる。 Further, in order to shorten the reference time of the feature image and speed up the weak discriminator processing, Non-Patent Document 3 provides a register for holding the feature image. The feature images are referenced in parallel from the register, and multiple weak discriminators are processed at the same time. However, as a data holding device, a register has a problem that its circuit scale is large. When the number of feature images is increased for the purpose of improving performance (Non-Patent Document 2), this problem becomes even greater.

本発明はこのような問題に鑑みてなされたものであり、メモリの数の増加を抑えつつ、より高速にパターン判別を行うための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for performing pattern discrimination at a higher speed while suppressing an increase in the number of memories.

本発明の一様態は、論理的にカスケード接続され、第1の弱判別器と該第1の弱判別器に後続する第2の弱判別器とを含み、複数種類の特徴画像を参照する複数の弱判別器を有するパターン判別装置であって、前記複数種類の特徴画像は当該種類よりも少数の複数のグループに分類され、前記複数の弱判別器の各々は、当該複数のグループのうちそれぞれ異なるグループに属する、弱判別器ごとに定められた2種類以上の特徴画像を参照してパターン判別を行うものであり、
入力画像から前記複数種類の特徴画像を生成する生成手段と、
生成された前記複数種類の特徴画像を前記複数のグループに分類し、グループごとにそれぞれ異なるメモリに保持させる保持手段と
を備え、
前記第1の弱判別器は、該第1の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行い、
前記第2の弱判別器は、前記第1の弱判別器によるパターン判別が成功した場合には、該第2の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行う
ことを特徴とする。
One aspect of the present invention is logically cascaded look containing a second weak classifier subsequent to the first weak discriminator and the first weak classifier, referring to plural types of feature images A pattern discriminator having a plurality of weak discriminators, the plurality of types of feature images are classified into a plurality of groups smaller than the type, and each of the plurality of weak discriminators is included in the plurality of groups. Pattern discrimination is performed by referring to two or more types of feature images defined for each weak discriminator, each belonging to a different group.
A generation means for generating the plurality of types of feature images from an input image, and
As a holding means for classifying the generated plurality of types of feature images into the plurality of groups and holding each group in a different memory.
With
The first weak discriminator, the accesses in parallel to two or more memory each of two or more feature images defined on the first weak discriminator holds the group feature images belonging Two or more types of feature images are read out, and pattern discrimination is performed with reference to the read out two or more types of feature images .
When the pattern discrimination by the first weak discriminator is successful, the second weak discriminator is a feature of a group to which each of two or more types of feature images defined in the second weak discriminator belongs. Two or more types of memory for holding an image are accessed in parallel to read out the two or more types of feature images, and pattern discrimination is performed with reference to the read out two or more types of feature images.
It is characterized by that.

本発明の構成により、メモリの数の増加を抑えつつ、より高速にパターン判別を行うことができる。 According to the configuration of the present invention, pattern discrimination can be performed at higher speed while suppressing an increase in the number of memories.

パターン判別装置によるパターン判別処理のフローチャート。The flowchart of the pattern discrimination process by the pattern discriminator. カスケード接続されたM個の弱判別器によるパターン判別を説明する図。The figure explaining the pattern discrimination by M weak discriminators connected in cascade. それぞれの弱判別器への第1パラメータの一例を示す図。The figure which shows an example of the 1st parameter to each weak discriminator. 特徴画像のグループ分割の一例を示す図。The figure which shows an example of group division of a feature image. 第1〜4特徴画像をグループごとに別個のメモリに格納しない場合を説明する図。The figure explaining the case where the 1st to 4th feature images are not stored in a separate memory for each group. それぞれの特徴画像を別個のメモリに格納する場合を示す図。The figure which shows the case where each feature image is stored in a separate memory. コンピュータ装置のハードウェア構成例を示すブロック図。A block diagram showing a hardware configuration example of a computer device. パターン判別装置の機能構成例を示すブロック図。The block diagram which shows the functional configuration example of the pattern discriminator. それぞれの弱判別器への第1パラメータの一例を示す図。The figure which shows an example of the 1st parameter to each weak discriminator. カスケード接続されたM個の弱判別器を示す図。The figure which shows M weak discriminators connected in cascade. 第2の実施形態におけるパラメータ学習のフローチャート。The flowchart of the parameter learning in the 2nd Embodiment.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example when the present invention is concretely implemented, and is one of the specific examples of the configuration described in the claims.

[第1の実施形態]
以下では、論理的にカスケード接続された複数の弱判別器を有するパターン判別装置であって、以下のような構成を有することを特徴とするパターン判別装置の一例について説明する。即ち、パターン判別の対象となるデータを保持した複数のメモリを有し、該複数のメモリのうち2以上のメモリに対して並列にアクセスしてデータを読み出し、該読み出したデータを用いて弱判別器によるパターン判別を行う。然るに、このような構成に帰着するものであれば、以下に説明する実施形態の構成に限るものではなく、適宜変形/変更が可能である。
[First Embodiment]
Hereinafter, an example of a pattern discrimination device having a plurality of logically cascaded weak discriminators and having the following configuration will be described. That is, it has a plurality of memories holding data to be pattern-discriminated, accesses two or more of the plurality of memories in parallel to read the data, and weakly discriminates using the read data. The pattern is discriminated by the device. However, as long as it results in such a configuration, it is not limited to the configuration of the embodiment described below, and can be appropriately modified / changed.

先ず、本実施形態に係るパターン判別装置の機能構成例について、図8のブロック図を用いて説明する。 First, a functional configuration example of the pattern discriminating device according to the present embodiment will be described with reference to the block diagram of FIG.

特徴画像生成部801には、人物などのパターン判別の対象となるオブジェクトを含む画像(例えばRGB画像)が入力画像として入力される。この入力画像の入力元については特定の入力元に限るものではなく、ハードディスクドライブ装置などの記憶装置から読み出されたものであっても構わないし、ディジタルカメラ等の撮像装置から供給されたものであっても構わない。 An image (for example, an RGB image) including an object such as a person to be pattern-discriminated is input to the feature image generation unit 801 as an input image. The input source of this input image is not limited to a specific input source, and may be read from a storage device such as a hard disk drive device, or may be supplied from an image pickup device such as a digital camera. It doesn't matter if there is.

そして特徴画像生成部801は、入力画像から複数枚の特徴画像を生成する。特徴画像の生成方法については特定の生成方法に限るものではなく、パターン判別に適した特徴画像を生成することができるのであれば、如何なる生成方法を採用しても構わない。例えば入力画像にフィルタを適用し、各画素の画素値が入力画像のY成分(輝度値)を表す画像、各画素の画素値が入力画像のCb成分(色差)を表す画像、各画素の画素値が入力画像のCr成分(色差)を表す画像、の夫々を特徴画像として生成しても良い。 Then, the feature image generation unit 801 generates a plurality of feature images from the input image. The method for generating the feature image is not limited to a specific generation method, and any generation method may be adopted as long as the feature image suitable for pattern discrimination can be generated. For example, a filter is applied to the input image, and the pixel value of each pixel represents the Y component (brightness value) of the input image, the pixel value of each pixel represents the Cb component (color difference) of the input image, and the pixel of each pixel. An image whose value represents the Cr component (color difference) of the input image may be generated as a feature image.

そして特徴画像生成部801は、生成した複数枚の特徴画像を複数のグループに分割する。そして特徴画像生成部801は、同じグループに属する特徴画像は同じメモリに格納されるように、異なるグループの特徴画像は異なるメモリに格納されるように、それぞれの特徴画像をグループ保持部802に格納する。 Then, the feature image generation unit 801 divides the generated plurality of feature images into a plurality of groups. Then, the feature image generation unit 801 stores each feature image in the group holding unit 802 so that the feature images belonging to the same group are stored in the same memory and the feature images of different groups are stored in different memories. To do.

グループ保持部802は、複数のメモリを有しており、それぞれのメモリには、同じグループに属する特徴画像が格納される。また、グループ保持部802は、異なる複数のメモリへのデータ参照(アクセス)が並列して行えるように構成されている。 The group holding unit 802 has a plurality of memories, and feature images belonging to the same group are stored in each memory. Further, the group holding unit 802 is configured so that data reference (access) to a plurality of different memories can be performed in parallel.

弱判別器処理部804は、論理的にカスケード接続された複数の弱判別器を有し、パラメータ保持部805に保持されている第1パラメータ及び第2パラメータを用いてそれぞれの弱判別器を時分割に動作させて、特徴画像に対するパターン判別を行う。以下では、弱判別器を動作させることを「弱判別器を処理(実行)する」と表記する場合がある。 The weak discriminator processing unit 804 has a plurality of weak discriminators logically cascaded, and uses the first parameter and the second parameter held in the parameter holding unit 805 to time each weak discriminator. The pattern is discriminated for the feature image by operating the division. In the following, operating the weak discriminator may be referred to as "processing (executing) the weak discriminator".

パラメータ保持部805は、上記の第1パラメータ及び第2パラメータを保持している。ここで、第1パラメータとは、弱判別器ごとに設けられたもので、該弱判別器によるパターン判別の対象を規定する情報である。また、第2パラメータとは、弱判別器ごとに設けられたもので、該弱判別器によるパターン判別の結果が成功であるか否かを判断するために用いられる情報である。 The parameter holding unit 805 holds the above-mentioned first parameter and second parameter. Here, the first parameter is provided for each weak discriminator, and is information that defines the target of pattern discrimination by the weak discriminator. The second parameter is provided for each weak discriminator, and is information used for determining whether or not the result of pattern discrimination by the weak discriminator is successful.

弱判別器処理部804が有する個々の弱判別器によるパターン判別の結果は、判別結果保持部806に格納される。全ての弱判別器によるパターン判別の結果が判別結果保持部806に格納された時点で、判別結果保持部806には、最終的なパターン判別結果が得られることになる。然るに弱判別器処理部804は、全ての弱判別器においてパターン判別を行った場合には、判別結果保持部806から、この最終的なパターン判別結果を読み出して出力することになる。 The result of pattern discrimination by each weak discriminator included in the weak discriminator processing unit 804 is stored in the discrimination result holding unit 806. When the results of pattern discrimination by all the weak discriminators are stored in the discrimination result holding unit 806, the discrimination result holding unit 806 will obtain the final pattern discrimination result. However, when the weak discriminator processing unit 804 performs pattern discrimination in all the weak discriminators, the weak discriminator processing unit 804 reads out the final pattern discrimination result from the discrimination result holding unit 806 and outputs it.

制御部803は、パターン判別装置全体の動作制御を行うと共に、特徴画像生成部801、弱判別器処理部804、のそれぞれの動作制御をも行う。 The control unit 803 controls the operation of the entire pattern discriminating device, and also controls the operation of each of the feature image generation unit 801 and the weak discriminator processing unit 804.

次に、本実施形態に係るパターン判別装置によるパターン判別処理について、図1のフローチャートに従って説明する。 Next, the pattern discrimination process by the pattern discrimination device according to the present embodiment will be described with reference to the flowchart of FIG.

<ステップS101>
特徴画像生成部801は、入力画像を受けると、該入力画像から複数枚の特徴画像を生成する。
<Step S101>
Upon receiving the input image, the feature image generation unit 801 generates a plurality of feature images from the input image.

<ステップS102>
特徴画像生成部801は、ステップS101で生成した複数枚の特徴画像を規定の基準に従って複数のグループに分割する。そして特徴画像生成部801は、グループ1に属する特徴画像はメモリ1、グループ2に属する特徴画像はメモリ2、…というように、同じグループに属する特徴画像は同じメモリに格納されるように、異なるグループの特徴画像は異なるメモリに格納されるように、それぞれの特徴画像をグループ保持部802に格納する。
<Step S102>
The feature image generation unit 801 divides the plurality of feature images generated in step S101 into a plurality of groups according to a predetermined standard. Then, the feature image generation unit 801 is different so that the feature images belonging to the same group are stored in the same memory, the feature image belonging to the group 1 is the memory 1, the feature image belonging to the group 2 is the memory 2, and so on. Each feature image is stored in the group holding unit 802 so that the feature images of the group are stored in different memories.

例えば、図4に示す如く、特徴画像生成部801が、4種類のフィルタをそれぞれ入力画像401に掛けて4枚の特徴画像(第1特徴画像402、第2特徴画像403、第3特徴画像404、第4特徴画像405)を生成する。具体的には、まず、輝度抽出フィルタを用いて、入力画像401から輝度情報を抽出し、第1特徴画像402を生成する。次に、ローパスフィルタを用いて、入力画像401から低周波数成分を抽出し、第2特徴画像403を生成する。それから、水平方向エッジフィルタを用いて、入力画像401から水平方向のエッジ情報を抽出し、第3特徴画像404を生成する。最後に、垂直方向エッジフィルタを用いて、入力画像401から垂直方向のエッジ情報を抽出し、第4特徴画像405を生成する。これら4枚の特徴画像を同時に生成することも可能である。これら4枚の特徴画像を規定の基準に従って2つのグループに分割したとする。図4では、第1特徴画像402及び第2特徴画像403が第1グループ406、第3特徴画像404及び第4特徴画像405が第2グループ407に分類されている。この場合、第1グループ406に属する第1特徴画像402及び第2特徴画像403は、グループ保持部802が有する複数個のメモリのうち第1グループ用のメモリである第1メモリに格納される。また、第2グループ407に属する第3特徴画像404及び第4特徴画像405は、グループ保持部802が有する複数個のメモリのうち第2グループ用のメモリである第2メモリに格納される。第1メモリと第2メモリとは別個のメモリであり、このように別個のメモリであれば、弱判別器処理部804はこれらのメモリに対して並列にアクセスすることができる。 For example, as shown in FIG. 4, the feature image generation unit 801 applies four types of filters to the input image 401, respectively, and four feature images (first feature image 402, second feature image 403, third feature image 404). , Fourth feature image 405) is generated. Specifically, first, the luminance extraction filter is used to extract the luminance information from the input image 401 to generate the first feature image 402. Next, a low-pass filter is used to extract low-frequency components from the input image 401 to generate a second feature image 403. Then, the horizontal edge filter is used to extract the horizontal edge information from the input image 401 to generate the third feature image 404. Finally, the vertical edge filter is used to extract the vertical edge information from the input image 401 to generate the fourth feature image 405. It is also possible to generate these four feature images at the same time. It is assumed that these four feature images are divided into two groups according to a specified standard. In FIG. 4, the first feature image 402 and the second feature image 403 are classified into the first group 406, and the third feature image 404 and the fourth feature image 405 are classified into the second group 407. In this case, the first feature image 402 and the second feature image 403 belonging to the first group 406 are stored in the first memory, which is the memory for the first group, among the plurality of memories of the group holding unit 802. Further, the third feature image 404 and the fourth feature image 405 belonging to the second group 407 are stored in the second memory which is the memory for the second group among the plurality of memories of the group holding unit 802. The first memory and the second memory are separate memories, and if they are separate memories in this way, the weak discriminator processing unit 804 can access these memories in parallel.

なお、特徴画像の分割グループ数については特定の数に限るものではなく、例えば、パターン判別装置の処理能力や帯域等によって決定される。また、特徴画像のグループ分割方法については、特定の方法に限るものではない。例えば、学習アルゴリズムによって決定された第1パラメータを解析し(特徴画像アクセスパターン解析)、弱判別器毎に、異なるグループから特徴画像の画素を参照する確率が高まるようにグループを設定する。特徴画像アクセスパターンはパターン判別対象によって異なり、特徴画像への参照頻度に偏りが生じる。例えば、明るくて水平方向エッジが多い物体がパターン判別対象の場合には、第1特徴画像402(輝度情報)と第3特徴画像404(水平方向エッジ情報)の画素を参照する頻度が高く、その他の特徴画像の画素を参照する頻度が低い。異なるメモリから特徴画像の画素を並列に参照する確率を高めるためには、第1特徴画像402と第3特徴画像404とを異なるグループとして、同じメモリに保存しない。暗くて垂直方向エッジが多い物体がパターン判別対象の場合には、第1特徴画像402(輝度情報)と第4特徴画像405(垂直方向エッジ情報)の画素を参照する頻度が高く、その他の画素を参照する頻度が低い。異なるメモリから特徴画像の画素を並列に参照する確率を高めるためには、第1特徴画像402と第4特徴画像405とを異なるグループとして、同じメモリに保存しない。なお、第1パラメータ及び第2のパラメータは学習アルゴリズム(ブースティング学習等)によって予め決定される。 The number of divided groups of the feature image is not limited to a specific number, and is determined by, for example, the processing capacity and band of the pattern discriminating device. Further, the method for grouping feature images is not limited to a specific method. For example, the first parameter determined by the learning algorithm is analyzed (feature image access pattern analysis), and a group is set for each weak discriminator so that the probability of referring to the pixel of the feature image from a different group increases. The feature image access pattern differs depending on the pattern discrimination target, and the reference frequency to the feature image is biased. For example, when an object that is bright and has many horizontal edges is a pattern discrimination target, the pixels of the first feature image 402 (luminance information) and the third feature image 404 (horizontal edge information) are frequently referred to, and others. The frequency of referring to the pixels of the feature image is low. In order to increase the probability of referencing the pixels of the feature image in parallel from different memories, the first feature image 402 and the third feature image 404 are not stored in the same memory as different groups. When an object that is dark and has many vertical edges is the pattern discrimination target, the pixels of the first feature image 402 (luminance information) and the fourth feature image 405 (vertical edge information) are frequently referred to, and other pixels are frequently referred to. Infrequently refer to. In order to increase the probability of referencing the pixels of the feature image in parallel from different memories, the first feature image 402 and the fourth feature image 405 are not stored in the same memory as different groups. The first parameter and the second parameter are predetermined by a learning algorithm (boostering learning, etc.).

<ステップS103>
弱判別器処理部804は、カスケード接続されたそれぞれの弱判別器を時分割に動作させて、グループ保持部802に格納されている特徴画像及びパラメータ保持部805に保持されている第1,2パラメータを用いてパターン判別を行う。ステップS103では、ステップS104〜ステップS112の処理を行う。以下では、弱判別器処理部804は、カスケード接続されたM(Mは2以上の自然数)個の弱判別器を有しているものとして説明する。
<Step S103>
The weak discriminator processing unit 804 operates each of the weak discriminators connected in cascade in a time division manner, and the first and second weak discriminators are held in the feature image and the parameter holding unit 805 stored in the group holding unit 802. Pattern discrimination is performed using parameters. In step S103, the processes of steps S104 to S112 are performed. In the following, the weak discriminator processing unit 804 will be described as having M (M is a natural number of 2 or more) cascadingly connected weak discriminators.

<ステップS104>
制御部803は、以降の処理で用いる変数iの値を1に初期化する。以降、ステップS105〜S112のループ処理をi=1〜Mについて(ステップS110でFalseとならない限り)行う。
<Step S104>
The control unit 803 initializes the value of the variable i used in the subsequent processing to 1. After that, the loop processing of steps S105 to S112 is performed for i = 1 to M (unless it becomes False in step S110).

<ステップS106>
弱判別器処理部804は、パラメータ保持部805から、i番目の弱判別器(最初に動作する弱判別器は1番目の弱判別器)用の第1パラメータを読み出す。ここで、i番目の弱判別器用の第1パラメータとは、i番目の弱判別器がパターン判別のために参照する特徴画像中の画素位置と、該特徴画像に固有の識別情報(例えば画像に固有の番号)と、のセットデータである。例えば、i番目の弱判別器がパターン判別の為に、特徴画像Aの画素位置PA、特徴画像Bの画素位置PB、を参照する場合、「i番目の弱判別器用の第1パラメータ」は、次の2つのセットデータを含む。
<Step S106>
The weak discriminator processing unit 804 reads out the first parameter for the i-th weak discriminator (the weak discriminator that operates first is the first weak discriminator) from the parameter holding unit 805. Here, the first parameter for the i-th weak discriminator is the pixel position in the feature image referred to by the i-th weak discriminator for pattern discrimination and the identification information unique to the feature image (for example, in the image). It is a set data of (unique number) and. For example, when the i-th weak discriminator refers to the pixel position PA of the feature image A and the pixel position PB of the feature image B for pattern discrimination, the "first parameter for the i-th weak discriminator" is It contains the following two set data.

・ 特徴画像Aの識別情報と画素位置PAとのセットデータ
・ 特徴画像Bの識別情報と画素位置PBとのセットデータ
このような第1パラメータは、弱判別器ごとに設けられる。より詳しくは、「i番目の弱判別器用の第1パラメータ」においてj(1≦j≦K:Kは「i番目の弱判別器用の第1パラメータ」に含まれるセットデータの数)番目のセットデータDi、jは以下のようなセットデータとなる。
-Set data of the identification information of the feature image A and the pixel position PA-Set data of the identification information of the feature image B and the pixel position PB Such a first parameter is provided for each weak discriminator. More specifically, in the "first parameter for the i-th weak discriminator", the j (1 ≤ j ≤ K: K is the number of set data included in the "first parameter for the i-th weak discriminator") th set. The data Di and j are the following set data.

Figure 0006827721
Figure 0006827721

(式1)においてNi、jは、特徴画像の識別情報であり、例えば、該特徴画像に固有の番号である。また、Yi、jは、識別情報=Ni、jで特定される特徴画像においてパターン判別のために参照する画素位置のy座標値である。また、Xi、jは、識別情報=Ni、jで特定される特徴画像においてパターン判別のために参照する画素位置のx座標値である。なお、Ni、jは、iを固定した場合、それぞれのjについて互いに異なる特徴画像の識別情報であるものとする。 In (Equation 1), Ni and j are identification information of the feature image, and are numbers unique to the feature image, for example. Further, Y i and j are y coordinate values of pixel positions referred to for pattern discrimination in the feature image specified by the identification information = Ni and j . Further, X i and j are x coordinate values of pixel positions referred to for pattern discrimination in the feature image specified by the identification information = Ni and j . It should be noted that Ni and j are identification information of feature images different from each other for each j when i is fixed.

<ステップS107>
弱判別器処理部804は、識別情報=Ni、1の特徴画像における画素位置(Xi、1、Yi、1)における画素値、…、識別情報=Ni、Kの特徴画像における画素位置(Xi、K、Yi、K)における画素値、をグループ保持部802から並列に読み出して、i番目の弱判別器に供給する。
<Step S107>
Weak classifier processor 804, the pixel value at the pixel position in the identification information = N i, 1 of the feature image (X i, 1, Y i , 1), ..., identification information = N i, pixels in the feature images of K The pixel values at the positions (X i, K , Y i, K ) are read out in parallel from the group holding unit 802 and supplied to the i-th weak discriminator.

「識別情報=Ni、1の特徴画像」、…、「識別情報=Ni、Kの特徴画像」というK枚の特徴画像は互いに異なるグループに属している特徴画像であり、然るにそれぞれ異なるメモリに登録されている。然るに本ステップでは、「識別情報=Ni、1の特徴画像」、…、「識別情報=Ni、Kの特徴画像」を格納しているそれぞれのメモリに並列してアクセスすることができる。これにより、識別情報=Ni、1の特徴画像における画素位置(Xi、1、Yi、1)における画素値、…、識別情報=Ni、Kの特徴画像における画素位置(Xi、K、Yi、K)における画素値、を並列に読み出すことができる。 The K feature images such as "identification information = Ni, 1 feature image", ..., "Identification information = Ni, K feature image" are feature images belonging to different groups, and have different memories. It is registered in. However, in this step, it is possible to access in parallel each memory storing "identification information = feature image of Ni, 1 ", ..., "identification information = feature image of Ni, K ". Thus, the pixel value at the pixel position in the identification information = N i, 1 of the feature image (X i, 1, Y i , 1), ..., identification information = N i, the pixel position in the feature image of K (X i, The pixel values at K , Y i, K ) can be read out in parallel.

そしてi番目の弱判別器は、本ステップにおいてグループ保持部802から並列に読み出された画素値を用いてパターン判別を行う。それぞれの特徴画像から読み出した画素値を用いたパターン判別については周知技術であるため、これに係る説明は省略する。 Then, the i-th weak discriminator discriminates the pattern using the pixel values read in parallel from the group holding unit 802 in this step. Since pattern discrimination using pixel values read from each feature image is a well-known technique, the description thereof will be omitted.

なお、第1パラメータに含まれるそれぞれのデータセットが指し示すものは1つの画素位置に限るものではなく、複数画素から成る画素領域であっても構わない。また、第1パラメータに含まれるそれぞれのデータセットが1つの画素位置を指し示し、画素値を読み出す時点で、該画素位置の近傍画素領域内の画素値を読み出すようにしても構わない。また、第1パラメータは、複数枚の画像における画素位置や、動画像を処理する時の時系列空間の複数組の画素位置を指し示すようなものであっても構わない。 Note that the data set included in the first parameter is not limited to one pixel position, and may be a pixel region composed of a plurality of pixels. Further, each data set included in the first parameter may indicate one pixel position, and when the pixel value is read out, the pixel value in the pixel region in the vicinity of the pixel position may be read out. Further, the first parameter may be something that indicates a pixel position in a plurality of images or a plurality of sets of pixel positions in a time series space when processing a moving image.

<ステップS108>
弱判別器処理部804は、パラメータ保持部805から、i番目の弱判別器用の第2パラメータを読み出す。「i番目の弱判別器用の第2パラメータ」とは、i番目の弱判別器用にステップS107で読み出した画素値に基づいて、対象とするパターンらしさに相当するスコアを算出するための関数である特徴量変換関数と、閾値と、のセットデータである。
<Step S108>
The weak discriminator processing unit 804 reads out the second parameter for the i-th weak discriminator from the parameter holding unit 805. The "second parameter for the i-th weak discriminator" is a function for calculating a score corresponding to the target pattern-likeness based on the pixel value read out in step S107 for the i-th weak discriminator. It is a set data of a feature amount conversion function and a threshold value.

<ステップS109>
i番目の弱判別器は、ステップS107で読み出された画素値と、ステップS108で読み出されたi番目の弱判別器用の第2パラメータに含まれている特徴量変換関数と、を用いて、スコアを計算する。ここで、「識別情報=Ni、jの特徴画像における画素位置(Xi、j、Yi、j)における画素値」をf(Ni、j、Xi、j、Yi、j)とする。また、i番目の弱判別器用の特徴量変換関数をL()とする。ここで、K=2の場合、i番目の弱判別器用のスコアSは以下の式に従って計算される。
<Step S109>
The i-th weak discriminator uses the pixel value read in step S107 and the feature amount conversion function included in the second parameter for the i-th weak discriminator read in step S108. , Calculate the score. Here, the "identification information = N i, the pixel position in the feature image j (X i, j, Y i, j) pixel values in" f (N i, j, X i, j, Y i, j) And. Further, the feature quantity conversion function of i-th weak discriminator dexterity and L i (). Here, when K = 2, the score S i for the i-th weak discriminator is calculated according to the following equation.

Figure 0006827721
Figure 0006827721

なお、Kが3以上の自然数であっても同様に、それぞれの画素値を特徴量変換関数でもってスコアに変換すればよい。 Similarly, even if K is a natural number of 3 or more, each pixel value may be converted into a score by a feature amount conversion function.

<ステップS110>
i番目の弱判別器は、ステップS109で求めたスコアSが、ステップS108で読み出されたi番目の弱判別器用の第2パラメータに含まれている閾値Tを超えているか否かを判断する。この判断の結果、S>Tである場合には、パターン判別は成功した(所定のパターンが検出された=True)ものと判断して処理はステップS111に進む。一方、S≦Tである場合には、パターン判別は失敗した(所定のパターンが検出されなかった=False)ものと判断して処理はステップS113に進む。
<Step S110>
i-th weak classifier, the score S i determined in the step S109 is whether or not exceeds the threshold value T i contained in the second parameter of the i-th weak classifier dexterity read in step S108 to decide. As a result of this determination, if S i > Ti, it is determined that the pattern determination is successful (a predetermined pattern is detected = True), and the process proceeds to step S111. On the other hand, when S iTi, it is determined that the pattern determination has failed (predetermined pattern was not detected = False), and the process proceeds to step S113.

つまり、S≦Tの場合には、(i+1)番目以降の弱判別器によるパターン判別は行わずに、パターン判別はi番目の弱判別器で打ち切るものとする。なお、i番目の弱判別器は、パターン判別が成功した場合には、そのパターン判別結果を判別結果保持部806に格納する。 In other words, in the case of S i ≦ T i does not perform pattern determination by (i + 1) th and subsequent weak discriminator, pattern judgment shall abort the i-th weak discriminator. When the pattern discrimination is successful, the i-th weak discriminator stores the pattern discrimination result in the discrimination result holding unit 806.

<ステップS111>
制御部803は、変数iの値を1つインクリメントする。そして処理はステップS106に戻り、インクリメント後の変数iを用いて以降の処理が行われることになる。
<Step S111>
The control unit 803 increments the value of the variable i by one. Then, the process returns to step S106, and the subsequent process is performed using the variable i after the increment.

<ステップS113>
弱判別器処理部804は、i=1〜MについてステップS105〜S112の処理を行った場合、即ち、1番目の弱判別器〜M番目の弱判別器のそれぞれに対するスコアが何れも閾値を超えている場合、入力画像には所定のパターンが含まれていると判断する。然るにこの場合、弱判別器処理部804は、判別結果保持部806に上記の処理によって保持されているパターン判別の結果を適当な出力先に対して出力する。なお、このパターン判別の結果は、そのまま出力されても良いが、対応するオブジェクトのIDに変換してから出力するなど、パターン判別の結果に基づく他の情報を出力するようにしても構わない。
<Step S113>
When the weak discriminator processing unit 804 performs the processing of steps S105 to S112 for i = 1 to M, that is, the scores for each of the first weak discriminator to the Mth weak discriminator exceed the threshold value. If so, it is determined that the input image contains a predetermined pattern. However, in this case, the weak discriminator processing unit 804 outputs the pattern discrimination result held by the above processing to the discrimination result holding unit 806 to an appropriate output destination. The result of this pattern discrimination may be output as it is, but other information based on the result of the pattern discrimination may be output, such as converting to the ID of the corresponding object and then outputting.

一方、弱判別器処理部804は、1番目の弱判別器〜M番目の弱判別器の何れかに対するスコアが閾値を超えていなかった場合、入力画像には所定のパターンは含まれていないと判断する。然るにこの場合、弱判別器処理部804は、入力画像には所定のパターンは含まれていなかった旨を示す情報を適当な出力先に対して出力する。なお、「入力画像には所定のパターンは含まれていなかった旨を示す情報」には様々なものが適用できる。例えば、入力画像には所定のパターンは含まれていなかった旨を示すメッセージを表示装置や外部機器に対して出力しても良い。 On the other hand, the weak discriminator processing unit 804 states that the input image does not include a predetermined pattern when the score for any of the first weak discriminator to the Mth weak discriminator does not exceed the threshold value. to decide. However, in this case, the weak discriminator processing unit 804 outputs information indicating that the input image does not include the predetermined pattern to an appropriate output destination. In addition, various things can be applied to "information indicating that the input image does not include a predetermined pattern". For example, a message indicating that the input image does not include a predetermined pattern may be output to a display device or an external device.

以上説明した、カスケード接続されたM個の弱判別器によるパターン判別について、図2を用いて説明する。図2では、M=4としている。 The pattern discrimination by the M weak discriminators connected in cascade described above will be described with reference to FIG. In FIG. 2, M = 4.

先ず、1番目の弱判別器である弱判別器C1が動作する。弱判別器C1には、C1用の第1パラメータであるD1,1,…,D1,K、C1用の第2パラメータである特徴量変換関数L、閾値Tが入力される。然るに弱判別器C1は、D1,1で特定される特徴画像中の画素位置の画素値,…,D1,Kで特定される特徴画像中の画素位置の画素値をグループ保持部802から並列に読み出す。そして弱判別器C1は、読み出したこれらの画素値を用いてパターン判別を行う。更に弱判別器C1は、D1,1で特定される特徴画像中の画素位置の画素値,…,D1,Kで特定される特徴画像中の画素位置の画素値を特徴量変換関数Lを用いてスコアSに変換する。そして弱判別器C1は、S>T(判別成功)であるか否かを判断し、S>Tであれば、弱判別器処理部804は2番目(弱判別器C1に後続する)の弱判別器C2を動作させる。一方、S≦T(判別失敗)であれば、弱判別器処理部804は弱判別器C2以降を動作させず、弱判別器処理部804は、入力画像には所定のパターンは存在しない旨を出力する。 First, the weak discriminator C1, which is the first weak discriminator, operates. The weakness discriminator C1 is input with the first parameter D 1 , 1 , ..., D 1, K for C1, the feature amount conversion function L 1 which is the second parameter for C1, and the threshold value T 1 . However weak classifiers C1, the pixel value of the pixel position in the feature image specified by D 1, 1, ..., a pixel value of a pixel position in the feature image specified by D 1, K from the group holding section 802 Read in parallel. Then, the weak discriminator C1 discriminates the pattern using these read pixel values. Furthermore weak classifiers C1, the pixel value of the pixel position in the feature image specified by D 1, 1, ..., D 1, the feature amount the pixel value of the pixel position in the feature image specified by the K conversion function L It converted to the score S 1 using 1. Then, the weak discriminator C1 determines whether or not S 1 > T 1 (successful discrimination), and if S 1 > T 1 , the weak discriminator processing unit 804 is second (following the weak discriminator C1). ) The weak discriminator C2 is operated. On the other hand, if S 1 ≤ T 1 (discrimination failure), the weak discriminator processing unit 804 does not operate the weak discriminator C2 or later, and the weak discriminator processing unit 804 does not have a predetermined pattern in the input image. Output to that effect.

次に、弱判別器C2が動作する場合、弱判別器C2には、C2用の第1パラメータであるD2,1,…,D2,K、C2用の第2パラメータである特徴量変換関数L、閾値Tが入力される。然るに弱判別器C2は、D2,1で特定される特徴画像中の画素位置の画素値,…,D2,Kで特定される特徴画像中の画素位置の画素値をグループ保持部802から並列に読み出す。そして弱判別器C2は、読み出したこれらの画素値を用いてパターン判別を行う。更に弱判別器C2は、D2,1で特定される特徴画像中の画素位置の画素値,…,D2,Kで特定される特徴画像中の画素位置の画素値を特徴量変換関数Lを用いてスコアSに変換する。そして弱判別器C2は、S>Tであるか否かを判断し、S>Tであれば、弱判別器処理部804は3番目の弱判別器C3を動作させる。一方、S≦Tであれば、弱判別器処理部804は弱判別器C3以降を動作させず、弱判別器処理部804は、入力画像には所定のパターンは存在しない旨を出力する。 Next, when the weak discriminator C2 operates, the weak discriminator C2 is subjected to the feature quantity conversion which is the first parameter for C2, D 2, 1 , ..., D 2, K , and the second parameter for C2. The function L 2 and the threshold value T 2 are input. However, the weak discriminator C2 obtains the pixel value of the pixel position in the feature image specified by D 2 , 1 , ..., The pixel value of the pixel position in the feature image specified by D 2, K from the group holding unit 802. Read in parallel. Then, the weak discriminator C2 discriminates the pattern using these read pixel values. Further, the weak discriminator C2 converts the pixel value of the pixel position in the feature image specified by D 2 , 1 and ..., the pixel value of the pixel position in the feature image specified by D 2, K into the feature amount conversion function L. It converted to the score S 2 with 2. The weak discriminator C2 determines whether S 2> T 2, if S 2> T 2, the weak classifier processor 804 operates the third weak discriminator C3. On the other hand, if S 2 ≤ T 2 , the weak discriminator processing unit 804 does not operate the weak discriminator C3 or later, and the weak discriminator processing unit 804 outputs that a predetermined pattern does not exist in the input image. ..

次に、弱判別器C3が動作する場合、弱判別器C3には、C3用の第1パラメータであるD3,1,…,D3,K、C3用の第2パラメータである特徴量変換関数L、閾値Tが入力される。然るに弱判別器C3は、D3,1で特定される特徴画像中の画素位置の画素値,…,D3,Kで特定される特徴画像中の画素位置の画素値をグループ保持部802から並列に読み出す。そして弱判別器C3は、読み出したこれらの画素値を用いてパターン判別を行う。更に弱判別器C3は、D3,1で特定される特徴画像中の画素位置の画素値,…,D3,Kで特定される特徴画像中の画素位置の画素値を特徴量変換関数Lを用いてスコアSに変換する。そして弱判別器C3は、S>Tであるか否かを判断し、S>Tであれば、弱判別器処理部804は4番目の弱判別器C4を動作させる。一方、S≦Tであれば、弱判別器処理部804は弱判別器C4を動作させず、弱判別器処理部804は、入力画像には所定のパターンは存在しない旨を出力する。 Next, when the weak discriminator C3 operates, the weak discriminator C3 is subjected to feature quantity conversion which is the first parameter for C3, D 3, 1 , ..., D 3, K , and the second parameter for C3. The function L 3 and the threshold value T 3 are input. However, the weak discriminator C3 obtains the pixel value of the pixel position in the feature image specified by D 3 , 1 ..., The pixel value of the pixel position in the feature image specified by D 3, K from the group holding unit 802. Read in parallel. Then, the weak discriminator C3 discriminates the pattern using these read pixel values. Further, the weak discriminator C3 converts the pixel value of the pixel position in the feature image specified by D 3 , 1 and ..., the pixel value of the pixel position in the feature image specified by D 3, K into the feature amount conversion function L. It converted to the score S 3 with 3. The weak discriminator C3 determines whether S 3> T 3, if S 3> T 3, the weak classifier processor 804 operates the 4 th weak discriminator C4. On the other hand, if S 3 ≤ T 3 , the weak discriminator processing unit 804 does not operate the weak discriminator C4, and the weak discriminator processing unit 804 outputs that a predetermined pattern does not exist in the input image.

次に、弱判別器C4が動作する場合、弱判別器C4には、C4用の第1パラメータであるD4,1,…,D4,K、C4用の第2パラメータである特徴量変換関数L、閾値Tが入力される。然るに弱判別器C4は、D4,1で特定される特徴画像中の画素位置の画素値,…,D4,Kで特定される特徴画像中の画素位置の画素値をグループ保持部802から並列に読み出す。そして弱判別器C4は、読み出したこれらの画素値を用いてパターン判別を行う。更に弱判別器C4は、D4,1で特定される特徴画像中の画素位置の画素値,…,D4,Kで特定される特徴画像中の画素位置の画素値を特徴量変換関数Lを用いてスコアSに変換する。そして弱判別器C4は、S>Tであるか否かを判断し、S>Tであれば、弱判別器処理部804は、判別結果保持部806に保持されている最終的なパターン判別結果を出力する。一方、S≦Tであれば、弱判別器処理部804は、入力画像には所定のパターンは存在しない旨を出力する。 Next, when the weak discriminator C4 operates, the weak discriminator C4 is subjected to the feature quantity conversion which is the first parameter for C4, D 4, 1 , ..., D 4, K , and the second parameter for C4. The function L 4 and the threshold value T 4 are input. However, the weak discriminator C4 obtains the pixel value of the pixel position in the feature image specified by D 4 , 1 ..., The pixel value of the pixel position in the feature image specified by D 4, K from the group holding unit 802. Read in parallel. Then, the weak discriminator C4 discriminates the pattern using these read pixel values. Further, the weak discriminator C4 converts the pixel value of the pixel position in the feature image specified by D 4 , 1 and ..., the pixel value of the pixel position in the feature image specified by D 4, K into the feature amount conversion function L. It converted to the score S 4 using 4. The weak discriminator C4 determines whether S 4> T 4, S 4 > If T 4, the weak classifier processor 804, finally held in the determination result holder 806 Pattern discrimination result is output. On the other hand, if S 4 ≤ T 4 , the weak discriminator processing unit 804 outputs that the predetermined pattern does not exist in the input image.

なお、カスケード接続されたM個の弱判別器は図10に示すような構成となる。このような場合であっても、弱判別器C1から順にパターン判別を行い、パターン判別に成功した場合には次の弱判別器によるパターン判別を行う。 The M weak discriminators connected in cascade have a configuration as shown in FIG. Even in such a case, pattern discrimination is performed in order from the weak discriminator C1, and if the pattern discrimination is successful, pattern discrimination is performed by the next weak discriminator.

次に、図2のように、カスケード接続された4個の弱判別器によってパターン判別を行う場合における、それぞれの弱判別器への第1パラメータの一例について、図3を用いて説明する。図3では、入力画像から第1特徴画像、第2特徴画像、第3特徴画像、第4特徴画像の4枚の特徴画像が生成されている。 Next, as shown in FIG. 2, when pattern discrimination is performed by four cascade-connected weak discriminators, an example of the first parameter for each weak discriminator will be described with reference to FIG. In FIG. 3, four feature images, a first feature image, a second feature image, a third feature image, and a fourth feature image, are generated from the input image.

図3において、弱判別器C1用の第1パラメータはD1,1とD1,2の2つのセットデータを含む。D1,1は、第1特徴画像の識別情報と、第1特徴画像において黒丸で示した画素位置と、のセットデータである。D1,2は、第3特徴画像の識別情報と、第3特徴画像において黒丸で示した画素位置と、のセットデータである。 In FIG. 3, the first parameter for the weak discriminator C1 includes two set data of D 1 , 1 and D 1 , 2. D 1 and 1 are set data of the identification information of the first feature image and the pixel positions indicated by black circles in the first feature image. D 1 and 2 are set data of the identification information of the third feature image and the pixel positions indicated by the black circles in the third feature image.

弱判別器C2用の第1パラメータはD2,1とD2,2の2つのセットデータを含む。D2,1は、第2特徴画像の識別情報と、第2特徴画像において黒丸で示した画素位置と、のセットデータである。D2,2は、第4特徴画像の識別情報と、第4特徴画像において黒丸で示した画素位置と、のセットデータである。 The first parameter for the weak discriminator C2 contains two set data of D 2 , 1 and D 2 , 2. D 2 and 1 are set data of the identification information of the second feature image and the pixel positions indicated by the black circles in the second feature image. D 2 and 2 are set data of the identification information of the fourth feature image and the pixel positions indicated by the black circles in the fourth feature image.

弱判別器C3用の第1パラメータはD3,1とD3,2の2つのセットデータを含む。D3,1は、第1特徴画像の識別情報と、第1特徴画像において黒丸で示した画素位置と、のセットデータである。D3,2は、第4特徴画像の識別情報と、第4特徴画像において黒丸で示した画素位置と、のセットデータである。 The first parameter for the weak discriminator C3 includes two set data of D 3 , 1 and D 3 , 2. D 3 and 1 are set data of the identification information of the first feature image and the pixel positions indicated by the black circles in the first feature image. D 3 and 2 are set data of the identification information of the fourth feature image and the pixel positions indicated by the black circles in the fourth feature image.

弱判別器C4用の第1パラメータはD4,1とD4,2の2つのセットデータを含む。D4,1は、第1特徴画像の識別情報と、第1特徴画像において黒丸で示した画素位置と、のセットデータである。D4,2は、第2特徴画像の識別情報と、第2特徴画像において黒丸で示した画素位置と、のセットデータである。 The first parameter for the weak discriminator C4 contains two set data of D 4 , 1 and D 4 , 2. D 4 and 1 are set data of the identification information of the first feature image and the pixel positions indicated by the black circles in the first feature image. D 4 and 2 are set data of the identification information of the second feature image and the pixel positions indicated by the black circles in the second feature image.

このような場合において弱判別器Ci(i=1,2,3,4)がDi,1に対応する画素値とDi,2に対応する画素値とを並列に読み出す為には、Di,1に対応する特徴画像とDi,2に対応する特徴画像とをそれぞれ別個のメモリに格納させる必要がある。そこで、このような場合には、図4に示す如く、第1特徴画像402及び第2特徴画像403を第1メモリに格納し、第3特徴画像404及び第4特徴画像405を、第1メモリとは異なる第2メモリに格納する。これにより、弱判別器C1は、第1メモリからD1,1に対応する画素値、第2メモリからD1,2に対応する画素値、を並列に読み出すことができる。また、弱判別器C2は、第1メモリからD2,1に対応する画素値、第2メモリからD2,2に対応する画素値、を並列に読み出すことができる。また、弱判別器C3は、第1メモリからD3,1に対応する画素値、第2メモリからD3,2に対応する画素値、を並列に読み出すことができる。 In such a case, in order for the weak discriminator Ci (i = 1, 2, 3, 4) to read out the pixel values corresponding to Di, 1 and the pixel values corresponding to Di, 2 in parallel, D It is necessary to store the feature image corresponding to i and 1 and the feature image corresponding to Di and 2 in separate memories. Therefore, in such a case, as shown in FIG. 4, the first feature image 402 and the second feature image 403 are stored in the first memory, and the third feature image 404 and the fourth feature image 405 are stored in the first memory. It is stored in a second memory different from the above. Thus, the weak discriminator C1 can read pixel values corresponding from the first memory to the D 1, 1, pixel values corresponding the second memory to the D 1, 2, in parallel. Further, the weak discriminator C2 can read out the pixel values corresponding to D 2 and 1 from the first memory and the pixel values corresponding to D 2 and 2 from the second memory in parallel. Furthermore, the weak discriminator C3 can read pixel values corresponding from the first memory to the D 3, 1, pixel values corresponding the second memory to the D 3,2, in parallel.

1つのメモリから単位時間(1サイクル)当たりに最大1個の特徴画像の画素を読み出すことができるわけであるから、読み出すべき画素をそれぞれ異なるメモリに格納しておけば、1サイクルでそれぞれのメモリから画素を読み出すことができる。 Since it is possible to read up to one pixel of the feature image per unit time (1 cycle) from one memory, if the pixels to be read are stored in different memories, each memory can be read in one cycle. Pixels can be read from.

次に、図4のように第1〜4特徴画像が第1メモリ及び第2メモリの何れかにグループ分けされて保持されている場合に、図3に示す弱判別器C1〜C4の動作に要する時間について説明する。 Next, when the first to fourth feature images are grouped and held in either the first memory or the second memory as shown in FIG. 4, the operation of the weak discriminators C1 to C4 shown in FIG. 3 is performed. The time required will be described.

弱判別器C1は、第1メモリからD1,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値、第2メモリからD1,2に対応する特徴画像(第3特徴画像404)における画素位置の画素値、を並列に読み出す。上記の通り、第1メモリへのアクセス及び第2メモリへのアクセスを1サイクルで実現できる。また、1つの弱判別器において、第1パラメータの読み出し以外の処理に最短で1サイクルを要するとすると、弱判別器C1については最短2サイクルで処理できる。 The weak discriminator C1 has a pixel value of a pixel position in a feature image (first feature image 402) corresponding to D 1 , 1 from the first memory, and a feature image (third feature) corresponding to D 1 , 2 from the second memory. The pixel value of the pixel position in image 404) is read out in parallel. As described above, the access to the first memory and the access to the second memory can be realized in one cycle. Further, if it is assumed that one weak discriminator requires a minimum of one cycle for processing other than reading the first parameter, the weak discriminator C1 can be processed in a minimum of two cycles.

弱判別器C2は、第1メモリからD2,1に対応する特徴画像(第2特徴画像403)における画素位置の画素値、第2メモリからD2,2に対応する特徴画像(第4特徴画像405)における画素位置の画素値、を並列に読み出す。上記の説明から、弱判別器C2についても最短2サイクルで処理できることがわかる。 The weak discriminator C2 is a pixel value of a pixel position in a feature image (second feature image 403) corresponding to D 2 and 1 from the first memory, and a feature image (fourth feature) corresponding to D 2 and 2 from the second memory. The pixel value of the pixel position in the image 405) is read out in parallel. From the above description, it can be seen that the weak discriminator C2 can also be processed in a minimum of two cycles.

弱判別器C3は、第1メモリからD3,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値、第2メモリからD3,2に対応する特徴画像(第4特徴画像405)における画素位置の画素値、を並列に読み出す。上記の説明から、弱判別器C3についても最短2サイクルで処理できることがわかる。 The weak discriminator C3 is a pixel value of a pixel position in a feature image (first feature image 402) corresponding to D 3 and 1 from the first memory, and a feature image (fourth feature) corresponding to D 3 and 2 from the second memory. The pixel value of the pixel position in the image 405) is read out in parallel. From the above description, it can be seen that the weak discriminator C3 can also be processed in a minimum of two cycles.

弱判別器C4は、第1メモリからD4,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値、第1メモリからD4,2に対応する特徴画像(第2特徴画像403)における画素位置の画素値、を読み出す。この場合、第1メモリから2つの画素値を読み出すことになるので、これには2サイクルの時間を要することになり、その結果、弱判別器C4については最短3サイクルで処理できることがわかる。 Weak discriminator C4, the pixel value of the pixel position in the feature image (first feature image 402) corresponding from the first memory to the D 4, 1, wherein the image (second features corresponding from the first memory to the D 4, 2 The pixel value of the pixel position in image 403) is read out. In this case, since the two pixel values are read from the first memory, this requires a time of two cycles, and as a result, it can be seen that the weak discriminator C4 can be processed in a minimum of three cycles.

然るに、このような場合、弱判別器C1〜C4を全て処理するためには、合計9サイクルの時間を要することが分かる。 However, in such a case, it can be seen that a total of 9 cycles are required to process all the weak discriminators C1 to C4.

次に、本実施形態の構成において、図5に示す如く、第1特徴画像402、第2特徴画像403、第3特徴画像404、第4特徴画像405をグループごとに別個のメモリに格納しない場合に、図3に示す弱判別器C1〜C4の動作に要する時間について説明する。図5では、第1特徴画像402、第2特徴画像403、第3特徴画像404、第4特徴画像405を1つのグループ501(グループ1)として(グループ分けせずに)、1つのメモリ(第1メモリ)に格納している。 Next, in the configuration of the present embodiment, as shown in FIG. 5, when the first feature image 402, the second feature image 403, the third feature image 404, and the fourth feature image 405 are not stored in separate memories for each group. The time required for the operation of the weak discriminators C1 to C4 shown in FIG. 3 will be described later. In FIG. 5, the first feature image 402, the second feature image 403, the third feature image 404, and the fourth feature image 405 are grouped 501 (group 1) into one memory (without grouping). It is stored in 1 memory).

弱判別器C1は、第1メモリからD1,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値と、D1,2に対応する特徴画像(第3特徴画像404)における画素位置の画素値と、を読み出す。この場合、第1メモリから2つの画素値を読み出すことになるので、これには2サイクルの時間を要することになり、その結果、弱判別器C1については最短3サイクルの時間を要することになる。 The weak discriminator C1 has a pixel value of a pixel position in a feature image (first feature image 402) corresponding to D 1 , 1 from the first memory and a feature image corresponding to D 1 , 2 (third feature image 404). The pixel value of the pixel position in is read out. In this case, since two pixel values are read from the first memory, this requires a time of two cycles, and as a result, the weak discriminator C1 requires a minimum of three cycles. ..

弱判別器C2は、第1メモリからD2,1に対応する特徴画像(第2特徴画像403)における画素位置の画素値と、D2,2に対応する特徴画像(第4特徴画像405)における画素位置の画素値と、を読み出す。上記の説明から、弱判別器C2についても最短3サイクルの時間を要することになる。 The weak discriminator C2 has a pixel value of a pixel position in a feature image (second feature image 403) corresponding to D 2 , 1 from the first memory and a feature image corresponding to D 2 , 2 (fourth feature image 405). The pixel value of the pixel position in is read out. From the above description, it takes a minimum of 3 cycles for the weak discriminator C2 as well.

弱判別器C3は、第1メモリからD3,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値と、D3,2に対応する特徴画像(第4特徴画像405)における画素位置の画素値と、を読み出す。上記の説明から、弱判別器C3についても最短3サイクルの時間を要することになる。 The weak discriminator C3 has a pixel value of a pixel position in a feature image (first feature image 402) corresponding to D 3 and 1 from the first memory and a feature image corresponding to D 3 and 2 (fourth feature image 405). The pixel value of the pixel position in is read out. From the above description, the weak discriminator C3 also requires a minimum of 3 cycles.

弱判別器C4は、第1メモリからD4,1に対応する特徴画像(第1特徴画像402)における画素位置の画素値と、D4,2に対応する特徴画像(第2特徴画像403)における画素位置の画素値と、を読み出す。上記の説明から、弱判別器C4についても最短3サイクルの時間を要することになる。 The weak discriminator C4 has a pixel value of a pixel position in a feature image (first feature image 402) corresponding to D 4 , 1 from the first memory and a feature image corresponding to D 4 , 2 (second feature image 403). The pixel value of the pixel position in is read out. From the above explanation, it takes a minimum of 3 cycles for the weak discriminator C4 as well.

然るに、このような場合、弱判別器C1〜C4を全て処理するためには、合計12サイクルの時間を要することが分かる。 However, in such a case, it can be seen that a total of 12 cycles is required to process all the weak discriminators C1 to C4.

このように、入力画像から生成した特徴画像をグループごとに異なるメモリに格納しておくことで、特徴画像をグループ分けせずに1つのメモリに格納する場合と比べて、カスケード接続された複数個の弱判別器によるパターン判別に要する時間を短縮できる。 By storing the feature images generated from the input images in different memories for each group in this way, as compared with the case where the feature images are stored in one memory without being divided into groups, a plurality of cascade-connected features are stored. The time required for pattern discrimination by the weak discriminator can be shortened.

[第2の実施形態]
第1の実施形態では、図3の弱判別器C4に対する第1パラメータのように、1つの弱判別器について画素値を読み出す際に、1つのメモリに複数回のアクセスを許容していた。本実施形態では、各弱判別器に対応するパラメータに制約を与えて学習する。具体的には、ブースティング学習による特徴選択時に、第1パラメータにおけるそれぞれのデータセットに対応する特徴画像が同一のグループの中にある組合せを選択しない。これにより、1つの弱判別器について画素値を読み出す際に、1つのメモリに複数回のアクセスを許容せず、1つのメモリに1回のみのアクセスとする。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
[Second Embodiment]
In the first embodiment, as in the first parameter for the weak discriminator C4 in FIG. 3, when reading the pixel value for one weak discriminator, one memory is allowed to be accessed a plurality of times. In the present embodiment, the parameters corresponding to each weak discriminator are constrained for learning. Specifically, at the time of feature selection by boosting learning, the combination in which the feature images corresponding to the respective data sets in the first parameter are in the same group is not selected. As a result, when reading the pixel value for one weak discriminator, one memory is not allowed to be accessed multiple times, and one memory is accessed only once. Hereinafter, the differences from the first embodiment will be mainly described, and unless otherwise specified below, the same as the first embodiment.

図9のように、カスケード接続された4個の弱判別器によってパターン判別を行う場合における、それぞれの弱判別器への第1パラメータの一例について、図9を用いて説明する。図9では、入力画像から第1特徴画像、第2特徴画像、第3特徴画像、第4特徴画像の4枚の特徴画像が生成されている。ここで、弱判別器C1〜C3に対する第1パラメータは、図3と同様であるが、弱判別器C4に対する第1パラメータは図3と異なる。即ち、D4,1は、第2特徴画像の識別情報と、第2特徴画像において黒丸で示した画素位置と、のセットデータである。D4,2は、第3特徴画像の識別情報と、第3特徴画像において黒丸で示した画素位置と、のセットデータである。 As shown in FIG. 9, an example of the first parameter for each weak discriminator when pattern discrimination is performed by four cascade-connected weak discriminators will be described with reference to FIG. In FIG. 9, four feature images, a first feature image, a second feature image, a third feature image, and a fourth feature image, are generated from the input image. Here, the first parameters for the weak discriminators C1 to C3 are the same as those in FIG. 3, but the first parameters for the weak discriminators C4 are different from those in FIG. That is, D 4 and 1 are set data of the identification information of the second feature image and the pixel positions indicated by the black circles in the second feature image. D 4 and 2 are set data of the identification information of the third feature image and the pixel positions indicated by the black circles in the third feature image.

図3とは異なり、D4,1に対応する特徴画像(第2特徴画像)とD4,2に対応する特徴画像(第3特徴画像)とは互いに異なるメモリ(前者は第1メモリで後者は第2メモリ)に格納されている。然るにこの場合、弱判別器C4についても、第1メモリからD4,1に対応する画素値、第2メモリからD4,2に対応する画素値、を並列に読み出すことができる。 Unlike FIG. 3, the feature image (second feature image) corresponding to D 4 , 1 and the feature image (third feature image) corresponding to D 4 , 2 have different memories (the former is the first memory and the latter). Is stored in the second memory). However, in this case, also for the weak discriminator C4, the pixel values corresponding to D 4 and 1 can be read from the first memory and the pixel values corresponding to D 4 and 2 can be read out in parallel from the second memory.

次に、図4のように第1〜4特徴画像が第1メモリ及び第2メモリの何れかにグループ分けされて保持されてる場合に、図9に示す弱判別器C1〜C4の動作に要する時間について説明する。弱判別器C1〜C3については図3と同様であるから、弱判別器C1〜C3の何れについても、最短2サイクルで処理できる。 Next, when the first to fourth feature images are grouped and held in either the first memory or the second memory as shown in FIG. 4, the weak discriminators C1 to C4 shown in FIG. 9 are required to operate. Explain the time. Since the weak discriminators C1 to C3 are the same as those in FIG. 3, any of the weak discriminators C1 to C3 can be processed in a minimum of two cycles.

弱判別器C4は、第1メモリからD4,1に対応する特徴画像(第2特徴画像)における画素位置の画素値、第2メモリからD4,2に対応する特徴画像(第3特徴画像)における画素位置の画素値、を読み出す。上記の通り、第1メモリへのアクセス及び第2メモリへのアクセスを1サイクルで実現できるので、1つの弱判別器において、第1パラメータの読み出し以外の処理に最短で1サイクルを要するとすると、弱判別器C4についても最短2サイクルで処理できる。 The weak discriminator C4 is a pixel value of a pixel position in a feature image (second feature image) corresponding to D 4 , 1 from the first memory, and a feature image (third feature image) corresponding to D 4 , 2 from the second memory. ) Is read out. As described above, since the access to the first memory and the access to the second memory can be realized in one cycle, if one weak discriminator requires a minimum of one cycle for processing other than reading the first parameter, it is assumed. The weak discriminator C4 can also be processed in a minimum of two cycles.

然るに、このような場合、弱判別器C1〜C4を全て処理するためには、合計8サイクルの時間を要することが分かる。 However, in such a case, it can be seen that a total of 8 cycles is required to process all the weak discriminators C1 to C4.

ここで、図6に示す如く、それぞれの特徴画像を別個のメモリに格納する場合、図6では4枚の特徴画像(第1特徴画像402、第2特徴画像403、第3特徴画像404、第4特徴画像405)が生成されているわけであるから、メモリの数も4となる(第1〜4メモリ601〜604)。ここで、第1〜4メモリへのアクセスを1サイクルで行い、且つ1つの弱判別器において第1パラメータの読み出し以外の処理に最短で1サイクルを要するとすると、上記の説明からすると、弱判別器C1〜C4のそれぞれについては最短2サイクルで処理できる。然るに、このような場合、弱判別器C1〜C4を全て処理するためには、合計8サイクルの時間を要する。このように、弱判別器C1〜C4を全て処理するために要するサイクル数については本実施形態と同様である。しかし、使用しているメモリの数は4(第1〜4メモリ)となり、本実施形態において必要となるメモリの数(=2つ:第1メモリと第2メモリ)よりも多くなってしまい、実装時のコストが増大する。 Here, as shown in FIG. 6, when each feature image is stored in a separate memory, four feature images (first feature image 402, second feature image 403, third feature image 404, third feature image 404) are shown in FIG. Since the four feature images 405) are generated, the number of memories is also four (first to fourth memories 601 to 604). Here, assuming that the first to fourth memories are accessed in one cycle and a process other than reading the first parameter requires one cycle at the shortest in one weak discriminator, the weak discriminant is determined from the above explanation. Each of the vessels C1 to C4 can be processed in a minimum of two cycles. However, in such a case, it takes a total of 8 cycles to process all the weak discriminators C1 to C4. As described above, the number of cycles required to process all the weak discriminators C1 to C4 is the same as that of the present embodiment. However, the number of memories used is 4 (1st to 4th memories), which is larger than the number of memories required in the present embodiment (= 2: 1st memory and 2nd memory). The cost of mounting increases.

このように、特徴画像を所定のグループ単位で保持し、学習アルゴリズムに制約をかけることで、常にグループ保持部のメモリから異なるグループの特徴画像を並列に参照できるようになるため、メモリコストの増加を抑えて、高速に処理することができる。 In this way, by holding the feature images in a predetermined group unit and limiting the learning algorithm, it is possible to always refer to the feature images of different groups in parallel from the memory of the group holding unit, which increases the memory cost. Can be processed at high speed.

<変形例>
各弱判別器に対応する第1,2パラメータは複数の段階で決定しても良い。図11にパラメータ学習の例を示す。ステップS1101では、学習アルゴリズムによって、仮の第1パラメータと第2パラメータを決定する。ステップS1102では、測定画像と仮の第1パラメータと第2パラメータを用いて第1判別精度を計算し、保存する。ここでの判別精度は、測定画像でのパターン判別の正確度である。ステップS1103では、各特徴画像の画素を参照する確率を解析し、弱判別器毎に異なるグループから特徴画像の画素を参照する確率が高まるようにグループの単位を設定する。ステップS1104では、ステップS1103で設定したグループの単位に基づいて、異なるメモリから特徴画像を並列に参照できるという制約を元に、第1パラメータと第2パラメータを決定する。ステップS1105では、測定画像と第1パラメータと第2パラメータを用いて第2判別精度を計算し、保存する。ステップS1106では、第1判別精度と第2判別精度との差が所定の閾値より大きいかどうかを判断する。第1判別精度と第2判別精度との差が閾値より大きい場合には、ステップS1103に戻り、グループの単位を再設定する。そうでない場合には、パラメータ学習を終了する。
<Modification example>
The first and second parameters corresponding to each weak discriminator may be determined in a plurality of stages. FIG. 11 shows an example of parameter learning. In step S1101, a tentative first parameter and a second parameter are determined by the learning algorithm. In step S1102, the first discrimination accuracy is calculated and saved using the measured image, the provisional first parameter, and the second parameter. The discrimination accuracy here is the accuracy of pattern discrimination in the measured image. In step S1103, the probability of referencing the pixel of each feature image is analyzed, and the unit of the group is set so that the probability of referencing the pixel of the feature image from a different group for each weak discriminator increases. In step S1104, the first parameter and the second parameter are determined based on the restriction that the feature images can be referred to in parallel from different memories based on the group unit set in step S1103. In step S1105, the second discrimination accuracy is calculated and saved using the measured image, the first parameter, and the second parameter. In step S1106, it is determined whether or not the difference between the first discrimination accuracy and the second discrimination accuracy is larger than a predetermined threshold value. If the difference between the first discrimination accuracy and the second discrimination accuracy is larger than the threshold value, the process returns to step S1103 and the unit of the group is reset. If not, parameter learning is terminated.

なお、上述した例では、グループの単位を決定するために、第1判別精度と第2判別精度との差が閾値より大きいかどうかを判断していたが、判別精度の差に代えて、弱判別器の数の差で判断するようにしても良い。 In the above-mentioned example, in order to determine the unit of the group, it was determined whether the difference between the first discrimination accuracy and the second discrimination accuracy was larger than the threshold value, but instead of the difference in the discrimination accuracy, it was weak. The judgment may be made based on the difference in the number of discriminators.

また、第1,2の実施形態では、特徴画像(2次元データ/2次元配列)に対してパターン判別を行うという例について説明した。しかし、第1,2の実施形態は、任意次元の入力データ列から生成された任意次元の特徴データ列に対してパターン判別を行うケースであっても同様に適用することができる。 Further, in the first and second embodiments, an example in which pattern discrimination is performed on a feature image (two-dimensional data / two-dimensional array) has been described. However, the first and second embodiments can be similarly applied even in the case of performing pattern discrimination on the arbitrary dimension feature data string generated from the arbitrary dimension input data string.

また、第1,2の実施形態では、1枚の入力画像から複数枚の特徴画像を生成し、該生成された複数枚の特徴画像を用いてパターン判別を行う例を説明した。しかし複数枚の静止画像のそれぞれから複数枚の特徴画像を生成する、又は動画像を構成する各フレームの画像から複数枚の特徴画像を生成する、の何れであっても、グループ化対象となる画像の数が増えるだけで実質的な処理は第1,2の実施形態と同様である。 Further, in the first and second embodiments, an example in which a plurality of feature images are generated from one input image and pattern discrimination is performed using the generated plurality of feature images has been described. However, whether a plurality of feature images are generated from each of the plurality of still images or a plurality of feature images are generated from the images of each frame constituting the moving image, they are subject to grouping. Substantial processing is the same as in the first and second embodiments except that the number of images is increased.

また、第1、2の実施形態では、4枚の特徴画像を2個のグループに分割する例について説明したが、2個のグループに限定される訳でなく、任意個のグループでも良い。即ち、1枚の特徴画像を3個以上のグループに分割しても良い。また、一個のグループの中の特徴画像は部分的な特徴画像を包含しても良い。 Further, in the first and second embodiments, an example of dividing the four feature images into two groups has been described, but the present invention is not limited to the two groups, and any group may be used. That is, one feature image may be divided into three or more groups. Further, the feature image in one group may include a partial feature image.

また、入力画像に対して任意の線形変換(幾何学的な変換等)又は非線形変換(モフォロジカルフィルタ等)を施したものを特徴画像として生成しても構わないし、入力画像がカラー画像の場合、各色プレーン或いはその色変換結果を特徴画像としても良い。更に、特徴画像は積分画像等であっても良い。 Further, an input image that has undergone arbitrary linear transformation (geometric transformation, etc.) or nonlinear transformation (morphological filter, etc.) may be generated as a feature image, and when the input image is a color image. , Each color plane or its color conversion result may be used as a feature image. Further, the feature image may be an integrated image or the like.

また、第1,2の実施形態では、各弱判別器に対応するパラメータの特性に基づいて、特徴画像を所定のグループ単位で異なるメモリに保持する例について説明したが、特徴画像の特性に応じて、グループ単位を決定しても良い。 Further, in the first and second embodiments, an example in which the feature image is held in a different memory in a predetermined group unit based on the characteristics of the parameters corresponding to each weak discriminator has been described, but it depends on the characteristics of the feature image. The group unit may be determined.

また、第1,2の実施形態では、各弱判別器に対応するパラメータの特性に基づいて、特徴画像を所定のグループ単位で異なるメモリに保持する例について説明したが、判別するパターンにより、グループ単位を決定しても良い。例えば、人体や車等の判別対象によって、グループ単位を決定しても良い。 Further, in the first and second embodiments, an example in which the feature image is held in a different memory in a predetermined group unit based on the characteristics of the parameters corresponding to each weak discriminator has been described, but the group is determined by the discriminating pattern. The unit may be determined. For example, the group unit may be determined according to the discrimination target such as a human body or a car.

[第3の実施形態]
図8に示した各機能部はハードウェアでもって構成しても構わない。しかし、グループ保持部802、パラメータ保持部805、判別結果保持部806をメモリで構成し、制御部803をCPU等のプロセッサで構成し、特徴画像生成部801及び弱判別器処理部804をコンピュータプログラムで構成しても構わない。
[Third Embodiment]
Each functional unit shown in FIG. 8 may be configured by hardware. However, the group holding unit 802, the parameter holding unit 805, and the discrimination result holding unit 806 are configured by a memory, the control unit 803 is configured by a processor such as a CPU, and the feature image generation unit 801 and the weak discriminator processing unit 804 are computer programs. It may be composed of.

また、図8に示した構成を有するパターン判別装置を搭載したコンピュータ装置(情報処理装置)を構成することも可能である。この場合、このコンピュータ装置は、第1,2の実施形態で説明したパターン判別装置の機能を含む様々な機能を有する装置となる。このようなコンピュータ装置としては、例えば、一般のPC(パーソナルコンピュータ)や、ディジタルカメラ、携帯電話、タブレット端末装置、などがある。このようなコンピュータ装置のハードウェア構成例について、図7のブロック図を用いて説明する。 It is also possible to configure a computer device (information processing device) equipped with a pattern discriminating device having the configuration shown in FIG. In this case, the computer device is a device having various functions including the functions of the pattern discriminating device described in the first and second embodiments. Examples of such a computer device include a general PC (personal computer), a digital camera, a mobile phone, a tablet terminal device, and the like. An example of a hardware configuration of such a computer device will be described with reference to the block diagram of FIG.

入力部701は、キーボードやマウスなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU705に対して入力することができる。 The input unit 701 is composed of a user interface such as a keyboard and a mouse, and various instructions can be input to the CPU 705 by the user's operation.

データ保存部702は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。データ保存部702には、OS(オペレーティングシステム)や、コンピュータ装置が行うべき各処理をCPU705に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。データ保存部702に保存されているコンピュータプログラムやデータは、CPU705による制御に従って適宜RAM707にロードされ、CPU705による処理対象となる。このコンピュータプログラムやデータには、判別処理部708が用いるコンピュータプログラムやデータが含まれていても良い。 The data storage unit 702 is a large-capacity information storage device typified by a hard disk drive device. The data storage unit 702 stores computer programs and data for causing the CPU 705 to execute or control each process to be performed by the OS (operating system) and the computer device. The computer programs and data stored in the data storage unit 702 are appropriately loaded into the RAM 707 according to the control by the CPU 705, and are processed by the CPU 705. The computer program or data may include the computer program or data used by the discrimination processing unit 708.

なお、データ保存部702にはその他の記憶装置を適用することもできる。例えば、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等をデータ保存部702に適用することができる。なお、データ保存部702は、本コンピュータ装置が有することに限らず、外部装置として設けても良く、外部装置としてのデータ保存部702に通信部703を介してアクセスしてデータの読み書きを行っても良い。 It should be noted that other storage devices can also be applied to the data storage unit 702. For example, a flexible disk, CD-ROM, CD-R or DVD, memory card, CF card, SmartMedia, SD card, memory stick, xD picture card, USB memory and the like can be applied to the data storage unit 702. The data storage unit 702 is not limited to the computer device, and may be provided as an external device. The data storage unit 702 as an external device is accessed via the communication unit 703 to read and write data. Is also good.

通信部703は、外部装置とのデータ通信を行うものであり、本コンピュータ装置において処理した結果を外部装置に対して送信したり、外部装置から必要な情報を受信したりする。 The communication unit 703 performs data communication with an external device, transmits the result of processing in the computer device to the external device, and receives necessary information from the external device.

表示部704は、CRTや液晶画面、プロジェクタなどにより構成されており、CPU705による処理結果を画像や文字などでもって表示/投影することができる。なお、入力部701と表示部704とを一体化させてタッチパネル画面を構成してもよく、その場合、このタッチパネル画面は、ユーザからの様々な操作入力を受け付けると共に、CPU705による処理結果を画像や文字などでもって表示することができる。また、表示部704は、本コンピュータ装置が有することに限らず、外部装置として設けても構わない。 The display unit 704 is composed of a CRT, a liquid crystal screen, a projector, and the like, and can display / project the processing result by the CPU 705 with images, characters, and the like. The input unit 701 and the display unit 704 may be integrated to form a touch panel screen. In that case, the touch panel screen accepts various operation inputs from the user and displays the processing result by the CPU 705 as an image. It can be displayed with characters. Further, the display unit 704 is not limited to the computer device, and may be provided as an external device.

CPU705は、ROM706やRAM707に格納されているコンピュータプログラムやデータを用いて各種の処理を実行することで、本コンピュータ装置全体の動作制御を行う。 The CPU 705 controls the operation of the entire computer device by executing various processes using the computer programs and data stored in the ROM 706 and the RAM 707.

ROM706には、本コンピュータ装置の設定データやブートプログラムなどが格納されている。 The ROM 706 stores the setting data of the computer device, the boot program, and the like.

RAM707は、データ保存部702からロードされたコンピュータプログラムやデータ、通信部703が外部装置から受信したコンピュータプログラムやデータ、を格納するためのエリアを有する。更にRAM707は、CPU705や判別処理部708が各種の処理を実行する際に用いるワークエリアも有する。このようにRAM707は、各種のエリアを適宜提供することができる。また、データ保存部702及びRAM707のうち一方の機能の一部を他方が担っても良い。 The RAM 707 has an area for storing computer programs and data loaded from the data storage unit 702 and computer programs and data received from the external device by the communication unit 703. Further, the RAM 707 also has a work area used by the CPU 705 and the discrimination processing unit 708 to execute various processes. As described above, the RAM 707 can appropriately provide various areas. Further, the other may bear a part of the function of one of the data storage unit 702 and the RAM 707.

判別処理部708は、第1,2の実施形態に係るパターン判別装置であり、図8に示す構成を有する。例えば判別処理部708は、通信部703を介して外部装置から若しくはデータ保存部702からRAM707に取得した第1,2パラメータ及び特徴画像を用いてパターン判別を行う。判別処理部708による処理結果はRAM707やデータ保存部702に格納しても良いし、通信部703を介して外部装置に対して送信しても良い。 The discrimination processing unit 708 is a pattern discrimination device according to the first and second embodiments, and has the configuration shown in FIG. For example, the discrimination processing unit 708 performs pattern discrimination using the first and second parameters and the feature image acquired from the external device or from the data storage unit 702 to the RAM 707 via the communication unit 703. The processing result by the discrimination processing unit 708 may be stored in the RAM 707 or the data storage unit 702, or may be transmitted to an external device via the communication unit 703.

また、CPU705が判別処理部708によるパターン判別の結果を用いて画像処理や画像認識を行うこともできる。この場合、CPU705は、画像処理や画像認識の結果をデータ保存部702に保存したり、通信部703を介して外部装置に対して送信しても良い。 Further, the CPU 705 can also perform image processing and image recognition using the result of pattern discrimination by the discrimination processing unit 708. In this case, the CPU 705 may store the results of image processing and image recognition in the data storage unit 702, or may transmit the results to an external device via the communication unit 703.

なお、入力部701、データ保存部702、通信部703、表示部704、CPU705、ROM706、RAM707、判別処理部708のそれぞれは、バス709に接続されている。 The input unit 701, the data storage unit 702, the communication unit 703, the display unit 704, the CPU 705, the ROM 706, the RAM 707, and the discrimination processing unit 708 are each connected to the bus 709.

なお、図7に示した構成は一例に過ぎない。例えば、CPU705を複数個設けても構わないし、複数個のコンピュータ装置でもって図7の構成と同等の構成を実現させても構わない。また、以上説明した実施形態や変形例の一部若しくは全部は適宜組み合わせても構わないし、選択的に使用しても構わない。 The configuration shown in FIG. 7 is only an example. For example, a plurality of CPU 705s may be provided, or a plurality of computer devices may be used to realize a configuration equivalent to the configuration shown in FIG. 7. In addition, some or all of the embodiments and modifications described above may be combined as appropriate, or may be selectively used.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

802:グループ保持部 804:弱判別器処理部 802: Group holding unit 804: Weak discriminator processing unit

Claims (10)

論理的にカスケード接続され、第1の弱判別器と該第1の弱判別器に後続する第2の弱判別器とを含み、複数種類の特徴画像を参照する複数の弱判別器を有するパターン判別装置であって、前記複数種類の特徴画像は当該種類よりも少数の複数のグループに分類され、前記複数の弱判別器の各々は、当該複数のグループのうちそれぞれ異なるグループに属する、弱判別器ごとに定められた2種類以上の特徴画像を参照してパターン判別を行うものであり、
入力画像から前記複数種類の特徴画像を生成する生成手段と、
生成された前記複数種類の特徴画像を前記複数のグループに分類し、グループごとにそれぞれ異なるメモリに保持させる保持手段と
を備え、
前記第1の弱判別器は、該第1の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行い、
前記第2の弱判別器は、前記第1の弱判別器によるパターン判別が成功した場合には、該第2の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行う
ことを特徴とするパターン判別装置。
Is logically cascaded, having a first weak classifier and saw including a second weak classifier subsequent to the first weak classifier, a plurality of weak classifiers refers to several types of feature images In the pattern discriminator, the plurality of types of feature images are classified into a plurality of groups smaller than the type, and each of the plurality of weak discriminators belongs to a different group among the plurality of groups. The pattern is discriminated by referring to two or more types of feature images determined for each discriminator.
A generation means for generating the plurality of types of feature images from an input image, and
As a holding means for classifying the generated plurality of types of feature images into the plurality of groups and holding each group in a different memory.
With
The first weak discriminator, the accesses in parallel to two or more memory each of two or more feature images defined on the first weak discriminator holds the group feature images belonging Two or more types of feature images are read out, and pattern discrimination is performed with reference to the read out two or more types of feature images .
When the pattern discrimination by the first weak discriminator is successful, the second weak discriminator is a feature of a group to which each of two or more types of feature images defined in the second weak discriminator belongs. Two or more types of memory for holding an image are accessed in parallel to read out the two or more types of feature images, and pattern discrimination is performed with reference to the read out two or more types of feature images.
Pattern discriminating apparatus, characterized in that.
更に、
前記弱判別器がパターン判別のために参照するパラメータを保持するパラメータ保持手段を備えることを特徴とする請求項に記載のパターン判別装置。
In addition
The pattern discriminating device according to claim 1 , wherein the weak discriminator includes a parameter holding means for holding a parameter referred to for pattern discriminating.
前記パラメータ保持手段は、前記弱判別器ごとにパラメータを保持することを特徴とする請求項に記載のパターン判別装置。 The pattern discriminating device according to claim 2 , wherein the parameter holding means holds parameters for each weak discriminator. 前記パラメータ保持手段は、前記弱判別器ごとに該弱判別器によるパターン判別の対象を規定する第1のパラメータを保持することを特徴とする請求項に記載のパターン判別装置。 The pattern discriminating device according to claim 3 , wherein the parameter holding means holds a first parameter that defines a target for pattern discrimination by the weak discriminator for each weak discriminator. 前記第1のパラメータは、パターン判別のために参照する特徴画像の識別情報と該特徴画像中の画素位置とを含むことを特徴とする請求項に記載のパターン判別装置。 The pattern discrimination apparatus according to claim 4 , wherein the first parameter includes identification information of a feature image referred to for pattern discrimination and pixel positions in the feature image. 前記パラメータ保持手段は、前記弱判別器ごとに該弱判別器によるパターン判別の結果が成功であるか否かを判断するための第2のパラメータを保持することを特徴とする請求項乃至の何れか1項に記載のパターン判別装置。 Claims 3 to 5 are characterized in that the parameter holding means holds a second parameter for each weak discriminator for determining whether or not the result of pattern discrimination by the weak discriminator is successful. The pattern discriminating device according to any one of the above items. 前記第2のパラメータは、パターンらしさに相当するスコアを算出するための関数と該スコアに対する閾値とを含むことを特徴とする請求項に記載のパターン判別装置。 The pattern discriminating device according to claim 6 , wherein the second parameter includes a function for calculating a score corresponding to the pattern-likeness and a threshold value for the score. 請求項1乃至の何れか1項に記載のパターン判別装置と、該パターン判別装置によるパターン判別の結果を用いて処理を実行する実行手段と、を備えることを特徴とする情報処理装置。 An information processing device comprising the pattern discriminating device according to any one of claims 1 to 7 and an execution means for executing processing using the result of pattern discriminating by the pattern discriminating device. 論理的にカスケード接続され、第1の弱判別器と該第1の弱判別器に後続する第2の弱判別器とを含み、複数種類の特徴画像を参照する複数の弱判別器を有し、前記複数種類の特徴画像は当該種類よりも少数の複数のグループに分類され、前記複数の弱判別器の各々は、当該複数のグループのうちそれぞれ異なるグループに属する、弱判別器ごとに定められた2種類以上の特徴画像を参照してパターン判別を行うパターン判別装置が行うパターン判別方法であって、
入力画像から前記複数種類の特徴画像を生成し、
生成された前記複数種類の特徴画像を前記複数のグループに分類し、グループごとにそれぞれ異なるメモリに保持させ、
前記第1の弱判別器が、該第1の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行い、
前記第2の弱判別器が、前記第1の弱判別器によるパターン判別が成功した場合には、該第2の弱判別器に定められた2種類以上の特徴画像のそれぞれが属するグループの特徴画像を保持する2以上のメモリに対して並列にアクセスして当該2種類以上の特徴画像を読み出し、該読み出した2種類以上の特徴画像を参照してパターン判別を行うことを特徴とするパターン判別方法。
Is logically cascaded look containing a second weak classifier subsequent to the first weak discriminator and the first weak classifier, have a plurality of weak classifiers refers to several types of feature images However, the plurality of types of feature images are classified into a plurality of groups smaller than the type, and each of the plurality of weak discriminators is defined for each weak discriminator belonging to a different group among the plurality of groups. It is a pattern discrimination method performed by a pattern discrimination device that discriminates a pattern by referring to two or more types of feature images .
The plurality of types of feature images are generated from the input image, and
The generated multiple types of feature images are classified into the plurality of groups, and each group is stored in a different memory.
The first weak discriminator, the accesses in parallel to two or more memory each of two or more feature images defined on the first weak discriminator holds the group feature images belonging Two or more types of feature images are read out, and pattern discrimination is performed with reference to the read out two or more types of feature images .
When the second weak discriminator succeeds in pattern discrimination by the first weak discriminator, the feature of the group to which each of the two or more types of feature images defined in the second weak discriminator belongs. Pattern discrimination characterized in that two or more types of memory for holding an image are accessed in parallel, the two or more types of feature images are read out, and pattern discrimination is performed with reference to the read out two or more types of feature images. Method.
コンピュータに請求項に記載のパターン判別方法を実行させるためのコンピュータプログラム。 A computer program for causing a computer to execute the pattern determination method according to claim 9 .
JP2016121223A 2015-09-30 2016-06-17 Pattern discrimination device, information processing device, pattern discrimination method Active JP6827721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/277,191 US10268881B2 (en) 2015-09-30 2016-09-27 Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015194396 2015-09-30
JP2015194396 2015-09-30

Publications (3)

Publication Number Publication Date
JP2017068827A JP2017068827A (en) 2017-04-06
JP2017068827A5 JP2017068827A5 (en) 2019-07-18
JP6827721B2 true JP6827721B2 (en) 2021-02-10

Family

ID=58494989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121223A Active JP6827721B2 (en) 2015-09-30 2016-06-17 Pattern discrimination device, information processing device, pattern discrimination method

Country Status (1)

Country Link
JP (1) JP6827721B2 (en)

Also Published As

Publication number Publication date
JP2017068827A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
CN105933589B (en) A kind of image processing method and terminal
US8582836B2 (en) Face recognition in digital images by applying a selected set of coefficients from a decorrelated local binary pattern matrix
CN104350509B (en) Quick attitude detector
CN106651877B (en) Instance partitioning method and device
CN110765860A (en) Tumble determination method, tumble determination device, computer apparatus, and storage medium
WO2015016988A1 (en) Object recognition and tracking using a classifier comprising cascaded stages of multiple decision trees
US8103058B2 (en) Detecting and tracking objects in digital images
US8693791B2 (en) Object detection apparatus and object detection method
US20110010317A1 (en) Information processing apparatus enabling discriminator to learn and method thereof
US10579909B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
JP2007047975A (en) Method and device for detecting multiple objects of digital image, and program
US10268881B2 (en) Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
CN111640123B (en) Method, device, equipment and medium for generating background-free image
CN111860077A (en) Face detection method, face detection device, computer-readable storage medium and equipment
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
CN108133169A (en) A kind of embark on journey processing method and its device for text image
US8953893B2 (en) System and method to determine feature candidate pixels of an image
JP5335554B2 (en) Image processing apparatus and image processing method
US10402693B2 (en) Apparatus and method for classifying pattern in image
Tsiktsiris et al. Accelerated seven segment optical character recognition algorithm
US20150286892A1 (en) Image processing apparatus and image processing method
CN113269752A (en) Image detection method, device terminal equipment and storage medium
JP6827721B2 (en) Pattern discrimination device, information processing device, pattern discrimination method
US11288534B2 (en) Apparatus and method for image processing for machine learning
CN115004245A (en) Target detection method, target detection device, electronic equipment and computer storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R151 Written notification of patent or utility model registration

Ref document number: 6827721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151