JP6383639B2 - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP6383639B2 JP6383639B2 JP2014220616A JP2014220616A JP6383639B2 JP 6383639 B2 JP6383639 B2 JP 6383639B2 JP 2014220616 A JP2014220616 A JP 2014220616A JP 2014220616 A JP2014220616 A JP 2014220616A JP 6383639 B2 JP6383639 B2 JP 6383639B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- prior distribution
- learning
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像処理装置、及び画像処理プログラムに係り、特に、画像から検出対象を検出する画像処理装置、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program for detecting a detection target from an image.
近年、画像や動画に写る物体を自動的に検出及び識別する技術によって、WEB画像検索システムや、実世界の物体をクエリとして商品を検索するシステムなどが実現されている。これらのシステムは、画像に写る物体、例えば、服や動物などを自動的に検出し、対応する商品や物体の名称を提示することを目的としている。ユーザの多様な検索ニーズに答えるためには、物体そのものだけでなく、物体を構成するパーツや要素(例えば服における襟やその形)を自動的に検出する技術が必要となる。そのようなパーツや要素はアトリビュートと呼ばれ、近年、アトリビュート検出の研究開発が進められている。例えば、非特許文献1に記載の技術では、犬の尻尾・足・毛皮、飛行機の翼・窓・金属といった物体を構成するパーツや質感をアトリビュートとして扱っている。また、非特許文献2に記載の技術では、衣服の襟の形、袖の長さ、柄などをアトリビュートとして扱っている。
In recent years, a WEB image search system, a system for searching for goods using a real-world object as a query, and the like have been realized by a technique for automatically detecting and identifying an object appearing in an image or a moving image. These systems are intended to automatically detect an object shown in an image, such as clothes and animals, and present the name of the corresponding product or object. In order to answer various search needs of users, a technique for automatically detecting not only the object itself but also parts and elements (for example, a collar and its shape in clothes) constituting the object is required. Such parts and elements are called attributes, and in recent years, research and development of attribute detection has been promoted. For example, in the technique described in Non-Patent
アトリビュートの検出を実現するためには、アトリビュートを検出すべき物体とみなし、従来の物体検出手法を適用することが簡便な方法である。物体検出の方法について従来いくつかの発明がなされ、開示されてきている。 In order to realize the attribute detection, it is a simple method to consider the attribute as an object to be detected and apply a conventional object detection method. Several inventions have been made and disclosed for object detection methods.
例えば、特許文献1に記載の発明では、予め用意した物体のテンプレートと入力画像とをマッチングすることにより、入力画像中の検出対象である物体を検出している。さらに、特許文献1に記載の技術では、入力画像のシーン構成を推定し、前景に対してのみテンプレートを走査することで、精度の良い検出を行っている。
For example, in the invention described in
また、非特許文献3に記載の技術では、学習画像に含まれる検出対象を示す領域が矩形領域として与えられた学習画像から学習した検出器を用いて、画像全体を走査し検出対象を検出している。この方法では、各学習画像における矩形領域に含まれる画素の画素値から、HOG(Histograms of Oriented Gradients)等の特徴量を抽出し(非特許文献4)、SVM(Support vector machine)等の識別器を用いて検出対象の検出器を学習する。検出時には、画像に対して任意の大きさの矩形をずらしながら当てはめ、各矩形内の領域から抽出した特徴量を学習した検出器に入力し、その矩形内に検出対象が存在する確率(スコア)を得る。そして、閾値を超えたスコアを持つ矩形の位置を最終的な検出結果としている。
In the technique described in Non-Patent
しかしながら、上記非特許文献3に記載の技術では、検出対象を示す領域以外の領域であっても、学習した検出対象の特徴と類似した特徴を持つ領域の場合には、検出対象として誤検出されてしまう場合がある。一般に、アトリビュートは物体を構成するパーツであり、従来の物体検出手法が対象としている物体より小さな領域を検出する必要がある。小さな領域から得られる特徴は情報量が少なくなるため、画像からアトリビュートを検出する場合、物体全体を検出する場合と比較して誤検出が発生し易くなる。
However, in the technique described in Non-Patent
本発明は、このような課題に鑑みてなされたものであり、検出対象が物体のパーツや要素のように画像上での領域が小さい場合でも、検出対象を精度良く検出することができる画像処理装置及びプログラムを提供することを目的とする。 The present invention has been made in view of such problems, and image processing capable of accurately detecting a detection target even when the detection target is a small area on the image, such as an object part or element. An object is to provide an apparatus and a program.
上記目的を達成するために、第1の発明に係る画像処理装置は、複数種類の検出対象を含む複数の学習画像の各々から抽出された前記検出対象の種類毎の特徴と前記検出対象の種類とを対応付けて学習した検出器と、入力画像から抽出された特徴とに基づいて、前記入力画像から前記検出対象の候補を種類毎に検出する検出手段と、前記入力画像における前記検出対象の候補の各々の出現位置に対して、前記複数の学習画像の各々における前記検出対象の種類毎の出現位置を学習した事前分布、及び異なる種類の検出対象間の相対位置関係を学習した事前分布を反映させた結果に基づいて、前記検出対象の候補から検出対象を種類毎に特定する特定手段と、を含んで構成されている。 In order to achieve the above object, an image processing apparatus according to the first invention, a plurality of types of detection object of the detection target extracted from each of the plurality of training images including kinds each feature and the detected type of And detecting means for detecting the detection target candidates for each type from the input image, based on the features extracted from the input image, and the detection target of the input image For each appearance position of candidates, a prior distribution in which the appearance position for each type of the detection target in each of the plurality of learning images is learned, and a prior distribution in which a relative positional relationship between different types of detection targets is learned. And specifying means for specifying the detection target for each type from the detection target candidates based on the reflected result.
第1の発明に係る画像処理装置によれば、複数種類の検出対象を含む複数の学習画像の各々から抽出された検出対象の種類毎の特徴と検出対象の種類とを対応付けて学習した検出器と、複数の学習画像の各々における検出対象の種類毎の出現位置を学習した事前分布、及び異なる種類の検出対象間の相対位置関係を学習した事前分布とが予め用意されている。検出手段は、入力画像から抽出された特徴と検出器とに基づいて、入力画像から検出対象の候補を種類毎に検出する。そして、特定手段は、入力画像における検出対象の候補の各々の出現位置に対して、検出対象の種類毎の出現位置の事前分布、及び異なる種類の検出対象間の相対位置関係の事前分布を反映させた結果に基づいて、検出対象の候補から検出対象を特定する。 According to the image processing apparatus according to the first invention, the detection learned in association with characteristics and kinds of the detection target of each type of detection target extracted from each of the plurality of training images including a plurality of types of detection target And a prior distribution in which the appearance position of each type of detection target in each of the plurality of learning images is learned, and a prior distribution in which a relative positional relationship between different types of detection targets is learned . The detection means detects a detection target candidate for each type from the input image based on the feature extracted from the input image and the detector. Then, the specifying unit reflects the prior distribution of the appearance positions for each type of detection target and the prior distribution of the relative positional relationship between different types of detection targets with respect to the appearance positions of the detection target candidates in the input image. Based on the result, the detection target is specified from the detection target candidates.
このように、検出器を用いて入力画像から検出対象を種類毎に検出する際、画像上での検出対象の種類毎の出現位置についての事前分布、及び異なる種類の検出対象間の相対位置関係の事前分布を反映させるため、検出対象が物体のパーツや要素のように画像上での領域が小さい場合でも、検出対象を精度良く検出することができる。 Thus, when detecting the detection target for each type from the input image using the detector, the prior distribution of the appearance position for each type of the detection target on the image and the relative positional relationship between the different types of detection targets for reflecting the prior distribution, it may be detected even when the region on the image as the object parts and elements is small, to detect the detection target accurately.
また、第2の発明に係る画像処理装置は、複数種類の検出対象を含む複数の学習画像の各々における前記検出対象の種類毎の出現位置を学習した事前分布、及び異なる種類の検出対象間の相対位置関係を学習した事前分布に基づいて、入力画像から前記検出対象を種類毎に検出する範囲を特定する特定手段と、前記複数の学習画像の各々から抽出された前記検出対象の種類毎の特徴と前記検出対象の種類とを対応付けて学習した検出器と、前記特定手段により特定された前記範囲から抽出された特徴とに基づいて、前記入力画像から前記検出対象を種類毎に検出する検出手段と、を含んで構成することができる。 The image processing apparatus according to the second aspect of the present invention provides a prior distribution in which the appearance positions for each type of the detection target in each of a plurality of learning images including a plurality of types of detection targets are learned , and between different types of detection targets based on the prior distribution learned the relative positional relationship, specifying means for specifying a range to be detected from the input image for each type of the detection target, it is extracted from each of the plurality of training images of each type of the detection target The detection target is detected for each type from the input image based on a detector learned by associating a feature with the type of the detection target and the feature extracted from the range specified by the specifying unit. And a detecting means.
第2の発明に係る画像処理装置によれば、複数種類の検出対象を含む複数の学習画像の各々から抽出された検出対象の種類毎の特徴と検出対象の種類とを対応付けて学習した検出器と、複数の学習画像の各々における検出対象の種類毎の出現位置を学習した事前分布、及び異なる種類の検出対象間の相対位置関係を学習した事前分布とが予め用意されている。特定手段は、検出対象の出現位置の事前分布、及び異なる種類の検出対象間の相対位置関係の事前分布に基づいて、入力画像から検出対象を種類毎に検出する範囲を特定する。そして、検出手段は、特定手段により特定された範囲から抽出された特徴と検出器とに基づいて、入力画像から検出対象を種類毎に検出する。 According to the image processing apparatus according to the second invention, the detection learned in association with characteristics and kinds of the detection target of each type of detection target extracted from each of the plurality of training images including a plurality of types of detection target And a prior distribution in which the appearance position of each type of detection target in each of the plurality of learning images is learned, and a prior distribution in which a relative positional relationship between different types of detection targets is learned . The specifying unit specifies a range in which the detection target is detected for each type from the input image based on the prior distribution of the appearance position of the detection target and the prior distribution of the relative positional relationship between the different types of detection targets . And a detection means detects a detection target for every kind from an input image based on the feature extracted from the range specified by the specification means, and a detector.
このように、画像上での検出対象の出現位置についての事前分布、及び異なる種類の検出対象間の相対位置関係の事前分布を反映させた範囲から検出対象を種類毎に検出するため、誤検出を低減することができると共に、検出処理の高速化を図ることができる。 In this way, the detection target is detected for each type from the range reflecting the prior distribution of the appearance position of the detection target on the image and the prior distribution of the relative positional relationship between different types of detection target. Can be reduced, and the speed of the detection process can be increased.
また、第1または第2の発明に係る画像処理装置において、前記事前分布を、前記学習画像の各位置における前記検出対象の種類毎の出現確率を値として有する行列、及び一の種類の検出対象から見た他の種類の検出対象の出現確率を値として有する行列に対して、ガウシアンフィルタを用いたぼかし処理を施した行列で表すことができる。これにより、学習画像上での検出対象の出現位置の揺らぎを低減し、より検出精度を向上させることができる。 Further, in the image processing device according to the first or second invention, the prior distribution is a matrix having the appearance probability for each type of the detection target at each position of the learning image as a value , and one type of detection This can be expressed as a matrix obtained by performing a blurring process using a Gaussian filter on a matrix having the appearance probability of another type of detection target as viewed from the target . Thereby, the fluctuation of the appearance position of the detection target on the learning image can be reduced, and the detection accuracy can be further improved.
また、第1または第2の発明に係る画像処理装置は、前記複数の学習画像を用いて、前記検出器及び前記事前分布を学習する学習手段を含んで構成することができる。 The image processing apparatus according to the first or second invention may be configured to include learning means for learning the detector and the prior distribution using the plurality of learning images.
また、第3の発明に係る画像処理プログラムは、コンピュータを、上記の画像処理装置を構成する各手段として機能させるためのプログラムである。 An image processing program according to the third invention is a program for causing a computer to function as each means constituting the above-described image processing apparatus.
以上説明したように、本発明の画像処理装置及びプログラムによれば、検出器を用いて入力画像から検出対象を検出する際、画像上での検出対象の出現位置についての事前分布、及び異なる種類の検出対象間の相対位置関係の事前分布を反映させる。そのため、検出対象が物体のパーツや要素のように画像上での領域が小さい場合でも、検出対象を精度良く検出することができる、という効果が得られる。 As described above, according to the image processing apparatus and program of the present invention, when detecting a detection target from an input image using a detector, the prior distribution of the appearance position of the detection target on the image , and different types prior distribution of the relative positional relationship between the detection object Ru to reflect the. Therefore, even when the detection target is a small area on the image, such as an object part or element, the detection target can be detected with high accuracy.
以下、図面を参照して本発明の実施の形態を詳細に説明する。以下の各実施の形態では、物体のパーツや要素などのアトリビュートを検出対象として検出する画像処理装置について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiments, an image processing apparatus that detects attributes such as parts and elements of an object as a detection target will be described.
<第1の実施の形態>
第1の実施の形態に係る画像処理装置10は、CPUと、RAMと、後述する学習処理ルーチン及び検出処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成される。また、画像処理装置10は、機能的には、図1に示すように、学習部20と、検出部40とを含んだ構成で表すことができる。また、学習部20は、学習データ入力部21と、特徴抽出部22と、検出器学習部23と、事前分布学習部24とを含む。また、検出部40は、画像入力部41と、特徴抽出部42と、検出処理部43と、事前分布反映部44と、検出結果出力部45とを含む。なお、特徴抽出部42及び検出処理部43は、本発明の検出手段の一例であり、事前分布反映部44は、本発明の特定手段の一例である。
<First Embodiment>
The
まず、学習部20の各部について詳述する。 First, each part of the learning unit 20 will be described in detail.
学習データ入力部21は、複数の学習データが格納された学習データ・データベース(DB)31から学習データを取得し、特徴抽出部22及び事前分布学習部24の各々に出力する。
The learning
ここで、学習データは、検出対象である複数種類のアトリビュートを含む学習画像と、各学習画像中の検出対象の位置情報とのペアで構成される。検出対象の位置情報は、検出対象を示す領域を、例えば画素位置(座標)等で特定した情報である。例えば、検出対象を示す領域を、学習画像内の4点で記述される矩形で表した場合、検出対象の位置情報は、その4点の画素位置で表すことができる。また、検出対象を示す領域以外の領域をマスクしたマスク画像により、検出対象の位置情報を表してもよい。マスク画像は、例えば、マスクされた画素の画素値を0としたものとすることができる。また、学習画像のサイズは全て同一である。なお、サイズが異なる場合は、線形補間やニアレストネイバーなどの方法を用いて、同一サイズにリサイズした画像を学習画像として用いる。 Here, the learning data includes a pair of a learning image including a plurality of types of attributes to be detected and position information of the detection target in each learning image. The position information of the detection target is information specifying an area indicating the detection target by, for example, a pixel position (coordinates). For example, when the area indicating the detection target is represented by a rectangle described by four points in the learning image, the position information of the detection target can be represented by the pixel positions of the four points. The position information of the detection target may be represented by a mask image obtained by masking an area other than the area indicating the detection target. For example, the mask image may have a pixel value of 0 as a masked pixel. Moreover, all the sizes of the learning images are the same. When the sizes are different, an image resized to the same size using a method such as linear interpolation or nearest neighbor is used as a learning image.
特徴抽出部22は、学習データ入力部21から出力された学習データに含まれる検出対象の位置情報に基づいて、学習データに含まれる学習画像においてアトリビュートが存在する領域を特定する。そして、特徴抽出部22は、特定した領域から特徴量を抽出する。抽出する特徴量は、例えば、非特許文献4に記載のHOG(Histograms of Oriented Gradients)特徴量などの特徴量を抽出することができる。特徴抽出部22は、抽出した特徴量と、特徴量を抽出した領域に存在するアトリビュートの種類と対応付けて、検出器学習部23へ出力する。
The
検出器学習部23は、特徴抽出部22から出力された特徴量を用いて、アトリビュートの種類毎に検出器を学習する。検出器の学習には、例えば、非特許文献3に記載のExemplar SVM(Support vector machine)などの手法を用いることができる。検出器学習部23は、学習したアトリビュートの種類毎の検出器と、アトリビュートの種類の名称とを対応付けて、検出器DB32に格納する。
The
事前分布学習部24は、学習データ入力部21から出力された学習データに含まれる検出対象の位置情報に基づいて、学習データに含まれる複数の学習画像の各々におけるアトリビュートの出現位置についての事前分布を、アトリビュートの種類毎に学習する。事前分布学習部24は、学習画像におけるアトリビュート単体の出現位置についての事前分布と、アトリビュート間の相対位置関係についての事前分布、具体的には、他の種類のアトリビュートの出現位置に対する相対的な出現位置についての事前分布とを学習する。事前分布学習部24は、学習したアトリビュートの種類毎の事前分布と、アトリビュートの種類の名称とを対応付けて、事前分布DB33に格納する。
The prior
次に、検出部40の各部について詳述する。 Next, each part of the detection unit 40 will be described in detail.
画像入力部41は、任意の画像である入力画像36の入力を受け付け、入力画像36のサイズが、学習データの学習画像のサイズと異なる場合には、線形補間やニアレストネイバーなどの方法を用いて、学習画像と同一サイズにリサイズする。画像入力部41は、入力画像36を特徴抽出部42へ出力する。
The
特徴抽出部42は、画像入力部41から出力された入力画像36に対して、任意の大きさの矩形をずらしながら当てはめ、矩形内の領域から、学習部20の特徴抽出部22で抽出される特徴量と同様の特徴量を抽出する。特徴抽出部42は、抽出した特徴量と、特徴量を抽出した領域の位置、すなわち入力画像36に当てはめた矩形の位置とを対応付けて、検出処理部43へ出力する。
The
検出処理部43は、特徴抽出部42から出力された特徴量及び矩形の位置を取得する。また、検出処理部43は、検出器DB32から、アトリビュートの種類毎の検出器を取得する。そして、検出処理部43は、特徴抽出部42で各矩形内の領域から抽出された特徴量を、アトリビュートの種類毎の検出器の各々に入力し、検出器の出力として、アトリビュートの各種類に対する検出スコアを得る。検出スコアは、矩形内の画像が検出対象であるアトリビュートであることの尤もらしさが高いほど、高い値となる。
The
検出処理部43は、検出スコアに基づいて、アトリビュートの種類毎に所定個の検出候補を検出する。例えば、検出処理部43は、検出スコアが予め定めた閾値以上となる矩形内の画像や、検出スコアの上位所定個に対応する矩形内の画像を検出候補とすることができる。検出処理部43は、アトリビュートの種類毎の検出候補と、その検出候補の位置情報(矩形の位置情報)と、検出スコアとを対応付けて、事前分布反映部44へ出力する。
The
事前分布反映部44は、検出処理部43から出力されたアトリビュートの種類毎の検出候補、検出候補の位置、及び検出スコアを取得する。また、事前分布反映部44は、事前分布DB33から、アトリビュートの種類毎の事前分布を取得する。そして、事前分布反映部44は、検出候補の各々に、その検出候補のアトリビュートの種類に対応した事前分布を反映させ、検出スコアを更新する。事前分布反映部44は、更新した検出スコアに基づいて、アトリビュートの種類毎の検出候補から検出対象を特定し、その検出対象の位置情報(矩形の位置情報)を、検出結果出力部45へ出力する。
The prior
検出結果出力部45は、事前分布反映部44から出力されたアトリビュートの種類毎の検出対象の位置情報を入力画像36に紐づけて、検出結果37として出力する。
The detection
次に、第1の実施の形態に係る画像処理装置10の作用について説明する。画像処理装置10は、アトリビュートの種類毎の検出器及び事前分布を学習する学習処理と、入力画像36から検出対象であるアトリビュートを検出する検出処理を実行する。以下、各処理について説明する。
Next, the operation of the
まず、検出対象である複数種類のアトリビュートを含む学習画像と、各学習画像中の検出対象の位置情報とのペアで構成される複数の学習データが学習データDB31に格納された状態で、画像処理装置10が、図2に示す学習処理を実行する。
First, image processing is performed in a state where a plurality of learning data composed of pairs of learning images including a plurality of types of attributes that are detection targets and position information of detection targets in each learning image are stored in the
図2に示す学習処理のステップS10で、学習データ入力部21が、学習データDB31から学習データを取得し、特徴抽出部22及び事前分布学習部24の各々に出力する。
In step S <b> 10 of the learning process shown in FIG. 2, the learning
次に、ステップS20で、特徴抽出部22が、学習データ入力部21から出力された学習データを取得し、学習データに含まれる検出対象の位置情報に基づいて、学習データに含まれる学習画像においてアトリビュートが存在する領域を特定する。そして、特徴抽出部22は、特定した領域から特徴量を抽出する。特徴抽出部22は、抽出した特徴量と、特徴量を抽出した領域に存在するアトリビュートの種類と対応付けて、検出器学習部23へ出力する。
Next, in step S20, the
次に、ステップS30で、検出器学習部23が、特徴抽出部22から出力された特徴量を用いて、アトリビュートの種類毎に検出器を学習する。検出器学習部23は、学習したアトリビュートの種類毎の検出器と、アトリビュートの種類の名称とを対応付けて、検出器DB32に格納する。
Next, in step S <b> 30, the
次に、ステップS40で、事前分布学習部24が、詳細を図3に示す事前分布学習処理を実行し、アトリビュートの種類毎の事前分布を学習する。事前分布学習部24は、学習したアトリビュートの種類毎の事前分布と、アトリビュートの種類の名称とを対応付けて、事前分布DB33に格納し、学習処理は終了する。
Next, in step S40, the prior
なお、ステップS40の事前分布学習処理は、ステップS20の前に実行してもよいし、ステップS20及びS30の処理と、ステップS40の処理とを、並行して実行してもよい。 The prior distribution learning process in step S40 may be executed before step S20, or the processes in steps S20 and S30 and the process in step S40 may be executed in parallel.
ここで、図3を参照して、事前分布学習処理について詳述する。 Here, the prior distribution learning process will be described in detail with reference to FIG.
ステップS41で、事前分布学習部24が、学習データ入力部21から出力された学習データを取得する。ここでは、学習データには、N枚の学習画像、及び各学習画像に含まれるM種類のアトリビュートを示す領域の位置情報が含まれるものとする。また、ここでは、説明の簡易化のため、アトリビュートを示す領域を矩形(長方形)とし、その位置情報を、矩形の対角2点(左上角と右下角)の画素位置で表す場合について説明する。なお、画素位置は、行方向の位置をx、列方向の位置をy、学習画像の左上角の画素を原点([1,1])とし、学習画像の下方向をxのプラス方向、右方向をyのプラス方向とする画像座標系における座標[x,y]で表す。
In step S <b> 41, the prior
以下、n枚目の学習画像に含まれる種類mのアトリビュートを示す矩形領域を、「矩形R_nm」と表記する。ここでは、n=[1,2,・・・,N]、及びm=[1,2,・・・,M]である。また、n枚目の学習画像を「学習画像n」、種類mのアトリビュートを「アトリビュートm」と表記する。 Hereinafter, the rectangular area indicating the attribute of type m included in the nth learning image is referred to as “rectangle R_nm”. Here, n = [1, 2,..., N] and m = [1, 2,. Also, the nth learning image is denoted as “learning image n”, and the attribute of type m is denoted as “attribute m”.
次に、ステップS42で、学習画像と同様のサイズの零行列P_i、及び学習画像の倍のサイズの零行列P_ij(i,j=[1,2,・・・,M])を作成する。本実施の形態では、以下で詳述するように、アトリビュートi単体の出現位置についての事前分布を表す行列P_i(i=[1,2,・・・,M])と、アトリビュート間の相対位置関係についての事前分布を表す行列P_ij(i,j=[1,2,…,M],i≠j)とを学習する。零行列P_i及びP_ijは、これらの事前分布を表す行列P_i及びP_ijを初期化したものである。 Next, in step S42, a zero matrix P_i having the same size as the learning image and a zero matrix P_ij (i, j = [1, 2,..., M]) having a size twice that of the learning image are created. In this embodiment, as will be described in detail below, a matrix P_i (i = [1, 2,..., M]) representing a prior distribution of the appearance position of the attribute i alone and the relative position between the attributes. A matrix P_ij (i, j = [1, 2,..., M], i ≠ j) representing a prior distribution regarding the relationship is learned. The zero matrices P_i and P_ij are obtained by initializing the matrices P_i and P_ij representing these prior distributions.
なお、学習画像と同様のサイズの行列とは、学習画像の縦及び横の画素数と行数及び列数が同じ行列である。また、学習画像の倍のサイズの行列とは、ここでは、学習画像の重心画素から上、下、右、左の各方向の画素数を倍にしたサイズである。例えば、学習画像が縦5画素×横5画素のサイズの場合、倍のサイズは、上、下、右、左の各方向へ2画素ずつ拡張した9×9画素である。従って、学習画像の倍のサイズの零行列P_ijは、各要素が0の9行9列の行列となる。 The matrix having the same size as the learning image is a matrix having the same number of vertical and horizontal pixels, the number of rows, and the number of columns of the learning image. In addition, the matrix having a size twice as large as the learning image is a size obtained by doubling the number of pixels in each of the upper, lower, right, and left directions from the center pixel of the learning image. For example, when the learning image has a size of 5 pixels in the vertical direction and 5 pixels in the horizontal direction, the double size is 9 × 9 pixels expanded by 2 pixels in each of the upper, lower, right, and left directions. Therefore, the zero matrix P_ij that is twice the size of the learning image is a 9-row 9-column matrix in which each element is 0.
次に、ステップS43で、事前分布学習部24が、学習画像nを特定するためのループ変数nを1に初期化する。次に、ステップS44で、事前分布学習部24が、学習画像nに含まれるアトリビュートのうち、処理対象のアトリビュートiを特定するためのループ変数iを1に初期化する。次に、ステップS44で、事前分布学習部24が、学習画像nに含まれるアトリビュートのうち、他のアトリビュートjを特定するためのループ変数jを1に初期化する。
Next, in step S43, the prior
次に、ステップS46で、事前分布学習部24が、iとjとが同値か否かを判定する。同値の場合は、ステップS47へ移行し、同値ではない場合には、ステップS48へ移行する。
Next, in step S46, the prior
ステップS47では、事前分布学習部24が、アトリビュートi単体の出現位置についての事前分布を表す行列P_iを更新する。具体的には、事前分布学習部24は、矩形R_ni内の画素に対応する行列P_iの要素を1インクリメントする。
In step S47, the prior
一方、ステップS48では、事前分布学習部24が、アトリビュート間の相対位置関係についての事前分布を表すP_ijを更新する。具体的には、事前分布学習部24は、アトリビュートiの出現位置を基準とした他の種類のアトリビュートjの相対的な出現位置についての事前分布を表す行列P_ijを求めるために、矩形R_niの重心画素G([x_iG,y_iG])から、学習画像nの中心画素C([x_iC,y_iC])までの移動量Dを算出する。移動量Dは、[(x_iC−x_iG),(y_iC−y_iG)]である。
On the other hand, in step S48, the prior
次に、ステップS49で、事前分布学習部24が、矩形R_nj内の各画素から移動量Dだけ移動した位置の画素に対応する行列P_ijの要素を1インクリメントする。
Next, in step S49, the prior
次に、ステップS50で、事前分布学習部24が、ループ変数jがMと同値であるか否かを判定する。すなわち、学習画像nに含まれるアトリビュートiについて、アトリビュートi単体の出現位置についての事前分布を表す行列P_i、及びアトリビュートjとの相対位置関係についての事前分布を表す行列P_ijの更新が終了したか否かを判定する。jとMとが同値ではない場合には、ステップS51へ移行し、ループ変数jを1インクリメントして、ステップS46に戻り、ステップS46以降の処理を繰り返す。jとMとが同値の場合には、ステップS52へ移行する。
Next, in step S50, the prior
ステップS52では、事前分布学習部24が、ループ変数iがMと同値であるか否かを判定する。すなわち、学習画像nに含まれる全てのアトリビュートについてP_i及びP_ijの更新を終了したか否かを判定する。iとMとが同値ではない場合には、ステップS53へ移行し、ループ変数iを1インクリメントして、ステップS45に戻り、ステップS45以降の処理を繰り返す。iとMとが同値の場合には、ステップS54へ移行する。
In step S52, the prior
ステップS54では、事前分布学習部24が、ループ変数nがNと同値であるか否かを判定する。すなわち、全ての学習画像に対してP_i及びP_ijの更新を終了したか否かを判定する。nとNとが同値ではない場合には、ステップS55へ移行し、ループ変数nを1インクリメントして、ステップS44に戻り、ステップS44以降の処理を繰り返す。nとNとが同値の場合には、ステップS56へ移行する。
In step S54, the prior
上記ステップS43〜S55の処理の具体例を、図4及び図5を参照して説明する。ここでは、n=1,2,3、学習画像のサイズ5×5の場合を例に説明する。まず、アトリビュート単体の出現位置についての事前分布を表す行列P_iの更新について説明する。 A specific example of the processing in steps S43 to S55 will be described with reference to FIGS. Here, a case where n = 1, 2, 3 and a learning image size of 5 × 5 will be described as an example. First, the update of the matrix P_i representing the prior distribution of the appearance position of the single attribute will be described.
図4の左上の図に示すように、学習画像1(n=1)の画素[1,2]と画素[3,4]とを対角2点とする矩形領域が、矩形R_11として与えられたとする。なお、図4では、画像上の矩形内に含まれる画素を「1」、それ以外の画素を「0」として矩形を表している。以下、図5、図11〜図13についても同様である。この場合、n=1、i=1、j=1のループのステップS47において、図4の左下の図に示すように、行列P_1の要素[1,2]と要素[3,4]とを対角2点とする範囲に含まれる要素の各々を、1インクリメントする。 As shown in the upper left diagram of FIG. 4, a rectangular area having two diagonal points of the pixel [1, 2] and the pixel [3,4] of the learning image 1 (n = 1) is given as a rectangle R_11. Suppose. In FIG. 4, the rectangle is represented by “1” for the pixels included in the rectangle on the image and “0” for the other pixels. Hereinafter, the same applies to FIGS. 5 and 11 to 13. In this case, in step S47 of the loop of n = 1, i = 1, j = 1, as shown in the lower left diagram of FIG. 4, the elements [1,2] and [3,4] of the matrix P_1 are Each element included in the range having two diagonal points is incremented by one.
次に、図4の中央上の図に示すように、学習画像2(n=2)の画素[2,3]と画素[4,5]とを対角2点とする矩形領域が、矩形R_21として与えられたとする。この場合、n=2、i=1、j=1のループのステップS47において、行列P_1の要素[2,3]と要素[4,5]とを対角2点とする範囲に含まれる要素の各々を、1インクリメントする。従って、n=1の段階で値が1となっている要素の値は2になる。これにより、行列P_1は、図4の中央下の図に示すように更新される。 Next, as shown in the upper center diagram of FIG. 4, a rectangular area having two diagonal points of the pixel [2, 3] and the pixel [4, 5] of the learning image 2 (n = 2) is a rectangle. Assume that R_21 is given. In this case, in step S47 of the loop of n = 2, i = 1, j = 1, elements included in a range in which element [2,3] and element [4,5] of matrix P_1 are two diagonal points Is incremented by one. Therefore, the value of the element whose value is 1 at the stage of n = 1 is 2. As a result, the matrix P_1 is updated as shown in the lower center diagram of FIG.
次に、図4の右上の図に示すように、学習画像3(n=3)の画素[2,1]と画素[4,3]とを対角2点とする矩形領域が、矩形R_31として与えられたとする。この場合、n=3、i=1、j=1のループのステップS47において、行列P_1の要素[2,1]と要素[4,3]とを対角2点とする範囲に含まれる要素の各々を、1インクリメントする。従って、n=2の段階で値が1となっている要素の値は2、値が2となっている要素の値は3になる。これにより、行列P_1は、図4の右下の図に示すように更新される。 Next, as shown in the upper right diagram of FIG. 4, a rectangular region having two diagonal points of the pixel [2, 1] and the pixel [4, 3] of the learning image 3 (n = 3) is a rectangle R_31. Is given as In this case, in step S47 of the loop of n = 3, i = 1, j = 1, elements included in a range in which element [2,1] and element [4,3] of matrix P_1 are two diagonal points Is incremented by one. Therefore, the value of the element whose value is 1 at the stage of n = 2 is 2, and the value of the element whose value is 2 is 3. Thereby, the matrix P_1 is updated as shown in the lower right diagram of FIG.
このように、学習画像におけるアトリビュートの出現位置を示す矩形が重なる領域に対応する行列P_1の要素は値が高くなる。 Thus, the value of the element of the matrix P_1 corresponding to the region where the rectangles indicating the appearance positions of the attributes in the learning image overlap is high.
次に、アトリビュート間の相対位置関係についての事前分布を表す行列P_ijの更新について説明する。ここでは、他の種類のアトリビュートが、アトリビュート2(j=2)である場合について説明する。 Next, update of the matrix P_ij representing the prior distribution regarding the relative positional relationship between attributes will be described. Here, a case where the other type of attribute is attribute 2 (j = 2) will be described.
図5の左上段の図に示すように、学習画像1(n=1)の画素[1,2]と画素[3,4]とを対角2点とする矩形領域が、矩形R_11として与えられ、図5の左中段の図に示すように、学習画像1の画素[3,1]と画素[5,1]とを対角2点とする矩形領域が、矩形R_12として与えられたとする。このとき、n=1、i=1、j=2のループのステップS48において、矩形R_11の重心画素G(図5中に示す学習画像における太枠の画素)の画素位置は[(1+3)/2,(2+4)/2]=[2,3]と求められる。5×5画素の学習画像の中心画素Cの画素位置は[3,3]であるので、移動量Dは、[(3−2),(3−3)]=[+1,0]と求められる。
As shown in the upper left diagram of FIG. 5, a rectangular area having two diagonal pixels [1, 2] and [3, 4] of the learning image 1 (n = 1) is given as a rectangle R_11. As shown in the middle left diagram of FIG. 5, it is assumed that a rectangular region having two diagonal pixels [3, 1] and [5, 1] of the
ここで、P_12は学習画像の倍のサイズ、すなわち、5×5画素のサイズの上、下、右、左方向の各々に2画素ずつ拡張したサイズ(9×9)である。なお、図5に示す行列P_12における太枠の要素は、学習画像の中心画素Cに対応する要素である。従って、矩形R_12内の画素を移動量Dだけ移動させた画素に対応するP_12の要素は、[3,1]+[2,2]+[+1,0]=[6,3]と、[5,1]+[2,2]+[+1,0]=[8,3]とを対角2点とする範囲に含まれる要素となる。そこで、n=1、i=1、j=2のループのステップS49において、これらの要素の値が1インクリメントされる。 Here, P_12 is a size (9 × 9) that is twice the size of the learning image, that is, a size that is 5 × 5 pixels expanded by 2 pixels in each of the upper, lower, right, and left directions. In addition, the element of the thick frame in the matrix P_12 shown in FIG. 5 is an element corresponding to the center pixel C of the learning image. Therefore, the elements of P_12 corresponding to the pixel in which the pixel in the rectangle R_12 is moved by the movement amount D are [3,1] + [2,2] + [+ 1,0] = [6,3], [ 5,1] + [2,2] + [+ 1,0] = [8,3] are elements included in a range having two diagonal points. Therefore, the values of these elements are incremented by 1 in step S49 of the loop of n = 1, i = 1, j = 2.
同様に、n=2、i=1、j=2のループのステップS48及びS49において、図5の中央上段に示すような矩形R_21と、中央中段に示すような矩形R_22とに基づいて、中央下段に示すように、行列P_12が更新される。また同様に、n=3、i=1、j=2のループのステップS48及びS49において、図5の右上段に示すような矩形R_31と、右中段に示すような矩形R_32とに基づいて、右下段に示すように、行列P_12が更新される。 Similarly, in steps S48 and S49 of the loop of n = 2, i = 1, j = 2, the center R is based on the rectangle R_21 as shown in the upper center of FIG. 5 and the rectangle R_22 as shown in the middle middle. As shown in the lower part, the matrix P_12 is updated. Similarly, in steps S48 and S49 of the loop of n = 3, i = 1, j = 2, based on a rectangle R_31 as shown in the upper right part of FIG. 5 and a rectangle R_32 as shown in the right middle part, As shown in the lower right column, the matrix P_12 is updated.
このように、一方のアトリビュートから見た他のアトリビュートの出現位置を示す矩形が重なる領域に対応する行列P_ijの要素は値が高くなる。 Thus, the value of the element of the matrix P_ij corresponding to the region where the rectangles indicating the appearance positions of the other attributes viewed from one attribute overlap is high.
図3に示す事前分布学習処理の説明に戻る。次のステップS56で、事前分布学習部24が、図6に示すように、全てのiについて、行列P_iの全要素の合計値s_iを算出し、行列P_iの各要素を合計値s_iで割ることにより、行列P_iを正規化する。同様に、図7に示すように、全てのi及びjについて、行列P_ijの全要素の合計値s_ijを算出し、行列P_ijの各要素を合計値s_ijで割ることにより、行列P_ijを正規化する。
Returning to the description of the prior distribution learning process shown in FIG. In the next step S56, the prior
次に、ステップS57で、事前分布学習部24は、全てのi及びjについて、行列P_i及びP_ijに対してぼかし処理を行う。学習データとして与えられるR_nmは、それが矩形領域として与えられる場合であっても、マスク画像として与えられる場合であっても、実用上アトリビュートの位置を正確に捉えることは困難である。そのため、学習データにおいて特定されるアトリビュートの位置情報にはゆらぎが存在する。すなわち、R_nmが、本来のアトリビュートの位置に対応する画素を含まない場合や、逆にアトリビュート以外に対応する画素を含む場合がある。これらのゆらぎを低減するために、ぼかし処理を行うことで、最終的な検出精度の向上に効果がある。
Next, in step S57, the prior
具体的には、ぼかし処理にガウシアンフィルタ(例えばσ=10、フィルタサイズを10×10等とする)を用いることができる。例えば、フィルタサイズは、アトリビュート毎に学習データの矩形のうち、最小面積を持つ矩形の短辺の1/10程度を基準にすると、経験的に良好な結果が得られる。
Specifically, a Gaussian filter (for example, σ = 10,
次に、ステップS58で、事前分布学習部24は、行列P_iをアトリビュートi単体の出現位置についての事前分布として、行列P_ijをアトリビュート間の相対位置関係についての事前分布として、事前分布DB33に格納して、事前分布学習処理を終了する。
Next, in step S58, the prior
次に、上記の学習処理が実行されて、アトリビュート毎の検出器が検出器DB32に格納され、アトリビュート毎の事前分布が事前分布DB33に格納された状態で、画像処理装置10が、図8に示す検出処理を実行する。
Next, the learning processing is executed, the detector for each attribute is stored in the
図8に示す検出処理のステップS60で、画像入力部41が、入力画像36の入力を受け付け、入力画像36のサイズが、学習データの学習画像のサイズと異なる場合には、学習画像と同一サイズにリサイズする。そして、画像入力部41は、入力画像36を特徴抽出部42へ出力する。
In step S60 of the detection process illustrated in FIG. 8, the
次に、ステップS70で、特徴抽出部42が、入力画像36に対して、任意の大きさの矩形をずらしながら当てはめ、矩形内の領域から、学習部20の特徴抽出部22で抽出される特徴量と同様の特徴量を抽出する。そして、特徴抽出部42は、抽出した特徴量と、特徴量を抽出した領域の位置、すなわち入力画像36に当てはめた矩形の位置とを対応付けて、検出処理部43へ出力する。
Next, in step S70, the
次に、ステップS80で、検出処理部43が、特徴抽出部42から出力された特徴量及び矩形の位置を取得する。また、検出処理部43は、検出器DB32から、アトリビュートの種類毎の検出器を取得する。そして、検出処理部43は、特徴抽出部42で各矩形内の領域から抽出された特徴量を、アトリビュートの種類毎の検出器の各々に入力し、検出器の出力として、アトリビュートの種類毎の検出スコアを得る。
Next, in step S80, the
そして、検出処理部43は、検出スコアに基づいて、アトリビュートの種類毎に所定個の検出候補を検出する。ここでは、検出スコアの上位K個に対応する矩形内の画像を検出候補とする場合について説明する。以下では、入力画像36から検出されたアトリビュートiの検出候補を「矩形R_ki(k=[1,2,・・・,K]),i=[1,2,・・・,M]」と表記する。また、矩形R_kiについて得られた検出スコアを「検出スコアS_ki」と表記する。
And the
検出処理部43は、アトリビュートの種類毎の検出候補である矩形R_kiと、その検出候補の位置情報(矩形の位置情報)と、検出スコアS_kiとを対応付けて、事前分布反映部44へ出力する。
The
次に、ステップS90で、事前分布反映部44が、詳細を図9及び図10に示す事前分布反映処理を実行し、検出候補の各々の検出スコアに事前分布を反映させる。
Next, in step S90, the prior
次に、ステップS120で、検出結果出力部45が、事前分布反映部44から出力されたアトリビュートの種類毎の最終検出結果Rp_iの位置情報を入力画像36に紐づけて、検出結果37として出力し、検出処理は終了する。
Next, in step S120, the detection
ここで、図9及び図10を参照して、事前分布反映処理について詳述する。 Here, the prior distribution reflection processing will be described in detail with reference to FIGS. 9 and 10.
ステップS91で、事前分布反映部44が、事前分布DB33から、M種類のアトリビュートの出現位置についての事前分布を表す行列P_i(i=[1,2,・・・,M])、及び行列P_ij(j=[1,2,・・・,M],i≠j)を取得する。次に、ステップS92で、事前分布反映部44が、ループ変数iを1に初期化する。
In step S91, the prior
次に、ステップS93で、事前分布反映部44が、検出処理部43から出力されたアトリビュートiの検出候補であるK個の矩形R_ki、及びその検出スコアS_kiを取得する。次に、ステップS94で、事前分布反映部44が、ループ変数kを1に、最大値スコアSPを0に初期化する。
Next, in step S93, the prior
次に、ステップS95で、事前分布反映部44が、行列P_iのR_kiに対応する要素の値を合計した値Psを算出し、Psに検出候補R_kiの検出スコアS_kiを掛けた値SP’を算出し、S_kiをSP’に更新する。
Next, in step S95, the prior
次に、ステップS96で、事前分布反映部44が、上記ステップS95で算出したSP’と最大スコアSPとを比較し、SPよりSP’の方が大きいか否かを判定する。SP’の方が大きい場合には、ステップS97へ移行し、最大スコアSPをSP’に更新し、アトリビュートiの最終検出結果Rp_iをR_kiに更新し、ステップS98へ移行する。一方、SP’の方が小さい場合には、ステップS27をスキップして、ステップS98へ移行する。
Next, in step S96, the prior
ステップS98では、事前分布反映部44が、ループ変数kがKと同値であるか否かを判定する。すなわち、アトリビュートiについての全ての検出候補に対応する検出スコアS_kiを更新したか否かを判定する。kとKとが同値ではない場合には、ステップS99で、ループ変数kを1インクリメントし、ステップS95に戻り、ステップS95以降の処理を繰り返す。kとKとが同値の場合には、ステップS100へ移行する。
In step S98, the prior
ステップS100では、事前分布反映部44が、ループ変数iがMと同値であるか否かを判定する。すなわち、全てのアトリビュートの種類について、最終検出結果Rpが算出されたか否かを判定する。iとMとが同値ではない場合には、ステップS101へ移行し、ループ変数iを1インクリメントして、ステップS93に戻り、ステップS93以降の処理を繰り返す。iとMとが同値の場合には、ステップS102へ移行する。
In step S100, the prior
上記ステップS92〜S100の処理の具体例を、図11及び図12を参照して説明する。ここでは、k=1,2の場合を例に説明する。 A specific example of the processing in steps S92 to S100 will be described with reference to FIGS. Here, a case where k = 1 and 2 will be described as an example.
図11の左図に示すように、アトリビュート1(i=1)の1番目(k=1)の検出候補として、入力画像の画素[2,2]と画素[3,4]とを対角2点とする矩形領域が、矩形R_11として与えられたとする。また、この矩形R_11の検出スコアS_11が0.78で与えられているとする。この場合、図11の右図に示すように、行列P_1の要素[2,2]と要素[3,4]とを対角2点とする範囲(図11中の破線内)に含まれる要素の各々の値の合計0.52がPsとして求まる。そして、検出スコアS_11とPsとを掛け合わせた値SP’が0.41と算出される。i=1、k=1のループにおけるステップS95では、この値SP’=0.41が、矩形R_11の検出スコアS_11として更新される。 As shown in the left diagram of FIG. 11, pixel [2, 2] and pixel [3,4] of the input image are diagonally set as the first (k = 1) detection candidate of attribute 1 (i = 1). It is assumed that a rectangular area having two points is given as a rectangle R_11. Further, it is assumed that the detection score S_11 of the rectangle R_11 is given as 0.78. In this case, as shown in the right diagram of FIG. 11, the elements included in the range (within the broken line in FIG. 11) in which the elements [2, 2] and [3, 4] of the matrix P_1 are two diagonal points. A total of 0.52 of each value is obtained as Ps. Then, a value SP ′ obtained by multiplying the detection score S_11 by Ps is calculated as 0.41. In step S95 in the loop of i = 1 and k = 1, this value SP ′ = 0.41 is updated as the detection score S_11 of the rectangle R_11.
また、i=1、k=1のループにおけるステップS96では、SP=0、SP’=0.41であるため、肯定判定されて、ステップS97で、SPがSP’=0.41に更新されると共に、アトリビュートiについての最終検出結果Rp_iがR_11に更新される。 In step S96 in the loop of i = 1 and k = 1, since SP = 0 and SP ′ = 0.41, an affirmative determination is made, and SP is updated to SP ′ = 0.41 in step S97. In addition, the final detection result Rp_i for the attribute i is updated to R_11.
次に、図12の左図に示すように、アトリビュート1(i=1)の2番目(k=2)の検出候補として、入力画像の画素[3,3]と画素[4,5]とを対角2点とする矩形領域が、矩形R_21として与えられたとする。また、この矩形R_21の検出スコアS_21が0.85で与えられているとする。この場合、図12の右図に示すように、行列P_1の要素[3,3]と要素[4,5]とを対角2点とする範囲(図12中の破線内)に含まれる要素の各々の値の合計0.37がPsとして求まる。そして、検出スコアS_21とPsとを掛け合わせた値SP’が0.31と算出される。i=1、k=2のループにおけるステップS95では、この値SP’=0.31が、矩形R_21の検出スコアS_21として更新される。 Next, as shown in the left diagram of FIG. 12, as the second (k = 2) detection candidate of attribute 1 (i = 1), pixel [3, 3] and pixel [4, 5] of the input image Is assumed to be given as a rectangle R_21. Further, it is assumed that the detection score S_21 of the rectangle R_21 is given by 0.85. In this case, as shown in the right diagram of FIG. 12, the elements included in the range (within the broken line in FIG. 12) in which the elements [3, 3] and [4, 5] of the matrix P_1 are two diagonal points. A total of 0.37 of the respective values is obtained as Ps. Then, a value SP ′ obtained by multiplying the detection score S_21 and Ps is calculated as 0.31. In step S95 in the loop of i = 1 and k = 2, this value SP ′ = 0.31 is updated as the detection score S_21 of the rectangle R_21.
また、i=1、k=2のループにおけるステップS96では、SP=0.41、SP’=0.31であるため、否定判定されて、ステップS97がスキップされる。すなわち、SPは、前のループにける0.41のままであり、アトリビュートiについての最終検出結果Rp_iもR_11のままである。 In step S96 in the loop of i = 1 and k = 2, since SP = 0.41 and SP ′ = 0.31, a negative determination is made and step S97 is skipped. That is, SP remains 0.41 in the previous loop, and the final detection result Rp_i for attribute i also remains R_11.
図9に示す事前分布学習処理の説明に戻る。次のステップS102で、事前分布反映部44が、アトリビュート間の相対位置関係についての事前分布も検出結果に反映するか否かを判定する。この判定は、例えば、予め定めた設定に基づいて判定してもよいし、M>1の場合には反映させると判定するようにしてもよい。反映させる場合は、図10のステップS103へ移行し、反映させない場合には、図10のステップS116へ移行する。
Returning to the description of the prior distribution learning process shown in FIG. In next step S102, the prior
図10のステップS103では、事前分布反映部44が、ループ変数iを1に初期化する。次に、ステップS104で、事前分布反映部44が、ループ変数jを1に初期化する。次に、ステップS105で、事前分布反映部44が、ループ変数jがiと同値であるか否かを判定する。iとjとが同値の場合には、ステップS106へ移行し、ループ変数jを1インクリメントして、ステップS105に戻る。iとjとが同値ではない場合には、ステップS107へ移行し、事前分布反映部44が、ループ変数kを1に初期化する。
In step S103 of FIG. 10, the prior
次に、ステップS108で、事前分布反映部44が、アトリビュートj単体の事前分布を反映させた結果得られた最終検出結果Rp_jの重心画素Gから、入力画像36の中心画素Cまでの移動量Dを算出する。
Next, in step S108, the prior
次に、ステップS109で、事前分布反映部44が、矩形R_ki内の各画素から移動量Dだけ移動した位置の画素に対応する行列P_ijの要素の値を合計した値Psを算出する。また、事前分布反映部44は、Psに検出候補R_kiの検出スコアS_kiを掛けた値SP’を算出し、S_kiをSP’で更新する。
Next, in step S109, the prior
上記ステップS108及びS109の処理の具体例を、図13を参照して説明する。ここでは、k=1、i=1、j=2の場合を例に説明する。 A specific example of the processing in steps S108 and S109 will be described with reference to FIG. Here, a case where k = 1, i = 1, and j = 2 will be described as an example.
図13の左上の図に示すように、アトリビュート1(i=1)の1番目(k=1)の検出候補である矩形R_11の現段階での検出スコアS_11が0.41であるとする。ここで、矩形R_11について、アトリビュート2の位置から見たアトリビュート1の検出位置としての妥当性を反映させることを考える。そこで、矩形R_11を、アトリビュート2の出現位置を基準としたアトリビュート1の相対的な出現位置についての事前分布を表す行列P_21へマッピングする。
As shown in the upper left diagram of FIG. 13, it is assumed that the detection score S_11 at the current stage of the rectangle R_11 that is the first (k = 1) detection candidate of the attribute 1 (i = 1) is 0.41. Here, it is considered that the validity of the detection position of the
ここで、P_21は入力画像と同サイズの学習画像の倍のサイズ、すなわち、5×5画素のサイズの上、下、右、左の各方向へ2画素ずつ拡張したサイズ(9×9)である。なお、図13に示す行列P_21に対応する画素位置R’_11、及び行列P_21おける太枠の要素は、入力画像の中心画素Cに対応する要素である。従って、矩形R_11内の画素を移動量Dだけ移動させた画素に対応するP_21の要素は、[2,2]+[2,2]+[−2,+1]=[2,5]と、[3,4]+[2,2]+[−2,+1]=[3,7]とを対角2点とする範囲(図13中の破線内)に含まれる要素となる。そこで、k=1、i=1、j=2のループのステップS109において、これらの要素の値の合計0.42がPsとして求まる。そして、検出スコアS_11とPsとを掛け合わせた値SP’が0.17と算出され、矩形R_11の検出スコアS_11が0.17に更新される。 Here, P_21 is a size (9 × 9) which is twice the size of the learning image of the same size as the input image, that is, a size of 5 × 5 pixels and two pixels expanded in the upper, lower, right and left directions. is there. Note that the pixel position R′_11 corresponding to the matrix P_21 illustrated in FIG. 13 and the thick frame element in the matrix P_21 are elements corresponding to the center pixel C of the input image. Therefore, the element of P_21 corresponding to the pixel obtained by moving the pixel in the rectangle R_11 by the movement amount D is [2, 2] + [2, 2] + [− 2, +1] = [2, 5]. [3, 4] + [2,2] + [− 2, + 1] = [3, 7] are elements included in a range having two diagonal points (within a broken line in FIG. 13). Therefore, in step S109 of the loop of k = 1, i = 1, j = 2, a total of 0.42 of these element values is obtained as Ps. Then, a value SP ′ obtained by multiplying the detection score S_11 and Ps is calculated as 0.17, and the detection score S_11 of the rectangle R_11 is updated to 0.17.
図10に示す事前分布反映処理の説明に戻る。次のステップS110で、事前分布反映部44が、ループ変数kがKと同値であるか否かを判定する。すなわち、アトリビュートiの全ての検出候補に対応する検出スコアS_kiに対して、アトリビュートjとの相対位置関係についての事前分布を反映させたか否かを判定する。kとKとが同値ではない場合には、ステップS111へ移行し、ループ変数kを1インクリメントして、ステップS108に戻り、ステップS108以降の処理を繰り返す。kとKとが同値の場合には、ステップS112へ移行する。
Returning to the description of the prior distribution reflection process shown in FIG. In next step S110, the prior
ステップS112では、事前分布反映部44が、ループ変数jがMと同値であるか判定する。すなわち、アトリビュートiに対して他の全てのアトリビュートとの相対位置関係についての事前分布を反映させたか否かを判定する。jとMとが同値ではない場合には、ステップS106へ移行し、ループ変数jを1インクリメントして、ステップS105に戻り、ステップS105以降の処理を繰り返す。jとMとが同値の場合には、ステップS113へ移行する。
In step S112, the prior
ステップS113では、事前分布反映部44が、検出候補である矩形R_kiのうち、検出スコアS_kiが最大となる矩形R_kiを、アトリビュート間の相対位置関係を反映させたアトリビュートiについての最終検出結果Rp_iとする。なお、検出スコアS_kiが最大となる矩形R_kiを最終検出結果Rp_iとする場合に限らず、検出スコアS_kiが予め定めた閾値以上となる矩形R_kiを最終検出結果Rp_iとしてもよい。
In step S113, the prior
次に、ステップS114で、事前分布反映部44が、ループ変数iがMと同値であるか否かを判定する。すなわち、全ての種類のアトリビュートについて、検出候補の検出スコアにアトリビュート間の相対位置関係を反映させたか否かを判定する。iとMとが同値ではない場合には、ステップS115へ移行し、ループ変数iを1インクリメントして、ステップS104に戻り、ステップS104以降の処理を繰り返す。iとMとが同値の場合には、ステップS116へ移行する。
Next, in step S114, the prior
ステップS116では、事前分布反映部44が、上記ステップS97またはS113で算出した最終検出結果Rp_i(i=[1,2,・・・,M])の位置情報を、検出結果出力部45へ出力し、事前分布反映処理を終了する。
In step S116, the prior
以上説明したように、第1の実施の形態に係る画像処理装置によれば、画像から抽出される特徴量だけでなく、その特徴量が検出された位置に対して、画像上での検出対象の出現位置についての事前分布を反映させた検出結果を得る。これにより、検出対象が物体のパーツや要素のように画像上での領域が小さい場合でも、検出対象を精度良く検出することができる。 As described above, according to the image processing apparatus according to the first embodiment, not only the feature amount extracted from the image but also the detection target on the image with respect to the position where the feature amount is detected. The detection result reflecting the prior distribution about the appearance position of is obtained. As a result, even when the detection target is a small area on the image, such as an object part or element, the detection target can be detected with high accuracy.
また、検出結果に反映させる検出対象の出現位置についての事前分布として、異なる種類の検出対象間の画像上での相対位置関係についての事前分布も用いることで、より高精度に検出対象を検出することができる。 In addition, the detection target can be detected with higher accuracy by using the prior distribution of the relative positional relationship on the image between the detection objects of different types as the prior distribution of the appearance position of the detection target to be reflected in the detection result. be able to.
<第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態に係る画像処理装置10では、入力画像36全体を走査して、特徴量の抽出及び検出候補の検出を行い、検出候補に対して事前分布を反映させて最終的な検出結果を得る場合について説明した。第2の実施の形態では、特徴抽出部の前段の処理として、事前分布を反映させる場合について説明する。なお、第1の実施の形態に係る画像処理装置10と同一の構成については、同一符号を付して、詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In the
第2の実施の形態に係る画像処理装置210は、CPUと、RAMと、後述する学習処理ルーチン及び検出処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成される。また、画像処理装置210は、機能的には、図14に示すように、学習部20と、検出部240とを含んだ構成で表すことができる。検出部240は、画像入力部41と、事前分布反映部244と、特徴抽出部242と、検出処理部243と、検出結果出力部45とを含む。なお、事前分布反映部244は、本発明の特定手段の一例であり、特徴抽出部242及び検出処理部243は、本発明の検出手段の一例である。
An
学習部20については、第1の実施の形態に係る画像処理装置10の学習部20と同様であるため、以下では、検出部240の各部について詳述する。
Since the learning unit 20 is the same as the learning unit 20 of the
事前分布反映部244は、事前分布DB33に格納された事前分布を取得し、画像入力部41から出力された入力画像36に、取得した事前分布を反映させて、入力画像36から検出対象を検出するための走査範囲を特定する。例えば、事前分布反映部44は、事前分布を表す行列P_iにおいて、値が0の要素に対応する入力画像36の画素以外の画素を含む領域を走査範囲として特定することができる。また、行列P_iの要素のうち、値が予め定めた閾値以上となる要素に対応する入力画像36の画素を含む領域を走査範囲として特定することができる。閾値は、例えば、行列P_iの要素の最大値の半分の値とすることができる。閾値を高く設定すれば走査範囲をより狭めることができ、閾値を設定しない場合には、第1の実施の形態と同様に、入力画像36全体を走査することになる。
The prior
特徴抽出部242は、事前分布反映部244で特定された走査範囲に対して、第1の実施の形態における特徴抽出部42と同様に、任意の大きさの矩形をずらしながら当てはめ、矩形内の領域から特徴量を抽出する。特徴抽出部242は、抽出した特徴量と、特徴量を抽出した領域の位置、すなわち入力画像36に当てはめた矩形の位置とを対応付けて、検出処理部243へ出力する。
The
検出処理部243は、特徴抽出部242から出力された特徴量と、検出器DB32から取得したアトリビュートの種類毎の検出器とに基づいて、各矩形について、アトリビュートの各種類に対する検出スコアを得る。そして、検出処理部243は、検出スコアが最大の矩形の位置情報を、検出結果出力部45へ出力する。
The
次に、第2の実施の形態に係る画像処理装置210の作用について説明する。画像処理装置210は、アトリビュートの種類毎の検出器及び事前分布を学習する学習処理と、入力画像から検出対象であるアトリビュートを検出する検出処理を実行する。学習処理については、第1の実施の形態における学習処理と同様であるため、以下では、検出処理について説明する。なお、第1の実施の形態における検出処理と同様の処理については、同一符号を付して、詳細な説明を省略する。
Next, the operation of the
図15に示す検出処理のステップS60で、画像入力部41が、入力画像36の入力を受け付け、事前分布反映部244へ出力する。
In step S <b> 60 of the detection process shown in FIG. 15, the
次に、ステップS290で、事前分布反映部244が、詳細を図16に示す事前分布反映処理を実行し、事前分布を反映させた走査範囲を特定する。
Next, in step S290, the prior
ここで、図16を参照して、事前分布反映処理について詳述する。 Here, the prior distribution reflection process will be described in detail with reference to FIG.
ステップS291で、事前分布反映部244が、N枚の入力画像36を取得する。次に、ステップS292で、事前分布反映部244が、事前分布DB33から、M種類のアトリビュートそれぞれのアトリビュート単体の出現位置についての事前分布を表す行列P_i(i=[1,2,・・・,M])を取得する。
In step S291, the prior
次に、ステップS293で、事前分布反映部244が、走査範囲を特定するための、行列P_iの各要素に対する閾値Tを設定する。次に、ステップS294で、事前分布反映部244が、ループ変数mを1に初期化する。
Next, in step S293, the prior
次に、ステップS295で、事前分布反映部244が、行列P_mの各要素の値と閾値Tとを比較し、値が閾値T以下の要素の集合を、集合R_mとして取得する。
Next, in step S295, the prior
次に、ステップS296で、事前分布反映部244が、ループ変数nを1に初期化する。次に、ステップS297で、事前分布反映部244が、集合R_mに含まれる要素に対応するn枚目の入力画像36の画素をマスクしたマスク画像I_nmを生成する。マスク画像は、例えば、マスクされた画素の値を0、それ以外の画素の値を1にした画像である。
Next, in step S296, the prior
次に、ステップS298で、事前分布反映部244が、ループ変数nがNと同値であるか否かを判定する。nとNとが同値ではない場合には、ステップS299へ移行し、ループ変数nを1インクリメントして、ステップS297に戻り、ステップS297移行の処理を繰り返す。nとNとが同値の場合には、ステップS300へ移行する。
Next, in step S298, the prior
ステップS300では、事前分布反映部244が、ループ変数mがMと同値であるか否かを判定する。mとMとが同値ではない場合には、ステップS301へ移行し、ループ変数mを1インクリメントして、ステップS295に戻り、ステップS295以降の処理を繰り返す。mとMとが同値の場合には、ステップS302へ移行する。
In step S300, the prior
ステップS302では、事前分布反映部244が、上記の処理で得られたn×m枚のマスク画像I_nmを出力し、事前分布反映処理を終了し、図15に示す検出処理に戻る。
In step S302, the prior
次に、図15のステップS270で、特徴抽出部242が、事前分布反映部244で特定された走査範囲に対して、任意の大きさの矩形をずらしながら当てはめ、矩形内の領域から特徴量を抽出する。具体的には、特徴抽出部242は、事前分布反映部244から出力されたマスク画像I_nm(m=[1,2,・・・,M])の各々を適用したn枚目の入力画像36から、特徴量F_nm(m=[1,2,・・・,M])を抽出する。なお、入力画像36にマスク画像I_nmを適用するとは、入力画像36とマスク画像I_nmとを対応させたときに、マスク画像I_nmでマスクされない領域を走査範囲とすることである。
Next, in step S270 of FIG. 15, the
特徴抽出部242は、N枚の入力画像36の全てから、上記のように特徴量F_nmを抽出する。そして、特徴抽出部242は、抽出した特徴量F_nmと、特徴量F_nmを抽出した領域の位置、すなわち入力画像36に当てはめた矩形の位置とを対応付けて、検出処理部243へ出力する。
The
次に、ステップS280で、検出処理部243が、特徴抽出部242から出力された特徴量と、検出器DB32から取得したアトリビュートの種類毎の検出器とに基づいて、各矩形について、アトリビュートの各種類に対する検出スコアを得る。すなわち、検出処理部243は、アトリビュートmについての検出器に特徴量F_nmを入力し、n枚目の入力画像36に当てはめた各矩形内の領域が、アトリビュートmであることの尤もらしさを示す検出スコアを得る。そして、検出処理部243は、入力画像毎、かつアトリビュートの種類毎に、検出スコアが最大の矩形の位置情報を、検出結果出力部45へ出力する。なお、検出スコアが最大となる矩形に限らず、検出スコアが予め定めた閾値以上となる矩形の位置情報を出力するようにしてもよい。
Next, in step S280, the
次に、ステップS120で、検出結果出力部45が、検出処理部243から出力された検出結果が最大の矩形の位置情報を入力画像36に紐づけて、検出結果37として出力し、検出処理は終了する。
Next, in step S120, the detection
以上説明したように、第2の実施の形態に係る画像処理装置によれば、検出対象の出現位置についての事前分布を反映させて、走査範囲を限定することで、誤検出を低減できる。また、検出器に特徴量を入力して検出スコアを得る回数を減らせることで、高速な処理を実現することができる。なお、第2の実施の形態では、元の入力画像に対してマスク画像I_nmの各々を適用したm倍の画像に対して特徴量の抽出処理を行うことになる。しかし、実用上事前分布を表す行列P_iはゼロ要素が多いため、入力画像全体を走査する場合に比べ、走査範囲を少なくすることができるため、高速な検出を行うことができる。 As described above, according to the image processing apparatus according to the second embodiment, false detection can be reduced by limiting the scanning range by reflecting the prior distribution of the appearance position of the detection target. In addition, high-speed processing can be realized by reducing the number of times that the detection score is obtained by inputting the feature amount to the detector. In the second embodiment, feature amount extraction processing is performed on an m-fold image obtained by applying each of the mask images I_nm to the original input image. However, since the matrix P_i representing the prior distribution in practice has many zero elements, the scanning range can be reduced as compared with the case where the entire input image is scanned, so that high-speed detection can be performed.
なお、第2の実施の形態では、アトリビュート単体の出現位置についての事前分布を反映して走査範囲を特定する場合につい説明したが、アトリビュート間の相対位置関係についての事前分布も合わせて反映させるようにしてもよい。この場合、他の種類のアトリビュートjからみたアトリビュートiの出現位置についての事前分布P_ji(j=[1,2,・・・,M],i≠j)の各要素に基づいて、アトリビュートiの走査範囲を特定する。例えば、全てのP_jiで値が0になる要素や、全てのP_jiのうちの半数以上で値が0になる要素や、値の平均値が予め定めた閾値以下となる要素に対応する入力画像の画素を除外した範囲を、アトリビュートiの走査範囲として特定することができる。 In the second embodiment, the case where the scanning range is specified by reflecting the prior distribution of the appearance position of the single attribute has been described. However, the prior distribution of the relative positional relationship between the attributes is also reflected. It may be. In this case, based on each element of the prior distribution P_ji (j = [1, 2,..., M], i ≠ j) regarding the appearance position of the attribute i viewed from other types of attributes j, the attribute i Specify the scan range. For example, an input image corresponding to an element whose value is 0 for all P_ji, an element whose value is 0 when more than half of all P_ji, or an element whose average value is equal to or less than a predetermined threshold value. A range excluding pixels can be specified as the scanning range of attribute i.
また、第2の実施の形態においても、第1の実施の形態のように、検出結果に事前分布を反映させて最終的な検出結果を得るようにしてもよい。 Also in the second embodiment, the final detection result may be obtained by reflecting the prior distribution in the detection result as in the first embodiment.
また、上記各実施の形態における、学習部20と検出部40とを別々の装置として構成してもよい。また、上記の実施の形態では、学習処理装置内に事前分布DB及び検出器DBを保持する場合について説明したが、検出器DB及び事前分布DBは、外部の記憶装置に記憶しておいてもよい。この場合、検出処理の際に、画像処理装置が、外部装置からアトリビュートの種類毎の検出器及び事前分布を表す行列を読み込めばよい。 Moreover, you may comprise the learning part 20 and the detection part 40 in said each embodiment as a separate apparatus. In the above embodiment, the case where the prior distribution DB and the detector DB are held in the learning processing apparatus has been described. However, the detector DB and the prior distribution DB may be stored in an external storage device. Good. In this case, at the time of the detection process, the image processing apparatus may read a matrix representing the detector and the prior distribution for each attribute type from the external apparatus.
また、本願明細書中において、プログラムが予めインストールされている形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを提供する形態としてもよい。 In the present specification, the program has been described as being preinstalled. However, the program may be provided by being stored in a computer-readable recording medium. The computer-readable recording medium refers to a storage device such as a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a hard disk built in the computer system. Further, the program may be provided via a network such as the Internet or a communication line such as a telephone line.
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
また、上述の画像処理装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 Further, the above-described image processing apparatus has a computer system therein, but the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
なお、本発明は、上述した各実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。本実施の形態の主要な特徴を満たす範囲内において、任意の用途と構成を取ることができる。 The present invention is not limited to the above-described embodiments, and various modifications and applications can be made without departing from the gist of the present invention. Arbitrary uses and configurations can be adopted within a range that satisfies the main characteristics of the present embodiment.
10、210 画像処理装置
20 学習部
21 学習データ入力部
22 特徴抽出部
23 検出器学習部
24 事前分布学習部
31 学習データ・データベース(DB)
32 検出器DB
33 事前分布DB
36 入力画像
37 検出結果
40、240 検出部
41 画像入力部
42、242 特徴抽出部
43、243 検出処理部
44、244 事前分布反映部
45 検出結果出力部
DESCRIPTION OF SYMBOLS 10,210 Image processing apparatus 20
32 Detector DB
33 Prior distribution DB
36
Claims (4)
前記入力画像における前記検出対象の候補の各々の出現位置に対して、前記複数の学習画像の各々における前記検出対象の種類毎の出現位置を学習した事前分布、及び異なる種類の検出対象間の相対位置関係を学習した事前分布を反映させた結果に基づいて、前記検出対象の候補から検出対象を種類毎に特定する特定手段と、
を含む画像処理装置。 A detector learned in association with characteristics and kinds of the detection target of each type of the plurality of the detection object extracted from each of the learning image including a plurality of types of detection target, the features extracted from the input image Based on the detection means for detecting the detection target candidate for each type from the input image,
Prior distribution of learning the appearance position for each type of the detection target in each of the plurality of learning images with respect to the appearance position of each of the detection target candidates in the input image , and the relative between the detection targets of different types Based on the result of reflecting the prior distribution in which the positional relationship has been learned, specifying means for specifying the detection target for each type from the detection target candidates;
An image processing apparatus.
前記複数の学習画像の各々から抽出された前記検出対象の種類毎の特徴と前記検出対象の種類とを対応付けて学習した検出器と、前記特定手段により特定された前記範囲から抽出された特徴とに基づいて、前記入力画像から前記検出対象を種類毎に検出する検出手段と、
を含む画像処理装置。 Input based on a prior distribution in which the appearance position of each type of detection target in each of a plurality of types of learning images including a plurality of types of detection targets is learned, and a prior distribution in which a relative positional relationship between different types of detection targets is learned. A specifying means for specifying a range for detecting the detection target for each type from an image;
A feature that is extracted from each of the plurality of learning images, a feature that is learned by associating a feature for each type of the detection target with a type of the detection target , and a feature that is extracted from the range specified by the specifying unit And detecting means for detecting the detection object for each type from the input image,
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014220616A JP6383639B2 (en) | 2014-10-29 | 2014-10-29 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014220616A JP6383639B2 (en) | 2014-10-29 | 2014-10-29 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016091051A JP2016091051A (en) | 2016-05-23 |
JP6383639B2 true JP6383639B2 (en) | 2018-08-29 |
Family
ID=56016850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014220616A Active JP6383639B2 (en) | 2014-10-29 | 2014-10-29 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6383639B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008259161A (en) * | 2007-03-13 | 2008-10-23 | Victor Co Of Japan Ltd | Target tracing device |
JP5118616B2 (en) * | 2008-12-17 | 2013-01-16 | 日本放送協会 | Face image detection apparatus and face image detection program |
JP2010262576A (en) * | 2009-05-11 | 2010-11-18 | Toyota Central R&D Labs Inc | Subject detecting apparatus and program |
JP6013241B2 (en) * | 2013-03-18 | 2016-10-25 | 株式会社東芝 | Person recognition apparatus and method |
-
2014
- 2014-10-29 JP JP2014220616A patent/JP6383639B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016091051A (en) | 2016-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961009B (en) | Pedestrian detection method, system, device and storage medium based on deep learning | |
US10769473B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
WO2019218824A1 (en) | Method for acquiring motion track and device thereof, storage medium, and terminal | |
US7995805B2 (en) | Image matching apparatus, image matching method, computer program and computer-readable storage medium | |
US8897578B2 (en) | Image recognition device, image recognition method, and integrated circuit | |
US10572072B2 (en) | Depth-based touch detection | |
US20160026899A1 (en) | Text line detection in images | |
US10410354B1 (en) | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation | |
KR20160096460A (en) | Recognition system based on deep learning including a plurality of classfier and control method thereof | |
US10438083B1 (en) | Method and system for processing candidate strings generated by an optical character recognition process | |
KR102030132B1 (en) | Malware detection system and method thereof | |
US9082000B2 (en) | Image processing device and image processing method | |
KR101802500B1 (en) | Learning device for improving image recogntion performance and learning method thereof | |
Hamed et al. | Arabic sign language alphabet recognition based on HOG-PCA using microsoft kinect in complex backgrounds | |
CN112101386A (en) | Text detection method and device, computer equipment and storage medium | |
Tsai et al. | Robust in-plane and out-of-plane face detection algorithm using frontal face detector and symmetry extension | |
JP2019220014A (en) | Image analyzing apparatus, image analyzing method and program | |
JP6623851B2 (en) | Learning method, information processing device and learning program | |
JP2021051589A5 (en) | ||
Kang et al. | Combining random forest with multi-block local binary pattern feature selection for multiclass head pose estimation | |
JP6517652B2 (en) | Object saliency map calculation device, method and program | |
JP6486084B2 (en) | Image processing method, image processing apparatus, and program | |
JP6383639B2 (en) | Image processing apparatus and program | |
KR102026280B1 (en) | Method and system for scene text detection using deep learning | |
JP2015187769A (en) | Object detection device, object detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6383639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |