JP5259456B2 - 学習装置及び物体検出装置 - Google Patents

学習装置及び物体検出装置 Download PDF

Info

Publication number
JP5259456B2
JP5259456B2 JP2009048037A JP2009048037A JP5259456B2 JP 5259456 B2 JP5259456 B2 JP 5259456B2 JP 2009048037 A JP2009048037 A JP 2009048037A JP 2009048037 A JP2009048037 A JP 2009048037A JP 5259456 B2 JP5259456 B2 JP 5259456B2
Authority
JP
Japan
Prior art keywords
feature
target object
detection target
voting
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009048037A
Other languages
English (en)
Other versions
JP2010204826A (ja
Inventor
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009048037A priority Critical patent/JP5259456B2/ja
Priority to US12/560,623 priority patent/US8548260B2/en
Publication of JP2010204826A publication Critical patent/JP2010204826A/ja
Application granted granted Critical
Publication of JP5259456B2 publication Critical patent/JP5259456B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像中に写っている特定の物体を検出し、その位置を推定する物体検出技術とその学習技術に関する。
画像で撮影された特定の検出対象物体を、その姿勢や形状などの画像上の見え方の変化に影響されずに検出するために、検出対象物体が映っている多数の学習サンプル画像から特徴点を検出し、その周辺の画像パターンを検出対象物体の部分パターンとして予め学習しておく方法が提案されている。
学習サンプル画像の学習時には、この検出対象物体の部分画像パターンから計算した局所特徴量に加えて、局所特徴量に対する検出対象物体の位置、スケール、向き等のパラメータの相対的関係も同時に記憶しておく。
検出対象物体の検出時には、入力された画像から学習時と同様の方法で抽出したそれぞれの局所特徴量を、学習時に記憶しておいた各局所特徴量と照合して類似している各局所特徴量を選択し、記憶されている相対パラメータを用いて検出対象物体の種類、位置、スケール、方向等のパラメータ空間に投票を行い、投票値が十分大きい極大点を求めることによって、物体の検出とそのパラメータの推定を行う。
非特許文献1では、検出対象画像から抽出された局所特徴量と、学習時に記憶しておいた多数の代表的な局所特徴量を照合して類似しているものを選択し、検出対象物体の位置、スケールのパラメータ空間に投票を行って物体を検出している。
特許文献1では、KD木によって局所特徴量の照合を高速化している。また、複数の特徴量の組から計算した位置・姿勢パラメータをパラメータ空間に投票し、検出対象物体の位置・姿勢を求めている。
B.Leibe,A.Leonardis,B.Schiele,「Robust Object Detection with Interleaved Categorization and Segmentation」,International Journal of Computer Vision, Vol.77,No.1-3,pp.259-289,2008
特開2006−65399号公報
上記従来技術では、局所特徴量が検出対象物体の一部なのか、それ以外なのかを識別してないため、検出対象物体以外の局所特徴量に対しても投票が行われ検出精度が下がるという問題点がある。
そこで本発明は、上記問題点を解決するためになされたものであって、検出対象物体を高い検出精度で行える物体検出装置、その方法及びプログラムと、その学習装置、その方法及びそのプログラムを提供することを目的とする。
本発明は、入力画像から検出される特徴点が検出対象物体に属するか否かを第1の識別器で識別し、前記検出対象物体に属すると識別された前記特徴点について、学習画像上の相対位置で構成されるパラメータ空間に投票を行って前記検出対象物体を検出する物体検出装置における前記パラメータ空間内の投票位置及び前記第1の識別器を学習する学習装置であって、前記学習画像中の検出対象物体の特徴点及び非検出対象物体の特徴点をそれぞれ検出する特徴点検出部と、前記学習画像から検出された前記各特徴点の周辺画像領域における特徴量を計算し、前記検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記検出対象物体のクラスを表すラベルを付与し、前記非検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記非検出対象物体を表すラベルの付与を行う特徴量計算部と、前記検出対象物体の前記特徴点の前記学習画像上の前記検出対象物体からの相対位置によって、前記パラメータ空間内での投票位置を算出する投票学習部と、前記学習画像のラベルが付与された前記特徴量を用いて、前記クラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように、前記第1の識別器を学習する識別器学習部と、を具備し、前記識別器学習部は、前記第1の識別器として複数のランダム木を用い、前記クラス分布の偏りと、前記パラメータ空間への投票位置の集中の度合いと、が減少するように、前記複数のランダム木の各々の親ノードから子ノードを生成する、ことを特徴とする学習装置である。
本発明は、入力画像から特徴点を検出する特徴点検出部と、前記特徴点とその周辺画像領域に関する特徴量を計算する特徴量計算部と、請求項1記載の前記識別器学習部によって学習された前記第1の識別器を用いて、前記特徴量が前記検出対象物体に属するか否かを識別する特徴量識別部と、前記検出対象物体と識別された前記特徴量に対応する前記特徴点について、請求項1記載の前記投票学習部で学習した前記パラメータ空間内の投票位置に従って、前記検出対象物体のクラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように投票を行う投票部と、前記投票された投票値が高い投票位置に、前記検出対象物体が検出されたとする物体検出部と、を具備することを特徴とする物体検出装置である。
本発明の学習装置によれば、検出対象物体を高い検出精度で行える物体検出装置に用いるパラメータ空間の投票位置及び識別器を学習できる。また、本発明の物体検出装置によれば、検出対象物体を高い検出精度で行える。
本発明の第1の実施形態に係る学習装置の構成を示すブロック図である。 検出対象物体と非検出対象物体に関する特徴点、特徴ベクトル、ラベルの説明図である。 検出対象物体の画像上の位置、大きさのパラメータに関するパラメータ空間への投票位置の説明図である。 ランダム木の学習方法を説明する説明図である。 学習装置のフローチャートである。 第1の実施形態に係る物体検出装置の構成を示すブロック図である。 物体検出装置の処理の流れを説明する説明図である。 物体検出装置のフローチャートである。 第2の実施形態に係る第2の識別器への入力となる二値ベクトルの説明図である。 第3の実施形態におけるパラメータ空間の説明図である。
(第1の実施形態)
以下、本発明の第1の実施形態の学習装置と物体検出装置について図面を参照して説明する。
本実施形態の物体検出装置は、入力画像から検出される特徴点が検出対象物体に属するか否かを識別器で識別する。そして、検出対象物体に属すると識別された各特徴点について、検出対象物体の種類、位置からなるパラメータ空間に投票を行って検出対象物体を検出するものである。
一方、本実施形態の学習装置は、前記パラメータ空間の投票位置と、前記物体検出装置において特徴点が検出対象物体に属するか否かを識別するための識別器を、学習画像から学習するものである。
まず、第1の実施形態の学習装置について図1〜図5を参照して説明する。
図1は、本実施形態に係わる物体検出装置のための学習装置の構成を示すブロック図である。
学習装置は、特徴点検出部1、特徴量計算部2、投票学習部3、識別器学習部4を有する。
学習画像は、1つ又は複数の検出対象物体に関する画像群及び検出対象物体以外の物体(以下、「非検出対象物体」という)の画像群で構成される。例えば、図2に示すように、検出対象物体を物体(掌)Hと物体Fの2種類とすると、学習画像Aは、物体Hが写っている画像群、物体Fが写っている画像群、物体Hと物体Fが写っていない非検出対象物体の画像群の3クラスで構成される。物体Hと物体Fの検出対象物体の画像群については、各画像について検出対象物体が写っている領域も分かっているものとする。
学習画像は、記憶装置5に予め記憶しておいてもよく、また、外部から取得してもよい。
特徴点検出部1は、学習画像のそれぞれから多数の特徴点を検出する。
特徴点の検出方法としては、一般的な様々な方法を用いることができる。例えば、Harrisコーナー検出器や、FASTコーナー検出器(E.Rosten and T.Drummond,「Machine learning for high-speed corner detection,」 in Proc. of European Conference on Computer Vision,pp.430-443,2006参照)等のコーナー検出器を用いる。
また、学習画像の解像度を徐々に落としていくことにより生成したピラミッド画像に対して適用することもできる。
また、学習画像の拡大縮小のスケール変換に対して不変性を持つ特徴点を用いてもよい。この場合には、Difference of Gaussian(DoG)フィルタ出力の局所極値点を、特徴点として抽出するSIFT特徴(D.Lowe,「Object recognition from local scale-invariant features,」in Proc.of International Conference on Computer Vision,Vol.2,pp.1150-1157, 1999参照、以下、「D. Lowe」という)等を用いる。
特徴量計算部2は、図2に示すように、特徴点検出部1で検出された各特徴点と、その特徴点の周辺画像領域201に関する特徴量として特徴ベクトルfを計算する。周辺画像領域201の大きさは、例えば縦24画素、横24画素といった一定の大きさでもよい。
また、特徴点検出部1においてSIFT特徴のようなスケール不変の特徴量でスケール情報が得られている場合には、このスケール情報に応じた周辺画像領域201の大きさを変化させてもよい。周辺画像領域201の大きさを変化させる場合は、一定の大きさに正規化してから特徴ベクトルfを計算する。
特徴ベクトルfとしては、一般的な様々な特徴量を利用することができる。例えば、画素値を離散化して一次元に並べたものや、又はこれを平均値と分散で正規化したものでも良い。さらに、微小な変化に頑健なヒストグラム特徴として、SIFT特徴(D. Lowe参照)等を用いてもよい。
以下では、このように学習画像から検出された全ての特徴点に関する特徴ベクトルfを「学習特徴ベクトル」と呼び、各検出対象物体の学習画像領域内から検出された特徴点に関する特徴ベクトルを「学習検出物体特徴ベクトル」と呼ぶ。
投票学習部3や識別器学習部4で使用するため、学習検出物体特徴ベクトルには該当する検出対象物体のクラス(種類)を表すラベル付けを行い、それ以外の特徴ベクトルには非検出対象物体のラベル付けを行う。例えば図2の場合、物体Hが写っている画像領域内から抽出された特徴ベクトルfには物体Hのラベル「+1」を付与し、非検出対象物体の画像から検出された特徴ベクトルfには非検出対象物体のラベル「−1」を付与する。
投票学習部3は、学習検出物体特徴ベクトルに対応する特徴点に関して、投票空間であるパラメータ空間内での投票位置情報を算出して記憶する。
以下では、検出対象物体のクラス(種類)rを表すラベル、画像内の二次元位置(x,y)、大きさsの4次元のパラメータ空間(r,x,y,s)を用いて説明する。しかし、その他にも検出対象物体の姿勢、向きなどを加えたより多次元のパラメータ空間を利用しても良い。
図3(a)は、x軸とy軸の直交二軸で画像位置が決められる画像上に検出対象物体(掌)Hの学習画像領域がある状態を示し、図3(b)はパラメータ空間を示している。但し、4次元空間を表示できないため、検出対象物体のクラスを示すラベルrを除いた3次元のパラメータ空間(x,y,s)で表している。
検出対象物体のクラスrについては、ラベルが特徴空間となり、+1、+2の2つの離散的な投票位置となる。
画像内の位置に関する投票位置情報は、図3(a)に示すように特徴点から検出対象物体の代表位置への2次元の相対ベクトルである。代表位置としては、例えば、検出対象物体の画像領域の重心位置や、外接四角形の中心である。
大きさsは、検出対象画像中の検出対象物体領域の大きさを用いる。例えば、検出対象物体領域を囲む矩形の幅、高さ、もしくはこれらの最大値、対角線の長さ等である。
なお、位置や大きさについては、特徴ベクトルを計算した局所画像領域の大きさで正規化した相対値を用いても良い。このように、各学習検出物体特徴ベクトルについて、パラメータ空間内での投票位置を割り当てる。
識別器学習部4は、物体検出装置において検出された任意の特徴点が検出対象物体に属するか否かを識別するための識別器を、特徴量計算部2で抽出したラベル付き学習特徴ベクトルを用いて学習する。
識別器として複数のランダム木を用いる。そして、識別器は、各ランダム木の識別性能が高く、すなわち、クラス分布が偏るように、かつ、前記パラメータ空間への投票位置がパラメータ空間内で集中するように構成する。
任意の特徴量が検出対象物体に属するか否かを識別するためには、各ランダム木の識別性能が高いこと、すなわち、クラス分布が偏ることは必須であるが、これに加えて物体検出装置は検出対象物体の位置や姿勢といったパラメータ空間への投票によって物体検出及びパラメータ推定を行うため、パラメータ空間で投票値が鋭いピークを持つことによって、精度の良い物体検出を行うことが可能となる。このような性質を持ったランダム木の学習は以下のようにして行う。
以下では説明を簡単にするため、検出対象物体が1クラス(1種類)と、非検出対象物体の2クラス(2種類)の問題について図4を参照して説明する。しかし、検出対象物体が2つ以上の多クラスの場合も同様の方法が適用できる。なお、図4では、ランダム木の各ノードの横にクラス分布を示すグラフと、二次元に簡略化したパラメータ空間の図を示す。
まず、識別器学習部4は、根ノードSに、特徴量計算部2で抽出した全てのラベル付き学習特徴ベクトルfを割り当てる。
識別器学習部4は、この根ノードSを2つに分割して2つの子ノードL、Rを作る際は、次のように行う。まず、図4に示すようにランダムに特徴ベクトルの要素fiとその閾値Tiを生成する。次に、fi<Tiを満たすラベル付き学習特徴ベクトルを左の子ノードL(図4のYesの場合)、満たさないラベル付き学習特徴ベクトルは右の子ノードR(図4のNoの場合)に仮に割り当てた場合の分割指標を計算する。分割指標は、分割の良さを表すものであり、後とから説明する。
識別器学習部4は、この仮割り当ての操作をN回繰り返し、最も良い分割指標を持つ要素fiと閾値Tiの組を選択し、実際にその要素fiと閾値Tiを用いて左右2つの子ノードL、Rを生成する。
識別器学習部4は、以下、再帰的に終了条件を満たすまでこの分割を繰り返す。終了条件としては、次の条件を採用する。第1の条件は、ノードに含まれるラベル付き学習特徴ベクトルの数が予め定めておいた数よりも小さいときである。第2の条件は、木構造の深さが予め定めておいた値よりも大きいときである。第3の条件は、分割の良さを表す指標の減少が予め定めておいた値よりも小さいときである。
識別器学習部4は、このようなランダム木の生成をT回行い複数のランダム木を生成する(P.Geurts,D.Ernst, and L. Wehenkel,「Extremely Randomized Trees,」Machine Learning,No.1,Vol.36,pp.3-42,2006参照)。
次に、分割の良さを表す分割指標について説明する。分割指標は、後から説明するクラス分布の偏りとパラメータ空間への投票位置の集中の度合いの2つを統合したものである。
まず、クラス分布の偏りについて説明する。
分割の良さとして、通常、識別性能が高くなるように上記したクラス分布の偏りを用いる。すなわち、ある分割を行ったことによって、クラス分布の偏りが大きくなったということは、学習サンプルをうまく識別できたということであり、未知のラベル付き学習特徴ベクトルに関しても識別性能が高いことが期待できる。
クラス分布の偏りは、エントロピーを用いて評価することができるので、識別性能の高いランダム木を構成するには分割前後のエントロピーをクラス分布の偏りとし、このクラス分布のエントロピーの減少度をG1とすればよい。分割前の親ノードのクラス分布のエントロピーをHc、分割後の左右の子ノードのクラス分布エントロピーをそれぞれHl,Hrとすると、

G1=2(Hc−Hs)/(Hc+Hs) ・・・(1)

Hs=(nL/n)Hl+(nR/n)Hr ・・・(2)

となる。但し、n、nL、nRはそれぞれ親ノード、左子ノード、右子ノードに含まれる特徴ベクトル数、Hsは分割後のエントロピーである。
エントロピー以外の分布の偏りを評価する指標を用いてもよく、例えば、変動係数やジニ係数といった集中度の指標(芳鐘,「計量書誌学的分布における集中度:集中度の概念と指標の特徴」、日本図書館情報学会誌. Vol. 46,No. 1,2000. p. 18-32参照)を用いても良い。
検出対象物体が2つ以上の場合は、3クラス以上の多クラス識別を行う必要があるが、エントロピー等の分布の偏りを評価する指標は多クラスになっても同様に計算することができる。
次に、パラメータ空間への投票位置の集中の度合いについて説明する。
物体検出装置では、検出された特徴量を識別器学習部4で学習した各ランダム木で識別し、選択された葉ノードに含まれている学習特徴ベクトルに割り当てられているパラメータ空間の投票位置に投票を行う。したがって、各葉ノードから行われる投票位置が、投票空間であるパラメータ空間で集中しているほど、最終的な投票結果もパラメータ空間で鋭いピークを持ち、物体検出性能が向上する。
投票位置の集中の度合い、言い換えれば、投票位置のばらつきは、分散で評価することができる。そのため、集中した投票を行うランダム木を構成するには、分割前後の各検出対象物体oに関する分散をパラメータ空間への投票位置の集中の度合いとし、この分散の減少度をG2oとすればよい。分割前の検出対象物体oに関する親ノードの投票位置の分散をσco、分割後の左右の子ノードの投票位置の分散をそれぞれσlo,σroとすると、

G2o=2(σco−σso)/(σco+σso) ・・・(3)

σso=(nLo/nTo)σlo+(nRo/nTo)σro
・・・(4)

となる。但し、nTo、nLo、nRoは、それぞれ親ノード、左の子ノード、右の子ノードに含まれる検出対象物体oに関する学習検出物体特徴ベクトル数である。
パラメータ空間への投票位置の集中の度合いについても、分散だけでなく、標準偏差や平均偏差など別の指標を用いても良い。
検出対象物体が2つ以上の場合は、各検出対象物体oについて、パラメータ空間への投票位置の集中の度合いG2oを計算する。
これらクラス分布の偏りとパラメータ空間への投票位置の集中の度合いを統合した分割指標Gは、下記の式(5)に示すようにクラス分布の偏りの減少度G1とパラメータ空間への投票位置の集中の度合いの減少度G2の重み付き和とする。

G=G1+Σo(w(γo)*G2o) ・・・(5)

但し、パラメータ空間への投票位置の集中の度合いの減少度G2oに関する重みは、検出対象物体割合γo=nTo/nに関する関数w(γo)を用いる。検出対象物体割合γo=nTo/nは、ランダム木の親ノードに属する全学習特徴ベクトル数nに対する、各検出対象物体oに関する学習検出物体特徴ベクトル数nToの割合である。関数w(γo)としては、w(γo)=γo、w(γo)=a*γo、w(γo)=max(γo−b,0)等を用いる。ここで、aとbは予め定められた定数である。
この分割指標Gを用いることにより、識別性能の高さと投票位置の集中が両立したランダム木を構成することができる。
木構造の根ノードSに近いノードでは、検出対象物体割合γoは比較的小さく、識別性能を優先した分割が行われる。木構造の深い部分のノードでは、検出対象物体割合γoが大きいノードと小さいノードができる。しかし、検出対象物体割合γoが大きいノードでは、識別性能の向上(クラス分布の偏りG1の増加)が小さくなっても、投票位置が散らばっている間はノードの分割が行われ、投票位置を集中させるような分割が続けられる。
学習装置の処理について、図5のフローチャートを参照して説明する。
ステップ1では、特徴点検出部1は、1つ又は複数の検出対象物体に関する画像及び非検出対象物体の画像からなる学習画像が入力され、各学習画像について多数の特徴点を検出する。
ステップ2では、特徴量計算部2は、図2に示すように特徴点とその周辺画像領域201に関する特徴量を計算すると共に、各検出対象物体の学習画像領域内から検出された特徴点に関する特徴量に該当する検出対象物体のクラスを表すラベル、それ以外の特徴量には非検出対象物体のラベル付けを行う。
ステップ3では、投票学習部3は、検出対象物体のラベルが付与されている各特徴点に関して、パラメータ空間内での投票位置を算出して記憶する。
ステップ4では、識別器学習部4は、物体検出装置において特徴点が特定の検出対象物体に属するか否かを識別するための識別器を、特徴量計算部2で抽出したラベル付き特徴量を用いて学習する。
第1の実施形態の物体検出装置について図6〜図8を参照して説明する。
図6は、本発明の第1の実施形態に係わる物体検出装置の構成を示すブロック図である。
物体検出装置は、画像入力部10、特徴点検出部11、特徴量計算部12、特徴量識別部13、投票部14、検出部15を有する。
画像入力部10には、カメラ等から画像が入力される。
特徴点検出部11と特徴量計算部12は、それぞれ前記学習装置の特徴点検出部1と特徴量計算部2と同様の方法で、図7に示すように入力画像から特徴点を検出し、その周辺の画像領域に関する特徴ベクトル計算する。特徴点検出部11と特徴量計算部12については、前記学習装置と同じ処理を行うので詳細の説明は省略する。
特徴量識別部13は、前記識別器学習部4によって生成された複数のランダム木を用いて、各特徴量が前記各検出対象物体に属するか否かを識別する。
投票部14は、特徴量識別部13において検出対象物体と識別された特徴量に対応する特徴点について、投票学習部3で学習したパラメータ空間内の投票位置に従って投票を行う。
物体検出部15では、投票結果に基づいて物体検出を行う。
特徴量識別部13では、識別器学習部4で学習した複数のランダム木の各ランダム木で、特徴量計算部12で計算した各特徴ベクトルを識別する。
すなわち、各ノードの分割テスト(例えばfi<Ti)で特徴ベクトルを識別し、分割テストを満たせば左のノードに進むといったように、識別結果に応じて木構造を葉ノードに到達するまで下っていく。
到達した葉ノードに属する学習特徴ベクトルのラベルをカウントし、最大のラベル数を持つクラスが検出対象物体oであれば、このランダム木による識別結果は検出対象物体oであるとする。
このようなランダム木の識別を識別器学習部4で学習した複数のランダム木について行い、検出対象物体oであると識別したランダム木の割合が閾値以上であれば、最終的にその特徴ベクトルを検出対象物体oの一部であると判別する。
特徴量識別部13において、ある検出対象物体oの一部であると識別された特徴ベクトルについて、特徴ベクトルをランダム木で識別したときに到達した葉ノードが分かっている。
投票部14では、到達した葉ノードに割り当てられている検出対象物体oに関する学習検出物体特徴ベクトルについて、投票学習部3で学習しておいた検出対象物体oのパラメータ空間内の投票位置を取得する。
特に、画像内の位置に関する投票位置情報について説明する。図3に示すように位置に関する投票位置情報は、特徴点から検出対象物体の代表位置への2次元相対ベクトルなので、検出対象物体であると識別された特徴ベクトルに対応する特徴点の画像上の位置にこの相対ベクトルを足した位置に投票を行う。
投票値は、各学習検出物体特徴ベクトルについて一定の値でもよいし、到達した葉ノードの検出対象物体割合γo、特徴量識別部13で検出対象物体oであると識別したランダム木の割合、これらの積、又はこれらを到達した葉ノードに属する検出対象物体oに関する学習検出物体特徴ベクトルの数で割って正規化した値等を用いる。
特徴量計算部12で検出された特徴ベクトルのうち、特徴量識別部13でいずれかの検出対象物体の一部であると識別された全ての特徴ベクトルについて、各検出対象物体に対応するパラメータ空間に対して以上の投票処理を行う。非特徴物体であると識別された特徴ベクトルについては投票を行わない。
物体検出部15では、パラメータ空間の投票値を用いて検出対象物体の検出を行う。
単純には、投票値が閾値以上である極大点を検出する。
特徴量計算部12で検出された特徴ベクトルの数が画像によって大きくばらつく場合には、前記極大点位置に投票を行った特徴ベクトルの数で極大値を割って投票値の正規化を行ってもよい。
物体検出装置の処理について、図8のフローチャートを参照して説明する。
ステップ11では、特徴点検出部11は、入力画像から特徴点を検出する。
ステップ12では、特徴量計算部12は、特徴点の周辺画像領域201に関する特徴ベクトルを計算する。
ステップ13では、特徴量識別部13は、識別器学習部4で学習した識別器である複数のランダム木で、特徴量計算部12で計算した各特徴ベクトルを識別する。
ステップ14では、投票部14は、到達した葉ノードに割り当てられている検出対象物体oに関する学習検出物体特徴ベクトルについて、投票学習部3で学習しておいた検出対象物体oのパラメータ空間内の投票位置を取得する。
ステップ15では、物体検出部15は、パラメータ空間の投票値を用いて検出対象物体の検出を行う。
(第2の実施形態)
第2の実施形態に係わる物体検出装置及び学習装置について図9を参照して説明する。
第2の実施形態の学習装置について図9を参照して説明する。
本実施形態に係わる学習装置では、第1の実施形態において識別器学習部3で学習した複数のランダム木からなる識別器(以下、「第1の識別器」という)に加えて、第2の識別器を学習する。
まず、図9に示すように、学習特徴ベクトルを前記第1の識別器の各ランダム木で識別した結果、検出対象物体として選択された葉ノードで+1の値をとり、それ以外の葉ノードは0の値をとり、複数のランダム木についてこれらを結合した2値ベクトルgを求める。次に、第2の識別器は、この2値ベクトルgを入力して学習する。
すなわち、第2の識別器の学習には、全てのラベル付き学習特徴量ベクトルから計算される2値ベクトルgを用いる。第2の識別器としては、一般的な識別器を用いることができる。例えば、サポートベクトルマシン、ニューラルネットワーク、AdaBoost等を用いる。
検出対象物体が2つ以上の場合には、第2の識別器は3クラス以上の多クラス識別を行う必要がある。識別器として2クラス識別器を用いる場合には、複数の2クラス識別器を組み合わせることによって、多クラス識別を行うことができる。すなわち、あるクラスとそれ以外のクラスを識別する2クラス識別器を、各クラス毎に学習しておく方法や、あるクラスと別のあるクラスを識別する2クラス識別器を組み合わせの数だけ学習しておく方法などがある。
第2の実施形態の物体検出装置について説明する。
第2の実施形態に係わる物体検出装置では、特徴量識別部13において識別器学習部3で学習した複数のランダム木である第1の識別器と第2の識別器によって、特徴量計算部12で抽出した各特徴ベクトルを識別する。
第1の識別器は、第1の実施形態と同様の識別を行う。
第2の識別器は、検出対象物体らしさを表す識別値を出力するので、この識別値が閾値よりも大きい場合に、特徴ベクトルを検出物体の一部であると識別する。
また、投票部14において投票値を計算するとき、第2の識別器の識別値をさらに用いてもよい。
(第3の実施形態)
第3の実施形態に係わる物体検出装置及び学習装置について図10を参照して説明する。
第1の実施形態で示したように、特徴量の識別器として複数のランダム木を用いる以外にも、他の識別器を用いることもできる。第3の実施形態では、最近傍識別器を用いる場合について述べる。
第3の実施形態の学習装置について図10を参照して説明する。
本実施形態に係わる学習装置では、識別器学習部4において、全ての学習特徴量をk平均法などのベクトル量子化方法によってk個のクラスタに分割する。
k平均法は、任意のベクトルデータに対してランダムにクラスタを割りあて、この割り当てで各クラスタの平均を計算する。各ベクトルと各クラスタ平均との距離を求め、各ベクトルを最も近い平均値をもつクラスタに割り当て直す。上記の処理で全てのベクトルのクラスタへの割り当てが変化しなかった場合は処理を終了する。それ以外の場合は処理を繰り返す。
識別器学習部4では、学習検出物体特徴ベクトルと、非検出対象物体の特徴ベクトルに対して別々にk平均法を適用し、検出対象物体のクラスタと、非検出対象物体のクラスタをそれぞれK個、K’個生成する。
学習検出物体特徴ベクトルについてk平均法を適用するとき、通常のk平均法では、クラスタに割り当てられた特徴ベクトルの各要素の平均値と、ユークリッド距離が使用されるが、各クラスタに分類された学習検出物体特徴ベクトルの投票位置が集中するように、クラスタ平均値やデータ間の距離を定義する。
図10に示すように、特徴ベクトルの要素f1,f2と投票位置vをつなげた結合ベクトルを定義し、この結合ベクトルの平均とユークリッド距離によってk平均法を行う。
これにより、各クラスタは特徴ベクトルが類似しており、投票位置も近い特徴ベクトルの集合となる。各クラスタではクラスタに割り当てられた特徴ベクトルの平均値を計算し、代表特徴ベクトルとする。
第3の実施形態の物体検出装置について説明する。
本実施形態に係わる物体検出装置では、特徴量計算部12で抽出した各特徴ベクトルについて、特徴量識別部13において識別器学習部4で生成した代表特徴ベクトルと照合を最近傍識別器によって行い、距離の近い(複数の)代表特徴ベクトルを選択する。
選択された代表特徴ベクトルが、非検出対象物体のクラスタである場合には、その特徴ベクトルは非検出対象物体であると識別し、投票を行わない。
選択された代表特徴ベクトルが、検出対象物体のクラスタである場合には、その特徴ベクトルは検出対象物体の一部であると識別する。
投票部14は、検出対象物体の一部であると識別された特徴ベクトルについて、距離の近い代表特徴ベクトルを求める。投票部14は、この代表特徴ベクトルに対応するクラスタに割り当てられた学習検出物体特徴ベクトルを求める。そして、投票部14は、この学習検出物体特徴ベクトルに関して、投票学習部3で学習したパラメータ空間内の投票位置を取得する。投票部14は、パラメータ空間内の前記投票位置に投票値を投票を行う。
投票値は、各学習検出物体特徴ベクトルについて一定の値、代表特徴ベクトルとの類似度、これらをクラスタ内に含まれる学習検出物体特徴ベクトルの数で割って正規化したもの等とする。
(変更例)
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
なお、上記各実施形態の学習装置と物体検出装置は、例えば、汎用のコンピュータを基本ハードウェアとして用いることでも実現することが可能である。すなわち、学習装置の特徴点検出部1、特徴量計算部2、投票学習部3、識別器学習部4及び物体検出装置の画像入力部10、特徴点検出部11、特徴量計算部12、特徴量識別部13、投票部14、検出部15は、上記のコンピュータに搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、学習装置と物体検出装置は、上記のプログラムをコンピュータに予めインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、又はネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータに適宜インストールすることで実現してもよい。
1・・・特徴点検出部
2・・・特徴量計算部
3・・・投票学習部
4・・・識別器学習部
10・・・画像入力部
11・・・特徴点検出部
12・・・特徴量計算部
13・・・特徴量識別部
14・・・投票部
15・・・検出部

Claims (13)

  1. 入力画像から検出される特徴点が検出対象物体に属するか否かを第1の識別器で識別し、前記検出対象物体に属すると識別された前記特徴点について、学習画像上の相対位置で構成されるパラメータ空間に投票を行って前記検出対象物体を検出する物体検出装置における前記パラメータ空間内の投票位置及び前記第1の識別器を学習する学習装置であって、
    前記学習画像中の検出対象物体の特徴点及び非検出対象物体の特徴点をそれぞれ検出する特徴点検出部と、
    前記学習画像から検出された前記各特徴点の周辺画像領域における特徴量を計算し、前記検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記検出対象物体のクラスを表すラベルを付与し、前記非検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記非検出対象物体を表すラベルの付与を行う特徴量計算部と、
    前記検出対象物体の前記特徴点の前記学習画像上の前記検出対象物体からの相対位置によって、前記パラメータ空間内での投票位置を算出する投票学習部と、
    前記学習画像のラベルが付与された前記特徴量を用いて、前記クラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように、前記第1の識別器を学習する識別器学習部と、
    を具備し、
    前記識別器学習部は、
    前記第1の識別器として複数のランダム木を用い、
    前記クラス分布の偏りと、前記パラメータ空間への投票位置の集中の度合いと、が減少するように、前記複数のランダム木の各々の親ノードから子ノードを生成する、
    ことを特徴とする学習装置。
  2. 前記識別器学習部は、前記第1の識別器に加えて第2の識別器を学習するものであり、
    前記第1の識別器によって、前記ラベル付き特徴量を前記ランダム木で識別することにより、前記検出対象物体として選択された葉ノードで第1の値をとり、それ以外の葉ノードは前記第1の値と異なる第2の値をとり、かつ、複数の前記ランダム木について前記第1の値と前記第2の値を結合した2値ベクトルを求め、
    前記2値ベクトルを前記第2の識別器に入力して、前記第2の識別器を学習させる、
    ことを特徴とする請求項に記載の学習装置。
  3. 前記識別器学習部は、
    前記クラス分布のエントロピーの減少度及び前記パラメータ空間における前記投票位置の分散の減少度の重み付き和を用いて前記親ノードの分割を行い、
    前記投票位置の分散の減少度に関する重みは検出対象物体割合の関数であり、前記検出対象物体割合は、前記ランダム木の前記ノードに属する全ての前記特徴量の数に対する、前記検出対象物体に対応する前記特徴量の数の割合である、
    ことを特徴とする請求項1又は2に記載の学習装置。
  4. 前記識別器学習部は、
    前記各検出対象物体のそれぞれから抽出された前記特徴量である特徴ベクトルの各集合について、前記特徴ベクトルが類似し、かつ、前記投票位置が前記パラメータ空間内で集中するように前記特徴ベクトルをクラスタリングして前記クラスタを求め、
    前記非検出対象物体から抽出された前記特徴ベクトルの各集合について、前記特徴ベクトルが類似しているように前記特徴ベクトルをクラスタリングして前記クラスタを求め、
    前記各クラスタに属する前記特徴ベクトルの集合を代表する代表特徴ベクトルを計算する、
    ことを特徴とする請求項1に記載の学習装置。
  5. 入力画像から特徴点を検出する特徴点検出部と、
    前記特徴点とその周辺画像領域に関する特徴量を計算する特徴量計算部と、
    請求項1記載の前記識別器学習部によって学習された前記第1の識別器を用いて、前記特徴量が前記検出対象物体に属するか否かを識別する特徴量識別部と、
    前記検出対象物体と識別された前記特徴量に対応する前記特徴点について、請求項1記載の前記投票学習部で学習した前記パラメータ空間内の投票位置に従って、前記検出対象物体のクラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように投票を行う投票部と、
    前記投票された投票値が高い投票位置に、前記検出対象物体が検出されたとする物体検出部と、
    を具備することを特徴とする物体検出装置。
  6. 前記特徴量識別部は、
    前記入力画像から得られる各特徴量について、前記第1の識別器で識別して前記2値ベクトルを算出し、
    前記2値ベクトルを、請求項3記載の前記第2の識別器に入力して、前記特徴量が前記各検出対象物体に属するか否かを識別する、
    ことを特徴とする請求項に記載の物体検出装置。
  7. 前記投票部は、
    前記入力画像から得られる各特徴量を前記ランダム木によって前記検出対象物体として識別された葉ノードの前記検出対象物体割合、前記検出対象物体と識別した前記ランダム木の割合比例する投票値を前記パラメータ空間に投票する、
    ことを特徴とする請求項に記載の物体検出装置。
  8. 前記投票部は、
    前記入力画像から得られる各特徴量を前記ランダム木によって前記検出対象物体として識別された葉ノードの前記検出対象物体割合、前記検出対象物体と識別した前記ランダム木の割合、又は、前記第2の識別器からの前記検出対象物らしさを表す識別値のいずれか、もしくは、これらの組み合わせに比例する投票値を前記パラメータ空間に投票する、
    ことを特徴とする請求項に記載の物体検出装置。
  9. 前記特徴量計算部は、
    前記特徴量として特徴ベクトルを計算し、
    前記特徴量識別部は、
    前記特徴ベクトルと、請求項5記載の前記識別器学習部で計算した前記代表特徴ベクトルと照合して、最も類似している前記代表特徴ベクトルを選択し、
    この選択した前記代表特徴ベクトルに関する前記クラスタを類似クラスタとして抽出し、
    前記類似クラスタの一定割合以上が、特定の検出対象物体であった場合に、前記特徴ベクトルは前記特定の検出対象物体に属すると識別し、
    前記投票部は、
    前記検出対象物体に属すると識別された特徴ベクトルについて、前記類似クラスタに割り当てられ、かつ、請求項1記載の前記投票学習部の学習時に用いた特徴ベクトルを求め、
    この求めた前記特徴ベクトルの前記特徴点に関して、請求項1記載の前記投票学習部で学習した前記パラメータ空間内の投票位置を取得し、
    前記パラメータ空間内の前記投票位置に投票値を投票を行う、
    ことを特徴とする請求項6に記載の物体検出装置。
  10. 入力画像から検出される特徴点が検出対象物体に属するか否かを第1の識別器で識別し、前記検出対象物体に属すると識別された前記特徴点について、学習画像上の相対位置で構成されるパラメータ空間に投票を行って前記検出対象物体を検出する物体検出方法における前記パラメータ空間内の投票位置及び前記第1の識別器を学習する学習方法であって、
    特徴点検出部が、前記学習画像中の検出対象物体の特徴点及び非検出対象物体の特徴点をそれぞれ検出する特徴点検出ステップと、
    特徴量計算部が、前記学習画像から検出された前記各特徴点の周辺画像領域における特徴量を計算し、前記検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記検出対象物体のクラスを表すラベルを付与し、前記非検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記非検出対象物体を表すラベルの付与を行う特徴量計算ステップと、
    投票学習部が、前記検出対象物体の前記特徴点の前記学習画像上の前記検出対象物体からの相対位置によって、前記パラメータ空間内での投票位置を算出する投票学習ステップと、
    識別器学習部が、前記学習画像のラベルが付与された前記特徴量を用いて、前記クラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように、前記第1の識別器を学習する識別器学習ステップと、
    を具備し、
    前記識別器学習ステップにおいて、
    識別器学習部が、前記第1の識別器として複数のランダム木を用い、
    前記クラス分布の偏りと、前記パラメータ空間への投票位置の集中の度合いと、が減少するように、前記複数のランダム木の各々の親ノードから子ノードを生成する、
    ことを特徴とする学習方法。
  11. 特徴点検出部が、入力画像から特徴点を検出する特徴点検出ステップと、
    特徴量計算部が、前記特徴点とその周辺画像領域に関する特徴量を計算する特徴量計算ステップと、
    特徴量識別部が、請求項10記載の前記識別器学習部によって学習された前記第1の識別器を用いて、前記特徴量が前記検出対象物体に属するか否かを識別する特徴量識別ステップと、
    投票部が、前記検出対象物体と識別された前記特徴量に対応する前記特徴点について、請求項1記載の前記投票学習部で学習した前記パラメータ空間内の投票位置に従って、前記検出対象物体のクラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように投票を行う投票ステップと、
    物体検出部が、前記投票された投票値が高い投票位置に、前記検出対象物体が検出されたとする物体検出ステップと、
    を具備することを特徴とする物体検出方法。
  12. 入力画像から検出される特徴点が検出対象物体に属するか否かを第1の識別器で識別し、前記検出対象物体に属すると識別された前記特徴点について、学習画像上の相対位置で構成されるパラメータ空間に投票を行って前記検出対象物体を検出する物体検出プログラムにおける前記パラメータ空間内の投票位置及び前記第1の識別器を学習する学習プログラムであって、
    コンピュータに、
    前記学習画像中の検出対象物体の特徴点及び非検出対象物体の特徴点をそれぞれ検出する特徴点検出機能と、
    前記学習画像から検出された前記各特徴点の周辺画像領域における特徴量を計算し、前記検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記検出対象物体のクラスを表すラベルを付与し、前記非検出対象物体の前記特徴点の前記周辺画像領域に関する前記特徴量には、前記非検出対象物体を表すラベルの付与を行う特徴量計算機能と、
    前記検出対象物体の前記特徴点の前記学習画像上の前記検出対象物体からの相対位置によって、前記パラメータ空間内での投票位置を算出する投票学習機能と、
    前記学習画像のラベルが付与された前記特徴量を用いて、前記クラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように、前記第1の識別器を学習する識別器学習機能と、
    を実現させ
    前記識別器学習機能は、
    前記第1の識別器として複数のランダム木を用い、
    前記クラス分布の偏りと、前記パラメータ空間への投票位置の集中の度合いと、が減少するように、前記複数のランダム木の各々の親ノードから子ノードを生成する、
    学習プログラム。
  13. コンピュータに、
    入力画像から特徴点を検出する特徴点検出機能と、
    前記特徴点とその周辺画像領域に関する特徴量を計算する特徴量計算機能と、
    請求項12記載の前記識別器学習機能によって学習された前記第1の識別器を用いて、前記特徴量が前記検出対象物体に属するか否かを識別する特徴量識別機能と、
    前記検出対象物体と識別された前記特徴量に対応する前記特徴点について、請求項12記載の前記投票学習機能で学習した前記パラメータ空間内の投票位置に従って、前記検出対象物体のクラスのクラス分布が偏るように、かつ、前記パラメータ空間への投票位置が集中するように投票を行う投票機能と、
    前記投票された投票値が高い投票位置に、前記検出対象物体が検出されたとする物体検出機能と、
    を実現させるための物体検出プログラム。
JP2009048037A 2009-03-02 2009-03-02 学習装置及び物体検出装置 Expired - Fee Related JP5259456B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009048037A JP5259456B2 (ja) 2009-03-02 2009-03-02 学習装置及び物体検出装置
US12/560,623 US8548260B2 (en) 2009-03-02 2009-09-16 Learning apparatus and object detecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048037A JP5259456B2 (ja) 2009-03-02 2009-03-02 学習装置及び物体検出装置

Publications (2)

Publication Number Publication Date
JP2010204826A JP2010204826A (ja) 2010-09-16
JP5259456B2 true JP5259456B2 (ja) 2013-08-07

Family

ID=42667119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048037A Expired - Fee Related JP5259456B2 (ja) 2009-03-02 2009-03-02 学習装置及び物体検出装置

Country Status (2)

Country Link
US (1) US8548260B2 (ja)
JP (1) JP5259456B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5538967B2 (ja) 2009-06-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US8396286B1 (en) * 2009-06-25 2013-03-12 Google Inc. Learning concepts for video annotation
JP5521497B2 (ja) * 2009-11-05 2014-06-11 富士通株式会社 パターン認識装置、パターン認識プログラム、パターン認識方法
US8452763B1 (en) 2009-11-19 2013-05-28 Google Inc. Extracting and scoring class-instance pairs
US8452778B1 (en) 2009-11-19 2013-05-28 Google Inc. Training of adapted classifiers for video categorization
US9053393B2 (en) * 2010-03-19 2015-06-09 Canon Kabushiki Kaisha Learning method and apparatus for pattern recognition
US9087297B1 (en) 2010-12-17 2015-07-21 Google Inc. Accurate video concept recognition via classifier combination
US8737747B2 (en) * 2011-02-14 2014-05-27 Xerox Corporation Method for automated tire detection and recognition
JP5729029B2 (ja) * 2011-03-10 2015-06-03 セイコーエプソン株式会社 識別装置及び識別方法
US9600745B2 (en) 2011-03-17 2017-03-21 Nec Corporation Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program
US8811726B2 (en) * 2011-06-02 2014-08-19 Kriegman-Belhumeur Vision Technologies, Llc Method and system for localizing parts of an object in an image for computer vision applications
JP5857715B2 (ja) * 2011-12-16 2016-02-10 セイコーエプソン株式会社 識別装置、及び、識別方法
JP6225443B2 (ja) * 2013-03-22 2017-11-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5742873B2 (ja) 2013-05-08 2015-07-01 株式会社デンソー 物体識別装置
JP6203077B2 (ja) 2014-02-21 2017-09-27 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
US9477908B2 (en) * 2014-04-10 2016-10-25 Disney Enterprises, Inc. Multi-level framework for object detection
WO2015162748A1 (ja) * 2014-04-24 2015-10-29 株式会社日立製作所 データ変換装置およびデータ変換方法
WO2015197029A1 (zh) * 2014-06-27 2015-12-30 北京奇虎科技有限公司 一种人脸相似度识别方法和***
JP6325405B2 (ja) * 2014-09-22 2018-05-16 株式会社東芝 特徴点検出装置、方法及びプログラム
JP6402611B2 (ja) * 2014-12-04 2018-10-10 富士通株式会社 入力制御方法、入力制御プログラム、及び情報処理装置
KR101823208B1 (ko) * 2015-12-04 2018-01-29 엘지전자 주식회사 공기 조화기 및 그 제어방법
KR102592076B1 (ko) * 2015-12-14 2023-10-19 삼성전자주식회사 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치
US10318846B2 (en) * 2016-12-28 2019-06-11 Ancestry.Com Operations Inc. Clustering historical images using a convolutional neural net and labeled data bootstrapping
WO2020171818A1 (en) * 2019-02-22 2020-08-27 Google Llc Memory-guided video object detection
CN111724441A (zh) * 2020-05-28 2020-09-29 上海商汤智能科技有限公司 图像标注方法及装置、电子设备及存储介质
CN113240643A (zh) * 2021-05-14 2021-08-10 广州广电运通金融电子股份有限公司 一种基于多光谱图像的钞票质量检测方法、***及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2856539B2 (ja) * 1990-11-02 1999-02-10 日本電信電話株式会社 一般化ハフ変換における画像特徴選択処理方法
JP4605445B2 (ja) 2004-08-24 2011-01-05 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US20070112701A1 (en) * 2005-08-15 2007-05-17 Microsoft Corporation Optimization of cascaded classifiers
JP4709723B2 (ja) * 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法
US8233704B2 (en) * 2007-06-13 2012-07-31 Sri International Exemplar-based heterogeneous compositional method for object classification
US7986828B2 (en) * 2007-10-10 2011-07-26 Honeywell International Inc. People detection in video and image data

Also Published As

Publication number Publication date
US8548260B2 (en) 2013-10-01
JP2010204826A (ja) 2010-09-16
US20100220922A1 (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP5259456B2 (ja) 学習装置及び物体検出装置
Satpathy et al. LBP-based edge-texture features for object recognition
US8340439B2 (en) Image conversion method and apparatus, and pattern identification method and apparatus
US8675974B2 (en) Image processing apparatus and image processing method
US9292745B2 (en) Object detection apparatus and method therefor
JP5675214B2 (ja) 情報処理装置、情報処理方法およびプログラム
Hernandez-Diaz et al. Periocular recognition using CNN features off-the-shelf
US9053393B2 (en) Learning method and apparatus for pattern recognition
US20070058856A1 (en) Character recoginition in video data
US9418440B2 (en) Image segmenting apparatus and method
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
US20140286568A1 (en) Information processing apparatus and training method
JP5120238B2 (ja) オブジェクト領域抽出装置及びオブジェクト領域抽出プログラム
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
Abdulfattah et al. A reliable binarization method for offline signature system based on unique signer’s profile
JP2017084006A (ja) 画像処理装置およびその方法
Yellamraju et al. Benchmarks for image classification and other high-dimensional pattern recognition problems
Bindu et al. Kernel-based scale-invariant feature transform and spherical SVM classifier for face recognition
Kovari et al. Off-line signature verification based on feature matching
Sangineto Statistical and spatial consensus collection for detector adaptation
Senanayaka et al. Adaptive Centroid Placement Based SNIC for Superpixel Segmentation
AhilaPriyadharshini et al. Object recognition based on local steering kernel and SVM
Liu et al. An iris recognition approach with SIFT descriptors
WO2018116918A1 (ja) 照合処理装置、照合処理方法、及び、照合処理プログラムが格納された記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees