JP5906071B2 - 情報処理方法、情報処理装置、および記憶媒体 - Google Patents

情報処理方法、情報処理装置、および記憶媒体 Download PDF

Info

Publication number
JP5906071B2
JP5906071B2 JP2011264117A JP2011264117A JP5906071B2 JP 5906071 B2 JP5906071 B2 JP 5906071B2 JP 2011264117 A JP2011264117 A JP 2011264117A JP 2011264117 A JP2011264117 A JP 2011264117A JP 5906071 B2 JP5906071 B2 JP 5906071B2
Authority
JP
Japan
Prior art keywords
class
candidate
information processing
classifier
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011264117A
Other languages
English (en)
Other versions
JP2013117792A (ja
Inventor
貴之 猿田
貴之 猿田
優和 真継
優和 真継
克彦 森
克彦 森
裕輔 御手洗
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011264117A priority Critical patent/JP5906071B2/ja
Priority to US13/685,911 priority patent/US9147130B2/en
Publication of JP2013117792A publication Critical patent/JP2013117792A/ja
Application granted granted Critical
Publication of JP5906071B2 publication Critical patent/JP5906071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物を撮像することにより得られた画像から、当該対象物を認識する認識処理において適用可能な情報処理技術に関するものである。
従来より、種々の対象物を撮像することにより得られた画像から抽出されたそれぞれの特徴量をコンピュータに学習させておき、新たに入力された画像に含まれる対象物について、その種別を識別する識別手法に関する研究が活発になされている。
また、対象物のモデル情報などを用いることにより、対象物の種別に加えて、位置や姿勢をあわせて識別する研究もなされている。
例えば、下記非特許文献1では、学習画像から抽出されコードブック化された特徴点と、入力された画像から抽出された特徴点とを対応付け、確率的投票により対象物の中心位置を識別する手法が提案されている(implicit−shape−model)。当該手法によれば、対象物の種別だけではなく、対象物の位置や姿勢を識別することも可能である。
また、下記特許文献1に開示された手法では、まず、入力画像から抽出された各特徴点について特徴量を算出し、学習画像において算出された各特徴点の特徴量と対比することで、類似する特徴点同士を対応点として設定する。次に、種別、位置、姿勢が互いに異なる各学習画像にて予め算出された、特徴点から基準点までのベクトルを用いることで、入力画像の各特徴点において基準点を算出する。次に、当該算出した基準点の位置を所定の画像平面上に投票したうえで、当該算出した基準点が所定の画像平面上の小領域内に所定数以上存在しているか否かを判断する。そして、存在していた場合に当該基準点の算出に用いられたベクトルを有する学習画像を入力画像と類似する学習画像と判断することで、対象物の種別、位置、姿勢を識別している。
しかしながら、対象物の種別に加えて、その位置や姿勢も識別しようとした場合、上述のような識別手法では、入力画像が小さかったり、位置や姿勢の識別に有効な特徴点が少なかったりした場合に、識別が困難になるという問題がある。このようなことから、識別項目(種別、位置、姿勢等)が複数ある場合には、複数段の識別器を用いて、徐々に候補を絞り込んでいく認識技術を用いるのが一般的であり、このような認識技術の研究も進められている。
かかる認識技術の一例として、Coarse−To−Fineによる手法が挙げられる。Coarse−To−Fineによる手法では、1段階目の識別器で識別するクラスが最終的に識別されるクラスよりも粗く設定されている。具体的には、対象物の種別の識別において、1段階目の識別器では、複数の種別クラスを1つのクラスとして統合したうえで識別処理を行う。同様に、対象物の姿勢の識別についても、1段階目の識別器では、複数の姿勢クラスを1つのクラスとして統合したうえで識別を行う。つまり、いずれの識別項目(種別、姿勢)も1段階目の識別器において、クラスを粗く設定したうえで候補クラスを絞り込み、その候補クラスの中から2段目以降の識別器を用いて更にクラスを絞り込むことで、最終的なクラスを識別している。
Coarse−To−Fineによる手法の一例として、下記特許文献2では、識別器を複数段使用し、各段にて候補クラスを徐々に絞り込むことでパターン認識を行う方法が提案されている。下記特許文献2の場合、あらかじめ識別項目ごとに各段の絞り込みに用いる参照パターンを決定しておき、当該参照パターンを用いて学習処理を行うことで、辞書を生成する。このとき、各クラスにおいては、段数が進むにつれ参照パターンが多くなるように設定しておく。そして、各段における識別処理時に識別対象に対して候補クラスを検出し、段階的に詳細化するように構成された辞書を用いることにより、最も識別対象に近い候補クラスを絞り込んでいく。その後、K段目まで進んだ際に各段における識別処理の結果が、同一の候補クラスであれば、当該候補クラスを識別結果として出力する。
更に、下記特許文献3の場合、テンプレートマッチングにおいて、学習テンプレート全体を用いて回転粗サーチを行い、サーチ範囲を絞り込む。また、予め設定された学習テンプレートの部分テンプレートを用いることで、最終的に対象物の姿勢を識別する。下記特許文献3によれば、部分テンプレートは複数あり、各部分テンプレートには、対象物の特徴的な部分が指定されている。そして、当該部分テンプレートを、絞り込まれたサーチ範囲内でテンプレートマッチングさせることで、最終的な姿勢を、当該部分テンプレートの位置関係に基づいて識別している。
特開2008−257649号公報 特許第3925011号 特許第3447717号
B.Leibe, "Robust Object Detection with Interleaved Categorization and Segmentation", IJCV Special Issue on Learning for Vision for learning, Aug. 2007.
しかしながら、Coarse−To−Fineによる手法の場合、いずれも、識別器の段数が進むにつれ、微小な違いにより、クラス等の決定やテンプレートのマッチングを行わなければならず、識別が困難になるという問題がある。このようなことから、複数段の識別器を用いて対象物の認識処理を行うにあたっては、認識精度が落ちることがないよう、識別器の段数が進むことで絞りこまれる候補クラスについて、ロバスト性を高めておくことが必要である。
本発明は上記課題に鑑みてなされたものであり、複数段の識別器を用いて、対象物を認識する認識処理において、各段における識別結果のロバスト性を向上させることを目的とする。
上記の目的を達成するために本発明に係る情報処理装置は以下のような構成を備える。即ち、
複数段の識別器を用いて対象物のクラスを識別する識別処理を実行可能な情報処理装置であって、
第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得手段と、
前記第1の段の識別器が前記候補クラスを識別する際に用いた識別空間において、当該候補クラスが定義する部分空間を拡張した部分空間として定義されたクラスを、第2の段の識別器において識別されるべきクラスとして、該第2の段の識別器に設定する設定手段とを有することを特徴とする。
本発明によれば、複数段の識別器を用いて、対象物を認識する認識処理において、各段における識別結果のロバスト性を向上させることが可能になる。
情報処理装置120を備える認識処理システム100の外観構成を示す図である。 情報処理装置120の機能構成を説明するための図である。 情報処理装置120における対象物130の認識処理の流れを示すフローチャートである。 学習画像を説明するための図である。 視点の異なる複数の学習画像を示す図である。 学習処理の流れを示すフローチャートである。 ベクトル算出処理を説明するための図である。 候補クラス出力処理の流れを示すフローチャートである。 投票空間の一例を示す図である。 拡張クラス設定処理を説明するための図である。 拡張クラス設定処理を説明するための図である。 拡張クラス設定処理を説明するための図である。 拡張クラス設定処理の概念を説明するための図である。 拡張クラス設定処理の概念を説明するための図である。 情報処理装置1500の機能構成を説明するための図である。 情報処理装置1500における対象物130の認識処理の流れを示すフローチャートである。 対象物が個人の顔の場合における、特徴点の一例を示す図である。 候補クラス出力工程が実行されることにより出力された候補クラスの一例を示す図である。 情報処理装置1900の機能構成を説明するための図である。 情報処理装置1900における対象物130の認識処理の流れを示すフローチャートである。
以下、添付図面を参照しながら本発明の各実施形態について詳説する。なお、以下に詳説する各実施形態のうち、第1の実施形態では、第1の段の識別器が識別処理を実行することにより該第1の段の識別器より出力される候補クラスを、当該識別処理が実行された際に用いられた識別空間において拡張する。そして、当該拡張した候補クラス(拡張クラス)について、第2の段の識別器にて識別処理を実行させることで、第2の段の識別器における識別処理のロバスト性(環境の変化などの外乱の影響に対する識別処理の安定性)の向上を実現した。
また、第2の実施形態では、第1の段の識別器が識別処理を実行することにより該第1の段の識別器より出力された候補クラスを周辺化する。ここで、周辺化とは、各候補クラスを識別する際に利用した各特徴の存在確率を表す確率変数のうち、所定の特徴の確率変数を消去して表される確率(「周辺確率」)を求めることをいう。そして、第2の段の識別器に、当該周辺確率を用いた識別処理を実行させることで、第2の段の識別器における識別処理のロバスト性の向上を実現した。
また、第3の実施形態では、第1の段の識別器が識別処理を実行することにより出力した候補クラスを、第2の段の識別器に設定する。そして、第2の段の識別器にて当該候補クラスの識別処理を実行させるにあたり、予め当該候補クラスごとに定義されている、第2の段の識別器が識別すべき識別項目(例えば、対象物の姿勢)の識別に有効な特徴点及び複数のクラスを設定する。これにより、第2の段の識別器では、候補クラスを識別するにあたり、各候補クラスに新たに設定された複数のクラスの特徴点の識別結果を統合して判断することが可能となり、第2の段の識別器における識別処理のロバスト性を向上させることが可能となった。
なお、本発明は、複数段の識別器を用いて対象物を認識する認識処理において適用されるものであり、各識別器にて実行される識別処理自体は、特定の方式に限定されるものではない。ただし、以下の各実施形態では、説明の便宜上、第1の段の識別器として、基準点を算出し、所定の画像平面に投票することにより識別処理を実行する識別器を用いた場合について説明する。
また、本発明が適用される認識処理には、対象物の種別、姿勢等、種々の識別項目が含まれるが、以下の各実施形態のうち、第1及び第3の実施形態では、対象物の種別及び姿勢を識別項目とする場合について説明する。また、第2の実施形態では、対象物の種別を識別項目とする場合について説明する。
[第1の実施形態]
<1.認識処理システムの外観構成>
はじめに、本実施形態に係る情報処理装置を備える認識処理システムの外観構成について説明する。図1は、本実施形態に係る情報処理装置120を備える認識処理システム100の外観構成を示す図である。図1において、110は撮像部(例えば、カメラ)であり、対象物130を撮像する。120は情報処理装置であり、撮像部110が対象物130を撮像することにより得られた画像(入力画像)に基づいて、対象物130の種別及び姿勢を識別する。
<2.情報処理装置の機能構成>
次に、情報処理装置120の機能構成について説明する。図2は、情報処理装置120の機能構成を説明するための図である。図2に示すように、情報処理装置120は、候補クラス出力部210と、拡張クラス設定部220と、クラス識別部230と、識別器学習用データ保持部240と、第一識別器保持部250と、第二識別器保持部260とを備える。
なお、本実施形態では、識別器学習用データ保持部240と、第一識別器保持部250と、第二識別器保持部260とが、情報処理装置120内に配されているものとして説明するが、本発明は必ずしもこれに限定されない。例えば、情報処理装置120の外部において、情報処理装置120によって実行可能に接続された不揮発性の記憶装置内に配されていてもよい。
<3.情報処理装置における認識処理の概要>
次に、情報処理装置120における対象物130の認識処理について説明する。図3は、情報処理装置120における対象物130の認識処理の流れを示すフローチャートである。
認識処理が開始されると、ステップS301では、候補クラス出力部210が候補クラス出力工程を実行する。具体的には、対象物130を撮像することにより得られた入力画像について、候補クラス出力部210が、第一識別器保持部250に保持されている第1の段の識別器(第一識別器)に識別処理を実行させることで、該第一識別器より複数の候補クラスを取得する。なお、取得した複数の候補クラスは、拡張クラス設定部220に送信される。ここで、「クラス」とは、識別空間の中で同一の分類ラベルが付与されている範囲(部分空間)をいう。つまり、第一識別器によって、対象物130がある範囲に属すると識別されると、当該対象物130は当該範囲によって定義されているクラスであると識別される。なお、第一識別器には、識別器学習用データ保持部240に予め保持された学習画像を用いて学習処理を行うことで定義されたクラス(対象物の種別及び姿勢についてのクラス)が設定されているものとする。
ステップS302では、拡張クラス設定部220が、拡張クラス設定工程を実行する。具体的には、候補クラス出力工程(ステップS301)において候補クラス出力部210より出力された複数の候補クラスのうち、少なくとも1つの候補クラスについて、識別ロバスト性を向上させる。具体的には、当該候補クラスによって定義されている第一識別器の識別空間における範囲を拡張する。そして、拡張後の範囲によって定義されるクラスを、拡張クラスとして、クラス識別部230に送信する。なお、拡張クラスの詳細については後述する。
ステップS303では、クラス識別部230が、クラス識別工程を実行する。具体的には、第二識別器保持部260に保持されている第2の段の識別器(第二識別器)を用いて、入力画像中の対象物130が、拡張クラス設定工程(ステップS302)において設定された拡張クラスのいずれに属するかを識別する。
このように、クラス識別工程(ステップS303)では、候補クラス出力工程において出力された候補クラスと、拡張クラス設定工程において新たに含まれることとなったクラスと、を含む拡張クラスについて、第二識別器に識別処理を実行させる。なお、第二識別器には、識別器学習用データ保持部240に予め保持された学習画像を用いて学習処理を行うことで定義されたクラスが設定されているものとする。
このように本実施形態では、第二識別器に識別処理を実行させるにあたり、候補クラスを増やすことで、第二識別器における識別処理のロバスト性の向上を実現している。
以下、情報処理装置120における上記各処理の詳細について説明する。
<4.情報処理装置における各処理の詳細>
<4.1 学習処理の詳細>
はじめに、学習画像及び該学習画像に基づいて、第一識別器に設定される下記情報を算出するための学習処理について説明する。
・各特徴点の特徴量
・学習画像のクラス
・各特徴点から基準点までのベクトル
・入力画像の特徴点との対応付けに用いられる代表ベクトル
・各クラスタに含まれる特徴点
i)学習画像
はじめに、学習処理に用いられる学習画像について説明する。図4は、学習画像を説明するための図である。図4に示すように、対象物130を囲う測地ドーム400の各視点401から、対象物130を撮像することにより得られた画像を、学習画像として利用する。図5は、複数の視点401のうちの2視点において、対象物130を撮像した場合に得られた学習画像である。なお、図5は学習画像の一例にすぎず、学習処理を行うにあたっては、少なくとも、図4に示した測地ドーム400内の各視点の数に相当する数だけ、対象物130についての学習画像が取得されているものとする。
ii)学習処理の流れ
次に学習処理について説明する。図6は、第一識別器にて実行される、基準点に基づく識別処理を実行する際に用いられる上記情報を算出するための学習処理の流れを示すフローチャートである。
ステップS601では、各学習画像より各特徴点fを抽出し、保存する。また、各学習画像における各特徴点fの特徴量F(i=1,2,・・・,N)及び、各学習画像のクラス(対象物130の種別、姿勢)を保存する。なお、各学習画像のクラスを示すインデックスをIDとする(i=1,2,・・・,N)。また、IDは1〜Pまでの値をとるものとする(Pはクラス総数)。
次に、ステップS602では、各特徴点fから基準点Oへのベクトルを算出する。ここで、ステップS602に示すベクトル算出処理を図7を用いて具体的に説明する。
図7はあるクラスに属する学習画像より抽出された特徴点の一部と基準点との関係を模式的に示した図である。図7において、701は対象物130の一部を、702は特徴点を、703はある特徴点から基準点へのベクトルを、704はその基準点をそれぞれ示している。なお、図7の場合、特徴点は7点であるが、参照番号702はそのうちの1つの特徴点を指している。
基準点へのベクトル算出処理では、対象物の一部701の特徴点702の位置f=(x,y)から対象物の一部701に設定されている基準点(ここでは物体中心とする)O=(x,y)へのベクトルM=(x−x,y−y)を算出する。
そして、各特徴点fから基準点OへのベクトルMij(i=1,2,・・・,N、j=1,2,3,・・・)を、全ての学習画像において算出したのち、ステップS603に進む。
ステップS603では、得られたすべての特徴点f(i=1,2,・・・,Nall)について、特徴量F(i=1,2,・・・,Nall)に従ってクラスタリングを行う。ここで、Nallは全学習画像から抽出された特徴点数を示している。なお、クラスタリング手法はk−meansを用いてもよいし、自己組織化マップアルゴリズムを用いるなど、他の任意のクラスタリング手法を用いてもよい。例えば、k−meansの場合、クラスタ数Kを規定して特徴量F間のユークリッド距離を用いることにより、クラスタリングを行うことができる。
ステップS604では、クラスタリング情報を保存する。具体的には、それぞれのクラスタの代表ベクトルF’(k=1,2,・・・,K)(Kはクラスタ数、kはそのインデックスを示している)及びそのクラスタに含まれる特徴点を保存する。なお、代表ベクトルF及び特徴点は、入力画像より抽出される特徴点と、学習画像の特徴点との対応付けを行う際に利用される。以上の処理により学習処理が終了する。
なお、上記説明では、全学習画像から抽出された特徴点を特徴量に従ってクラスタリングするためのクラスタリング手法として、k−meansを例示したが、本発明はこれに限定されるものではない。例えば、アンサンブル学習手法の1つであるランダムフォレスト方式(例えば、USP6,009,199参照)を用いてもよい。なお、ランダムフォレスト方式とは、複数の決定木を用いてパターン認識を行う手法である。
ランダムフォレスト方式の場合、各ノードでランダムに情報の問い合わせを行い、問い合わせの結果に応じて学習パターンを次々と分割して決定木を分岐させていく。そして、葉ノードに達した時に残っている学習パターンをその葉ノードの分類結果として記憶する。本実施形態では、学習パターンを各学習画像の各特徴点として分類を行う。
<4.2 候補クラス出力部における候補クラス出力処理>
次に候補クラス出力部210における候補クラス出力処理について説明する。図8は、候補クラス出力処理の流れを示すフローチャートである。
ステップS801では、学習処理と同様に、対象物を撮像することにより得られた入力画像から特徴点を抽出する。ステップS802では、抽出した特徴点の特徴量と各クラスタの代表ベクトルとの距離計算を行うことで、最も類似度の高いクラスタを決定する。これにより、入力画像から抽出された特徴点と、学習画像の特徴点との対応付けを行うことが可能となる。なお、ランダムフォレスト方式を用いる場合には、入力画像から抽出した特徴点を分類して葉ノードを決定する。また、他の分類木を用いる場合も同様である。
ステップS803では、対応付けによって求められた各代表ベクトルが属するクラスタ内の各特徴点に付随して保存されている、基準点へのベクトルを読み出す。そして、当該読み出したベクトルを用いて、入力画像から抽出した特徴点それぞれについて、基準点を算出し、投票空間への投票を行う。なお、本実施形態では、画像座標のx、y軸及びクラスIDを表す軸の3軸によって形成された空間を投票空間とする。
図9は、画像座標のx、y軸及びクラスIDを表す軸の3軸によって形成される投票空間の一例を示す図である。図9において、900は投票空間を示している。なお、図9に示すように、投票空間900における各セルの大きさは、予め設定されているものとする。
ここで、図9に示す投票空間900を参照しながら、具体的な投票方法について説明する。入力画像から抽出された各特徴点g=(x,y)(m=1,2,・・・,M)(Mは入力画像から抽出された特徴点総数、mは各特徴点を示すインデックスを示している。)の特徴量Gと、学習処理により得られた各クラスタの代表ベクトルF’(k=1,2,・・・,K)とを対比することにより、最も類似度が高いクラスタk”を判定する。
例えば、抽出された特徴点gの特徴量Gと各クラスタの代表ベクトルF’(k=1,2,・・・,K)とのユークリッド距離により算出する場合、以下の数式1が用いられる。
Figure 0005906071
判定されたクラスタに含まれている特徴点fに付随して保存されている基準点へのベクトルMij(i=1,2,・・・,N、j=1,2,3,・・・)及びクラスID(i=1,2,・・・,N)に従って、投票処理を行う。具体的には、投票空間900の投票点を(x,y,ID)とすると、投票点は、以下の数式2により算出される。
Figure 0005906071
実際には、求められた(x,y,ID)に対応するセルに投票する。なお、これらの処理は、入力画像から抽出された各特徴点について、最も類似度が高いと判定されたクラスタ内の全特徴点に対して行う。この場合、全投票数は最大N×Mとなる。
ステップS804では、ステップS803において投票された投票空間900において最大投票数のセルを抽出する。もしくは予め定められている閾値以上のセルもしくは所定数分(候補数)だけ投票数の多いセルを抽出するようにしてもよい。ここでは、候補数をP(P≧1)として、各候補クラスを(x,y,ID)とする。
<4.3 拡張クラス設定部における拡張クラス設定処理>
次に拡張クラス設定部220における拡張クラス設定処理について図10乃至図12を用いて説明する。拡張クラス設定処理では、候補クラス出力処理において出力された各候補クラス(x,y,ID)(p=1,2,・・・,P)に対して、候補クラスが設定されている識別空間において拡張クラスを設定する。
図10に示すように、対象物130の姿勢は世界座標系におけるX軸、Y軸、Z軸の各座標軸に対する回転角を特徴量とする3自由度で設定されている。なお、図10において、1001は対象物130のZ軸で、対象物130は、Z軸1001周りに回転角1002だけ回転していることを示している。1003は対象物130のY軸周りの回転方向を示している。
ここで第一識別器における識別処理において、識別空間の6自由度のうち、Z軸1001周りの回転角1002以外のX軸周り及びY軸周りの回転角を表す特徴量を推定することは容易であるとする。本実施形態では、姿勢はクラスとして扱っているため、予め3つの特徴量のうちZ軸1001に対する回転角1002以外の2つの特徴量の近いクラス(姿勢)は学習処理時に学習しておくものとする。
図11は、対象物130のZ軸1001に対する回転角1002以外の2つの回転軸の回転角について特徴量の近いクラス(姿勢)の一例を示した図である。
図12は、(b)に示す候補クラスに対して、回転方向1003に回転させたクラス(a)、(c)を示した図である。(a)、(c)は、いずれもZ軸1001に対する回転角1002は同じである。これらのクラスを統合したクラスを拡張クラスとする。
つまり、拡張クラスは複数の候補クラスを含むため、当該拡張クラスに属するか否かを第二識別器が識別する場合、第二識別器での識別処理におけるロバスト性は向上することとなる。
ここで、拡張クラス設定部220における拡張クラス設定処理の概念を、識別空間を用いて説明する。拡張クラス設定処理では、第一識別器により識別される候補クラスのうち、少なくとも1組の候補クラス間のロバスト性を向上させるべく、当該候補クラスの識別空間として定義されている範囲を拡張する。
図13(a)、(b)は、拡張クラス設定処理の概念を、識別空間を用いて表現した図である。図13(a)、(b)において、1300は識別空間全体を示している。1302は、当該識別空間1300を細分化した部分識別空間を表している。
対象物のクラスを識別することは、識別空間1300の範囲で、対象物130のクラスがどの部分識別空間1302に対応するかを決定することに相当する。なお、本実施形態では、第一識別器と第二識別器の2段階の識別器を用いることで、対象物130のクラスを決定するが、識別器は3段階以上であってもよい。
図13(a)において、1301は第一識別器で対象物130の候補クラスとして出力されたクラスを示している。また、図13(b)は、図13(a)の各候補クラスを、候補クラス間のロバスト性が向上するように拡張した様子を示したものであり、1303は各候補クラスを拡張した拡張クラスを表している。
このように、拡張クラスを設定することで、第二識別器で対象物130のクラスを識別する際に、第一識別器で識別された候補クラスだけでなく、候補クラスの周辺のクラス(識別空間において、候補クラスに隣接するクラス)も利用することが可能となる。
なお、拡張クラスは、予め設定されているものとする。また、拡張クラスは、各候補クラスごとに個別に設定されているものとし、図14(a)、(b)に示すように、各候補クラス1301に対して、それぞれ異なる拡張クラスが設定されていてもよい(1403参照)。
<4.4 クラス識別部におけるクラス識別処理>
次に、クラス識別部230におけるクラス識別処理について説明する。クラス識別処理では、第二識別器保持部260に保持されている第二識別器を用いて、拡張クラス設定処理において設定された拡張クラスの中から、対象物130が属する最終的なクラスを決定する。
対象物130の場合、クラスの識別処理に有効な特徴131(図1等参照)が存在する。このため、拡張クラスに含まれる各クラスにおける対象物130の特徴131についてのテンプレートを、入力画像の対応する部分にテンプレートマッチングさせることにより評価値を算出する。
ここで、拡張クラスに含まれるクラス数をcとして、各クラスに対応するテンプレートをTc、各テンプレートの大きさをMc×Nc、テンプレートTcの位置(i,j)における画素値をTc(i,j)とする。また、テンプレートTcと重ね合わせた、入力画像の画素値をI(i,j)とする。この場合、テンプレートTcと入力画像との類似度Rcは、以下のNcc(正規化相互相関)により算出される。ただし、他の類似度を使用してもよい。
Figure 0005906071
なお、テンプレートの探索範囲領域Wは、候補クラス出力工程(ステップS301)において出力された候補クラスに基づいて設定する。各テンプレートTcに関して類似度Rcが最大になる位置を探索範囲領域W内から検出するとともに、その類似度を、
Figure 0005906071
とおく。そして、拡張クラスに含まれるクラスごとに
Figure 0005906071
を推定して、その評価値を加算する。これにより最終的な評価値Rは
Figure 0005906071
となる。なお、加算方法は各評価値に重みωcを定義して重み付き加算してもよい(数式5)。
Figure 0005906071
拡張クラスごとにRを算出してRが最大となる拡張クラスを識別する。このように候補クラスのテンプレートの類似度だけではなく、隣接するクラスのテンプレートの類似度も加算された評価値Rを評価することで、第二識別器における識別処理のロバスト性を向上させることができる。拡張クラスが識別されると、クラス識別工程では、候補クラス出力工程(ステップS301)において出力された対応する候補クラスを最終的なクラスとして決定する。
なお、候補クラス出力工程(ステップS301)のときと同様に、ランダムフォレスト方式などの分類木や識別器を第二識別器として利用するようにしてもよい。その場合、さまざまなクラスの特徴131の学習画像もしくは特徴変換された特徴を学習パターンとして、分類木を作成すればよい。そして、識別処理時には分類結果を投票などの統合処理を行うことによって最終的なクラスを決定する。
以上の説明から明らかなように、本実施形態に係る情報処理装置120では、第一及び第二識別器を用いて認識処理を行うにあたり、第一識別器において出力された候補クラスに対して、識別空間内において隣接するクラスを抽出する構成とした。そして、当該候補クラスと当該候補クラスに隣接するクラスとを統合して拡張クラスとし、当該拡張クラスについて、第二識別器に識別処理を実行させる構成とした。
この結果、従来のように、第一識別器において出力された候補クラスについて、第二識別器に識別処理を実行させていた場合と比べ、第二識別器における識別処理のロバスト性が向上することとなった。
[第2の実施形態]
上記第1の実施形態では、第二識別器における識別処理のロバスト性を向上させるべく、第一識別器において出力された候補クラスよりも広い拡張クラスを設定し、当該拡張クラスについて、第二識別器に識別処理を実行させる構成とした。
しかしながら、第二識別器における識別処理のロバスト性を向上させるための方法は、これに限定されない。例えば、第一識別器より出力された候補クラスそれぞれを、第一識別器における識別処理に用いられた識別空間において周辺化し、第二識別器では、当該周辺化した候補クラスを対比することで、最終的なクラスを決定するように構成してもよい。以下、本実施形態の詳細を説明する。
<1.情報処理装置の機能構成>
はじめに、本実施形態に係る情報処理装置の機能構成について説明する。図15は、本実施形態に係る情報処理装置1500の機能構成を説明するための図である。図15に示すように、情報処理装置1500の基本的な構成は、図2を用いて説明した第1の実施形態に係る情報処理装置120とほぼ同様であるが、拡張クラス設定部220の代わりに周辺化部1520が配されている点において相違する。
<2.情報処理装置における認識処理の概要>
次に、情報処理装置1500における対象物130の認識処理について説明する。図16は、情報処理装置1500における対象物130の認識処理の流れを示すフローチャートである。
図16に示すように、情報処理装置1500における認識処理の流れは、図3を用いて説明した上記第1の実施形態に係る情報処理装置120における認識処理とほぼ同様である。ただし、候補クラス出力工程における処理の内容について相違し、また、拡張クラス設定工程の代わりに、周辺化工程が実行される点において相違する。以下、これらの相違点を中心に説明する。なお、ここでは、顔認識における個人認証を例に説明する。
<3.情報処理装置における各処理の詳細>
<3.1 候補クラス出力部における候補クラス出力処理>
ステップS301において、候補クラス出力部210により実行される候補クラス出力工程について説明する。候補クラス出力工程では、撮像部110が対象物を撮像することにより得られた入力画像について、候補クラス出力部210が、第一識別器保持部250に保持されている第一識別器に識別処理を実行させることで、該第一識別器より複数の候補クラスを取得する。
ここで、第一識別器における識別処理においては、顔認識するための特徴点をN個定義する。例えば、両目や鼻、口などの部位を表す特徴点を予め定義しておく。図17は、対象物が個人の顔の場合における、特徴点の例を示している。図17において、1701は両目や鼻、口などの第一識別器において利用される特徴を示している。また、1702は、個人認証をするために有効な特徴を示している。
各特徴Fθ(θ=1、2、・・・、N)によって定義される確率変数をXθ(θ=1、2、・・・、N)とおく。また、個人をクラスとして、各個人yφ(φ=1、2、・・・、M)によって定義される確率変数をYφ(φ=1、2、・・・、M)とおく。
そして、すべての特徴によって推定されるある個人クラスyφ(φ=1、2、・・・、M)の同時確率Pr[yφ、X、X、・・・、Xθ]を計算し、その値が所定の値より大きな位置を個人識別候補領域として出力する。
図18は、候補クラス出力工程が実行されることにより出力された候補クラスの一例を示す図である。図18に示すように、撮像部110において撮像されることにより得られた入力画像1801に対して、候補クラスとして個人識別候補領域1802が検出され、出力される。
<3.2 周辺化部における周辺化処理>
次に、周辺化部1520により、ステップS1602において実行される周辺化工程について説明する。周辺化工程(S1602)では、個人を認証するために有効な特徴Fθ’によって定義される同時確率Pr[yφ、Xθ’]を計算するのではなく、周辺確率Pr[Xθ’]を計算することで、第二識別器における識別処理のロバスト性を向上させる。
例えば、2つの確率変数をX、Yとおき、それぞれがクラス及び特徴量に対応するとする。なお、クラスXは任意の値x(i=1,2,・・・,M)、特徴量Yは任意の値y(j=1,2,・・・,L)をとることができるものとする。ここで、クラスを対象物の種別、特徴量をSHIFT特徴量の各次元の度数とすると、候補クラス出力工程において出力された候補クラスがx(k=1,2,・・・,M)の場合、所定の特徴量yに関する周辺確率p(Y=y)は下式により算出することができる。このとき、周辺化される変数xはそれぞれの候補クラスに関して複数決定されているものとする。
Figure 0005906071
なお、本実施形態においては、ある個人を認証するのに有効な特徴を複数人物の同一特徴データを利用して、その特徴の存在確率だけを計算することで識別する。
<3.3 クラス識別部におけるクラス識別処理>
次に、クラス識別部230におけるクラス識別処理について説明する。クラス識別処理では、候補クラス出力工程(ステップS301)において候補クラスとして出力された個人別候補領域の中で、周辺化工程(ステップS1602)において計算された周辺確率Pr[Xθ’]の値が所定の値よりも大きい、もしくは一番大きい領域を個人yφ(φ=1、2、・・・、M)の位置とする。
以上の説明から明らかなように、本実施形態では、第一識別器より出力された候補クラスそれぞれを、第一識別器における識別処理に用いられた識別空間において周辺化する構成とした。これにより、上記第1の実施形態と同様に、第二識別器における識別処理のロバスト性を向上させることが可能となった。
[第3の実施形態]
上記第1の実施形態では、第二識別器における認識処理のロバスト性を向上させるべく、第一識別器において出力された候補クラスよりも広い拡張クラスを設定し、当該拡張クラスについて、第二識別器に認識処理を実行させる構成とした。
また、上記第2の実施形態では、第一識別器より出力された候補クラスそれぞれを第一識別器における識別処理に用いられた識別空間において周辺化する構成とした。
しかしながら、本発明はこれに限定されない。例えば、第一識別器より出力された候補クラスを第二識別器にて識別させるにあたり、各候補クラスに新たに複数の特徴点及びクラスを設定し、当該複数のクラスの特徴点の識別結果を統合して判断させる構成としてもよい。以下、本実施形態の詳細について説明する。
<1.情報処理装置の機能構成>
はじめに、本実施形態に係る情報処理装置の機能構成について説明する。図19は、本実施形態に係る情報処理装置1900の機能構成を説明するための図である。図19に示すように、情報処理装置1900の基本的な構成は、図2を用いて説明した第1の実施形態に係る情報処理装置120とほぼ同様であるが、拡張クラス設定部220の代わりに後段識別器パラメータ設定部1920が配されている点において相違する。
<2.情報処理装置における認識処理の概要>
次に、情報処理装置1900における対象物130の認識処理について説明する。図20は、情報処理装置1900における対象物130の認識処理の流れを示すフローチャートである。
図20に示すように、情報処理装置1900における認識処理の流れは、図3を用いて説明した第1の実施形態に係る情報処理装置120における認識処理とほぼ同様である。ただし、候補クラス出力工程における処理の内容について相違し、また、拡張クラス設定工程の代わりに、後段識別器パラメータ設定工程が実行される点において相違する。以下、これらの相違点を中心に説明する。なお、以下では、図4に示す対象物130を認識する場合について説明する。
<3.情報処理装置における各処理の詳細>
<3.1 後段識別器パラメータ設定部における後段識別器パラメータ設定処理>
後段識別器パラメータ設定部1920により、ステップS2002において実行される後段識別器パラメータ設定工程について説明する。
後段識別器パラメータ設定工程では、候補クラス出力工程S301において出力された各候補クラス(x,y,ID)(p=1,2,・・・、P)に対して、第二識別器における識別処理のロバスト性が向上するように第二識別器のパラメータもしくは辞書を設定する。
図4に示す対象物130の場合、クラスの識別に有効な特徴131が存在するため、第一識別器の学習処理を行う際には、各姿勢クラスの学習画像の特徴131付近から取得される特徴点を記録しておく。そして後段識別器パラメータ設定工程(ステップS2002)では、クラス識別工程(ステップS303)における識別の際に投票(統合)する特徴点f’および姿勢クラスID’を候補クラスごとにパラメータとして設定する。姿勢クラスID’は各候補クラスのIDに対して複数設定し、複数クラスの特徴点f’の識別結果を統合する構成とすることで第二識別器の識別処理におけるロバスト性を向上させる。
なお、ここでは特徴点で説明したが、部分領域やHOGなどの領域特徴でもよい。また、識別器において用いられる識別方式は、ランダムフォレスト方式やテンプレートマッチングなど、任意の識別方式でもよい。上記パラメータは識別処理の際に設定できるため、第一識別器と第二識別器は同一のものであってもよい。
また、オフラインであらかじめ特徴131付近から取得される特徴点f’と学習画像から取得されるそれ以外の特徴点とを分類する辞書を学習しておき、クラス識別工程(ステップS303)での識別辞書として用いるように構成してもよい。
<3.2 クラス識別部におけるクラス識別処理>
次に、クラス識別部230により、ステップS303において実行されるクラス識別工程について説明する。
クラス識別工程(ステップS303)では、候補クラス出力工程(ステップS301)で出力された候補クラスについて、後段識別器パラメータ設定工程(ステップS2002)で設定された識別器のパラメータもしくは辞書を用いて、識別処理を行う。
以上の説明から明らかなように、本実施形態では、第一識別器より出力された候補クラスを第二識別器にて識別するにあたり、各候補クラスに新たに複数の特徴点及びクラスを設定し、当該複数のクラスの特徴点の識別結果を統合して判断させる構成とした。
これにより、上記第1の実施形態と同様に、識別処理のロバスト性を向上させることが可能となった。
[他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置における情報処理方法であって、
    取得手段が、第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得工程と、
    設定手段が、前記第1の段の識別器が前記候補クラスを識別する際に用いた識別空間において、当該候補クラスが定義する部分空間を拡張した部分空間として定義されたクラスを、第2の段の識別器において識別されるべきクラスとして、該第2の段の識別器に設定する設定工程と
    を有することを特徴とする情報処理方法。
  2. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置における情報処理方法であって、
    取得手段が、第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得工程と、
    設定手段が、前記候補クラスを定義する、複数の特徴それぞれの存在確率を表す確率変数のうち、所定の特徴の確率変数を消去して算出される、該候補クラスの周辺確率を、該候補クラスを識別する際に用いられるべきパラメータとして、第2の段の識別器に設定する設定工程と
    を有することを特徴とする情報処理方法。
  3. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置における情報処理方法であって、
    取得手段が、第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得工程と、
    設定手段が、前記候補クラスごとに予め定義された複数のクラスを、該候補クラスを識別する際に用いられるべきクラスとして、該第2の段の識別器に設定する設定工程と
    を有することを特徴とする情報処理方法。
  4. 前記クラスには、前記対象物の姿勢を識別するクラスが含まれることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理方法。
  5. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置であって、
    第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得手段と、
    前記第1の段の識別器が前記候補クラスを識別する際に用いた識別空間において、当該候補クラスが定義する部分空間を拡張した部分空間として定義されたクラスを、第2の段の識別器において識別されるべきクラスとして、該第2の段の識別器に設定する設定手段と
    を有することを特徴とする情報処理装置。
  6. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置であって、
    第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得手段と、
    前記候補クラスを定義する、複数の特徴それぞれの存在確率を表す確率変数のうち、所定の特徴の確率変数を消去して算出される、該候補クラスの周辺確率を、該候補クラスを識別する際に用いられるべきパラメータとして、第2の段の識別器に設定する設定手段と
    を有することを特徴とする情報処理装置。
  7. 複数段の識別器を用いて対象物のクラスを識別する情報処理装置であって、
    第1の段の識別器において識別されたクラスを、候補クラスとして取得する取得手段と、
    前記候補クラスごとに予め定義された複数のクラスを、該候補クラスを識別する際に用いられるべきクラスとして、該第2の段の識別器に設定する設定手段と
    を有することを特徴とする情報処理装置。
  8. コンピュータを、請求項5乃至7のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを記憶した記憶媒体。
JP2011264117A 2011-12-01 2011-12-01 情報処理方法、情報処理装置、および記憶媒体 Active JP5906071B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011264117A JP5906071B2 (ja) 2011-12-01 2011-12-01 情報処理方法、情報処理装置、および記憶媒体
US13/685,911 US9147130B2 (en) 2011-12-01 2012-11-27 Information processing method, information processing apparatus, and recording medium for identifying a class of an object by using a plurality of discriminators

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264117A JP5906071B2 (ja) 2011-12-01 2011-12-01 情報処理方法、情報処理装置、および記憶媒体

Publications (2)

Publication Number Publication Date
JP2013117792A JP2013117792A (ja) 2013-06-13
JP5906071B2 true JP5906071B2 (ja) 2016-04-20

Family

ID=48524056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264117A Active JP5906071B2 (ja) 2011-12-01 2011-12-01 情報処理方法、情報処理装置、および記憶媒体

Country Status (2)

Country Link
US (1) US9147130B2 (ja)
JP (1) JP5906071B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5746550B2 (ja) * 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5814700B2 (ja) 2011-08-25 2015-11-17 キヤノン株式会社 画像処理システム及び画像処理方法
JP6433149B2 (ja) 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP6700712B2 (ja) 2015-10-21 2020-05-27 キヤノン株式会社 畳み込み演算装置
JP6884517B2 (ja) 2016-06-15 2021-06-09 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7170411B2 (ja) 2018-03-29 2022-11-14 キヤノン株式会社 情報処理装置および方法およびコンピュータプログラム、並びに監視システム
JP7278088B2 (ja) 2019-01-31 2023-05-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4773099A (en) * 1985-10-10 1988-09-20 The Palantir Corporation Pattern classification means for use in a pattern recognition system
US5982944A (en) * 1991-09-27 1999-11-09 E. I. Du Pont De Nemours And Company Adaptive vision system using dual thresholding
US5930392A (en) 1996-07-12 1999-07-27 Lucent Technologies Inc. Classification technique using random decision forests
US5768333A (en) * 1996-12-02 1998-06-16 Philips Electronics N.A. Corporation Mass detection in digital radiologic images using a two stage classifier
US6324532B1 (en) * 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
JP3925011B2 (ja) 1999-10-20 2007-06-06 富士ゼロックス株式会社 パターン認識装置及び認識方法
US7624337B2 (en) * 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
JP3447717B2 (ja) 2001-04-20 2003-09-16 三菱電機株式会社 画像処理装置
EP1300831B1 (en) * 2001-10-05 2005-12-07 Sony Deutschland GmbH Method for detecting emotions involving subspace specialists
US7024033B2 (en) * 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
JP4006239B2 (ja) * 2002-02-21 2007-11-14 株式会社日立製作所 文書の検索方法および検索システム
JP3888676B2 (ja) * 2002-02-25 2007-03-07 株式会社東芝 3次元物体認識装置及びその方法
JP3649328B2 (ja) * 2002-04-10 2005-05-18 日本電気株式会社 画像領域抽出方法および装置
ATE528724T1 (de) * 2002-08-30 2011-10-15 Mvtec Software Gmbh Auf hierarchischen gliedern basierte erkennung von gegenständen
JP3953998B2 (ja) * 2003-09-30 2007-08-08 ファナック株式会社 画像処理装置
US7848566B2 (en) * 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
CN100472556C (zh) * 2005-10-09 2009-03-25 欧姆龙株式会社 特定被摄体检测装置及方法
US20070086627A1 (en) * 2005-10-18 2007-04-19 Samsung Electronics Co., Ltd. Face identification apparatus, medium, and method
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
US7761394B2 (en) * 2006-05-16 2010-07-20 Sony Corporation Augmented dataset representation using a taxonomy which accounts for similarity and dissimilarity between each record in the dataset and a user's similarity-biased intuition
US8009900B2 (en) * 2006-09-28 2011-08-30 Siemens Medical Solutions Usa, Inc. System and method for detecting an object in a high dimensional space
WO2008073962A2 (en) * 2006-12-12 2008-06-19 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US7995820B2 (en) * 2007-03-30 2011-08-09 Siemens Medical Solutions Usa, Inc. System and method for detection of fetal anatomies from ultrasound images using a constrained probabilistic boosting tree
JP4988408B2 (ja) 2007-04-09 2012-08-01 株式会社デンソー 画像認識装置
US7848548B1 (en) * 2007-06-11 2010-12-07 Videomining Corporation Method and system for robust demographic classification using pose independent model from sequence of face images
CN101359373B (zh) * 2007-08-03 2011-01-12 富士通株式会社 退化字符的识别方法和装置
US8503797B2 (en) * 2007-09-05 2013-08-06 The Neat Company, Inc. Automatic document classification using lexical and physical features
US8556814B2 (en) * 2007-10-04 2013-10-15 Siemens Medical Solutions Usa, Inc. Automated fetal measurement from three-dimensional ultrasound data
WO2009058915A1 (en) * 2007-10-29 2009-05-07 The Trustees Of The University Of Pennsylvania Computer assisted diagnosis (cad) of cancer using multi-functional, multi-modal in-vivo magnetic resonance spectroscopy (mrs) and imaging (mri)
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US8818034B2 (en) * 2009-11-30 2014-08-26 Hewlett-Packard Development Company, L.P. Face recognition apparatus and methods
JP5588213B2 (ja) * 2010-04-13 2014-09-10 富士通フロンテック株式会社 帳票認識プログラム、帳票認識装置、および帳票認識方法
CN103109307B (zh) * 2010-04-28 2015-11-25 奥林巴斯株式会社 用于制作三维物体识别用图像数据库的方法和装置
US9117147B2 (en) * 2011-04-29 2015-08-25 Siemens Aktiengesellschaft Marginal space learning for multi-person tracking over mega pixel imagery

Also Published As

Publication number Publication date
US9147130B2 (en) 2015-09-29
US20130142443A1 (en) 2013-06-06
JP2013117792A (ja) 2013-06-13

Similar Documents

Publication Publication Date Title
JP5906071B2 (ja) 情報処理方法、情報処理装置、および記憶媒体
Alyuz et al. Regional registration for expression resistant 3-D face recognition
JP4946730B2 (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
US7200270B2 (en) Pattern recognition apparatus and method using distributed model representation of partial images
JP5929896B2 (ja) 画像認識システム、画像認識方法および画像認識用プログラム
Zhou et al. Histograms of categorized shapes for 3D ear detection
JP5153434B2 (ja) 情報処理装置及び情報処理方法
JP6128910B2 (ja) 学習装置、学習方法及びプログラム
Li et al. Efficient 3D face recognition handling facial expression and hair occlusion
JP3914864B2 (ja) パターン認識装置及びその方法
KR102286571B1 (ko) 영상에서 다수의 객체를 인식하는 방법
JP2002304626A (ja) データ分類装置および物体認識装置
CN106529501B (zh) 基于加权融合与分层串行结构的指纹与指静脉图像融合方法
Kacete et al. Real-time eye pupil localization using Hough regression forest
JP2009129237A (ja) 画像処理装置及びその方法
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
JP2011248525A (ja) 物体の検出装置及びその検出方法
JP2004178569A (ja) データ分類装置、物体認識装置、データ分類方法及び物体認識方法
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
Navabifar et al. A short review paper on Face detection using Machine learning
Jain et al. Multibiometrics
Hussein et al. The fundamentals of unimodal palmprint authentication based on a biometric system: a review
Elsayed et al. Hybrid method based on multi-feature descriptor for static sign language recognition
Loderer et al. Optimization of LBP parameters
JP3859347B2 (ja) 物体認識装置及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160318

R151 Written notification of patent or utility model registration

Ref document number: 5906071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151