JP6603477B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6603477B2
JP6603477B2 JP2015093516A JP2015093516A JP6603477B2 JP 6603477 B2 JP6603477 B2 JP 6603477B2 JP 2015093516 A JP2015093516 A JP 2015093516A JP 2015093516 A JP2015093516 A JP 2015093516A JP 6603477 B2 JP6603477 B2 JP 6603477B2
Authority
JP
Japan
Prior art keywords
processing
weak
group
category
categories
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015093516A
Other languages
English (en)
Other versions
JP2016212523A (ja
Inventor
ソクイ チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015093516A priority Critical patent/JP6603477B2/ja
Priority to US15/139,603 priority patent/US9824301B2/en
Publication of JP2016212523A publication Critical patent/JP2016212523A/ja
Priority to US15/730,075 priority patent/US10579909B2/en
Application granted granted Critical
Publication of JP6603477B2 publication Critical patent/JP6603477B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2451Classification techniques relating to the decision surface linear, e.g. hyperplane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像における物体を判別するための技術に関するものである。
画像中の人体や顔といった特定の物体を判別する技術が提案されている。特に、近年、携帯端末や車載機器等の組み込みシステム向けの高速・低コストな物体判別手法が注目されている。
非特許文献1では、物体検出を高速化するためのアルゴリズムが提案されている。このアルゴリズムによれば、ブースティング学習によって生成された弱判別器を順に処理する。そして、弱判別器の判別結果に基づいて、次の弱判別器を処理するかどうかを判断する。次の弱判別器を処理しないと判断する場合、残りの弱判別器の処理を省略する。
特許文献1では、判別処理を効率良く行う技術が提案されている。解決方法としては、空間並列とパイプライン並列とを効率的に組み合わせることにより、処理時間を短縮する。
非特許文献2では、顔検出を高速化するためのハードウェア実装方法が提案されており、複数カテゴリ(姿勢等)の顔を判別するための弱判別器を空間並列に処理し、処理時間の短縮を図る。
特開2012−247940号公報
P. Viola, M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Vol. 1, pp.511-518, December 2001. Junguk Cho, et al., "Hardware acceleration of multi-view face detection," IEEE 7th Symposium on Application Specific Processors, pp. 66 - 69, July. 2009.
カスケード接続された複数の弱判別器による判別処理(特許文献1、非特許文献1、非特許文献2)は、高速・低コストな手法として物体判別によく使用されている技術である。判別対象物の多様な姿勢の変動等に対し、判別対象の判別精度を向上させるために、変動をカテゴライズし、カテゴリ毎にカスケード構成された複数の弱判別器を用いて判別を行う手法がある。判別対象となるカテゴリが増加すると共に、弱判別器の総数が増加する。
複数のカテゴリに対応する弱判別器処理を高速化するため、非特許文献2では、カテゴリ毎に演算装置を設け、同時に複数のカテゴリの弱判別器を処理する。しかしながら、各カテゴリの弱判別器の処理の終了時間が異なるので、処理が終了したカテゴリの演算装置が使用されていなく、アイドル時間が長いという課題がある。組み込みシステムで複数のカテゴリに対応する物体判別をリアルタイムで処理するため、限られた演算手段を活用し、高速に処理する必要がある。
本発明はこのような問題に鑑みてなされたものであり、画像における物体をより高速に判別するための技術を提供する。
本発明の一様態は、物体の複数のカテゴリに対して、それぞれのカテゴリに対応する論理的にカスケード接続された複数の弱判別器によって物体の判別処理を実行する情報処理装置であって、
前記複数のカテゴリのそれぞれに対応する論理的にカスケード接続された複数の弱判別器は、接続順に複数のグループに分割されており
入力画像に対して、前記複数の弱判別器のそれぞれによる処理を当該弱判別器に対応する参照データを用いて実行する処理手段を備え
前記処理手段は、前記複数のグループの中で前記接続順において先頭のグループである第1のグループに属し、前記複数のカテゴリの全てに対応する弱判別器による処理を、前記カテゴリの順にパイプライン処理にて実行し、
前記処理手段は、前記第1のグループに属する弱判別器群の処理の結果に応じて、前記複数のカテゴリのうち、前記接続順で前記第1のグループに続く第2のグループに属する弱判別器群の処理を実行すべきカテゴリを決定
前記処理手段は、前記第2のグループに属する弱判別器群の中で、前記決定されたカテゴリに対応する弱判別器群の処理を、前記カテゴリの順に、パイプライン処理にて実行する
ことを特徴とする。
本発明の構成によれば、画像における物体をより高速に判別することができる。
物体判別装置が入力画像に対して行う物体判別処理のフローチャート。 弱判別器群の一例を示す。 物体判別処理の一例を説明する図。 カテゴリ毎に該カテゴリに属する弱判別器を処理する一般的な処理を示す図。 物体判別処理の一例を説明する図。 コンピュータ装置のハードウェア構成例を示すブロック図。 物体判別装置の構成例を示すブロック図。 物体判別処理において各サイクルにおける状態を示す図。 物体判別処理の一例を説明する図。 物体判別処理の一例を説明する図。 ステージ1及びステージ2のそれぞれに複数の弱判別器を設けた構成を示す図。 ステージ数をP(Pは3以上の整数)とした構成を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、論理的にカスケード接続された複数の弱判別器を、物体のカテゴリ毎に有する情報処理装置の一例について説明する。より具体的には、複数の弱判別器を複数のグループに分割し、それぞれのカテゴリの第1のグループに属する弱判別器群の処理をパイプライン処理にて実行する。そして、該それぞれのカテゴリの第1のグループに属する弱判別器群の処理の結果に応じて、第2のグループに属する弱判別器群の処理をパイプライン処理にて実行するカテゴリを決定する。そして、該決定したカテゴリの第2のグループに属する弱判別器群の処理をパイプライン処理にて実行することを特徴とする情報処理装置の一例について説明する。
本実施形態では、このような情報処理装置を、入力画像に含まれている物体のカテゴリを判別する物体判別装置に適用した場合について説明する。先ず、本実施形態に係る物体判別装置の構成例について、図7のブロック図を用いて説明する。
バッファ701は、外部装置から入力された若しくは本装置内のメモリから転送された入力画像を格納するためのメモリである。以下では、この入力画像には、そのカテゴリを判別する対象となる物体が含まれているものとする。
弱判別器処理部703は、論理的にカスケード接続された複数の弱判別器を、物体のカテゴリ毎に有している。そして弱判別器処理部703は、RAM(RANDOM ACCESS MEMORY)704に格納されている辞書データ、LUT(LOOK−UP TABLE)データを用いて、カテゴリ毎の弱判別器群を時分割に動作させる。これにより弱判別器処理部703は、バッファ701に格納されている入力画像に含まれている物体に対する判別処理を行う。以下では、弱判別器を動作させることを「弱判別器を処理(実行)する」と表記する場合がある。また、辞書データ、LUTデータについては後述する。
ここで、弱判別器処理部703が有するカテゴリ毎の弱判別器群について、図2の例を用いて説明する。図2では、カテゴリ数を8としており、これは即ち、弱判別器処理部703は、入力画像に含まれている物体について、8個のカテゴリのそれぞれに対する判別処理を行うことを意味している。また、図2では、8個のカテゴリ(カテゴリ1〜8)のそれぞれに対して、カスケード接続された2個の弱判別器が設けられており、最初に動作する弱判別器201(ステージ1の弱判別器)と、次に動作する弱判別器202(ステージ2の弱判別器)と、の2つのグループから成る。図2では、カテゴリc(1≦c≦8)に対応する2つの弱判別器のうちステージ1の弱判別器をCc,1、ステージ2の弱判別器をCc,2と表記する。
本実施形態では、図2に例示する如く、カテゴリ数を8とし、それぞれのカテゴリc(1≦c≦8)に対して、ステージ1の弱判別器Cc,1、ステージ2の弱判別器Cc,2がカスケード接続された弱判別器群を設けるものとする。そして、このような構成において、本実施形態では、それぞれのカテゴリcにおけるステージ1の弱判別器Cc、1をパイプライン処理にて実行し、それぞれのカテゴリcにおけるステージ1の弱判別器Cc,1の処理結果に応じて、それぞれのカテゴリcのうちステージ2の弱判別器Cc,2をパイプライン処理にて実行するカテゴリ(すなわち、ステージ2において判別対象となるカテゴリ)を決定し、該決定したカテゴリにおけるステージ2の弱判別器Cc,2をパイプライン処理にて実行する。
また、それぞれのステージにおいてパイプライン処理を実行するカテゴリ順については、図2においてより上段に記したカテゴリをより先に実行するものとする。
図7に戻って、RAM704は、上記の如く、辞書データやLUTデータを格納する。また、RAM704は、制御部702や弱判別器処理部703が各種の処理を実行する際に用いるワークエリアも有する。このようにRAM704は、各種のエリアを適宜提供することができる。
判別結果保持部705は、弱判別器処理部703による処理結果を格納するためのものである。
初期化情報保持部706は、ステージ1の弱判別器Cc,1の実行順序を示す情報を格納するためのものである。
制御部702は、上記の各部を含む物体判別装置全体の動作制御を行う。
次に、本実施形態に係る物体判別装置が入力画像に対して行う物体判別処理について、同処理のフローチャートを示す図1を用いて説明する。
<ステップS101>
制御部702は、それぞれのカテゴリcのステージ1の弱判別器Cc,1の実行順序を示す情報(実行順序情報)を初期化情報保持部706に格納する。ここでは、カテゴリ番号(カテゴリインデックス)を処理順に並べたものを、ステージ1の弱判別器Cc,1の実行順序を示す情報として初期化情報保持部706に格納する。本実施形態では、C1,1、C2,1、C3,1、C4,1、C5,1、C6,1、C7,1、C8,1、の順にパイプライン処理にて実行するので、「1→2→3→4→5→6→7→8」を示す情報を実行順序情報として初期化情報保持部706に格納する。このような実行順序情報は、ユーザが不図示の操作部を用いて入力しても良いし、物体判別装置が何らかの基準に従って決定しても良い。
以下、ステップS102〜S105の間で、弱判別器処理部703は、各カテゴリのステージ1の弱判別器C1,1〜C8,1を、この順でパイプライン処理にて実行する。
<ステップS103>
弱判別器処理部703は先ず、初期化情報保持部706に格納されている実行順序情報を参照し、今回処理するカテゴリのカテゴリインデックスを読み出す。本実施形態の場合、第1回目のステップS103では、カテゴリインデックス=1を読み出し、N(1<N≦8)回目のステップS103では、カテゴリインデックス=Nを読み出すことになる。
<ステップS104>
ステップS103で弱判別器処理部703が初期化情報保持部706から読み出したカテゴリインデックスをcとすると、弱判別器処理部703は、弱判別器Cc,1を実行して、入力画像に対する弱判別器Cc,1の判別結果を求める。ここで、ステップS104では、ステップS106〜S111の処理を行う。
<ステップS106>
弱判別器処理部703は、RAM704から、弱判別器Cc,1に対応する辞書データを読み出す。本実施形態では、「弱判別器Cc,1に対応する辞書データ」とは、「入力画像において弱判別器Cc,1に対応する画素位置を示すデータ」であり、弱判別器ごとに異なるものとする。一般に、弱判別器Cc,iに対応する辞書データDc,iは、以下の(式1)のように表される。
Figure 0006603477
c,i、Yc,iはそれぞれ、入力画像において、弱判別器Cc,iに対応するx座標値、y座標値を示す。なお、ここでは説明を簡単にするために、弱判別器に対する辞書データは、入力画像上の1つの画素の画素位置としているが、これに限るものではなく、複数画素の画素位置を辞書データとしても良い。
<ステップS107>
弱判別器処理部703は、バッファ701に格納されている入力画像から、辞書データDc,1が示す画素位置の画素値f(Xc,1、Yc,1)を読み出す。なお、画素値の代わりに、1つ若しくは複数の画素の画素値を用いて得られる特徴量を用いても良い。
<ステップS108>
弱判別器処理部703は、RAM704から、弱判別器Cc,1に対応するLUTデータを読み出す。本実施形態では、「弱判別器Cc,1に対応するLUTデータ」とは、「弱判別器Cc,1についてステップS107で読み出した画像特徴量(ここでは画素値)を、対象とする物体らしさに相当するスコア(評価値)に変換するための関数を表すデータ」である。一般に、弱判別器Cc,iに対応するLUTデータが表す関数Lc,iは、以下の(式2)のように表される。
Figure 0006603477
c,iは、画素値f(Xc,i、Yc,i)を関数Lc,iを用いて変換したスコアである。
<ステップS109>
弱判別器処理部703は、画素値f(Xc,1、Yc,1)を関数Lc,1を用いて変換することで、スコアSc,1を求める。更に弱判別器処理部703は、RAM704から、弱判別器Cc,1に対応する閾値Tc,1を読み出す。
<ステップS110>
弱判別器処理部703は、スコアSc,1と閾値Tc,1との大小比較を行い、Sc,1>Tc,1であれば処理はステップS111に進む。一方、Sc,1≦Tc,1であれば、処理はステップS105に進み、次の順番のカテゴリについてステップS103以降の処理を行う。
<ステップS111>
弱判別器処理部703は、カテゴリインデックスcと、弱判別器Cc,1による判別結果と、を関連づけて判別結果保持部705に格納する。
ステップS102〜S105のループを、カテゴリインデックス=1〜8のそれぞれについて行うことで、カテゴリ1〜8のうちスコアが閾値を超えているカテゴリについて、該カテゴリのカテゴリインデックスcと、該カテゴリのステージ1の弱判別器による判別結果と、が関連づけられて判別結果保持部705に格納される。
以下、ステップS112〜S117の間で弱判別器処理部703は、ステージ2以降の各ステージの判別処理を実行する。本実施形態では、判別結果保持部705に格納されているカテゴリインデックスに対応するカテゴリについてステージ2の判別処理をパイプライン処理にて実行する。
<ステップS114>
弱判別器処理部703は、判別結果保持部705に格納されているカテゴリインデックスのうち、上記の実行順序情報が示す実行順序においてより先の実行順序となっている未選択のカテゴリインデックスcを選択する。
<ステップS115>
弱判別器処理部703は、弱判別器Cc,2を実行して、入力画像に対する弱判別器Cc,2の判別結果を求める。ここで、ステップS115でも、ステップS106〜S111の処理を行い、対象カテゴリはカテゴリ2となる。この場合、ステップS106では、弱判別器Cc,2に対応する辞書データを読み出し、ステップS107では、画素値f(Xc,2、Yc,2)を読み出し、ステップS108では、弱判別器Cc,2に対応するLUTデータを読み出す。そしてステップS109では、画素値f(Xc,2、Yc,2)を関数Lc,2を用いて変換してスコアSc,2を求め、ステップS110では、スコアSc,2と閾値Tc,2との大小比較を行う。そして、Sc,2>Tc,2であれば処理はステップS111に進み、カテゴリインデックスcと、弱判別器Cc,2による判別結果と、を関連づけて判別結果保持部705に格納する。一方、Sc,2≦Tc,2であれば、処理はステップS114に進み、次の順番のカテゴリについてステップS115以降の処理を行う。
ステップS112〜S117のループを、判別結果保持部705に格納されている全てのカテゴリインデックスに対応するカテゴリについて行うことで、該カテゴリにおける判別結果(最終判別結果)が判別結果保持部705に得られることになるので、弱判別器処理部703は、判別結果保持部705に格納されているそれぞれのカテゴリの最終判別結果を物体判別結果として出力する。
以上説明した処理及び構成により、処理時間を短縮することができる。
次に、図2に例示した弱判別器群を用いた物体判別処理の一例について、図3、5を用いて説明する。
図3では、弱判別器C1,1〜C8,1、C1,2〜C8,2、のうち、黒塗り(斜線)のもの(301)は、スコアが閾値よりも大きい弱判別器、実線で囲った白塗りのもの(302)は、スコアが閾値以下であった弱判別器、点線で囲った白塗りのもの(303)は、実行していない弱判別器、を示している。
ここでは、一個の弱判別器を実行するには6サイクルの処理時間を要するものとする。サイクル1では、ステージ1の第1番目のカテゴリの弱判別器(C1,1)の処理を開始し、サイクル2では、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を開始する。このように、パイプライン処理を行うことにより、サイクル7以降、第1番目から第8番目までのカテゴリのステージ1の弱判別器(C1,1〜C8,1)の処理を順番に終了する。
ステージ1の第1番目のカテゴリの弱判別器(C1,1)のスコアは閾値を超えないため、第1番目のカテゴリのステージ2の弱判別器(C1,2)の処理を実行する必要がない。サイクル7では、ステージ1の第1番目のカテゴリの弱判別器(C1,1)の処理を終了する。この場合、第1番目のカテゴリのステージ1の弱判別器(C1,1)の情報(カテゴリインデックス及び判別結果)を判別結果保持部705に格納しない。
第2番目のカテゴリのステージ1の弱判別器(C2,1)のスコアは閾値を超えたため、第2番目のカテゴリのステージ2の弱判別器(C2,2)の処理を実行する必要がある。サイクル8では、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を終了する。第2番目のカテゴリのステージ1の弱判別器(C2,1)のカテゴリインデックスと、弱判別器C2,1による判別結果と、を関連づけて、FIFO(FIRST−IN FIRST−OUT)の構成である判別結果保持部705に格納する。図5では、FIFOは3段の構成を有しており、最初に入力されたデータd1はエントリーF1に格納され、次に入力されたデータd2はエントリーF2に格納され、次に入力されたデータd3はエントリーF3に格納される。そして、次にデータd4が入力されると、エントリーF2,F3に格納されていたデータd2,d3をそれぞれエントリーF1,F2に上書きし、エントリーF3にデータd4を格納する。以降、同様にしてエントリーF1〜F3に対するデータ書き込みを行う。
第3番目のカテゴリのステージ1の弱判別器(C3,1)のスコアは閾値を超えたため、第3番目のカテゴリのステージ2の弱判別器(C3,2)の処理を実行する必要がある。サイクル9では、第3番目のカテゴリのステージ1の弱判別器(C3,1)の処理を終了する。第3番目のカテゴリのステージ1の弱判別器(C3,1)のカテゴリインデックスと、弱判別器C3,1による判別結果と、を関連づけて判別結果保持部705に格納する。
サイクル9では、判別結果保持部705に第2番目のカテゴリのステージ1の弱判別器(C2,1)の情報(カテゴリインデックス及び判別結果)と第3番目のカテゴリのステージ1の弱判別器(C3,1)の情報(カテゴリインデックス及び判別結果)と、が格納されている。
このように、第1番目から第8番目までのカテゴリのステージ1に対し、スコアが閾値を超えた弱判別器について上記の情報を判別結果保持部705に格納する。サイクル12では、第6番目のカテゴリのステージ1の弱判別器(C6,1)の情報が、判別結果保持部705の第3番目のエントリー(F3)に格納される。
サイクル14では、第8番目のカテゴリのステージ1の弱判別器(C8,1)の処理が終了するので、ステージ2に進む。図5の場合、判別結果保持部705には、閾値を超えたカテゴリのカテゴリインデックスが格納されており、該カテゴリインデックスが格納されているエントリーの順番(F1−F3)にサイクル14、サイクル15、サイクル16で読み出し、読み出されたカテゴリインデックスに対応するカテゴリについてステージ2の弱判別器を実行する。サイクル15では、第2番目のカテゴリのステージ2の弱判別器(C2,2)の処理を開始する。以降、サイクル16,17のそれぞれにおいて、第3番目のカテゴリのステージ2の弱判別器(C3,2)の処理、第6番目のカテゴリのステージ2の弱判別器(C6,2)の処理、を開始する。以上、全ての弱判別器を23サイクルの時間で処理可能である。
ここで、比較のために、図3に基づく物体判別の処理例において、カテゴリ毎に該カテゴリに属する弱判別器を処理する一般的な場合の処理について、図4を用いて説明する。ここでも、一個の弱判別器を処理するためには6サイクルの処理時間を要するものとする。サイクル1では、ステージ1の第1番目のカテゴリの弱判別器処理を開始する。
カテゴリ毎に弱判別器を処理する場合では、第1番目のカテゴリのステージ1の弱判別器(C1,1)のスコアは閾値を超えないため、第1番目のカテゴリのステージ2の弱判別器(C1,2)の処理を実行する必要がない。第1番目のステージの弱判別器処理を終了しないと結果が得られないので、第2番目のステージの弱判別器処理をするかどうかを判断できない。そのため、パイプライン処理することができない。サイクル7では、ステージ1の第1番目のカテゴリの弱判別器(C1,1)の処理を終了する。第1番目のカテゴリのステージ2の弱判別器(C1,2)の処理を省略し、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を開始する。
第2番目のカテゴリのステージ1の弱判別器(C2,1)のスコアは閾値を超えたため、ステージ2の第2番目のカテゴリの弱判別器(C2,2)の処理を実行する必要がある。サイクル13では、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を終了し、ステージ2の第2番目のカテゴリの弱判別器(C2,2)の処理を開始する。これにより、全ての弱判別器を処理するには、67サイクルの時間を要する。
以上説明したように、本実施形態によれば、ステージを単位にそれぞれのカテゴリの弱判別器の実行をパイプライン処理にて実行し、該実行の結果に応じて、次のステージで弱判別器を実行するカテゴリを決定するので、次のステージで弱判別器を実行するカテゴリを早期に確定することができると共に、次のステージでも弱判別器をパイプライン実行することができ、処理が高速化する。
また、本実施形態では、ステージ1の弱判別器処理を終了してから、ステージ2の弱判別器処理を開始するため、後述する第2の実施形態と比べて、装置の制御及び判別結果保持部705の構成が簡単になる。
<変形例>
上記の通り、弱判別器に対する辞書データは、入力画像上の1つの画素の画素位置に限るものではない。例えば、複数枚の画像における1以上の画素位置としても良いし、動画像を処理する時の時系列空間における1以上の位置としても良い。
また、スコアSc,iの求め方は、上記のような方法に限るものではない。例えば、複数枚の画像における複数組の座標と、LUTデータが示す関数と、を用いて求めても良い。また、入力画像は、積分画像や特徴画像等であっても良い。
[第2の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。物体判別処理を行った結果、それぞれのカテゴリの弱判別器の状態が図3に例示した状態となった場合に、該物体判別処理において各サイクルにおける状態を、図8を用いて説明する。
サイクル1では、第1番目のカテゴリのステージ1の弱判別器(C1,1)の処理を開始し、サイクル2では、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を開始する。このように、パイプライン処理を実行することにより、サイクル7から、第1番目から第8番目までのカテゴリのステージ1の弱判別器(C1,1〜C8,1)の処理を順番に終了する。
サイクル7では、第1番目のカテゴリのステージ1の弱判別器(C1,1)の処理を終了する。第1番目のカテゴリのステージ1の弱判別器(C1,1)のスコアは閾値を超えないため、第1番目のカテゴリのステージ2の弱判別器(C1,2)の処理を実行する必要がなく、第1番目のカテゴリのステージ1の弱判別器(C1,1)の情報を判別結果保持部705に格納しない。
サイクル8では、第2番目のカテゴリのステージ1の弱判別器(C2,1)の処理を終了する。第2番目のカテゴリのステージ1の弱判別器(C2,1)のスコアは閾値を超えたため、第2番目のカテゴリのステージ2の弱判別器(C2,2)の処理をする必要があり、第2番目のカテゴリのステージ1の弱判別器(C2,1)の情報を判別結果保持部705に格納する。
サイクル9では、判別結果保持部705から弱判別器C2,1の物体判別結果を読み出して弱判別器C2,2の処理を開始すると共に、弱判別器C3,1の処理を終了し、弱判別器C3,1のスコアが閾値を超えたため、弱判別器C3,1の情報を判別結果保持部705に格納する。
このように、サイクル9では、「判別結果保持部705からの弱判別器C2,1の物体判別結果の読み出し」と「判別結果保持部705への弱判別器C3,1の情報の格納」との両方を行う。サイクル9では、弱判別器C2,1の物体判別結果が読み出されたので、判別結果保持部705には弱判別器C3,1の情報だけが格納されている。
サイクル10では、判別結果保持部705から弱判別器3,1の物体判別結果を読み出して弱判別器C3,2の処理を開始すると共に、弱判別器C4,1の処理を終了し、弱判別器C4,1のスコアが閾値を超えないため、弱判別器C4,1の情報は判別結果保持部705に格納しない。
このように、本実施形態では、第1番目から第8番目までのカテゴリのステージ1に関し、スコアが閾値を超えた弱判別器の情報を判別結果保持部705に格納すると共に、判別結果保持部705から物体判別結果を読み出す。サイクル9で説明したように、ステージ1の弱判別器処理を終了する前に、ステージ2の弱判別器処理を開始することにより、パイプライン効率を向上させることができる。そして、サイクル18では、弱判別器C6,2の処理を終了する。以上、全ての弱判別器を18サイクルで処理可能である。
このように、本実施形態によれば、ステージ2の弱判別器の処理を第1の実施形態よりも早く開始できるため、処理時間が短縮される。
[第3の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。第1の実施形態では、ステージ1においては、どのカテゴリを先に処理するのかについては別段基準はなかった。本実施形態では、ステージ2に物体判別処理が到達する可能性の高いカテゴリをより先にステージ1で処理するように、それぞれのカテゴリのステージ1の弱判別器に対する実行順序を予め設定しておき、該設定した実行順序を示す情報を初期化情報保持部706に格納する。この設定は、予め統計的な手法などでもって行っておく。
図2に例示した弱判別器群を用いた物体判別処理の一例について、図9、10を用いて説明する。
図9では、弱判別器C1,1〜C8,1、C1,2〜C8,2、のうち、黒塗り(斜線)のもの(901)は、スコアが閾値よりも大きい弱判別器、実線で囲った白塗りのもの(902)は、スコアが閾値以下であった弱判別器、点線で囲った白塗りのもの(903)は、実行していない弱判別器、を示している。図9では、ステージ2に物体判別処理が到達する可能性の高いカテゴリ(カテゴリ2,3,6)をその他のカテゴリよりも先にステージ1で処理するように、カテゴリ1〜8の実行順序を決定している。図9では、カテゴリ2,3,6,1,4,5,7,8の順にステージ1で実行している。このような構成によれば、第1の実施形態よりも早く、ステージ2に処理が到達する可能性の高いカテゴリの弱判別器の情報を判別結果保持部705に格納することができるため、ステージ2の弱判別器を早めに処理することが可能になる。
図10に示す如く、サイクル1では、弱判別器C2,1の処理を開始し、サイクル2では、弱判別器C3,1の処理を開始し、サイクル3では、弱判別器C6,1の処理を開始する。このように、予め決定した実行順序に基づくカテゴリ順でパイプライン処理をすることにより、サイクル7から、弱判別器C1,1〜C8,1の処理を、初期化情報保持部706に格納しておいた情報が示す実行順序に基づくカテゴリ順で終了する。
上記の通り、実行順序は次のステージまで通過する可能性の高さに対応しており、予め複数の評価データを用いて取得し、統計データや、前フレームの判別結果、近傍フレームの判別結果、及びカテゴリの類似度等によってその順位を決定することができる。
サイクル7では、弱判別器C2,1の処理を終了する。弱判別器C2,1のスコアが閾値を超えたため、弱判別器C2,1の情報を判別結果保持部705に格納する。
サイクル8では、弱判別器C3,1の処理を終了する。弱判別器C3,1のスコアが閾値を超えたため、弱判別器C3,1の情報を判別結果保持部705に格納する。
サイクル9では、判別結果保持部705から弱判別器C2,1の物体判別結果を読み出して弱判別器C2,2の処理を開始すると共に、弱判別器C6,1の処理を終了し、弱判別器C6,1のスコアが閾値を超えたため、弱判別器C6,1の情報を判別結果保持部705に格納する。
サイクル10では、判別結果保持部705から弱判別器C3,1の物体判別結果を読み出して弱判別器C3,2の処理を開始すると共に、弱判別器C1,1の処理を終了し、弱判別器C1,1のスコアは閾値を超えないため、弱判別器C1,1の情報は判別結果保持部705に格納しない。
サイクル11では、判別結果保持部705から弱判別器C6,1の物体判別結果を読み出して弱判別器C6,2の処理を開始する。このような構成により、本実施形態では、第2の実施形態よりも1サイクル早く弱判別器C6,2の処理を開始することができる。そして更に、サイクル11では、弱判別器C4,1の処理を終了し、弱判別器C4,1のスコアは閾値を超えないため、弱判別器C4,1の情報は判別結果保持部705に格納しない。
このように、本実施形態では、第1番目から第8番目までのカテゴリのステージ1に関し、スコアが閾値を超えた弱判別器の情報を判別結果保持部705に格納すると共に、判別結果保持部705から物体判別結果を読み出す。このような構成によれば、第1の実施形態よりも、ステージ2の弱判別器を早めに処理することが可能になり、これにより、弱判別器処理の効率を更に向上させることができる。そしてサイクル17では、弱判別器C6,2の処理を終了する。以上、全ての弱判別器を17サイクルの時間で処理可能である。
このように、本実施形態によれば、ステージ2まで通過する可能性が高いカテゴリの弱判別器を優先処理するので、パイプライン処理の効率を向上させることができる。
<上記の各実施形態の変形例1>
上記の各実施形態における「物体のカテゴリ」とは、幾つかの数に分類可能な物体の属性であれば、如何なるものであっても良く、例えば、物体の様々な姿勢であっても良い。また、物体のサイズや方向や照明等が異なる同一種類の物体または異なる種類の物体を対象とし、該対象となる物体についてサイズ、照明の方向、種類などを「物体のカテゴリ」として用いても良い。
<上記の各実施形態の変形例2>
上記の各実施形態では、カテゴリ毎のステージ1の弱判別器の個数、カテゴリ毎のステージ2の弱判別器の個数、は共に1としたが、複数であっても構わない。ステージ1及びステージ2のそれぞれに複数の弱判別器を設けた構成を図11に示す。図11ではステージ1及びステージ2のそれぞれにM(Mは3以上の整数)個の弱判別器を設けている。Cc,i、j(図11では1≦c≦N、1≦i≦2、1≦j≦M)は、カテゴリcのステージiに属する弱判別器群のうち左から(入力側から)j番目の弱判別器を表している。
このような場合に、図1のフローチャートに従った処理を以下のように変形させることもできる。
ステップS106(ステップS104内)では、弱判別器処理部703は、RAM704から、弱判別器Cc,1、1〜弱判別器Cc,1、Mのそれぞれに対応する辞書データDc,1,1…Dc、1,Mを読み出す。辞書データの性質は第1の実施形態で説明したとおりである。
ステップS107(ステップS104内)では、弱判別器処理部703は、バッファ701に格納されている入力画像において、辞書データDc,1,1…Dc、1,Mのそれぞれが示す画素位置の画素値f(Xc,1,1、Yc,1,1)…f(Xc,1,M、Yc,1,M)を読み出す。
ステップS108(ステップS104内)では、弱判別器処理部703は、RAM704から弱判別器Cc,1、1〜弱判別器Cc,1、Mのそれぞれに対応するLUTデータを読み出すのであるが、弱判別器Cc,i、jに対応するLUTデータとは、「弱判別器Cc,i、jについてステップS107で読み出した画像特徴量(ここでは画素値)を、対象とする物体らしさに相当するスコアに変換するための関数を表すデータ」である。
ステップS109(ステップS104内)では、弱判別器処理部703は、画素値f(Xc,1,1、Yc,1,1)…f(Xc,1,M、Yc,1,M)のそれぞれを、弱判別器Cc,1、1〜弱判別器Cc,1、Mのそれぞれに対応するLUTデータが示す関数Lc,1,1〜Lc,1,Mを用いて変換することで、弱判別器Cc,1、1〜弱判別器Cc,1、Mのそれぞれに対するスコアSc,1,1〜Sc,i,Mを求める(以下の(式4)を参照)。そしてこのようにして求めたスコアSc,1,1〜Sc,1,Mの合計値を、カテゴリcのステージ1におけるスコアSc,1として求める(以下の(式3)を参照)。
Figure 0006603477
Figure 0006603477
以降は第1の実施形態と同様である。なお、ステップS116でもステップS106〜S111の処理を行う場合、上記のステップS106〜S109の変形例をステージ2以降について行うことになる。
なお、ステップS109では(式4)を用いてスコアSc,1,1〜Sc,1,Mを求め、ステップS110では、スコアSc,1,1〜Sc,1,Mのそれぞれが、閾値Tc、1,1〜Tc,1,M(それぞれ、弱判別器Cc、1,1〜Cc,1,Mに対応する閾値)を超えていれば、処理はステップS111に進む、としても良い。
<上記の各実施形態の変形例3>
上記の各実施形態では、ステージ数を2としたが、ステージ数は2に限るものではなく、それ以上の数としても良い。ステージ数をP(Pは3以上の整数)とした構成を図12に示す。また、図12では、それぞれのステージに複数(M個)の弱判別器を設けている。
[第4の実施形態]
図7に示した構成でバッファ701、RAM704、判別結果保持部705、初期化情報保持部706、のそれぞれを1以上のメモリで構成し、制御部702をCPU等のプロセッサで構成する場合、弱判別器処理部703はハードウェアで構成しても良い。しかし、弱判別器処理部703はソフトウェアで構成しても構わない。
どのようなケースであっても物体判別装置に適用可能なコンピュータ装置のハードウェア構成例について、図6のブロック図を用いて説明する。
入力部601は、本装置にコンピュータプログラムやデータを入力可能な装置であれば如何なる機器であっても良い。例えば、入力部601は、ユーザが様々な指示や情報を本装置に入力するために操作するキーボードやマウス、本装置に入力画像を入力するための機器(ディジタルカメラなど)である。
データ保存部602は、ハードディスク、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリーカード、CFカード、スマートメディア、SDカード、メモリスティック、xDピクチャーカード、USBメモリ等の1以上のメモリ装置で構成されるものであり、図7のバッファ701、判別結果保持部705、初期化情報保持部706としても機能可能なメモリ装置である。データ保存部602には、OS(オペレーティングシステム)や、様々なコンピュータプログラムやデータが保存されている。弱判別器処理部703をソフトウェアで構成する場合、このコンピュータプログラムには、弱判別器処理部703が行うものとして上述した各処理をCPU605に実行させるためのコンピュータプログラムが含まれている。また、このデータには、入力画像のデータや、上記の説明で既知の情報として取り扱った情報(閾値など)、が含まれている。データ保存部602に保存されているコンピュータプログラムやデータは、CPU605による制御に従って適宜RAM607にロードされ、CPU605による処理対象となる。
なお、RAM607の一部をデータ保存部602として用いても構わないし、通信部603の通信相手としての機器の記憶装置を、通信部603を介して利用する場合に、この記憶装置をデータ保存部602としても構わない。
通信部603は、LANやインターネットなどのネットワークを介して外部機器との間でデータ通信を行うためのもので、例えば、データ保存部602に保存されているものとして説明したコンピュータプログラムやデータを外部機器からダウンロードする。
表示部604は、CRTや液晶画面、タッチパネル画面などにより構成されており、CPU605による処理結果を画像や文字などでもって表示することができる。なお、表示部604をタッチパネル画面とする場合、入力部601のユーザ入力受け付け機能を兼ねることになる。
CPU605は、上記の制御部702としても機能するものである。CPU605は、RAM607やROM606に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本装置全体の動作制御を行うと共に、物体判別装置が行うものとして上述した各処理を実行若しくは制御する。なお、CPU605は単数であっても良いし、複数であっても良い。
ROM606には、本装置の設定データやブートプログラムなどが格納されている。
RAM607は、上記のRAM704としても機能するものである。RAM607は、データ保存部602やROM606からロードされたコンピュータプログラムやデータ、通信部603が外部機器からダウンロードしたコンピュータプログラムやデータ、を格納するためのエリアを有する。さらには、RAM607は、CPU605や判別処理部608が各種の処理を実行する際に用いるワークエリアを有する。すなわち、RAM607は、各種のエリアを適宜提供することができる。
判別処理部608は、上記の弱判別器処理部703として機能するものであり、CPU605からの指示に基づいて動作する。より詳しくは、判別処理部608は、CPU605から処理開始指示を受けると、RAM607に格納されている入力画像を用いて物体判別処理を行い、その処理結果をRAM607に出力する。CPU605は、判別処理部608によってRAM607に出力された物体判別処理結果を用いて画像処理や画像認識などの処理を行う。CPU605による処理結果はRAM607やデータ保存部602に格納しても良いし、通信部603を介して外部機器に対して出力しても良い。
なお、図6では入力部601、データ保存部602、表示部604が全て1つの装置内に含まれるものとしているが、これらの機能部が公知の通信方式による通信路で接続されており、全体としてこのような構成となっているのであっても構わない。
また、以上説明した実施形態や変形例は、その一部若しくは全部を適宜組み合わせて使用しても構わないし、場合によってはその一部を削除して使用しても構わない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
703:弱判別器処理部

Claims (8)

  1. 物体の複数のカテゴリに対して、それぞれのカテゴリに対応する論理的にカスケード接続された複数の弱判別器によって物体の判別処理を実行する情報処理装置であって、
    前記複数のカテゴリのそれぞれに対応する論理的にカスケード接続された複数の弱判別器は、接続順に複数のグループに分割されており
    入力画像に対して、前記複数の弱判別器のそれぞれによる処理を当該弱判別器に対応する参照データを用いて実行する処理手段を備え
    前記処理手段は、前記複数のグループの中で前記接続順において先頭のグループである第1のグループに属し、前記複数のカテゴリの全てに対応する弱判別器による処理を、前記カテゴリの順にパイプライン処理にて実行し、
    前記処理手段は、前記第1のグループに属する弱判別器群の処理の結果に応じて、前記複数のカテゴリのうち、前記接続順で前記第1のグループに続く第2のグループに属する弱判別器群の処理を実行すべきカテゴリを決定
    前記処理手段は、前記第2のグループに属する弱判別器群の中で、前記決定されたカテゴリに対応する弱判別器群の処理を、前記カテゴリの順に、パイプライン処理にて実行する
    ことを特徴とする情報処理装置。
  2. 前記処理手段は、
    前記それぞれのカテゴリの第1のグループに属する弱判別器群の処理の結果に対して評価値を求め、該それぞれのカテゴリのうち、前記第2のグループに属する弱判別器群の処理をパイプライン処理にて実行するカテゴリを、該評価値に基づいて決定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記処理手段は、前記評価値が閾値を超えるカテゴリを、前記第2のグループに属する弱判別器群の処理をパイプライン処理にて実行するカテゴリとして決定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記処理手段は、前記第1のグループに属するそれぞれの弱判別器群の処理の結果に対して評価値を求め、該それぞれの弱判別器群の処理の結果に対する評価値の何れも閾値を超えていれば、該第1のグループと同じカテゴリの前記第2のグループに属する弱判別器群の処理をパイプライン処理にて実行するカテゴリとして決定することを特徴とする請求項2に記載の情報処理装置。
  5. 前記処理手段は、前記第1のグループに属するそれぞれの弱判別器群の処理の結果に対して評価値を求め、該それぞれの弱判別器群の処理の結果に対する評価値の合計値が閾値を超えていれば、該第1のグループと同じカテゴリの前記第2のグループに属する弱判別器群の処理をパイプライン処理にて実行するカテゴリとして決定することを特徴とする請求項2に記載の情報処理装置。
  6. 前記処理手段は、前記第2のグループに属する弱判別器群の処理をパイプライン処理にて実行する可能性の高いカテゴリとして予め設定されたカテゴリから先に、該カテゴリの第1のグループに属する弱判別器群の処理をパイプライン処理にて実行することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 物体の複数のカテゴリに対して、それぞれのカテゴリに対応する論理的にカスケード接続された複数の弱判別器によって物体の判別処理を実行する情報処理装置が行う情報処理方法であって、
    前記複数のカテゴリのそれぞれに対応する論理的にカスケード接続された複数の弱判別器は、接続順に複数のグループに分割されており
    前記情報処理装置は、入力画像に対して、前記複数の弱判別器のそれぞれによる処理を当該弱判別器に対応する参照データを用いて実行する処理手段を備え、
    前記情報処理装置の処理手段が、前記複数のグループの中で前記接続順において先頭のグループである第1のグループに属し、前記複数のカテゴリの全てに対応する弱判別器による処理を、前記カテゴリの順にパイプライン処理にて実行する第1の処理工程と、
    前記情報処理装置の処理手段が、前記第1のグループに属する弱判別器群の処理の結果に応じて、前記複数のカテゴリのうち、前記接続順で前記第1のグループに続く第2のグループに属する弱判別器群の処理を実行すべきカテゴリを決定する決定工程と、
    前記情報処理装置の処理手段が、前記第2のグループに属する弱判別器群の中で、前記決定工程で決定したカテゴリに対応する弱判別器群の処理を、前記カテゴリの順に、パイプライン処理にて実行する第2の処理工程と
    を備えることを特徴とする情報処理方法。
  8. コンピュータを、請求項1乃至6の何れか1項に記載の情報処理装置の処理手段として機能させるためのコンピュータプログラム。
JP2015093516A 2015-04-30 2015-04-30 情報処理装置、情報処理方法 Active JP6603477B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015093516A JP6603477B2 (ja) 2015-04-30 2015-04-30 情報処理装置、情報処理方法
US15/139,603 US9824301B2 (en) 2015-04-30 2016-04-27 Information processing apparatus, information processing method, and non-transitory computer readable storage medium
US15/730,075 US10579909B2 (en) 2015-04-30 2017-10-11 Information processing apparatus, information processing method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015093516A JP6603477B2 (ja) 2015-04-30 2015-04-30 情報処理装置、情報処理方法

Publications (2)

Publication Number Publication Date
JP2016212523A JP2016212523A (ja) 2016-12-15
JP6603477B2 true JP6603477B2 (ja) 2019-11-06

Family

ID=57204964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015093516A Active JP6603477B2 (ja) 2015-04-30 2015-04-30 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (2) US9824301B2 (ja)
JP (1) JP6603477B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6603477B2 (ja) * 2015-04-30 2019-11-06 キヤノン株式会社 情報処理装置、情報処理方法
JP6815743B2 (ja) * 2016-04-15 2021-01-20 キヤノン株式会社 画像処理装置及びその方法、プログラム
WO2019116497A1 (ja) * 2017-12-14 2019-06-20 日本電気株式会社 識別装置、識別方法、および記憶媒体
GB2574052B (en) * 2018-05-24 2021-11-03 Advanced Risc Mach Ltd Image processing
CN111046926B (zh) * 2019-11-26 2023-09-19 山东浪潮科学研究院有限公司 一种计算机视觉图像分类集成学习方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7835549B2 (en) * 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
JP4744918B2 (ja) 2005-04-19 2011-08-10 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US8175333B2 (en) * 2007-09-27 2012-05-08 Behavioral Recognition Systems, Inc. Estimator identifier component for behavioral recognition system
JP4513898B2 (ja) * 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置
JP5789128B2 (ja) * 2011-05-26 2015-10-07 キヤノン株式会社 画像処理装置、画像データの処理方法およびプログラム
US9593982B2 (en) * 2012-05-21 2017-03-14 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
JP6603477B2 (ja) * 2015-04-30 2019-11-06 キヤノン株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
JP2016212523A (ja) 2016-12-15
US10579909B2 (en) 2020-03-03
US20180046884A1 (en) 2018-02-15
US20160321521A1 (en) 2016-11-03
US9824301B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
JP6603477B2 (ja) 情報処理装置、情報処理方法
CN109740534B (zh) 图像处理方法、装置及处理设备
CN113255694B (zh) 训练图像特征提取模型和提取图像特征的方法、装置
US8103109B2 (en) Recognizing hand poses and/or object classes
Boussaad et al. Deep-learning based descriptors in application to aging problem in face recognition
US9147123B2 (en) System and method to perform feature detection and to determine a feature score
US9613296B1 (en) Selecting a set of exemplar images for use in an automated image object recognition system
JP6532190B2 (ja) 画像検索装置、画像検索方法
WO2009147840A1 (ja) 画像検索装置および同画像検索装置に適用される画像検索用コンピュータプログラム
CN108596079B (zh) 手势识别方法、装置及电子设备
US10311564B2 (en) Image processing device, image sensor, and image processing method
US20150199592A1 (en) Contour-based classification of objects
RU2013134325A (ru) Устройство и способ распознавания жестов на основе анализа множества возможных границ раздела
US11562554B1 (en) Workload reduction for non-maximum suppression operation
US10268881B2 (en) Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
WO2015031350A1 (en) Systems and methods for memory utilization for object detection
US11580721B2 (en) Information processing apparatus, control method, and program
US10402693B2 (en) Apparatus and method for classifying pattern in image
JP5686548B2 (ja) 情報処理装置、情報処理方法、プログラム
US11288534B2 (en) Apparatus and method for image processing for machine learning
de Oliveira Junior et al. An fpga-based hardware accelerator for scene text character recognition
JP6827721B2 (ja) パターン判別装置、情報処理装置、パターン判別方法
JP2018005505A (ja) 画像認識パラメータ設定装置、画像認識パラメータ設定方法、および画像認識パラメータ設定プログラム
WO2020150891A1 (zh) 指纹识别的方法、处理器和电子设备
JP2015187770A (ja) 画像認識装置、画像認識方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191011

R151 Written notification of patent or utility model registration

Ref document number: 6603477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151