JP5258506B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP5258506B2
JP5258506B2 JP2008274443A JP2008274443A JP5258506B2 JP 5258506 B2 JP5258506 B2 JP 5258506B2 JP 2008274443 A JP2008274443 A JP 2008274443A JP 2008274443 A JP2008274443 A JP 2008274443A JP 5258506 B2 JP5258506 B2 JP 5258506B2
Authority
JP
Japan
Prior art keywords
processing
unit
subject
stage
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008274443A
Other languages
English (en)
Other versions
JP2010102568A (ja
Inventor
哲 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008274443A priority Critical patent/JP5258506B2/ja
Priority to US12/604,195 priority patent/US8526738B2/en
Publication of JP2010102568A publication Critical patent/JP2010102568A/ja
Application granted granted Critical
Publication of JP5258506B2 publication Critical patent/JP5258506B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置に関する。
画像から特定の被写体パターンを自動的に検出する画像処理方法は非常に有用であり、例えば人間の顔の判定に利用することができる。このような方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。このような画像中から被写体を検出する技術の例としては、非特許文献1の報告がある。
この報告の中ではAdaBoostを使って多くの弱判別器を有効に組合せて判別精度を向上させる一方、この判別器を直列に繋ぎ、カスケード型の検出器を構成するようにしている。更に夫々の弱判別器をHaarタイプの矩形特徴量で構成し、矩形特徴量の算出を、積分画像を利用して高速に行っている。このカスケード型の検出器は、まず前段の単純な(即ち計算量のより少ない)判別器を使って明らかに被写体でないパターンの候補をその場で除去している。そして、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な(即ち計算量のより多い)判別器を使って被写体かどうかの判定を行っており、全ての候補に対して複雑な判定を行う必要がないので高速である。
一般に、デジタルカメラで撮影した画像内においてある被写体を探索する際、所定の大きさのサブウィンドウ(枠)を走査させ、サブウィンドウ内の画像を切り出したパターン画像に対し被写体であるか否かの2クラス判別が行われる。そのため、検出時間の短縮は早い段階でいかに被写体でないパターンを除くかにかかっている。
従って、ハードウェア実装において高速化を図るには前段ほど並列度を高くしなければならない。しかしながら、従来は検出に必要な演算処理の総数の低減が着目されていた。
また、並列処理を簡単な回路構成で行うハードウェア実装方法に関するものに例えば、特許文献1がある。これは検出処理とこれを統合する統合処理とを複数並列動作させるとき、検出処理部と統合処理結果のメモリとを所定のタイミングで全て接続することで、単純な回路構成を実現するものである。
特開2002−358500号公報 「Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)」、"Rapid Object Detection using Boosted Cascade of Simple Features"
しかしながら、被写体パターンを自動的に検出すると、実際には、検出対象や、入力画像によって前段で除かれないサブウィンドウの頻度、言い換えると、前段で被写体である可能性が高いと判定されたサブウィンドウの通過率の設計値に対して変動が発生する。このため、設計値に基づいて並列度を決定していては、後段の負荷が増えて、パイプライン処理がストールしたり、またあるときには、負荷が軽いため回路が稼動しなかったりする問題があり、ハードウェアリソースを効率よく稼動させた処理を行うことができなかった。
本発明はこのような問題点に鑑みなされたもので、ハードウェアリソースを有効に活用し、高速な情報処理を実現することを目的とする。
そこで、本発明の情報処理装置は、複数段の情報処理を実行する情報処理装置であって、前記複数段の情報処理の各段の通過率を取得する取得手段、情報を処理し、処理結果を出力する複数の処理手段と、前記複数段の通過率に基づいて、前記複数段の各段で並列に実行すべき処理手段の個数を決定する決定手段と、前記決定手段により決定された個数に基づいて、前記複数の処理手段を前記複数段の情報処理の各段に割り当てる割当手段と、を有することを特徴とする。
本発明によれば、ハードウェアリソースを有効に活用し、高速な情報処理を実現することができる。
以下、本発明の実施形態について図面に基づいて説明する。
<第1の実施形態>
(画像処理装置の概要構成)
図1は、情報処理装置の一例である画像処理装置の機能構成の概要を示す図である。
図1に示されるように、情報処理装置は、制御部と、変更部と、処理部と、統合部と、を有する。なお、各部における処理の詳細は、後述する。
(ハードウェア構成)
図2は、画像処理装置のハードウェア構成の一例を示す図である。
画像処理装置は、複数のPE(プロセッサエレメント)200、SRAM201、DRAM202、CPU205、ROM206、I/Oポート207、これらを接続するバス208を介して相互にデータの入出力を行う。
PE200は、並列処理によって所定の単位の処理を行う処理部を実現する。SRAM201は各PEに共通の情報を格納する。DRAM202は、画像処理装置が検出する被写体を定義した判別情報203、画像処理装置に入力された画像データ(画像)204、通過率209を含む情報を一時的に記憶する。CPU205は、PE200の並列処理の各種制御やPEの処理結果の統合、画像処理や、各部へのデータの入出力を制御する。ROM206は、本実施形態に係るプログラムや、その他の制御に必要なプログラム、検出する被写体の種類ごとの判別情報、その他のデータを格納する。I/Oポート207は、外部システムと画像データや処理結果を入出力する。
なお、複数のPE200は、それぞれ同じ処理性能を有する回路で構成される。
(機能構成の一例)
図3は、画像処理装置の機能構成の一例を示す図である。
まず、画像入力部301は、画像データを入力する。ここで入力される画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがJPEG等の方式により圧縮されている場合、画像入力部301は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。更に、本実施形態では画像入力部301は、RGBデータを輝度データに変換し、輝度画像データを以後の処理に適用するものとし、画像メモリ20に格納する。画像データとしてYCrCbのデータを入力する場合、画像入力部301は、Y成分をそのまま輝度データとしてもよい。
次に、画像縮小部302は、画像データを所定の倍率に縮小した輝度画像データを生成する。これは、本実施形態では様々な大きさの顔の検出に対応するため複数のサイズの画像データに対して順次検出を行うようにしたためである。例えば、倍率が1.2倍程度異なる複数の画像への縮小処理が後段の検出処理のために順次、画像縮小部302において実行される。
次に、多重解像度用画像作成部303は、多重解像度用画像を作成する。この処理は、パターン領域の画像を1/2、1/4に縮小したパターン画像を高速に得るためのものである。
この処理の様子を図4に示す。図4は、多重解像度用画像の作成の一例を示す図である。図4の様に多重解像度用画像作成部303は、縮小画像400全体に対してフィルタ401によりコンボリュージョンをかけて1/2解像度用画像402を生成する。
更に、多重解像度用画像作成部303は、1/2解像度用画像402にフィルタ403でコンボリュージョンをかけて1/4解像度用画像404を生成する。
次に、部分領域設定部304は、縮小された輝度画像データ上に所定の大きさの部分領域を設定する。この様子を図5に示す。図5は、部分領域の設定の一例を示す図である。図5のAの列は画像縮小部302で縮小されたそれぞれの縮小画像を示している。部分領域設定部304は、それぞれの縮小画像に対して所定の大きさの矩形領域を切り出すものとする。図5のBは、それぞれの縮小画像から縦横順次に走査を繰り返していく途中の設定の様子を示すものである。図から分かるように、縮小率の大きな画像から照合パターン領域を設定して顔の判別を行う場合、画像に対して大きな顔の検出を行うことになる。
次に、被写体判定部305は、照合パターンが顔パターンか非顔パターンかを判別する。この処理の詳細については後述する。部分領域設定部304の繰り返し走査が完了した場合、重複情報処理部306は、被写体と判定した部分領域の重複処理を行う。これは、実際の被写体に対して、その近隣の複数の部分領域が被写体と判定されるため、これらを1つにまとめるものである。
次に出力部307は、顔と判別されたパターンを表示装置へ顔領域として出力する。
図6は、表示画面の一例を示す図である。入力画像601に顔の検出結果を重畳して出力した画面表示の一例である。602、603は被写体判別部によって抽出された顔パターンで、その位置と大きさとが示された枠である。また、ボタン604は、被写体判別処理の終了ボタンである。
(被写体判定部)
次に、被写体判定部305における被写体判定の方法についてより詳細に説明する。図7は、被写体判定部305の一例を示す図である。被写体判定は、複数の被写体判別部を直列に接続することで実現される。前段の被写体判別部700に入力されたパターンデータが被写体であるか否かを判定し、被写体であると判定した場合にのみ後段の被写体判別部701が同じパターンデータが被写体であるか否かの判定を前段より高い精度で行う。各被写体判別部及びその内部の弱判別部は同様な構成であり、各部の数や判別パラメータが異なるのみである。前段より後段の方が多くの弱判別部で構成される。
次に、被写体判別部700をより詳細に説明する。図8は、各被写体判別部の一例を示す図である。各被写体判別部は、複数の弱判別部800、801と、これらの出力を統合する統合部802と閾値情報処理部803とで構成される。弱判別部の数は被写体判別部によって異なり、後段の被写体判別部ほど数が多い傾向となる。
弱判別部800、801は、各々がパターン(パターンデータ)を異なる方法で評価して被写体尤度(処理結果)を出力する。弱判別部800、801は、処理に用いる判別情報が異なるのみであり、構成は同じである。この処理の詳細については後述する。
統合部802は、各被写体判別部内の複数の弱判別部800、801が出力する被写体尤度の総和を求める。
H=Σtt,N ・・・ (式1)
ここで添え字t,Nは、N番目の被写体判別部のt番目の弱判別部を示す。
t,Nは、弱判別部の出力する被写体尤度である。
閾値情報処理部803は、(式2)のように被写体尤度の総和と所定の閾値との比較を行い、真であれば被写体であり、偽であれば被写体でないと判断し、結果を出力する。
H≧ThN ・・・ (式2)
ここで、ThNは閾値である。
(弱判別部)
次に、各弱判別部800について説明する。図9は、各弱判別部の一例を示す図である。弱判別部は、局所領域抽出部901と、特徴量算出部902と、被写体信頼度変換部903と、から構成される。各々の部へは判別情報格納部904から判別情報203の一部が供給される。
次に、判別情報格納部904に格納される判別情報203について説明する。図10は、判別情報203の一例を示す図である。
判別情報203は、ある特定の被写体を検出するのに必要な情報であり、被写体判別部数1001と、その数分の被写体判別パラメータ1002と、が結合されたものである。
各々の被写体判別パラメータ1002は、1つの被写体判別部に関するパラメータが格納される。各々の被写体判別パラメータ1002は、弱判別部数1003と、弱判別部数1003数分の弱判別パラメータ1004と、閾値1005と、が結合されたものである。
各々の弱判別パラメータ1004は、1つの弱判別部に関するパラメータが格納される。各弱判別パラメータ1004は、それぞれの局所領域の画素数1006と、局所領域の画素番号を列挙した画素番号リスト905と、画素数1006に等しい行数*1列の行列である特徴抽出フィルタ906と、を含む。また、各弱判別パラメータ1004は、特徴量から被写体の信頼度への変換テーブルである、被写体信頼度変換ルックアップテーブル907を含む。
画素番号は、図11に示すように、本実施形態では顔パターンは目、口を含む20画素*20画素のパターンとなっている。また、これを更に1/2に縮小し、10画素*10画素にしたパターンと、1/4に縮小して5画素*5画素にしたパターンとに、それぞれの画素に対して1から525までの画素番号が付与されている。このように画像処理装置が画像を多重解像にすることによって以下の2つのメリットを併せ持つことができる。即ち、低解像度側では顔を構成する器官同士の位置関係を効率よく照合でき、高解像度側では顔を構成する器官の部分的特徴を精度よく照合できる。
局所領域抽出部901は画素番号リスト905に基づいてパターン中の参照画素を読み込む。
ここでパターンを縮小した画素の読み込み方法について図4を用いて説明する。なお、図4では説明のためパターンのサイズを8*8画素としている。1/2解像度用画像402及び1/4解像度用画像404は縮小画像400と同じ縦横サイズである。例えば縮小画像400から8*8画素のパターン領域405の画素を参照するとき、この1/2の4*4画素のパターン画像406は、1/2解像度用画像402の黒点で示すように同じ領域から2画素置きに画素を参照したものに等しい。同様にパターンの1/4の2*2画素のパターン画像407は、1/4解像度用画像404の同じ領域から4画素おきに画素を参照したものに等しい。
特徴量算出部902は、局所特徴量を算出する。特徴量算出部902は、局所特徴量utを(式3)によって求める。
t,N=φtN Tt,N ・・・ (式3)
ここで添え字t,Nは、N番目の被写体判別部のt番目の弱判別部を示す。
t,Nは、局所特徴量を示す数値であり、
φt,Nは、特徴抽出フィルタ906であり、
t,Nは、局所領域抽出部901によって得られる画素番号リスト905で示されるパターン又は縮小パターン上の画素の輝度を要素とする画素数に等しい行数で1列の行列である。
次に被写体信頼度変換部903は、(式4)の様に局所特徴量Ut,Nから被写体信頼度に変換する。
t,N=ft,N(Ut,N) ・・・ (式4)
但しHtNは、被写体信頼度である。
但し、HtNは被写体信頼度の出力である。
ここで、ft,Nは、被写体信頼度変換ルックアップテーブル907を使って、局所特徴量Ut,Nからテーブル変換によって被写体信頼度に変換し、弱判別部の出力とする。
被写体信頼度変換部903は、局所特徴量Ut,Nが変換テーブルの上限又は下限を超えている場合はそれぞれ、上限値、下限値にしたうえで、テーブルを参照し被写体信頼度を得る。
(局所特徴量)
本実施形態では、局所特徴量として、照合パターンのうち所定解像度、所定サイズ、形状の局所領域における線形識別特徴を用いる。
局所領域としては、例えば、図12に示すように照合パターンFが20×20画素からなる輝度パターンであるとすると、その一部である5×5画素の正方形の局所領域P等である。この場合、照合パターン内の全ての位置において同様の局所領域Pを設定すると、256の局所領域が考えられる。
なお、画像処理装置は、図13のP1、P2、P3に示すように横長の矩形、縦長の矩形、楕円等様々な形状及びサイズの局所領域から得られたものを組合せて用いてもよい。また、画像処理装置は、元の照合パターンを縮小して様々な低解像度の照合パターンを作成し、各解像度の照合パターン中の局所領域を組み合せて用いてもよい。また、画像処理装置は、複数の乖離した領域・画素を用いてもよい。
(被写体の切り替え)
上述したように、被写体判別部は検出(判別)する被写体に関係なく同じ構成をとることができる。従って、検出対象となる被写体を切り替えるには、判別情報203を被写体ごとに用意して切り替え、この判別情報203に記載された数の被写体判別部、弱判別部で構成すればよい。
(処理部)
以上の処理においてPE200は所定の時間当たりに、1つ又は複数の弱判別部801の処理と、これらの出力する被写体尤度の局所的な統合処理と、を実行する。各被写体判別部は、整数個のPEによって構成される。複雑度に応じて必要なPEの個数は異なる。
各被写体判別部は、整数個のPEの複雑度を余すことなく利用することは、設計時に判別性能を微調整することで可能である。弱判別部801の数と、判別性能とは、トレードオフの関係にあり、判別性能がわるいと通過率が多くなり、逆に判別性能がよいと通過率は低くなる。総合的な判別性能は被写体判別部の段数を増減したり、最終段の複雑度で微調整したりすればよい。
したがって、各処理部の処理内容は同じであるので、動機的に処理を行うことができる。
(並列化方法)
次に、被写体判定部をハードウェア実装した際の並列化手法について説明する。図14は、被写体判別部700〜701を並列化した一例を示す図である。図14に示されるように、画像処理装置は、情報処理手段の一例である被写体判別部を並列化し、前記並列化した被写体判別部を段階的に有し(段として有し)、被写体判別部の各段の前には割当部1300、1301を有する。これら割当部は、並列化された被写体判別部の何れかへ判別処理を割当るものである。処理が必要な入力数に対して並列度が足らない場合、割当部は、入力情報を処理待ちキューに格納し、次の処理開始タイミングを待つ。
(並列度の制御)
直列に接続された被写体判別部では、前段ほど処理回数が多いので、並列度を高くしなければならない。並列化した各段で被写体判別部の1回の判別時間が等しい場合、例えば制御部は、次の式においてεを最小化するように並列度を設定する。
Figure 0005258506
但し、
Figure 0005258506
ここで、Mnは直列に接続された被写体判別部のn段目の並列度数、
kは、k−1段目での入力数に対して被写体であると判定される確率である。
1は、先頭段であるから1である。
kは、先頭段の入力数に対してk−1段目で被写体であると判定される確率である。
kは、被写体判別部の複雑度に基づく重み係数であるが、k段目の被写体判別部の並列度を1つ上げるのに必要な処理部(PE200)の数である。
Figure 0005258506
は、各段の確率の平均である。
Figure 0005258506
は、各段の並列度の平均である。
通過率209は、検出対象となる被写体に応じて被写体情報の設計時に設計者等が被写体判別部ごとに予め求めておいた数(予め定められた値)であり、変更部(又は制御部等の制御に基づいて変更部)がpkへ代入することができる。検出対象を切り替える際に、変更部等が対応する通過率に更新する。また、入力画像によって各段の通過率は大きく変わるため、割当部が入力画像の処理中において直近の所定時間における通過率を検知する。そして、制御部が、割当部が検知した通過率に基づき、動的に、変更部等を介して、判別情報を変更し、弱判定部の処理結果の出力と統合部の入力との接続関係を更新してもよい。また、この(式5)はあくまで通過率に基づく指標算出の一例である。
(変更部)
次に変更部の処理について詳細に説明する。
変更部は、各々の処理部であるPE200に供給する判別情報を変更し、PE200の出力と統合部802の入力との接続を変更することで処理部の役割を変更するものである。例えば、変更部は、判別情報のメモリアドレスや統合部802の入力情報へのメモリアドレスを切り替えることによって前記接続を変更するようにしてもよい。
(制御部)
次に変更部の変更方法を制御する制御部について詳細を説明する。
制御部は、処理負荷の少ない段から多い段へ処理リソース(処理部)を割当直すものである。
次に示す(式7)は、kで示される段数の並列度が、処理内容に対して並列度が足らない場合に大きな値となり、逆に、処理内容に対して並列度が多い場合には小さな値となる。
Figure 0005258506
制御部は、(式7)において、値が最小となる段から値が最大となる段へ処理リソースを割当直す。より具体的に説明すると、制御部は、並列度が不足している段の並列度を1つ増やす。そのために、制御部は、過剰な並列度の段を開放し、処理リソースを確保する。この際、並列度を1つ増やすには後段の方が必要なPE数が多い。よって、前段から後段へ処理リソースを割当る場合、制御部は、前段で複数の被写体判別部の解体が必要であり、並列度が過剰なものから順次解体する。また、後段から前段へ処理リソースを割当る場合、制御部は、後段を1つ解体すると前段の並列度を2つ以上増やすこともできる。また、制御部は、確保した処理リソースの数と役割変更する処理リソースが等しくなるわけではないので、余った処理リソースは次回以降の変更時に、優先して使用すればよい。
<第2の実施形態>
(他の制御部)
制御部における、役割変更(つまり、上述した接続の変更=処理部の割当直し)の頻度は、パラメータの全交換を行って検出対象となる被写体を変更する場合や、直近の所定時間の通過率に基づいて変化が生じる度に行ってもよい。
役割変更は各種の条件で限定することが可能である。制御部は、1枚の入力画像の処理中における一回の役割変更で必ずしもεを最小化する必要はなく、1回あたりで変更をするPEの数又は統合部802の数を限定したほうがよい。また、(式7)において、最大値が所定の閾値に満たない場合、変更は不要である。また、制御部は、予め段ごとに設定された並列度の上限、下限の中で、処理リソースの割当直しを行うようにしてもよい。ここで、1回とは通過率が変化したときでもよく、処理部がn回(nは1以上の整数)の判定を行う時間単位のいずれでもよい。
<第3の実施形態>
第1の実施形態ではプログラムをROM206に置いていたが、I/Oポートから同様なプログラムを読み込み、DRAM202に展開することで、第1の実施形態と同様の処理を実現することができる。
<第4の実施形態>
(被写体)
上述した実施形態では顔抽出を例に説明を行ったが、上述した構成及び処理は、顔以外の任意の物体に対しても適用することができる。例えば、人体全身、人体上半身、生物、自動車等がある。工業、流通分野等では生産物、部品、流通物品等の同定や検査等に適用することができる。
<第5の実施形態>
(他の通過率検知部)
また、各段における割当部において、処理待ちキューを設けるようにしてもよい。割当部は、これに溜まった処理の数に基づいて通過率を検出してもよい。その際、制御部は、待ち数の大きな段の並列度を上げ、待ち数の少ない段の並列度を下げるように変更部を制御するようにしてもよい。
<第6の実施形態>
(他の処理部)
第1の実施形態における弱判別部は局所特徴量を求め、被写体信頼度変換部を有していたが、弱判別部はこれに限定されるものではない。公知文献1は、Haarに似た特徴量を求め、この特徴量が所定の閾値で被写体であるかを判定し、重みをつけた値が弱判別部の出力となっている。弱判別部の構成を同じにし、Haar特徴の位置やサイズ、種類、閾値、重みを判別情報格納部904に格納するようにしてもよい。従って、1つ又は複数の弱判別部の処理をPE200で行い、制御部が、並列度を制御(処理の役割を制御)するようにしてもよい。
<第7の実施形態>
(被写体判定部の接続構成)
第1の実施形態における被写体判定部は、複数の被写体判別部を直列に接続することで実現していたが、直列に限定する必要はない。複数の被写体判別部をツリー上に構成し、前段の被写体判別部の結果に応じて後段の何れかの被写体判別部に分岐するように構成してもよい。この場合でも、通過率は(式5)を適用することができる。
更に、前段処理までの処理結果に基づいて後段処理を起動するか否かを変化させ、処理結果によって呼び出し回数が変化する画像処理の並列化の制御の方法において、制御部が、呼び出し回数に基づいて並列度を制御(処理の役割を制御)するようにしてもよい。
<その他の実施形態>
また、本発明の目的は、以下のようにすることによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(又は記録媒体)を、システム或いは装置に供給する。そして、そのシステム或いは装置の中央演算処理手段(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本発明を構成することになる。
また、システム或いは装置の前記中央演算処理手段が読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、システム或いは装置上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行う。その処理によって上述した実施形態の機能が実現される場合も含まれる。
更に、記憶媒体から読み出されたプログラムコードが、前記システム或いは装置に挿入された機能拡張カードや、接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。
本発明を前記記憶媒体に適用する場合、その記憶媒体(コンピュータ読み取り可能な記憶媒体)には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
以上、上述した各実施形態によれば、ハードウェアリソースに対して高速な情報処理を実現することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
情報処理装置の一例である画像処理装置の機能構成の概要を示す図である。 画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成の一例を示す図である。 多重解像度用画像の作成の一例を示す図である。 部分領域の設定の一例を示す図である。 表示画面の一例を示す図である。 被写体判定部305の一例を示す図である。 各被写体判別部の一例を示す図である。 各弱判別部の一例を示す図である。 判別情報203の一例を示す図である。 多重解像度化したパターンと画素番号との関係を示す図である。 顔の局所領域の一例を示す図である。 顔の別の局所領域の一例を示す図である。 被写体判別部700〜701を並列化した一例を示す図である。
符号の説明
201 SRAM
202 DRAM
205 CPU
206 ROM

Claims (7)

  1. 複数段の情報処理を実行する情報処理装置であって
    前記複数段の情報処理の各段の通過率を取得する取得手段
    情報を処理し、処理結果を出力する複数の処理手段と、
    前記複数段の通過率に基づいて、前記複数段の各段で並列に実行すべき処理手段の個数を決定する決定手段と、
    前記決定手段により決定された個数に基づいて、前記複数の処理手段を前記複数段の情報処理の各段に割り当てる割当手段と、
    を有することを特徴とする情報処理装置。
  2. 前記複数段の各段は、1つ又は複数の前記処理手段の処理結果を入力とし、前記処理結果を統合して出力する統合手段を更に有し、
    前記割当手段は、前記処理手段の処理結果の出力と前記統合手段の入力との接続関係を変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記複数段の情報処理の各段の通過率を検知する通過率検知手段を更に有し、
    前記取得手段は、前記通過率検知手段で検知された前記通過率を取得することを特徴とする請求項1に記載の情報処理装置。
  4. 前記通過率検知手段は、所定時間ごとに前記通過率を検知することを特徴とする請求項に記載の情報処理装置。
  5. 前記各段は処理待ちキューを有し、
    前記通過率検知手段は、前記各段の処理待ちキューに蓄えられた処理の数に基づいて前記通過率を検知することを特徴とする請求項3に記載の情報処理装置。
  6. 前記処理手段は、画像から被写体を判別する被写体判別手段であって、
    前記取得手段は、前記被写体判別手段で判別する被写体の種類が変更された場合、前記変更された被写体の種類に対応する、予め設定されている通過率を取得することを特徴とする請求項1に記載の情報処理装置。
  7. 前記割当手段は、前記決定手段により決定された個数よりも多くの処理手段が割り当てられている段から、前記決定手段により決定された個数よりも少ない処理手段が割り当てられている段へ、処理手段の一部の割り当てを変更することを特徴とする請求項1に記載の情報処理装置。
JP2008274443A 2008-10-24 2008-10-24 情報処理装置 Active JP5258506B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008274443A JP5258506B2 (ja) 2008-10-24 2008-10-24 情報処理装置
US12/604,195 US8526738B2 (en) 2008-10-24 2009-10-22 Information processing apparatus including a plurality of multi-stage connected information processing units

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008274443A JP5258506B2 (ja) 2008-10-24 2008-10-24 情報処理装置

Publications (2)

Publication Number Publication Date
JP2010102568A JP2010102568A (ja) 2010-05-06
JP5258506B2 true JP5258506B2 (ja) 2013-08-07

Family

ID=42165243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008274443A Active JP5258506B2 (ja) 2008-10-24 2008-10-24 情報処理装置

Country Status (2)

Country Link
US (1) US8526738B2 (ja)
JP (1) JP5258506B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5574816B2 (ja) 2010-05-14 2014-08-20 キヤノン株式会社 データ処理装置及びデータ処理方法
JP5618670B2 (ja) * 2010-07-21 2014-11-05 キヤノン株式会社 データ処理装置及びその制御方法
US8699753B2 (en) * 2010-11-30 2014-04-15 Panasonic Corporation Object detecting device, image dividing device, integrated circuit, method of detecting object, object detecting program, and recording medium
JP6225844B2 (ja) * 2014-06-30 2017-11-08 株式会社デンソー 対象物検出装置
JP5974148B2 (ja) * 2015-08-03 2016-08-23 キヤノン株式会社 画像処理装置、画像データの処理方法およびプログラム
JP7036686B2 (ja) * 2018-07-24 2022-03-15 株式会社ダイヘン オプション機能使用料演算方法、オプション機能使用料演算装置及びコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920001287B1 (ko) * 1988-02-12 1992-02-10 니혼 호오소오 고오카이 디지탈 영상신호 처리장치
US5978831A (en) * 1991-03-07 1999-11-02 Lucent Technologies Inc. Synchronous multiprocessor using tasks directly proportional in size to the individual processors rates
JPH08249306A (ja) * 1995-03-09 1996-09-27 Sharp Corp データ駆動型情報処理装置
JP4846924B2 (ja) 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
US7242810B2 (en) * 2004-05-13 2007-07-10 Proximex Corporation Multimodal high-dimensional data fusion for classification and identification
JP4553300B2 (ja) * 2004-09-30 2010-09-29 Kddi株式会社 コンテンツ識別装置
JP4810090B2 (ja) * 2004-12-20 2011-11-09 キヤノン株式会社 データ処理装置
JP4767595B2 (ja) * 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
JP2008026974A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置
JP4218712B2 (ja) * 2006-08-04 2009-02-04 ソニー株式会社 顔検出装置、撮像装置および顔検出方法
JP2008102611A (ja) * 2006-10-17 2008-05-01 Canon Inc 画像処理装置
US20090188727A1 (en) * 2008-01-24 2009-07-30 Yun-Hsiang Yeh Apparatus For Processing Signals From Electromagnetic Antenna Board With Multiple Processing Units

Also Published As

Publication number Publication date
JP2010102568A (ja) 2010-05-06
US20100119107A1 (en) 2010-05-13
US8526738B2 (en) 2013-09-03

Similar Documents

Publication Publication Date Title
JP5258506B2 (ja) 情報処理装置
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10026197B2 (en) Signal processing method, signal processing apparatus, and storage medium
TWI627589B (zh) 使用雙閥值本地二進制圖案運算符之用於增量物件偵測之系統及方法
US20070041638A1 (en) Systems and methods for real-time object recognition
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP2013533998A (ja) 自己類似性を用いる画像内オブジェクトの検出
JP2008033424A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20180183998A1 (en) Power reduction and performance improvement through selective sensor image downscaling
US10810433B2 (en) Method and system for tracking objects
JP2011053959A (ja) 画像処理装置、被写体判別方法、プログラム及び記憶媒体
US10909353B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium
JP2010262601A (ja) パターン認識システム及びパターン認識方法
US8913782B2 (en) Object detection apparatus and method therefor
JP5523053B2 (ja) 物体識別装置及び物体識別方法
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP5294798B2 (ja) 画像処理装置及び画像処理方法
US9053354B2 (en) Fast face detection technique
JP5335554B2 (ja) 画像処理装置及び画像処理方法
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
US9262443B2 (en) Classifying materials using texture
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP5702960B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101161580B1 (ko) 인터리빙 히스토그램을 이용한 특징 벡터 추출 방법 및 이를 적용한 영상 인식 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5258506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151