JP2010165052A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2010165052A JP2010165052A JP2009005020A JP2009005020A JP2010165052A JP 2010165052 A JP2010165052 A JP 2010165052A JP 2009005020 A JP2009005020 A JP 2009005020A JP 2009005020 A JP2009005020 A JP 2009005020A JP 2010165052 A JP2010165052 A JP 2010165052A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- likelihood information
- image
- subject likelihood
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】動画像の各フレームを入力する動画像入力と、動画像の各フレームの被写体サイズ毎に被写体尤度情報を画像上の位置と関連付けて記憶する被写体尤度情報記憶と、記憶に記憶されている被写体尤度情報に基づいてパターン切り出し位置を決定する探索制御と、探索制御で決定されたパターン切り出し位置で切り出されたパターンの被写体尤度情報に基づいて、画像上の被写体を検出する被写体検出と、を有することによって課題を解決する。
【選択図】図2
Description
動画から効率よく被写体を検出する場合、時間的に近いフレーム同士は相関が高いことを利用することができる事が知られている(特許文献2参照)。これは、物体検出処理によって、何れかの階層において特定物体が検出された場合には、次の入力画像に対しては、特定物体が検出された階層と同じ階層の階層画像に対して物体検出処理を行なうものである。
特許文献2は検出結果によって次のフレームの探索範囲を絞り込むものであるが、検出しなかった場所は探索範囲外となる。従って、新たにフレームインした被写体や物陰から現れた被写体を検出するためには定期的に全領域を対象にして探索する必要があるため、効率よく検出することができない問題がある。
(ハードウェア構成)
図1は、画像処理装置のハードウェア構成の一例を示す図(その1)である。
画像処理装置は、以下の構成により成る。
CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。CPU201がプログラムに従って命令を実行することによって、後述する機能やフローチャートに係る処理が実現される。
ROM202は、本実施形態のプログラムやその他の制御に必要なプログラムやデータを格納する。
RAM203は、画像情報212、被写体尤度情報213の他、一時的なデータを格納する。
HDD205は、画像やパターン抽出等のプログラムや、顔、非顔のサンプルパターン等を記憶する。
動画像入力装置206は、デジタルビデオカメラやネットワークカメラ等の装置から動画像を入力する。
入力装置208は、キーボードやマウス等であって、オペレータからの入力を行う。
表示装置209は、ブラウン管や液晶ディスプレイ等である。
ネットワークI/F210は、インターネットやイントラネット等のネットワークと接続を行うモデムやLAN等である。
バス211は、これらを接続して相互にデータの入出力を行う。
図2は、画像処理装置の概略構成を示した図である。
動画像入力部101は、動画像入力装置206から入力される動画像の各フレームを入力する。
探索制御部102は、被写体を評価するための後述する図4のサブウィンドウ501の走査方法を制御する。より具体的に説明すると、探索制御部102は、走査位置における前フレームの被写体尤度情報に従って走査幅の制御を行う。
被写体検出部103は、サブウィンドウ501上の画像情報が被写体であるかどうかを評価し、被写体らしさを出力し、かつ、所定の閾値によって被写体であることを判定する。
被写体尤度情報記憶部104は、入力画像の位置及び被写体サイズ毎に被写体らしさ(被写体尤度情報)を関連付けて記憶する。
図3は、本実施形態の概略処理の一例を示すフローチャートである。
本実施形態では被写体の一例として人間の顔を検出する画像処理装置を挙げて説明する。
ステップS301において、動画像入力部101は、動画像入力装置206から入力された各フレーム画像データをRAM203に読み込む。
ここで読み込まれた画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがMPEG,MotionJPEG等の方式により圧縮されている場合、動画像入力部101は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。更に、本実施形態では動画像入力部101は、RGBデータを輝度画像データに変換し、輝度画像データを以後の処理に適用するものとして、RAM203に格納する。
動画像入力部101は、画像データとしてYCrCbのデータを入力する場合、Y成分をそのまま輝度画像データとしてもよい。
なお、以降の処理に適用するものは輝度画像データに限定されるものではない。明るさやコントラスト調整等の正規化、色変換処理の他に所定の方向のエッジの強さを示すエッジ画像や、微分、積分等の画像処理を行った1つ又は異なる画像処理を適用した複数の画像データを以降の処理に適用するようにしてもよい。
図4のAはステップS302で縮小されたそれぞれの縮小画像を示しており、ここでは、それぞれの縮小画像に対して所定の大きさの矩形領域を切り出すものとする。
次に、ステップS303において、探索制御部102は、縮小された輝度画像データ上に所定の大きさのサブウィンドウを設定する。この処理の詳細は後述する図6等を用いて説明する。
以上、S303からS305までの処理で、ステップS302の出力である縮小輝度画像に対して図4に示すようにサブウィンドウ501の走査が繰り返される。
また、倍率が異なる縮小処理が順次適用され、S302からS305までの処理が繰り返される。
ステップS305において、例えば被写体判別部103は、以上の繰り返し走査が完了したか判断し、完了した場合、ステップS306において、被写体判別部103は、顔と判別されたパターンに対して表示装置209へ顔領域として出力する。
図5は、表示装置209に表示する画面の一例を示す図である。図5では、入力画像1201に顔の検出結果を重畳して出力した画面表示の一例となっている。検出結果枠1202は、被写体判別部103によって抽出された顔パターンで、その位置と大きさとが示された枠である。ボタン1203は画面を閉じることを指定するボタンである。
次に、ステップS307において、例えば動画像入力部101は、動画が終了したか否かを判定し、終了するまでステップS301からステップS306までの処理を繰り返す。
次に、被写体尤度情報213について説明する。
被写体尤度情報213は、図4のAにおける各縮小画像でのサブウィンドウの移動可能領域に基づいた入力画像1画像分のデータである。即ち、縮小画像1つにつき、1つの2次元データである。2次元データの幅は、縮小画像の幅−サブウィンドウの幅+1であり、高さは縮小画像の高さ−サブウィンドウの高さ+1の2次元データである。
例えば被写体判別部103は、サブウィンドウの位置に基づいて記憶アドレスを求め、この記憶アドレスに被写体尤度情報を記憶する。例えば被写体判別部103は、サブウィンドウの左上の座標に相当する位置に、サブウィンドウ内のパターンを評価して得られた被写体尤度情報を被写体尤度情報記憶部104に記憶する。被写体判別部103は、量子化を行い、被写体尤度情報を行い、2値としてもよい。
次に、ステップS303における探索制御処理について詳細に説明する。
図4のBは、非特許文献1において、それぞれの縮小画像から縦横順次に走査を繰り返していく途中の設定の様子を示すものである。図から分かるように、縮小率の大きな画像からサブウィンドウを設定して、サブウィンドウ内の画像パターン顔の判別を行う場合には、画像に対して大きな顔の検出を行うことになる。
本実施形態における探索制御部102は前フレームまでの被写体尤度情報に基づいて探索位置、即ちパターン評価を行うサブウィンドウの位置を設定する。
ステップS401において、探索制御部102は、被写体尤度情報記憶部104に格納された被写体尤度情報を参照する。初回のフレーム画像では被写体尤度情報の情報は無いので、探索制御部102は、所定の尤度値で被写体尤度情報を初期化する。また、長期間評価しない座標では記憶していた尤度と映像との関係に誤差が生じるため、探索制御部102は、定期的に被写体判別を行う。
この際、探索制御部102は、時間的空間的に探索箇所を均等に分散する。即ち、探索制御部102は、例えば、偶数番目のフレームでは全探索を行い、奇数番目のフレームは探索しないというような探索方法を採らない。即ち、探索制御部102は、偶数番目のフレームでは偶数番目のラインを探索し、奇数番目のフレームでは奇数番目のラインを探索するようにする。つまり、探索制御部102は、前のフレームで決定したパターン切り出し位置以外の位置の被写体尤度情報を、前記位置とは異なる位置の被写体尤度情報に基づいて決定し、被写体尤度情報記憶部104に設定(又は記憶)するようにする。これにより、負荷の時間的分散が図れ、処理コストに対して精度向上を図ることができる。
例えば、公知技術でオプティカルフロー等の動きベクトル生成技術がある。この技術は、主としてMPEG等の動画符号化技術で利用されている。
例えば探索制御部102は、この技術を複数のフレーム画像に適用することで生成した動きベクトル情報を、被写体尤度情報記憶部104に記憶した被写体尤度情報に適用して被写体尤度情報の位置を移動させることができる。
図7は、被写体尤度情報の位置を移動する一例を示す図である。図7において、(a)は時刻t=n−1におけるフレーム画像である。(c)は時刻t=nにおけるフレーム画像である。(b)はフレーム画像t=n−1からt=nにおいて、被写体の位置付近での動きベクトルを示す。また、(d)は時刻t=n−1におけるある縮小率における被写体尤度情報を2値化して可視化した図であり、黒い丸は被写体尤度情報が高いことを現す。(e)は、t=n−1における被写体尤度情報(d)と動きベクトル(b)とに基づいて被写体尤度情報が移動された後の被写体尤度情報である。動画を圧縮符号化する際には動きベクトル(動きベクトル情報)は被写体の有無に関わらず生成されるものである。探索制御部102は、動きベクトル情報を被写体が検出できていない被写体尤度情報の位置へ適用することで、被写体である可能性が高い場所のみを効果的に探索して被写体を検出することができる。
次に、ステップS402において、探索制御部102は、最大尤度の拡張処理を行う。これは、ある位置における被写体尤度情報を所定範囲の近傍の最大の被写体尤度情報で置き換えることで実現する。
このステップの処理の目的は、前ステップでの説明で述べた、時間的空間的に探索箇所を均等に分散することで、探索が行われなかった位置に対して補完を行うことである。
次にステップS403において、探索制御部102は、図4のような走査を行い、サブウィンドウの位置に対応する尤度値(被写体尤度情報)が所定の閾値以上の位置へサブウィンドウの位置を設定する。
また、探索制御部102は、尤度値からサブウィンドウの移動量を決定してもよい。これには、探索制御部102は、被写体尤度情報に対応する移動幅を予め統計的に求めておいて、被写体尤度情報から移動量への変換テーブルを作成しておくことで実現する。
次に、ステップS304における顔判別の方法について詳細に説明する。
被写体判別部103は図8に示したように複数の強判別部601を直列に接続することで実現する。被写体判別部103は、前段の強判別部601に入力されたパターンデータが被写体であるか否かを判定し、被写体であった場合にのみ後段の強判別部601で同じパターンデータが被写体であるか否かの判定を前段より高い精度で行う。各強判別部及びその内部の弱判別部は同様な構成であり、各部の数や判別パラメータが異なるのみである。
図9は、各強判別部の一例を示す図である。各強判別部601は複数の弱判別部701で構成され、各々が出力する被写体尤度情報を加算器702で統合し、閾値処理703を行い、被写体であるか否かを出力する。
図10は、各弱判別部の一例を示す図である。各弱判別部701は、解像度変換部801と、局所領域抽出部802と、特徴量算出部803と、被写体信頼度変換部804とから構成される。各々の部へは判別情報格納部805から判別パラメータが供給される。
図11は、判別情報格納部805に格納される判別パラメータについて説明するための図である。
判別パラメータは強判別部数901と、その数分の強判別パラメータ902と、が結合されたものである。各々の強判別パラメータ902は1つの強判別部に関するパラメータが格納される。各々の強判別パラメータ902は弱判別部数903とその数分の弱判別パラメータ904とが結合されたものである。各々の弱判別パラメータ904は1つの弱判別部に関するパラメータが格納される。各弱判別部数903は、それぞれの局所領域の画素数906と、局所領域の画素番号を列挙した画素番号リスト907と、画素数906に等しい行数*1列の行列である特徴抽出フィルタ908と、を含む。また、各弱判別部数903は、特徴量から被写体の信頼度への変換テーブルである、被写体信頼度変換ルックアップテーブル909を含む。
ステップS1101において、被写体判別部103は、解像度変換部801によりパターンの1/2と1/4との縮小画像を生成する。本実施形態では解像度は1/2n (nは整数)としているが、これに限ったものではない。1/1.2倍程度の刻みで複数の解像度の画像が得られているので、解像度変換部801は、それを利用して更に多くの解像度でのパターンを用いてもよく、この場合でも処理コストが増加することはほとんどない。多重解像度にすることによって以下の2つのメリットを併せ持つことができる。即ち、低解像度側では顔を構成する器官同士の位置関係を効率良く照合でき、高解像度側では顔を構成する器官の部分的特徴を精度良く照合できる。
次にステップS1102において、被写体判別部103は、強判別部ループカウンタNを初期化する。
次にステップS1103において、被写体判別部103は、弱判別部ループカウンタtを初期化する。
Ut,N =φt、N Tzt,N ・・・ 式(1)
ここで添え字t,NはN番目の強判別部のt番目の弱判別部を示す。
Ut,Nは局所特徴量を示す数値であり、
φt,Nは特徴抽出フィルタ908であり、
zt,Nは局所領域抽出部802によって得られる画素番号リスト907で示されるパターン又は縮小パターン上の画素の輝度を要素とする画素数に等しい行数で1列の行列である。
Ht,N = ft,N(Ut,N) ・・・ 式(2)
但しHt、Nは被写体信頼度の出力である。
ft,Nは被写体信頼度変換ルックアップテーブル909を使って、局所特徴量Ut,Nからテーブル変換によって被写体信頼度に変換し、弱判別部の出力としている。
被写体信頼度変換部804は、局所特徴量Ut,Nが変換テーブルの上限又は下限を超えている場合はそれぞれ、上限値、下限値にしたうえで、テーブルを参照し、被写体信頼度を得る。
最後の弱判別部まで被写体信頼度を求めた場合、ステップS1107に進み、加算器702は、式(3)のように被写体信頼度の総和を求める。
H = ΣtHt、N ・・・ 式(3)
H ≧ ThN ・・・ 式(4)
強判別部601は、顔でないと判定した場合、顔でないとして終了する。
強判別部601は、顔であると判定した場合、ステップS1109に進む。ステップS1109において、被写体判別部103は、最後の強判別部の判定を終わるまでステップS1112で強判別部番号NをインクリメントしながらステップS1103〜ステップS1109の処理を繰り返す。
本実施形態では、局所特徴量として、照合パターンのうち所定解像度、所定サイズ、形状の局所領域における線形識別特徴を用いたが、非特許文献1にも適用できる。
次に被写体尤度情報の求め方について説明する。例えば被写体判別部103は、複数ある強判別部を通過した数と実際に被写体である確率との関係を予め求めておき、強判別部の通過数に基づいて尤度を求める。また、被写体判別部103は、各強判別部で求められる、被写体信頼度の総和Hと実際に被写体である確率との関係を予め求めておき、被写体信頼度の総和に基づいて尤度(被写体尤度情報)を求めてもよい。
図14は、画像処理装置のハードウェア構成の一例を示す図(その2)である。実施形態1と共通する部分には同じ番号を付与している。
ブロック構成としてはプログラムを記録したDVD又はCDのような光ディスク214を追加し、ドライブインターフェース204にCD/DVDドライブ等の外部記憶読書装置215が接続されているところが実施形態1と異なる。
プログラムを記録した光ディスク214を外部記憶読書装置215に挿入するとCPU201は記録媒体からプログラムを読み取って、RAM203に展開することで、実施形態1と同様の処理を実現することができる。
実施形態1、実施形態2では顔抽出を行うシステムとしているが、上述した処理は顔以外の任意の物体に対して適用可能である。例えば、人体全身、人体上半身、生物、自動車等がある。工業、流通分野等では生産物、部品、流通物品等の同定や検査等に適用できる。
また、本発明の目的は、以下のようにすることによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(又は記録媒体)を、システム或いは装置に供給する。そして、そのシステム或いは装置の中央演算処理手段(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本発明を構成することになる。
102 探索制御部
103 被写体判別部
104 被写体尤度情報記憶部
Claims (12)
- 動画像を入力する動画像入力手段と、
前記動画像の各フレームの被写体サイズ毎に被写体尤度情報を画像上の位置と関連付けて記憶する被写体尤度情報記憶手段と、
前記記憶手段に記憶されている被写体尤度情報に基づいてパターン切り出し位置を決定する決定手段と、
前記決定手段で決定されたパターン切り出し位置で切り出されたパターンの被写体尤度情報に基づいて、画像上の被写体を検出する被写体検出手段と、
を有することを特徴とする画像処理装置。 - 前記決定手段は、前記被写体尤度情報記憶手段に記憶されている被写体尤度情報のうち、所定の閾値よりも大きい被写体尤度情報に基づいてパターン切り出し位置を決定することを特徴とする請求項1に記載の画像処理装置。
- 前記決定手段は、前のフレームで決定したパターン切り出し位置以外の位置の被写体尤度情報を、前記位置とは異なる位置の被写体尤度情報に基づいて決定し、前記被写体尤度情報記憶手段に設定することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記決定手段は、複数のフレームに基づいて動きベクトル情報を生成し、前のフレームで決定したパターン切り出し位置以外の位置の被写体尤度情報を、前記動きベクトル情報に基づいて決定された位置の被写体尤度情報に基づいて決定し、前記被写体尤度情報記憶手段に設定することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記決定手段は、前記被写体尤度情報記憶手段に記憶されている被写体尤度情報に基づいてパターン切り出し位置を走査する際の移動量を決定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 画像処理装置における画像処理方法であって、
動画像を入力する動画像入力ステップと、
前記動画像の各フレームの被写体サイズ毎に被写体尤度情報を画像上の位置と関連付けて記憶する被写体尤度情報記憶手段に記憶されている被写体尤度情報に基づいてパターン切り出し位置を決定する決定ステップと、
前記決定ステップで決定されたパターン切り出し位置で切り出されたパターンの被写体尤度情報に基づいて、画像上の被写体を検出する被写体検出ステップと、
を有することを特徴とする画像処理方法。 - 前記決定ステップでは、前記被写体尤度情報記憶手段に記憶されている被写体尤度情報のうち、所定の閾値よりも大きい被写体尤度情報に基づいてパターン切り出し位置を決定することを特徴とする請求項6に記載の画像処理方法。
- 前記決定ステップでは、前のフレームで決定したパターン切り出し位置以外の位置の被写体尤度情報を、前記位置とは異なる位置の被写体尤度情報に基づいて決定し、前記被写体尤度情報記憶手段に設定することを特徴とする請求項6又は7に記載の画像処理方法。
- 前記決定ステップでは、複数のフレームに基づいて動きベクトル情報を生成し、前のフレームで決定したパターン切り出し位置以外の位置の被写体尤度情報を、前記動きベクトル情報に基づいて決定された位置の被写体尤度情報に基づいて決定し、前記被写体尤度情報記憶手段に設定することを特徴とする請求項6又は7に記載の画像処理方法。
- 前記決定ステップでは、前記被写体尤度情報記憶手段に記憶されている被写体尤度情報に基づいてパターン切り出し位置を走査する際の移動量を決定することを特徴とする請求項6乃至9の何れか1項に記載の画像処理方法。
- コンピュータに、
動画像を入力する動画像入力ステップと、
前記動画像の各フレームの被写体サイズ毎に被写体尤度情報を画像上の位置と関連付けて記憶する被写体尤度情報記憶手段に記憶されている被写体尤度情報に基づいてパターン切り出し位置を決定する決定ステップと、
前記決定ステップで決定されたパターン切り出し位置で切り出されたパターンの被写体尤度情報に基づいて、画像上の被写体を検出する被写体検出ステップと、
を実行させることを特徴とするプログラム。 - 請求項11に記載のプログラムを記憶したコンピュータにより読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005020A JP2010165052A (ja) | 2009-01-13 | 2009-01-13 | 画像処理装置及び画像処理方法 |
US12/685,521 US8913782B2 (en) | 2009-01-13 | 2010-01-11 | Object detection apparatus and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005020A JP2010165052A (ja) | 2009-01-13 | 2009-01-13 | 画像処理装置及び画像処理方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013143854A Division JP5693670B2 (ja) | 2013-07-09 | 2013-07-09 | 画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010165052A true JP2010165052A (ja) | 2010-07-29 |
Family
ID=42581179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009005020A Pending JP2010165052A (ja) | 2009-01-13 | 2009-01-13 | 画像処理装置及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8913782B2 (ja) |
JP (1) | JP2010165052A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013062688A (ja) * | 2011-09-13 | 2013-04-04 | Canon Inc | 画像処理装置、画像処理方法 |
WO2020071467A1 (ja) * | 2018-10-03 | 2020-04-09 | シャープ株式会社 | 映像処理装置、表示装置、および映像処理方法 |
WO2021054217A1 (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051376A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051375A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5528151B2 (ja) * | 2010-02-19 | 2014-06-25 | パナソニック株式会社 | 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム |
JP6161266B2 (ja) * | 2012-11-27 | 2017-07-12 | キヤノン株式会社 | 情報処理装置及びその制御方法及び電子デバイス及びプログラム及び記憶媒体 |
JP2014116716A (ja) * | 2012-12-07 | 2014-06-26 | Samsung Display Co Ltd | 追尾装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62202292A (ja) * | 1986-02-28 | 1987-09-05 | Matsushita Electric Ind Co Ltd | パタ−ンマツチング方法 |
JP2008033424A (ja) * | 2006-07-26 | 2008-02-14 | Canon Inc | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP2008250999A (ja) * | 2007-03-08 | 2008-10-16 | Omron Corp | 対象物追跡方法、対象物追跡装置および対象物追跡プログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06101018B2 (ja) * | 1991-08-29 | 1994-12-12 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 動画像データベースの検索 |
US5635982A (en) * | 1994-06-27 | 1997-06-03 | Zhang; Hong J. | System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions |
US5850470A (en) * | 1995-08-30 | 1998-12-15 | Siemens Corporate Research, Inc. | Neural network for locating and recognizing a deformable object |
US7143434B1 (en) * | 1998-11-06 | 2006-11-28 | Seungyup Paek | Video description system and method |
US6463163B1 (en) * | 1999-01-11 | 2002-10-08 | Hewlett-Packard Company | System and method for face detection using candidate image region selection |
US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
US6493163B1 (en) * | 2000-03-03 | 2002-12-10 | Cirrus Logic, Inc. | Increased lock range PLL for constrained data |
DE60213032T2 (de) * | 2001-05-22 | 2006-12-28 | Matsushita Electric Industrial Co. Ltd. | Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte |
US7212651B2 (en) * | 2003-06-17 | 2007-05-01 | Mitsubishi Electric Research Laboratories, Inc. | Detecting pedestrians using patterns of motion and appearance in videos |
US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
JP2005044330A (ja) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
JP4373828B2 (ja) * | 2004-03-22 | 2009-11-25 | 富士フイルム株式会社 | 特定領域検出方法、特定領域検出装置、およびプログラム |
WO2005114576A1 (ja) * | 2004-05-21 | 2005-12-01 | Asahi Kasei Kabushiki Kaisha | 動作内容判定装置 |
JP4574249B2 (ja) * | 2004-06-29 | 2010-11-04 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム、撮像装置 |
US7526101B2 (en) | 2005-01-24 | 2009-04-28 | Mitsubishi Electric Research Laboratories, Inc. | Tracking objects in videos with adaptive classifiers |
JP4744918B2 (ja) * | 2005-04-19 | 2011-08-10 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
EP1748378B1 (en) * | 2005-07-26 | 2009-09-16 | Canon Kabushiki Kaisha | Image capturing apparatus and image capturing method |
US8107676B2 (en) * | 2007-07-30 | 2012-01-31 | International Business Machines Corporation | Line length estimation |
US8315430B2 (en) * | 2007-11-07 | 2012-11-20 | Viewdle Inc. | Object recognition and database population for video indexing |
US8195598B2 (en) * | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
JP4535164B2 (ja) * | 2008-04-09 | 2010-09-01 | ソニー株式会社 | 撮像装置、画像処理装置、これらにおける画像解析方法およびプログラム |
US20090296989A1 (en) * | 2008-06-03 | 2009-12-03 | Siemens Corporate Research, Inc. | Method for Automatic Detection and Tracking of Multiple Objects |
JP4568357B2 (ja) * | 2008-06-30 | 2010-10-27 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 動画データから検索対象である動画コンテンツを含むシーンを検索するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム |
US8194938B2 (en) * | 2009-06-02 | 2012-06-05 | George Mason Intellectual Properties, Inc. | Face authentication using recognition-by-parts, boosting, and transduction |
-
2009
- 2009-01-13 JP JP2009005020A patent/JP2010165052A/ja active Pending
-
2010
- 2010-01-11 US US12/685,521 patent/US8913782B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62202292A (ja) * | 1986-02-28 | 1987-09-05 | Matsushita Electric Ind Co Ltd | パタ−ンマツチング方法 |
JP2008033424A (ja) * | 2006-07-26 | 2008-02-14 | Canon Inc | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP2008250999A (ja) * | 2007-03-08 | 2008-10-16 | Omron Corp | 対象物追跡方法、対象物追跡装置および対象物追跡プログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013062688A (ja) * | 2011-09-13 | 2013-04-04 | Canon Inc | 画像処理装置、画像処理方法 |
WO2020071467A1 (ja) * | 2018-10-03 | 2020-04-09 | シャープ株式会社 | 映像処理装置、表示装置、および映像処理方法 |
WO2021054217A1 (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051376A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2021051375A (ja) * | 2019-09-20 | 2021-04-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7479809B2 (ja) | 2019-09-20 | 2024-05-09 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US8913782B2 (en) | 2014-12-16 |
US20100226538A1 (en) | 2010-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4933186B2 (ja) | 画像処理装置、画像処理方法、プログラム及び記憶媒体 | |
US10467458B2 (en) | Joint face-detection and head-pose-angle-estimation using small-scale convolutional neural network (CNN) modules for embedded systems | |
CN107895150B (zh) | 基于嵌入式***小规模卷积神经网络模块的人脸检测和头部姿态角评估 | |
KR102519085B1 (ko) | 로컬 및 글로벌 모션에 효율적인 멀티-프레임 초해상도 방법 및 장치 | |
JP2010165052A (ja) | 画像処理装置及び画像処理方法 | |
JP5517504B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2011080900A1 (ja) | 移動体検出装置および移動体検出方法 | |
JP2008234654A (ja) | 目標画像検出方法及び画像検出装置 | |
JP5671928B2 (ja) | 学習装置、学習方法、識別装置、識別方法、およびプログラム | |
CN115298638A (zh) | 用于基于手势控制设备的方法和*** | |
JP4724638B2 (ja) | オブジェクト検出方法 | |
JP6095817B1 (ja) | 物体検出装置 | |
JP5294798B2 (ja) | 画像処理装置及び画像処理方法 | |
US20130342559A1 (en) | Temporally consistent superpixels | |
JP2012073684A (ja) | 画像認識方法及び装置並びにプログラム | |
US9053354B2 (en) | Fast face detection technique | |
JP2010160743A (ja) | 物体検知装置及び物体検知方法 | |
JP5258506B2 (ja) | 情報処理装置 | |
JP2007025902A (ja) | 画像処理装置、画像処理方法 | |
US9842260B2 (en) | Image processing apparatus and image processing method of performing image segmentation | |
JP5335554B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2010211460A (ja) | 識別モデル生成装置、対象物検出装置、及び識別モデル生成プログラム | |
JP2006323779A (ja) | 画像処理方法、画像処理装置 | |
JP5702960B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2013011950A (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130409 |