JP2007034733A - 対象物領域検出装置、方法およびプログラム - Google Patents
対象物領域検出装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2007034733A JP2007034733A JP2005217792A JP2005217792A JP2007034733A JP 2007034733 A JP2007034733 A JP 2007034733A JP 2005217792 A JP2005217792 A JP 2005217792A JP 2005217792 A JP2005217792 A JP 2005217792A JP 2007034733 A JP2007034733 A JP 2007034733A
- Authority
- JP
- Japan
- Prior art keywords
- reference frame
- frame
- image
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
【課題】対象物領域を確実に得る。
【解決手段】画像フレームを入力する手段104と、画像フレーム内で対象物を検出して該対象物の位置を取得する手段102と、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する手段105と、参照フレームから、画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により少なくとも1以上の参照フレームを選択する手段105と、選択された参照フレームの画素値と画像フレームの画素値とが異なっている領域である差分領域を検出する手段106と、差分領域に基づいて、画像フレーム内の対象物が存在する領域を特定する手段107と、画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する手段103と、を備える。
【選択図】図1
【解決手段】画像フレームを入力する手段104と、画像フレーム内で対象物を検出して該対象物の位置を取得する手段102と、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する手段105と、参照フレームから、画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により少なくとも1以上の参照フレームを選択する手段105と、選択された参照フレームの画素値と画像フレームの画素値とが異なっている領域である差分領域を検出する手段106と、差分領域に基づいて、画像フレーム内の対象物が存在する領域を特定する手段107と、画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する手段103と、を備える。
【選択図】図1
Description
本発明は、例えば、画像中の背景領域を別の画像に置き換えるための、対象物領域検出装置、方法およびプログラムに関する。
対象物を検出する技術として、フレーム間差分が知られている(例えば、特許文献1参照)。この方法では、対象物の領域を得るために前のフレームを用いて差分を算出する。この方法は、移動する対象物領域の大まかな検出に有効であり、例えば、現フレームと参照フレームにおける対象物の領域の両方が混じった領域が得られる。
特開2000−082145公報
上述した、対象物の領域を得るために前のフレームを用いて差分を算出する手法では、決められた時間内に対象物の動きが少ない場合には差分領域が検出されず、対象物の領域が得られない可能性がある。また、既知のフレームにおいて誤りが発生すると以後のフレームでは誤った情報に基づいて目標物の位置を推測するために、目標物の位置を正しく知ることができない可能性がある。
この発明は、上述した事情を考慮してなされたものであり、対象物の動きが少ない場合でも対象物領域を得ることができる対象物領域検出装置、方法およびプログラムを提供することを目的とする。
上述の課題を解決するため、本発明の対象物領域検出装置は、画像フレームを入力する入力手段と、前記画像フレーム内で対象物を検出して該対象物の位置を取得する位置取得手段と、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する参照画像取得手段と、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択する参照フレーム選択手段と、前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出する差分領域検出手段と、前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定する対象物領域特定手段と、前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する記憶手段と、を具備することを特徴とする。
本発明の対象物領域検出方法は、画像フレームを入力し、前記画像フレーム内で対象物を検出して該対象物の位置を取得し、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得し、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択し、前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出し、前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定し、前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶することを特徴とする。
本発明の対象物領域検出プログラムは、コンピュータを、
画像フレームを入力する入力手段と、前記画像フレーム内で対象物を検出して該対象物の位置を取得する位置取得手段と、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する参照画像取得手段と、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択する参照フレーム選択手段と、前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出する差分領域検出手段と、前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定する対象物領域特定手段と、前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する記憶手段として機能させるためのものである。
画像フレームを入力する入力手段と、前記画像フレーム内で対象物を検出して該対象物の位置を取得する位置取得手段と、参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する参照画像取得手段と、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択する参照フレーム選択手段と、前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出する差分領域検出手段と、前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定する対象物領域特定手段と、前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する記憶手段として機能させるためのものである。
本発明の対象物領域検出装置、方法およびプログラムによれば、対象物の動きが少ない場合でも対象物領域を得ることができる。
以下、図面を参照しながら本発明の実施形態に係る対象物領域検出装置、方法およびプログラムについて詳細に説明する。
(基本的な考え方、用語説明)
はじめに、本発明の実施形態に係る基本的な考え方を説明する。
フレーム間差分法は、フレームごとに別の位置に対象物が存在すると考えて、数フレーム前の画像を参照フレームとし、それと現フレームとの差分領域を算出することで、対象物の領域を求める手法である(詳細は後に図4を参照して説明する)。この手法は別の位置に対象物が存在する限り成功するが、対象物が移動しない場合には失敗する。
そこで、本発明の実施形態では、いつも数フレーム前の画像を参照フレームとするのではなく、常に参照フレームと現フレームとの差分領域が存在する状態となるように参照フレームを適切に選択する。差分領域を安定して得るには、対象物の位置(対象物位置)が可能な限り離れたフレームを差分算出の参照フレームとすればよい。差分領域の算出に適した参照フレームを選択することで、対象物の動きが少ない場合でも対象物領域が得られる。この選択を簡単に実現するには、対象物のいない状態で背景のみのフレームを予め撮影し、このフレームを参照フレームとする背景差分法を利用することである。
しかし、例えば、背景差分法を、ゲーム機やテレビ電話に接続されたカメラの映像に適用する場合、ユーザを予めカメラから映らない場所に移動させる必要があり、ユーザに負担を強いることになる。そこで、例えば、過去の数フレーム〜数十フレームの画像に対して画素ごとに中央値を算出し、これを参照フレームとする方法が考えられる。しかし、それら過去の数フレーム〜数十フレームで対象物が全く移動していない場合には対象物を検出することができない。
(基本的な考え方、用語説明)
はじめに、本発明の実施形態に係る基本的な考え方を説明する。
フレーム間差分法は、フレームごとに別の位置に対象物が存在すると考えて、数フレーム前の画像を参照フレームとし、それと現フレームとの差分領域を算出することで、対象物の領域を求める手法である(詳細は後に図4を参照して説明する)。この手法は別の位置に対象物が存在する限り成功するが、対象物が移動しない場合には失敗する。
そこで、本発明の実施形態では、いつも数フレーム前の画像を参照フレームとするのではなく、常に参照フレームと現フレームとの差分領域が存在する状態となるように参照フレームを適切に選択する。差分領域を安定して得るには、対象物の位置(対象物位置)が可能な限り離れたフレームを差分算出の参照フレームとすればよい。差分領域の算出に適した参照フレームを選択することで、対象物の動きが少ない場合でも対象物領域が得られる。この選択を簡単に実現するには、対象物のいない状態で背景のみのフレームを予め撮影し、このフレームを参照フレームとする背景差分法を利用することである。
しかし、例えば、背景差分法を、ゲーム機やテレビ電話に接続されたカメラの映像に適用する場合、ユーザを予めカメラから映らない場所に移動させる必要があり、ユーザに負担を強いることになる。そこで、例えば、過去の数フレーム〜数十フレームの画像に対して画素ごとに中央値を算出し、これを参照フレームとする方法が考えられる。しかし、それら過去の数フレーム〜数十フレームで対象物が全く移動していない場合には対象物を検出することができない。
この問題を避けるには、現フレームで対象物が存在する位置に、過去の複数のフレームから対象物が存在していないフレームを参照フレームとして選択すればよい。これを実現するには、例えば、各フレームで対象物の位置を何らかの手法で検出し、この位置に基づいて参照フレームの選択を行えばよい。本発明の実施形態では、この考えに基づいて参照フレームを選択する。
このように、対象物の検出技術を用いることで、誤りが発生してもその誤りが以後の結果に影響を及ぼすことがない。したがって、公知技術と違い誤った後のフレームであっても、目標物の位置を正しく知ることができる。
このように、対象物の検出技術を用いることで、誤りが発生してもその誤りが以後の結果に影響を及ぼすことがない。したがって、公知技術と違い誤った後のフレームであっても、目標物の位置を正しく知ることができる。
(対象物領域検出装置の構成)
本実施形態の対象物領域検出装置について図1を参照して説明する。
本実施形態の対象物領域検出装置は、現フレーム入力部101、対象物検出部102、参照フレーム保存可否選択部103、参照フレーム位置保存部104、参照フレーム選択部105、フレーム間差分部106、出力領域決定部107、領域出力部108を備えている。
本実施形態の対象物領域検出装置について図1を参照して説明する。
本実施形態の対象物領域検出装置は、現フレーム入力部101、対象物検出部102、参照フレーム保存可否選択部103、参照フレーム位置保存部104、参照フレーム選択部105、フレーム間差分部106、出力領域決定部107、領域出力部108を備えている。
現フレーム入力部101は、撮影で得られた、現在の画像フレーム(現フレーム)を撮影部(図示せず)から入力する。撮影部は、対象を撮影して現フレームを生成する。
対象物検出部102は、現フレーム入力部101が入力した現フレームに後述の対象物検出手法を適用し、現フレームの対象物位置を得る。なお、対象物検出手法によっては、対象物位置は複数得られることもある。対象物としては、顏、全身、車など多様な対象を適用する。対象物は小さいものが望ましい。
参照フレーム保存可否選択部103は、次以降のフレームの処理のために、現フレーム入力部101が入力した現フレームの画像と、対象物検出部102が検出した、現フレームの対象物位置とを保存する。すなわち、これらの保存されたフレームとフレームの対象物位置とは、次以降の処理での参照フレームと参照フレームの対象物位置となる。参照フレーム保存可否選択部103の記憶容量に余裕があれば、多数のフレームを保存しておいてもよい。多数のフレームを保存しておいた場合、参照フレーム選択部105が行う、参照フレームでの対象物位置と現フレームでの対象物位置との比較は対象物位置だけで行われるため、保存された参照フレーム数が多くても処理時間はあまり大きくならない。
また、参照フレーム保存可否選択部103は、何らかの基準にしたがってフレームの画像を保存するか否かを決めて選択的に保存してもよい。保存の基準としては、例えば、参照フレームを3枚としておき、画像サイズの幅をWとして、各参照フレームの対象物位置のx座標(水平座標)がそれぞれx=0、W/2、Wの3点に近くなるかを基準とする手法がある。この基準を使う場合は、予め定められたx座標と参照フレームのx座標との差(水平距離)よりも、予め定められたx座標と現フレームのx座標との差(水平距離)のほうが小さいときに、参照フレームを現フレームで置き換える。他の例としては、参照フレームを2枚として、x=0、Wの2点を基準として上記と同じ基準で参照フレームを現フレームで置き換えることをしてもよいし、ここに述べた以外の座標を基準としてもよいし、参照フレームを4枚以上の別途定めた値としてもよい。ここではx座標で説明したが、基準となるy座標を定めてその垂直距離を用いてもよいし、基準位置(x、y)と現フレームの対象物位置とのユークリッド距離を用いてもよい。なお、このように基準位置との距離を用いる手法は、対象物検出を必要としないため、後述の対象物検出を毎フレーム行わずに計算量を減らす場合にも有効である。
また、参照フレーム保存可否選択部103は、何らかの基準にしたがってフレームの画像を保存するか否かを決めて選択的に保存してもよい。保存の基準としては、例えば、参照フレームを3枚としておき、画像サイズの幅をWとして、各参照フレームの対象物位置のx座標(水平座標)がそれぞれx=0、W/2、Wの3点に近くなるかを基準とする手法がある。この基準を使う場合は、予め定められたx座標と参照フレームのx座標との差(水平距離)よりも、予め定められたx座標と現フレームのx座標との差(水平距離)のほうが小さいときに、参照フレームを現フレームで置き換える。他の例としては、参照フレームを2枚として、x=0、Wの2点を基準として上記と同じ基準で参照フレームを現フレームで置き換えることをしてもよいし、ここに述べた以外の座標を基準としてもよいし、参照フレームを4枚以上の別途定めた値としてもよい。ここではx座標で説明したが、基準となるy座標を定めてその垂直距離を用いてもよいし、基準位置(x、y)と現フレームの対象物位置とのユークリッド距離を用いてもよい。なお、このように基準位置との距離を用いる手法は、対象物検出を必要としないため、後述の対象物検出を毎フレーム行わずに計算量を減らす場合にも有効である。
参照フレーム位置保存部104は、参照フレーム保存可否選択部103が選択した、参照フレームと、この参照フレームでの対象物位置とを保存する。参照フレーム位置保存部104は、通常、複数の参照フレームとこれら参照フレームでの対象物位置を保存している。
参照フレーム選択部105は、参照フレーム位置保存部104に保存された複数の参照フレームのなかから、現フレームとの差分を求めるのに適した参照フレームを選択する。このとき、参照フレーム選択部105は、選択した参照フレームを取得すると同時にこの参照フレームでの対象物位置も取得する。参照フレーム選択部105は、対象物検出部102から現フレームでの対象物位置を取得し、参照フレームでの対象物位置と現フレームでの対象物位置とを比較する。参照フレーム選択部105が参照フレームを選択する場合、例えば、参照フレームの対象物位置と現フレームの対象物位置とのユークリッド距離が最も大きいものを選択する。また、参照フレーム選択部105が対象物検出部102から現フレームの対象物位置を複数得た場合でも、例えば、それぞれの対象物に対しユークリッド距離を求め、それらの最小値が最も大きいものを選択する。
フレーム間差分部106は、参照フレーム選択部105が選択した参照フレームと現フレーム入力部101が入力した現フレームとの差分領域を算出する。ここで、差分領域の算出では、例えば、画素ごとの画素値(例えば、輝度値のような強度や、RGB値のような色をあらわすベクトル)の距離(例えば、市街地距離やユークリッド距離)が予め定めたしきい値以下の領域を差分領域とする。
出力領域決定部107は、得られた差分領域をもとに対象物領域を決定する。出力領域決定部107は、差分領域をそのまま対象物領域としてもよい。これとは別に、出力領域決定部107は、例えば、得られた差分領域の構成画素数を数え、構成画素数が一定数以下の領域を除去した領域を対象物領域としてもよい。他に、得られた差分領域に膨張・収縮と呼ばれるフィルタ(例えば、特開2000−78564公報参照)を適用して、ノイズの軽減をはかった差分領域を対象物領域としてもよい。また、得られた差分領域と対象物検出部102が得た対象物位置とを比較し、対象物の存在しない領域を除去した差分領域を対象物領域としてもよい。
領域出力部108は、出力領域決定部107が決定した対象物領域を出力する。
(対象物領域検出装置の動作例)
次に、図1の対象物領域検出装置の動作について図2を参照して説明する。
図1の対象物領域検出装置はフレームごとに以下の処理を行う。この処理の前に、参照フレーム位置保存部104は、予め、1枚以上の参照フレームとこの参照フレームでの対象物位置を保存しておく。通常は、参照フレーム位置保存部104は複数の参照フレームとこの参照フレームでの対象物位置とを保存している。参照フレームの対象物位置が異なる3枚以上の参照フレームが参照フレーム位置保存部104にあると精度が上がる可能性が高いが、参照フレームは1枚でも構わない。また、参照フレーム位置保存部104に保存されている参照フレームのうちからランダムに参照フレームを採用してもよい。一般に参照フレームの数が多いほど、精度はよくなる。
はじめに、現フレーム入力部101が、撮影などで得られた現在の画像フレーム(現フレーム)を入力する(ステップS201)。次に、対象物検出部102が、現フレームに後述の対象物検出手法を適用し、現フレームの対象物位置を得る(ステップS202)。次に、参照フレーム選択部105が、参照フレーム位置保存部104に予め保存された複数の参照フレームのうちから1つの参照フレームを選択し、この参照フレームが現フレームの対象物領域の検出に適するか否かを判定する(ステップS203)。適しないと判定した場合にはステップS205に進み、適すると判定した場合にはステップS204に進む。
ここで、ある参照フレームが現フレームの対象物領域の検出に適するか否かを判定するための判定条件は、上述したようにユークリッド距離のみに基づいて判定する場合もあるが、より一般性を持つ手法では、次の評価関数Eに基づいて判定する。例えば、この評価関数Eが最も小さくなる参照フレームを選択する。また、或るしきい値Ethを設定して、しきい値Ethよりも小さくなる参照フレームをすべて選択してもよい。評価関数Eは、
E=α×t+β×size+γ×place
である。ここで、tは現フレームと或る参照フレームとの時間差を示し、sizeは現フレームの対象物領域の大きさを示し、placeは基準位置からの対象物領域の距離を示す。対象物領域の大きさ、基準位置からの対象物領域の距離は、ユークリッド距離に基づいて決定される。対象物領域の大きさは、現フレームでの対象物領域と対象となる参照フレームでの対象物領域との差分で代替してもよい。この場合、参照フレーム保存可否選択部103には対象物の大きさも記憶しておく。また、基準位置は、予め設定した基準となる位置であり、座標の原点に対応する。基準位置として、例えば、画像の右端の位置をとる。α、β、γは、或る数字であり、設定値として予め設定される。通常、α>0、β>0、γ<0である。
次に、図1の対象物領域検出装置の動作について図2を参照して説明する。
図1の対象物領域検出装置はフレームごとに以下の処理を行う。この処理の前に、参照フレーム位置保存部104は、予め、1枚以上の参照フレームとこの参照フレームでの対象物位置を保存しておく。通常は、参照フレーム位置保存部104は複数の参照フレームとこの参照フレームでの対象物位置とを保存している。参照フレームの対象物位置が異なる3枚以上の参照フレームが参照フレーム位置保存部104にあると精度が上がる可能性が高いが、参照フレームは1枚でも構わない。また、参照フレーム位置保存部104に保存されている参照フレームのうちからランダムに参照フレームを採用してもよい。一般に参照フレームの数が多いほど、精度はよくなる。
はじめに、現フレーム入力部101が、撮影などで得られた現在の画像フレーム(現フレーム)を入力する(ステップS201)。次に、対象物検出部102が、現フレームに後述の対象物検出手法を適用し、現フレームの対象物位置を得る(ステップS202)。次に、参照フレーム選択部105が、参照フレーム位置保存部104に予め保存された複数の参照フレームのうちから1つの参照フレームを選択し、この参照フレームが現フレームの対象物領域の検出に適するか否かを判定する(ステップS203)。適しないと判定した場合にはステップS205に進み、適すると判定した場合にはステップS204に進む。
ここで、ある参照フレームが現フレームの対象物領域の検出に適するか否かを判定するための判定条件は、上述したようにユークリッド距離のみに基づいて判定する場合もあるが、より一般性を持つ手法では、次の評価関数Eに基づいて判定する。例えば、この評価関数Eが最も小さくなる参照フレームを選択する。また、或るしきい値Ethを設定して、しきい値Ethよりも小さくなる参照フレームをすべて選択してもよい。評価関数Eは、
E=α×t+β×size+γ×place
である。ここで、tは現フレームと或る参照フレームとの時間差を示し、sizeは現フレームの対象物領域の大きさを示し、placeは基準位置からの対象物領域の距離を示す。対象物領域の大きさ、基準位置からの対象物領域の距離は、ユークリッド距離に基づいて決定される。対象物領域の大きさは、現フレームでの対象物領域と対象となる参照フレームでの対象物領域との差分で代替してもよい。この場合、参照フレーム保存可否選択部103には対象物の大きさも記憶しておく。また、基準位置は、予め設定した基準となる位置であり、座標の原点に対応する。基準位置として、例えば、画像の右端の位置をとる。α、β、γは、或る数字であり、設定値として予め設定される。通常、α>0、β>0、γ<0である。
次に、参照フレーム選択部105は、或る参照フレームでしきい値Ethよりも小さくなる場合には、この参照フレームを対象物領域の検出に好適であるとして選択する(ステップS204)。そして、参照フレーム選択部105が、参照フレーム位置保存部104に予め保存された全ての参照フレームについてステップS203の判定が完了したか否かを判定する(ステップS205)。全ての参照フレームについて判定が完了した場合にはステップS206に進み、完了していない場合にはステップS203に戻る。
次に、フレーム間差分部106が選択した参照フレームと現フレームの差分領域を算出する(ステップS206)。ここで、参照フレームが1つの場合での差分領域の算出では、ピクセルごとに、参照フレームでの画素の値(例えば、輝度値のような強度や、RGB値のような色をあらわすベクトル)と現フレームでの画素の値を引き算して、引き算した値が予め定めたしきい値以下の場合は画素値を1としてこの画素値1のピクセルは差分領域に含まれるとする。
参照フレームが複数枚ある場合には、フレーム間差分部106が各参照フレームと現フレームとの間で上述したように差分領域を算出する。そして、フレーム間差分部106は、画素ごとに、各参照フレームに基づいて引き算した画素値が1であるか0であるかをカウントし全参照フレームに対して和をとり、この和が予め定めたしきい値枚数以上である場合にはこの画素は差分領域に含まれるとする。しきい値枚数未満の場合はこの画素は差分領域に含まれないとする。例えば、参照フレームが100枚あって、しきい値枚数が60枚であるとする。この場合は、或る画素において全参照フレームに対してとる和は、
1+0+1+1+…+0(項数は100)
となり、この和が60以上である場合にはこの画素は差分領域に含まれるとする。
参照フレームが複数枚ある場合には、フレーム間差分部106が各参照フレームと現フレームとの間で上述したように差分領域を算出する。そして、フレーム間差分部106は、画素ごとに、各参照フレームに基づいて引き算した画素値が1であるか0であるかをカウントし全参照フレームに対して和をとり、この和が予め定めたしきい値枚数以上である場合にはこの画素は差分領域に含まれるとする。しきい値枚数未満の場合はこの画素は差分領域に含まれないとする。例えば、参照フレームが100枚あって、しきい値枚数が60枚であるとする。この場合は、或る画素において全参照フレームに対してとる和は、
1+0+1+1+…+0(項数は100)
となり、この和が60以上である場合にはこの画素は差分領域に含まれるとする。
次に、ステップS206で得られた差分領域をもとに対象物領域を決定し出力する(ステップS207)。ステップS207では差分領域をそのまま出力してもよい。また、例えば、得られた各領域の構成画素数を数え、構成画素数が一定数以下の領域を除去してもよい。また、得られた各領域とステップS202で得られた対象物位置を比較し、対象物の存在しない領域を除去してもよい。
最後に、次のフレーム以降の処理のために、参照フレーム保存可否選択部103は、現フレームの画像と、ステップS202で検出した対象物位置とを保存する(ステップS208)。
(対象物検出手法の例)
次に、対象物検出手法の例について述べる。対象物検出手法とは、既知のターゲットを検出する手法のことである。例えば、予め顔や人物など対象とするもののテンプレートパターンを準備しておき、ブロックマッチングや一般化ハフ変換のようなテンプレート照合手法がこれにあたる。例えば、図3に示したように、対象物の位置を基準としてテンプレートを配置する。図3は人物を対象とする場合である。
対象物検出手法は、多くの手法が知られており、このうち顔を検出するいくつかの手法は、「Ming-Hsuan Yang et al., ``Detecting Faces in Images: A Survey,’’ IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 24, no. 1, Jan. 2002」に示されている。なお、本実施形態では対象物検出をフレームごとに行う例を述べたが、例えば参照フレームの選択・保存を数フレームおきに行うこととし、それを行わない間は最後に選択された参照フレームを使うか、参照フレームの選択を対象物の位置を使わずに行うようにしてもよい。この場合、対象物検出の回数を減らすことができる。また、先に述べた基準位置との距離を用いて同様に対象物検出の回数を減らしてもよい。
次に、対象物検出手法の例について述べる。対象物検出手法とは、既知のターゲットを検出する手法のことである。例えば、予め顔や人物など対象とするもののテンプレートパターンを準備しておき、ブロックマッチングや一般化ハフ変換のようなテンプレート照合手法がこれにあたる。例えば、図3に示したように、対象物の位置を基準としてテンプレートを配置する。図3は人物を対象とする場合である。
対象物検出手法は、多くの手法が知られており、このうち顔を検出するいくつかの手法は、「Ming-Hsuan Yang et al., ``Detecting Faces in Images: A Survey,’’ IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 24, no. 1, Jan. 2002」に示されている。なお、本実施形態では対象物検出をフレームごとに行う例を述べたが、例えば参照フレームの選択・保存を数フレームおきに行うこととし、それを行わない間は最後に選択された参照フレームを使うか、参照フレームの選択を対象物の位置を使わずに行うようにしてもよい。この場合、対象物検出の回数を減らすことができる。また、先に述べた基準位置との距離を用いて同様に対象物検出の回数を減らしてもよい。
(フレーム間差分)
次に、フレーム間差分について図4、図5を参照して説明する。
フレーム間差分法とはフレームごとに別の位置に対象物が存在する参照フレーム401と、それと現フレーム402との差分領域403を算出することによって、図4のように対象物の領域を求める手法である。差分領域403は、現フレームと参照フレームにおける対象物の領域の両方が混じった領域となる。これは別の位置に対象物が存在する限り成功するが、対象物が移動しない場合には失敗する。そこで、参照フレーム選択部105は、いつも数フレーム前の画像を参照フレームとするのではなく、常に図4のような状態となるように参照フレームを適切に選択する必要がある。
次に、フレーム間差分について図4、図5を参照して説明する。
フレーム間差分法とはフレームごとに別の位置に対象物が存在する参照フレーム401と、それと現フレーム402との差分領域403を算出することによって、図4のように対象物の領域を求める手法である。差分領域403は、現フレームと参照フレームにおける対象物の領域の両方が混じった領域となる。これは別の位置に対象物が存在する限り成功するが、対象物が移動しない場合には失敗する。そこで、参照フレーム選択部105は、いつも数フレーム前の画像を参照フレームとするのではなく、常に図4のような状態となるように参照フレームを適切に選択する必要がある。
参照フレーム保存可否選択部103は、図5に示すように、対象物の位置が異なる複数枚の参照フレームを保存していることが望ましい。図5の例は、人物が画面の左側、中央、右側のいずれかにいる場合である。この例の場合では、参照フレーム保存可否選択部103は、図5に示した、人物が画面の左側、中央、右側にそれぞれいる場合に対応している参照フレーム501,502,503を保存しておけばよい。これらの参照フレームがあれば、現フレームが、人物が画面の左側にいるフレーム504、人物が画面の中央にいるフレーム505、人物が画面の右側にいるフレーム506のいずれであっても、参照フレーム501,502,503のいずれかは現フレームに対して差分領域が存在する。したがって、参照フレーム保存可否選択部103が図5に示したような参照フレームを保存しておけば、全ての場合において人物を検出することができる。
(フレーム間差分AND法のときの例)
フレーム間差分と論理積を用いる場合について、図6のフローチャートおよび図7にしたがって説明する。この手法では、フレームごとに以下の処理を行う。参照フレーム保存可否選択部103は、予め、2枚以上の参照フレームとその対象物位置を保存しておく。以下、既に説明したステップと同様なものは同一の番号を付してその説明を省略する。
図6のステップS203〜ステップS205では図2の場合と同様に参照フレームの選択を行うが、このとき参照フレーム選択部105は、第1の参照フレームの対象物位置と第2の参照フレームの対象物位置が離れているように選択する。この選択は、例えば、まず第1の参照フレームをステップS203〜ステップS205で述べた手法で選択し、第2の参照フレームの選択においては、現フレームの対象物位置との距離および第1の参照フレームの対象物位置との距離のうち小さいほうの値が最大となる参照フレームを選択すればよい。その結果、例えば、図7の第1参照フレーム701、第2参照フレーム703のように、対象物(この例では人物)の位置が第1参照フレーム701と、第2参照フレーム703とで異なる。
フレーム間差分と論理積を用いる場合について、図6のフローチャートおよび図7にしたがって説明する。この手法では、フレームごとに以下の処理を行う。参照フレーム保存可否選択部103は、予め、2枚以上の参照フレームとその対象物位置を保存しておく。以下、既に説明したステップと同様なものは同一の番号を付してその説明を省略する。
図6のステップS203〜ステップS205では図2の場合と同様に参照フレームの選択を行うが、このとき参照フレーム選択部105は、第1の参照フレームの対象物位置と第2の参照フレームの対象物位置が離れているように選択する。この選択は、例えば、まず第1の参照フレームをステップS203〜ステップS205で述べた手法で選択し、第2の参照フレームの選択においては、現フレームの対象物位置との距離および第1の参照フレームの対象物位置との距離のうち小さいほうの値が最大となる参照フレームを選択すればよい。その結果、例えば、図7の第1参照フレーム701、第2参照フレーム703のように、対象物(この例では人物)の位置が第1参照フレーム701と、第2参照フレーム703とで異なる。
ステップS601、ステップS602では、ステップS206でのように、それぞれ第1、第2の参照フレームとの差分領域を求め(図7の704、705)、ステップS603でその論理積の領域を求める(図7の706)。ステップS604では得られた領域を出力する。なお、ステップS604では、出力領域決定部107は、差分領域をそのまま対象物領域としてもよい。これとは別に、出力領域決定部107は、例えば、得られた差分領域の構成画素数を数え、構成画素数が一定数以下の領域を除去した領域を対象物領域としてもよい。他に、得られた差分領域に膨張・収縮と呼ばれるフィルタ(例えば、特開2000−78564公報参照)を適用して、ノイズの軽減をはかった差分領域を対象物領域としてもよい。また、得られた差分領域と対象物検出部102が得た対象物位置とを比較し、対象物の存在しない領域を除去した差分領域を対象物領域としてもよい。最後に、次のフレーム以降の処理のために、現フレームの画像と対象物位置を保存する(ステップS208)。
なお、フレーム間差分と論理積を用いる実施形態において、ステップS208は、最後に行われる必要はなく、ステップS203よりも前に行われてもよい。このフローチャートを第8図に示しこの図を参照して説明する。
ステップS801で参照フレームとして保存すべきかを判定し(常に保存するのであればステップS801はなくてもよい)、保存すると判定された場合にはステップS802でこの参照フレームを保存する。また、図2のフローチャートの場合も同様にステップS208はステップS203の前に行ってもよい。このときは、図2から図8のステップS801〜ステップS802と同じステップをステップS203の前に挿入し、ステップS208を削除したフローチャートにしたがって実施する。
ステップS801で参照フレームとして保存すべきかを判定し(常に保存するのであればステップS801はなくてもよい)、保存すると判定された場合にはステップS802でこの参照フレームを保存する。また、図2のフローチャートの場合も同様にステップS208はステップS203の前に行ってもよい。このときは、図2から図8のステップS801〜ステップS802と同じステップをステップS203の前に挿入し、ステップS208を削除したフローチャートにしたがって実施する。
(応用例:はじめは顔検出のみ、参照フレームを得たら切り替える)
次に、応用例として、テレビ電話において、不要な背景を除去し予め準備した背景に置き換えるために、上述した実施形態を利用する。上述した実施形態の例では、保存された参照フレームが存在することを前提としていた。テレビ電話では、電源を入れた直後には参照フレームが存在しない。したがって、対象物領域の検出に適した参照フレームが得られるまでは、対象物領域を正しく検出することができない。
次に、応用例として、テレビ電話において、不要な背景を除去し予め準備した背景に置き換えるために、上述した実施形態を利用する。上述した実施形態の例では、保存された参照フレームが存在することを前提としていた。テレビ電話では、電源を入れた直後には参照フレームが存在しない。したがって、対象物領域の検出に適した参照フレームが得られるまでは、対象物領域を正しく検出することができない。
ここで、本実施形態では対象物検出を行っていることに着目すると、例えば、テレビ電話では人物の上半身が映っている可能性が高いため、図3のように、予め人物の上半身のテンプレートを準備しておき、対象物として顔を検出し、得られた顔の位置を基準にこのテンプレートを配置すれば、対象物の大まかな領域が得られる。これにより、何も検出されない電源投入直後でも対象物領域の検出が可能になる。テンプレートの配置で得られる対象物領域は輪郭などがずれることが多いため、このずれを輪郭補正の手法、例えば非特許文献「Kass, A. Witkin, and D. Terzopoulos, ``Snakes: Active contour models,’’ International Journal of Computer Vision, vol. 1, no. 4, pp. 321-331, 1987」の手法や非特許文献「Takashi Ida and Yoko Sambonsugi, ``Self-Affine Mapping System and Its Application to Object Contour Extraction,’’ IEEE Transactions on Image Processing, Vol.9, No.11, November 2000」の手法により補正してもよい。以上に述べた手法により、対象物の動きが少ない場合でも対象物領域が得られるようになる。
以上に示した実施形態によれば、差分領域の算出に適した参照フレームを選択することにより、対象物の動きが少ない場合でも対象物領域を得ることができる。
また、上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の対象物領域検出装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の対象物領域検出装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーションシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーションシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本願発明におけるコンピュータまたは組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
101…現フレーム入力部、102…対象物検出部、103…参照フレーム保存可否選択部、104…参照フレーム位置保存部、105…参照フレーム選択部、106…フレーム間差分部、107…出力領域決定部、108…領域出力部。
Claims (27)
- 画像フレームを入力する入力手段と、
前記画像フレーム内で対象物を検出して該対象物の位置を取得する位置取得手段と、
参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する参照画像取得手段と、
前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択する参照フレーム選択手段と、
前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出する差分領域検出手段と、
前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定する対象物領域特定手段と、
前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する記憶手段と、を具備することを特徴とする対象物領域検出装置。 - 前記参照フレーム選択手段は、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記評価基準として前記参照フレーム内の対象物の位置との距離が或るしきい値よりも大きくなる参照フレームを選択することを採用することを特徴とする請求項1に記載の対象物領域検出装置。
- 前記参照フレーム選択手段は、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記画像フレーム内の対象物の大きさと前記参照フレーム内の対象物の大きさとの差分をそれぞれの前記参照フレームに対して求め、
前記評価基準として、前記距離にマイナス符号を掛けた値と前記差分との重み付け和が或るしきい値よりも小さくなる参照フレームを選択することを採用することを特徴とする請求項1に記載の対象物領域検出装置。 - 前記参照フレーム選択手段は、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりが最も少ないものから順に少なくとも1以上の参照フレームを選択することを特徴とする請求項1に記載の対象物領域検出装置。
- 前記参照フレーム選択手段は、
前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、該距離が最大となる参照フレームを選択することを特徴とする請求項1に記載の対象物領域検出装置。 - 前記参照フレーム選択手段は、第1の参照フレームと第2の参照フレームとを選択し、
前記差分領域検出手段は、前記第1の参照フレームに対する第1の差分領域を検出し、前記第2の参照フレームに対する第2の差分領域を検出し、
前記対象物領域特定手段は、前記第1の差分領域と、前記第2の差分領域との論理積の領域を求め、該論理積の領域を対象物領域と特定することを特徴とする請求項1に記載の対象物領域検出装置。 - 前記記憶手段は、前記参照フレームのそれぞれに対し、前記参照フレーム内の対象物の位置と予め定めてある位置との距離と、および前記画像フレーム内の対象物の位置と前記予め定めてある位置との距離とを比較し、前記画像フレームの対象物の位置のほうが前記予め定めてある位置に近い場合のみ、前記画像フレームおよび該画像フレーム内の対象物の位置を記憶することを特徴とする請求項1から請求項6のいずれか1項に記載の対象物領域検出装置。
- 参照フレームを取得する以前では、対象物の位置を基準とした予め定めた或る形状を対象物領域として採用する対象物領域採用手段をさらに具備することを特徴とする請求項1から請求項7のいずれか1項に記載の対象物領域検出装置。
- 前記位置取得手段は、顔あるいは上半身を検出して前記対象物の位置を取得することを特徴とする請求項1から請求項8のいずれか1項に記載の対象物領域検出装置。
- 画像フレームを入力し、
前記画像フレーム内で対象物を検出して該対象物の位置を取得し、
参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得し、
前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択し、
前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出し、
前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定し、
前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶することを特徴とする対象物領域検出方法。 - 前記参照フレームを選択することは、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記評価基準として前記参照フレーム内の対象物の位置との距離が或るしきい値よりも大きくなる参照フレームを選択することを採用することであることを特徴とする請求項10に記載の対象物領域検出方法。
- 前記参照フレームを選択することは、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記画像フレーム内の対象物の大きさと前記参照フレーム内の対象物の大きさとの差分をそれぞれの前記参照フレームに対して求め、
前記評価基準として、前記距離にマイナス符号を掛けた値と前記差分との重み付け和が或るしきい値よりも小さくなる参照フレームを選択することを採用することであることを特徴とする請求項10に記載の対象物領域検出方法。 - 前記参照フレームを選択することは、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりが最も少ないものから順に少なくとも1以上の参照フレームを選択することであることを特徴とする請求項10に記載の対象物領域検出方法。
- 前記参照フレームを選択することは、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、該距離が最大となる参照フレームを選択することであることを特徴とする請求項10に記載の対象物領域検出方法。
- 前記参照フレームを選択することは、第1の参照フレームと第2の参照フレームとを選択することであり、
前記差分領域を検出することは、前記第1の参照フレームに対する第1の差分領域を検出し、前記第2の参照フレームに対する第2の差分領域を検出することであり、
前記対象物が存在する領域を特定することは、前記第1の差分領域と、前記第2の差分領域との論理積の領域を求め、該論理積の領域を対象物領域と特定することであることを特徴とする請求項10に記載の対象物領域検出方法。 - 前記参照フレーム情報として記憶することは、前記参照フレームのそれぞれに対し、前記参照フレーム内の対象物の位置と予め定めてある位置との距離と、および前記画像フレーム内の対象物の位置と前記予め定めてある位置との距離とを比較し、前記画像フレームの対象物の位置のほうが前記予め定めてある位置に近い場合のみ、前記画像フレームおよび該画像フレーム内の対象物の位置を記憶することであることを特徴とする請求項10から請求項15のいずれか1項に記載の対象物領域検出方法。
- 参照フレームを取得する以前では、対象物の位置を基準とした予め定めた或る形状を対象物領域として採用することをさらに具備することを特徴とする請求項10から請求項16のいずれか1項に記載の対象物領域検出方法。
- 前記対象物の位置を取得することは、顔あるいは上半身を検出して前記対象物の位置を取得することであることを特徴とする請求項10から請求項17のいずれか1項に記載の対象物領域検出方法。
- コンピュータを、
画像フレームを入力する入力手段と、
前記画像フレーム内で対象物を検出して該対象物の位置を取得する位置取得手段と、
参照フレームの画像である参照画像および該参照フレーム内に在る対象物の位置を少なくとも1組以上取得する参照画像取得手段と、
前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりを減らすための評価基準により、少なくとも1以上の参照フレームを選択する参照フレーム選択手段と、
前記選択された参照フレームの画素値と前記画像フレームの画素値とが異なっている領域である差分領域を検出する差分領域検出手段と、
前記差分領域に基づいて、前記画像フレーム内の対象物が存在する領域を特定する対象物領域特定手段と、
前記画像フレームおよび該画像フレーム内の対象物の位置を参照フレーム情報として記憶する記憶手段として機能させるための対象物領域検出プログラム。 - 前記参照フレーム選択手段は、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記評価基準として前記参照フレーム内の対象物の位置との距離が或るしきい値よりも大きくなる参照フレームを選択することを採用することを特徴とする請求項19に記載の対象物領域検出プログラム。
- 前記参照フレーム選択手段は、前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、前記画像フレーム内の対象物の大きさと前記参照フレーム内の対象物の大きさとの差分をそれぞれの前記参照フレームに対して求め、
前記評価基準として、前記距離にマイナス符号を掛けた値と前記差分との重み付け和が或るしきい値よりも小さくなる参照フレームを選択することを採用することを特徴とする請求項19に記載の対象物領域検出プログラム。 - 前記参照フレーム選択手段は、前記参照フレームから、前記画像フレーム内の対象物と参照フレーム内の対象物との重なりが最も少ないものから順に少なくとも1以上の参照フレームを選択することを特徴とする請求項19に記載の対象物領域検出プログラム。
- 前記参照フレーム選択手段は、
前記画像フレーム内の対象物の位置と前記参照フレーム内の対象物の位置との距離をそれぞれの前記参照フレームに対して求め、該距離が最大となる参照フレームを選択することを特徴とする請求項19に記載の対象物領域検出プログラム。 - 前記参照フレーム選択手段は、第1の参照フレームと第2の参照フレームとを選択し、
前記差分領域検出手段は、前記第1の参照フレームに対する第1の差分領域を検出し、前記第2の参照フレームに対する第2の差分領域を検出し、
前記対象物領域特定手段は、前記第1の差分領域と、前記第2の差分領域との論理積の領域を求め、該論理積の領域を対象物領域と特定することを特徴とする請求項19に記載の対象物領域検出プログラム。 - 前記記憶手段は、前記参照フレームのそれぞれに対し、前記参照フレーム内の対象物の位置と予め定めてある位置との距離と、および前記画像フレーム内の対象物の位置と前記予め定めてある位置との距離とを比較し、前記画像フレームの対象物の位置のほうが前記予め定めてある位置に近い場合のみ、前記画像フレームおよび該画像フレーム内の対象物の位置を記憶することを特徴とする請求項19から請求項24のいずれか1項に記載の対象物領域検出プログラム。
- 参照フレームを取得する以前では、対象物の位置を基準とした予め定めた或る形状を対象物領域として採用する対象物領域採用手段をさらに具備することを特徴とする請求項19から請求項25のいずれか1項に記載の対象物領域検出プログラム。
- 前記位置取得手段は、顔あるいは上半身を検出して前記対象物の位置を取得することを特徴とする請求項19から請求項26のいずれか1項に記載の対象物領域検出プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005217792A JP2007034733A (ja) | 2005-07-27 | 2005-07-27 | 対象物領域検出装置、方法およびプログラム |
US11/387,070 US20070025592A1 (en) | 2005-07-27 | 2006-03-23 | Target-region detection apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005217792A JP2007034733A (ja) | 2005-07-27 | 2005-07-27 | 対象物領域検出装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007034733A true JP2007034733A (ja) | 2007-02-08 |
Family
ID=37694335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005217792A Abandoned JP2007034733A (ja) | 2005-07-27 | 2005-07-27 | 対象物領域検出装置、方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20070025592A1 (ja) |
JP (1) | JP2007034733A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010532898A (ja) * | 2007-07-08 | 2010-10-14 | ユニベルシテ・ド・リエージュ | 視覚背景抽出器 |
CN102089257A (zh) * | 2008-07-15 | 2011-06-08 | 东曹株式会社 | 复合氧化物烧结体、复合氧化物烧结体的制造方法、溅射靶及薄膜的制造方法 |
US10216987B2 (en) | 2008-12-24 | 2019-02-26 | Sony Interactive Entertainment Inc. | Image processing device and image processing method |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070255498A1 (en) * | 2006-04-28 | 2007-11-01 | Caterpillar Inc. | Systems and methods for determining threshold warning distances for collision avoidance |
JP4267036B2 (ja) * | 2007-01-10 | 2009-05-27 | キヤノン株式会社 | 表示制御装置及び表示制御方法 |
WO2012176526A1 (ja) * | 2011-06-21 | 2012-12-27 | シャープ株式会社 | 立体画像処理装置、立体画像処理方法、及びプログラム |
CN109272509B (zh) * | 2018-09-06 | 2021-10-29 | 郑州云海信息技术有限公司 | 一种连续图像的目标检测方法、装置、设备及存储介质 |
CN110991259B (zh) * | 2019-11-11 | 2023-05-12 | 中国船舶重工集团公司第七一七研究所 | 一种红外图像目标检测方法及*** |
CN112150544B (zh) * | 2020-09-24 | 2024-03-19 | 西门子(中国)有限公司 | 吊钩到位检测方法、装置和计算机可读介质 |
CN114359288B (zh) * | 2022-03-22 | 2022-06-07 | 珠海市人民医院 | 基于人工智能的医学影像脑动脉瘤检测和定位方法 |
-
2005
- 2005-07-27 JP JP2005217792A patent/JP2007034733A/ja not_active Abandoned
-
2006
- 2006-03-23 US US11/387,070 patent/US20070025592A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010532898A (ja) * | 2007-07-08 | 2010-10-14 | ユニベルシテ・ド・リエージュ | 視覚背景抽出器 |
JP4699564B2 (ja) * | 2007-07-08 | 2011-06-15 | ユニベルシテ・ド・リエージュ | 視覚背景抽出器 |
CN102089257A (zh) * | 2008-07-15 | 2011-06-08 | 东曹株式会社 | 复合氧化物烧结体、复合氧化物烧结体的制造方法、溅射靶及薄膜的制造方法 |
US10216987B2 (en) | 2008-12-24 | 2019-02-26 | Sony Interactive Entertainment Inc. | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
US20070025592A1 (en) | 2007-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007034733A (ja) | 対象物領域検出装置、方法およびプログラム | |
US10438361B2 (en) | Image processing apparatus and image processing method for finding background regions in an image | |
US10636152B2 (en) | System and method of hybrid tracking for match moving | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
EP1800260B1 (en) | Correction of blotches in component images | |
US20110243451A1 (en) | Image processing apparatus and method, and program | |
KR101811718B1 (ko) | 영상 처리 방법 및 장치 | |
JP2011211628A (ja) | 画像処理装置および方法、並びにプログラム | |
JP2007042072A (ja) | 追跡装置 | |
US10269099B2 (en) | Method and apparatus for image processing | |
JP6924932B2 (ja) | 移動体追跡方法、移動体追跡装置、およびプログラム | |
JP6720845B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2005252359A (ja) | 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム | |
JP4525064B2 (ja) | 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム | |
JP3480408B2 (ja) | 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体 | |
US8824734B2 (en) | Device, method and recording to determine depressed portions of image regions using shortcut line analysis | |
WO2018155269A1 (ja) | 画像処理装置および方法、並びにプログラム | |
KR100604223B1 (ko) | 움직임 객체를 추출하는 방법 및 그 시스템 | |
JP4631199B2 (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
JP4622141B2 (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
JP4622140B2 (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
US10674174B2 (en) | Coding apparatus, coding method, and recording medium | |
JP5470529B2 (ja) | 動き検出装置、動き検出方法及び動き検出プログラム | |
Chang et al. | Application of inpainting technology to video restoration | |
KR101627653B1 (ko) | 란삭 알고리즘 기반의 자동 바둑 기보 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061221 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20090330 |