JP5701005B2 - 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム - Google Patents

物体検知装置、物体検知方法、監視カメラシステム、およびプログラム Download PDF

Info

Publication number
JP5701005B2
JP5701005B2 JP2010232786A JP2010232786A JP5701005B2 JP 5701005 B2 JP5701005 B2 JP 5701005B2 JP 2010232786 A JP2010232786 A JP 2010232786A JP 2010232786 A JP2010232786 A JP 2010232786A JP 5701005 B2 JP5701005 B2 JP 5701005B2
Authority
JP
Japan
Prior art keywords
feature
determination
region
parameter
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010232786A
Other languages
English (en)
Other versions
JP2012089929A (ja
Inventor
矢野 光太郎
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010232786A priority Critical patent/JP5701005B2/ja
Priority to US13/267,455 priority patent/US9098748B2/en
Publication of JP2012089929A publication Critical patent/JP2012089929A/ja
Application granted granted Critical
Publication of JP5701005B2 publication Critical patent/JP5701005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、物体検知装置、物体検知方法、監視カメラシステム、およびプログラムに関し、特にカメラ等の撮像装置により撮影された画像から所定の物体を検知する物体検知装置、物体検知方法、監視カメラシステム、およびプログラムに関する。
近年、セキュリティのために監視カメラの設置が急速に普及している。また、そのようなカメラを使って、不審な人物や物体の侵入を自動的に検知する装置が提案されている。このような物体検知機能に適用可能な技術としては、予め侵入者のいないシーンを背景画像として撮影しておき、入力画像と背景画像との差分から侵入者としての物体領域を検知する方法が知られている。
しかしながら、背景で木の葉が揺らいでいたり、水面が揺れていたりするシーンにおいては、侵入した人物や物体を検知するだけでなく、背景部分を誤検知してしまうといった問題があった。このような課題を解決する為に、特許文献1では入力画像と背景画像との差異の時間的な変化を捉え、木の葉の揺らぎを判定する方法が提案されている。また、非特許文献1では入力画像に対応する背景画像だけでなく近傍の背景モデルとの比較も行うことで物体の侵入と外乱とを区別する方法が提案されている。
特開2006−107457号公報
Dalley, Migdal and Grimson, "Background Subtraction for Temporally Irregular Dynamic Textures", Workshop on Applications of Computer Vision, January 2008
しかしながら、従来例において精度良く物体を検知し、外乱との区別を行う為には、判定する際のパラメータを適切に定める必要がある。一方、そのようなパラメータの値はカメラを設置したシーンに依存するが、それらを適切かつ簡易に設定する方法は提案されていないという課題がある。
上記の課題に鑑み、本発明は、カメラを設置したシーンに最適なパラメータを設定して物体と外乱との区別を精度よく行うことを目的とする。
上記の目的を達成する本発明に係る物体検知装置は、
画像データから対象物体を検知する物体検知装置であって、
所定の視点から所定の方向を撮像した画像データを取得する画像取得手段と、
前記画像取得手段により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出手段と、
前記画像取得手段により取得された前記対象物体を含まない背景画像データから前記特徴抽出手段により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶手段と、
前記部分領域ごとに、前記特徴抽出手段により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域が前記対象物体であるか否かを判定する第1の物体領域判定手段と、
前記第1の物体領域判定手段により前記対象物体であると判定された部分領域を含む、複数フレームの判定結果から前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す統計量を算出する統計量算出手段と、
前記統計量に基づいて、前記部分領域ごとにパラメータを予め決定するパラメータ決定手段と、
前記パラメータ決定手段により決定された前記パラメータと、前記画像データから前記統計量算出手段により算出された前記統計量とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定手段と、
を備えることを特徴とする。
本発明によれば、カメラを設置したシーンに最適なパラメータを設定して物体と外乱との区別を精度よく行うことが可能となる。
更に、画像の部分領域毎に前記パラメータを決定し、物体と外乱の区別を行うようにすることで、一つの撮影シーンに様々な誤検知要因が混在していても物体と外乱の区別を精度よく行うことが可能となる。
第1実施形態に係る物体検知装置の機能構成を示す図。 第1実施形態に係るパラメータ設定時の処理を示すフローチャート。 第1の物体領域判定部による判定結果の例を示す図。 第1実施形態に係る物体検知処理を示すフローチャート。 第2実施形態に係る物体検知装置の機能構成を示す図。 第2実施形態に係るパラメータ設定時の処理を示すフローチャート。 第2実施形態に係る物体検知処理を示すフローチャート。
(第1実施形態)
図1を参照して、第1実施形態に係る物体検知装置の機能構成を説明する。画像取得部10は、ビデオカメラ等の撮像部により所定の視点から所定の方向を連続して撮像した画像データを取得する。特徴抽出部20は、画像取得部10により取得された各フレームの画像データから部分領域毎に特徴量を抽出する。第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景特徴量とを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。背景モデル記憶部40は、画像取得部10により取得された背景のみの画像データ(背景画像データ)から特徴抽出部20により抽出された特徴量に基づいて構成される背景特徴量を、基準モデルとして記憶する(背景特徴量記憶処理)。
判定結果記憶部50は、第1の物体領域判定部30による判定結果を部分領域毎に記憶する。モデル更新部60は、第1の物体領域判定部30および後述の第2の物体領域判定部80による判定結果に基づいて背景モデル記憶部40に記憶されている背景モデルを更新する。統計量算出部70は、判定結果記憶部50に記憶された複数の判定結果から統計量を算出する。
第2の物体領域判定部80は、統計量算出部70により算出された統計量に基づいて、第1の物体領域判定部30により物体領域であると判定された部分領域が、物体領域であるかまたは外乱であるかを判定する。パラメータ記憶部90は、第2の物体領域判定部80が判定のために用いるパラメータを部分領域毎に記憶する。
物体領域出力部100は、第2の物体領域判定部80により判定された結果を出力する。教示部110は、画像取得部10により取得された画像データから検知対象とする物体を含まない範囲を入力する。統計量記憶部120は、統計量算出部70により算出された統計量を記憶する。パラメータ決定部130は、統計量記憶部120に記憶された統計量に基づいて第2の物体領域判定部80で用いるパラメータを決定する。画像記憶部200は、画像取得部10により取得された画像を記憶する。
以下、本実施形態に係る各種動作を説明する。まず、図2のフローチャートを参照して、パラメータ設定時の処理の流れを説明する。
まず、ステップS101において、画像取得部10は、ビデオカメラ等の撮像部により撮像された画像データを取得する。取得された画像データは画像記憶部200に所定フレーム分だけ記憶される。
ステップS102において、教示部110は、ユーザが教示するパラメータ設定期間を取得する。ステップS101において画像記憶部200に記憶された画像データが不図示の表示装置に表示される。ユーザは表示された画像データを見て検知対象が写っていない範囲がどの時刻からどの時刻までであるかをパラメータ設定期間として教示する。すなわち、背景画像データはユーザにより選択される(選択受付処理)。教示部110は指定された期間を内部メモリに記憶しておく。なお、明らかに検知対象が存在しない状態で撮影が行われていれば、上述したようなユーザによる撮影後の範囲の教示は不要である。
次に、ステップS103において、画像記憶部200に記憶された画像データに基づいて背景モデルを初期化する。まず、特徴抽出部20は画像記憶部200に記憶されている最初のフレームの画像データから部分領域画像を取得する。部分領域画像は、例えば、画像データを8×8画素のブロックに分割して、ブロック毎に取得される。そして、部分領域画像の特徴量を抽出する。本実施形態では、特徴量として最も簡単な輝度平均値を用いる。この他にも、部分領域画像内の各画素の輝度値をヒストグラム化したものを特徴量としてもよいし、RGB値やエッジ方向のヒストグラムを特徴量としてもよい。また、部分領域画像にDCT(Discrete Cosine Transform)処理を行った出力値であるDCT係数の一部を特徴量としてもよい。そして、モデル更新部60は特徴抽出部20により抽出された特徴量から部分領域毎に背景モデルを生成し、背景モデル記憶部40に記憶する。即ち、特徴抽出部20で部分領域毎に抽出された輝度平均値が背景モデルとして記憶される。以上の処理が所定フレーム分だけ順次繰り返して行われる。
なお、モデル更新部60による第2フレーム以降の処理は、既に生成された背景モデルを更新する処理である。即ち、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている対応する部分領域の特徴量とを、所定の重みを付けて加算する。検知対象が写っていないシーンにおいては基本的には画像が変化しないので各部分領域において類似の特徴量が抽出される。そのため、更新時に背景モデルは大きく変動することはない。但し、背景が変動するような場合には対応できないので、背景モデルの特徴量が大きく変動する場合には部分領域毎に複数の背景モデルを持つように構成してもよい。
ステップS104において、第1の物体領域判定部30は、部分領域毎に、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。ここでは、ステップS103の処理で背景モデル初期化に使用された以降の時刻の画像データに基づいて物体領域を判定する。第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている対応する部分領域の特徴量との差分絶対値を算出し、その結果を所定の閾値と比較する。第1の物体領域判定部30は、閾値以上の場合は物体領域であると判定し、閾値未満の場合は背景領域であると判定する。そして、物体領域であると判定された場合「1」として、それ以外の背景領域であると判定された場合「0」として、2値の何れかの値が判定結果記憶部50に部分領域毎に記憶される。また、この際、モデル更新部60は、第1の物体領域判定部30による判定結果に応じて背景モデルを更新する。即ち、背景領域であると判定された場合に、その領域の画像を用いて、ステップS103で説明した方法と同様に背景モデルを更新する。
以上の処理が順次繰り返して行われ、判定結果記憶部50では部分領域毎に第1の物体領域判定部30による判定結果が時系列に記憶される。なお、教示部110では検知対象とする物体を含まない画像を教示しているので、ここで物体領域とされた判定結果は全て誤判定である。
ステップS105において、統計量算出部70は、判定結果記憶部50に記憶された複数フレームの判定結果から統計量を算出する。本実施形態では、所定フレーム分連続した物体領域の判定結果を、部分領域毎に判定結果記憶部50から取得し、その期間における物体領域と判定された結果の継続時間(フレーム連続数)を統計量として算出する。例えば、10フレーム分の連続した判定結果が得られた時点で物体領域、即ち「1」として記憶された値の継続時間を出力する。図3にその例を示す。図3の数値はある部分領域の10フレーム分の物体領域判定結果であり、「1」は物体領域、「0」は背景領域と判定された結果を表す。また、図3(a)は水面など外乱により誤判定が起こりやすい領域での判定結果の例であり、図3(b)は通常の安定した背景領域での判定結果の例である。このとき、図3(a)の場合は統計量として継続時間「2」を1回、継続時間「1」を3回出力する。また、図3(b)の場合は統計量を出力しない。統計量算出部70は、第1の物体領域判定部30の処理進行に従って順次統計量を算出し、統計量記憶部120に記憶していく。
ステップS104の物体領域判定処理とステップS105の統計量算出処理とが、ステップS102で教示された期間に対応するフレーム分だけ順次繰り返して行われる。すなわち、ステップS106において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS106;YES)、ステップS107へ進む。一方、全フレーム処理されていないと判定された場合(ステップS106;NO)、ステップS104へ戻り、次のフレームを処理する。
ステップS107において、パラメータ決定部130は、統計量記憶部120に記憶された統計量から第2の物体領域判定部80で用いるパラメータを決定する。本実施形態では、統計量記憶部120に記憶されている継続時間のヒストグラムからパラメータの決定を部分領域毎に行う。まず、継続時間のヒストグラムを正規化する。本実施形態では、10フレーム分の物体領域判定結果から継続時間を得ているので1から10の各継続時間に対するカウント値の総和が1になるように各継続時間のカウント値を割合に変換する。そして、その割合が所定値よりも大きいか小さいかを判定する。そして、割合が所定値を越える最大の継続時間をパラメータとして部分領域毎にパラメータ記憶部90に記憶する。継続時間の占める割合が所定値よりも大きい範囲を後述する第2の物体領域判定部80による処理で「外乱」と判定するようにパラメータを求める。これにより、領域別に頻繁に短時間に発生する誤判定パターンを抑制することができる。即ち、ここでは誤判定パターンを誤判定の発生する継続時間として捉えている。
次に図4のフローチャートを参照して、物体検知処理の流れを説明する。
ステップS201において、画像取得部10は、画像データを取得し、取得された画像データは画像取得部10の内部メモリに記憶される。
ステップS202において、特徴抽出部20は、画像取得部10により取得された画像データから部分領域毎に特徴量を抽出する。特徴抽出は画像取得部10に記憶されている画像データから行うが、前述したパラメータ設定時と同様の処理が行われる。
ステップS203において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。ここでは前述したパラメータ設定時のステップS104と同様の処理が行われる。
ステップS204において、統計量算出部70は、判定結果記憶部50に記憶された複数の判定結果から統計量を算出する。ここでは前述したパラメータ設定時のステップS105と同様の処理が行われるが、算出された統計量は第2の物体領域判定部80に出力される。
ステップS205において、第2の物体領域判定部80は、統計量算出部70により算出された統計量に基づいて、第1の物体領域判定部30により物体領域であると判定された部分領域が物体領域であるかまたは外乱であるかを判定する。即ち、第2の物体領域判定部80は、統計量算出部70で求められた物体判定継続時間がパラメータ設定時に求められてパラメータ記憶部90に記憶されているパラメータを越える場合にその領域を「外乱」ではなく「対象物体」であると判定する。判定結果は部分領域毎に第1の物体領域判定部30と同様に物体領域を「1」、外乱を含むそれ以外の背景領域を「0」とした2値画像として第2の物体領域判定部80内のメモリに記憶される。また、この際、モデル更新部60は第2の物体領域判定部80による判定結果に応じて背景モデルを更新する。
ステップS206において、物体領域出力部100は、第2の物体領域判定部80による判定結果を出力する。例えば、第2の物体領域判定部80に記憶されている物体領域を表す2値画像を画像データに重畳してディスプレイに表示する。
ステップS201からステップS206までの各処理が不図示の制御部によってフレーム毎に順次繰り返して行われるよう制御される。すなわち、ステップS207において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS207;YES)、処理を終了する。一方、全フレーム処理されていないと判定された場合(ステップS207;NO)、ステップS201へ戻る。
以上説明したように本実施形態では、検知対象とする物体を含まない画像から物体領域として誤判定された複数フレームの結果から統計量を求め、物体と外乱とを区別するパラメータを決定する。そして、決定されたパラメータを用いて物体領域を判定する。このような構成により、外乱による誤判定を抑制することができる。
(第2実施形態)
本実施形態では物体領域判定部による複数の判定結果から第2特徴量を抽出し、検知対象とする物体を含まない画像から抽出された第2特徴量に基づいて機械学習によって物体と外乱を区別するパラメータを決定する例について説明する。
図5を参照して、本実施形態に係る物体検知装置の機能構成を説明する。本実施形態では、第1実施形態における統計量算出部70、統計量記憶部120、およびパラメータ決定部130の代わりに、それぞれ第2の特徴抽出部210、第2の特徴量記憶部220、および学習部230を用いる。
第2の特徴抽出部210は、判定結果記憶部50に記憶された複数の判定結果から第2特徴量を抽出する。特徴量記憶部220は、第2の特徴抽出部210により抽出された第2特徴量を記憶する。学習部230は、特徴量記憶部220に記憶された第2特徴量から第2の物体領域判定部80で用いるパラメータを機械学習により決定する。
以下、本実施形態に係る各種動作を説明する。まず、図6のフローチャートを参照して、パラメータ設定時の処理の流れを説明する。図6のステップS305、ステップS307、および後述の図7のステップS404以外の処理は、第1実施形態で説明した図2および図4における対応する処理と同じである。以下、第1実施形態と異なる部分を詳細に説明する。
図6を参照して、本実施形態に係るパラメータ設定処理の流れについて説明する。ステップS301において、画像取得部10はカメラ等の撮像部により撮像された画像データを取得する。
ステップS302において、教示部110は、ユーザが教示する検知対象が写っていない範囲をパラメータ設定期間として取得する。次に、ステップS303において、画像記憶部200に記憶された画像データに基づいて背景モデルを初期化する。
ステップS304において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。
ステップS305において、第2の特徴抽出部210は、判定結果記憶部50に記憶された複数フレームの判定結果に基づいて第2特徴量を抽出する。本実施形態では、所定フレーム分連続した物体領域の判定結果を部分領域毎に判定結果記憶部50から取得し、その期間における物体判定結果を結合して特徴ベクトルとして抽出する。例えば、図3(a)に示した物体判定結果が得られた場合は、各フレームの判定結果を結合して、ベクトル(0,1,0,1,1,0,1,0,1,0)を特徴量とする。この他にも、このベクトルをバイナリ値として扱い、10ビットのバイナリパターン「0101101010」を第2特徴量としてもよい。第2の特徴抽出部210は、第1の物体領域判定部30による処理の進行に従って順次特徴量を抽出し、特徴量記憶部220に記憶していく。但し、物体判定結果が「1」を含まない特徴量は出力しない。
ステップS304における物体領域判定処理とステップS305における第2の特徴量抽出処理とが、ステップS302において教示された期間に対応するフレーム分だけ順次繰り返して行われる。すなわち、ステップS306において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS306;YES)、ステップS307へ進む。一方、全フレーム処理されていないと判定された場合(ステップS306;NO)、ステップS304へ戻る。
ステップS307において、学習部230は、特徴量記憶部220に記憶された第2特徴量から第2の物体領域判定部80で用いられるパラメータを機械学習により決定する。即ち、特徴量記憶部220に記憶されている検知対象とする物体を含まないフレームから得られた、誤判定パターンである特徴ベクトルを外乱クラスの教師サンプルとして機械学習を行い、パラメータを得る。例えば、1クラスSVM(Support Vector Machine)を用いて学習を行う。線形SVMにより学習を行い、求められた重みベクトルおよび閾値をパラメータとして出力し、パラメータ記憶部90に記憶する。なお、機械学習の方法は1クラスSVMに限定されるものではなく、例えば、外乱クラスのサンプルに対して主成分分析を行い、固有ベクトルを用いたパターン認識を行うようにしてもよい。
次に図7のフローチャートを参照して、物体検知処理の流れを説明する。ステップS401において、画像取得部10は、画像データを取得する。ステップS402において、特徴抽出部20は、画像取得部10により取得された画像データから部分領域毎に特徴量を抽出する。
ステップS403において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。
ステップS404において、第2の特徴抽出部210は、判定結果記憶部50に記憶された複数の判定結果に基づいて第2特徴量を抽出する。
ステップS405において、第2の物体領域判定部80は、第2の特徴抽出部210により抽出された特徴量に基づいて、第1の物体領域判定部30により物体領域と判定された部分領域が物体領域であるかまたは外乱であるかを判定する。即ち、第2の物体領域判定部80は、第2の特徴抽出部210により求められた特徴ベクトルとパラメータ記憶部90に記憶されている重みベクトルとの内積を計算する。そして、第2の物体領域判定部80は、その計算結果をパラメータ記憶部90に記憶されている閾値と比較し、閾値を越える場合にその領域を「外乱」ではなく「物体」であると判定する。判定結果は第1実施形態と同様に第2の物体領域判定部80内のメモリに記憶される。
ステップS406において、物体領域出力部100は、第2の物体領域判定部80による判定結果を出力する。
ステップS401からステップS406までの処理が不図示の制御部によってフレーム毎に順次繰り返して行われるよう制御される。すなわち、ステップS407において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS407;YES)、処理を終了する。一方、全フレーム処理されていないと判定された場合(ステップS407;NO)、ステップS401へ戻る。
以上説明したように本実施形態では、第2の特徴抽出部210は、第1の物体領域判定部による複数の判定結果から第2特徴量を抽出する。そして、検知対象とする物体を含まない画像から抽出された第2特徴量に基づいて機械学習によって物体と外乱とを区別するパラメータを決定する。さらに、決定されたパラメータを用いて物体領域を判定する。これにより、外乱による誤判定を抑制することができる。
なお、本実施形態では、異なる時刻のフレームから第1の物体領域判定部の判定結果を用いて特徴量を抽出するようにしたが、本発明は非特許文献1で提案されている外乱の判定方法にも適用可能である。即ち、第1の物体領域判定部30において、特徴抽出部20により抽出された特徴量と、対応する部分領域の背景モデルとの判定だけでなく、近傍の背景モデルとの判定も行う。そして、第2の特徴抽出部210において、近傍の背景モデルとの判定結果も用いてそれらの結果を結合した特徴ベクトルを抽出するようにする。
また、近傍の背景モデルとの判定を行う代わりに、解像度の異なる背景モデルとの判定によって外乱との判定を行う方法も考えられる。例えば、1画素を最小単位の部分領域として対応する背景モデルを初期化時に作成しておき、背景モデルとの比較を行う。更に、8×8画素のブロックを部分領域とした背景モデルとの比較、16×16画素のブロックを部分領域とした背景モデルとの比較も並行して行う。そして、異なる複数の解像度の判定結果を結合した特徴ベクトルによって外乱との判定を行うようにする。
即ち、特徴抽出部20が画像中の複数サイズの部分領域から複数解像度の特徴量を抽出する。そして、背景モデル記憶部40が複数サイズの部分領域に対応する複数の解像度で背景モデルを記憶する。また、第1の物体領域判定部30が、部分領域毎に複数解像度で、特徴抽出部20により抽出された特徴量と背景モデルとを比較して物体領域の判定を行う。そして、第2の特徴抽出部210において、それらの判定結果を結合した特徴ベクトルを抽出するようにする。
なお、近傍の背景モデルとの判定や複数解像度で判定を行う方法は、本実施形態で説明した機械学習によるパラメータ決定だけでなく、第1の実施形態で説明した方法にも適用可能である。
(第3実施形態)
以上説明した実施形態の応用形態として、監視カメラおよびネットワークを介して接続されている監視サーバで構成される監視カメラシステムにも本発明を適用することができる。ここで、監視サーバは監視カメラにより撮像された画像を記録して、モニタする機能を有する。例えば、第1または第2実施形態で説明した構成要件を監視サーバに組み込み、監視カメラにより撮像された画像データに対して第1または第2実施形態で説明した処理を行う。その他にも、第1または第2実施形態で説明した構成要件を監視カメラに組み込み、監視カメラにより撮像された画像データとともに検知結果を監視サーバに送信して記録する構成も可能である。また、第1または第2実施形態で説明したパラメータ設定時の動作に必要な構成要件を監視サーバに設け、監視サーバに記録された画像データに対してパラメータ設定処理を行い、監視カメラで検知処理を行う構成も可能である。この場合、監視カメラに第1または第2実施形態で説明した物体検知処理の動作に必要な構成要件を設け、監視サーバからパラメータを受け取って監視カメラで検知処理を行う。例えば監視カメラの設置時にパラメータを決定すればよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 画像データから対象物体を検知する物体検知装置であって、
    所定の視点から所定の方向を撮像した画像データを取得する画像取得手段と、
    前記画像取得手段により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出手段と、
    前記画像取得手段により取得された前記対象物体を含まない背景画像データから前記特徴抽出手段により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶手段と、
    前記部分領域ごとに、前記特徴抽出手段により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域が前記対象物体であるか否かを判定する第1の物体領域判定手段と、
    前記第1の物体領域判定手段により前記対象物体であると判定された部分領域を含む、複数フレームの判定結果から前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す統計量を算出する統計量算出手段と、
    前記統計量に基づいて、前記部分領域ごとにパラメータを予め決定するパラメータ決定手段と、
    前記パラメータ決定手段により決定された前記パラメータと、前記画像データから前記統計量算出手段により算出された前記統計量とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定手段と、
    を備えることを特徴とする物体検知装置。
  2. 前記統計量は、前記第1の物体領域判定手段により前記対象物体であると判定された画像データのフレーム連続数であることを特徴とする請求項に記載の物体検知装置。
  3. 前記部分領域ごとに前記パラメータ決定手段により決定された前記パラメータを記憶するパラメータ記憶手段をさらに備えることを特徴とする請求項1または2に記載の物体検知装置。
  4. 前記第1の物体領域判定手段による複数の判定結果に基づいて、前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す第2特徴量を抽出する第2の特徴抽出手段をさらに備えることを特徴とする請求項1に記載の物体検知装置。
  5. 前記第2の特徴抽出手段は、前記背景画像データから前記第1の物体領域判定手段により前記対象物体であると判定された部分領域を含む複数の判定結果に基づいて前記部分領域ごとに第2特徴量を算出し、
    前記パラメータ決定手段は、当該第2特徴量に基づいて前記パラメータを機械学習により予め決定し、
    前記第2の物体領域判定手段は、前記パラメータ決定手段により決定された前記パラメータと、前記画像データから前記第2の特徴抽出手段により抽出された前記第2特徴量とに基づいて、前記部分領域が前記対象物体であるか否かを判定することを特徴とする請求項に記載の物体検知装置。
  6. 前記第2特徴量は、前記第1の物体領域判定手段による複数の判定結果を結合した特徴ベクトルであることを特徴とする請求項に記載の物体検知装置。
  7. 前記特徴抽出手段は、複数サイズの部分領域から複数の解像度の特徴量を抽出し、
    前記背景特徴量記憶手段は、前記特徴抽出手段により抽出された複数サイズの部分領域に対応する複数の解像度の特徴量を背景特徴量として記憶し、
    前記第1の物体領域判定手段による判定結果は、前記特徴抽出手段により抽出された前記部分領域の複数の解像度の特徴量と、前記背景特徴量記憶手段に記憶されている対応する解像度における前記部分領域の背景特徴量との比較による判定結果であることを特徴とする請求項1乃至の何れか1項に記載の物体検知装置。
  8. 前記対象物体を含まない前記背景画像データを選択させる選択受付手段を備えることを特徴とする請求項1乃至の何れか1項に記載の物体検知装置。
  9. 請求項1乃至の何れか1項に記載の物体検知装置と、監視カメラをと備える監視カメラシステムであって、
    前記パラメータ決定手段は、前記監視カメラの設置時に前記パラメータを決定することを特徴とする監視カメラシステム。
  10. 画像取得手段と、特徴抽出手段と、背景特徴量記憶手段と、第1の物体領域判定手段と、統計量算出手段と、パラメータ決定手段と、第2の物体領域判定手段とを備え、画像データから対象物体を検知する物体検知装置における物体検知方法であって、
    前記画像取得手段が、所定の視点から所定の方向を撮像した画像データを取得する画像取得工程と、
    前記特徴抽出手段が、前記画像取得工程により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出工程と、
    前記背景特徴量記憶手段が、前記画像取得工程により取得された前記対象物体を含まない背景画像データから前記特徴抽出工程により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶工程と、
    前記第1の物体領域判定手段が、前記部分領域ごとに、前記特徴抽出工程により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域が前記対象物体であるか否かを判定する第1の物体領域判定工程と、
    前記統計量算出手段が、前記第1の物体領域判定工程により前記対象物体であると判定された部分領域を含む、複数フレームの判定結果から前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す統計量を算出する統計量算出工程と、
    前記パラメータ決定手段が、前記統計量に基づいて、前記部分領域ごとにパラメータを決定するパラメータ決定工程と、
    前記第2の物体領域判定手段が、前記パラメータ決定工程により決定された前記パラメータと、前記第1の物体領域判定工程による判定結果とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定工程と、
    を備えることを特徴とする物体検知方法。
  11. 請求項10に記載の物体検知方法の各工程をコンピュータに実行させるためのプログラム。
JP2010232786A 2010-10-15 2010-10-15 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム Active JP5701005B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010232786A JP5701005B2 (ja) 2010-10-15 2010-10-15 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
US13/267,455 US9098748B2 (en) 2010-10-15 2011-10-06 Object detection apparatus, object detection method, monitoring camera system and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232786A JP5701005B2 (ja) 2010-10-15 2010-10-15 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012089929A JP2012089929A (ja) 2012-05-10
JP5701005B2 true JP5701005B2 (ja) 2015-04-15

Family

ID=45933840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232786A Active JP5701005B2 (ja) 2010-10-15 2010-10-15 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム

Country Status (2)

Country Link
US (1) US9098748B2 (ja)
JP (1) JP5701005B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5755012B2 (ja) 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
JP5719230B2 (ja) 2011-05-10 2015-05-13 キヤノン株式会社 物体認識装置、物体認識装置の制御方法、およびプログラム
JP5801601B2 (ja) 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5907593B2 (ja) 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP5913940B2 (ja) 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5836095B2 (ja) 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6095283B2 (ja) * 2012-06-07 2017-03-15 キヤノン株式会社 情報処理装置、およびその制御方法
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6254836B2 (ja) 2013-11-29 2017-12-27 キヤノン株式会社 画像検索装置、画像検索装置の制御方法およびプログラム
JP6532190B2 (ja) 2014-03-26 2019-06-19 キヤノン株式会社 画像検索装置、画像検索方法
JP6338429B2 (ja) * 2014-04-15 2018-06-06 キヤノン株式会社 被写体検出装置、被写体検出方法及びプログラム
JP6127282B2 (ja) * 2015-02-25 2017-05-17 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及びそれを実行させるためのプログラム
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
US11134848B2 (en) 2016-04-25 2021-10-05 Samsung Electronics Co., Ltd. Mobile hyperspectral camera system and human skin monitoring using a mobile hyperspectral camera system
JP6989294B2 (ja) * 2017-05-31 2022-01-05 パナソニックi−PROセンシングソリューションズ株式会社 監視システム及び監視方法
JP7085812B2 (ja) * 2017-08-02 2022-06-17 キヤノン株式会社 画像処理装置およびその制御方法
JP2023064427A (ja) * 2021-10-26 2023-05-11 富士通株式会社 推論プログラム、学習プログラム、推論方法および学習方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4259720B2 (ja) * 2000-02-25 2009-04-30 セコム株式会社 画像センサ
JP4254022B2 (ja) * 2000-07-07 2009-04-15 株式会社明電舎 静止障害物検出方式
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis
JP4315138B2 (ja) * 2004-09-13 2009-08-19 ソニー株式会社 画像処理装置及び画像処理方法
JP2006185109A (ja) * 2004-12-27 2006-07-13 Hitachi Ltd 画像計測装置及び画像計測方法
JP2006252248A (ja) * 2005-03-11 2006-09-21 Meidensha Corp 画像処理による侵入者検知装置
WO2007033286A2 (en) * 2005-09-13 2007-03-22 Verificon Corporation System and method for object tracking and activity analysis
JP4912028B2 (ja) * 2006-05-01 2012-04-04 日本電信電話株式会社 逐次学習式非定常映像検出装置,逐次学習式非定常映像検出方法及びその方法を実装したプログラム
WO2008004710A1 (fr) 2006-07-07 2008-01-10 Canon Kabushiki Kaisha Dispositif de traitement d'image, procédé de traitement d'image, et programme de traitement d'image

Also Published As

Publication number Publication date
JP2012089929A (ja) 2012-05-10
US9098748B2 (en) 2015-08-04
US20120092495A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5701005B2 (ja) 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
CN107404628B (zh) 图像处理装置及方法以及监视***
KR101747216B1 (ko) 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
JP4811653B2 (ja) 物体検出装置
KR20020034919A (ko) 침입물체검출용 감시방법 및 침입물체검출용 감시장치
KR102474837B1 (ko) 전경 추출 방법 및 장치
US20150146006A1 (en) Display control apparatus and display control method
US20160148066A1 (en) Detection of spoofing attacks for video-based authentication
JP4999794B2 (ja) 静止領域検出方法とその装置、プログラム及び記録媒体
KR101750094B1 (ko) 영상의 실시간 모니터링을 통한 비정상 집단행동 분류 방법
KR20090043416A (ko) 카메라 이동 영향을 검출하고 억제하는 감시 카메라 장치및 그 제어 방법
US8923552B2 (en) Object detection apparatus and object detection method
CN111814776B (zh) 一种图像处理方法、设备、服务器及存储介质
CN110114801B (zh) 图像前景检测装置及方法、电子设备
JP2011123742A (ja) 侵入物体検知装置
CN111583299A (zh) 一种运动检测方法、装置、存储介质及终端设备
CN111259723A (zh) 行动识别装置、行动识别方法
KR101581162B1 (ko) 실시간 영상 기반의 화염, 연기 및 물체 움직임 자동 감지 방법, 장치 및 시스템
EP2791865B1 (en) System and method for estimating target size
US10916016B2 (en) Image processing apparatus and method and monitoring system
JP3625442B2 (ja) 物体検出方法及び物体検出装置並びに物体検出プログラム
CN115830513A (zh) 一种图像场景变化确定的方法、装置、***及存储介质
JP5573387B2 (ja) 監視装置、監視プログラム及び監視方法
JP5465594B2 (ja) 対象物検出サイズ算出システムおよび対象物検出サイズ算出プログラム
JP2019135618A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150217

R151 Written notification of patent or utility model registration

Ref document number: 5701005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151