JP2009003787A - 対象物検出装置、対象物検出プログラム及び対象物検出システム - Google Patents

対象物検出装置、対象物検出プログラム及び対象物検出システム Download PDF

Info

Publication number
JP2009003787A
JP2009003787A JP2007165379A JP2007165379A JP2009003787A JP 2009003787 A JP2009003787 A JP 2009003787A JP 2007165379 A JP2007165379 A JP 2007165379A JP 2007165379 A JP2007165379 A JP 2007165379A JP 2009003787 A JP2009003787 A JP 2009003787A
Authority
JP
Japan
Prior art keywords
image
monitoring target
area
monitoring
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007165379A
Other languages
English (en)
Inventor
Yoshitaro Yamanaka
義太郎 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007165379A priority Critical patent/JP2009003787A/ja
Publication of JP2009003787A publication Critical patent/JP2009003787A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】監視対象撮像画像から監視対象物画像を検出する精度の向上を図ることを可能とする対象物検出装置、対象物検出プログラム及び対象物検出システムを提供する。
【解決手段】本発明に係る対象物検出装置は、監視対象物画像を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得し、取得した差分情報が所定閾値よりも大きい差分領域を監視対象撮像画像から抽出すると共に、監視対象撮像画像に含まれる所定領域毎に距離情報を取得する。また、監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、監視対象物画像を含む画像である参照画像に基づいて、比較対象画像内又は監視対象撮像画像内において監視対象物画像と類似色である誤検出予測領域を特定し、差分領域及び誤検出予測領域の集合和である修正差分領域と、修正差分領域に含まれる所定領域の距離情報とに基づいて、監視対象物画像に相当する監視対象領域を検出する。
【選択図】図3

Description

本発明は、監視対象撮像画像から監視対象物画像を検出する対象物検出装置、対象物検出プログラム及び対象物検出システムに関する。
従来、監視対象物画像(例えば、人物画像)を含む監視対象撮像画像から監視対象物画像を抽出する技術(以下、従来技術1)が知られている。このような技術は、人物の生活を見守るためのシステム(生活見守りシステム)や人物の転倒などを検知するシステム(転倒検知システム)に適用される。
上述した従来技術1としては、まず、監視対象物画像を含まない背景画像と監視対象撮像画像との差分情報に基づいて、監視対象撮像画像から監視対象物画像を検出する技術が挙げられる。具体的には、監視対象撮像画像を複数の分割領域に分割した上で、背景画像と監視対象撮像画像との差分情報が分割領域毎に比較される。
これによって、監視対象物画像が背景画像と同色であるようなケースにおいて、画素レベルで差分情報が比較される場合に比べて、監視対象物画像の誤検出が抑制される。
一方で、物体画像を含む物体撮像画像から、物体画像に対応する距離情報に基づいて物体画像の三次元情報を検出する技術(以下、従来技術2)も提案されている(例えば、特許文献1)。具体的には、ストロボ光を利用して撮像された物体撮像画像(1)とストロボ光を利用しないで撮像された物体撮像画像(2)とに基づいて、物体画像に対応する距離情報が算出される。また、焦点位置(フォーカス)をずらして撮像された複数の物体撮像画像(3)に基づいて、物体画像に対応する距離情報が算出される。
従来技術2によれば、ストロボ光の有無に基づいて算出された距離情報と、焦点位置の違いに基づいて算出された距離情報とに基づいて、物体画像を3次元的に捉えることによって、物体画像の検出精度が向上する。
特開2001−352440号公報(例えば、[0053]段落など)
上述したように、従来技術1では、監視対象物画像が背景画像と同色であるようなケースにおいて、監視対象物画像の誤検出がある程度抑制される。しかしながら、分割領域の全てが背景画像と同色であるようなケースでは、監視対象物画像の誤検出を防ぐことができない。
一方で、従来技術2では、物体撮像画像(1)〜物体撮像画像(3)を利用しており、これらの画像は、同一の条件(例えば、物体が静止しているという条件)下で物体を撮像した画像である必要がある。すなわち、生活見守りシステムや転倒検出システムなどのように、監視対象物が動く場合には、従来技術2をそのまま用いることができない。
そこで、本発明は、上述した課題を解決するためになされたものであり、監視対象撮像画像から監視対象物画像を検出する精度の向上を図ることを可能とする対象物検出装置、対象物検出プログラム及び対象物検出システムを提供することを目的とする。
本発明に係る対象物検出装置は、監視対象物画像(例えば、人物画像)を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得する差分情報取得部と、前記差分情報取得部によって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出する抽出部と、前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定する特定部と、前記監視対象撮像画像に含まれる所定領域(例えば、ピクセル)毎に、各所定領域の距離情報を取得する距離情報取得部と、前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出する領域検出部とを備えることを要旨とするものである。
かかる特徴によれば、対象物検出装置は、差分領域及び修正差分領域と距離情報とに基づいて、監視対象撮像画像から監視対象領域を検出する。よって、かかる対象物検出装置では、従来技術のように、単に監視対象撮像画像と比較対象画像との差分情報に基づいて、監視対象物画像に相当する監視対象領域を検出するのではなく、差分領域と誤検出予測領域との集合和である修正差分領域から監視対象領域を検出する。ここで、従来技術では、監視対象撮像画像に含まれる監視対象物画像と比較対象画像とが、例えば類似色の画像である場合、単に監視対象撮像画像と比較対象画像との差分情報を算出した際に、監視対象物画像の一部が欠落するという問題が発生していたが、かかる対象物検出装置によれば、監視対象物画像と類似色である誤検出予測領域と差分領域との集合和である修正差分領域から監視対象領域を検出するので、監視対象物画像の一部が欠落することを防止できる。
また、かかる対象物検出装置によれば、修正差分領域に含まれる領域の距離情報に基づいて、監視対象撮像画像から監視対象領域を検出する。つまり、監視対象物画像の色と比較対象画像の色とが修正差分領域内で重複する位置に存在する場合であっても、監視対象物が実際に存在する距離を考慮して、監視対象物画像に相当する監視対象領域を検出する。よって、かかる対象物検出装置によれば監視対象撮像画像から監視対象物画像を検出する精度の向上を図ることができる。
また、本発明に係る対象物検出装置は、上記特徴に加え、前記領域検出部は、前記距離情報の分布において所定範囲内に収まる前記距離情報に基づいて、前記監視対象領域を検出してもよい。かかる特徴によれば、対象物検出装置は、監視対象物との距離が所定範囲内に収まる距離情報の分布を考慮して、より正確な監視対象領域を検出することができる。
また、本発明に係る対象物検出装置は、上記特徴に加え、前記特定部は、前記参照画像に基づいて前記監視対象物画像の動き量を予測して、前記監視対象物画像の動き量に基づいて前記誤検出予測領域を特定してもよい。かかる特徴によれば、対象物検出装置は、監視対象物が移動する場合であっても、監視対象画像の動き量を考慮して、監視対象画像を含む監視対象領域をより確実に検出することができる。
また、本発明に係る対象物検出装置は、上記特徴に加え、前記領域検出部によって検出された前記監視対象領域に基づいて、前記監視対象物画像に相当する監視対象物の姿勢を判定する姿勢判定部をさらに備え、前記領域検出部は、前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像が取得された際に、前記姿勢判定部によって判定された前記監視対象物の姿勢に基づいて、前記監視対象領域を検出してもよい。かかる特徴によれば、対象物検出装置は、例えば、監視対象物が人物などのように姿勢が変化する場合であっても、当該姿勢を考慮して、より正確な監視対象領域を検出することができる。
また、本発明に係る対象物検出装置は、上記特徴に加え、前記距離情報取得部は、前記修正差分領域に含まれる所定領域毎に前記距離情報を取得してもよい。かかる特徴によれば、対象物検出装置は、監視対象撮像画像の全体ではなく、修正差分領域に含まれる所定領域毎に距離情報を取得するので、距離情報を取得する際の処理負荷を低減することができる。
また、本発明に係る対象物検出装置は、上記特徴に加え、前記比較対象画像は、前記監視対象物画像が含まれていない背景画像であってもよい。かかる特徴によれば、対象物検出装置は、監視対象物画像が含まれる監視対象撮像画像と監視対象物画像が含まれていない背景画像とから差分情報を取得するので、より確実に監視対象物画像に対応する差分情報を取得することができる。
また、本発明に係る対象物検出プログラムは、監視対象物画像を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得するステップAと、前記ステップAによって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出するステップBと、前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定するステップCと、前記監視対象撮像画像に含まれる所定領域毎に、各所定領域の距離情報を取得するステップDと、前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出するステップEとを対象物検出装置として動作するコンピュータに実行させることを要旨とするものである。かかる特徴によれば、対象物検出プログラムは、従来技術のように、単に監視対象撮像画像と比較対象画像との差分情報に基づいて、監視対象物画像に相当する監視対象領域を検出するのではなく、差分領域と誤検出予測領域との集合和である修正差分領域から監視対象領域を検出するので、監視対象物画像の一部が欠落することを防止できる。また、かかる対象物検出装置によれば、修正差分領域に含まれる領域の距離情報に基づいて、監視対象撮像画像から監視対象領域を検出する。つまり、監視対象物画像の色と比較対象画像の色とが修正差分領域内で重複する位置に存在する場合であっても、監視対象物が実際に存在する距離を考慮して、監視対象物画像に相当する監視対象領域を検出する。よって、ユーザは、コンピュータを用いて、監視対象撮像画像から監視対象物画像を検出する際の精度の向上を図ることができる。
また、本発明に係る対象物検出システム(監視システム10)は、監視対象物画像を含む監視対象撮像画像を取得する撮像部と、前記監視対象撮像画像と比較対象画像との画素値の差分情報を取得する差分情報取得部と、前記差分情報取得部によって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出する抽出部と、前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定する特定部と、前記監視対象撮像画像に含まれる所定領域毎に、各所定領域の距離情報を取得する距離情報取得部と、前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出する領域検出部と、前記領域検出部によって検出された前記監視対象領域の画像を表示する表示部とを備えることを要旨とするものである。
本発明によれば、監視対象撮像画像から監視対象画像を検出する精度の向上を図ることを可能とする対象物検出装置、対象物検出プログラム及び対象物検出システムを提供することを目的とする。
以下において、本発明の実施形態に係る対象物検出装置について、図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。ただし、図面は模式的なものである。
本発明の第1実施形態に係る監視システム10の概略について、図1を参照して説明する。図1に示すように、本実施形態に係る監視システム10は、監視場所D100内において、監視対象物の動きや姿勢等を監視するものである。なお、監視システム10は、無線回線や有線回線を介して、三次元情報を外部機器に送信するように構成されていてもよい。また、本実施形態において、監視システム10は、対象物検出システムを構成する。
また、本実施形態において、監視場所D100は、例えば、室内空間を想定している。また、本実施形態において、監視対象物は、人物である場合を例に挙げて説明する。また、監視場所D100には、机や収納棚等の物品B1乃至3が設けられていることとする。また、物品B1乃至3のそれぞれには、異なる配色が施されている。
(第1実施形態に係る監視システムの構成)
次に、図2を参照し、監視システム10の構成について具体的に説明する。また、以下、本発明との関連がある部分について主に説明する。したがって、監視システム10は、対象物監視システムとしての機能を実現する上で必須な、図示しない或いは説明を省略した機能ブロック(電源部など)を備える場合があることに留意されたい。
図2に示すように、監視システム10は、撮像部11と対象物検出装置12と表示部13とを備える。
撮像部11は、監視場所D100を撮像するカメラとして機能する。また、撮像部11は、動画像(又は静止画像)を撮像する。なお、本実施形態において、撮像部11は、2つのカメラ(例えば、カメラ1とカメラ2)を備え、ステレオカメラとして機能する。また、撮像部11は、監視場所D100を撮像した際、監視場所D100の画像である監視対象撮像画像を対象物検出装置12に出力する。このとき、撮像部11は、監視場所D100に監視対象物である人物が存在する場合、監視対象物画像(人物画像)を含む監視対象撮像画像を取得して、対象物検出装置12に出力する。なお、撮像部11は、ステレオカメラとして機能することから、異なる角度から監視場所D100を撮像した二つの監視対象撮像画像を対象物検出装置12に出力する。
対象物検出装置12は、撮像部11によって撮像された監視対象撮像画像から、監視対象物画像に相当する監視対象領域を検出する。また、対象物検出装置12は、検出した監視対象領域に基づいて、監視対象物の画像である監視対象物画像や、監視対象物の三次元情報を生成する。なお、対象物検出装置12の構成については、詳細を後述する。表示部13は、撮像部11によって撮像された画像や、対象物検出装置12によって処理された画像等を表示する。具体的に、表示部13は、対象物検出装置12によって検出された監視対象物画像(監視対象物画像に相当する監視対象領域内の画像)を表示する。
(第1実施形態に係る対象物検出装置の構成)
次に、図3を参照し、対象物検出装置12の構成について具体的に説明する。対象物検出装置12は、記憶部121と、距離情報取得部122と、差分情報取得部123と、抽出部124と、特定部125と、領域検出部126と、距離抽出部127と、姿勢判定部128とを備える。
なお、対象物検出装置12は、コンピュータとして機能し、インストールされているプログラム(対象物検出プログラム)によって、記憶部121と、距離情報取得部122と、差分情報取得部123と、抽出部124と、特定部125と、領域検出部126と、距離抽出部127と、姿勢判定部128との各種機能を実行させてもよい。
記憶部121は、距離情報取得部122によって取得された距離情報や、差分情報取得部123によって取得された画像等が記憶される。なお、本実施形態において、記憶部121には、監視対象物画像が含まれていない監視対象撮像画像、つまり、監視場所D100の背景画像が予め記憶されている。
距離情報取得部122は、監視対象撮像画像に含まれる所定領域(ピクセル)毎に、各領域の距離情報を取得する。具体的に、距離情報取得部122は、監視場所D100を撮像した二つの監視対象撮像画像(ステレオ画像)を撮像部11から入力する。また、距離情報取得部122は、入力した二つの監視対象撮像画像に基づいて、対象領域空間内の三次元情報を生成する。また、三次元情報は、所定の原点に基づいて、例えば、撮像部11から撮像方向(奥行き方向)をZ軸、垂直方向をY軸、水平方向をX軸とした監視場所D100上の点の座標値の集合である。つまり、距離情報取得部122は、監視場所D100を撮像した監視対象撮像画像のピクセル毎の点の座標値の集合を三次元情報として生成する。また、本実施形態において、距離情報は、三次元情報に含まれる各点の座標値のZ軸方向の値とする。なお、距離情報取得部122は、所定領域を、隣接する所定数のピクセルをグループ化したブロック単位で扱ってもよく、この場合、ブロック毎の代表値として、ブロックに含まれる各点の座標値の平均値を算出し、当該代表値の集合を三次元情報として生成してもよい。
差分情報取得部123は、撮像部11から監視場所D100を撮像した監視対象撮像画像を入力すると、当該監視対象撮像画像を記憶部121に記憶する。また、差分情報取得部123は、監視対象物画像を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得する。なお、本実施形態において、比較対象画像は、監視対象物画像が含まれていない監視場所D100の背景画像である。具体的に、差分情報取得部123は、撮像部11から監視対象撮像画像を入力する。また、差分情報取得部123は、記憶部121に記憶されている背景画像を読み出す。差分情報取得部123は、背景画像と監視対象撮像画像とを比較し、ピクセル単位の画素値の差である差分情報を算出する。なお、差分情報の算出方法としては、グレイスケール化したピクセル毎の輝度値の差を算出する方法や、ピクセル毎のR(赤)G(緑)B(青)の色空間上のベクトルの差を算出する方法などを用いてもよい。また、差分情報取得部123は、ピクセル毎の差分情報を抽出部124と特定部125とに出力する。
抽出部124は、差分情報取得部123によって取得された差分情報が所定閾値よりも大きい差分領域を監視対象撮像画像から抽出する。具体的に、抽出部124は、差分情報取得部123からピクセル毎の差分情報を入力すると、予め記憶する閾値以上のピクセルを特定する。また、抽出部124は、特定したピクセルの集合を差分領域として抽出する。つまり、抽出部124は、背景画像と監視対象撮像画像(現画像)との間において、差分情報が大きく変化(閾値以上に変化)したピクセルの集合を差分領域として抽出する。また、抽出部124は、抽出した差分領域を領域検出部126に出力する。
特定部125は、監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、監視対象物画像を含む画像である参照画像に基づいて、背景画像内(比較対象画像内)又は監視対象撮像画像内において監視対象物画像と類似色である誤検出予測領域を特定する。なお、本実施形態において、参照画像は、撮像部11によって前回撮像された監視対象物画像であることとする。また、類似色とは、監視対象物画像に含まれる画素値との差が、所定範囲内である画素値によって示される色であり、特定部125によって特定される。
ここで、類似色に関して、図4を参照して具体的に説明する。図4には、前回取得された監視対象撮像画像Pから、後述する領域検出部126によって検出された監視対象物画像(人物TP)に相当する監視対象領域A_2内の画像の一例が示されている。なお、監視対象領域A_2の検出方法については、詳細を後述する(図15乃至16参照)。
特定部125は、図4に示すように、前回取得された監視対象撮像画像P内の監視対象領域A_2に相当する監視対象物画像に外接する矩形領域を、複数の領域(例えば、9つの領域)に分割する。また、特定部125は、一の領域に含まれる全てのピクセルの画素値の平均値CAveと、当該画素値の標準偏差Cσとを算出する。また、特定部125は、算出した平均値CAve及び標準偏差Cσに基づいて、下記(1)式の範囲内に該当する画素値を類似色として特定する。なお、特定部125は、類似色となる画素値を分割した領域の数(例えば、9つ)だけ特定する。また、(1)式では、係数の値として“0.5”を用いる場合を例に挙げているが、当該係数の値は、これに限定されるものではない。

CAve−Cσ×0.5≦類似色の画素値<CAve+Cσ×0.5
・・・ (1)
更に、特定部125が類似色を特定する方法は、これに限定されるものではない。例えば、特定部125は、抽出部124によって抽出された差分領域を入力し、現在の監視対象撮像画像の差分領域内の画像を複数の領域に分割して、平均値CAve及び標準偏差Cσとを算出し、上記(1)式に基づいて類似色を特定してもよい。また、特定部125は、事前に別の場所で監視対象物のみが撮像された画像を、監視対象物画像として予め記憶し、当該監視対象物画像を複数の領域に分割して、平均値CAve及び標準偏差Cσとを算出し、上記(1)式に基づいて類似色を特定してもよい。
続いて、特定部125は、記憶部121に記憶されている背景画像を読み出す。また、特定部125は、背景画像内において、類似色となる画素値を有するピクセルを全て特定する。つまり、特定部125は、背景画像において監視対象物画像と画素値が類似色である全てのピクセルの集合を誤検出予測領域として特定する。なお、ここでは、特定部125が、予め記憶する背景画像内から、誤検出予測領域を特定する場合を例に挙げて説明するが、特定部125は、現在取得された監視対象撮像画像内から、誤検出予測領域を特定するように構成されていてもよい。また、特定部125は、特定した誤検出予測領域を領域検出部126に出力する。
領域検出部126は、差分領域及び誤検出予測領域の集合和である修正差分領域と、修正差分領域に含まれる領域の距離情報とに基づいて、監視対象撮像画像から監視対象物画像に相当する監視対象領域を検出する。具体的に、まず、領域検出部126は、抽出部124から出力された差分領域と、特定部125から出力された誤検出予測領域とを入力する。また、領域検出部126は、差分領域と誤検出予測領域とを足しあわせて修正差分領域を生成する。
また、領域検出部126は、距離情報取得部122から三次元情報を入力し、生成した修正差分領域に含まれるピクセル毎の点の座標値を三次元情報から抽出する。また、領域検出部126は、抽出した点の座標値に基づいて、全ての点の座標値の距離情報(Z軸方向の値)を横軸方向、距離情報に対応する点の数(度数)を縦軸方向とする分布グラフを生成する。なお、この分布グラフには、複数のピークが存在することになる。また、領域検出部126は、距離情報の分布において所定範囲内に収まる距離情報に基づいて、監視対象領域を検出する。
例えば、監視対象物が人物である場合、分布グラフにおいて、横軸方向(Z軸方向)に人物の大きさに相当する下端間隔を有するピークが存在すると考えられる。領域検出部126は、当該間隔を許容幅W(所定範囲)とし、当該許容幅W内に適切に収まるピークを、分布グラフから特定する。また、領域検出部126は、分布グラフにおいて、特定した許容幅W内のピークに対応するZ軸方向の値を有する全ての点の座標値を抽出し、抽出した全ての点の座標値のX軸方向の値とY軸方向の値とを監視対象領域として検出する。また、領域検出部126は、検出した監視対象領域を距離抽出部127に出力する。
距離抽出部127は、距離情報取得部122から監視対象領域に対応する三次元情報を入力し、領域検出部126から入力した監視対象領域に基づいて、監視対象物画像の三次元情報を抽出する。また、距離抽出部127は、抽出した監視対象物画像の三次元情報を、姿勢判定部128に出力する。
姿勢判定部128は、距離抽出部127から監視対象物画像の三次元情報を入力すると、当該三次元情報に含まれる点の座標値をポリゴン化等の処理を実行し、監視対象物(人物)の姿勢状態等を判定する。
(制御部が監視対象物の距離情報を検出する際の制御動作)
次に、図5を参照し、上述した監視システム10の対象物検出装置12が、監視対象物の距離情報を検出する際の制御動作について説明する。
ステップS11において、記憶部121は、監視場所D100の背景画像を記憶する。なお、記憶部121には、例えば、図6に示すような物品画像BP1乃至BP3を含む背景画像DPを記憶する。
ステップS12において、図6に示すように、監視場所D100に監視対象物として人物Tが存在する場合、距離情報取得部122と差分情報取得部123は、図8に示すように、監視対象物画像TPと物品画像BP1乃至BP3とを含む監視対象撮像画像P1を、撮像部11から取得する。なお、距離情報取得部122は、ステレオ撮像された二つの監視対象撮像画像を取得し、差分情報取得部123は、一つの監視対象撮像画像(例えば、カメラ1によって撮像された監視対象撮像画像)を取得する。また、本実施形態において、物品画像BP2の各ピクセルの画素値は、監視対象物画像TPと比較し、類似色となる範囲内の画素値であることとして以下の動作を説明する。
ステップS13において、距離情報取得部122は、ステレオ撮像された二つの監視対象撮像画像に基づいて、監視対象撮像画像に含まれる領域(ピクセル)毎に、点の座標値を取得する。また、距離情報取得部122は、それぞれの点の座標値に含まれるZ軸方向の値を距離情報として取得する。
ステップS14において、差分情報取得部123は、撮像部11から監視対象撮像画像を入力する。また、差分情報取得部123は、記憶部121に記憶されている背景画像を読み出す。差分情報取得部123は、背景画像と監視対象撮像画像とを比較し、ピクセル単位の画素値の差を差分情報として算出する。
ステップS15において、抽出部124は、差分情報取得部123からピクセル毎の差分情報を入力すると、予め記憶する閾値以上のピクセルを特定する。また、抽出部124は、特定したピクセルの集合を差分領域として抽出する。例えば、抽出部124は、図9に示すように、差分領域TAを抽出する。
ステップS16において、特定部125は、記憶部121に記憶されている背景画像を読み出す。また、特定部125は、前回(以前)撮像された監視対象物画像を複数の領域に分割する。また、特定部125は、分割した一の領域に含まれる全てのピクセルの画素値の平均値CAve及び標準偏差Cσを算出し、上記(1)式の範囲内に該当する画素値を類似色として特定する。また、特定部125は、背景画像内において、類似色となる画素値のピクセルの集合を特定する。例えば、本実施形態では、特定部125は、図10に示すように、監視対象物画像TPと類似色となる画素値のピクセルの集合を誤検出予測領域BAとして特定する。ここで、本実施形態では、図10に示すように、物品画像BP2の各ピクセルの画素値が、監視対象物画像TPと類似色となる範囲内の画素値であるため、特定部125は、物品画像BP2に相当する領域を誤検出予測領域BAとして特定する。
なお、特定部125は、現在取得された監視対象撮像画像P1内から、誤検出予測領域BAを特定するように構成されていてもよい。この場合、特定部125は、図11に示すように、監視対象物画像TPと類似色となる物品画像BP2及び監視対象物画像TPに相当する領域を、誤検出予測領域BAとして特定する。このように、特定部125は、予め記憶する背景画像内から、誤検出予測領域BAを特定してもよいし、現在取得された監視対象撮像画像内から、誤検出予測領域BAを特定してもよい。
ステップS17において、領域検出部126は、抽出部124から出力された差分領域と、特定部125から出力された誤検出予測領域とを入力する。また、領域検出部126は、差分領域と誤検出予測領域とを足しあわせて修正差分領域を生成する。例えば、領域検出部126は、図12に示すように、修正差分領域A_1を生成する。なお、図12の例では、監視対象撮像画像内の各ピクセルを、修正差分領域A_1を「1(白で表示)」と「0(黒で表示)」とに二値化したイメージが示されている。
また、領域検出部126は、図13に示すように、距離情報取得部122から三次元情報S1000を入力し、生成した修正差分領域A_1に含まれるピクセル毎の点の座標値を三次元情報S1000から抽出する。なお、この時、距離情報取得部122から入力した三次元情報には、物品B1乃至B3に対応する点の座標値の集合BS1乃至BS3と、人物Tに対応する点の座標値の集合TSが含まれている。また、領域検出部126は、修正差分領域A_1に含まれるピクセル毎の点の座標値を三次元情報から抽出する。なお、図14に示すように、この時点での三次元情報S_1には、人物Tに対応する点の座標値の集合TSと、点の座標値の集合BS2に対応するノイズNが含まれている。
また、領域検出部126は、図15に示すように、三次元情報S_1に含まれる全ての点の座標値の距離情報(Z軸方向の値)を横軸方向、距離情報に対応する点の数(度数)を縦軸方向とする分布グラフを生成する。
なお、図15に示すように、分布グラフには人物Tに対応するピークPTとノイズに対応するPNとが含まれる。そして、領域検出部126は、人物Tに対応する距離の間隔を許容幅W(所定範囲)とし、当該許容幅Wに適切に収まるピークPTを、分布グラフから特定する。また、領域検出部126は、分布グラフにおいて、許容幅W内に含まれるピークPTの全ての点の座標値を抽出し、図16に示すように、人物Tに対応する点の座標値のみを抽出する。なお、領域検出部126は、図16に示すように、当該全ての点の座標値のX軸方向の値とY軸方向の値とに基づいて、監視対象物画像に相当する監視対象領域A_2を検出する。
ステップS18において、距離抽出部127は、距離情報取得部122から三次元情報を入力し、領域検出部126によって検出された監視対象領域A_2に基づいて、人物Tを示す点の座標値の集合TS(監視対象物画像)の三次元情報S_2を抽出する。
このようにして、対象物検出装置12では、監視対象領域A_2を検出して、人物Tを示す点の座標値の集合TS(監視対象物画像)の三次元情報S_2を抽出する。また、この後、対象物検出装置12では、監視対象撮像画像が取得される度に、ステップS12乃至S18の動作が繰り返し実行される。なお、対象物検出装置12は、ステップS11乃至S18の一連の動作が実行された後、ステップS11において、取得した監視対象撮像画像を比較対象画像として記憶するように構成されていてもよい。つまり、対象物検出装置12は、前回取得した監視対象撮像画像を比較対象画像として更新し、ステップS11乃至S18の動作を繰り返し実行するように構成されていてもよい。
(第1実施形態に係る対象物検出装置の作用・効果)
本実施形態に係る対象物検出装置12によれば、差分情報取得部123は、監視対象撮像画像と背景画像(比較対象画像)との差分を示す差分情報を取得する。また、距離情報取得部122は、監視対象撮像画像に含まれるピクセル毎の距離情報を取得する。
また、かかる対象物検出装置12によれば、抽出部124は、差分領域を抽出し、特定部125は、背景画像から誤検出予測領域を特定する。領域検出部126は、差分領域と誤検出予測領域の集合和である修正差分領域から監視対象領域を検出する。ここで、従来技術では、監視対象撮像画像に含まれる人物画像(監視対象物画像)と背景画像とが、例えば類似色である場合、単に監視対象撮像画像と背景画像との差分情報を算出した際に、人物画像の一部が欠落するという問題が発生していた。しかし、かかる対象物検出装置12によれば、人物画像と類似色である誤検出予測領域と差分領域との集合和から監視対象領域を検出するので、人物画像の一部が欠落することを防止できる。
また、かかる対象物検出装置12によれば、領域検出部126は、距離情報とに基づいて、監視対象撮像画像の修正差分領域から監視対象領域を検出する。このとき、領域検出部126は、監視対象物との距離が所定範囲内に収まる距離情報の分布を考慮して、監視対象領域を検出する。つまり、監視対象撮像画像に含まれる様々な画像の中から、人物が実際に存在する距離を考慮して、監視対象物画像に相当する監視対象領域をより正確に検出する。このように、かかる対象物検出装置12によれば監視対象撮像画像から人物画像を検出する精度の向上を図ることができる。
(第1実施形態に係る変形例1)
以下に上述した第1実施形態に係る対象物検出装置12の変形例の構成について、上述した対象物検出装置12との相違点に着目して説明する。本変形例に係る対象物検出装置12の構成は、特定部125を除いて、上述した実施形態に係る対象物検出装置12と同様である。よって、以下に、本変形例に係る特定部125の構成について説明する。
本実施形態に係る特定部125は、参照画像に基づいて監視対象物画像の動き量を予測して、監視対象物画像の動き量に基づいて誤検出予測領域を特定する。具体的に、特定部125は、前回の監視対象撮像画像において、領域検出部126が検出した監視対象領域A_2の矩形領域に、例えば、人物の動き量に応じた所定間隔だけ広い広域監視対象領域に基づいて、誤検出予測領域を特定する。
例えば、図17に示すように、特定部125は、前回の監視対象撮像画像において、領域検出部126が監視対象領域A_2を検出した場合、次の監視対象撮像画像が撮像されるまでの間に人物が動く量Dを考慮し、例えば、監視対象領域A_2の矩形領域の重心位置を基準に、各辺を所定倍(例えば、1.2倍等)することで、監視対象領域A_2よりも広い広域監視対象領域A_3を決定する。なお、監視対象物画像に着目し、前後の監視対象撮像画像(フレーム)間の差分情報と、その経過時間とに基づいて、監視対象物画像の移動方向と移動速度を推定し、監視対象領域A_2の重心位置を基準に移動方向と移動速度に応じて、所定倍率を変更して広域監視対象領域A_3を決定してもよい。また、特定部125は、図18に示すように、背景画像において、広域監視対象領域A_3内に含まれるピクセルを対象に、誤検出予測領域BAを特定する。
上述した第1実施形態に係る特定部125では、背景画像の全てのピクセルを対象に誤検出予測領域を特定していたが、本実施形態に係る特定部125は、広域監視対象領域A_3内の背景画像に含まれるピクセルのみを対象に、誤検出予測領域BAを特定するので、誤検出予測領域を特定する際の処理負荷及び処理期間を短縮できる。また、本実施形態に係る特定部125によれば、人物が移動する場合であっても、人物の動き量を考慮して、誤検出予測領域をより確実に特定することができる。
(第1実施形態に係る変形例2)
また、以下に上述した第1実施形態に係る対象物検出装置12の変形例の構成について、上述した対象物検出装置12との相違点に着目して説明する。本変形例に係る対象物検出装置12では、姿勢判定部128は、領域検出部126によって検出された監視対象領域A_2に基づいて、監視対象物画像に相当する監視対象物の姿勢を判定する。また、領域検出部126は、監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、監視対象物画像を含む画像である参照画像が取得された際に姿勢判定部128によって判定された監視対象物の姿勢に基づいて、監視対象領域を検出する。
具体的に、姿勢判定部128は、距離抽出部127によって監視対象領域A_2に基づいて抽出された三次元情報を入力し、入力した三次元情報に含まれる点の座標値に基づいて、X軸方向の最小値及び最大値と、Y軸方向の最小値及び最大値と、Z軸方向の最小値及び最大値とを抽出して、立方体情報を生成する。また、姿勢判定部128は、生成した立方体情報に基づいて、図16に示すように、X軸方向の幅DxとY軸方向の幅Dyとの比を示すX−Y比と、Z軸方向の幅DzとY軸方向の幅Dyとの比を示すZ−Y比とを算出する。また、姿勢判定部128は、例えば、X−Y比又はZ−Y比が0.4未満である場合、人物の姿勢が「立位」であり、X−Y比又はZ−Y比が1.5よりも大きい場合、人物の姿勢が「臥位」であり、X−Y比又はZ−Y比がそれ以外の値である場合、人物の姿勢が「座位」である等、監視対象物である人物の姿勢を判定する。また、姿勢判定部128は、判定した姿勢結果として、「立位」、「座位」、「臥位」を領域検出部126に通知する。
領域検出部126は、通知された姿勢結果に応じて、図15に示す分布グラフにおいて、人物Tに対応する点の座標値の集合TSを検出する際の許容幅Wの値を変更する。ここで、上述した分布グラフでは、人物Tに対応するピークPTの線形が、監視対象物である人物Tの姿勢によって大きく変動する。そこで、領域検出部126は、姿勢判定部128から通知された「立位」、「座位」、「臥位」の順に許容幅Wの値が大きくなるように変更する。なお、本実施形態において、「臥位」は、Z軸方向に人物の背筋が向けられていることとする。また、領域検出部126に通知される姿勢結果は、前回取得した監視対象撮像画像に基づいて、対象物検出装置12によって図5に示すステップS11乃至S18の動作が実行され、姿勢判定部128が、三次元情報S_2から生成した立方体情報に基づいて、姿勢を判定した結果である。つまり、領域検出部126は、姿勢判定部128によって判定された前回の姿勢結果に応じて、次回分布グラフを生成する際に、許容幅Wの値を変更する。
具体的に、領域検出部126は、三次元情報S_1に含まれる全ての点の座標値の距離情報(Z軸方向の値)を横軸方向、距離情報に対応する点の数(度数)を縦軸方向とする分布グラフを生成する。このとき、領域検出部126は、全ての点の座標値の距離情報の平均値“Ave”と、標準偏差“σ”とを算出する。また、領域検出部126は、下記(2)式に基づいて、「許容幅W」の範囲を算出する。
ここで、(2)式において、“α”は、「立位」、「座位」、「臥位」に対応する重み係数を示す。また、本実施形態では、「立位」に対応する“α”を“0.5”、「座位」に対応する“α”を“0.7”、「臥位」に対応する“α”を“1”として説明する。

許容幅W=α×4σ ・・・ (2)

領域検出部126は、通知された「立位」、「座位」、「臥位」に応じて、「許容幅W」の範囲を算出する。また、領域検出部126は、分布グラフにおいて、ピークPTの最も高い度数値に相当する距離情報(分布グラフの最高値)か、又は、生成した分布グラフの平均値Aveを中心に、「許容幅W」範囲内の距離情報(Z値)を含む点の座標値に基づいて、監視対象領域を検出する。なお、平均値Aveを中心とした場合、許容幅W内の距離情報は、下記(3)式の不等式によって示される許容範囲内の距離情報となる。

Ave−α×2σ≦許容範囲<Ave+α×2σ ・・・ (3)

このようにして、領域検出部126は、姿勢判定部128によって判定された姿勢結果に基づいて、許容幅Wの値を変更することで、人物T(監視対象物)の姿勢が変化する場合であっても、当該姿勢を考慮して、より正確な監視対象領域を検出することができる。
(第1実施形態に係る変形例3)
以下に上述した第1実施形態に係る対象物検出装置12の変形例の構成について、上述した対象物検出装置12との相違点に着目して説明する。本変形例に係る対象物検出装置12の構成は、距離情報取得部122を除いて、上述した実施形態に係る対象物検出装置12と同様である。よって、以下に、本変形例に係る距離情報取得部122の構成について説明する。
上述した実施形態では、距離情報取得部122は、監視対象撮像領域の全ての領域内の距離情報を、出力するように構成されていたが、監視場所D100に人物が含まれていない背景画像の距離情報(比較距離情報)と、人物が含まれている監視対象撮像画像の距離情報との差分を示す差分距離情報を生成し、生成した差分距離情報を領域検出部126と距離抽出部127とに出力するように構成されていてもよい。
また、図19には、比較差分距離情報を三次元的に示すイメージ図が示されている。ここで、距離抽出部127は、撮像部11によって撮像された監視対象撮像画像(ステレオ画像)に基づいて、距離情報を取得するが、当該距離情報の精度は、設けられている複数のカメラ間の距離やカメラの画素数(解像度)等、ハードウエア構成の状態に依存すると考えられる。つまり、ハードウエア構成の状態によっては、距離情報の精度が低くなる場合がある。よって、距離抽出部127は、上述した差分距離情報を生成する場合、図19に示すように、物品BS1乃至BS3の一部がノイズとして含まれるが、この差分距離情報を生成することで、図20に示すように、図14と比べてノイズNを低減できる。つまり、領域検出部126が、分布グラフから、許容幅Wに基づいて人物を示す点の座標値の集合TSに対応するピークPTを特定する際の精度を向上させることができる。
(第1実施形態に係る変形例4)
以下に上述した第1実施形態に係る対象物検出装置12の変形例の構成について、上述した対象物検出装置12との相違点に着目して説明する。本変形例に係る対象物検出装置12の構成は、距離情報取得部122を除いて、上述した実施形態に係る対象物検出装置12と同様である。よって、以下に、本変形例に係る距離情報取得部122の構成について説明する。本変形例に係る距離情報取得部122は、修正差分領域に含まれる所定領域(ピクセル)毎に距離情報を取得してもよい。具体的に、距離情報取得部122は、領域検出部126によって修正差分領域を生成する度に、領域検出部126から修正差分領域を取得する。また、距離情報取得部122は、監視対象撮像画像において取得した修正差分領域内のピクセル毎の距離情報を取得して、領域検出部126と距離抽出部127とに出力する。
かかる対象物検出装置12によれば、距離情報取得部122は、監視対象撮像画像の全体ではなく、修正差分領域に含まれる所定領域毎に距離情報を取得するので、距離情報を取得する際の処理負荷を低減することができる。
(第1実施形態に係る変形例5)
以下に上述した第1実施形態に係る対象物検出装置12の変形例の構成について、上述した対象物検出装置12との相違点に着目して説明する。上述した実施形態に係る対象物検出装置12では、距離情報取得部122は、二つの監視対象撮像画像に基づいて、距離情報を取得するように構成されていたが、これに限定されるものではない。
例えば、図1に示すように、対象物検出装置12が、レーザスキャンセンサや、音波測距センサなどとして機能する測定部15を備える場合、距離情報取得部122は、当該測定部15から対象領域内の距離情報を取得するように構成されていてもよい。また、距離情報取得部122は、撮像部11から、カメラがオートフォーカスを制御する際の制御状態に応じて、距離情報を取得するように構成されていてもよい。
(その他の実施形態)
上述したように、本発明の一実施形態を通じて本発明の内容を開示したが、この開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態が明らかとなろう。
例えば、上述した実施形態では、分布グラフは、図15に示すように、横軸が距離情報(Z軸方向)となるように構成されていたが、かかる横軸は、水平方向(X軸方向)や、垂直方向(Y軸方向)等であってもよい。
また、各実施形態の構成及び各変更例の構成もそれぞれ組み合わせることが可能である。また、各実施形態及び各変更例の作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、各実施形態及び各変更例に記載されたものに限定されるものではない。
このように、本発明は、ここでは記載していない様々な実施の形態などを含むことは勿論である。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の第1実施形態に係る監視システムの概略と監視対象を示す概略図である。 本発明の第1実施形態に係る対象物監視システムの構成を示す図である。 本発明の第1実施形態に係る対象物検出装置の構成を示す図である。 本発明の第1実施形態に係る対象物検出装置において、監視対象物画像から類似色を特定する際のイメージ図である。 本発明の第1実施形態に係る対象物検出装置の動作を示すフローチャートである。 本発明の第1実施形態に係る記憶部に記憶される背景画像のイメージを示す図である。 本発明の第1実施形態に係る人物を含む監視対象を示す概略図である。 本発明の第1実施形態に係る対象撮像画像のイメージを示す図である。 本発明の第1実施形態に係る差分領域のイメージを示す図である。 本発明の第1実施形態に係る誤検出予測領域のイメージを示す図である。 本発明の第1実施形態に係る誤検出予測領域のイメージを示す図である。 本発明の第1実施形態に係る修正差分領域のイメージを示す図である。 本発明の第1実施形態に係る三次元情報のイメージを示す図である。 本発明の第1実施形態に係る修正差分領域の三次元情報のイメージを示す図である。 本発明の第1実施形態に係る距離情報と度数との分布グラフを示す図である。 本発明の第1実施形態に係る監視対象領域のイメージの三次元情報のイメージを示す図である。 本発明の変形例に係る広域監視対象領域のイメージを示す図である。 本発明の変形例に係る誤差検出予測領域のイメージを示す図である。 本発明の変形例において、背景画像の距離情報と、人物が含まれている監視対象撮像画像の距離情報との差分を示す三次元情報のイメージを示す図である。 本発明の変形例に係る修正差分領域の三次元情報のイメージを示す図である。
符号の説明
10…監視システム、11…撮像部、12…対象物検出装置、13…表示部、15…測定部、121…記憶部、122…距離情報取得部、123…差分情報取得部、124…抽出部、125…特定部、126…領域検出部、127…距離抽出部、128…姿勢判定部、D100…監視場所、A_1…修正差分領域、A_3…広域監視対象領域、A_2…監視対象領域、B1乃至B3…物品、BA…誤検出予測領域、DP…背景画像、N…ノイズ、P乃至P1…監視対象撮像画像、PT…ピーク、S_1乃至S_2…三次元情報、S1000…三次元情報、S11乃至S18…ステップ、T…人物、TA…差分領域、TP…人物、TP…監視対象物画像、TS…点の座標値の集合、W…許容幅、

Claims (8)

  1. 監視対象物画像を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得する差分情報取得部と、
    前記差分情報取得部によって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出する抽出部と、
    前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定する特定部と、
    前記監視対象撮像画像に含まれる所定領域毎に、各所定領域の距離情報を取得する距離情報取得部と、
    前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出する領域検出部と
    を備えることを特徴とする対象物検出装置。
  2. 前記領域検出部は、前記距離情報の分布において所定範囲内に収まる前記距離情報に基づいて、前記監視対象領域を検出することを特徴とする請求項1に記載の対象物検出装置。
  3. 前記特定部は、前記参照画像に基づいて前記監視対象物画像の動き量を予測して、前記監視対象物画像の動き量に基づいて前記誤検出予測領域を特定することを特徴とする請求項1に記載の対象物検出装置。
  4. 前記領域検出部によって検出された前記監視対象領域に基づいて、前記監視対象物画像に相当する監視対象物の姿勢を判定する姿勢判定部をさらに備え、
    前記領域検出部は、前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像が取得された際に、前記姿勢判定部によって判定された前記監視対象物の姿勢に基づいて、前記監視対象領域を検出することを特徴とする請求項1に記載の対象物検出装置。
  5. 前記距離情報取得部は、前記修正差分領域に含まれる所定領域毎に前記距離情報を取得することを特徴とする請求項1に記載の対象物検出装置。
  6. 前記比較対象画像は、前記監視対象物画像が含まれていない背景画像であることを特徴とする請求項1に記載の対象物検出装置。
  7. 監視対象物画像を含む監視対象撮像画像と比較対象画像との画素値の差分情報を取得するステップAと、
    前記ステップAによって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出するステップBと、
    前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定するステップCと、
    前記監視対象撮像画像に含まれる所定領域毎に、各所定領域の距離情報を取得するステップDと、
    前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出するステップEとを対象物検出装置として動作するコンピュータに実行させることを特徴とする対象物検出プログラム。
  8. 監視対象物画像を含む監視対象撮像画像を取得する撮像部と、
    前記監視対象撮像画像と比較対象画像との画素値の差分情報を取得する差分情報取得部と、
    前記差分情報取得部によって取得された前記差分情報が所定閾値よりも大きい差分領域を前記監視対象撮像画像から抽出する抽出部と、
    前記監視対象撮像画像を撮像した時刻よりも前に撮像された画像であり、前記監視対象物画像を含む画像である参照画像に基づいて、前記比較対象画像内又は前記監視対象撮像画像内において前記監視対象物画像と類似色である誤検出予測領域を特定する特定部と、
    前記監視対象撮像画像に含まれる所定領域毎に、各所定領域の距離情報を取得する距離情報取得部と、
    前記差分領域及び前記誤検出予測領域の集合和である修正差分領域と、前記修正差分領域に含まれる前記所定領域の前記距離情報とに基づいて、前記監視対象撮像画像から前記監視対象物画像に相当する監視対象領域を検出する領域検出部と、
    前記監視対象撮像画像における前記監視対象領域の画像を表示する表示部と
    を備えることを特徴とする対象物検出システム。
JP2007165379A 2007-06-22 2007-06-22 対象物検出装置、対象物検出プログラム及び対象物検出システム Withdrawn JP2009003787A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007165379A JP2009003787A (ja) 2007-06-22 2007-06-22 対象物検出装置、対象物検出プログラム及び対象物検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007165379A JP2009003787A (ja) 2007-06-22 2007-06-22 対象物検出装置、対象物検出プログラム及び対象物検出システム

Publications (1)

Publication Number Publication Date
JP2009003787A true JP2009003787A (ja) 2009-01-08

Family

ID=40320091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007165379A Withdrawn JP2009003787A (ja) 2007-06-22 2007-06-22 対象物検出装置、対象物検出プログラム及び対象物検出システム

Country Status (1)

Country Link
JP (1) JP2009003787A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102647555A (zh) * 2011-02-21 2012-08-22 株式会社尼康 被摄体确定装置及被摄体追踪装置
JP2014056494A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、オブジェクト検出方法、およびオブジェクト検出プログラム
CN104346815A (zh) * 2013-07-29 2015-02-11 上海西门子医疗器械有限公司 曝光过程中的患者位移监控方法、***及x光成像设备
CN105427344A (zh) * 2015-11-18 2016-03-23 江苏省电力公司检修分公司 一种变电站智能***中运动目标检测方法
US20210365731A1 (en) * 2019-04-04 2021-11-25 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
CN117784160A (zh) * 2023-12-21 2024-03-29 中国核工业华兴建设有限公司 一种基于深度学习的预埋件位置检查方法及检查设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102647555A (zh) * 2011-02-21 2012-08-22 株式会社尼康 被摄体确定装置及被摄体追踪装置
JP2014056494A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、オブジェクト検出方法、およびオブジェクト検出プログラム
CN104346815A (zh) * 2013-07-29 2015-02-11 上海西门子医疗器械有限公司 曝光过程中的患者位移监控方法、***及x光成像设备
CN105427344A (zh) * 2015-11-18 2016-03-23 江苏省电力公司检修分公司 一种变电站智能***中运动目标检测方法
US20210365731A1 (en) * 2019-04-04 2021-11-25 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
US11977980B2 (en) * 2019-04-04 2024-05-07 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
CN117784160A (zh) * 2023-12-21 2024-03-29 中国核工业华兴建设有限公司 一种基于深度学习的预埋件位置检查方法及检查设备

Similar Documents

Publication Publication Date Title
US9367734B2 (en) Apparatus, control method, and storage medium for setting object detection region in an image
JP5484184B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009003787A (ja) 対象物検出装置、対象物検出プログラム及び対象物検出システム
US20150243027A1 (en) Image processing device, image processing method, and program
US20110235866A1 (en) Motion detection apparatus and method
JP2016220145A (ja) 画像解析装置、画像解析方法、およびプログラム
JP2009140307A (ja) 人物検出装置
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
JP2018182593A (ja) 画像処理装置、画像処理方法
US20160005156A1 (en) Infrared selecting device and method
JP2011103037A (ja) 検出装置
JP2017091063A (ja) 物体検知装置、情報処理装置およびその方法
JP4818285B2 (ja) 混雑滞留検知システム
US11423622B2 (en) Apparatus for generating feature positions in a virtual world, information processing method, and storage medium
WO2021111747A1 (ja) 画像処理装置、監視システム、及び画像処理方法
JP5015838B2 (ja) 煙検出装置
JP2009147607A (ja) 人物追尾装置
JP2011130409A (ja) 映像信号処理装置及び映像信号処理方法
JP2008217330A (ja) 速度推定方法および速度推定プログラム
JP2006048328A (ja) 顔検出装置および顔検出方法
EP3789937A1 (en) Imaging device, method for controlling image device, and system including image device
JP2018124629A (ja) 画像処理装置、情報処理方法及びプログラム
JP2015184944A (ja) 人物検出装置
JP2013156671A (ja) 画像監視装置
JP2013114582A (ja) 物体検出装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907