JPWO2014155958A1 - 対象物監視システム、対象物監視方法および監視対象抽出プログラム - Google Patents

対象物監視システム、対象物監視方法および監視対象抽出プログラム Download PDF

Info

Publication number
JPWO2014155958A1
JPWO2014155958A1 JP2015507989A JP2015507989A JPWO2014155958A1 JP WO2014155958 A1 JPWO2014155958 A1 JP WO2014155958A1 JP 2015507989 A JP2015507989 A JP 2015507989A JP 2015507989 A JP2015507989 A JP 2015507989A JP WO2014155958 A1 JPWO2014155958 A1 JP WO2014155958A1
Authority
JP
Japan
Prior art keywords
monitoring target
monitoring
state
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015507989A
Other languages
English (en)
Other versions
JP6508041B2 (ja
Inventor
博義 宮野
博義 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014155958A1 publication Critical patent/JPWO2014155958A1/ja
Application granted granted Critical
Publication of JP6508041B2 publication Critical patent/JP6508041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

第1撮影手段60は、第一の範囲で生じる状態を撮影した状態画像を生成する。第2撮影手段70は、第二の範囲に存在する監視対象を撮影した監視対象画像を生成する。特定状態検出手段81は、状態画像から特定の状態を検出する。監視対象解析手段82は、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する。監視対象特徴抽出手段85は、監視対象の状況に基づいて、監視対象画像から監視対象の特定に用いられる特徴を抽出する。

Description

本発明は、注目する対象物を監視する対象物監視システム、監視対象抽出装置、対象物監視方法、監視対象抽出方法および監視対象抽出プログラムに関する。
監視用に設置されたカメラで撮影される画像から、様々な状況を検出する方法が各種知られている。また、近年、顔照合技術が進歩してきており、人物の顔を撮影するカメラで撮影された画像同士を比較することで、別々の画像に存在する人物が同一人物か否かを判定することが可能になっている。
また、ゴミ捨てや落書きなどの問題行動を検知する方法も各種知られている。例えば、非特許文献1には、混雑した状況を監視するカメラで撮影された画像から疑わしき背景の変化を検出することで、問題となる状態を検知する方法が記載されている。
近年、監視用カメラで撮影された画像から、問題となる状態を検知するだけでなく、そのような問題を起した原因を特定することが望まれている。例えば、監視用カメラで撮影される画像から、ゴミ捨てや落書きなどの問題行動を起こす常習犯を自動的に発見できることが好ましい。
これを実現するためには、ゴミ捨てや落書きなどの問題行動を検知する技術と、そのような問題行動を起した人物が同一人物か否かを判定する技術の2つの技術が必要になる。しかし、問題行動を検知する技術を用いて、その問題行動を起した人物自身を特定することは難しい。
また、問題行動を撮影するためには、混雑した環境下でも他の人物による遮蔽が少なくなるように、俯角が大きいカメラを設置することが望ましい。一方、同一人物か否かを判定するためには、画像間で顔を照合する際の制約から、可能な限り人物の顔を正面から撮影する必要がある。そのため、人物の顔を撮影するためには、俯角が小さいカメラを設置することが望ましい。
このように、同一のカメラを利用して上述する2つの技術を同時に実現することは難しい。すなわち、上述する2つの技術を単純に組み合わせただけでは、例えば、問題行動を起こす常習犯を自動的に発見することは困難である。
そこで、本発明は、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる対象物監視システム、監視対象抽出装置、対象物監視方法、監視対象抽出方法および監視対象抽出プログラムを提供することを目的とする。
本発明による対象物監視システムは、第一の範囲で生じる状態を撮影した状態画像を生成する第1撮影手段と、第二の範囲に存在する監視対象を撮影した監視対象画像を生成する第2撮影手段と、状態画像から特定の状態を検出する特定状態検出手段と、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析手段と、監視対象の状況に基づいて、監視対象画像から監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段とを備えたことを特徴とする。
本発明による監視対象抽出装置は、第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出手段と、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析手段と、監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段とを備えたことを特徴とする。
本発明による対象物監視方法は、第一の範囲で生じる状態を撮影した状態画像を生成し、状態画像から特定の状態を検出し、特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影した監視対象画像を生成し、監視対象画像から監視対象の特定に用いられる特徴を抽出することを特徴とする。
本発明による監視対象抽出方法は、第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出し、特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、監視対象の特定に用いられる特徴を抽出することを特徴とする。
本発明による監視対象抽出プログラムは、コンピュータに、第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出処理、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析処理、および、監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、監視対象の特定に用いられる特徴を抽出する監視対象抽出処理を実行させることを特徴とする。
本発明によれば、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
本発明による対象物監視システムの一実施形態を示すブロック図である。 状態画像を異なるカメラで撮影した場合の例を示す説明図である。 対象物監視システムの動作例を示すフローチャートである。 対象物監視システムの具体例を示す説明図である。 本発明による対象物監視システムの概要を示すブロック図である。 本発明による対象物監視システムの他の概要を示すブロック図である。 本発明による監視対象抽出装置の概要を示すブロック図である。 本発明による監視対象抽出装置の他の概要を示すブロック図である。
図1は、本発明による対象物監視システムの一実施形態を示すブロック図である。本実施形態の対象物監視システムは、状態検出用カメラ11と、状態画像記憶手段12と、監視対象抽出用カメラ13と、監視対象画像記憶手段14と、特定状態検出手段15と、監視対象解析手段16と、時刻予測手段17と、監視対象特徴抽出手段18と、グレーリスト記憶手段19と、対象物特定手段20とを備えている。
状態検出用カメラ11は、特定の状態を検出したい範囲の画像を撮影するために設置されるカメラである。ここで、特定の状態とは、例えば、上述する問題行動(例えば、ゴミ捨て、落書き、たむろ、など)が生じている状態のことを意味する。ただし、特定の状態は、問題行動が生じている状態に限定されず、例えば、好ましい行動が生じている状態であってもよい。
また、所定の範囲内で生じる状態をより適切に検出できる画像を撮影するため、俯角が高くなるように状態検出用カメラ11が設置されることが好ましい。
以下の説明では、状態検出用カメラ11が撮影する画像を状態画像と記す。また、後述する監視対象抽出用カメラ13が撮影する範囲と区別するため、状態検出用カメラ11が撮影する範囲を第一の範囲と記す。第一の範囲は、状態検出用カメラ11の設置位置や設置角度、設定するズームなどに応じて定められる。第一の範囲は、例えば、画角で表わされていてもよい。状態検出用カメラ11は、撮影した状態画像およびその状態画像に関連する情報を状態画像記憶手段12に登録する。
状態画像記憶手段12は、状態検出用カメラ11が撮影した状態画像を記憶する。状態画像記憶手段12は、状態画像を撮影した時刻や位置、状態画像を撮影したカメラを識別する情報などを、その状態画像と共に記憶していてもよい。
監視対象抽出用カメラ13は、所定の範囲内に現れる監視対象を撮影するために設置されるカメラである。監視対象は、特定の状態を発生させる原因と考えられる種類の対象物に応じて定められる。例えば、上述するゴミ捨て、落書き、たむろなどの問題行動は、人によって行われることから、監視対象は人になる。このとき、監視対象抽出用カメラ13は、人を監視対象として撮影した監視対象画像を生成してもよい。
また、例えば、オートバイによるひったくりは、犯人の乗車するオートバイを原因として発生することから、監視対象はオートバイになる。ただし、監視対象は、人間やオートバイに限定されず、例えば、車などであってもよい。
また、監視対象抽出用カメラ13が撮影する監視対象画像は、後述する監視対象特徴抽出手段18が監視対象を特定するために利用可能な特徴の抽出に利用される。監視対象の特徴をより適切に抽出可能な画像を撮影するため、俯角が小さくなるように監視対象抽出用カメラ13が設置されることが好ましい。
以下の説明では、監視対象抽出用カメラ13が撮影する画像を監視対象画像と記す。また、監視対象抽出用カメラ13が撮影する範囲を第二の範囲と記す。第二の範囲も、監視対象抽出用カメラ13の設置位置や設置角度、設定するズームなどに応じて定められる。第二の範囲は、例えば、画角で表わされていてもよい。なお、第一の範囲と第二の範囲は、一部または全部が重複していてもよく、全く重複していなくてもよい。
監視対象抽出用カメラ13は、撮影した監視対象画像およびその監視対象に関連する情報を監視対象画像記憶手段14に登録する。
なお、本実施形態では、状態画像を撮影する状態検出用カメラ11と、監視対象画像を撮影する監視対象抽出用カメラ13がそれぞれ1台の場合を例示する。ただし、状態画像を撮影するカメラおよび監視対象画像を撮影するカメラは、それぞれ1台に限定されず、2台以上であってもよい。
また、一般に、所定の範囲の状態を撮影するためには、俯角が大きいカメラを設置することが望ましく、監視対象を特定するためには、俯角が小さいカメラを設置することが望ましい。そのため、状態検出用カメラ11の俯角は、監視対象抽出用カメラ13の俯角よりも大きくなるように設置される。
監視対象画像記憶手段14は、監視対象抽出用カメラ13が撮影した監視対象画像を記憶する。監視対象画像記憶手段14は、監視対象画像を撮影した時刻や位置、監視対象画像を撮影したカメラを識別する情報などを、その監視対象画像と共に記憶していてもよい。
特定状態検出手段15は、状態画像から特定の状態を検出する。特定状態検出手段15は、状態検出用カメラ11がそのとき撮影した状態画像だけでなく、状態画像記憶手段12に記憶された過去の状態画像(以下、過去状態画像と記す。)を用いて、特定の状態を検出してもよい。例えば、第一の範囲にゴミ捨てされている状態を検出したい場合、特定状態検出手段15は、状態検出用カメラ11が撮影した状態画像や過去状態画像から、問題行動であるゴミ捨て状態を検出する。
特定状態検出手段15が状態画像から特定の状態を検出する方法は任意である。特定状態検出手段15は、例えば、非特許文献1に記載された方法を用いて、状態画像から特定の状態を検出してもよいし、他の方法を用いて特定の状態を検出してもよい。
監視対象解析手段16は、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する。監視対象の状況とは、状態検出用カメラ11によって撮影された状態画像または状態画像群から特定可能な監視対象の動きや外観を意味する。ただし、監視対象の状況は、個々の監視対象を特定可能な情報である必要はない。例えば、監視対象が人の場合、監視対象の状況として、人の服装や髪型、人の移動状況(例えば、速度や方向)などが挙げられる。また、例えば、監視対象が車の場合、監視対象の状況として、車体の色や形状、車の走行状況などが挙げられる。
このとき、監視対象解析手段16は、特定の状態が検出された状態画像そのものだけでなく、状態画像記憶手段12に記憶された過去状態画像を用いて、監視対象の状況を解析してもよい。監視対象解析手段16は、例えば、特定の状態が検出された状態画像と、その状態画像が撮影される前の所定の期間内(例えば、5秒以内)に撮影された過去状態画像を用いて、監視対象の移動状況を解析してもよい。このように、監視対象解析手段16が過去状態画像を利用することで、監視対象の状況をより適切に解析できる。
なお、監視対象解析手段16が解析の対象とする監視対象は、1つであってもよく、複数であってもよい。例えば、監視対象が人の場合、監視対象解析手段16は、特定の状態が検出された時点で撮影されている全ての人物を疑わしいと判断し、その全ての人物を監視対象としてもよい。
時刻予測手段17は、監視対象解析手段16が解析した監視対象の状況から、監視対象抽出用カメラ13が撮影する範囲(すなわち、第二の範囲)に、その監視対象が現れる時刻を予測する。以下、時刻予測手段17が予測した時刻を単に予測時刻と記す。
状態検出用カメラ11が撮影する範囲(第一の範囲)と、監視対象抽出用カメラ13が撮影する範囲(第二の範囲)は、各カメラを設置する時点で特定可能なため、時刻予測手段17は、これらの範囲から特定される位置に基づいて、監視対象が第二の範囲に現れる時刻を予測すればよい。
例えば、監視対象解析手段16が監視対象の移動状況を解析している場合、時刻予測手段17は、その移動状況に基づいて第二の範囲に監視対象が現れる時刻を予測できる。具体的には、時刻予測手段17は、状態画像から監視対象の空間位置と、移動方向および速度とを特定し、その空間位置から第二の範囲を示す空間位置に到達する時刻を、特定した移動方向および速度から算出してもよい。
ただし、時刻の予測方法は、上記方法に限定されない。監視対象解析手段16および時刻予測手段17は、他の追跡技術を用いて時刻を予測してもよい。例えば、監視対象が状態検出用カメラ11に撮影されている範囲では、監視対象解析手段16が、物体追跡の技術を用いて追跡を行ってもよい。また、監視対象が状態検出用カメラ11に撮影されていない範囲では、時刻予測手段17が、監視対象の速度を考慮して経過時間を推定し、その推定した経過時間を時刻予測に活用してもよい。
監視対象特徴抽出手段18は、監視対象画像から監視対象の特定に用いられる特徴を抽出する。このとき、監視対象特徴抽出手段18は、予測時刻に基づいて決定される期間(以下、予測期間と記す。)の監視対象画像を利用する。この予測期間は、監視者が予め定めてもよく、監視対象解析手段16が解析した状況に応じて定めてもよい。
監視対象画像から抽出される特徴には、監視対象の内容に応じ、その監視対象を特定可能な特徴が予め選択される。例えば、監視対象が人の場合、監視対象特徴抽出手段18は、人を特定可能な特徴として顔特徴を監視対象画像から抽出してもよい。また、例えば、監視対象が車の場合、監視対象特徴抽出手段18は、車を特定可能な特徴としてナンバープレートを監視対象画像から抽出してもよい。なお、ここに挙げた特徴は、監視対象を特定可能な特徴の一例であり、監視対象特徴抽出手段18は、監視対象を特定可能な特徴として他の特徴を抽出してもよい。
なお、監視対象特徴抽出手段18は、予測時刻に撮影された監視対象画像のみを利用して監視対象の特徴を抽出してもよい。ただし、監視対象の移動状況は変化する可能性が高いため、予測時刻の前後に余裕を持たせた期間の監視対象画像を利用したほうが、該当する監視対象を特定しやすくなるため、より好ましい。
したがって、監視対象抽出用カメラ13は、予測期間内の監視対象画像を生成するようにしてもよい。このように、監視対象抽出用カメラ13が監視対象画像を生成する期間を監視対象が現れると予想される期間に絞り込むことで、対象とする監視対象を特定する精度を向上させることができる。また、このような処理によって、対象とするデータ量を抑制できるとともに、後述する対象物特定手段20が対象物を特定する処理の計算量を削減できる。
また、監視対象解析手段16が監視対象の外観を解析している場合、監視対象特徴抽出手段18は、解析された外観に基づいて、特徴を抽出する監視対象を絞り込んでもよい。例えば、監視対象が人であり、監視対象解析手段16が人の服装を解析している場合、監視対象特徴抽出手段18は、その服装から特定される人の特徴を抽出するようにしてもよい。
このように、外観によって特徴を抽出する監視対象を特定することで、カメラ間で関係性の低い監視対象の特徴を抽出する処理を抑制できるため、データ量および抽出処理の計算量も抑制できる。
また、監視対象特徴抽出手段18は、監視対象の特徴とともに、その監視対象の確からしさを示す確度を算出してもよい。監視対象特徴抽出手段18は、例えば、予測時刻に近い時刻に撮影された監視対象画像から抽出される監視対象の確度を最も高くし、監視対象画像を撮影した時刻が予測時刻から離れるにしたがって、監視対象の確度を低くするようにしてもよい。
また、例えば、監視対象解析手段16が監視対象の外観を解析している場合、監視対象特徴抽出手段18は、解析された外観と、監視対象画像から抽出される監視対象の外観の類似度を監視対象の角度としてもよい。
監視対象特徴抽出手段18は、抽出した監視対象の特徴およびその監視対象に関連する情報をグレーリスト記憶手段19に登録する。監視対象特徴抽出手段18は、例えば、抽出した監視対象の特徴として、顔画像そのものを登録してもよい。
グレーリスト記憶手段19は、監視対象特徴抽出手段18が抽出した監視対象の特徴を記憶する。具体的には、グレーリスト記憶手段19は、監視対象の特徴と、その監視対象を抽出する原因となった特定の状態とを対応付けて記憶する。
グレーリスト記憶手段19は、特定の状態を検出した状態検出用カメラ11の識別情報を監視対象と対応付けて記憶してもよい。また、監視対象特徴抽出手段18が監視対象の確度を算出している場合、グレーリスト記憶手段19は、その確度を監視対象と対応付けて記憶してもよい。グレーリスト記憶手段19に記憶された情報は、後述する対象物特定手段20が対象物を特定する際に利用される情報であることから、以下の説明では、グレーリストと記されることもある。
対象物特定手段20は、特定の状態の種類ごとに、監視対象特徴抽出手段18が複数の監視対象画像から抽出した各監視対象の特徴同士を比較して、高頻度で現れる監視対象を対象物として特定する。具体的には、対象物特定手段20は、グレーリスト記憶手段19に記憶された監視対象の特徴のうち、特定の状態の種類が共通する各監視対象の特徴同士を比較し、同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物として特定してもよい。
ここで、比較する監視対象は、特定の状態の種類が共通するのであれば、同一のカメラで撮影された監視対象同士であってもよく、異なるカメラで撮影された監視対象同士であってもよい。
図2は、状態画像を異なるカメラで撮影した場合の例を示す説明図である。図2に示す例では、2台のカメラがそれぞれ異なる範囲の状態画像を撮影しているが、いずれもゴミ捨て状態を検出するものとする。この場合、最終的にグレーリスト記憶手段19には、監視対象の特徴と、特定の状態としてゴミ捨て状態とを対応付けて記憶することになる。したがって、対象物特定手段20は、異なるカメラで撮影された状態画像を利用して対象物を特定できる。
また、各監視対象の確度を利用できる場合、対象物特定手段20は、頻度を算出する要素として各監視対象の確度を利用してもよい。対象物特定手段20は、例えば、同一と推定される特徴を持つ監視対象を特定し、各監視対象の確度を加算した値を頻度として利用してもよい。また、対象物特定手段20は、各監視対象の確度をそれぞれ乗じた値を頻度として利用してもよい。
特定状態検出手段15と、監視対象解析手段16と、時刻予測手段17と、監視対象特徴抽出手段18と、対象物特定手段20とは、プログラム(監視対象抽出プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、対象物監視システムを実現する情報端末の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、特定状態検出手段15、監視対象解析手段16、時刻予測手段17、監視対象特徴抽出手段18および対象物特定手段20として動作してもよい。
また、状態検出用カメラ11および監視対象抽出用カメラ13は、プログラム(監視対象抽出プログラム)に従って動作するCPUの指示に応じて、状態画像および監視対象画像を生成するようにしてもよい。
また、特定状態検出手段15と、監視対象解析手段16と、時刻予測手段17と、監視対象特徴抽出手段18と、対象物特定手段20とは、それぞれが専用のハードウェアで実現されていてもよい。例えば、上記説明では、対象物監視システムに対象物特定手段20が含まれているが、対象物特定手段20が、別の上位システムで実現されていてもよい。
また、状態画像記憶手段12と、監視対象画像記憶手段14と、グレーリスト記憶手段19とは、例えば、磁気ディスク等により実現される。
次に、本実施形態の対象物監視システムの動作を説明する。図3は、本実施形態の対象物監視システムの動作例を示すフローチャートである。
まず、状態検出用カメラ11は、第一の範囲で生じる状態を撮影して、状態画像を生成する(ステップS11)。このとき、状態検出用カメラ11は、状態画像を状態画像記憶手段12に登録してもよい。特定状態検出手段15が状態画像から特定の状態を検出すると(ステップS12)、監視対象解析手段16は、特定の状態が検出された状態画像を用いて、監視対象の状況を解析する(ステップS13)。
時刻予測手段17は、監視対象の状況から、第二の範囲に監視対象が現れる時刻を予測する(ステップS14)。監視対象抽出用カメラ13は、予測された時刻に基づいて決定される期間に、第二の範囲に存在する監視対象を撮影した監視対象画像を生成する(ステップS15)。そして、監視対象特徴抽出手段18は、監視対象画像から、顔特徴など、監視対象の特定に用いられる特徴を抽出し(ステップS16)、抽出した特徴をグレーリスト記憶手段19に登録する(ステップS17)。
その後、対象物特定手段20は、特定の状態の種類ごとに各監視対象の特徴同士を比較して、高頻度で現れる監視対象を対象物として特定する(ステップS18)。
次に、本実施形態の対象物監視システムの具体例を説明する。図4は、本実施形態の対象物監視システムの具体例を示す説明図である。図4に示す例は、ゴミ捨て状態を検知して、常習犯と思しき人物を特定する動作の例である。
ゴミ捨て状態を検知するために設置された状態検出用カメラ11は、定期的に第一の範囲の状態画像を撮影する。特定状態検出手段15が、状態画像からゴミ捨て状態を検出すると、監視対象解析手段16は、過去状態画像をさかのぼって常習犯と思しき人物を解析する。
時刻予測手段17は、監視対象解析手段16が解析した監視対象の状況から、監視対象抽出用カメラ13が撮影する範囲に監視対象が現れる時刻を予測する。そして、状態検出用カメラ11からは離れて設置された監視対象抽出用カメラ13は、その予測時刻または予測期間で、可能性のあるすべての人物の顔画像を含む監視対象画像を撮影する。
監視対象特徴抽出手段18は、時間的な制約や、服装の類似性を考慮して、撮影された監視対象画像から監視対象の特徴を抽出し、グレーリスト記憶手段19に登録する。
特定の状態(ゴミ捨て状態)を検知するたびに、同様の処理が行われ、抽出された監視対象の特徴がグレーリスト記憶手段19に登録される。そして、対象物特定手段20は、顔照合技術を用いて、同一と判定された回数の多い人物を抽出し、この人物をブラックリスト(ウォッチリスト)に登録する。
以上のように、本実施形態によれば、状態検出用カメラ11が第一の範囲で生じる状態を撮影した状態画像を生成し、特定状態検出手段15が状態画像から特定の状態を検出する。監視対象解析手段16は、特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、監視対象特徴抽出手段18は、解析された監視対象の状況に基づいて、監視対象抽出用カメラ13で撮影される監視対象画像から、監視対象の特定に用いられる特徴を抽出する。
その際、時刻予測手段17が、監視対象の状況から、第二の範囲にその監視対象が現れる時刻を予測し、監視対象抽出用カメラ13が、予測された時刻に基づいて決定される期間に、第二の範囲に存在する監視対象を撮影した監視対象画像を生成してもよい。
以上のような構成により、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
また、本実施形態の対象物監視システムは、監視対象の特定が困難であるが特定の状態を検知可能な画像(状態画像)と、特定の状態の検知が困難であるが監視対象を特定できる画像(監視対象画像)の2種類の画像を用いる。状態画像からは、監視対象を特定するまでには至らないが、監視対象を絞り込むための情報(例えば、服装など)が抽出される。また、監視対象画像からは、監視対象を特定するための特徴(例えば、顔特徴)などが抽出される。
本実施形態の対象物監視システムは、このように監視対象の同定のしやすさに相対的な差を有する2種類の情報を利用する。別の言い方をすれば、この2種類の情報は、抽出対象を撮影するカメラの解像度の違いにより、同定のしやすさに差が生じているとも言える。このような異なる性質を有する情報を同時に利用することで、監視対象を効率的に絞り込むことができる。
次に、本発明の概要を説明する。図5は、本発明による対象物監視システムの概要を示すブロック図である。図5に例示する対象物監視システムは、第一の範囲で生じる状態を撮影した状態画像を生成する第1撮影手段60(例えば、状態検出用カメラ11)と、第二の範囲に存在する監視対象を撮影した監視対象画像を生成する第2撮影手段70(例えば、監視対象抽出用カメラ13)と、状態画像から特定の状態(例えば、ゴミ捨て等)を検出する特定状態検出手段81(例えば、特定状態検出手段15)と、特定の状態が検出された状態画像を用いて、監視対象の状況(例えば、移動状況、服装)を解析する監視対象解析手段82(例えば、監視対象解析手段16)と、監視対象の状況から、第二の範囲にその監視対象が現れる時刻を予測する時刻予測手段83(例えば、時刻予測手段17)と、監視対象画像から監視対象の特定に用いられる特徴(例えば、顔特徴)を抽出する監視対象特徴抽出手段84(例えば、監視対象特徴抽出手段18)とを備えている。
第2撮影手段70は、時刻予測手段83によって予測された時刻に基づいて決定される期間の監視対象画像を生成する。
そのような構成により、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
また、監視対象解析手段82は、監視対象の移動状況を解析し、時刻予測手段83は、移動状況に基づいて、第二の範囲にその監視対象が現れる時刻を予測してもよい。
また、対象物監視システムは、過去に生成された過去状態画像を記憶する過去状態画像記憶手段(例えば、状態画像記憶手段12)を備えていてもよい。そして、監視対象解析手段82は、特定の状態が検出された状態画像およびその状態画像が撮影される前の所定の期間内に撮影された過去状態画像を用いて、監視対象の移動状況を解析してもよい。そのような構成によれば、監視対象の移動状況をより適切に判断できる。
また、監視対象解析手段82は、監視対象の外観(例えば、服装、形状)を解析し、監視対象特徴抽出手段84は、解析された外観に基づいて特徴を抽出する監視対象を絞り込んでもよい。そのような構成によれば、カメラ間で関係性の低い監視対象の特徴を抽出する処理を抑制できるため、データ量および抽出処理の計算量も抑制できる。
また、第2撮影手段70は、人を監視対象として撮影した監視対象画像を生成し、監視対象特徴抽出手段84は、監視対象画像から人の顔特徴を抽出してもよい。
また、対象物監視システムは、特定の状態の種類(例えば、ゴミ捨て)ごとに、監視対象特徴抽出手段84が複数の監視対象画像から抽出した各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する対象物特定手段(例えば、対象物特定手段20)を備えていてもよい。
このとき、対象物特定手段は、同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定してもよい。また、監視対象特徴抽出手段84は、監視対象の特徴とともにその監視対象の確からしさを示す確度を算出し、対象物特定手段は、その確度を用いて監視対象を特定してもよい。
なお、本発明による対象物監視システムは、図5に例示する時刻予測手段83を備えていなくてもよい。図6は、本発明による対象物監視システムの他の概要を示すブロック図である。図6に例示する対象物監視システムは、第1撮影手段60(例えば、状態検出用カメラ11)と、第2撮影手段70(例えば、監視対象抽出用カメラ13)と、特定状態検出手段81(例えば、特定状態検出手段15)と、監視対象解析手段82(例えば、監視対象解析手段16)と、監視対象の状況に基づいて、監視対象画像から監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段85(例えば、監視対象特徴抽出手段18)とを備えている。
なお、第1撮影手段60、第2撮影手段70、特定状態検出手段81および監視対象解析手段82の内容は、図5に例示する各手段の内容と同様である。そのような構成によっても、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
また、図7は、本発明による監視対象抽出装置の概要を示すブロック図である。図7に例示する監視対象抽出装置は、特定状態検出手段81(例えば、特定状態検出手段15)と、監視対象解析手段82(例えば、監視対象解析手段16)と、時刻予測手段83(例えば、時刻予測手段17)と、監視対象特徴抽出手段84(例えば、監視対象特徴抽出手段18)とを備えている。
特定状態検出手段81、監視対象解析手段82、時刻予測手段83および監視対象特徴抽出手段84の内容は、図5に例示する各手段の内容と同様である。そのような構成によっても、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
なお、本発明による監視対象抽出装置は、図7に例示する時刻予測手段83を備えていなくてもよい。図8は、本発明による監視対象抽出装置の他の概要を示すブロック図である。図8に例示する監視対象抽出装置は、特定状態検出手段81(例えば、特定状態検出手段15)と、監視対象解析手段82(例えば、監視対象解析手段16)と、監視対象特徴抽出手段85(例えば、監視対象特徴抽出手段18)とを備えている。
特定状態検出手段81および監視対象解析手段82の内容は、図5に例示する各手段の内容と同様である。また、監視対象特徴抽出手段85の内容は、図7に例示する手段の内容と同様である。そのような構成によっても、設置されたカメラで撮影される画像から、特定の状態を発生させる原因と考えられる対象物を自動的に収集できる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出手段と、前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析手段と、前記監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段とを備えたことを特徴とする監視対象抽出装置。
(付記2)監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測する時刻予測手段を備え、監視対象特徴抽出手段は、前記時刻予測手段によって予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する付記1記載の監視対象抽出装置。
(付記3)監視対象解析手段は、特定の状態が検出された状態画像を用いて、監視対象の移動状況を解析し、時刻予測手段は、前記移動状況に基づいて、第二の範囲に当該監視対象が現れる時刻を予測する付記2記載の監視対象抽出装置。
(付記4)過去に生成された過去状態画像を記憶する過去状態画像記憶手段を備え、監視対象解析手段は、特定の状態が検出された状態画像および当該状態画像が撮影される前の所定の期間内に撮影された前記過去状態画像を用いて、監視対象の移動状況を解析する付記3記載の監視対象抽出装置。
(付記5)監視対象解析手段は、監視対象の外観を解析し、監視対象特徴抽出手段は、解析された外観に基づいて特徴を抽出する監視対象を絞り込む付記1から付記4のうちのいずれか1つに記載の監視対象抽出装置。
(付記6)監視対象特徴抽出手段は、第2撮影手段が人を監視対象として撮影した監視対象画像から人の顔特徴を抽出する付記1から付記5のうちのいずれか1つに記載の監視対象抽出装置。
(付記7)特定の状態の種類ごとに、監視対象特徴抽出手段が複数の監視対象画像から抽出した各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する対象物特定手段を備えた付記1から付記6のうちのいずれか1つに記載の監視対象抽出装置。
(付記8)対象物特定手段は、同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定する付記7記載の監視対象抽出装置。
(付記9)監視対象特徴抽出手段は、監視対象の特徴とともに当該監視対象の確からしさを示す確度を算出し、対象物特定手段は、前記確度を用いて監視対象を特定する付記7または付記8記載の監視対象抽出装置。
(付記10)第一の範囲で生じる状態を撮影した状態画像を生成し、前記状態画像から特定の状態を検出し、前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、前記監視対象の状況に基づいて、前記第二の範囲に存在する監視対象を撮影した監視対象画像を生成し、前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出することを特徴とする対象物監視方法。
(付記11)監視対象の状況から、第二の範囲に当該監視対象が現れる時刻を予測し、予測された時刻に基づいて決定される期間に、前記第二の範囲に存在する監視対象を撮影した監視対象画像を生成し、前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出する付記10記載の対象物監視方法。
(付記12)特定の状態が検出された状態画像を用いて、監視対象の移動状況を解析し、前記移動状況に基づいて、第二の範囲に当該監視対象が現れる時刻を予測する付記11記載の対象物監視方法。
(付記13)特定の状態が検出された状態画像および当該状態画像が撮影される前の所定の期間内に撮影された過去の状態画像を用いて、監視対象の移動状況を解析する付記12記載の対象物監視方法。
(付記14)監視対象の外観を解析し、解析された外観に基づいて特徴を抽出する監視対象を絞り込む付記10から付記13のうちのいずれか1つに記載の対象物監視方法。
(付記15)第2撮影手段が人を監視対象として撮影した監視対象画像から人の顔特徴を抽出する付記10から付記14のうちのいずれか1つに記載の対象物監視方法。
(付記16)特定の状態の種類ごとに、複数の監視対象画像から抽出された各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する付記10から付記15のうちのいずれか1つに記載の対象物監視方法。
(付記17)同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定する付記16記載の対象物監視方法。
(付記18)監視対象の特徴とともに当該監視対象の確からしさを示す確度を算出し、当該確度を用いて監視対象を特定する付記16または付記17記載の対象物監視方法。
(付記19)第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出し、前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、前記監視対象の況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出することを特徴とする監視対象抽出方法。
(付記20)監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測し、予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する付記19記載の監視対象抽出方法。
(付記21)特定の状態が検出された状態画像を用いて、監視対象の移動状況を解析し、前記移動状況に基づいて、第二の範囲に当該監視対象が現れる時刻を予測する付記20記載の監視対象抽出方法。
(付記22)特定の状態が検出された状態画像および当該状態画像が撮影される前の所定の期間内に撮影された過去の状態画像を用いて、監視対象の移動状況を解析する付記21記載の監視対象抽出方法。
(付記23)監視対象の外観を解析し、解析された外観に基づいて特徴を抽出する監視対象を絞り込む付記19から付記22のうちのいずれか1つに記載の監視対象抽出方法。
(付記24)第2撮影手段が人を監視対象として撮影した監視対象画像から人の顔特徴を抽出する付記19から付記23のうちのいずれか1つに記載の監視対象抽出方法。
(付記25)特定の状態の種類ごとに、複数の監視対象画像から抽出された各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する付記19から付記24のうちのいずれか1つに記載の監視対象抽出方法。
(付記26)同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定する付記25記載の監視対象抽出方法。
(付記27)監視対象の特徴とともに当該監視対象の確からしさを示す確度を算出し、当該確度を用いて監視対象を特定する付記25または付記26記載の監視対象抽出方法。
(付記28)コンピュータに、第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出処理、前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析処理、および、前記監視対象の況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する監視対象抽出処理を実行させるための監視対象抽出プログラム。
(付記29)コンピュータに、監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測する時刻予測処理を実行させ、監視対象特徴抽出処理で、予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出させる付記28記載の監視対象抽出プログラム。
(付記30)コンピュータに、監視対象解析処理で、特定の状態が検出された状態画像を用いて、監視対象の移動状況を解析させ、時刻予測処理で、前記移動状況に基づいて、第二の範囲に当該監視対象が現れる時刻を予測させる付記29記載の監視対象抽出プログラム。
(付記31)コンピュータに、監視対象解析処理で、特定の状態が検出された状態画像および当該状態画像が撮影される前の所定の期間内に撮影された過去の状態画像を用いて、監視対象の移動状況を解析させる付記30記載の監視対象抽出プログラム。
(付記32)コンピュータに、監視対象解析処理で、監視対象の外観を解析させ、監視対象特徴抽出処理で、解析された外観に基づいて特徴を抽出する監視対象を絞り込ませる付記28から付記31のうちのいずれか1つに記載の監視対象抽出プログラム。
(付記33)コンピュータに、監視対象特徴抽出処理で、第2撮影手段が人を監視対象として撮影した監視対象画像から人の顔特徴を抽出させる付記28から付記32のうちのいずれか1つに記載の監視対象抽出プログラム。
(付記34)コンピュータに、特定の状態の種類ごとに、監視対象特徴抽出処理で複数の監視対象画像から抽出された各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する対象物特定処理を実行させる付記28から付記33のうちのいずれか1つに記載の監視対象抽出プログラム。
(付記35)コンピュータに、対象物特定処理で、同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定させる付記34記載の監視対象抽出プログラム。
(付記36)コンピュータに、監視対象特徴抽出処理で、監視対象の特徴とともに当該監視対象の確からしさを示す確度を算出させ、対象物特定処理で、前記確度を用いて監視対象を特定させる付記34または付記35記載の監視対象抽出プログラム。
(付記37)第1のカメラと、第2のカメラと、前記第1のカメラから得られた画像で特定の状態が発生した際の監視対象の状況に基づいて、前記第2のカメラから得られた画像から前記監視対象の候補を抽出する抽出手段とを含むことを特徴とする監視システム。
(付記38)前記第1のカメラは、前記第2のカメラと比較してより広い範囲を撮影する付記37記載の監視システム。
(付記39)前記第1のカメラは、前記第2のカメラより高い俯角で設置される付記38記載の監視システム。
(付記40)第1のカメラから得られた画像で特定の状態が発生した際の監視対象の状況に基づいて、第2のカメラから得られた画像から前記監視対象の候補を抽出することを特徴とする監視方法。
(付記41)前記第1のカメラは、前記第2のカメラと比較してより広い範囲を撮影する付記40記載の監視方法。
(付記42)前記第1のカメラは、前記第2のカメラより高い俯角で設置される付記41記載の監視方法。
(付記43)コンピュータに、第1のカメラから得られた画像で特定の状態が発生した際の監視対象の状況に基づいて、第2のカメラから得られた画像から前記監視対象の候補を抽出する抽出処理を実行させるための監視対象抽出プログラム。
(付記44)コンピュータに、抽出処理で、第2のカメラと比較してより広い範囲を撮影する第1のカメラから得られた画像で特定の状態が発生した際の監視対象の状況に基づいて、前記第2のカメラから得られた画像から前記監視対象の候補を抽出させる付記43記載の監視対象抽出プログラム。
(付記45)コンピュータに、抽出処理で、第2のカメラより高い俯角で設置される第1のカメラから得られた画像で特定の状態が発生した際の監視対象の状況に基づいて、前記第2のカメラから得られた画像から前記監視対象の候補を抽出させる付記44記載の監視対象抽出プログラム。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2013年3月29日に出願された日本特許出願2013−070961を基礎とする優先権を主張し、その開示の全てをここに取り込む。
11 状態検出用カメラ
12 状態画像記憶手段
13 監視対象抽出用カメラ
14 監視対象画像記憶手段
15 特定状態検出手段
16 監視対象解析手段
17 時刻予測手段
18 監視対象特徴抽出手段
19 グレーリスト記憶手段
20 対象物特定手段

Claims (17)

  1. 第一の範囲で生じる状態を撮影した状態画像を生成する第1撮影手段と、
    第二の範囲に存在する監視対象を撮影した監視対象画像を生成する第2撮影手段と、
    前記状態画像から特定の状態を検出する特定状態検出手段と、
    前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析手段と、
    前記監視対象の状況に基づいて、前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段とを備えた
    ことを特徴とする対象物監視システム。
  2. 監視対象の状況から、前記第二の範囲に当該監視対象が現れる時刻を予測する時刻予測手段を備え、
    第2撮影手段は、前記時刻予測手段によって予測された時刻に基づいて決定される期間の監視対象画像を生成し、
    監視対象特徴抽出手段は、前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出する
    請求項1記載の対象物監視システム。
  3. 監視対象解析手段は、監視対象の移動状況を解析し、
    時刻予測手段は、前記移動状況に基づいて、第二の範囲に当該監視対象が現れる時刻を予測する
    請求項2記載の対象物監視システム。
  4. 過去に生成された過去状態画像を記憶する過去状態画像記憶手段を備え、
    監視対象解析手段は、特定の状態が検出された状態画像および当該状態画像が撮影される前の所定の期間内に撮影された前記過去状態画像を用いて、監視対象の移動状況を解析する
    請求項3記載の対象物監視システム。
  5. 監視対象解析手段は、監視対象の外観を解析し、
    監視対象特徴抽出手段は、解析された外観に基づいて特徴を抽出する監視対象を絞り込む
    請求項1から請求項4のうちのいずれか1項に記載の対象物監視システム。
  6. 第2撮影手段は、人を監視対象として撮影した監視対象画像を生成し、
    監視対象特徴抽出手段は、前記監視対象画像から人の顔特徴を抽出する
    請求項1から請求項5のうちのいずれか1項に記載の対象物監視システム。
  7. 特定の状態の種類ごとに、監視対象特徴抽出手段が複数の監視対象画像から抽出した各監視対象の特徴同士を比較して、高頻度で現れると推定される監視対象を対象物として特定する対象物特定手段を備えた
    請求項1から請求項6のうちのいずれか1項に記載の対象物監視システム。
  8. 対象物特定手段は、同一と推定される特徴が予め定められた件数以上抽出された監視対象を対象物と特定する
    請求項7記載の対象物監視システム。
  9. 監視対象特徴抽出手段は、監視対象の特徴とともに当該監視対象の確からしさを示す確度を算出し、
    対象物特定手段は、前記確度を用いて監視対象を特定する
    請求項7または請求項8記載の対象物監視システム。
  10. 第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出手段と、
    前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析手段と、
    前記監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出手段とを備えた
    ことを特徴とする監視対象抽出装置。
  11. 監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測する時刻予測手段を備え、
    監視対象特徴抽出手段は、前記時刻予測手段によって予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する
    請求項10記載の監視対象抽出装置。
  12. 第一の範囲で生じる状態を撮影した状態画像を生成し、
    前記状態画像から特定の状態を検出し、
    前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、
    前記監視対象の状況に基づいて、前記第二の範囲に存在する監視対象を撮影した監視対象画像を生成し、
    前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出する
    ことを特徴とする対象物監視方法。
  13. 監視対象の状況から、第二の範囲に当該監視対象が現れる時刻を予測し、
    予測された時刻に基づいて決定される期間に、前記第二の範囲に存在する監視対象を撮影した監視対象画像を生成し、
    前記監視対象画像から前記監視対象の特定に用いられる特徴を抽出する
    請求項12記載の対象物監視方法。
  14. 第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出し、
    前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析し、
    前記監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する
    ことを特徴とする監視対象抽出方法。
  15. 監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測し、
    予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する
    請求項14記載の監視対象抽出方法。
  16. コンピュータに、
    第一の範囲で生じる状態を撮影する第1撮影手段が撮影した状態画像から特定の状態を検出する特定状態検出処理、
    前記特定の状態が検出された状態画像を用いて、監視対象の状況を解析する監視対象解析処理、および、
    前記監視対象の状況に基づいて、第二の範囲に存在する監視対象を撮影する第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出する監視対象特徴抽出処理
    を実行させるための監視対象抽出プログラム。
  17. コンピュータに、
    監視対象の状況から、第2撮影手段が撮影する第二の範囲に当該監視対象が現れる時刻を予測する時刻予測処理を実行させ、
    監視対象特徴抽出処理で、予測された時刻に基づいて決定される期間に前記第2撮影手段によって撮影される監視対象画像から、前記監視対象の特定に用いられる特徴を抽出させる
    請求項16記載の監視対象抽出プログラム。
JP2015507989A 2013-03-29 2014-02-25 対象物監視システム、対象物監視方法および監視対象抽出プログラム Active JP6508041B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013070961 2013-03-29
JP2013070961 2013-03-29
PCT/JP2014/000977 WO2014155958A1 (ja) 2013-03-29 2014-02-25 対象物監視システム、対象物監視方法および監視対象抽出プログラム

Publications (2)

Publication Number Publication Date
JPWO2014155958A1 true JPWO2014155958A1 (ja) 2017-02-16
JP6508041B2 JP6508041B2 (ja) 2019-05-08

Family

ID=51622981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015507989A Active JP6508041B2 (ja) 2013-03-29 2014-02-25 対象物監視システム、対象物監視方法および監視対象抽出プログラム

Country Status (10)

Country Link
US (1) US9811755B2 (ja)
EP (1) EP2981076B1 (ja)
JP (1) JP6508041B2 (ja)
CN (1) CN105144705B (ja)
AR (1) AR095481A1 (ja)
AU (1) AU2014240669B2 (ja)
MY (1) MY176768A (ja)
RU (1) RU2614015C1 (ja)
SG (1) SG11201508077UA (ja)
WO (1) WO2014155958A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11032520B2 (en) 2013-03-15 2021-06-08 James Carey Self-healing video surveillance system
US11039108B2 (en) 2013-03-15 2021-06-15 James Carey Video identification and analytical recognition system
ES2772499T3 (es) 2013-03-15 2020-07-07 James Carey Sistema de videovigilancia autorreparable
US9762865B2 (en) 2013-03-15 2017-09-12 James Carey Video identification and analytical recognition system
US9786113B2 (en) 2013-03-15 2017-10-10 James Carey Investigation generation in an observation and surveillance system
US11743431B2 (en) 2013-03-15 2023-08-29 James Carey Video identification and analytical recognition system
US10657755B2 (en) 2013-03-15 2020-05-19 James Carey Investigation generation in an observation and surveillance system
BR112015026374B1 (pt) 2013-04-19 2022-04-12 James Carey Sistema de reconhecimento analítico
WO2017104835A1 (ja) * 2015-12-16 2017-06-22 日本電気株式会社 侵入検出装置、設定支援装置、侵入検出方法、設定支援方法及びプログラム記録媒体
EP3424027A4 (en) 2016-03-01 2020-02-26 James Carey FLIGHT PREDICTION AND TRACKING SYSTEM
US11417202B2 (en) 2016-03-01 2022-08-16 James Carey Theft prediction and tracking system
JP6502543B1 (ja) * 2018-02-21 2019-04-17 東芝エレベータ株式会社 エレベータの保安支援処理装置、エレベータの保安支援システム、およびエレベータの保安支援処理方法
CN110688977B (zh) * 2019-10-09 2022-09-20 浙江中控技术股份有限公司 一种工业图像识别方法、装置、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169320A (ja) * 2001-11-30 2003-06-13 Tominori Itane 監視方法及び監視システム
JP2006295604A (ja) * 2005-04-12 2006-10-26 Matsushita Electric Ind Co Ltd 監視カメラ及び監視システムの制御方法
JP2008219570A (ja) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd カメラ間連結関係情報生成装置
JP2008252863A (ja) * 2007-03-02 2008-10-16 Fujifilm Corp 撮像システム、撮像方法及びプログラム
WO2011010490A1 (ja) * 2009-07-22 2011-01-27 オムロン株式会社 監視カメラ端末

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002361483A1 (en) 2002-02-06 2003-09-02 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
RU36912U1 (ru) * 2003-06-23 2004-03-27 Закрытое акционерное общество "Электронно-вычислительные информационные и инструментальные системы" Система автоматизированного видеонаблюдения и распознавания объектов и ситуаций
JP3981391B2 (ja) 2003-10-21 2007-09-26 松下電器産業株式会社 監視装置
US7697026B2 (en) 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US20060126738A1 (en) * 2004-12-15 2006-06-15 International Business Machines Corporation Method, system and program product for a plurality of cameras to track an object using motion vector data
US7884849B2 (en) * 2005-09-26 2011-02-08 Objectvideo, Inc. Video surveillance system with omni-directional camera
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8212877B2 (en) 2007-03-02 2012-07-03 Fujifilm Corporation Image capturing system, image capturing method, and computer program product at which an image is captured at a predetermined time
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
CN101918989B (zh) * 2007-12-07 2013-02-13 常州环视高科电子科技有限公司 带有对象跟踪和检索的视频监控***
US8601494B2 (en) 2008-01-14 2013-12-03 International Business Machines Corporation Multi-event type monitoring and searching
WO2010077316A1 (en) 2008-12-17 2010-07-08 Winkler Thomas D Multiple object speed tracking system
JP5423235B2 (ja) * 2009-08-20 2014-02-19 ソニー株式会社 撮像装置
JP5773583B2 (ja) * 2010-06-11 2015-09-02 キヤノン株式会社 撮像装置およびその制御方法、コンピュータプログラム
GB2485969A (en) 2010-11-12 2012-06-06 Sony Corp Video surveillance with anticipated arrival time of object in another camera view
KR101425170B1 (ko) * 2010-11-16 2014-08-04 한국전자통신연구원 영상 촬영 장치의 객체 추적 장치 및 방법과 보안 관리 시스템의 객체 추적 장치
CN102682568A (zh) 2011-03-10 2012-09-19 鸿富锦精密工业(深圳)有限公司 监控影像侦测***及方法
CN202563686U (zh) * 2012-04-25 2012-11-28 杭州海康威视数字技术股份有限公司 道路交通事件自动取证***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169320A (ja) * 2001-11-30 2003-06-13 Tominori Itane 監視方法及び監視システム
JP2006295604A (ja) * 2005-04-12 2006-10-26 Matsushita Electric Ind Co Ltd 監視カメラ及び監視システムの制御方法
JP2008252863A (ja) * 2007-03-02 2008-10-16 Fujifilm Corp 撮像システム、撮像方法及びプログラム
JP2008219570A (ja) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd カメラ間連結関係情報生成装置
WO2011010490A1 (ja) * 2009-07-22 2011-01-27 オムロン株式会社 監視カメラ端末

Also Published As

Publication number Publication date
US20160042243A1 (en) 2016-02-11
CN105144705A (zh) 2015-12-09
EP2981076A1 (en) 2016-02-03
CN105144705B (zh) 2020-06-26
AU2014240669A1 (en) 2015-09-10
US9811755B2 (en) 2017-11-07
WO2014155958A1 (ja) 2014-10-02
EP2981076A4 (en) 2016-11-09
JP6508041B2 (ja) 2019-05-08
SG11201508077UA (en) 2015-11-27
RU2614015C1 (ru) 2017-03-22
AR095481A1 (es) 2015-10-21
AU2014240669B2 (en) 2016-06-23
MY176768A (en) 2020-08-21
EP2981076B1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
WO2014155958A1 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
KR102153591B1 (ko) 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
JP6406246B2 (ja) 対象物特定装置、対象物特定方法および対象物特定プログラム
JP6969871B2 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
EP2835763B1 (en) A hybrid method and system of video and vision based access control for parking stall occupancy determination
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6806188B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
WO2014061342A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6292540B2 (ja) 情報処理システム、情報処理方法及びプログラム
JPWO2015029588A1 (ja) 画像処理システム、画像処理方法及びプログラム
CN111670456A (zh) 信息处理装置、追踪方法和追踪程序
WO2012074366A2 (en) A system and a method for detecting a loitering event
Landge Object Detection and Object Tracking Using Background Subtraction for Surveillance Application
JP7347481B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101692504B1 (ko) 비콘 기반 지능형 영상 분석 시스템 및 방법
CN116704216A (zh) 徘徊检测方法、徘徊检测装置以及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R150 Certificate of patent or registration of utility model

Ref document number: 6508041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150