JP6688975B2 - 監視装置及び監視システム - Google Patents

監視装置及び監視システム Download PDF

Info

Publication number
JP6688975B2
JP6688975B2 JP2018506503A JP2018506503A JP6688975B2 JP 6688975 B2 JP6688975 B2 JP 6688975B2 JP 2018506503 A JP2018506503 A JP 2018506503A JP 2018506503 A JP2018506503 A JP 2018506503A JP 6688975 B2 JP6688975 B2 JP 6688975B2
Authority
JP
Japan
Prior art keywords
camera
time
person
cameras
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018506503A
Other languages
English (en)
Other versions
JPWO2017163282A1 (ja
Inventor
伊藤 智祥
智祥 伊藤
秦 秀彦
秀彦 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2017163282A1 publication Critical patent/JPWO2017163282A1/ja
Application granted granted Critical
Publication of JP6688975B2 publication Critical patent/JP6688975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本開示は、カメラに映っている人物を識別して、識別した人物を追跡するための監視装置及び監視システムに関する。
特許文献1は、複数の監視カメラを備えた監視システムを開示する。この監視システムにおいて、監視カメラは映像に映った対象物の特徴情報を抽出して、その特徴情報を他の監視カメラに伝送する。これにより、複数の監視カメラが連携して、同一の特徴情報を持つ対象物を追跡して監視することを可能にしている。
特開2003−324720号公報
本開示は、精度良く対象物を追跡するのに有効な監視装置及び監視システムを提供する。
本開示にかかる監視装置は、第一及び第二のカメラを含み所定の位置関係を有する複数のカメラによって撮影された映像から対象物を識別する監視装置であって、複数のカメラから映像を受信する受信部と、対象物の特徴を表す特徴情報と、カメラの配置位置を表すカメラ配置情報とを格納する記憶部と、特徴情報に基づいて映像から対象物を識別する制御部と、を備え、制御部は、第一のカメラで撮影された映像から識別できたが、第二のカメラで撮影された映像から識別できなかった対象物を、カメラ配置情報に基づいて、第二のカメラで撮影された映像において特定する。
本開示における監視装置及び監視システムは、精度良く対象物を追跡するのに有効である。
実施形態1の監視システムの構成を示すブロック図 実施形態1における複数の監視カメラの配置例を示す図 実施形態1における人物の識別と監視カメラ間の移動時間の算出の動作を説明するためのフローチャート (a)は人物の特徴抽出を説明するための図、(b)は実施形態1における特徴情報テーブルの一例を示す図 実施形態1における撮影時刻情報テーブルの一例を示す図 実施形態1におけるカメラ配置情報テーブルの一例を示す図 実施形態1における撮影時刻情報テーブルの修正の動作を説明するためのフローチャート 実施形態1における撮影時刻情報の修正を説明するための図 他の実施形態における複数の監視カメラ間を移動する人数の分布のスコア化を説明するための図 他の実施形態における人物の類似度に基づく候補者選択を説明するための図
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
実施形態1について、図面を用いて説明する。本実施形態において、複数の監視カメラのうちの一部において対象物の特徴を抽出できない状況が生じても、その対象物を追跡するのに有効な監視システムを提供する。
[1.構成]
図1は、実施形態1の監視システムの構成を示している。本実施形態の監視システム100は、複数の監視カメラ1(監視カメラa,b,c,d)と、複数の監視カメラ1で撮影された映像を使用して、その映像に映っている人物を識別して追跡する監視装置2とを含む。
各監視カメラ1は、それぞれ、映像を撮影する撮影部11と、撮影部11が撮影した映像を監視装置2に送信する送信部12とを有する。撮影部11は、CCDイメージセンサ、CMOSイメージセンサ、又はNMOSイメージセンサなどで実現できる。送信部12は、所定の通信規格(例えばLAN、WiFi)に準拠して外部機器との通信を行うためのインタフェース回路を備える。
監視装置2は、各監視カメラ1からの映像を受信する受信部21と、受信した映像を格納する映像蓄積部22aと、映像蓄積部22aに蓄積された映像に映っている対象物(本実施形態において、人物)を識別して、識別した対象物を追跡する制御部23と、を有する。受信部21は、所定の通信規格(例えばLAN、WiFi)に準拠して外部機器との通信を行うためのインタフェース回路を備える。
制御部23は、半導体素子などで実現可能である。制御部23の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。制御部23は、例えば、マイコン、CPU、MPU、DSP、FPGA、ASICで構成することができる。
制御部23は、映像蓄積部22aに蓄積された映像に映っている対象物を識別する認識部23aを含む。認識部23aは、映像蓄積部22aに蓄積された映像に映っている対象物の特徴を抽出して、その特徴を表す特徴情報を生成すると共に、抽出した特徴を持つ対象物が監視カメラ1に映っている時間帯を表す撮影時刻情報を生成する。特徴情報と撮影時刻情報は、対象物を認識することによって得られる認識情報である。
監視装置2は、さらに、特徴情報テーブルT1と撮影時刻情報テーブルT2を格納する認識情報蓄積部22bと、カメラ配置情報テーブルT3を格納するカメラ配置情報蓄積部22cと、を有する。特徴情報テーブルT1は、認識部23aによって生成された対象物の特徴情報を含む。撮影時刻情報テーブルT2は、認識部23aによって生成された撮影時刻情報を含む。カメラ配置情報テーブルT3は、監視カメラ1の配置位置と、対象物が監視カメラ間の移動にかかる時間とを表す情報を含む。
制御部23は、さらに、撮影時刻情報テーブルT2に基づいて、監視カメラ間の移動にかかる時間を算出して、カメラ配置情報テーブルT3を更新する移動時間情報更新部23bと、特徴情報テーブルT1とカメラ配置情報テーブルT3とに基づいて撮影時刻情報テーブルT2を修正する認識情報修正部23cとを有する。認識情報修正部23cは、カメラ配置情報テーブルT3に基づいて、対象物が映るはずの監視カメラ1を特定し、特定した監視カメラ1に対象物が映っているか否かを判断し、特定した映るはずの監視カメラ1に対象物が映っていないと判断した場合に、監視カメラ間の移動にかかる時間に基づいて、映っていない対象物が監視カメラ1に映るはずの時間帯を算出(推定)し、算出(推定)した時間帯に監視カメラ1に映っている対象物候補の中から一つを、映っていないと判断した対象物として特定して、撮影時刻情報テーブルT2を修正する。
映像蓄積部22a、認識情報蓄積部22b、及びカメラ配置情報蓄積部22cは、例えば、DRAM、強誘電体メモリ、フラッシュメモリ、又は磁気ディスクなどで実現できる、同一の又は別個の記憶部である。
監視装置2は、さらに表示部24を有する。表示部24は、映像蓄積部22aに蓄積された映像と、特徴情報テーブルT1及び撮影時刻情報テーブルT2とを表示可能である。表示部23は、液晶ディスプレイなどで実現できる。
[2.対象物の識別(撮影時刻情報の生成)]
図2に、監視カメラ1の配置例を示す。監視カメラ1は、例えば、店舗に設けられる。4台の監視カメラ1(監視カメラa,b,c,d)は、それぞれ異なる場所に配置される。図2においては、監視カメラa,b,cが進行方向(図2の左側から右側の方向)の順に配置されている。なお、監視カメラ1の数とその配置箇所は単なる例であって、任意に変更可能である。監視カメラ1はそれぞれ、撮影部11が撮影した映像を、送信部12から監視装置2に送信する。送信された映像は、監視装置2の映像蓄積部22aに格納される。
図3は、制御部23による人物の識別と監視カメラ間の移動距離の算出の処理を示している。制御部23は、図3に示す人物の識別の処理を所定のタイミングで行う。例えば、所定のタイミングは、ユーザが監視装置2に指示したときであっても良いし、所定時間(例えば、24時間)毎であっても良い。以下、監視カメラ1が、図2の矢印で示す進行方向に移動した人物を撮影した場合を例にして説明する。
認識部23aは、映像蓄積部22aに蓄積されている映像を読み出して、映像に映っている人物の特徴を抽出する(S301)。認識部23aは、例えば、監視カメラaの映像から順に映像を解析する。認識部23aは、人物の特徴として、例えば、顔の一部の、形状、色、大きさ、又は位置を抽出する。図4(a)に人物の特徴抽出の例を示し、図4(b)に特徴情報テーブルT1の一例を示す。認識部23aは、人物の特徴として、例えば、図4(a)に示すような両目の間の距離(「I−II」間の距離)と一方の目と鼻との距離(「II−III」間の距離)を抽出し、抽出した特徴(距離)を含む特徴情報41を図4(b)に示すような特徴情報テーブルT1に追加する。
このとき、認識部23aは、抽出した特徴と一致する特徴を示す特徴情報41が既に特徴情報テーブルT1にあるか否かを判断し(S302)、一致する特徴情報41がなければ、映像から新たに人物を抽出したと判断して、その人物を識別するための識別情報(ID)を生成し、生成した識別情報とその人物の特徴(「I−II」間の距離と「II−III」間の距離)とを含む特徴情報41を特徴情報テーブルT1に追加する(S303)。
認識部23aは、人物がどの監視カメラ1にいつ映っていたかを表す撮影時刻情報を生成して、撮影時刻情報テーブルT2に追加する(S304)。図5に、撮影時刻情報テーブルT2の一例を示す。撮影時刻情報51は、人物の識別情報(ID)と、その人物を撮影した監視カメラ1の識別情報と、監視カメラ1にその人物が映り始めた時刻(IN時刻)と映り終える時刻(OUT時刻)とを含む。
認識部23aは、全ての監視カメラ1からの映像の読み出しが完了したか否かを判断し(S305)、完了していなければ、残りの監視カメラ1の映像について、ステップS301〜S304の処理を繰り返す。
認識部23aが全ての監視カメラ1の映像から人物を抽出し終えると、移動時間情報更新部23bは、認識部23aが生成した撮影時刻情報テーブルT2に基づいて、カメラ配置情報テーブルT3を更新する(S306)。図6に、カメラ配置情報テーブルT3の一例を示す。カメラ配置情報テーブルT3は、監視カメラ1の配置位置を示す配置情報61と、監視カメラ1間の移動にかかる時間を示す移動時間情報62とを含む。配置情報61は、人物が移動経路に沿って(図2の矢印で示す進行方向に向かって)進んだ場合に映る「現在のカメラ(現)」と「次のカメラ(次)」の識別情報を含む。配置情報61は、予め入力されている。例えば、監視カメラ1が設置されたときに、ユーザによって配置情報61が入力される。移動時間情報62は、「現在のカメラ」から「次のカメラ」の移動にかかる最短の時間と最長の時間の情報を含む。移動時間情報更新部23bは、カメラ配置情報テーブルT3の最短時間と最長時間を、撮影時刻情報テーブルT2のIN時刻とOUT時刻に基づいて、更新する。なお、移動時間情報更新部23bは、ステップS306のタイミングに限らず、定期的に、カメラ配置情報テーブルT3の移動時間情報62の更新を行っても良い。
以上のようにして、監視カメラ1によって撮影された映像から人物の特徴を抽出することによってその人物を識別でき、撮影時刻情報テーブルT2を参照することによって識別した人物がどの監視カメラ1にいつ映っていたかを認識することができる。よって、複数の監視カメラ1の映像を使用した人物の追跡が可能になる。
[3.対象物の特定(撮影時刻情報の修正)]
撮影したときの角度や照明条件によって同一人物であっても映像への映り方が異なることがある。そのため、複数の監視カメラ1で撮影した映像から抽出される同一人物の特徴が一致しないことがある。たとえば、明るい場所で高い位置に設置された監視カメラ1と、暗い場所で低い位置に設置された監視カメラ1では、撮影される映像が大きく異なるため、両者で撮影される映像から抽出される人物の特徴は異なる場合がある。この場合、同一人物であっても、抽出した特徴が異なるために、他の人物として認識してしまう。そのため、同一人物が複数の監視カメラ1(例えば、監視カメラa,b,c)の前を順に通った場合であっても、一部の監視カメラ1(例えば、監視カメラb)からはその人物の特徴を抽出できず、その人物の追跡が途切れてしまうことがある。
そこで、本実施形態では、複数の監視カメラ1のうちの一部において人物の特徴を抽出できない状況が生じてもその人物を追跡できるように、特徴が一致せずに別人であると判断した人物の中から、カメラ配置情報テーブルT3を使用して、同一人物を抽出し、撮影時刻情報テーブルT2を修正する。
図7に、認識情報修正部23cによる撮影時刻情報テーブルT2の修正の処理を示す。認識情報修正部23cは、撮影時刻情報テーブルT2を読み出して、人物のエントリ数が多い順に並べ替える(S701)。図8に、並べ替えた後の撮影時刻情報テーブルT2を示す。認識情報修正部23cは、エントリ数が多い順に、人物を一名抽出し(S702)、カメラ配置情報テーブルT3を参照して、抽出した人物に関して撮影時刻情報51の欠落があるか否かを確認する(S703)。撮影時刻情報51の欠落の有無は、カメラ配置情報テーブルT3の配置情報61を参照して、人物が映るはずの監視カメラ1を特定することによって、確認する。図2のような監視カメラ1の配置例においては、人物が図2の矢印で示す進行方向に進めば、監視カメラaの次は監視カメラb又は監視カメラdに映り、監視カメラbの次は監視カメラcに映る。認識情報修正部23cは、カメラ配置情報テーブルT3の配置情報61を参照することによって、監視カメラcに映る前に必ず監視カメラbに映るはずであると判断できる。すなわち、監視カメラcの撮影時刻情報51がある場合、監視カメラbを、映るはずの監視カメラ1として特定して、監視カメラbの撮影時刻情報51の有無を確認する。このようにして、撮影時刻情報51の欠落があるか否かを判断する。
欠落がなければ(S704でNo)、撮影時刻情報テーブルT2に記録されている人物の全員についての撮影時刻情報51の欠落の有無の確認が完了したか否かを判断し(S708)、完了していなければ(S708でNo)、ステップS702に戻り、撮影時刻情報テーブルT2から次の人物を新たに抽出して、撮影時刻情報51の欠落の有無を確認する。
欠落があれば(S704でYes)、認識情報修正部23cは、撮影時刻情報テーブルT2とカメラ配置情報テーブルT3とを参照して、撮影時刻情報51が欠落している監視カメラ1に映っているはずの時間帯を推定(算出)する(S705)。例えば、図8に示すように、人物Bについては、監視カメラbの撮影時刻情報51が欠落している。認識情報修正部23cは、撮影時刻情報テーブルT2における人物Bの監視カメラaのOUT時刻(10時19分)と、カメラ配置情報テーブルT3の監視カメラaから監視カメラbへの移動にかかる最短時間(10分)と最長時間(12分)とから、人物Bが監視カメラbに映り始める時間帯(10時29分〜10時31分)を推定する。また、認識情報修正部23cは、撮影時刻情報テーブルT2の人物Bの監視カメラcのIN時刻(10時41分)と、カメラ配置情報テーブルT3の監視カメラbから監視カメラcへの移動にかかる最短時間(5分)と最長時間(6分)とから、人物Bが監視カメラbに映り終わる時間帯(10時35分〜10時36分)を推定する。
認識情報修正部23cは、推定した時間帯に映っている人物を撮影時刻情報テーブルT2から抽出する(S706)。図8の例では、人物Eの監視カメラbのIN時刻(10時31分)が推定した映り始めの時間帯(10時29分〜10時31分の間)に含まれ、且つ人物Eの監視カメラbのOUT時刻(10時36分)が推定した映り終わりの時間帯(10時35分〜10時36分の間)に含まれるため、認識情報修正部23cは、人物Eを抽出する。このとき、認識情報修正部23cは、撮影時刻情報51が欠落している人物の中から抽出する。抽出した人物が1人であれば、その人物(人物E)が同一人物(人物B)であると判断して、撮影時刻情報テーブルT2を修正する。図8の例では、人物Eについての「修正後の人物の識別情報(ID)」に人物Bの識別情報を記録する。
推定した時間帯に映っている人物が複数いた場合、認識情報修正部23cは、特徴情報テーブルT1に基づいて、特徴情報41が最も近い人物が同一人物であると判断して、撮影時刻情報テーブルT2を修正する(S707)。
撮影時刻情報テーブルT2に記録されている人物の全員について、撮影時刻情報51の欠落の有無の確認が完了したか否かを判断し(S708)、完了していなければ(S708でNo)、ステップS702に戻り、撮影時刻情報テーブルT2から次の人物を新たに抽出して、撮影時刻情報51の欠落の有無を確認する。撮影時刻情報テーブルT2に記録されている人物の全員について、撮影時刻情報51の欠落の有無の確認が完了すれば、認識情報修正部23cは、撮影時刻情報テーブルT2を表示部24に表示する(S709)。ユーザは、表示部24に表示された修正後の撮影時刻情報テーブルT2を参照することによって、複数の監視カメラ1で撮影された人物の追跡を確認することができる。
このように、認識情報修正部23cは、特徴情報テーブルT1と撮影時刻情報テーブルT2とカメラ配置情報テーブルT3とを使用して、撮影時刻情報51の欠落を補う。例えば、認識情報修正部23cは、図8のように、人物Eを人物Bとして修正することによって、人物Bについての監視カメラbの撮影時刻情報51を補う。これにより、制御部23は、修正後の撮影時刻情報テーブルT2を参照して、監視カメラa,監視カメラb,監視カメラcの順にそれぞれ撮影された映像から、人物Bを追跡することが可能になる。
[4.効果等]
以上のように、本実施形態の監視装置2は、第一のカメラ(監視カメラc)及び第二のカメラ(監視カメラb)を含み所定の位置関係を有する複数の監視カメラ1によって撮影された映像から対象物を識別する監視装置であって、複数の監視カメラ1から映像を受信する受信部21と、対象物の特徴を表す特徴情報41を格納する認識情報蓄積部22bと、カメラの配置位置を表す配置情報61を格納するカメラ配置情報蓄積部22cと、特徴情報41に基づいて映像から対象物を識別する制御部23と、を備え、制御部23の認識情報修正部23cは、第一のカメラ(監視カメラc)で撮影された映像から識別できたが、第二のカメラ(監視カメラb)で撮影された映像から識別できなかった対象物を、配置情報61に基づいて、第二のカメラ(監視カメラb)で撮影された映像において特定する。このように、特徴情報41で識別できなかった対象物を、配置情報61を使用して特定するため、対象物の追跡を精度良く実現できる。
制御部23の移動時間情報更新部23bは、第一のカメラと第二のカメラ間の人物の移動時間を算出し、算出した移動時間と、第一のカメラにおいて対象物が撮影された時間とに基づき、第二のカメラの撮影領域を対象物が通過した時間帯を算出し、算出した時間帯に第二のカメラにより撮影された映像において対象物を特定する。具体的には、特徴情報41に基づいて識別した各対象物が監視カメラ1に映っている時間帯を表す撮影時刻情報51を生成し、生成した撮影時刻情報51に基づいて、監視カメラ1間の移動にかかる時間を算出する。さらに、制御部23は、配置情報61に基づいて、各対象物が映るはずの監視カメラ1を特定し、対象物が特定した監視カメラ1に映っていない場合に、算出した監視カメラ間の移動にかかる時間に基づいて、映っていない対象物が特定した監視カメラ1に映るはずの時間帯を推定し、撮影時刻情報51を参照して、推定した時間帯に、特定した監視カメラ1に映っている他の対象物が映っていない対象物であると特定して、撮影時刻情報51を書き換える。これにより、特徴情報41が一致せずに、撮影時刻情報51の欠落が生じた場合であっても、配置情報61と移動時間情報62を含むカメラ配置情報テーブルT3を参照することによって、欠落が生じた撮影時刻情報51を補うことができる。そのため、一部の監視カメラ1の映像から取得した対象物(人物)の特徴情報41が、他の監視カメラ1の映像からは取得されずに、他の監視カメラ1の映像においては別の対象物(人物)として認識した場合であっても、カメラ配置情報テーブルT3を参照することによって、同一の対象物(人物)であると認識し直すことができる。よって、対象物(人物)の追跡を精度良く実現できる。
また、制御部23は、算出した時間帯に第二のカメラにより撮影された映像において2つ以上の対象物候補が映っている場合、特徴情報41に基づいて、2つ以上の対象物候補の中から一つを対象物として特定する。これにより、2つ以上の対象物候補が映像に映っている場合であっても、その対象物候補の中から、映っていないと判断した対象物を精度良く特定することができる。
さらに、制御部23は、受信部21が受信した映像から対象物の特徴を抽出して特徴情報41を生成して、認識情報蓄積部22bに格納する。これにより、新たに対象物の特徴を抽出した場合でも、その対象物を識別して追跡することが可能になる。
本実施形態の監視システム100は、第一及び第二のカメラを含み所定の位置関係を有する複数の監視カメラ1と、対象物の特徴を表す特徴情報41と、監視カメラ1の配置位置を表す配置情報61とを有し、特徴情報41に基づいて、複数の監視カメラ1によって撮影された映像から対象物を識別し、第一のカメラで撮影された映像から識別できたが第二のカメラで撮影された映像から識別できなかった対象物を、配置情報61に基づいて、第二のカメラで撮影された映像において特定する監視装置2と、を有する。本実施形態の監視システム100を使用すれば、精度良く対象物(人物)を追跡できるため、本実施形態の監視システム100は動線可視化及び動線分析に有用である。例えば、局所に設けた監視カメラ1の映像を使用して、全体の動線を推測することができる。また、監視システム100は、動線の変更をシミュレーションしたり、店舗エリアの価値を分析するのにも有用である。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。また、上記実施形態1で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。そこで、以下、他の実施形態を例示する。
時間帯推定(S705)及び人物抽出(S706)の他の例について説明する。図8の例において、認識情報修正部23cは、撮影時刻情報テーブルT2とカメラ配置情報テーブルT3とを参照し、人物Bが監視カメラbに映り始める時間帯の下限の時刻(10時29分)から映り終わる時間帯の上限の時刻(10時36分)までの間のいずれかの時間帯(例えば、10時32分〜10時35分)に監視カメラbに映っている人物を抽出しても良い(S706)。また、この推定した時間帯に人物が抽出できなかった場合には、さらに、推定した映り始めの時間帯の下限の時刻(10時29分)から第1の所定時間(例えば、3分)を減算し、推定した映り終わりの時間帯の上限の時刻(10時36分)に第2の所定時間(例えば、3分)を加算して、新たな時間帯(10時26分〜10時39分)を算出し、新たな時間帯(10時26分〜10時39分)の中のいずれかの時間帯(例えば、10時28分〜10時34分)に監視カメラbに映っている人物を抽出しても良い。
複数の人物から最も類似している人物を抽出する処理(S707)の他の例について説明する。例えば、特徴情報41に基づく類似度と、監視カメラ間の移動にかかる時間の確率分布に基づく出現度との合計に応じて、複数の人物から最も類似している人物を抽出しても良い。以下に、図2の監視カメラbの映像から人物Aを検出できずに、監視カメラbに映った人物B,C,Dの中から人物Aを探す場合について説明する。この場合、特徴情報に基づく類似度S(A,x)と監視カメラ間の移動にかかる時間の確率分布に基づく出現度Sab(t),Sbc(t)とを関数化して、下記式(1)で示す、それらの合計値(トータルスコア)S(A,x)が所定の条件を満たす人物が、人物Aであると判断する。例えば、合計値S(A,x)が最も高い人物を人物Aと判断する。
S(A,x)=S(A,x)+αSab(t)+βSbc(t)・・・(1)
(xは、人物B,C,D)
(S(A,x)は、人物Aの特徴情報と人物xの特徴情報の類似度)
(α、βは、所定の重み付けの係数)
(tは、人物Aが監視カメラaに映ってから、人物xが監視カメラbに映るまでの時間)
(tは、人物xが監視カメラbに映ってから、人物Aが監視カメラcに映るまでの時間)
(Sab(t)は、監視カメラaから監視カメラbへの移動にかかる時間と人物の出現頻度の分布に基づく出現度)
(Sbc(t)は、監視カメラbから監視カメラcへの移動にかかる時間と人物の出現頻度の分布に基づく出現度)
図9(a)に、出現度Sab(t)の例を示す。出現度Sab(t)は、人物が監視カメラaに映らなくなってから監視カメラbに映り始めるまでの時間(すなわち、監視カメラaから監視カメラbへの移動にかかる時間)毎の、人物の出現頻度の分布を関数化したものである。図9(b)に、出現度Sbc(t)の例を示す。出現度Sbc(t)は、人物が監視カメラbに映らなくなってから監視カメラcに映り始めるまでの時間(すなわち、監視カメラbから監視カメラcへの移動にかかる時間)毎の、人物の出現頻度の分布を関数化したものである。認識情報修正部23cは、撮影時刻情報テーブルT2を参照して、監視カメラ間の移動にかかる時間毎に人物の出現頻度を算出し、監視カメラ間の移動にかかる時間と算出した人物の出現頻度とに基づいて、図9(a)及び図9(b)に示すような出現度の関数Sab(t),Sbc(t)を生成する。
図10に、人物Aの特徴情報との類似度S(A,x)、人物Aが監視カメラaに映ってから人物x(x=B,C,D)が監視カメラbに映るまでの時間t、人物x(x=B,C,D)が監視カメラbに映ってから人物Aが監視カメラcに映るまでの時間t、及び合計値S(A,x)の数値例を示す。図10では、それぞれS(A,x)、t、tの数値によって、上記式(1)で示す合計値S(A,x)の数値が得られた例を示している。図10の例では、人物Dの合計値S(A,x)が最も高いため、人物Dを人物Aと判断する。
なお、関数Sab(t),Sbc(t)は、人物、時間帯、及び店舗の状況などで変化するものであってもよい。例えば、関数Sab(t)、Sbc(t)を、現在時刻に基づく時間帯毎(9時〜10時など)に生成しても良い。
人物抽出(S706)において、推定した時間帯に映っている人物が1人だけのときに、認識情報修正部23cは、撮影時刻情報51が欠落している人物(人物B)と、推定した時間帯に映っている人物(人物E)との特徴情報41を比較しても良い。そして、特徴情報41が類似していない場合は、認識情報修正部23cは、撮影時刻情報51が欠落している人物(人物B)と推定した時間帯に映っている人物(人物E)とが別人であると判断して、撮影時刻情報テーブルT2を修正しなくても良い。
本開示の監視システム100は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現可能である。
以上のように、本開示における技術の例示として、実施形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、複数の監視カメラを使用して対象物を追跡する監視装置及びその監視装置を有する監視システムに適用可能である。
1 監視カメラ
2 監視装置
11 撮影部
12 送信部
21 受信部
22a 映像蓄積部
22b 認識情報蓄積部
22c カメラ配置情報蓄積部
23 制御部
23a 認識部
23b 移動時間情報更新部
23c 認識情報修正部
24 表示部
100 監視システム
T1 特徴情報テーブル
T2 撮影時刻情報テーブル
T3 カメラ配置情報テーブル

Claims (7)

  1. 対象物の移動経路に沿った撮影領域を撮影する配置位置に配置される第一及び第二のカメラを含み所定の位置関係を有する複数のカメラによって撮影された映像から前記対象物を識別する監視装置であって、
    前記複数のカメラから映像を受信する受信部と、
    前記対象物の特徴を表す特徴情報と、前記複数のカメラの前記配置位置を表すカメラ配置情報とを格納する記憶部と、
    前記特徴情報に基づいて前記映像から前記対象物を識別する制御部と、
    を備え、
    前記制御部は、
    前記第一のカメラと前記第二のカメラ間の前記対象物の移動時間を算出し、
    前記複数のカメラの配置位置が、前記対象物が前記第二のカメラの撮影領域の次に前記第一のカメラの撮影領域を通過する配置の場合、前記対象の前記第一のカメラの撮影開始時刻から、前記算出した移動時間を減算して、前記第二のカメラの撮影領域を前記対象物が通過した時間帯を算出し、
    前記算出した時間帯に前記第二のカメラにより撮影された映像において前記対象物を特定する、
    監視装置。
  2. 前記制御部は、
    前記複数のカメラの配置位置が、前記対象物が前記第一のカメラの撮影領域の次に前記第二のカメラの撮影領域を通過する配置の場合、前記対象の前記第一のカメラの撮影終了時刻に、前記算出した移動時間を加算して、前記第二のカメラの撮影領域を前記対象物が通過した時間帯を算出し、
    前記算出した時間帯に前記第二のカメラにより撮影された映像において前記対象物を特定する、
    請求項1に記載の監視装置。
  3. 前記制御部は、前記算出した時間帯に前記第二のカメラにより撮影された映像において2つ以上の対象物候補が映っている場合、前記特徴情報に基づいて、前記2つ以上の対象物候補の中から一つを前記対象物として特定する、請求項1に記載の監視装置。
  4. 前記制御部は、前記受信部が受信した映像から前記対象物の特徴を抽出して前記特徴情報を生成して、前記記憶部に格納する、請求項1に記載の監視装置。
  5. 前記算出した時間帯に、前記第二のカメラにより撮影された映像において対象物候補が映っていない場合、前記制御部は、前記算出した時間帯の開始時刻から第1の所定時間を減算し、又は前記算出した時間帯の終了時刻に第2の所定時間を加算することによって、新たな時間帯を算出する、請求項1に記載の監視装置。
  6. 前記制御部は、前記算出した時間帯に前記第二のカメラにより撮影された映像において2つ以上の対象物候補が映っている場合、前記第一のカメラと前記第二のカメラ間の移動時間の確率分布に基づいて、前記2つ以上の対象物候補の中から一つを前記対象物として特定する、請求項1に記載の監視装置。
  7. 対象物の移動経路に沿った撮影領域を撮影する配置位置に配置される第一及び第二のカメラを含み所定の位置関係を有する複数のカメラと、
    前記対象物の特徴を表す特徴情報と、前記複数のカメラの前記配置位置を表すカメラ配置情報とを有し、前記特徴情報に基づいて、前記複数のカメラによって撮影された映像から前記対象物を識別し、前記第一のカメラで撮影された映像から識別できたが、前記第二のカメラで撮影された映像から識別できなかった前記対象物を、前記カメラ配置情報に基づいて、前記第二のカメラで撮影された映像において特定する、請求項1から請求項6のいずれかに記載の監視装置と、
    を含む、監視システム。
JP2018506503A 2016-03-25 2016-09-12 監視装置及び監視システム Active JP6688975B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016062031 2016-03-25
JP2016062031 2016-03-25
PCT/JP2016/004148 WO2017163282A1 (ja) 2016-03-25 2016-09-12 監視装置及び監視システム

Publications (2)

Publication Number Publication Date
JPWO2017163282A1 JPWO2017163282A1 (ja) 2018-12-13
JP6688975B2 true JP6688975B2 (ja) 2020-04-28

Family

ID=59899998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018506503A Active JP6688975B2 (ja) 2016-03-25 2016-09-12 監視装置及び監視システム

Country Status (4)

Country Link
US (1) US10863142B2 (ja)
EP (1) EP3435665A4 (ja)
JP (1) JP6688975B2 (ja)
WO (1) WO2017163282A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018414269A1 (en) * 2018-03-23 2020-10-08 Nec Corporation Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program
SG10201807678WA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
CN110049290A (zh) * 2019-04-24 2019-07-23 北京市亚太安设备安装有限责任公司 公共建筑物智能监控***
JP7355632B2 (ja) * 2019-12-12 2023-10-03 清水建設株式会社 情報修正装置、情報修正方法およびプログラム
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及***
EP3971771A1 (en) * 2020-09-22 2022-03-23 Grazper Technologies ApS A concept for generating training data and training a machine-learning model for use in re-identification
CN112689132B (zh) * 2021-03-15 2021-05-18 成都点泽智能科技有限公司 目标对象监控方法和监控设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999561B2 (ja) 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ
JP5052003B2 (ja) * 2005-12-20 2012-10-17 パナソニック株式会社 情報配信システム
JP4929102B2 (ja) 2007-08-28 2012-05-09 株式会社東芝 映像検索システム及び映像検索装置
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
JP2011170565A (ja) 2010-02-17 2011-09-01 Toshiba Tec Corp 顧客動向収集方法、装置及びプログラム
US9412180B2 (en) 2012-01-17 2016-08-09 Sony Corporation Information processing apparatus, information processing method, and program
JP2013192154A (ja) 2012-03-15 2013-09-26 Omron Corp 監視装置、信頼度算出プログラム、および信頼度算出方法
JP6055823B2 (ja) * 2012-05-30 2016-12-27 株式会社日立製作所 監視カメラ制御装置及び映像監視システム
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US9633253B2 (en) * 2012-10-29 2017-04-25 Nec Corporation Moving body appearance prediction information processing system, and method
FR2999706B1 (fr) * 2012-12-14 2015-03-20 Commissariat Energie Atomique Dispositif de mesure de couple moteur dans un cycle
WO2014103673A1 (ja) * 2012-12-28 2014-07-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014175356A1 (ja) * 2013-04-26 2014-10-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6314987B2 (ja) 2013-08-21 2018-04-25 日本電気株式会社 店舗内顧客行動分析システム、店舗内顧客行動分析方法および店舗内顧客行動分析プログラム
JP6520783B2 (ja) 2016-03-22 2019-05-29 株式会社デンソー 車両検知装置

Also Published As

Publication number Publication date
JPWO2017163282A1 (ja) 2018-12-13
WO2017163282A1 (ja) 2017-09-28
US10863142B2 (en) 2020-12-08
EP3435665A1 (en) 2019-01-30
US20190132556A1 (en) 2019-05-02
EP3435665A4 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
JP6688975B2 (ja) 監視装置及び監視システム
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
KR100677913B1 (ko) 다중 센서 비디오 신호의 융합에 의한 이동 객체 추적 장치
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
JP2006236255A (ja) 人物追跡装置および人物追跡システム
US20140198229A1 (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP2015128259A (ja) 画像処理装置、撮影装置、撮影システム、画像処理方法、コンピュータプログラム
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
JP6631962B2 (ja) 監視装置及び監視システム
CN110651274A (zh) 可移动平台的控制方法、装置和可移动平台
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
US9709874B2 (en) Device and method for image processing used for tracking pursued subject
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP2019096062A (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
JP2011071925A (ja) 移動体追尾装置および方法
US10839552B2 (en) Image processing apparatus, tracking method, and program
CN106254861A (zh) 摄像头的检验方法和装置
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP6548306B2 (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
JP6443144B2 (ja) 情報出力装置、情報出力プログラム及び情報出力方法、並びに情報出力システム
JP7517412B2 (ja) 検出装置
JP2014044525A (ja) 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6688975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150