JP2014153813A - 情報処理装置、情報処理方法、プログラム、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、及び情報処理システム Download PDF

Info

Publication number
JP2014153813A
JP2014153813A JP2013021371A JP2013021371A JP2014153813A JP 2014153813 A JP2014153813 A JP 2014153813A JP 2013021371 A JP2013021371 A JP 2013021371A JP 2013021371 A JP2013021371 A JP 2013021371A JP 2014153813 A JP2014153813 A JP 2014153813A
Authority
JP
Japan
Prior art keywords
image
person
time
information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013021371A
Other languages
English (en)
Other versions
JP2014153813A5 (ja
JP6171374B2 (ja
Inventor
Yoshihiro O
啓宏 王
Kenichi Okada
憲一 岡田
Takeshi Miyashita
健 宮下
Yasushi Okumura
泰史 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013021371A priority Critical patent/JP6171374B2/ja
Priority to PCT/JP2014/000180 priority patent/WO2014122884A1/en
Priority to US14/763,581 priority patent/US9870684B2/en
Priority to EP14703447.4A priority patent/EP2954499B1/en
Priority to CN201480006863.8A priority patent/CN104956412B/zh
Publication of JP2014153813A publication Critical patent/JP2014153813A/ja
Publication of JP2014153813A5 publication Critical patent/JP2014153813A5/ja
Application granted granted Critical
Publication of JP6171374B2 publication Critical patent/JP6171374B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】有用な監視カメラシステムを実現することが可能となる情報処理装置、情報処理方法、プログラム、及び情報処理システムを提供すること。
【解決手段】本技術に係る情報処理装置は、撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出する検出部と、前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する第1の生成部と、前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する記憶部と、前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する配置部とを具備する。
【選択図】図7

Description

本技術は、例えば監視カメラシステム等に用いることが可能な情報処理装置、情報処理方法、プログラム、及び情報処理システムに関する。
例えば特許文献1には、監視カメラシステムに適用可能な技術として、オブジェクトの追尾前又は追尾中において追尾対象を簡単かつ正確に指定するための技術が記載されている。この技術では、追尾対象となるオブジェクトが拡大表示されるとともに、他のオブジェクトが追尾対象候補として抽出される。ユーザは抽出された追尾対象候補の中から拡大表示したい対象(追尾対象)を選ぶという簡易な操作を行うだけで、所望の拡大表示画像(ズーム画像)を得ることが可能となる(特許文献1の明細書段落[0010][0097]等参照)。
特開2009−251940号公報
特許文献1に記載のような有用な監視カメラシステムの実現を可能とするための技術が求められている。
以上のような事情に鑑み、本技術の目的は、有用な監視カメラシステムを実現することが可能となる情報処理装置、情報処理方法、プログラム、及び情報処理システムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、検出部と、第1の生成部と、記憶部と、配置部とを具備する。
前記検出部は、撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出する。
前記第1の生成部は、前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する。
前記記憶部は、前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する。
前記配置部は、前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する。
この情報処理装置では、複数の撮影画像のそれぞれから所定のオブジェクトが検出され、オブジェクト画像が生成される。またオブジェクト画像に関連付けられて、撮影時間情報及び識別情報が記憶される。そして識別情報が同じである1以上の同一オブジェクト画像が、各画像の撮影時間情報をもとに配置される。これにより注目したいオブジェクトを十分に観察することができる。この技術を用いることで、有用な監視カメラシステムを実現することが可能である。
前記情報処理装置は、前記1以上のオブジェクト画像から基準となる基準オブジェクト画像を選択する選択部をさらに具備してもよい。この場合、前記配置部は、前記選択された基準オブジェクト画像の前記識別情報と同じ識別情報が記憶されている前記1以上の同一オブジェクト画像を、前記基準オブジェクト画像の前記撮影時間情報を基準として配置してもよい。
このように基準オブジェクト画像を基準として、1以上の同一オブジェクト画像が配置されてもよい。これにより基準オブジェクト画像に含まれるオブジェクトを十分に観察することが可能となる。
前記検出部は、複数の撮像装置でそれぞれ撮影された前記複数の撮影画像から前記所定のオブジェクトを検出してもよい。
これにより複数の撮像装置によりオブジェクトが撮影された場合でも、そのオブジェクトを追跡して十分に観察することが可能となる。この結果、複数の撮像装置が用いられた有用な監視カメラシステムを実現することが可能となる。
前記情報処理装置は、時間軸を出力する第1の出力部をさらに具備してもよい。この場合、前記配置部は、前記時間軸に沿って前記1以上の同一オブジェクト画像を配置してもよい。
これにより配置される同一オブジェクト画像の撮影時間を把握することが可能となる。
前記配置部は、前記時間軸上の所定の範囲ごとに、前記所定の範囲内に前記撮影時間が含まれる前記同一オブジェクト画像をそれぞれ配置してもよい。
このように時間軸が所定の範囲で分割されて、所定の範囲ごとに同一オブジェクト画像が配置されてもよい。これにより時間軸に沿ってオブジェクトを十分に観察することが可能となる。
前記第1の出力部は、前記時間軸上の所定の位置を示すポインタを出力してもよい。この場合、前記情報処理装置はさらに、前記ポインタに示された前記時間軸上の所定の位置に応じた前記同一オブジェクト画像を選択し、当該同一オブジェクト画像に関連した情報であるオブジェクト情報を出力する第2の出力部を具備してもよい。
このようにポインタに示された所定の位置に応じた同一オブジェクト画像が選択され、その同一オブジェクト画像に関連するオブジェクト情報が出力されてもよい。これによりオブジェクトを詳細に観察することが可能となる。
前記第2の出力部は、前記ポインタにより示される前記所定の位置の変更に連動して、前記所定の位置に応じた前記同一オブジェクト画像の選択、及び前記オブジェクト情報の出力を変更してもよい。
このように所定の位置の変更に連動して、出力されるオブジェクト情報が変更されてもよい。これにより詳細な観察が可能となる。
前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像を含む前記撮影画像を出力してもよい。
これにより詳細に観察したいオブジェクトの周囲の状況等を把握することが可能となる。
前記情報処理装置は、前記オブジェクトの動きを検出して当該動きを表現する動き画像を生成する第2の生成部をさらに具備してもよい。この場合、前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの前記動き画像を出力してもよい。
これにより詳細に観察したいオブジェクトの動きを把握することが可能となる。
前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの位置を示す地図情報を出力してもよい。
これにより詳細に観察したいオブジェクトの位置情報を把握することが可能となる。
前記情報処理装置は、ユーザからの指示を入力する入力部をさらに具備してもよい。この場合、前記第1の出力部は、前記入力部により入力された前記1以上の同一オブジェクト画像に対する指示に応じて前記ポインタが指す前記所定の位置を変更してもよい。
これにより同一オブジェクト画像の中から、オブジェクト情報を表示させる画像を選択するといった操作が可能となる。
前記第1の出力部は、前記出力されたオブジェクト情報に対する指示に応じて前記ポインタが指す前記所定の位置を変更してもよい。
例えば動き画像上の所定の位置を指示することで、その位置に対応した位置にポインタを移動させるといった操作が可能となる。
前記情報処理装置は、さらに、前記入力部により入力された所定の指示に応じて前記1以上の同一オブジェクト画像を補正する補正部を具備してもよい。
これによりユーザが入力部を介して1以上の同一オブジェクト画像を補正することが可能となる。
前記補正部は、前記オブジェクト情報として出力された前記撮影画像に含まれる他のオブジェクトを選択する指示に応じて、前記1以上の同一オブジェクト画像を補正してもよい。
このように撮影画像に含まれる他のオブジェクトが選択されることで補正が実行されてもよい。これにより直観的な操作で補正を実行することが可能となる。
前記補正部は、前記1以上の同一オブジェクト画像のうち少なくとも1つ以上を選択する指示に応じて、前記1以上の同一オブジェクト画像を補正してもよい。
このように1以上の同一オブジェクト画像のうち1つ以上が選択されることで補正が実行されてもよい。これにより直感的な操作で補正を実行することが可能となる。
前記補正部は、前記選択された基準オブジェクト画像の前記識別情報と異なる識別情報が記憶されている前記1以上のオブジェクト画像から、前記同一オブジェクト画像の候補となる候補オブジェクト画像を選択してもよい。
これにより1以上の同一オブジェクト画像の補正を容易に実行することが可能となる。
前記情報処理装置は、前記検出されたオブジェクトが監視すべき人物かを判定する判定部をさらに具備してもよい。この場合、前記選択部は、前記監視すべき人物であると判定された前記オブジェクトを含む前記オブジェクト画像を前記基準オブジェクト画像として選択してもよい。
これにより監視すべき人物として判定されたオブジェクトを十分に監視することが可能となる。
本技術の一形態に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出することを含む。
前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像が生成されることで、1以上のオブジェクト画像が生成される。
前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とが記憶される。
前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像が、各画像の前記記憶された撮影時間情報をもとに配置される。
本技術の一形態に係るプログラムは、コンピュータに以下のステップを実行させる。
撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出するステップ。
前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成するステップ。
前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶するステップ。
前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置するステップ。
本技術の一形態に係る情報処理システムは、1以上の撮像装置と、情報処理装置とを具備する。
前記1以上の撮像装置は、時間的に連続する複数の撮影画像を撮影可能である。
前記情報処理装置は、検出部と、生成部と、記憶部と、配置部とを有する。
前記検出部は、前記1以上の撮像装置によりそれぞれ撮影された前記複数の撮影画像のそれぞれから所定のオブジェクトを検出する。
前記生成部は、前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する。
前記記憶部は、前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する。
前記配置部は、前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する。
以上のように、本技術によれば、有用な監視カメラシステムを実現することが可能となる。
本技術の一実施形態に係る情報処理装置を含む監視カメラシステムの構成例を示すブロック図である。 本実施形態において生成される動画データの一例を示す模式的な図である。 本実施形態に係る監視カメラシステムを機能的に示したブロック図である。 人物検出処理によって生成される人物追尾メタデータの一例を示す図である。 人物追尾メタデータを説明するための図である。 本実施形態に係る監視カメラシステムの概要を示す模式的な図である。 本実施形態に係るサーバ装置により生成されるUI(User Interface)画面の一例を示す模式的な図である。 UI画面に対するユーザの操作とその操作に応じた処理の一例を示す図である。 UI画面に対するユーザの操作とその操作に応じた処理の一例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 ポイント位置を変更する操作の他の例を示す図である。 1以上の同一サムネイル画像の補正を説明するための図である。 1以上の同一サムネイル画像の補正を説明するための図である。 1以上の同一サムネイル画像の補正を説明するための図である。 1以上の同一サムネイル画像の補正を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 1以上の同一サムネイル画像の補正の他の例を説明するための図である。 候補閲覧ボタンを利用した候補の表示について説明するための図である。 候補閲覧ボタンを利用した候補の表示について説明するための図である。 候補閲覧ボタンを利用した候補の表示について説明するための図である。 候補閲覧ボタンを利用した候補の表示について説明するための図である。 候補閲覧ボタンを利用した候補の表示について説明するための図である。 1以上の同一オブジェクト画像の補正について、詳しい処理の一例を示すフローチャートである。 図36のステップ106がYesとなる場合のUI画面の一例を示す図である。 図36のステップ106がNoとなる場合のUI画面の一例を示す図である。 1以上の同一サムネイル画像の補正の他の処理例を示すフローチャートである。 図39に示す処理を説明するための図である。 図39に示す処理を説明するための図である。 フィルムロール画像の構成及び動作の他の例を説明するための図である。 フィルムロール画像の構成及び動作の他の例を説明するための図である。 フィルムロール画像の構成及び動作の他の例を説明するための図である。 フィルムロール画像の構成及び動作の他の例を説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 フィルムロール部の尺度の変更について説明するための図である。 時間軸に表示される目盛りの尺度の変更について説明するための図である。 時間軸に表示される目盛りの尺度の変更について説明するための図である。 時間軸に表示される目盛りの尺度の変更について説明するための図である。 複数カメラ環境下の人物追尾のアルゴリズムの一例を説明するための図である。 複数カメラ環境下の人物追尾のアルゴリズムの一例を説明するための図である。 複数カメラ環境下の人物追尾のアルゴリズムの一例を説明するための図である。 1対1のマッチング処理の一例を示す写真及び図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。 本技術に係る監視カメラシステム100を用いた監視システム500の概要を説明するための図である。 アラーム画面の一例を示す図である。 アラーム画面に対する操作とその操作に応じた処理の一例を示す図である。 アラーム画面に対する操作とその操作に応じた処理の一例を示す図である。 アラーム画面に対する操作とその操作に応じた処理の一例を示す図である。 アラーム画面に対する操作とその操作に応じた処理の一例を示す図である。 トラッキング画面の一例を示す図である。 トラッキング画面上のターゲットを補正する方法の一例を示す図である。 トラッキング画面上のターゲットを補正する方法の一例を示す図である。 トラッキング画面上のターゲットを補正する方法の一例を示す図である。 トラッキング画面上のターゲットを補正する方法の一例を示す図である。 トラッキング画面上のターゲットを補正する方法の一例を示す図である。 トラッキング画面で実行される他の処理について説明するための図である。 トラッキング画面で実行される他の処理について説明するための図である。 トラッキング画面で実行される他の処理について説明するための図である。 トラッキング画面で実行される他の処理について説明するための図である。 クライアント装置及びサーバ装置として用いられるコンピュータの構成例を示す模式的なブロック図である。 他の実施形態に係るフィルムロール画像を示す図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[監視カメラシステム]
図1は、本技術の一実施形態に係る情報処理装置を含む監視カメラシステムの構成例を示すブロック図である。
監視カメラシステム100は、1以上のカメラ10と、本実施形態に係る情報処理装置であるサーバ装置20と、クライアント装置30とを有する。1以上のカメラ10及びサーバ装置20はネットワーク5を介して接続される。またサーバ装置20及びクライアント装置30もネットワーク5を介して接続される。
ネットワーク5としては、例えばLAN(Local Area Network)やWAN(Wide Area Network)等が用いられる。ネットワーク5の種類やそれに用いられるプロトコル等は限定されない。図1に示す2つのネットワーク5が互いに同じものである必要はない。
カメラ10は、例えばデジタルビデオカメラ等の動画を撮影することが可能なカメラである。カメラ10により、動画データが生成され、当該動画データがサーバ装置20へネットワーク5を介して送信される。
図2は、本実施形態において生成される動画データの一例を示す模式的な図である。動画データ11は、時間的に連続する複数のフレーム画像12により構成される。フレーム画像12は、例えば30fps(frame per second)や60fpsのフレームレートで生成される。なおインターレース方式によりフィールド単位で動画データが生成されてもよい。カメラ10は、本実施形態に係る撮像装置に相当する。
図2に示すように、複数のフレーム画像12は時間軸に沿って生成される。図2で見て左側から右側にかけてフレーム画像12は生成される。従って左側に位置するフレーム画像12は動画データ11の前半部分に相当し、右側に位置するフレーム画像12は動画データ11の後半部分に相当する。
本実施形態では、複数のカメラ10が用いられる。従ってサーバ装置20には、複数のカメラ10でそれぞれ撮影された複数のフレーム画像12が送信される。複数のフレーム画像12は、本実施形態において、複数の撮影画像に相当する。
クライアント装置30は、通信部31及びGUI部32を有する。通信部31は、ネットワーク5を介したサーバ装置20との通信に用いられる。GUI部32は、動画11、種々の操作のためのGUI(Graphical User Interface)、及びその他の情報等を表示する。例えばサーバ装置20からネットワーク5を介して送信された動画11等が通信部31により受信される。当該動画等はGUI部32に出力され、所定のGUIにより図示しない表示部に表示される。
また表示部に表示されたGUI等を介して、ユーザからの操作がGUI部32に入力される。GUI部32は、入力された操作をもとに指示情報を生成して通信部31に出力する。通信部31により指示情報がネットワーク5を介してサーバ装置20に送信される。なお入力された操作をもとに指示情報を生成して出力するブロックが、GUI部32とは別に設けられてもよい。
クライアント装置30としては、例えばPC(Personal Computer)や、タブレット等の携帯端末が用いられる。これらに限定される訳ではない。
サーバ装置20は、カメラ管理部21と、これに接続されたカメラ制御部22及び画像解析部23とを有する。またサーバ装置20は、データ管理部24と、警報管理部25と、種々のデータを記憶する記憶部208とを有する。またサーバ装置20は、クライアント装置30との通信に用いられる通信部27を有する。通信部27には、カメラ制御部22、画像解析部23、データ管理部24、及び警報管理部25が接続される。
通信部27は、接続された各ブロックから出力される動画11や種々の情報を、ネットワーク5を介してクライアント装置30へ送信する。またクライアント装置30から送信された指示情報を受信し、サーバ装置20の各ブロックに出力する。例えばサーバ装置20の動作を制御する図示しない制御ユニット等を介して各ブロックに指示情報が出力されてもよい。通信部27は、本実施形態において、ユーザからの指示を入力する指示入力部として機能する。
カメラ管理部21は、カメラ制御部22からの制御信号を、ネットワーク5を介して、カメラ10に送信する。これによりカメラ10の種々の動作が制御される。例えばカメラのパン・チルト動作、ズーム動作、フォーカス動作等が制御される。
またカメラ管理部21は、カメラ10からネットワーク5を介して送信される動画11を受信する。そして当該動画11を画像解析部23へ出力する。必要であればノイズ処理等の前処理が実行されてもよい。カメラ管理部21は、本実施形態において、画像入力部として機能する。
画像解析部23は、各カメラ10からの動画11をフレーム画像12ごとに解析する。例えばフレーム画像12に映っているオブジェクトの種類や数、オブジェクトの動き等が解析される。本実施形態では、画像解析部23により、時間的に連続する複数のフレーム画像12のそれぞれから所定のオブジェクトが検出される。ここでは所定のオブジェクトとして人物が検出される。フレーム画像12内に複数の人物が撮影されている場合は、人物ごとに検出が行われる。フレーム画像12から人物を検出する方法は限定されず、周知の技術が用いられてもよい。
また画像解析部23により、人物が検出されたフレーム画像12ごとに、その人物を含む部分的な画像であるオブジェクト画像が生成される。オブジェクト画像は典型的には、検出された人物のサムネイル画像である。フレーム画像12からオブジェクト画像を生成する方法は限定されない。フレーム画像12ごとにオブジェクト画像が生成されるので、1以上のオブジェクト画像が生成されることになる。
また画像解析部23は、2つの画像の差分を算出することが可能である。本実施形態では、画像解析部23により、フレーム画像12間の差分が検出される。また所定の基準画像と、複数のフレーム画像12のそれぞれとの差分が検出される。2つの画像の差分を算出するために用いられる技術は限定されない。典型的には、2つの画像の輝度値の差が差分として算出される。その他、輝度値の絶対差分和、輝度値に関する正規化相関係数、周波数成分等が用いられて差分が算出されてもよい。その他、パターンマッチング等に用いられる技術が適宜用いられてよい。
また画像解析部23は、検出されたオブジェクトが監視すべき人物か否かを判定する。例えば、セキュリティが設定されている扉等に不正にアクセスする人物や、人物データがデータベースに格納されていない人物等が、監視すべき人物として判定される。また監視カメラシステム100を利用する警備員等の操作入力により監視すべき人物の判定が実行されてもよい。その他、検出された人物を不審者と判定するための条件やアルゴリズム等は限定されない。
また画像解析部23は、検出されたオブジェクトの追跡を実行することが可能である。すなわち画像解析部23により、オブジェクトの動きが検出されその追跡データが生成される。例えば追跡対象のオブジェクトの位置情報が、連続するフレーム画像12ごとに算出される。当該位置情報が、オブジェクトの追跡データとして用いられる。オブジェクトの追跡に用いられる技術は限定されず、周知の技術が用いられてよい。
本実施形態に係る画像解析部23は、検出部、第1の生成部、判定部、第2の生成部の一部として機能する。各機能が1つのブロックで実現される必要はなく、各機能を実現するためのブロックが個別に設定されてもよい。
データ管理部24は、動画データ11、画像解析部23による解析結果のデータ、及びクライアント装置30から送信された指示データ等を管理する。またデータ管理部24は、記憶部208に記憶されたメタ情報データや過去の動画等のビデオデータ、及び警報管理部25からの警報表示(アラーム表示)に関するデータ等を管理する。
本実施形態では、記憶部208に、生成されたサムネイル画像に関連付けられた情報として、サムネイル画像の生成元となるフレーム画像12の撮影時間の情報と、サムネイル画像に含まれるオブジェクトを識別するための識別情報とが記憶されている。サムネイル画像の生成元となるフレーム画像12は、オブジェクト画像を含む撮影画像に相当する。サムネイル画像に含まれるオブジェクトとは、上記したように本実施形態では人物である。
データ管理部24は、1以上のオブジェクト画像のうち、記憶部208に記憶された識別情報が同じである1以上の画像を、各画像に関連付けられて記憶された撮影時間情報をもとに配置する。識別情報が同じである1以上の画像は、同一オブジェクト画像に相当する。例えば時間軸に沿って撮影時間順で1以上の同一オブジェクト画像が配置される。これにより所定のオブジェクトの時間に沿った動きや行動履歴を十分に観察することが可能となる。すなわち高い精度でのトラッキングが可能となる。
また詳細は後述するが、データ管理部24により、1以上のオブジェクト画像から基準となる基準オブジェクト画像が選択される。またデータ管理部24により、クライアント装置30が有する表示部に表示される時間軸と、時間軸上の所定の位置を示すポインタのデータが出力される。またデータ管理部24により、ポインタに示された時間軸上の所定の位置に応じた同一オブジェクト画像が選択され、当該同一オブジェクト画像に関連した情報であるオブジェクト情報が記憶部208から読み出されて出力される。またデータ管理部24により、入力部により入力された所定の指示に応じて1以上の同一オブジェクト画像が補正される。
また本実施形態では、画像解析部23からデータ管理部24に、所定のオブジェクトの追跡データが出力される。そしてデータ管理部24により、追跡データをもとにオブジェクトの動きを表現する動き画像が生成される。なお、動き画像を生成するブロックが別個設けられ、当該ブロックにデータ管理部から追跡データが出力されてもよい。
また本実施形態では、記憶部208に、動画11内に出現する人物の情報が記憶されている。例えば監視カメラシステム100が用いられる会社や建物に関する人物のデータが予め記憶されている。データ管理部24は、所定の人物が検出されて選択された場合等において、当該人物の情報を記憶部208から読み出して出力する。なお部外者等の、データが記憶されていない人物に対しては、その旨のデータが人物の情報として出力されてもよい。
また記憶部208には、動き画像上の位置と複数のフレーム画像12との対応付けが記憶される。データ管理部24は、この対応付けをもとに、動き画像上の所定の位置を選択する指示に応じて、複数のフレーム画像12から、選択された所定の位置に対応付けられたフレーム画像12を出力する。
本実施形態では、データ管理部24は、配置部、選択部、第1及び第2の出力部、補正部、第2の生成部の一部として機能する。
警報管理部25は、フレーム画像12内のオブジェクトに対する警報表示を管理する。例えばユーザからの指示や画像解析部23による解析結果をもとに、所定のオブジェクトが注目オブジェクト(不審者等)として検出される。検出された不審者等は警報表示される。この際、警報表示の種類や警報表示の実行のタイミング等が管理される。また警報表示の履歴等が管理される。
図3は、本実施形態に係る監視カメラシステム100を機能的に示したブロック図である。複数のカメラ10らネットワーク5を介して動画11が送信される。各カメラ10から送信された動画11に対して、人検出セグメンテーションが実行される(画像解析部23)。すなわち動画11を構成する複数のフレーム画像12のそれぞれに対して画像処理が実行されて、人物が検出される。
図4は、人物検出処理によって生成される人物追尾メタデータの一例を示す図である。上記したように、人物40が検出されたフレーム画像12からサムネイル画像41が生成される。そのサムネイル画像41に関連付けられて、図4に示す人物追尾メタデータ42が記憶される。メタデータ42の内容は以下の通りである。
object_id:検出された人物40のサムネイル画像41のIDで、サムネイル画像41と一対一の関係。
tracking_id:追跡ID。同じ人物40として判定されたIDであり、識別情報に相当。
camera_id:フレーム画像12を撮影したカメラ10のID。
timestamp:人物40が映っているフレーム画像12の撮影時刻。撮影時間情報に相当。
LTX,LTY,RBX,RBY:サムネイル画像41のフレーム画12像内での位置座標(正規化)。
MapX,MapY:人物40の地図内での位置情報(正規化)。
図5は、メタデータ42である[LTX,LTY,RBX,RBY]を説明するための図である。図5Aに示すように、フレーム画像12の左上の端点13が座標(0,0)に設定される。またフレーム画像12の右下の端点14が座標(1,1)に設定される。このように正規化された状態でのサムネイル画像41の左上の端点の座標(LTX,LTY)と、右下の端点の座標(RBX,RBY)がメタデータ42として記憶される。図5Bに示すように、フレーム画像12に複数の人物40が撮影されている場合は、各人物40ごとにサムネイル画像41が生成され、それに関連付けて位置座標データ[LTX,LTY,RBX,RBY]が記憶される。
図3に示すように、人物追跡メタデータ42は各動画11ごとに生成されて集められ、記憶部208に記憶される。一方、フレーム画像12から生成されたサムネイル画像41もビデオデータとして記憶部208に記憶される。
図6は、本実施形態に係る監視カメラシステム100の概要を示す模式的な図である。図6に示すように、記憶部208に記憶された人物追尾メタデータ42、サムネイル画像41、及び本技術を実現するためのシステムデータ等が適宜読み出される。システムデータは、後述する地図情報やカメラ10に関する情報等を含む。これらのデータを用いて、クライアント装置30からの所定の指示に応じて、サーバ装置20により本技術に係るサービスが提供される。このようにサーバ装置20とクライアント装置30との間では、インタラクティブな処理が可能となっている。
なお人物検出処理は、カメラ10から動画11が送付された際に前処理として実行されてもよい。すなわちクライアント装置30からの本技術に係るサービスやアプリケーションの利用の有無に関わらず、図3の破線3で囲まれたブロックにより、サムネイル画像41の生成や人物追尾メタデータ42の生成等が予め実行されてよい。
[監視カメラシステムの動作]
図7は、本実施形態に係るサーバ装置30により生成されるUI(User Interface)画面の一例を示す模式的な図である。ユーザは、クライアント装置20の表示部に表示されたUI画面50を操作することで、カメラ映像(フレーム画像12)の確認、アラーム記録の確認、指定人物40の移動経路の確認、解析結果の修正処理等を実行することが可能となる。
本実施形態に係るUI画面50は、フィルムロール画像51が表示される第1の表示領域52と、オブジェクト情報53が表示される第2の表示領域54から構成される。図7に示すように、画面50の下半分が第1の表示領域52となり、画面50の上半分が第2の表示領域54となる。画面50の上下方向において、第1の表示領域52の方が第2の表示領域54よりもサイズ(高さ)が小さい。第1及び第2の表示領域52及び54のそれぞれの位置や大きさ等は限定されない。
フィルムロール画像51は、時間軸55、時間軸55上の所定の位置を示すポインタ56、時間軸55に沿って配置される同一サムネイル画像57、及び後述するトラックステイタスバー58(以後、ステイタスバー58と記載する)から構成される。ポインタ56は、タイムインジケータとして用いられる。同一サムネイル画像57は、同一オブジェクト画像に相当する。
本実施形態では、各フレーム画像12から検出された1以上のサムネイル画像41から、基準オブジェクト画像として基準サムネイル画像43が選択される。本実施形態では、人物Aが所定の撮影時間で撮影されたフレーム画像12から生成されたサムネイル画像41が、基準サムイネル画像43として選択される。例えばその時間に人物Aが立ち入り禁止エリアに入ってしまい、人物Aが不審者として判定された場合等の理由により、基準サムネイル画像43が選択される。基準サムネイル画像43が選択される条件等は限定されない。
基準サムネイル画像43が選択されると、基準サムネイル画像43の追跡IDが参照され、同じ追跡IDが記憶されている1以上のサムネイル画像41が、同一サムネイル画像57として選択される。そして1以上同一サムネイル画像57が、基準サムネイル画像43の撮影時間(以後、基準時間と記載する)を基準として、時間軸55に沿って配置される。図7に示すように、基準サムネイル画像43は、他の同一サムネイル画像57よりもサイズが大きく設定されている。基準サムネイル画像43及び1以上の同一オブジェクト画像57により、フィルムロール部59が構成される。なお、基準サムネイル画像43は、同一サムネイル画像57に含まれる。
図7では、時間軸55上の基準時間T1に対応する位置にポインタ56が配置されている。これは基準サムネイル画像43を基準としてUI画面50が構成される場合の基本的な初期状態を示している。ポインタ56により示された基準時間T1の右側に、基準時間T1よりも後の時間に撮影された同一サムネイル画像57が配置される。基準時間T1の左側には、基準時間T1よりも前の時間に撮影された同一サムネイル画像57が配置される。
本実施形態では、基準時間T1を基準として、時間軸55上の所定の範囲61ごとに同一サムネイル57がそれぞれ配置される。この範囲61は時間の長さを表し、フィルムロール部59の尺度(スケール)に相当する。フィルムロール部59の尺度は限定されず、1秒、5秒、10秒、30分、1時間等、適宜設定可能である。例えばフィルムロール部59の尺度を10秒とすると、図7に示す基準時間T1から右側に10秒間隔で所定の範囲61が設定される。その10秒の間に撮影された人物Aの同一サムネイル画像57から、フィルムロール画像51として表示される表示サムネイル画像62が選択されて配置される。
基準サムネイル画像43は、基準時間T1に撮影された画像であり、その右端部43aと左端部43bとは同じ時間T1が設定されている。従って基準時間T1よりも後の時間に関しては、基準サムネイル画像43の右端部43aを基準として同一サムネイル画像57が配置される。一方、基準時間T1よりも前の時間に関しては、基準サムネイル画像43の左端部43bを基準として同一サムネイル画像57が配置される。従って基本的な初期状態を表すUI画面50として、基準サムネイル画像43の左端部43bにポインタ56が位置する状態が表示されてもよい。
所定の範囲61で表される時間内に撮影された同一サムネイル画像57から、表示サムネイル画像62を選択する方法は限定されない。例えば所定の範囲61内において撮影された同一サムネイル画像57のうち撮影時間が最も前である(過去である)画像が表示サムネイル画像62として選択されてもよい。逆に、撮影時間が最も後である(未来である)画像が表示サムネイル画像62として選択されてもよい。あるいは、範囲61内の中間の時間に撮影された画像、あるいは中間の時間に最も近い時間に撮影された画像が、表示サムネイル画像62として選択されてもよい。
図7に示すステイタスバー58は、時間軸55と同一サムネイル画像57との間に、時間軸55に沿って表示されている。ステイタスバー55は、人物Aのトラッキングが実行されている時間を示している。すなわち同一サムネイル画像57が存在する時間を示している。例えばフレーム画像12内において、人物Aが柱等の後ろに隠れてしまったり、他の人と重なった場合等は、人物Aがオブジェクトとして検出されない。そうすると人物Aのサムネイル画像41は生成されない。このような時間が、トラッキングが実行されていない時間であり、図7で示すステイタスバー58が途切れている部分63や配置されない部分63等が該当する。
またステイタスバー58は、人物Aを撮影したカメラ10によって、色を区別して表示される。従って同一サムネイル画像57の生成元のフレーム画像12がどのカメラ10で撮影されたかが把握できるように適宜色表示が行われる。人物Aを撮影したカメラ10、すなわち人物Aをトラッキングしたカメラ10が、図4に示すメタデータ42をもとに判別され、その結果をもとにカメラ10ごとに設定された色でステイタスバー58が表示される。
図7のUI画面50の地図情報65を見てみると、3つのカメラ10と、各カメラ10の撮影範囲66が表示されている。例えばカメラ10及び撮影範囲66に、それぞれ所定の色が付される。そしてこれらの色と対応するようにステイタスバー58に色が付される。これにより容易に、また直観的に人物Aを観察することが可能となる。
上記したように例えば所定の範囲61内において、撮影時間が最も前である画像が表示サムネイル画像62として選択されるとする。この場合、図7に示す最も左側に位置する表示サムネイル画像62aは、その上に表示されているステイタスバー58の左端部58aの時間T2に撮影された同一サムネイル画像57ということになる。図7では、この表示サムネイル画像62の左側には、同一サムネイル画像57が配置されていない。これは表示サムネイル画像62aの撮影時間T2よりも前には、同一サムネイル画像57が生成されていないことを意味する。すなわちその時間には、人物Aのトラッキングが実行されていないことになる。同一サムネイル画像57が表示されない範囲には、トラッキングが実行されていない旨を表す画像やテキスト等が表示されてもよい。例えばグレー色が付せられた人の形をした画像が、人物非表示画像として表示されてもよい。
図7に示す第2の表示領域54は、左表示領域67及び右表示領域68に分割される。左表示領域67には、オブジェクト情報53として出力された地図情報65が表示される。右表示領域68には、オブジェクト情報53として出力されたフレーム画像12、及び動き画像69が表示される。これらは、ポインタ56に示された時間軸55上の所定の位置に応じて選択された同一オブジェクト画像57に関連した情報として出力される。従ってポインタ56に示された時間に撮影された同一オブジェクト画像57に含まれる人物Aの位置を示す地図情報65が表示される。またポインタ56に示された時間に撮影された同一オブジェクト画像57を含むフレーム画像12と、人物Aの動き画像69とが表示される。本実施形態では、動き画像69として動線が表示されるが、動き画像69として表示される画像は限定されない。
ポインタ56に示された時間軸55上の所定の位置に応じた同一オブジェクト画像57は、その時間に撮影された同一オブジェクト画像57に限定されない。例えばポインタ56が示す時間を含む範囲61(フィルムロール部の尺度)において、表示オブジェクト画像62として選択されている同一オブジェクト画像57に関する情報が表示されてもよい。その他の同一オブジェクト画像57が選択されてもよい。
地図情報65は、図6に示すシステムデータとして予め記憶されている。ここにオブジェクトとして検出された人物Aを示すアイコン71aが、メタデータ42をもとに表示される。図7に示すUI画面50では、基準サムネイ画像43が撮影された時間T1における人物Aの位置が表示されている。また基準サムネイル画像43を含むフレーム画像12には、他のオブジェクトとして人物Bが検出されている。従って地図情報65には、人物Bを示すアイコン71bも表示されている。さらに地図情報には、人物A及び人物Bのそれぞれの動き画像69も表示されている。
オブジェクト情報53として出力されたフレーム画像12(以後、プレイビュー画像70と記載する)には、検出されたオブジェクトを強調して示す強調画像72が表示される。本実施形態では、検出された人物A及び人物Bを囲う枠が、強調画像72a及び72bとしてそれぞれ表示される。この枠は、生成されるサムネイル画像41の外縁に相当する。なお、強調画像72として、例えば矢印等が人物40の上に表示されてもよい。その他任意の画像が強調画像72として用いられてもよい。
また本実施形態では、プレイビュー画像70内の複数のオブジェクトのうち、フィルムロール画像51に表示されているオブジェクトを区別するための画像も表示される。以後、フィルムロール画像51に表示されるオブジェクトをターゲットオブジェクト73と記載する。図7等に示す例でが、人物Aがターゲットオブジェクト73になる。
本実施形態では、プレイビュー画像70内の複数オブジェクトのうち、ターゲットオブジェクト73を示す画像が表示される。これにより1以上の同一サムネイル画像57に表示されているオブジェクトが、プレイビュー画面70内のどのオブジェクトかであるかが把握可能である。この結果、直感的な観察が可能となる。本実施形態では、上記した強調画像72に所定の色が付される。例えはフィルムロール画像51として表示されている人物Aを囲う強調画像72aは赤色等の目立つ色が付される。一方、他のオブジェクトである人物Bを囲う強調画像72bには、緑色等の他の色が付される。このようにして、オブジェクトが区別される。他の方法や他の画像を用いて、ターゲットオブジェクト73が区別されてもよい。
強調画像72の色表示に合わせて、動き画像69も色を区別して表示されてもよい。すなわち人物Aの動きを表現する動き画像69aは赤色で表示され、人物Bの動きを表現する動き画像69bは緑色で表示されてもよい。これにより、ターゲットオブジェクト73である人物Aの動きを十分に観察することが可能となる。
図8及び図9は、UI画面50に対するユーザ1の操作と、その操作に応じた処理の一例を示す図である。図8及び図9に示すように、タッチパネルとしても機能する画面に対してユーザ1からの操作が入力される。その操作はユーザ1からの指示としてクライアント装置30を介してサーバ装置20に入力される。
本実施形態では、1以上の同一オブジェクト画像57に対する指示が入力され、その指示に応じてポインタ56が示す時間軸55上の所定の位置が変更される。具体的には、フィルムロール画像51のフィルムロール部59して、左右方向(y軸方向)でドラッグ操作が入力される。これにより同一オブジェクト画像57が左右に移動され、それに合わせて時間軸55内の時間表示画像(目盛り)も移動する。ポインタ56の位置は固定されているので、これによりポインタ56に示される時間軸55上のポイント位置74が相対的に変更される。なお、ポインタ56に対してドラッグ操作が入力されることで、ポイント位置74が変更されてもよい。その他、ポイント位置74を変更するための操作等は限定されない。
このポイント位置74の変更に連動して、ポイント位置74に応じた同一オブジェクト画像57の選択、及びオブジェクト情報53の出力が変更される。例えば図8及び図9に示すように、同一サムネイル画像57が左側に移動されるとする。そうするとポインタ56が相対的に右側に移動して、基準時間T1よりも後の時間に向けて、ポイント位置74が変更される。これに連動して、基準時間T1よりも後に撮影された同一サムネイル画像57に関する地図情報65とプレイビュー画像70が表示される。すなわち地図情報65においては、動き画像69に沿って人物Aのアイコン71aが右側に移動し、また人物Bのアイコン71bが左側に移動する。プレイビュー画像70においては、動き画像69aに沿って人物Aが奥側に移動し、また動き画像69bに沿って人物Bが手前側に移動する画像が順次表示される。これにより時間軸55に沿ったオブジェクトの動きを把握することが可能となり、詳細な観察が可能となる。また1以上の同一オブジェクト画像57の中から、プレイビュー画像70等のオブジェクト情報53を表示させる画像を選択するといった操作が可能となる。
なお図8及び図9に示す例では、1つのカメラ10により撮影されたフレーム画像12から生成された同一サムネイル画像57が配置されている。従ってステイタスバー58はそのカメラ10に対応した色のみが付されるはずである。しかしながら図7−図9では、カメラ10ごとにステイタスバー58が色を区別して表示されるということを説明するために、ステイタスバー58が種類を分けて図示されている。またフィルムロール部59を左に移動させた結果、右側に新たな同一サムネイル画像57が表示されていない。しかしながらその時間に撮影された同一サムネイル画像57が存在する場合には、その画像が適宜配置される。
図10−図12は、ポイント位置74を変更する操作の他の例を示す図である。図10−図12に示すように、出力されたオブジェクト情報53に対する指示に応じてポインタ56が示すポイント位置74が変更されてもよい。
本実施形態では、UI画面50のプレイビュー画像70上のオブジェクトとして、ターゲットオブジェクト73である人物Aが選択される。例えば人物Aに指が合わせられてもよいし、強調画像72に指が合わせられてもよい。典型的には、強調画像72内の領域であるならば、そこをタッチ等することで、人物Aの選択指示が入力される。人物Aが選択されると、左表示領域67に表示される情報が、地図情報65から拡大表示情報75に変更される。拡大表示情報75は、プレイビュー画像70として表示されるフレーム画像12から生成されればよい。拡大表示情報75も、同一オブジェクト画像57に関連するオブジェクト情報53に含まれる。拡大表示情報75が表示されることで、ユーザ1が選択したオブジェクトを詳細に観察することが可能となる。
図10−図12に示すように、人物Aが選択された状態で、動き画像69aに沿ってドラッグ操作が入力される。そうすると、動き画像69a上の位置に対応したフレーム画像12が、プレイビュー画像70として表示される。動き画像69a上の位置に対応したフレーム画像12とは、その位置に人物Aが表示されているフレーム画像12、あるいはその位置に最も近い位置に人物Aが表示されているフレーム画像12等である。例えば図10−図12に示すように、人物Aが動き画像69aに沿って奥側へ移動される。それに連動して、ポイント位置74が基準時間T1よりも後の時間である右側へ移動される。すなわち同一オブジェクト画像57が左側へ移動される。また拡大表示情報74も連動して変更される。
このようにプレイビュー画像70が変更されると、それに連動して、プレイビュー画像70として表示されたフレーム画像12の撮影時間に対応した位置にポインタ56が移動する。これによりポイント位置74が変更される。このことは、ポイント位置74の時間と、プレイビュー画像70の撮影時間とが対応付けられており、一方を変更すると、それに連動して他方も変更するということに相当する。
図13−図15は、ポイント位置74を変更する操作の他の例を示す図である。図13に示すように、プレイビュー画像70に表示されるターゲットオブジェクト73とは異なる他のオブジェクト76を操作することでも、ポイント位置74を変更することが可能とである。図13に示すように、他のオブジェクト76である人物Bが選択され、人物Bの拡大表示情報75が表示される。動き画像69bに沿ってドラッグ操作が入力されると、それに応じてポインタ56のポイント位置74が変更される。このように他のオブジェクト76への操作が可能であってもよい。これにより他のオブジェクト76の動きを観察することが可能となる。
図14に示すように、他のオブジェクト76である人物Bから指を離すと、ターゲットオブジェクト73を指定するためのポップアップ77が表示される。このポップアップ77は、ターゲットオブジェクト73の補正や変更等で用いられる。ここでは、図15に示すように、キャンセルが選択され、ターゲットオブジェクト73の変更は行われないとする。そうするとポップアップ77が消去される。このポップアップ77については、ターゲットオブジェクト73の補正と合わせて後に説明する。
図16−図19は、フィルムロール画像51として配置される1以上の同一サムネイル画像57の補正を説明するための図である。図16に示すように、人物Aが撮影されている基準サムネイル画像43が選択された場合において、人物Aとは異なる人物Bが撮影されたサムネイル画像41bが同一サムネイル画像57として配置される場合が起こり得る。例えばフレーム画像12からオブジェクトを検出する際に、誤検出が発生してしまい、他のオブジェクト76である人物Bに、人物Aを表す追跡IDが設定される場合がある。例えば背格好や髪形等が似ている場合や、速く動く2つの人物が通りすぎる場合等、様々な状況を原因として、そのような誤検出が発生してしまう可能性がある。そうすると、ターゲットオブジェクト73として正しくないオブジェクトのサムネイル画像41がフィルムロール画像51に表示されてしまう。
本実施形態に係る監視カメラシステム100では、以下に示すように、簡単な操作によりターゲットオブジェクト73の補正を実行することが可能である。すなわち入力部により入力された所定の指示に応じて1以上の同一オブジェクト画像57を補正することが可能となっている。
図17に示すように、プレイビュー画像70において、ターゲットオブジェクト73の認識が間違っている状態の画像を探索する。すなわち人物Bの強調画像72bが赤色で表示されており、人物Aの強調画像72aが緑色で表示されているプレイビュー画像70が探索される。図17では、フィルムロール部59が操作されることで、誤検出されたプレイビュー画像70が探索されている。しかしながらプレイビュー画像70の人物A又は人物Bへの操作により探索が実行されてもよい。
図18に示すように、人物Bのサムネイル画像41bが表示されている範囲78の左端部78aの位置にポインタ56が移動したときに、ターゲットオブジェクト73が誤検出されたプレイビュー画像70が表示される。ユーザ1により、本来ターゲットオブジェクト73として検出されるべき人物A(強調画像72aは緑色)が選択される。そうするとターゲットオブジェクト73を指定するポップアップ77が表示され、ターゲット指定ボタンが押される。
図19に示すように、ポインタ56よりも右側に配置された人物Bのサムネイル画像41bが消去される。この場合、ポインタ56よりも後の時間のサムネイル画像41がすべて消去される(サムネイル画像41及び人物非表示画像)。本実施形態では、ポインタ56よりも後の時間のサムネイル画像41が、画面50の下側に消えていくアニメーション79が表示されて、サムネイル画像41が消去される。しかしながら、サムネイル画像41が消去される際のUIは限定されず、直感的に分かりやすいアニメーションや意匠性の高いアニメーションが表示されてもよい。
ポインタ56よりも左側のサムネイル画像41が消去された後に、正しいターゲットオブジェクト73として指定された人物Aのサムネイル画像41が同一オブジェクト画像57として配置される。プレイビュー画像70では、人物Aの強調画像72aが赤色で表示され、人物Bの強調画像72bが緑色で表示される。
なお、図18等に示すように、ここでは人物Bのサムネイル画像41bの左端部78aの位置にて、誤検出されたプレイビュー画像70が見つかった。しかしながら表示サムネイル画像62として人物Aのサムネイル画像41が表示されている範囲内にて、誤検出のプレイビュー画像70が見つかる場合もあり得る。この場合、その表示サムネイル画像62よりも後の時間における、人物Bのサムネイル画像41bが消去されてもよいし、人物Aのサムネイル画像41を分割するように、ポインタ56よりも右側のサムネイル画像41が消去されてもよい。また表示サムネイル画像62として人物Bのサムネイル画像41bが表示されている範囲の途中の位置で、誤検出のプレイビュー画像70が見つかる場合もあり得る。この場合、その人物Bのサムネイル画像41bも含めて、サムネイル画像の消去が実行されればよい。
このようにオブジェクト情報53として出力されたプレイビュー画像70に含まれる他のオブジェクト76を選択する指示に応じて、1以上の同一オブジェクト画像57が補正される。これにより直観的な操作で補正を実行することが可能となる。
図20−図25は、1以上の同一サムネイル画像57の補正の他の例を説明するための図である。これらの図では、地図情報65が省略されている。上記と同様に、まず人物Bがターゲットオブジェクト73として誤って検出された時点のプレイビュー画像70が探索される。その結果、図20に示すように、プレイビュー画像70に正しいターゲットオブジェクト73として検出されるべき人物Aが映っていないとする。例えば誤検出された人物Bが人物Aとは離れて移動した場合や、もともと他の場所にいた人物Bがターゲットオブジェクト73として検出される場合等が考えられる。
なお図20では、ポインタ56の左側に隣接する同一サムネイル画像57aの左右方向でのサイズが、他のサムネイル画像57と比べて小さい。例えばそのサムネイル画像57aが配置された範囲61(フィルムロール部59の尺度)の途中において、ターゲットオブジェクト73が変わってしまった場合等に、フィルムロール部59の尺度が部分的に変更されてもよい。この他の場合でも、例えばターゲットオブジェクト73は正常に検出されているが、そのターゲットオブジェクト73を撮影するカメラ10が切り替えられる時等において、フィルムロール部59の尺度が部分的に変更されてもよい。
図21に示すように、ターゲットオブジェクト73として指定したい人物Aが、プレイビュー画像70に表示されない場合には、UI画面50に設けられたカットボタン80が利用される。本実施形態では、ポインタ56の下部にカットボタン80が設けられる。図22に示すように、ユーザ1によりカットボタン80がクリックされると、ポインタ56よりも右に配置されるサムネイル画像41bが消去される。これにより誤検出により同一サムネイル画像57として配置された人物Bのサムネイル画像41bが消去される。そしてプレイビュー画像70の人物Bの強調画像72bが赤色から緑色に変更される。なおカットボタン80の位置や形状等は限定されない。本実施形態のようにポインタ56に連結するように配置されることで、ポインタ56を基準としたカット処理を、直感的な操作により実行することが可能となる。
ターゲットオブジェクト73の誤検出が発生した時点を探索するというのは、1以上の同一サムネイル画像57のうちその時点以後の少なくとも1つ以上の同一サムネイル画像57を選択することに相当する。その選択された同一サムネイル画像57がカットされることで、1以上の同一オブジェクト画像57が補正される。
図23に示すように、ポインタ56よりも右側に配置されたサムネイル画像41bが消去されると、地図情報65が表示されている左表示領域67に、各カメラ10で撮影されたビデオ映像(複数のフレーム画像12)がそれぞれ表示される。各カメラ10の映像は、サイズが小さいモニタ表示領域81にそれぞれ表示され、ビデオリストとして閲覧可能となっている。各モニタ表示領域81において、ポインタ56のポイント位置74の時間に応じたフレーム画像12がそれぞれ表示される。また各モニタ表示領域81の上部82には、カメラ10を識別するために、カメラ10ごとに設定された色が表示されている。
複数のモニタ表示領域81は、ターゲットオブジェクト73として検出されるべき人物Aを探索するために設定される。監視カメラシステム100が有する複数のカメラ10の中からモニタ表示領域81に映像が表示されるカメラ10を選択する方法は限定されない。典型的には、ターゲットオブジェクト73となる人物Aが撮影される可能性が高いエリア順にカメラ10が選択され、その映像が上から順にリスト表示される。人物Aが撮影される可能性が高いエリアとしては、誤検出が発生したフレーム画像12を撮影したカメラ10の近くのエリアが選択される。あるいは、人物Aの情報から人物Aが所在するオフィス等が選択される。その他の方法が用いられてもよい。
図24に示すように、フィルムロール部59を操作することで、ポインタ56によるポイント位置74が変更される。これに連動して、プレイビュー画像70やモニタ表示領域81のモニタ画像が変更される。またユーザ1によりモニタ表示領域81が選択されると、そこに表示されているモニタ画像が、右表示領域68にプレイビュー画像70として表示される。従ってユーザ1は、ポイント位置74の変更や、モニタ表示領域81の選択を適宜実行することで、ターゲットオブジェクト73として検出されるべき人物Aを簡単に探索することができる。
なお、UI画面50には表示されないほど後の時間(ポイント位置74よりも右側の位置)において、人物Aがターゲットオブジェクト73として検出されている場合がある。すなわちターゲットオブジェクト73の誤検出が解消されて、人物Aが適正にターゲットオブジェクト73として検出される場合である。そのような場合には、その時間における人物Aが映っている同一サムネイル画像57までジャンプする指示を入力するためのボタン等が表示されてもよい。例えば時間を先に送って現在の時間に近い時間の人物Aを監視したい場合等に有効である。
図25に示すように、複数のモニタ表示領域81から人物Aが撮影されているモニタ画像12が選択され、そのモニタ画像12がプレイビュー画像70として表示される。その後は、図18に示すように、プレイビュー画像70に表示された人物Aが選択され、ターゲットオブジェクト73を指定するためのポップアップ77が表示される。ターゲットオブジェクト73を指定するボタンが押されてターゲットオブジェクト73が補正される。図25では、ポインタ56の上部に候補を表示させるための候補閲覧ボタン83が表示されている。このボタンについては後述する。
図26−図30は、1以上の同一サムネイル画像の補正の他の例を説明するための図である。フィルムロール部59に1以上の同一サムネイル画像57のうち、途中の時間においてターゲットオブジェクト73の誤検出が発生する場合が考えられる。例えばターゲットオブジェクト73(人物A)とすれ違った他の人物Bがターゲットオブジェクト73として誤検出される。そして人物Bを撮影するカメラ10が切り替えられる瞬間において、人物Aが再びターゲットオブジェクト73として適正に検出される場合等が考えられる。
図26は、そのような場合の一例を示す図である。図26に示すように、並べられた同一サムネイル画像57内の一部が他の人物Bのサムネイル画像41bとなっている。プレイビュー画像70を見てみると、奥側に進む人物Aが途中で折り返して手前側に戻ってくる動きを表現する動き画像69が表示されている。このような場合には、以下のような操作により、フィルムロール部59に表示されている人物Bのサムネイル画像41bを補正可能である。
まず人物Bがターゲットオブジェクト73として誤って検出された時間にポインタ56が合わせられる。典型的には、最も左側にある人物Bのサムネイル画像41bの左端部78aにポインタ56が合わせられる。図27に示すように、ユーザ1によりカットボタン80が押される。そのままクリック操作が入力されると、ポインタ56よりも右側の同一サムネイル画像57がカットされてしまう。従ってここではカットボタン80を押したまま人物Bのサムネイル画像41bが表示されている範囲78まで、指が移動される。すなわちカットボタン80をホールドしたままカットしたい領域を覆うようにドラッグ操作が入力される。そうすると図28に示すように、カット範囲78を示すUI84が表示される。なおカット範囲78の選択に連動して、ドラッグ先の時間に応じた地図情報65及びプレイビュー画像70が表示される。あるいは地図情報65及びプレイビュー画像70は変更されなくてもよい。
図29に示すように、ドラッグ操作の後にカットボタン80から指が離されると、選択されたカット範囲78が消去される。図30に示すように、カット範囲78のサムネイル画像41bが消去されると、複数のモニタ表示領域81が表示され、各カメラ10で撮影されたモニタ画像12が表示される。これによりカット範囲78の時間において、人物Aが探索される。またポインタ56の上部に候補閲覧ボタン83が表示される。
カット範囲78の選択は、1以上の同一サムネイル画像57のうちの少なくとも1つ以上を選択することに相当する。その選択された同一サムネイル画像57がカットされることで、1以上の同一オブジェクト画像57が補正される。これにより、直感的な操作で補正を実行することが可能となる。
図31−図35は、候補閲覧ボタン83を利用した候補の表示について説明するための図である。図31に示すUI画面50は、同一オブジェクト画像57が補正されて、ターゲットオブジェクト73となる人物Aを探索する段階の画面である。このような状態で、ユーザ1により候補閲覧ボタン83がクリックされる。そうすると図32に示すように、複数の候補サムネイル画像85を選択可能に表示するための候補選択UI86が表示される。
候補選択UI86は、候補閲覧ボタン83が拡大するようなアニメーションに続いて表示され、ポインタ56の位置に連結するように表示される。ポインタ56のポイント位置に応じたサムネイル画像41のうち、人物Aの追跡IDが記憶されていたサムネイル画像41は、補正処理により消去されている。従って記憶部208には、ポイント位置に応じたサムネイル画像41として人物Aの追跡IDは存在しないことになる。サーバ装置20は、ポイント位置74に応じた複数のサムネイル画像41から人物Aが映っている可能性が高いサムネイル画像41を候補サムネイル画像85として選択して表示する。なおポイント位置74に応じた候補サムネイル画像85は、例えばその時間を撮影時間とするサムネイル画像41や、その時間の前後の所定の範囲に撮影時間が含まれるサムネイル画像41から選択される。
候補サムネイル画像85の選択方法は限定されない。典型的には、サムネイル画像41に映っているオブジェクトの類似度が算出される。そのためにパターンマッチング処理やエッジ検出処理等の任意の技術が用いられてもよい。あるいは、探索対象となるターゲットオブジェクトの情報からそのオブジェクトが頻繁に出現するエリアから優先的に候補サムネイル画像85が選択されてもよい。その他の方法が用いられてもよい。なお図33に示すように、ポイント位置74が変更されれば、それに連動して候補サムネイル画像85も変更される。
また候補選択UI86には、候補選択UI86を閉じるためのクローズボタン87と、リフレッシュボタン88とが設けられている。リフレッシュボタン88は、候補サムネイル画像85の更新を指示するためのボタンである。このリフレッシュボタン88がクリックされると、他の候補サムネイル画像85が再度検索されて表示される。
図34に示すように、候補選択UI86に候補サムネイル画像85として、人物Aのサムネイル画像41aが表示されると、ユーザ1によりそのサムネイル画像41aが選択される。そうすると図35に示すように、候補選択UI86が閉じて、サムネイル画像41aを含むフレーム画像12がプレイビュー画像70として表示される。またプレイビュー画像70に関連した地図情報65が表示される。ユーザ1は、プレイビュー画像70(動き画像69)や地図情報65を観察して、オブジェクトが人物Aであることを確認することができる。
プレイビュー画像70に映っているオブジェクトが人物Aであると確認されると、図18に示すように人物Aが選択され、ターゲットオブジェクト73を指定するためのポップアップ77が表示される。ターゲットオブジェクト73を指定するボタンが押されて人物Aがターゲットオブジェクト73として設定される。これにより人物Aのサムネイル画像41aが同一サムネイル画像57として表示される。なお、図34において、候補サムネイル画像85が選択されたときに、ターゲットオブジェクト73の設定が実行されてもよい。これにより処理にかかる時間を短縮することができる。
このように、選択された基準サムネイル画像43の識別情報と異なる識別情報が記憶されている1以上のサムネイル画像41から、同一サムネイル画像57の候補となる候補サムネイル画像85が選択される。これにより1以上の同一サムネイル画像57の補正を容易に実行することが可能となる。
図36は、上記で説明した1以上の同一オブジェクト画像57の補正について、詳しい処理の一例を示すフローチャートである。図36は、プレイビュー画像70内の人物がクリックされた場合における処理を示している。
プレイビュー画像70内において、検出された人物に対してクリック操作が入力されたか否かが判定される(ステップ101)。人物へクリック操作が入力されていないと判定された場合は(ステップ101のNo)、初期状態(修正前)に戻る。人物へクリック操作が入力されたと判定された場合は(ステップ101のYes)、クリックされた人物とアラーム人物とが同じ人物であるか否かが判定される(ステップ102)。
アラーム人物とは、警戒の対象となる人物すなわち監視すべき人物であり、上記の説明におけるターゲットオブジェクト73に相当する。クリックされた人物の追跡ID(track_id)と、アラーム人物の追跡IDが比較されることで、ステップ102の判定処理が実行される。
クリックされた人物とアラーム人物とが同じ人物であると判定された場合(ステップ102のYes)、初期状態(修正前)に戻る。すなわちクリック操作は補正の指示ではないと判定される。クリックされた人物とアラーム人物とが同じ人物ではないと判定された場合(ステップ102のNo)、GUIメニューとして、ターゲットオブジェクト73を指定するためのポップアップ77が表示される(ステップ103)。そしてメニュー内の「Set Target」が選択されたか否か、すなわちターゲット指定のボタンがクリックされたか否かが判定される(ステップ104)。
「Set Target」が選択されていないと判定された場合(ステップ104のNo)、GUIメニューが消去される。「Set Target」が選択されたと判定された場合(ステップ104のYes)、プレイビュー画像70の現在時刻tが取得される(ステップ105)。現在時刻tは、プレイビュー画像70として表示されているフレーム画像12の撮影時間に相当する。この時刻tにおいて、アラーム人物の追尾データが存在するか否かが判定される(ステップ106)。すなわち時刻tにおいて、ターゲットオブジェクト73として検出されたオブジェクトが存在し、そのサムネイル画像41が存在するか否かが判定される。
図37は、時刻tにおいて、ターゲットオブジェクト73として検出されたオブジェクトが存在すると判定された場合(ステップ106のYes)の、UI画面の一例を示す図である。時刻tにおいて同一オブジェクト画像57が存在する場合は、プレイビュー画像70にその人物(ここでは人物B)が映っていることになる。この場合は、時刻t以前の最も近いアラーム人物の追尾データがなくなる、追尾データの中断時刻が検出される(ステップ107)。図37にも示すように、その中断時刻をt_aとする。
また、時刻t以後の最も近いアラーム人物の追尾データがなくなる、追尾データの中断時刻が検出される(ステップ108)。図37にも示すように、その中断時刻をt_bとする。検出された時刻t_aから時刻t_bまので人物追尾がカットされる。これにより図37にのフィルムロール部59に含まれる人物Bのサムネイル画像41bが消去される。そして時刻t_aから時刻t_bの間に追尾人物データのtrack_idが新規に発行される(ステップ109)。
ここで説明する処理例では、フィルムロール部59に同一サムネイル画像57が配置される際には、追尾人物データのtrack_idが発行される。その発行された追尾人物データのtrack_idがアラーム人物のtrack_idに設定される。例えば基準サムネイル画像43が選択されると、そのtrack_idが、追尾人物データのtrack_idとして発行される。その追尾人物データのtrack_idがアラーム人物のtrack_idに設定される。そして設定されたtrack_idが記憶されたサムネイル画像41が、同一サムネイル画像57として選択され配置される。上記したように所定の範囲(t_aからt_bまでの範囲)の同一サムネイル画像57が消去された場合、その範囲において追尾人物データのtrack_idが新規に発行される。
指定した人物がターゲットオブジェクトに設定される(ステップ110)。すなわち時刻t_aから時刻t_bまでに指定した人物データのtrack_idが新規に発行され、そのtrack_idがアラーム人物のtrack_idとして設定される。その結果、図37に示す例では、人物Bのサムネイル画像が消去された範囲に、ポップアップ77を介して指定された人物Aのサムネイル画像が配置される。これにより同一オブジェクト57が補正され、修正後のGUIが更新される(ステップ111)。
図38は、時刻tにおいて、ターゲットオブジェクト73として検出されたオブジェクトが存在しないと判定された場合(ステップ106のNo)の、UI画面の一例を示す図である。図38に示す例では、人物Aがターゲットオブジェクト73として設定された場合において、途中の時間帯においてトラッキングが実行されていない場合が示されている。
時刻tにおいて同一オブジェクト画像57が存在しない場合は、プレイビュー画像70にその人物(人物B)は映っていない(映っているが検出されていない場合等はあり得る)。この場合、時刻t以前の最も近いアラーム人物の追尾データが検出される(ステップ112)。そしてその追尾データの時刻(時刻t_aとする)が算出される。図38に示す例では、ターゲットオブジェクト73として検出された人物Aのデータが検出され、その時刻t_aが算出される。なお時刻tよりも前の時間において追尾データが存在しない場合は、時刻t_aとして最小時刻が設定される。最小時刻とは、設定される時間軸において、最も小さい時刻であり最も左側の時点を意味する。
また、時刻t以後の最も近いアラーム人物の追尾データが検出される(ステップ113)。そしてその追尾データの時刻(時刻t_bとする)が算出される。図38に示す例では、ターゲットオブジェクト73として検出された人物Aのデータが検出され、その時刻t_bが算出される。なお時刻tよりも後の時間において追尾データが存在しない場合は、時刻t_bとして最大時刻が設定される。最大時刻とは、設定される時間軸において、最も大きい時刻であり最も右側の時点を意味する。
指定した人物がターゲットオブジェクト73に設定される(ステップ110)。すなわち時刻t_aから時刻t_bまでに指定した人物データのtrack_idが新規に発行され、そのtrack_idがアラーム人物のtrack_idとして設定される。その結果、図38に示す例では、途中の追尾データが存在しない範囲に、ポップアップ77を介して指定された人物Aのサムネイル画像が配置される。これにより同一オブジェクト57が補正され、修正後のGUIが更新される(ステップ111)。この結果、フィルムロール部59には、人物Aのサムネイル画像が同一オブジェクト画像57として配置される。
図39は、1以上の同一サムネイル画像57の補正の他の処理例を示すフローチャートである。図40及び図41は、その処理を説明するための図である。図39−図41は、カットボタン80がクリックされた場合における処理を示している。
UI画面50上のGUIであるカットボタン80がクリックされたか否かが判定される(ステップ201)。カットボタン80へのクリック入力が判定された場合(ステップ201のYes)、1点カットの指示であると判定される(ステップ202)。フィルムロール部59内においてカットボタン80をクリックした位置をもとに、時間軸55上のカットが実行されるカット時刻tが算出される(ステップ203)。例えば図40等に示すような、カットボタン80がポインタ56に連結して設けられる場合においては、カットボタン80がクリックされたときのポイント位置74に対応する時間がカット時刻tとして算出される。
カット時刻tがアラーム発生時の時刻T以上の値であるか否かが判定される(ステップ204)。アラーム発生時の時刻Tとは、図7等における基準時間T1に相当する。後にも説明するが、監視すべき人物であるとの判定が行われると、その時点がアラーム発生時となり、その時点における人物のサムネイル画像41が基準サムネイル画像43として選択される。そしてアラーム発生時の時刻Tを基準時刻T1として、図8に示すような、基本的な初期状態のUI画面50が生成される。ステップ204の判定は、カット時刻tが基準時間T1よりも前であるか後ろであるかの判定であり、図40を例とすると、サイズの大きい基準サムネイル画像43の位置よりも、ポインタ56が左にあるか右にあるかの判定に相当する。
例えば図40Aに示すように、フィルムロール部59が左側にドラッグされ、ポインタ56のポイント位置74が相対的に右側に移動されたとする。この状態においてカットボタン80がクリックされた場合は、カット時刻tがアラーム発生時の時刻T以上の値であると判定される(ステップ204のYes)。この場合、カットの開始時刻がカット時刻tに設定され、カットの終了時刻が最大時刻に設定される。すなわちカット時刻tから後の時間帯(右の範囲R)がカット対象として設定される(ステップ205)。そして開始時刻から終了時刻の間に追尾人物データのtrack_idが新規に発行される(ステップ206)。なおターゲットオブジェクト73が検出されている範囲、すなわち同一サムネイル画像57が配置されている範囲のみが、カット対象の範囲として設定されてもよい。
図40Bに示すように、フィルムロール部59が右側にドラッグされ、ポインタ56のポイント位置74が相対的に左側に移動されたとする。この状態においてカットボタン80がクリックされた場合は、カット時刻tがアラーム発生時の時刻T未満の値であると判定される(ステップ204のNo)。この場合、カットの開始時刻が最小時刻に設定され、カットの終了時刻がカット時刻tに設定される。すなわちカット時刻t位置から前の時間帯(左の範囲L)がカット対象として設定される(ステップ207)。そして開始時刻から終了時刻の間に追尾人物データのtrack_idが新規に発行される(ステップ206)。
ステップ201において、カットボタン80へのクリック入力がないと判定された場合(ステップ201のNo)、カットボタン80へのドラッグ操作が入力されたか否かが判定される(ステップ208)。カットボタン80へのドラッグ操作が入力されていないと判定された場合(ステップ208のNo)、初期状態(修正前)に戻る。カットボタン80へのドラッグ操作が入力された判定された場合(ステップ208のYes)、ドラッグした範囲が、ユーザにより選択された範囲として設定され、当該範囲を描画するGUIが表示される(ステップ209)。
カットボタン80へのドラッグ操作が終了したか否かが判定される(ステップ210)。ドラッグ操作は終了していないと判定された場合(ステップ210のNo)、すなわちドラッグ操作は継続中であると判定された場合、選択範囲の描画が継続される。カットボタン80へのドラッグ操作が終了したと判定された場合(ステップ210のYes)、ドラッグが開始された位置をもとにカット時刻t_aが算出される。またドラッグが終了した位置をもとにカット時刻t_bが算出される(ステップ211)。
算出されたカット時刻t_aと、カット時刻t_bとが比較される(ステップ212)。その結果、双方のカット時刻が等しいと判定された場合(t_a=t_bの場合)、1点カットとして判定された後の処理が実行される。具体的には、ステップ203のカット時刻tとして時刻t_aが設定され、ステップ204へ進む。
カット時刻t_aの方がカット時刻t_bよりも小さい値の場合(t_a<t_bの場合)、カットの開始時刻がカット時刻t_aに設定され、カットの終了時刻がカット時刻t_bに設定される(ステップ213)。例えばカットボタン80が押された状態で、時間が未来に向けて(右側に向けて)ドラッグ操作が入力される場合、(t_a<t_b)となる。この場合、カット時刻t_aが開始時刻となり、カット時刻t_bが終了時刻となる。
カット時刻t_aの方がカット時刻t_bよりも大きい値の場合(t_a>t_bの場合)、カットの開始時刻がカット時刻t_bに設定され、カットの終了時刻がカット時刻t_aに設定される(ステップ214)。例えばカットボタン80が押された状態で、時間が過去に向けて(左側に向けて)ドラッグ操作が入力される場合、(t_a>t_b)となる。この場合、カット時刻t_bが開始時刻となり、カット時刻t_aが終了時刻となる。すなわちカット時刻t_aとカット時刻t_bのうち、小さい値の方が開始時刻として設定され、大きい値の方が終了時刻として設定される。
開始時刻及び終了時刻が設定されると、開始時刻から終了時刻の間に追尾人物データのtrack_idが新規に発行される(ステップ206)。これにより同一オブジェクト57が補正され、修正後のGUIが更新される(ステップ215)。図36及び図39の例に示すような処理により、1以上の同一オブジェクト画像57の補正が実行されてもよい。なお図41に示すように、同一サムネイル画像57幅よりも小さい範囲がカット対象の範囲として選択されてもよい。その場合のその範囲に該当する、サムネイル画像41の一部41pが消去されればよい。
ここでフィルムロール画像51の構成及び動作の他の例を説明する。図42−45は、それを説明するための図である。例えば図42Aに示すように同一サムネイル画像57を左側にドラッグすることで、ポイント位置74が相対的に移動される。そして図42Bに示すように、サイズの大きい基準サムネイル画像43がフィルムロール画像51の左端部89に位置するまで、ドラッグ操作が入力されたとする。このとき基準サムネイル画像43が左端部89の位置にて固定されてもよい。この状態からさらに左側にドラッグ操作が入力された場合は、図43Aに示すように、基準サムネイル画像43と重なるように、基準サムネイル画像43の裏側を進むように、他の同一サムネイル画像57が左側へ動かされる。すなわち基準時間がフィルムロール画像51の外側に位置するまでドラッグ操作が入力されたとしても、基準サムネイル画像43はフィルムロール画像51内に継続して表示される。これによりターゲットオブジェクトの誤検出やターゲットオブジェクトを見失った場合等に、最初に検出されたターゲットオブジェクトを参照することが可能となる。この結果、不審者等として検出されたターゲットオブジェクトを十分に監視することが可能となる。なお、図43Bに示すように、右側へのドラッグ操作が入力された場合でも同様の処理が実行されてよい。
またドラッグ操作が入力されて指1がリリースされたときに、ポインタ56に最も近い位置に配置された同一サムネイル画像57の端部が、ポインタ56のポイント位置74まで自動的に移動されてもよい。例えば図44Aに示すように、基準サムネイル画像43上にポインタ56が重なる位置までドラッグ操作が入力されたとする。そしてその位置にて指1がリリースされたとする。この場合、図44Bに示すように、ポインタ56に最も近い基準サムネイル画像43の左端部43bが、ポイント位置74に自動的に合わせられてもよい。この際には、フィルムロール部59が右側に移動するアニメーションが表示される。なお基準サムネイル画像43ではない他の同一サムネイル画像57に対しても同じ処理が実行されてよい。これによりフィルムロール画像51への操作性が向上する。
図45に示すように、フリック操作により、ポイント位置57が動かされもよい。左右方向へのフリック操作が入力されると、指1がリリースされた瞬間の移動速度が算出される。その速度に基づいて、一定の減速度を受けながら、フリック方向に1以上の同一オブジェクト画像57が移動される。ポインタ56は、相対的にフリック方向と逆の方向に移動される。移動速度の算出方法や、減速度の設定方法は限定されず、周知の技術が用いられてもよい。
次に、フィルムロール部59の尺度(スケール)の変更について説明する。図46−図56は、その変更を説明するための図である。例えばフィルムロール部59に配置される同一サムネイル画像57の左右方向におけるサイズとして、固定のサイズS1が設定されているとする。そして固定サイズS1に割り当てられる時間が、フィルムロール部59の尺度として設定される。このような設定のもとで、フィルムロール部59の尺度を変更するための操作及び処理を説明する。なお固定サイズS1の大きさは、UI画面のサイズ等をもとに適宜設定されてよい。
図46では、フィルムロール部59の尺度が10秒に設定されている。従って同一サムネイル画像57の固定サイズS1に、時間軸55上において10秒の目盛りが割り当てられる。フィルムロール部59として表示される表示サムネイル画像62は、割り当てられた10秒間の所定の時間に撮影されたサムネイル画像41である。
図46に示すように、フィルムロール部59内の2点L及びMにタッチ操作が入力される。そして左右方向においてタッチされた2点L及びM間の距離が広がるように、左右の手1a及び1bが広げられる。図46に示すように、左右の手1a及び1bにより、操作が入力されてもよいし、1つの手の2つの指によるピンチ操作により、上記の操作が入力されてもよい。ピンチ操作とは、例えば2本の指等を同時に接触させて、当該2本の指等を開いたり、閉じたりする動作である。
図47に示すように、2点L及びB間の距離の増加に応じて、各表示サムネイル画像62の左右方向におけるサイズS2が増加する。例えば両手の操作に応じて、表示サムネイル画像62が左右方向に延びるようなアニメーションが表示される。それに合わせて、時間軸55の目盛り間の距離(目盛のサイズ)も左右方向に増加する。その結果、固定サイズS1に割り当てられる目盛の数が減少する。図47では、固定サイズS1に9秒の目盛りが割り当てられる状態が図示されている。
図48に示すように、さらに2点L及びM間の距離が広げられ、固定サイズS1に6秒の目盛りが割り当てられた状態で、両手1a及び1bがリリースされる。そうすると図49に示すように、表示サムネイル画像62のそれぞれのサイズS2が固定サイズS1に戻るアニメーションが表示される。そしてフィルムロール部59の尺度が6秒に設定される。この際、表示サムネイル画像62として表示されるサムネイル画像41が、同一サムネイル画像57の中から改めて選択されてもよい。
固定サイズS1に割り当て可能な最小時間が予め設定されていてもよい。そして2点L及びM間の距離が最小時間が割り当てられる以上に広げられた時点で、自動的にフィルムロール部59の尺度が最小時間に設定されてもよい。例えば図50において、最小時間として5秒が設定されているとする。そうすると固定サイズS1に5秒分の目盛りが割り当てられる距離は、表示サムネイル画像62のサイズS2が2倍のサイズになる距離となる。その距離以上よりも2点間L及びMが広げられると、図51に示すように、両手1a及び1bがリリースされなくとも自動的に尺度が最小時間である5秒に設定される。このような処理により、フィルムロール画像の操作性が向上する。なお最小時間として設定される時間は限定されない。例えば初期状態として設定される尺度を基準として、その2分の1の時間や、3分の1の時間等が最小時間として設定されてもよい。
上記では、フィルムロール部59の尺度を小さい値に変更する方法、すなわちフィルムロール画像51を詳細化する方法を説明した。これに対して、フィルムロール部59の尺度を大きい値に変更して、フィルムロール画像51を俯瞰的に観察することも可能である。
例えば図52に示すように、フィルムロール部59の尺度が5秒に設定されている状態で、左右の手1a及び1bによりタッチ操作が入力される。そして2点L及びM間の距離が小さくなるように、左右の手1a及び1bが近付けられる。1つの手の2つの指によりピンチ操作が入力されてもよい。
図53に示すように、2点L及びM間の距離の減少に応じて、各表示サムネイル画像62のサイズS2、及び時間軸55の目盛のサイズがともに減少する。その結果、固定サイズS1に割り当てられる目盛の数が増加する。図53では、固定サイズS1に9秒の目盛りが割り当てられている。2点L及びM間の距離が狭められた状態で、両手1a及び1bがリリースされると、表示サムネイル画像62のサイズS2が固定サイズS1に戻る。そしてリリース時に固定サイズS1に割り当てられた目盛りの数に応じた時間が、フィルムロール部59の尺度として設定される。この際、表示サムネイル画像62として表示されるサムネイル画像41が、同一サムネイル画像57の中から改めて選択されてもよい。
固定サイズS1に割り当て可能な最大時間が予め設定されていてもよい。そして2点L及びM間の距離が最大時間が割り当てられる以上に狭められた時点で、自動的にフィルムロール部59の尺度が最大時間に設定されてもよい。例えば図54において、最大時間として10秒が設定されているとする。そうすると固定サイズに10秒分の目盛りが割り当てられる距離は、表示サムネイル画像62が2分の1のサイズになる距離となる。その距離以上よりも2点間L及びMが狭められると、図55に示すように、両手がリリースされなくとも自動的に尺度が最大時間である10秒に設定される。このような処理により、フィルムロール画像51の操作性が向上する。なお最大時間として設定される時間は限定されない。例えば初期状態として設定される尺度を基準として、その2倍の時間や、3倍の時間等が最大時間として設定されてもよい。
マウス操作によりフィルムロール部59の尺度が変更されてもよい。例えば図56Aに示すように、マウス90のホイールボタン91が手前側に回転される(矢印Aの方向に回転される)。そうするとその回転量に応じて、表示サムネイル画像62のサイズS2及び目盛のサイズが広げられる。そして所定の時間以上その状態が保持された場合に、フィルムロール部68の尺度が小さい値に変更される。一方、マウス90のホイールボタン91が向こう側に回転される(矢印Bの方向に回転される)と、回転量に応じて表示サムネイル画像62のサイズS2及び目盛のサイズが狭められる。そして所定の時間以上のその状態が保持された場合に、フィルムロール部69の尺度が大きい値に変更される。このような処理も容易に実現可能である。なお、上記した最小時間及び最大時間の設定も可能である。すなわち所定以上の回転量が加えられた時点で、その回転方向に応じて、最小時間又は最大時間がフィルムロール部59の尺度として設定されればよい。
このように簡単な操作によりフィルムロール部59の尺度を変更することが可能であるので、フィルムロール画像51を操作しながら不審者等を十分に監視することが可能となる。この結果、有用な監視カメラシステムを実現することが可能となる。
時間軸55に表示される目盛りの尺度、すなわち時間の尺度の変更も可能である。例えば図57に示す例では、フィルムロール部59の尺度が15秒に設定されている。一方、時間軸55上には、長さが大きい長目盛り92と、長さが小さい短目盛り93と、その間の長さである中目盛り94とが設けられている。長目盛り92の間の中間に中目盛り94が1つ配置され、中目盛り94と長目盛り92の間には短目盛り93が4つ配置される。図57に示す例では、長目盛り92間の距離と、固定サイズS1が等しくなるように設定されている。従って長目盛り92間が15秒となるように時間の尺度が設定されている。
ここでは長目盛り92間に設定される時間が、以下のように予め定められているとする。
1sec,2sec,5sec,10sec,15sec,30sec(秒モード)
1min,2min,5min,10min,15min,30min(分モード)
1hour,2hour,4hour,8hour,12hour(時間モード)
すなわち秒モード、分モード、及び時間モードが選択可能に設定され、各モードにおいて、上記の時間が、設定可能な時間として準備されているとする。なお上記の時間に限定されるわけではない。
図58に示すように、フィルムロール部59に2点L及びMにマルチタッチ操作が入力され、2点L及びM間の距離が広げられる。これにともない表示サムネイル画像62のサイズS2と、目盛りのサイズとが広げられる。図58に示す例では、固定サイズS1に割り当てられる時間が13秒になっている。しかしながら13秒は予め設定された値ではないので、時間の尺度は変更されない。図59に示すように、さらに左右の手1a及び1bが広げられると、固定サイズS1に割り当てられる時間が10秒になる。10秒は予め設定された時間である。従って割り当てられる時間が10秒になった時点で、図60に示すように、長目盛り92間の長さが10秒となるように時間の尺度が変更される。この後2つの指1a及び1bがリリースされて、表示サムネイル画像62のサイズが固定サイズS1に戻される。その際には、目盛りのサイズが小さくなって時間軸55上に表示される。あるいは、長目盛り92間の距離は固定されており、表示サムネイル画像62のサイズが大きくなってもよい。
時間尺度を大きくする場合は、2点L及びM間の距離を狭めればよい。そして固定サイズS1に割り当てられる時間が、予め定められた30秒になった時点で、長目盛り92間の長さが30秒となるように尺度が変更される。なおここで説明した操作は、上記したフィルムロール部59の尺度の変更に用いられる操作と等しい。2点L及びM間の距離を変動する操作を、フィルムロール部59の尺度の変更に用いるか、時間の尺度の変更に用いるかは、適宜選択されてよい。あるいは、フィルムロール部59の尺度を変更するモードと、時間の尺度を変更するモードとが、選択可能に設定されてもよい。モードが適宜選択されることで、フィルムロール部59の尺度、及び時間の尺度がそれぞれ適宜変更されてもよい。
上記したように、本実施形態に係る監視カメラシステム100には、複数のカメラ10が用いられる。ここで、複数カメラ環境下の人物追尾のアルゴリズムの一例を説明する。図61及び図62は、そのアルゴリズムの概要を説明するための図である。例えば図61に示すように、第1のカメラ10aにより撮影された人物40が、後の時点において第1のカメラ10aと異なる第2のカメラ10bにて撮影されるとする。このような場合に、以下に示す人物追尾アルゴリズムにより、監視カメラ10a及び10bでそれぞれ撮影された人物が、同一の人物か否かが判定される。これによりカメラ10a及び10b間に跨って人物40を追跡することが可能となる。
図62に示すように、ここで説明するアルゴリズムでは、複数カメラ間の人物の追尾のために、大きく分けて以下の2つの処理が実行される。
1.検出された人物40に対する1対1のマッチング処理
2.近い時間帯(図62に示すTimeScope)に存在する1以上の人物40の全体に対する、最適な組み合わせの算出
すなわち所定の範囲内に存在する1以上の人物に対して、1対1のマッチング処理が各組にて実行される。そのマッチング処理により、各組にて類似度に関するスコアが算出される。その処理とともに、同じ人物として判定される組み合わせに関して、最適化が実行される。
図63は、1対1のマッチング処理の一例を示す写真及び図である。なお各写真において、人物の顔の部分が切り取られている。これは本説明において写真に写っている人物のプライバシーを保護するための処理であり、本技術にて実行される処理とは無関係である。また1対1のマッチング処理は、以下に示すものに限定されず、任意の技術が用いられてよい。
枠Aに示すように、人物40の画像95に対してエッジ検出処理が実行され、エッジ画像96が生成される。そして人物のエッジ96aの内部領域96b同士で、各画素の色情報がマッチングされる。すなわち人物40の画像95全体を用いてマッチング処理が実行されるのではなく、人物40のエッジ96aの内部領域96bの色情報を用いてマッチン処理が実行される。また人物画像95及びエッジ画像96が上下方向において3つの領域に分割される。そして上部領域97a同士、中間領域97b同士、及び下部領域97c同士にて、マッチング処理が実行される。このように部分領域ごとにマッチング処理が実行されることで、高精度のマッチング処理が実行可能となる。なおエッジ検出処理や色情報を用いたマッチング処理に用いられるアルゴリズムは限定されない。
枠Bに示すように、マッチング対象となる領域98が適宜選択されてもよい。例えばエッジ検出の結果をもとに、体の同じ部分同士を含む領域が検出され、その領域同士でマッチング処理が実行されてもよい。
枠Cに示すように、フィルタリング等により、人物画像95として検出された画像のうち、マッチング処理の対象として不適当な画像99が除外されてもよい。例えばエッジ検出の結果をもとに、マッチング処理の対象として不適当な画像99が判定される。その他、色情報等をもとに、マッチング処理の対象として不適当な画像99が判定されてもよい。このようなフィルタリング等を実行することにより、高精度のマッチング処理が実行可能となる。
枠Dに示すように、記憶部に記憶された人物情報や地図情報をもとに、人物40の移動距離や移動時間の情報が算出されてもよい。例えば直線Xで表される距離やその距離の移動時間ではなく、オフィス等の構造や経路が条件づけられた距離や移動距離が算出される(曲線Y)。そしてその情報をもとに類似度のスコアが算出されたり、所定の範囲(TimeScpoe)が設定されてもよい。例えばカメラ10の配置位置や、距離や移動時間の情報をもとに、同じ人物が2つのカメラ10に順に映る時間等が算出される。その算出結果を用いて、2つのカメラ10に映ったそれぞれの人物が同一である可能性が判定されてもよい。
枠Eに示すように、マッチング処理が実行される際にも最も処理に適した人物画像105が選択されてもよい。本技術では、検出が開始した時点すなわち人物40が出現した点110での人物画像95、及び検出が終了した時点すなわち人物40が消失した点111での人物画像95が、マッチング処理に用いられる。この際、出現点110及び消失点111の人物画像95として、各時点に近い時間において撮影された複数のフレーム画像12から生成された複数の人物画像95から、マッチング処理に適した人物画像105が選択される。例えば枠Eに示す人物Aの出現点110の画像としては、人物画像95a及び95bのうち人物画像95aが選択される。人物Bの出現点110の画像としては、人物画像95c及び95dのうち人物画像95dが選択される。人物Bの消失点111の画像としては、人物画像95e及び95fのうち人物画像95eが選択される。なお人物Aの消失点111の画像として、2つの人物画像95g及び95hが採用されている。このように、マッチング処理に適していると判定された(スコアの高い)画像が複数選択され、それぞれの画像においてマッチング処理が実行されてもよい。これにより高い精度でマッチン処理を実行することが可能となる。
図64−図70は、本技術に係る人物追尾のアルゴリズムの適用例を示す模式的な図である。ここでは出現点110での人物画像95(以下、人物画像95を省略して出現点110と記載する)にどの追跡IDを設定するかが定められる。すなわち過去の消失点111での人物画像95(以下、人物画像95を省略して消失点111と記載する)と同じ人物であれば、同じIDが継続して設定される。新たな人物であれば新規のIDが設定される。そのために消失点111とその消失点111よりも後の出現点110とを対象にして1対1のマッチング処理及び最適化処理が実行される。以下、マッチング処理及び最適化処理を最適化マッチング処理と記載する。
まず、追跡IDを設定する対象となる出現点110aを基準として過去/未来方向にTimeScopeが設定される。そのTimeScope内の出現点110及び消失点111を対象にして最適化マッチング処理が実行される。その結果、基準となる出現点110aに割り当てられる追跡IDが無いと判定された場合、その出現点110aには新規の追跡IDが割り当てられる。一方、基準となる出現点110aに割り当てられる追跡IDがあると判定された場合、その追跡IDが継続して割り当てられる。すなわち過去の消失点111と同一であると判定された場合、その消失点111に割り当てられていたIDが継続して出現点110に割り当てられる。
図64に示す例では、人物Aの出現点110aを基準としてTimeScopeが設定される。その中の人物Aの消失点111と人物Fの出現点110との間で最適化マッチング処理が実行される。その結果、人物Aの出現点110aに割り当てられるIDはないと判定され、出現点110aには新規のID:1が割り当てられる。次に図65に示すように、人物Cの出現点110aを基準としてTimeScopeが選択される。そして人物Aの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。その結果、人物Cの出現点に割り当てられるIDはないと判定され、出現点110aには新規のID:2が割り当てられる。
図66に示すように、人物Fの出現点110aを基準としてTimeScopeが選択される。そして人物Aの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。また人物Cの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。その結果、例えば図67に示すように、人物Fの出現点110aには、人物Aの消失点111の追跡IDであるID:1が割り当てられると判定される。すなわちこの場合は、人物Aと人物Fとは同一人物であると判定されたことになる。
図68に示すように、人物Eの出現点110aを基準としてTimeScopeが選択される。そして人物Aの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。また人物Cの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。その結果、人物Eの出現点110aに割り当てられるIDはないと判定され、出現点110aには新規のID:3が割り当てられる。
図69に示すように、人物Bの出現点110aを基準としてTimeScopeが選択される。そして人物Aの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。また人物Cの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。また人物Fの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。また人物Eの消失点111と、その後の各出現点110との間で最適化マッチング処理が実行される。その結果、例えば図70に示すように、人物Bの出現点110aには、人物Cの消失点111の追跡IDであるID:2が割り当てられると判定される。すなわちこの場合は、人物Cと人物Bとは同一人物であると判定されたことになる。例えばこのようにして、複数カメラ環境下での人物追尾が実行される。
以上、本実施形態に係る情報処理装置(サーバ装置20)では、複数のフレーム画像12のそれぞれから所定の人物40が検出され、その人物40のサムネイル画像41が生成される。またサムネイル画像41に関連付けられて、撮影時間情報及び追跡IDが記憶される。そして追跡IDが同じである1以上の同一サムネイル画像57が、各画像の撮影時間情報をもとに配置される。これにより注目したい人物40を十分に観察することができる。この技術を用いることで、有用な監視カメラシステム100を実現することが可能である。
また、フィルムロール部59に、複数カメラ10からの人物をトラッキングした監視映像をタイムラインでアレンジすることが容易となり、高精度な監視が可能となる。また簡単にターゲットオブジェクト73を修正可能であるので、高い操作性でターゲットオブジェクト73を観察することができる。
従来の監視カメラシステムでは、監視カメラからの映像が、画面が分割された領域にそれぞれ表示されていた。従って多くのカメラを用いた大規模な監視カメラシステムを実現することが難しかった。また複数のカメラにより撮影された人物を追跡することも難しかった。上記で説明した本技術に係る監視カメラシステムを用いることで、このような問題も解決することがでる。
すなわち、人物40をトラッキングするカメラ映像をつなげていくので、カメラの総数に関係なく、人物を簡単に観察することが可能である。またフィルムロール部59を編集することで、人物40のトラッキング履歴を簡単に修正することができる。そのための操作も、直感的に実行することが可能である。
図71は、本技術に係る監視カメラシステム100を用いた監視システム500の概要を説明するための図である。まず警備員501が複数のカメラにより撮影された監視映像を、複数のモニタ502により観察する(ステップ301)。アラーム発生のUI画面503が表示され、警備員501に警報が発生したことが知らされる(ステップ302)。上記でも述べたが、例えば不審者が発生した場合や、立ち入り禁止区域への侵入がセンサ等に検知された場合や、ロックされているドアへの不正なアクセスが検知された場合等にアラームが発生する。また長時間倒れている人がいることが、人の姿勢を検出可能なアルゴリズムにより検出された場合等に、アラームが発生されてもよい。さらには、社員証等のIDカードを不正に取得した人が発見された時にアラームが発生されてもよい。
アラームの発生時点の状態を表示するアラーム画面504が表示される。そのアラーム画面504を観察することで、警備員501により、アラームが正しいか否かが判断される(ステップ303)。この段階が本監視システム500における第1段階として位置づけられる。
警備員501による確認によりアラームが誤発生であると判断された場合(ステップ304)、ステップ301の監視状態に戻る。アラームが適正に発生していると判断された場合、不審者として設定された人物を追跡するためのトラッキング画面505が表示される。そのトラッキング画面505を観察しながら、警備員501により、現場付近にいる他の警備員506に伝える為の情報が収集される。また不審者507を追跡しながら、現場の警備員506へ指示が出される(ステップ305)。この段階が第2段階として位置づけられる。第1及び第2の段階は、主にアラーム発生時の動作として実行される。
現場の警備員506は、指示をもとに不審者507を探索することで、早期に不審者507を発見することができる(ステップ306)。不審者507の発見等で事件が収まった後に、今度は事件解決のための情報を収集するための動作が実行される。すなわち警備員501によりアラーム発生時を基準としたヒストリー画面508と呼ばれるUI画面が観察される。これにより事件発生前後の不審者507の動き等が観察され、事件が詳しく分析される(ステップ307)。この段階が第3段階に位置づけられる。例えばこのステップ307において、上記で説明したUI画面50を用いた監視カメラシステム100が有効に利用可能である。すなわちUI画面50を、ヒストリー画面508として用いることが可能となる(以下、本実施形態に係るUI画面50をヒストリー画面508と記載する)。
本実施形態に係る情報処理装置として、アラーム画面504、トラッキング画面505、及びヒストリー画面508をともに生成して、ユーザに提供可能な情報処理装置が用いられてもよい。この情報処理装置により、有用な監視カメラシステムを構築することが可能となる。以下、アラーム画面504及びトラッキング画面505について説明する。
図72は、アラーム画面504の一例を示す図である。アラーム画面504は、リスト表示領域510、第1の表示領域511、第2の表示領域512、及び地図表示領域513とからなる。リスト表示領域510には、現在までにアラームが発生した時間が履歴としてリスト表示される。第1の表示領域511には、アラーム発生時間におけるフレーム画像12がプレイバック画像515として表示される。第2の表示領域512には、プレイバック画像515に表示されたアラームの対象となるアラーム人物516の拡大画像517が表示される。図72に示す例では、人物Cがアラーム人物516として設定されており、人物Cの強調画像518が赤色に表示されている。地図表示領域513には、アラーム発生時におけるアラーム人物516の位置を示す地図情報519が表示される。
図72に示すように、リスト表示されたアラーム発生時間の1つが選択されると、その時間に発生したアラームに関する情報が、第1及び第2の表示領域511及び512、及び地図表示領域513に表示される。他のアラーム時間に変更されると、各領域に表示される情報も変更される
またアラーム画面504には、トラッキング画像505へ切り替えるためのトラッキングボタン520と、ヒストリー画面508へ切り替えるためのヒストリーボタン521とが設けられている。
図73に示すように、アラーム人物516を動き画像522に沿って動かすことで、アラーム発生時間の前後の情報が、各表示領域に表示されてもよい。この際ドラッグ操作に連動して、各情報が表示されてもよい。
またアラーム人物516の変更及び補正が実行されてもよい。例えば図74に示すようにプレイバック画像515内の他の人物Bが選択される。そうすると人物Bに関する拡大画像517と地図情報519とが各表示領域に表示される。またプレイバック画像515において人物Bの動きを表す動き画像522bが表示される。図75に示すように、指1がリリースされるとアラーム人物516を指定するためのポップアップ523が表示され、ターゲット指定のボタンが選択されると、アラーム人物516が変更される。この際、リスト表示されたアラーム発生時間に関連する情報が、人物Cの情報から人物Bの情報に変更される。あるいは、同じアラーム発生時間の情報として、人物Bの情報が関連付けられたアラーム情報が新たに生成されてもよい。この場合リスト表示領域510には、同じアラーム発生時間が2つリスト表示されることになる。
次にトラッキング画面505について説明する。図76に示すアラーム画像504のトラッキングボタン520が押圧される。そうするトラッキング画面505が表示される。
図77は、トラッキング画面505の一例を示す図である。トラッキング画面505には、現在の時間における情報が第1の表示領域525及び第2の表示領域526、及び地図表示領域527に表示される。図77に示すように、第1の表示領域525には、現在の時間においてアラーム人物516を撮影しているフレーム画像12が、ライブ画像528として表示される。第2の表示領域526には、ライブ画像528に映っているアラーム人物516の拡大画像529が表示される。地図表示領域527には、現在の時間におけるアラーム人物516の位置を示す地図情報530が表示される。上記の各情報は、時間の経過にともなってリアルタイムで表示される。
なお図76に示すアラーム画面506では、人物Bがアラーム人物516として設定されている。しかしながら図77に示すトラッキング画面505では、人物Aがアラーム人物516として追跡されている。このようにターゲットとして追跡される人物が誤って検出される場合もあり得る。このような場合には、アラーム人物516として設定されるべきターゲット(以下、ターゲット516と記載する場合がある)を修正する必要がる。例えばライブ画像528にターゲット516である人物Bが映っている場合では、ターゲット516を指定するためのポップアップを利用してターゲット516を修正することができる。一方、図77に示すように、ライブ画像528にターゲット516が表示されない場合も多く、以下、そのような場合におけるターゲット516の修正について説明する。
図78−図82は、ターゲット516を補正する方法の一例を示す図である。図78に示すように、追跡すべきターゲット516を見失った場合のために設けられたロストトラッキングボタン531がクリックされる。そうすると図79に示すように、第2の表示領域526に、ターゲット516とすべき人物Bのサムネイル画像532と、複数の候補サムネイル画像533を選択可能に表示するための候補選択UI534が表示される。候補サムネイル画像533は、現在の時間において各カメラにて撮影されている人物のサムネイル画像から選択される。候補サムネイル画像533は、人物の類似度やカメラの位置関係等をもとに適宜選択される(図32に示す候補サムネイル画像85について説明した選択方法が用いられてもよい)。
また候補選択UI534には、リフレッシュボタン535と、キャンセルボタン536と、OKボタン537とが設けられる。リフレッシュボタン535は、候補サムネイル画像533の更新を指示するためのボタンである。このリフレッシュボタン535がクリックされると、他の候補サムネイル画像533が再度検索されて表示される。なおリフレッシュボタン535が長押しされることで、オートリフレッシュモードに切り替えられてもよい。オートリフレッシュモードとは、所定の時間が経過するごとに自動的に候補サムネイル画像533が更新されるモードである。キャンセルボタン536は、候補サムネイル画像533の表示をキャンセルするためのボタンである。OKボタン537は、選択された候補サムネイル画像533をターゲットとして設定するためのボタンである。
図80に示すように、候補サムネイル画像533として、人物Bのサムネイル画像533bが表示されると、ユーザ1によりそのサムネイル画像533bが選択される。そうすると、そのサムネイル画像533bを含むフレーム画像12がライブ画像528としてリアルタイムに表示される。またそのプレイ画像528に関連した地図情報530が表示される。ユーザ1は、プレイ画像528や地図情報530を観察して、オブジェクトが人物Bであることを確認することができる。図81に示すように、プレイ画像528に映っているオブジェクトが人物Bであると確認されるとOKボタン537がクリックされる。これにより人物Bがターゲットとして選択され、アラーム人物として設定される。
図82は、ポップアップ538を利用してターゲット539を補正する場合を示す図である。ライブ画像528に映っている他の人物540をクリックすることで、ターゲット指定用のポップアップ538が表示される。トラッキング画面505では、ライブ画像528がリアルタイムに表示される。従ってポップアップ538が表示された後もリアルタイム表示は継続され、クリックした他の人物540も移動し続ける。ポップアップ538は、移動する人物に追従することはなく、ターゲット539を指定した他の人物540に補正するか否かのテキストが表示され、それに応えるためのキャンセルボタン541と、イエスボタン542が準備されている。例えば画面が切り替わった場合でも、ボタンが押されないかぎりポップアップ538は消去されない。これにより監視したい人物のリアルタイムの動きを観察しつつ、その人物をアラーム人物に設定するか否かを判定することが可能となる。
図83−図86は、トラッキング画面505を用いて実行される他の処理について説明するための図である。例えば複数のカメラを用いた監視カメラシステムにおいて、どのカメラにも撮影されない領域というのが存在する場合も多い。すなわちカメラ間に穴が存在する場合がある。そのような領域にターゲット539が入った場合における処理を説明する。
図83に示すように、ターゲット539として設定された人物Bが手前側に進んでいる。その進行方向において、カメラ間の穴が存在するとする。その場合は、図83に示すように、プレイ画面528の所定の位置にゲート543が設定される。ゲート543の位置や大きさは、各カメラ間の配置関係、すなわちカメラ間の穴の状況等により適宜設定されてよい。ゲート543は、人物Bが所定の距離以上近づいたときに、プレイ画像528上に表示される。あるいは常に表示されてもよい。
図84に示すように、人物Bがゲート539と重なると、カメラ間の位置的な関連性を反映した動画544が表示される。まずゲート543以外の画像が消えて、ゲート543が強調された画像が表示される。そして図85に示すように、カメラ間の位置的な関連性を反映した動きでゲート543が移動するアニメーション544が表示される。図85に示す最も小さいゲート543aの左側が、図83のプレイ画像528の奥側に相当する。そして最も小さいゲート543aの右側が、プレイ画像528の手前側に相当する。従って人物Bは、小さいゲート543aに対して左側から近づいてきて右側に進むことになる。
図86に示すように、次に人物Bを撮影するであろう候補カメラ(第1及び第2の候補カメラ)の撮影範囲に対応したゲート545と、各候補カメラで撮影されているライブ画像546がそれぞれ表示される。候補カメラは、カメラ間の穴に入った人物Bを次に撮影する可能性の高いカメラとして選択される。その選択は、カメラの位置関係や人物Bの人物情報等により適宜実行されればよい。各候補カメラのゲート545には、数値が割り当てられている。これはそのゲート545人物Bが出現すると思われる予測時間を表している。すなわち各候補カメラのライブ画像546に人物Bが撮影されると思われる時間が予想される。予測時間の情報は、地図情報や建物の構造の情報等をもとに算出される。なお図86に示す拡大画像529には、最後にキャプチャされた画像が表示される。すなわち人物Bの最も新しい拡大画像が表示される。これにより、候補カメラにより撮影されたプレイ画像546への出現を容易に確認することが可能となる。
上記の各実施形態においてクライアント装置30及びサーバ装置20としては、例えばPC(Personal Computer)等の種々のコンピュータが用いられる。図87は、そのようなコンピュータの構成例を示す模式的なブロック図である。
コンピュータ200は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入出力インタフェース205、及び、これらを互いに接続するバス204を備える。
入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、ドライブ部210等が接続される。
表示部206は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。
入力部207は、例えばコントローラ、ポインティングデバイス、キーボード、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。
記憶部208は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。
ドライブ部210は、例えば光学記録媒体、フロッピー(登録商標)ディスク、磁気記録テープ、フラッシュメモリ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。これに対し上記記憶部208は、主にリムーバブルでない記録媒体を駆動する、コンピュータ200に予め搭載されたデバイスとして使用される場合が多い。
通信部209は、LAN、WAN(Wide Area Network)等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、コンピュータ200とは別体で使用される場合が多い。
上記のようなハードウェア構成を有するコンピュータ200による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、コンピュータ200のハードウェア資源との協働により実現される。具体的には、CPU201が記憶部208またはROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより実現される。例えばCPU201が所定のプログラムを実行することで図1に示す各ブロックが実現される。
プログラムは、例えば記録媒体を介してコンピュータ200にインストールされる。あるいは、グローバルネットワーク等を介してプログラムがコンピュータ200にインストールされてもよい。
また、コンピュータ200が実行するプログラムは、上記で説明した順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
例えば図88は、他の実施形態に係るフィルムロール画像656を示す図である。上記では図7等に示すように、基準時間T1に配置されたポインタ56に連結するように、フィルムロール部59の略中央に、基準サムネイル画像43が表示された。そしてフィルムロール部59へのドラッグ操作に応じて、基準サムネイル画像43も左右方向に移動された。これに代えて、図88に示すように、基準サムネイル画像643は、フィルムロール部659の右端部651、又は左端部652に最初から固定されてもよい。その他、基準サムネイル画像643の表示位置は適宜変更されてよい。
上記では、人物が検出対象のオブジェクトとして設定された。しかしながらそれに限定されない。動物や自動車等の他の動体が観察対象のオブジェクトとして検出されてもよい。
上記では、クライアント装置とサーバ装置とがネットワークで接続され、またサーバ装置と複数のカメラとがネットワークで接続されていた。しかしながら各装置を接続するためにネットワークが用いられなくてもよい。すなわち各装置の接続方法は限定されない。また上記ではクライアント装置とサーバ装置とが別体の装置として配置された。しかしながらクライアント装置とサーバ装置とが一体的に構成されて、本技術の一実施形態に係る情報処理装置として用いられてもよい。複数の撮像装置も含めて本技術の一実施形態に係る情報処理装置が構成されてもよい。
上記で説明した本技術に係る画像の切り替え処理等が、監視カメラシステム以外の他の情報処理システムに用いられてもよい。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。
なお、本技術は以下のような構成も採ることができる。
(1)撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出する検出部と、
前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する第1の生成部と、
前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する記憶部と、
前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する配置部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記1以上のオブジェクト画像から基準となる基準オブジェクト画像を選択する選択部をさらに具備し、
前記配置部は、前記選択された基準オブジェクト画像の前記識別情報と同じ識別情報が記憶されている前記1以上の同一オブジェクト画像を、前記基準オブジェクト画像の前記撮影時間情報を基準として配置する
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記検出部は、複数の撮像装置でそれぞれ撮影された前記複数の撮影画像から前記所定のオブジェクトを検出する
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
時間軸を出力する第1の出力部をさらに具備し、
前記配置部は、前記時間軸に沿って前記1以上の同一オブジェクト画像を配置する
情報処理装置。
(5)(4)に記載の情報処理装置であって、
前記配置部は、前記時間軸上の所定の範囲ごとに、前記所定の範囲内に前記撮影時間が含まれる前記同一オブジェクト画像をそれぞれ配置する
情報処理装置。
(6)(4)又は(5)に記載の情報処理装置であって、
前記第1の出力部は、前記時間軸上の所定の位置を示すポインタを出力し、
前記情報処理装置はさらに、前記ポインタに示された前記時間軸上の所定の位置に応じた前記同一オブジェクト画像を選択し、当該同一オブジェクト画像に関連した情報であるオブジェクト情報を出力する第2の出力部を具備する
(7)(6)に記載の情報処理装置であって、
前記第2の出力部は、前記ポインタにより示される前記所定の位置の変更に連動して、前記所定の位置に応じた前記同一オブジェクト画像の選択、及び前記オブジェクト情報の出力を変更する
情報処理装置。
(8)(6)又は(7)に記載の情報処理装置であって、
前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像を含む前記撮影画像を出力する
情報処理装置。
(9)(6)から(8)のうちいずれか1つに記載の情報処理装置であって、
前記オブジェクトの動きを検出して当該動きを表現する動き画像を生成する第2の生成部をさらに具備し、
前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの前記動き画像を出力する
情報処理装置。
(10)(6)から(9)のうちいずれか1つに記載の情報処理装置であって、
前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの位置を示す地図情報を出力する
情報処理装置。
(11)(6)から(10)のうちいずれか1つに記載の情報処理装置であって、
ユーザからの指示を入力する入力部をさらに具備し、
前記第1の出力部は、前記入力部により入力された前記1以上の同一オブジェクト画像に対する指示に応じて前記ポインタが指す前記所定の位置を変更する
情報処理装置。
(12)(11)に記載の情報処理装置であって、
前記第1の出力部は、前記出力されたオブジェクト情報に対する指示に応じて前記ポインタが指す前記所定の位置を変更する
情報処理装置。
(13)(11)又は(12)に記載の情報処理装置であって、さらに、
前記入力部により入力された所定の指示に応じて前記1以上の同一オブジェクト画像を補正する補正部を具備する
情報処理装置。
(14)(13)に記載の情報処理装置であって、
前記補正部は、前記オブジェクト情報として出力された前記撮影画像に含まれる他のオブジェクトを選択する指示に応じて、前記1以上の同一オブジェクト画像を補正する
情報処理装置。
(15)(13)又は(14)に記載の情報処理装置であって、
前記補正部は、前記1以上の同一オブジェクト画像のうち少なくとも1つ以上を選択する指示に応じて、前記1以上の同一オブジェクト画像を補正する
情報処理装置。
(16)(13)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記補正部は、前記選択された基準オブジェクト画像の前記識別情報と異なる識別情報が記憶されている前記1以上のオブジェクト画像から、前記同一オブジェクト画像の候補となる候補オブジェクト画像を選択する
情報処理装置。
(17)(2)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記検出されたオブジェクトが監視すべき人物かを判定する判定部をさらに具備し、
前記選択部は、前記監視すべき人物であると判定された前記オブジェクトを含む前記オブジェクト画像を前記基準オブジェクト画像として選択する
情報処理装置。
T1…基準時間
1…ユーザ
5…ネットワーク
10…カメラ
12…フレーム画像
20…サーバ装置
23…画像解析部
24…データ管理部
25…警報管理部
27…通信部
30…クライアント装置
40…人物
41…サムネイル画像
42…人物追尾メタデータ
43…基準サムネイル画像
53…オブジェクト情報
55…時間軸
56…ポインタ
57…同一サムネイル画像
61…所定の範囲
65…地図情報
69…動き画像
80…カットボタン80
85…候補サムネイル画像
100…監視カメラシステム
500…監視システム
504…アラーム画面
505…トラッキング画面
508…ヒストリー画面

Claims (20)

  1. 撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出する検出部と、
    前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する第1の生成部と、
    前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する記憶部と、
    前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する配置部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記1以上のオブジェクト画像から基準となる基準オブジェクト画像を選択する選択部をさらに具備し、
    前記配置部は、前記選択された基準オブジェクト画像の前記識別情報と同じ識別情報が記憶されている前記1以上の同一オブジェクト画像を、前記基準オブジェクト画像の前記撮影時間情報を基準として配置する
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記検出部は、複数の撮像装置でそれぞれ撮影された前記複数の撮影画像から前記所定のオブジェクトを検出する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    時間軸を出力する第1の出力部をさらに具備し、
    前記配置部は、前記時間軸に沿って前記1以上の同一オブジェクト画像を配置する
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記配置部は、前記時間軸上の所定の範囲ごとに、前記所定の範囲内に前記撮影時間が含まれる前記同一オブジェクト画像をそれぞれ配置する
    情報処理装置。
  6. 請求項4に記載の情報処理装置であって、
    前記第1の出力部は、前記時間軸上の所定の位置を示すポインタを出力し、
    前記情報処理装置はさらに、前記ポインタに示された前記時間軸上の所定の位置に応じた前記同一オブジェクト画像を選択し、当該同一オブジェクト画像に関連した情報であるオブジェクト情報を出力する第2の出力部を具備する
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記第2の出力部は、前記ポインタにより示される前記所定の位置の変更に連動して、前記所定の位置に応じた前記同一オブジェクト画像の選択、及び前記オブジェクト情報の出力を変更する
    情報処理装置。
  8. 請求項6に記載の情報処理装置であって、
    前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像を含む前記撮影画像を出力する
    情報処理装置。
  9. 請求項6に記載の情報処理装置であって、
    前記オブジェクトの動きを検出して当該動きを表現する動き画像を生成する第2の生成部をさらに具備し、
    前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの前記動き画像を出力する
    情報処理装置。
  10. 請求項6に記載の情報処理装置であって、
    前記第2の出力部は、前記所定の位置に応じた前記同一オブジェクト画像に含まれる前記オブジェクトの位置を示す地図情報を出力する
    情報処理装置。
  11. 請求項6に記載の情報処理装置であって、
    ユーザからの指示を入力する入力部をさらに具備し、
    前記第1の出力部は、前記入力部により入力された前記1以上の同一オブジェクト画像に対する指示に応じて前記ポインタが指す前記所定の位置を変更する
    情報処理装置。
  12. 請求項11に記載の情報処理装置であって、
    前記第1の出力部は、前記出力されたオブジェクト情報に対する指示に応じて前記ポインタが指す前記所定の位置を変更する
    情報処理装置。
  13. 請求項11に記載の情報処理装置であって、さらに、
    前記入力部により入力された所定の指示に応じて前記1以上の同一オブジェクト画像を補正する補正部を具備する
    情報処理装置。
  14. 請求項13に記載の情報処理装置であって、
    前記補正部は、前記オブジェクト情報として出力された前記撮影画像に含まれる他のオブジェクトを選択する指示に応じて、前記1以上の同一オブジェクト画像を補正する
    情報処理装置。
  15. 請求項13に記載の情報処理装置であって、
    前記補正部は、前記1以上の同一オブジェクト画像のうち少なくとも1つ以上を選択する指示に応じて、前記1以上の同一オブジェクト画像を補正する
    情報処理装置。
  16. 請求項13に記載の情報処理装置であって、
    前記補正部は、前記選択された基準オブジェクト画像の前記識別情報と異なる識別情報が記憶されている前記1以上のオブジェクト画像から、前記同一オブジェクト画像の候補となる候補オブジェクト画像を選択する
    情報処理装置。
  17. 請求項2に記載の情報処理装置であって、
    前記検出されたオブジェクトが監視すべき人物かを判定する判定部をさらに具備し、
    前記選択部は、前記監視すべき人物であると判定された前記オブジェクトを含む前記オブジェクト画像を前記基準オブジェクト画像として選択する
    情報処理装置。
  18. 撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出し、
    前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成し、
    前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶し、
    前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する
    ことをコンピュータが実行する情報処理方法。
  19. 撮像装置により撮影された時間的に連続する複数の撮影画像のそれぞれから所定のオブジェクトを検出するステップと、
    前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成するステップと、
    前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶するステップと、
    前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置するステップと
    をコンピュータに実行させるプログラム。
  20. 時間的に連続する複数の撮影画像を撮影可能な1以上の撮像装置と、
    前記1以上の撮像装置によりそれぞれ撮影された前記複数の撮影画像のそれぞれから所定のオブジェクトを検出する検出部と、
    前記オブジェクトが検出された前記撮影画像ごとに前記オブジェクトを含む部分的な画像を生成して1以上のオブジェクト画像を生成する生成部と、
    前記生成されたオブジェクト画像に関連付けて、前記オブジェクト画像を含む前記撮影画像の撮影時間の情報と、前記オブジェクト画像に含まれる前記オブジェクトを識別するための識別情報とを記憶する記憶部と、
    前記1以上のオブジェクト画像のうち前記記憶された識別情報が同じである1以上の同一オブジェクト画像を、各画像の前記記憶された撮影時間情報をもとに配置する配置部と
    を有する情報処理装置と
    を具備する情報処理システム。
JP2013021371A 2013-02-06 2013-02-06 情報処理装置、情報処理方法、プログラム、及び情報処理システム Expired - Fee Related JP6171374B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013021371A JP6171374B2 (ja) 2013-02-06 2013-02-06 情報処理装置、情報処理方法、プログラム、及び情報処理システム
PCT/JP2014/000180 WO2014122884A1 (en) 2013-02-06 2014-01-16 Information processing apparatus, information processing method, program, and information processing system
US14/763,581 US9870684B2 (en) 2013-02-06 2014-01-16 Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
EP14703447.4A EP2954499B1 (en) 2013-02-06 2014-01-16 Information processing apparatus, information processing method, program, and information processing system
CN201480006863.8A CN104956412B (zh) 2013-02-06 2014-01-16 信息处理设备、信息处理方法、程序和信息处理***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013021371A JP6171374B2 (ja) 2013-02-06 2013-02-06 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Publications (3)

Publication Number Publication Date
JP2014153813A true JP2014153813A (ja) 2014-08-25
JP2014153813A5 JP2014153813A5 (ja) 2015-04-09
JP6171374B2 JP6171374B2 (ja) 2017-08-02

Family

ID=50070650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013021371A Expired - Fee Related JP6171374B2 (ja) 2013-02-06 2013-02-06 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Country Status (5)

Country Link
US (1) US9870684B2 (ja)
EP (1) EP2954499B1 (ja)
JP (1) JP6171374B2 (ja)
CN (1) CN104956412B (ja)
WO (1) WO2014122884A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132705A1 (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2017040983A (ja) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 警備システム、及び人物画像表示方法
JP2017040982A (ja) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 警備システム、及びレポート生成方法
JP2017045315A (ja) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 警備システム及び人物画像表示方法
JP2017138719A (ja) * 2016-02-02 2017-08-10 株式会社リコー 情報処理システム、情報処理方法、および情報処理プログラム
JP2017224956A (ja) * 2016-06-14 2017-12-21 グローリー株式会社 情報処理装置及び情報処理方法
JP2018010666A (ja) * 2017-08-28 2018-01-18 日本電信電話株式会社 コンテンツ情報提供装置、コンテンツ表示装置、オブジェクトメタデータのデータ構造、イベントメタデータのデータ構造、コンテンツ情報提供方法およびコンテンツ情報提供プログラム
JP2019186859A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 接続装置、接続方法及び接続プログラム
JP2020047259A (ja) * 2019-07-11 2020-03-26 パナソニックi−PROセンシングソリューションズ株式会社 人物検索システムおよび人物検索方法
JP2020047110A (ja) * 2018-09-20 2020-03-26 パナソニック株式会社 人物検索システムおよび人物検索方法
JP2020123845A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 監視装置及び監視方法
JP2020167720A (ja) * 2017-03-31 2020-10-08 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
JP2020178167A (ja) * 2019-04-15 2020-10-29 パナソニックi−PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
JP2020201983A (ja) * 2020-09-02 2020-12-17 東芝テック株式会社 販売データ処理装置およびプログラム
JP2022003831A (ja) * 2017-03-06 2022-01-11 キヤノン株式会社 装置、方法及びプログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
JP6524619B2 (ja) * 2014-08-18 2019-06-05 株式会社リコー 軌跡描画装置、軌跡描画方法、軌跡描画システム、及びプログラム
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
CN106911550B (zh) * 2015-12-22 2020-10-27 腾讯科技(深圳)有限公司 信息推送方法、信息推送装置及***
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
JP6457156B2 (ja) * 2016-05-31 2019-01-23 株式会社オプティム 録画画像共有システム、方法及びプログラム
JP6742195B2 (ja) * 2016-08-23 2020-08-19 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
JP6740539B2 (ja) * 2016-11-07 2020-08-19 日本電気株式会社 情報処理装置、制御方法、及びプログラム
EP3321844B1 (en) * 2016-11-14 2021-04-14 Axis AB Action recognition in a video sequence
US11049374B2 (en) 2016-12-22 2021-06-29 Nec Corporation Tracking support apparatus, terminal, tracking support system, tracking support method and program
US20190253748A1 (en) * 2017-08-14 2019-08-15 Stephen P. Forte System and method of mixing and synchronising content generated by separate devices
NL2020067B1 (en) * 2017-12-12 2019-06-21 Rolloos Holding B V System for detecting persons in an area of interest
US10834478B2 (en) * 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose
US10783925B2 (en) 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10783648B2 (en) * 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
US10572738B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a person or vehicle
US10572737B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Methods and system for detecting a threat or other suspicious activity in the vicinity of a person
US10366586B1 (en) * 2018-05-16 2019-07-30 360fly, Inc. Video analysis-based threat detection methods and systems
US10572740B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a motor vehicle
US10572739B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a stopped emergency vehicle
GB2574009B (en) * 2018-05-21 2022-11-30 Tyco Fire & Security Gmbh Fire alarm system and integration
US11176383B2 (en) * 2018-06-15 2021-11-16 American International Group, Inc. Hazard detection through computer vision
JP7229698B2 (ja) * 2018-08-20 2023-02-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020068737A1 (en) * 2018-09-27 2020-04-02 Dakiana Research Llc Content event mapping
CN109905607A (zh) * 2019-04-04 2019-06-18 睿魔智能科技(深圳)有限公司 跟拍控制方法及***、无人摄像机及存储介质
US10811055B1 (en) * 2019-06-27 2020-10-20 Fuji Xerox Co., Ltd. Method and system for real time synchronization of video playback with user motion
KR20210007276A (ko) 2019-07-10 2021-01-20 삼성전자주식회사 영상 생성 장치 및 방법
JP6989572B2 (ja) * 2019-09-03 2022-01-05 パナソニックi−PROセンシングソリューションズ株式会社 捜査支援システム、捜査支援方法およびコンピュータプログラム
JP7494130B2 (ja) * 2021-01-19 2024-06-03 株式会社東芝 情報処理システム、情報処理方法およびプログラム
KR20230040708A (ko) * 2021-09-16 2023-03-23 현대자동차주식회사 행위 인식 장치 및 방법
US11809675B2 (en) 2022-03-18 2023-11-07 Carrier Corporation User interface navigation method for event-related video

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199669A (ja) * 2002-11-29 2004-07-15 Sony United Kingdom Ltd 顔検出
JP2004234561A (ja) * 2003-01-31 2004-08-19 Secom Co Ltd 画像表示システム
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2009081883A (ja) * 2008-12-15 2009-04-16 Sony Corp 情報処理装置及び方法、並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
US7843491B2 (en) 2005-04-05 2010-11-30 3Vr Security, Inc. Monitoring and presenting video surveillance data
EP1777959A1 (en) 2005-10-20 2007-04-25 France Telecom System and method for capturing audio/video material
US7791466B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation System and method for event detection utilizing sensor based surveillance
CN101426109A (zh) * 2007-11-02 2009-05-06 联咏科技股份有限公司 图像输出装置、显示器与图像处理方法
EP2260646B1 (en) 2008-03-28 2019-01-09 On-net Surveillance Systems, Inc. Method and systems for video collection and analysis thereof
JP2009251940A (ja) 2008-04-07 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
KR20100101912A (ko) * 2009-03-10 2010-09-20 삼성전자주식회사 동영상 파일을 연속 재생하는 방법 및 장치
US8346056B2 (en) 2010-10-14 2013-01-01 Honeywell International Inc. Graphical bookmarking of video data with user inputs in video surveillance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199669A (ja) * 2002-11-29 2004-07-15 Sony United Kingdom Ltd 顔検出
JP2004234561A (ja) * 2003-01-31 2004-08-19 Secom Co Ltd 画像表示システム
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2008306604A (ja) * 2007-06-08 2008-12-18 Canon Inc 情報処理装置、及び情報処理方法
JP2009081883A (ja) * 2008-12-15 2009-04-16 Sony Corp 情報処理装置及び方法、並びにプログラム

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132705A1 (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2016154306A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
RU2696855C2 (ru) * 2015-02-20 2019-08-07 Панасоник Интеллекчуал Проперти Менеджмент Ко., Лтд. Устройство поддержки отслеживания, система поддержки отслеживания и способ поддержки отслеживания
US10181197B2 (en) 2015-02-20 2019-01-15 Panasonic Intellectual Property Management Co., Ltd. Tracking assistance device, tracking assistance system, and tracking assistance method
JP2017040982A (ja) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 警備システム、及びレポート生成方法
JP2017040983A (ja) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 警備システム、及び人物画像表示方法
JP2017045315A (ja) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 警備システム及び人物画像表示方法
JP2017138719A (ja) * 2016-02-02 2017-08-10 株式会社リコー 情報処理システム、情報処理方法、および情報処理プログラム
JP2017224956A (ja) * 2016-06-14 2017-12-21 グローリー株式会社 情報処理装置及び情報処理方法
JP7282851B2 (ja) 2017-03-06 2023-05-29 キヤノン株式会社 装置、方法及びプログラム
JP2022003831A (ja) * 2017-03-06 2022-01-11 キヤノン株式会社 装置、方法及びプログラム
JP2020167720A (ja) * 2017-03-31 2020-10-08 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
US11748892B2 (en) 2017-03-31 2023-09-05 Nec Corporation Video image processing device, video image analysis system, method, and program
JP2018010666A (ja) * 2017-08-28 2018-01-18 日本電信電話株式会社 コンテンツ情報提供装置、コンテンツ表示装置、オブジェクトメタデータのデータ構造、イベントメタデータのデータ構造、コンテンツ情報提供方法およびコンテンツ情報提供プログラム
JP2019186859A (ja) * 2018-04-16 2019-10-24 Kddi株式会社 接続装置、接続方法及び接続プログラム
US11527071B2 (en) 2018-09-20 2022-12-13 i-PRO Co., Ltd. Person search system and person search method
US11030463B2 (en) 2018-09-20 2021-06-08 Panasonic I-Pro Sensing Solutions Co., Ltd. Systems and methods for displaying captured videos of persons similar to a search target person
JP2020047110A (ja) * 2018-09-20 2020-03-26 パナソニック株式会社 人物検索システムおよび人物検索方法
JP2020123845A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 監視装置及び監視方法
JP7258580B2 (ja) 2019-01-30 2023-04-17 シャープ株式会社 監視装置及び監視方法
JP7032350B2 (ja) 2019-04-15 2022-03-08 パナソニックi-PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
JP2020178167A (ja) * 2019-04-15 2020-10-29 パナソニックi−PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
US11640726B2 (en) 2019-04-15 2023-05-02 i-PRO Co., Ltd. Person monitoring system and person monitoring method
JP7317556B2 (ja) 2019-04-15 2023-07-31 シャープ株式会社 監視装置及び監視方法
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
JP7235612B2 (ja) 2019-07-11 2023-03-08 i-PRO株式会社 人物検索システムおよび人物検索方法
JP2020047259A (ja) * 2019-07-11 2020-03-26 パナソニックi−PROセンシングソリューションズ株式会社 人物検索システムおよび人物検索方法
JP2020201983A (ja) * 2020-09-02 2020-12-17 東芝テック株式会社 販売データ処理装置およびプログラム

Also Published As

Publication number Publication date
EP2954499B1 (en) 2018-12-12
CN104956412A (zh) 2015-09-30
EP2954499A1 (en) 2015-12-16
WO2014122884A1 (en) 2014-08-14
US20150356840A1 (en) 2015-12-10
US9870684B2 (en) 2018-01-16
JP6171374B2 (ja) 2017-08-02
CN104956412B (zh) 2019-04-23

Similar Documents

Publication Publication Date Title
JP6171374B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5954106B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US11030463B2 (en) Systems and methods for displaying captured videos of persons similar to a search target person
RU2702160C2 (ru) Устройство поддержки отслеживания, система поддержки отслеживания и способ поддержки отслеживания
JP6332833B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2014153813A5 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP2011233133A (ja) 万引き防止システム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US20110002548A1 (en) Systems and methods of video navigation
KR101933153B1 (ko) 관심객체 이동방향에 따른 관제 영상 재배치 방법 및 장치
KR20180011603A (ko) 모니터링 장치 및 시스템
KR102474729B1 (ko) 모니터링 장치
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2016015579A (ja) 情報処理装置、情報処理方法及びプログラム
WO2014119991A1 (en) Directing steerable camera with user bias tracking
KR20180011608A (ko) 검색 장치
US11151730B2 (en) System and method for tracking moving objects
JP2005277726A (ja) 画像監視装置
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
JP2022098663A (ja) 監視システム、監視システムの異常検知検出方法、及び監視システムの異常検知検出プログラム
JP2020047259A (ja) 人物検索システムおよび人物検索方法
EP3992936B1 (en) A method of activating an object-specific action when tracking a moving object
GB2570498A (en) A method and user device for displaying video data, a method and apparatus for streaming video data and a video surveillance system
JP2005218014A (ja) 監視システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R151 Written notification of patent or utility model registration

Ref document number: 6171374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees