JP2006165729A - 撮影プログラム、撮影方法及び撮影システム - Google Patents

撮影プログラム、撮影方法及び撮影システム Download PDF

Info

Publication number
JP2006165729A
JP2006165729A JP2004350831A JP2004350831A JP2006165729A JP 2006165729 A JP2006165729 A JP 2006165729A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2004350831 A JP2004350831 A JP 2004350831A JP 2006165729 A JP2006165729 A JP 2006165729A
Authority
JP
Japan
Prior art keywords
information
photographing
person
terminal
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004350831A
Other languages
English (en)
Inventor
Yoshinobu Ochiai
慶喜 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004350831A priority Critical patent/JP2006165729A/ja
Publication of JP2006165729A publication Critical patent/JP2006165729A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】特定対象に関する情報を適切に活用でき、利便性の高い撮影プログラム、撮影方法及び撮影システムを実現する。
【解決手段】 対象物を撮影する撮影ステップと、撮影された対象物の画像情報から対象物の3次元情報を抽出するステップと、画像情報から対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、対象物に基づいて画像情報、3次元情報及び対象特定情報を関連付けて記憶するステップとを有する。
【選択図】 図3

Description

本発明は、ネットワークに接続された複数の撮影装置により特定の対象を撮影し、映像情報と映像を解析して得られる情報を関連付けて記憶・配信する撮影システムに関する。
従来、複数の撮影装置により特定対象を多角的に観測(撮影)し、得られた映像情報から該対象の3次元情報を取得するシステムが提案されている。
これらのシステム構成は、例えば図13(a)に示すように、複数の撮影装置から出力される映像情報を1台のコンピュータ(処理端末)に入力して処理したり、図13(b)のように撮影装置をネットワークに接続することで遠隔地に配置したコンピュータで処理する構成が提案されている。
また、図13(c)に示すようにネットワークの負荷を低減させる目的で撮影装置ごとにコンピュータが設けられ、処理結果のみをネットワークを介して送信したり、図13(d)のような撮影装置ごとに得られた処理結果を互いに送受信し、分散型・協調型のシステムも提案されている。
一方、撮影された映像に該映像に関する情報や著作権情報等を付加することで映像の蓄積管理を容易にする技術が提案されている。このように映像に付加されるそれらの情報は一般にメタ情報とよばれ、映像取得時の環境情報や映像の自動解析やユーザーにより入力されるシーン情報やカット情報等が、映像と関連付けて保存される。これにより映像の検索や編集・著作権管理等をコンピュータにより自動的に行うことが可能となり、安全で利便性の高い映像の流通の促進に寄与することが期待されている(特許文献1参照)。
特開2000−030057(段落0022〜0029、図1等)
しかしながら、上記のような従来の3次元情報取得システムでは映像から特定対象の3次元情報を取得するが、該対象の空間情報の蓄積と時間的な統計情報を取得しておらず、さらには、一般に映像情報と3次元情報とが別々に管理され、それぞれの情報の対応や関連付けは考慮されてはいない。
また、映像にメタ情報を付加するシステムは、映像自身の内容や著作権に関する情報に重点が置かれ、複数映像からの3次元情報の取得や、対象の空間情報の蓄積と時間的な統計情報を取得し付加することは3次元情報取得システムと同様に考慮されていない。
したがって、従来の3次元情報取得システムでは、取得した映像及び3次元情報の関連性が乏しく、実際に取得した情報を用いたシステムの構築に際し、該情報を十分に活用することができず、利便性、拡張性が低い課題を有している。
本発明の例示的な目的の1つは、特定対象に関する情報を適切に活用でき、利便性の高い撮影プログラム、撮影方法及び撮影システムを実現することにある。
本発明の1つの観点としての撮影プログラムは、対象物を撮影する撮影ステップと、撮影された対象物の画像情報から対象物の3次元情報を抽出するステップと、画像情報から対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、対象物に基づいて画像情報、3次元情報及び対象特定情報を関連付けて記憶するステップとを有することを特徴とする。
本発明によれば、特定の対象を撮影し、撮影された映像情報と該映像情報を解析して得られる情報を関連付けて記憶するとともに、特定対象の3次元情報及び対象特定情報を該映像情報と関連付けて記憶するため、従来に比べて情報の共有を適切かつ容易に行え、利便性の高い撮影システムを実現することができる。
以下に本発明の実施例について説明する。
図1は、本発明の実施例1における撮影システムの構成ブロック図である。
101は撮影用端末(撮影ユニット)で、対象(対象物)の映像を取得する撮影部142と通信部141を有し、ネットワーク131に接続されている。したがって、この通信部141を介して他のコンピュータや撮影用端末との通信を行うことができる。
なお、撮影用端末は撮影用端末101のように1つの撮影部(撮影装置)を設けるように構成してもよいが、撮影用端末102のように2つの撮影部144、145を設けるように複数の撮影部を備えた撮影用端末としてもよい。
また、本実施例の撮影システムでは、システム構成の規模や目的に応じて撮影用端末101、102、103、104というように複数の撮影用端末がネットワークを介して接続される構成としてもよいが、特定対象等の3次元情報を取得するために、システム全体における撮影部用端末は少なくとも2つ以上設けていればよい。
111は記憶用端末(記憶ユニット)であり、撮影用端末101〜104により取得される複数の映像から特定対象の3次元情報を取得する3次元情報抽出部151と、映像情報その他を記憶するための記憶部152と、3次元情報を時間的に統計処理する有意情報抽出部153及び、通信部154を備えている。
ユーザ用端末(コンピュータ)121はユーザへの各種情報の表示インタフェイスとしての表示部161、通信部162を有しており、ユーザの撮影システムへのアクセスを可能にしている。
そして、本実施例の撮影システムは、各端末に設けられたマイクロコンピュータ(CPU)により制御され、例えば、ユーザ用端末121のCPUを用いて撮影システム全体の制御を行わせ、各端末で行われる後述の処理及び通信を制御するように構成し、各端末における通信、記憶処理、更新処理、認識処理及び画像処理等の処理は各端末におけるCPUが制御を行う。
次に本実施例における撮影用端末の人物認識処理と、各端末間の人物情報の共有について図6の概念図を用いて説明する。
ネットワーク601を介して記憶用端末602と撮影用端末603、604が接続されている。今、撮影対象A605及びB606が存在し、撮影用端末603、604はそれぞれの撮影用端末に設けられた撮影部の撮影範囲内に2つの撮影対象を捉えているものとする。
撮影用端末603内には撮影対象Aを追跡し情報を保持するソフトウェアオブジェクトであるエージェントとしてエージェントA607と、撮影対象Bに対応するエージェントB608とが作成される。同様にして撮影用端末604内には撮影対象Aに対応するエージェントA609および撮影対象Bに対応するエージェントB610が作成される。
それぞれのエージェントは対応する撮影対象の情報を記憶・更新するとともに、エージェント間でそれら情報の共有を行うことで追跡精度の向上や協調してタスクの分担などを行う。
特に撮影用端末603のエージェントA607と撮影用端末604のエージェントA609およびエージェントB608とエージェントB610のように撮影用端末を跨いで同一の撮影対象を担当するエージェント同士はエージェンシとよばれるグループを形成し、撮影対象に関する情報を共有することで上記追跡精度の向上やタスクの分担に加えて撮影対象の3次元情報を取得することが可能となる。
エージェントは撮影用端末(撮影部)の撮影範囲内で捉えられた全ての人物(特定対象)について発生し、撮影用端末の撮影範囲を外れるまで担当する人物を追跡し、情報を抽出し続ける。
エージェントおよびエージェンシの生成、破棄はリアルタイムで処理され、その状態は人物の移動や状態の変化に伴ってダイナミックに変化する。また、エージェント間の情報の共有は記憶用端末602が撮影用端末603、604から抽出した情報を集中的に管理し、必要に応じて各端末へ送信することで実現される。
次に本実施例の撮影システムの、店舗における監視・マーケティングへの適用例を図2に示すとともに、図3に該撮影システムのシーケンスを示す。
図2は一般的な店舗に本実施例の撮影システムを適用したときの概要図である。店舗201は外部との出入り口204を有するエントランスフロア202と、商品の陳列と販売が行われる販売フロア203の2つのフロアから構成されている。
221、222は顧客人物を表わしており、店舗201は出入り口204およびエントランスフロア202を必ず通過しなければ販売フロア203へ入室できない構成となっている。撮影用端末211〜215、表示部217を備える記憶用端末216、ユーザ端末218および不図示のPOS(Point Of Sales)端末219が100BASE−T規格等の高速ネットワークで接続されており、互いに通信可能な状態となっている。
ここで撮影用端末211〜215はCCDカメラやCMOSカメラ等の撮影部と、不図示の映像処理部を備えており、映像処理部により撮影した映像をリアルタイム処理することが可能となっている。さらに、撮影用端末はカメラ動作、つまりパンニング及びチルティング等を行わずに固定された俯瞰撮影ユニット211〜213と、パンニング、チルトティング、ズーム等の物理的なカメラ動作可能な注目撮影用端末214〜215から構成されており、機能の異なる撮影用端末を組み合わせることで店舗201に入店した人物221、222の多様な撮影を可能としている。
記憶用端末216は撮影用端末211〜215により撮影(取得)された映像および処理結果である顧客人物情報を記憶、蓄積及び分析する処理端末であると同時に、ユーザ端末218やPOS端末219からの要求に応じて抽出した撮影対象の時空間的な統計情報である有意情報(対象特定情報)を、記憶している各々の人物に係る映像情報と対応付けて配信する機能を有している。
また、ユーザ端末218は無線通信によりネットワークに接続されているPDA(Personal Digital Assistant)であり、ここではユーザとして店舗201の店員が所持することで各種情報の取得や処理の実行等システムへのアクセスが可能となる。
このようなユーザによるシステムへのアクセスは記憶用端末216やPOS端末219を介して行うこともでき、店員の人数や配置に応じて柔軟に構成を変更することが可能である。さらに、POS端末219は商品に添付されたバーコード等のタグをスキャンすることで会計および購買記録を蓄積する機能を有している。
図3はシステムシーケンスのフローチャートである。本実施例の撮影システムが起動されると、まず撮影システムの初期化が行われる(S301)。ここでは撮影用端末211〜215が備える撮影部(カメラ)のキャリブレーションや各ユニット及びコンピュータ間の通信テスト、記憶用端末216による撮影用端末211〜215の端末情報の取得が行われる。
これにより記憶用端末216は、撮影システム内に備える全端末の状態を把握することが可能となり、個々の端末においても記憶用端末216へ問い合わせることで、結果として撮影システム内の全ての端末状態を共有していることになる。
撮影システムの初期化が行われ、配置された各端末間の状態が確認できたならば、撮影システムはスタンバイ状態となる(S302)。そして、その後はエントランスフロア202における処理(S303〜S307)と販売フロア203における処理(S309〜S314)がそれぞれ並行して実行される。
エントランスフロア202では、エントランスフロア202の俯瞰撮影において俯瞰撮影用端末211を用いて出入り口204を含むエントランスフロア202の俯瞰撮影が行われる(S303)。このエントランスフロア202の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け(S304)、得られた俯瞰映像を俯瞰撮影用端末211に備える映像処理部によってリアルタイム処理することで新たに出入り口204からエントランスフロア202へ入室または退室した人物221を検出し(S305)、入室人物についてはさらに注目撮影用端末214を用いた注目撮影を行うことでより詳細な人物情報を取得する(S306)。
このようにして得られた入室人物の詳細な人物情報は、ネットワークを介して記憶用端末216へ送信して記憶する。そして顧客人物情報としてシステム内の全ての端末間で共有される。
また、出入り口204より退出した人物に関しても同様に、その都度記憶用端末216に記憶することで店舗201に存在する最新の人物情報が常時更新される状態が保たれる。
一方、並行して実行される販売フロア203における処理では、販売フロア203での俯瞰撮影において、販売フロア203を死角無く撮影するよう配置された俯瞰撮影用端末212、213により販売フロア203全体の俯瞰撮影が行われる(S309)。販売フロア203の俯瞰撮影はユーザからのシステム終了命令が発せられるまで常時実行され続け、得られた俯瞰映像を俯瞰撮影用端末212、213に備える映像処理部によってリアルタイム処理することで販売フロア203内を往来する人物222を検出し(S310)、人物が販売フロア203を退出するまで行動を追跡し続ける。
さらに、俯瞰撮影された映像から予め撮影システム内で定義された特定の事象が検出されたならば(S311)、ステップ312に進み、さらに注目撮影用端末215による注目撮影を行うことで、より詳細な人物に関する情報を取得することが可能となる。そして、ステップ313では検出された特定の事象に応じた処理が実行される。
なお、予めシステムに定義された特定の事象とは人物の転倒や接触事故、盗難等が挙げられ、そのような事象が検出されたならば撮影システムは店員へ所定の対応を行わせるべくユーザ端末218、表示部217およびPOS端末を介して事象の表示・通知を行う。
このようにして得られた販売フロア203を往来する人物や特定の事象に関する情報は、エントランスフロア202によって取得された詳細な人物情報と統合されて記憶用端末216に記憶され、ネットワークを介して撮影システム内の全ての端末間で共有されるとともに、会計時にPOS端末219により取得される購買記録とも相互に参照可能な状態となる(S314)。
また、ステップ304、ステップ310においてシステム終了の命令がユーザより発せられたならば、撮影システムはステップ308の終了処理を実行する。終了処理としてはシステム起動時からのユーザメモリの解放や、抽出された各種情報の整理、編集等の処理である。
続いて図3に示したシステムシーケンスそれぞれの処理に関して詳細に説明する。
はじめに図3のステップ301におけるシステム初期化処理を図4を用いて説明する。なお、システムを構成する各端末は平行して処理が実行されるため、端末ごとの処理をそれぞれ分離してフローチャートを記述している。
まず、ユーザへのインタフェイスを有する端末であるPOS端末219、ユーザ端末218または記憶用端末216を介してユーザである店舗の店員によりシステム起動命令が実行される。
POS端末219およびユーザ端末218はそれぞれステップ402、404において通信テストを行った後、ステップ403、405に進み、各々の端末情報を記憶用端末216へ送信する。送信する端末情報としては端末固有のID、通信テストの結果および機能の不具合情報等である。
俯瞰撮影ユニット211〜213および注目撮影ユニット214〜215において、実行されるステップ408、412のカメラキャリブレーションは、3次元座標既知の基準物体を複数の撮影用端末、例えば撮影用端末211、214で同時に撮影した画像から、それぞれの端末の有する撮影部の位置、姿勢、画角等を表わすカメラパラメータを算出する処理である。加えて、注目撮影用端末が備える撮影部はパンニング・チルトティング及びズーム機能を有するため、それらカメラ動作の範囲や速度をステップ413のカメラ運動・撮影可能領域情報取得により求める。カメラパラメータの算出は、上記画像を用いる方法の他に位置姿勢検出センサ等を用いて直接計測するようにしてもよい。
このようにして撮影部に関するパラメータが求まったならば、ステップ409、414において、それぞれの撮影用端末毎に背景画像の作成を行う。これは撮影画像から人物や特定事象の検出を行う処理において背景差分法による動領域の検出を行う際に使用される。特に、カメラ動作の可能な注目撮影用端末は、カメラ動作可能範囲における背景画像の取得と複数画像の合成が必要になる。
なお、本実施例では撮影画像からの動領域検出法として背景差分法を用いているが、検出アルゴリズムはこれに限らず、この種の処理に広く用いられているテンプレートマッチング法やオプティカルフロー法およびそれら手法の組み合わせ手法も適用可能である。
ステップ410、415では、POS端末219及びユーザ端末218と同様に通信テストを行い、ステップ411、416では上記算出した撮影部に関するパラメータを含む端末情報を記憶用端末216へ送信する。
一方、記憶用端末216はステップ406において他の端末同様に通信テストを行い、ステップ407において撮影システムを構成する他の全ての端末から送信される端末情報を受信し、記憶する。
以上のような端末ごとの処理を経て撮影システムはステップ417のスタンバイ状態となる。撮影システムがステップ417のスタンバイ状態に移行すると、POS端末219、ユーザ端末218および記憶用端末216はユーザからの処理入力を受け付け、撮影用端末211〜215はそれぞれ撮影を開始する。
次に図5のフローチャートを用いて図3に示したステップ302〜ステップ307までのエントランスフロア202における顧客人物情報取得・更新処理を説明する。
撮影システムのスタンバイ状態から(S501)、エントランスフロア202の俯瞰撮影を開始している俯瞰撮影用端末211の撮影範囲内に人物221が侵入すると、図3におけるステップ301でのシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いた人物認識が行われ(S502)、同時に認識された人物221に関する2次元情報の抽出が行われる。
認識された人物は撮影範囲内に新たに侵入した人物なのか、それとも既に存在していた人物(撮影された人物)の状態が変化したのかを判断し(S503)、新たに侵入した人物と判断された場合、俯瞰撮影用端末211の撮影範囲内において該当人物221に関する情報を記憶(保持)し、追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S504)。
既に存在していた人物の状態が変化したと判断された場合は、撮影画像より得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S505)。
このようにして俯瞰撮影用端末211の撮影範囲内に侵入した人物221の認識と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末211は認識した人物に関する人物情報を記憶用端末216へ送信する(S506)。送信された人物情報は記憶用端末216で受信され、記憶用端末内においても俯瞰撮影用端末211と同様人物情報の記憶・更新が行われる(S507)。そして、記憶用端末216は俯瞰撮影用端末211だけでなくすべての撮影用端末により取得された映像中で認識された人物情報を集中管理し、常時情報を更新する。
さらに記憶用端末216は過去の顧客人物情報を記憶しており、人物情報と人物画像をリンクさせた形で保存することで人物情報から人物画像の検索、およびその逆を検索を可能としている。したがって、ステップ508では取得した人物情報に基づいて顧客人物情報全体を検索することでステップ502において認識された人物の顧客人物情報が記憶用端末216内に記憶されているか否かの判断を行う。
既に顧客人物情報が記憶されている人物であると判断された場合、顧客人物情報の最終更新日時等から更新が必要か否かを判断し(S509)、更新の必要なしと判断されたならばステップ501のスタンバイ状態へ戻る。また、ステップ508において記憶用端末216内に顧客人物情報が記憶されていない、若しくはステップ509において記憶している情報の更新が必要と判断された場合は、記憶用端末216はシステム初期化処理にて収集した撮影システムに存在する全端末の情報を参照し(S510)、エントランスフロア202において注目撮影可能な注目撮影用端末の探索を行う(S511)。
なお、本実施例ではエントランスフロア202に設置された注目撮影用端末は1台の注目撮影用端末214であるが、注目撮影用端末が複数設置されている場合においても同様の動作が可能であり、ステップ511での注目撮影用端末探索の結果、現在処理中の人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影の指令信号を出力してよく、その中から1台を選択した注目撮影に対して注目撮影動作の指令信号を出力してもよい。
認識された人物を撮影可能な注目撮影用端末が検出されたならば、現在処理中の人物の情報を送信し、記憶用端末216のCPUは、注目撮影のために注目撮影用端末214に注目撮影要請(指令信号出力)を行う。
注目撮影要請を受けた注目撮影用端末214は、受信した人物情報に基づいて撮影部(カメラ)の制御を行い(S513)、撮影範囲内の注目人物を捉え、ステップ502と同様な処理によって人物認識し(S514)、得られた人物の2次元特徴をステップ513において受信した人物情報と比較し注目人物を確認する。その後、認識された人物がステップ513のカメラ動作によって撮影範囲内に新たに捉えられたのか、それともステップ513のカメラ動作前に既に撮影範囲内に存在していたかを判断し(S515)、新たに撮影範囲内に捉えられたと判断された場合、注目撮影用端末214の撮影範囲内において注目人物221の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S517)。
一方、既に存在していた人物と判断された場合、ステップ504において生成された俯瞰撮影用端末211において同様の注目人物の認識と追跡を担当するエージェントと目的を同じくするエージェントのグループであるエージェンシを形成する(S516)。
ステップ518では、注目人物の動作に応じて詳細撮影が可能となるようにリアルタイムで注目撮影用端末214のパンニング動作、チルティング動作及びズーム動作の各制御を行う。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能である。このようにして注目人物の所望の像が捉えられたならば注目撮影用端末はステップ519に進み、撮影動作を行う。
このときステップ519において初めて注目撮影用端末214の撮影を開始するのではなく、ステップ513で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、このステップ519の撮影は、連続的に撮影された映像のうち、注目人物の詳細画像の存在する時間位置情報を記録することに相当する。その後、撮影された注目人物画像は画像解析が行われ(S520)、抽出した2次元人物情報とステップ513において受信した俯瞰撮影用端末211における注目人物の2次元人物情報を合わせて参照することで注目人物の3次元情報を算出することが可能となる。
得られた注目人物の詳細画像および3次元情報を含む人物情報は、記憶用端末216へと送信され(S521)、注目人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S522)。記憶用端末216における顧客人物情報の記憶・更新処理が完了したならばステップ501に戻り、俯瞰撮影用端末211が新たな人物を認識するまでスタンバイ状態となる。
以上のような撮影システムのシステムシーケンスによりエントランスフロア202を通過する人物は全て記憶用端末216に人物情報を記憶され、システム内の全ての端末は記憶用端末216に人物の特徴や3次元情報を用いて問い合わせることで該当人物の画像情報を含む最新顧客人物情報を得ることが可能となる。
次に図7のフローチャートを用いて図3のステップ309における販売フロア203の俯瞰撮影について説明する。
まず、スタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212の撮影範囲内に人物222が侵入すると(S701)、ステップ301のシステム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する2次元情報の抽出が行われる(S702)。
認識された人物は、撮影範囲内に新たに侵入した人物なのか、それとも既に撮影範囲内に存在していた人物の状態が変化したのかを判断し(S703)、新たに侵入した人物と判断された場合、俯瞰撮影用端末212の撮影範囲内において該当人物222の追跡を行うエージェントと呼ばれるソフトウェアオブジェクトを発生させる(S704)。一方、既に存在していた人物の状態が変化したと判断された場合は、撮影された画像から得られる2次元的な人物特徴、画像上での2次元位置および担当エージェント等の人物情報の更新が行われる(S705)。
そして、俯瞰撮影用端末212の撮影範囲内に侵入した人物222の認識処理と追跡を担当するエージェントが生成されたならば、俯瞰撮影用端末212は認識した人物に関する人物情報を記憶用端末216および他の俯瞰撮影用端末213へ送信する(S706)。人物情報を受信した記憶用端末216は、人物情報の記憶、更新処理を行う(S707)。続いて記憶用端末216に接続された全端末情報を参照し(S708)、販売フロア203にて稼動中の撮影用端末の中からステップ707において受信した人物情報を用いて同一人物を担当しているエージェントおよびその端末の探索を行う(S709)。同一人物を追跡中のエージェントが検出された場合、俯瞰撮影用端末212に所属するエージェントと新たに発見されたエージェントをグルーピングしエージェンシを形成させる(S710)。
このようにして発見されたエージェントとエージェンシ情報は人物情報として俯瞰撮影用端末212、13へ送信され(S711)、該情報の共有が行われる。記憶用端末216からの人物情報を受信した俯瞰撮影用端末212では、自らの有する人物情報の更新が行われ(S717)、追跡中のエージェントとエージェンシを形成する他の端末に所属するエージェントを把握することが可能となる。また、俯瞰撮影用端末212による撮影画像は記憶用端末216に送信される(S718)。
一方、ステップ706で送信された俯瞰撮影用端末212の人物情報を受信したもう1台の俯瞰撮影用端末213では、記憶用端末216と同様に、人物情報の更新を行った後(S712)、俯瞰撮影用端末213の撮影範囲内で追跡中の人物に対応するエージェントの中から、ステップ712において受信した人物を追跡するエージェントの探索を行い(S713)、同一人物を追跡するエージェントが検出された場合は、異なる端末間で同一の人物を追跡するエージェントのグループであるエージェンシを形成する(S714)。そして、新たに形成されたエージェンシ情報を含む人物情報が更新され、記憶用端末216および俯瞰用端末212へ該情報を送信する(S715)。
また、俯瞰撮影用端末213で撮影された画像は記憶用端末216へ送信され(S716)、画像記憶処理が行われる(S719)。俯瞰撮影用端末212若しくは213において新たな人物の認識が行われるスタンバイ状態へ移行する。
その後俯瞰撮影用端末212、213は自らの撮影範囲にはいった人物を次々に検出し、担当エージェントを生成し、記憶用端末216および他の俯瞰撮影用端末に認識した人物に関する情報を送信する。人物情報を受信した他の俯瞰撮影用端末は受信した人物情報と自分の撮影範囲内の人物情報を比較することで同一人物か否かの判断をし、同一人物を担当するエージェント間でエージェンシの形成を行う。
また、記憶用端末216においても、記憶用端末216が把握している俯瞰撮影用端末同士において同一人物を追跡していることが判別された時には、それぞれ担当するエージェント同士がエージェンシを形成するよう該当する人物情報を送信する。全ての俯瞰撮影用端末の位置およびカメラパラメータと撮影範囲内に入った人物データを共有し合うことで、俯瞰撮影用端末間での人物同定がなされ、記憶用端末に送信される画像の中で、複数視点からの同一人物の撮影画像の特定がなされ、検出された人物の3次元情報の取得が可能となる。
以上のような販売フロア203の俯瞰撮影によって、販売フロア203を行き来する人物は常にいずれかの俯瞰撮影用端末の撮影範囲内に捉えられ、抽出された人物情報の共有によりリアルタイムで2次元画像および3次元情報の取得及び記憶が行われる。
そして、このような状況の下、つまり、エントランスフロア202及び販売フロア203での俯瞰撮影及び注目撮影動作において、人物が事故や危険行動、盗難等予めシステムに定義された異常事象が起こると、俯瞰撮影用端末212、213によって即座に検出され、店員への通知と顧客人物情報の記録が行われる。
図8は、図3のステップ311〜S313の販売フロアにおける事象検出・注目撮影の詳細なフローチャートである。
システムスタンバイ状態から販売フロア203の俯瞰撮影を行っている俯瞰撮影用端末212、213の撮影範囲内に人物222が侵入すると(S801)、俯瞰撮影処理と同様にS301システム初期化において撮影用端末ごとに取得した背景画像と現在の画像の差分を算出することで画像中の変化領域を検出する背景差分法を用いて人物認識が行われ、同時に認識された人物に関する二次元情報の抽出が行われる(S802)。
認識された人物222は、予めシステムに定義された異常人物か否かの判断がされ(S803)、異常人物で無い場合は、取得した人物情報の更新を行った後、スタンバイ状態へ戻る(S804)。
一方、ステップ803において認識人物が異常人物と認識された場合は、認識人物222の追跡を担当するエージェントの所属するエージェンシ内で注目撮影用端末のエージェントを探索する(S805)。言い換えれば、認識人物222が現在撮影範囲内にある注目撮影用端末の探索を行う。
エージェンシ内に注目撮影用端末に所属するエージェントが存在しない、すなわち認識人物222が撮影範囲内にある注目撮影用端末が存在しない場合、俯瞰撮影用端末から記憶用端末216へ人物情報の送信が行われ、記憶用端末216の人物情報の更新が行われる(S806)。記憶用端末216において人物情報の更新が行われると、記憶用端末216に接続されている全端末情報を参照し(S807)、ステップS803において異常人物として認識された人物を撮影可能な注目撮影用端末の探索を行う(S808)。
本実施例では、販売フロア203に設置された1台の注目撮影用端末215で行っているが、注目撮影用端末が複数設置された場合でも同様の動作が可能であり、ステップ808の注目撮影用端末探索の結果、異常人物を撮影可能な注目撮影用端末が複数台検出された場合、記憶用端末216は複数台の注目撮影用端末に対して注目撮影のための指令信号を出力する。また、複数の注目撮影用端末の中から1台を選択して注目撮影を行わせるように指令信号を出力してもよい。
異常人物を撮影可能な注目撮影用端末が検出された場合、認識人物222の人物情報を送信し、注目撮影要請を行う(S809).一方、ステップ805において認識人物222を撮影範囲中に捉え、追跡エージェントを発生させている注目撮影用端末が検出された場合は、俯瞰撮影用端末は直接該当する注目撮影用端末215へ認識人物の人物情報の送信を行う。
俯瞰撮影用端末または記憶用端末216から人物情報を受信した注目撮影用端末215は、受信した人物情報を元にカメラ制御を行い(S810)、撮影範囲内に注目人物を捉え、ステップ802と同様な処理によって人物認識し、得られた2次元的な人物の特徴を受信した人物情報と比較し注目人物を確認する(S811)。そして、認識した異常人物に対応するエージェントの探索を行い(S812)、ステップ811の処理により新たに撮影範囲に捉えられた人物である場合には、対応するエージェントを発生させた後(S813)、俯瞰撮影用端末または記憶用端末216から受信したエージェント情報を参照し、該当する異常人物を担当するエージェントのグループであるエージェンシを生成する(S[814)。
その後、注目する異常人物の動作に応じて詳細撮影が可能なようリアルタイムで注目撮影用端末215をパンニング、チルティング及びズーム制御を行う(S815)。例えば撮影範囲の中央に注目人物の全体像が所望の割合で位置するような制御や、顔認識のアルゴリズムを用いて人物の顔領域を撮影範囲に捉えるよう制御すること等が可能となる。
このようにして注目人物の所望の像が捉えられたならば、注目撮影用端末215は撮影動作を行う(S816)。このとき初めて注目撮影用端末215の撮影を開始するのではなく、ステップ810で注目人物情報を受信した時点、またはシステム起動時点から撮影を続けていてもよく、この場合、ステップ816における撮影は連続的に撮影された映像のうち、異常人物の詳細画像の存在する時間位置情報を記録することに相当する。
撮影された異常人物画像は、画像解析が行われ(S817)、抽出した2次元の人物情報とステップ810において受信した俯瞰撮影用端末または記憶用端末216における異常人物の二次元人物情報を共に参照することで異常人物の3次元情報を算出することが可能となる。得られた注目人物の詳細画像および3次元情報を含む人物情報は記憶用端末216へと送信され(S818)、異常人物の詳細画像および2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント情報が関連付けられて顧客人物情報として記憶・更新される(S819)。
記憶用端末216では、顧客人物情報の記憶・更新が行われるとともに(S819)、ユーザ端末218およびPOS端末219へ異常人物情報を特別に通知、表示させユーザへの報告を行う(S820、S821、S822)。これにより販売フロア203での異常人物の検出及び詳細情報の取得とユーザへの通知とが効率的に行われ、ユーザによる異常人物に対する迅速な対応が可能となる。
以上のように、本実施例では、エントランスフロア202における顧客人物情報の取得・更新(図5参照)、販売フロア203における俯瞰撮影(図7参照)、販売フロア203における事象検出・注目撮影(図8参照)というシステムシーケンスを常時リアルタイムで並列処理することで、撮影システムは店舗201内に立ち入った全ての人物を検出し、検出された人物の顧客人物情報として詳細画像、2次元画像中の特徴、追跡を担当するエージェンシと所属するエージェント、および人物の3次元情報の蓄積を行い、それら蓄積情報を時間及び空間的に統計処理した結果として有意情報を抽出し、それぞれ関連付けて記憶している。
表1は、本実施例において抽出・記憶される2次元情報、3次元情報および有意情報を示している。
Figure 2006165729
図3から図8にまでの店舗201内での監視動作により示したとおり、本実施例の撮影システムは店舗201内に侵入、滞在する人物に関して、俯瞰撮影用端末による俯瞰画像および注目撮影用端末による注目画像を取得する。そして、それら画像情報をまずは取得した個別の端末で単独に処理することで人物に関する2次元情報を得ることができる。
人物の2次元情報としては画像中での2次元位置、2次元形状、2次元計数、2次元密度、2次元移動速度、2次元移動軌跡、2次元滞在時間および色情報を得ることができる。これらの情報を得る手法としては、エッジ抽出法やパターンマッチング法、オプティカルフロー法等、該撮影システムに適した計算の精度と負荷のバランスを考慮した画像処理アルゴリズムの選択が可能である。
次に、得られた2次元情報を、記憶用端末を介して接続されている他の撮影用端末間で共有することで対象人物の多角的観測が可能となり、以下のような3次元情報を得ることができる。
人物の3次元情報としては定義された空間内での3次元位置、3次元形状、3次元計数、3次元密度、3次元移動速度、3次元移動軌跡、3次元滞在時間および3次元動作を得ることができる。これら3次元情報は2次元情報に比べて空間的(立体的)な情報が含まれているため、より高精度で信頼性の高い情報として利用価値が高い。さらには得られた人物に関する2次元および3次元情報を時間経過的に蓄積し、有意情報として本撮影システム固有の時空間的な統計情報を定義し、抽出することが可能となる。
本実施例における有意情報としては顧客人物情報履歴、購買行動履歴、店舗レイアウト用情報、店員配置用情報、防犯対策用情報、POSシステム自動入力用情報等が抽出可能となる。
図9に記憶用端末216に蓄積される顧客人物情報を階層的に示す。顧客人物に応じて人物情報901、902は蓄積されており、その内容としては詳細画像911として注目撮影用端末によって撮影された全身画像921および顔画像922の履歴、3次元移動軌跡912から使用頻度の高い移動経路や立ち寄り順序等の行動パターン923、3次元移動速度913として現在までの平均速度924および最高速度925、3次元形状914として身長926、体格927、頻繁に行われる動作や特徴的な行動928の履歴、滞在時間/日時915の統計として来店頻度929、来店パターン930、平均滞在時間931をそれぞれ上位の情報の時間的統計を取ることで求め、記憶している。
また、これら顧客人物情報901、902はPOS情報903と相互参照可能であり、例えば特定の人物特徴から購買履歴916の問い合わせや、POS情報903入力時に顧客人物情報を参照し自動入力することなどが可能となっている。
さらに、これら顧客人物情報901、902は図10に示すように店舗情報1001として階層的に整理することで、ユーザからのリクエストに応じて例えば全顧客人物の3次元移動軌跡1011、3次元密度1012、3次元移動速度1013および3次元形状1014等の情報から、店舗201における有意情報として混雑区画1021、人物流停滞区画1022、異常行動頻発区画1023、集客区画1024を映像情報と共に抽出することが可能となり、それら情報を店舗レイアウト1031、店員配置1032および防犯対策1033を事前に実施する為の参照情報として利用することが可能となる。
具体的には3次元移動軌跡1011の統計処理より店舗内で多くの人物通過がある集客区画1024が判別されると、注目させたい商品の陳列を行うよう店舗レイアウトの変更を行い、人物通過が少なく3次元密度も低いにもかかわらず3次元移動速度が低い位置は人物流停滞区画1022として通路設計を見直し、人物の3次元形状から異常行動頻発と判別された異常行動頻発区画1023に対しては、店舗レイアウトの変更に加え、店員の配置を密にし、それに対する防犯対策を予め実際の過去に発生した異常行動映像を参照してシミュレーションすることが可能となる。
図11は、本発明の実施例2における撮影システムの動作フローチャートである。撮影システムの概略、撮影用端末の人物認識処理と端末間の人物情報共有および一般的な店舗への撮影システムの適用については上記実施例1と同様であるため、説明を省略する。
図11において、システム初期化およびスタンバイ状態(S1011、S1012)、並行して実行されるエントランスフロア202におけるステップ1103〜ステップ1108および、販売フロア203におけるステップ309〜ステップ314に関しては、上記実施例1の図3と同様に行われる。
上記実施例1において、エントランスフロア202および販売フロア203における処理動作とともに、俯瞰撮影用端末により人物および特定事象の検出が行われたならば注目撮影用端末へ注目撮影を行うように指令信号等を出力して注目撮影を要請し、注目撮影用端末は人物の検出、撮影、画像解析および3次元情報取得を行った後、全ての情報を顧客人物情報として記憶用端末へ送信している。
これに対し本実施例では、注目撮影の指令信号を受信した注目撮影用端末は、人物の検出、撮影、画像解析を行うが、3次元情報取得および有意情報取得処理はユーザからのリクエスト、すなわちユーザの操作に応じて実行される。
ステップ1115〜ステップ1117では、ユーザからの3次元情報リクエスト処理であり、ステップ1115においてユーザから3次元情報の要求が行われた場合、記憶用端末は記憶した映像の解析を行い、要求された人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1116)。算出された3次元情報は対応する映像とともに要求したユーザ(端末)へ送信する(S1117)。
同様に、ステップ1118〜ステップ1121では、有意情報リクエスト処理であり、ステップ1118においてユーザから有意情報の要求が行われた場合、記憶用端末では記憶した映像の解析を行い、要求された条件に応じた人物を同時に撮影した複数視点の画像解析結果と、共に記憶している撮影を行った端末情報を参照することで3次元情報の算出を行う(S1119)。そして、算出された複数の3次元情報の時間的統計を計算することで対応する映像と共に有意情報を算出する(S1120)。これら算出された3次元情報および有意情報は、要求したユーザ(端末)へ送信される(S1121)。
このように本実施例では、処理負荷の大きい3次元情報および有意情報の算出を映像取得と同時にリアルタイム処理するのではなく、ユーザの要求時または撮影終了後のオフライン処理で実行することで、端末に必要とされる計算負荷、記憶容量および撮影システムの通信負荷等を低減することが可能となる.
図12は、本発明の実施例3における撮影システムの概略構成図である。上記実施例1、2では、図1に示すように撮影システムシステムがネットワークに接続された複数の撮影用端末101〜104と、記憶用端末111およびユーザ端末121により構成されている。つまり、撮影用端末101〜104により取得される映像を含めた各種情報は一旦記憶用端末111に集められ、情報を記憶用端末111により一元管理するするサーバ・クライアント型システムとなっている。
これに対して本実施例では、図12に示すようにピア・ツー・ピア型のシステム構成としている。具体的には、撮影記憶用端末1201〜1203は互いにサーバを介さずに情報交換(通信)を行うとともに、撮影記憶用端末1201には、対象の映像を取得する撮影部1225と、複数の映像より対象の3次元情報を抽出する3次元情報抽出部1224と、映像情報その他を記憶する記憶部1223と、3次元情報を時間的に統計処理する有意情報抽出部1222および通信部が設けられ、ネットワーク1201を介して他の端末との情報の送受信が可能な状態となっている。
ユーザ端末1211は、ユーザへの各種情報のインタフェイスである表示部1231および通信部1232を有しており、ユーザの該撮影システムへのアクセスを可能にしている。
このように本実施例では、撮影記憶用端末1201〜1204が各々が取得した映像とその解析結果を互いに通信し合うことで情報共有を行い、3次元情報および有意情報の抽出を行う。つまり、ピア・ツー・ピア型のシステム構成においてそれぞれの撮影記憶用端末が同様な機能を有するので、サーバ・クライアント型に比べてシステム構築の柔軟性と、端末に不具合が生じたときのシステム全体の安定性が向上する。
本発明の実施例1における撮影システムの概略構成図。 本発明の実施例1における撮影システムを店舗に適用した抽象図。 本発明の実施例1のおける撮影システムの動作フローチャート図。 本発明の実施例1における撮影システムのシステム初期化に係るフローチャート図。 本発明の実施例1における撮影システムの顧客人物情報取得・更新処理フローチャート図(エントランスフロア)。 本発明の実施例1における撮影システムの情報共有概念図。 本発明の実施例1における撮影システムの俯瞰撮影に係るフローチャート図(販売フロア)。 本発明の実施例1における事象検出・注目撮影に係るフローチャート図(販売フロア)。 本発明の実施例1における顧客人物情報を示す階層図。 本発明の実施例1における顧客人物情報を店舗情報として示した階層図。 本発明の実施例2における撮影システムの動作フローチャート図。 本発明の実施例3における撮影システムの概略構成図。 従来の撮影システムの概略構成図。
符号の説明
101 撮影用端末(撮影ユニット)
111 記憶用端末(記憶ユニット)
121 ユーザ用端末
131 ネットワーク
142 撮影部
141 通信部
151 3次元情報抽出部
152 記憶部
153 有意情報抽出部

Claims (11)

  1. 対象物を撮影する撮影ステップと、
    撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出するステップと、
    前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出するステップと、
    前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて記憶するステップとを有することを特徴とする撮影プログラム。
  2. 前記対象物の色情報、2次元情報及び前記対象特定情報と、前記画像情報とをそれぞれ関連付けて記憶するステップを有することを特徴とする請求項1に記載の撮影プログラム。
  3. 前記対象特定情報は、撮影状況における時間および空間的な統計情報であることを特徴とする請求項1又は2に記載の撮影プログラム。
  4. 前記3次元情報は、前記対象物の3次元位置、3次元形状、3次元計数、3次元密度、3次元速度、3次元軌跡、3次元動作を含むことを特徴とする請求項1から3のいずれか1つに記載の撮影プログラム。
  5. 前記対象物の撮影は、複数の撮影ユニットにより行われることを特徴とする請求項1から4のいずれか1つに記載の撮影プログラム。
  6. 対象物を撮影する撮影手段と、
    撮影された前記対象物の画像情報から前記対象物の3次元情報を抽出する3次元情報抽出手段と、
    前記画像情報から前記対象物の属性及び状態のうち少なくとも1つの対象特定情報を抽出する対象特定情報抽出手段と、
    前記画像情報、前記3次元情報及び前記対象特定情報を記憶する記憶手段と、
    前記対象物に基づいて前記画像情報、前記3次元情報及び前記対象特定情報を関連付けて前記記憶部に記憶する制御手段とを有することを特徴とする撮影システム。
  7. 前記制御手段は、前記対象物の色情報、2次元情報及び前記対象特定情報と、前記画像情報とをそれぞれ関連付けて記憶することを特徴とする請求項6に記載の撮影システム。
  8. 前記対象特定情報は、撮影状況における時間および空間的な統計情報であることを特徴とする請求項6又は7に記載の撮影システム。
  9. 前記前記画像情報、前記3次元情報及び前記対象特定情報を表示する表示手段と、それぞれの前記手段との通信を行う通信手段とを備えたコンピュータを有し、
    前記制御手段は、前記コンピュータからの出力信号に基づいて前記対象特定情報を抽出することを特徴とする請求項6から8のいずれか1つに記載の撮影システム。
  10. 前記制御手段は、所定のタイミングで前記対象特定情報を抽出することを特徴とする請求項9に記載の撮影システム。
  11. 前記対象物の撮影は、複数の撮影ユニットにより行われることを特徴とする請求項6から10のいずれか1つに記載の撮影システム。
JP2004350831A 2004-12-03 2004-12-03 撮影プログラム、撮影方法及び撮影システム Pending JP2006165729A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004350831A JP2006165729A (ja) 2004-12-03 2004-12-03 撮影プログラム、撮影方法及び撮影システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004350831A JP2006165729A (ja) 2004-12-03 2004-12-03 撮影プログラム、撮影方法及び撮影システム

Publications (1)

Publication Number Publication Date
JP2006165729A true JP2006165729A (ja) 2006-06-22

Family

ID=36667277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004350831A Pending JP2006165729A (ja) 2004-12-03 2004-12-03 撮影プログラム、撮影方法及び撮影システム

Country Status (1)

Country Link
JP (1) JP2006165729A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198189A (ja) * 2007-01-12 2008-08-28 Internatl Business Mach Corp <Ibm> 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム
JP2009088648A (ja) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd 画像抽出装置および画像抽出方法
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
JP2020053840A (ja) * 2018-09-27 2020-04-02 株式会社デンソーウェーブ 監視システムおよびカメラ

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198189A (ja) * 2007-01-12 2008-08-28 Internatl Business Mach Corp <Ibm> 有害動作を表すモニター対象ユーザの動作を監視ユーザに警告するための方法、システム、およびプログラム
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8577087B2 (en) 2007-01-12 2013-11-05 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US9208678B2 (en) 2007-01-12 2015-12-08 International Business Machines Corporation Predicting adverse behaviors of others within an environment based on a 3D captured image stream
US9412011B2 (en) 2007-01-12 2016-08-09 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US10354127B2 (en) 2007-01-12 2019-07-16 Sinoeast Concept Limited System, method, and computer program product for alerting a supervising user of adverse behavior of others within an environment by providing warning signals to alert the supervising user that a predicted behavior of a monitored user represents an adverse behavior
JP2009088648A (ja) * 2007-09-27 2009-04-23 Sogo Keibi Hosho Co Ltd 画像抽出装置および画像抽出方法
JP2020053840A (ja) * 2018-09-27 2020-04-02 株式会社デンソーウェーブ 監視システムおよびカメラ
JP7180243B2 (ja) 2018-09-27 2022-11-30 株式会社デンソーウェーブ 監視システムおよびカメラ

Similar Documents

Publication Publication Date Title
JP4478510B2 (ja) カメラシステム、カメラ、及びカメラの制御方法
JP6742195B2 (ja) 情報処理装置及びその方法、コンピュータプログラム
JP4984728B2 (ja) 被写体照合装置および被写体照合方法
WO2018198373A1 (ja) 映像監視システム
JP5424852B2 (ja) 映像情報処理方法及びその装置
JP2018160219A (ja) 移動経路予測装置、及び移動経路予測方法
JP2018093283A (ja) 監視情報収集システム
JP2006146378A (ja) 複数カメラを用いた監視システム
US10341616B2 (en) Surveillance system and method of controlling the same
JP2011060058A (ja) 撮影装置および監視システム
JP2019020777A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP6396682B2 (ja) 監視カメラシステム
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP2006165729A (ja) 撮影プログラム、撮影方法及び撮影システム
JP2010068466A (ja) 移動体追跡装置及び移動体追跡方法
JP6702402B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2012010121A (ja) 行動監視システム、行動監視プログラム、及び行動監視方法
JP2017017488A (ja) 監視システム、撮影制御方法及びプログラム
JP7355116B2 (ja) イベント検出装置
JP2019211905A (ja) 動線分析装置、動線分析方法、および動線分析システム
JP2005173763A (ja) 顧客情報処理装置、顧客情報処理方法
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
KR102081517B1 (ko) 목표타겟의 연계추적을 위한 지능형 통합관제시스템과 지능형 통합관제방법
JP2023148252A (ja) 画像処理装置及びプログラム
JP2023148253A (ja) 画像処理装置及びプログラム