JP2012208793A - 警備装置 - Google Patents
警備装置 Download PDFInfo
- Publication number
- JP2012208793A JP2012208793A JP2011074731A JP2011074731A JP2012208793A JP 2012208793 A JP2012208793 A JP 2012208793A JP 2011074731 A JP2011074731 A JP 2011074731A JP 2011074731 A JP2011074731 A JP 2011074731A JP 2012208793 A JP2012208793 A JP 2012208793A
- Authority
- JP
- Japan
- Prior art keywords
- person
- determination
- feature
- feature data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Alarm Systems (AREA)
Abstract
【課題】不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、汎用的な使用が可能な警備装置を提供する。
【解決手段】警備装置は、特徴データを人物毎に対応付けて記憶した特徴データDB31と、特徴キーワードの組合せから定義される判定条件を記憶した判定ファイル32と、特徴データの特徴データ値と判定ファイルの判定条件とのマッチ比較に基づき、該特徴データに対応付けられた人物を検知人物として検知する判定部40と、検知人物を検知したとき出力先に対する制御信号を出力する出力部50とを有し、判定ファイルは、種類の異なる複数の特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成される。
【選択図】図1
【解決手段】警備装置は、特徴データを人物毎に対応付けて記憶した特徴データDB31と、特徴キーワードの組合せから定義される判定条件を記憶した判定ファイル32と、特徴データの特徴データ値と判定ファイルの判定条件とのマッチ比較に基づき、該特徴データに対応付けられた人物を検知人物として検知する判定部40と、検知人物を検知したとき出力先に対する制御信号を出力する出力部50とを有し、判定ファイルは、種類の異なる複数の特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成される。
【選択図】図1
Description
本発明は、所定の特徴を有する人物検知を行う警備装置の分野に関する。
近年、防犯意識の高まりにより警備システム、警備装置が広く設置されるようになってきた。ここで従来より、監視カメラ等で撮像された画像の画像解析処理に基づき、不審人物を検知する警備装置が知られている。
例えば特許文献1には、例えば金融機関のATM、入口等において、サングラスやマスク等により顔を隠している人物を画像から検知すると、不審人物の可能性があると判断し通報する警報装置が記載されている。より具体的には、画像処理部により、顔の目や口が確実に検知できたかの顔隠しのスコアを独自の算出式で計算し、判定部により、スコア値が不審とする閾値より大きい場合には、サングラスやマスク等により顔を隠している不審人物として判定する。
ここで、一概に不審人物を検知するといっても、警備装置の設置先(使用先)によってその使用目的は異なる。つまり、どのような特徴を有する人物を検知したい不審人物とみなすかは、警備装置を使用する側のニーズによって異なっている。
しかしながら、従来の不審人物を検知する警備装置においては、その設置先、使用目的ごとに合わせて不審人物の特徴、行動を定義し、必要とする画像処理と設置先の使用目的に特化した検知判定方法を実装しており、そのため、同じ装置、システムを別の設置先、別の使用目的で使用する場合には、検知判定のプログラムを実装し直さなければならないという問題があった。
例えば、病院やクリニックにおいては、風邪等でマスクのみを着けている人物は多く、これら人物を不審人物として検知すべきでない。このため病院等で要請されるものは、サングラスとマスクの両方を着けている人物、及びサングラスのみを着けている人物を不審人物として検知する警備装置である。
しかし特許文献1に記載される警備装置は、サングラスとマスクの両方を着けている人物を検知することはできるものの、サングラスとマスクの両方を着けている人物、及びサングラスのみを着けている人物を不審人物として検知し、マスクのみを着けている人物は、検知しないという病院等でのニーズに適った検知判定を行うことはできない。そもそも特許文献1に記載される警備装置は、金融機関等での設置及び使用を想定して実装された装置であり、サングラスやマスク等により顔の大部分を隠している人物を不審人物とみなして検知するものだからである。そして仮にこのような検知判定を行いたい場合には、サングラスを着けている人物、マスクを着けている人物をそれぞれに検知し、人物に対しマスクのみを着けている人物を検知判定しないように検知判定条件の変更及びそのプログラムの実装が必要となる。即ちこのように、従来の不審人物を検知する装置においては、設置先、使用目的が変われば、検知判定のプログラムを実装し直す必要が出てくるため、同一装置を様々な設置先、使用目的で使用することは容易でない。
本発明は上記の点に鑑みて、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することを目的とする。
上記課題を解決するため、本発明に係る警備装置は、人物の特徴を示す複数の種類の特徴データ値を含む特徴データを人物毎に対応付けて記憶した第1記憶手段と、前記特徴データ値が示す人物の特徴に対応する特徴キーワードの組合せから定義される判定条件を含む判定ファイルを記憶した第2記憶手段と、前記特徴データの特徴データ値と前記判定ファイルの判定条件とのマッチ比較に基づき、該判定条件を満たすか否かの判定を行い、該判定条件を満たすとき、該特徴データに対応付けられた人物を検知人物として検知する判定手段と、前記検知人物を検知したとき、出力先に対する制御信号を出力する出力手段とを有し、前記判定ファイルは、種類の異なる複数の前記特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成されることを特徴とする。
また上記課題を解決するため、前記警備装置において、前記判定ファイルを作成するための画面を提供するとともに、該画面において、検知すべき人物の特徴を示す特徴表現のうち1の特徴表現が選択されたとき、該特徴表現に予め対応付けられている前記特徴キーワード又は前記接続キーを用いて種類の異なる複数の前記特徴キーワードの組合せを作成し、作成した該特徴キーワード又は該特徴キーワードの組合せから定義される判定条件を含む判定ファイルを作成する判定ファイル作成手段とを有し、前記判定ファイル作成手段により作成された判定ファイルは、前記第2記憶手段に記憶されることを特徴とする。
また上記課題を解決するため、前記警備装置において、前記判定手段は、1の特徴キーワード毎に、該特徴キーワードに対応する特徴データ値とのマッチ比較に基づき「真」又は「偽」の値を出力し、次いで出力された「真」又は「偽」の値が、前記接続キーで組み合わされたときに該判定条件を満たすか否かの判定を行い、満たす場合には「真」の値を、満たさない場合には「偽」の値を出力することを特徴とする。
また上記課題を解決するため、前記警備装置において、前記判定手段は、前記判定条件において所定関数が含まれている場合であって、1の特徴キーワード毎に、前記所定関数の第1パラメータで指定されている指定数分の特徴データの中から該特徴キーワードに対応する特徴データ値との比較に基づき、「真」又は「偽」の値を出力するとき、前記指定数分の特徴データのうち、前記所定関数の第2パラメータで指定されている指定数分の特徴データが前記特徴キーワードにマッチした場合には、「真」の値を出力することを特徴とする。
また上記課題を解決するため、前記警備装置において、少なくともカメラからの画像を入力する入力手段と、前記画像に対し画像解析処理を行うとともに、該画像内に解析された人物の特徴データを人物毎に集計する画像解析手段とを有し、前記画像解析手段により人物毎に集計された特徴データは、前記第1記憶手段に記憶されることを特徴とする。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、などに適用したものも本発明の態様として有効である。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、などに適用したものも本発明の態様として有効である。
本発明によれば、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することができる。
以下、本発明を実施するための形態を各実施形態において図面を用いて説明する。
[概要]
本実施形態に係る警備装置においては、不審人物として検知(検出)したい特徴や行動、またその場所、時間等で詳細に定義し、最終的にこれら特徴や行動をand、or、又はnext等の関係で定義した検知用の判定条件を柔軟に作成できる判定ファイルの汎用的な作成方法を用意し実装した。そして、この方法で作成した判定ファイルと実際の画像処理結果による特徴、行動を比較することにより、不審人物の検知判定を行うようにした。
本実施形態に係る警備装置においては、不審人物として検知(検出)したい特徴や行動、またその場所、時間等で詳細に定義し、最終的にこれら特徴や行動をand、or、又はnext等の関係で定義した検知用の判定条件を柔軟に作成できる判定ファイルの汎用的な作成方法を用意し実装した。そして、この方法で作成した判定ファイルと実際の画像処理結果による特徴、行動を比較することにより、不審人物の検知判定を行うようにした。
このようにしたことで、本実施形態に係る警備装置においては、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある判定条件の定義、つまり判定ファイル作成を行えるので、設置先や使用目的を問わず汎用的な環境において使用が可能となる。また設置後、新たな犯罪等が発生した際にも、判定条件をその犯罪等に対応したものに定義し直せば、その犯罪等に対応した警備サービスを容易に開始することができる。以下、詳細に説明する。
[システム構成]
図1は、本実施形態に係る警備システム100の全体構成を示す一実施例のブロック図を示す。本実施形態に係る警備システム100は、警備装置1、カメラ2a、センサ2bを含むデータ収集装置2、監視センタ3、警報器4を含み構成される。
図1は、本実施形態に係る警備システム100の全体構成を示す一実施例のブロック図を示す。本実施形態に係る警備システム100は、警備装置1、カメラ2a、センサ2bを含むデータ収集装置2、監視センタ3、警報器4を含み構成される。
警備装置1は、入力部10、画像解析処理部20、記憶部30、判定部40、出力部50、判定ファイル作成部60を含む。
入力部10は、カメラ2a、センサ2bを含むデータ収集装置2から、画像や検知信号等の入力データを受け付ける入力機能部である。つまり入力部10により、外部装置からのデータを警備装置1内部へ取り込む。
画像解析処理部20は、画像や検知信号等の入力データのデータ解析を行い、不審人物の検知に必要な情報(特徴データ)を取り出したり、以後の判定処理で使用し易い形でデータを整形したり取り纏める。
記憶部30は、人物の特徴データを人物毎に対応付けて記憶した特徴データDB31と、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義された判定ファイル32とを記憶した記憶手段である。なお特徴データDB31及び判定ファイル32の具体例は後述する。
判定部40は、判定ファイル32に基づいて、解析された人物の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。また不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。
出力部50は、監視センタ3や警報器4と接続されており、監視センタ3への通報や警報器4への出力を行う。
判定ファイル作成部60は、判定ファイル32を作成する。本実施形態に係る警備装置1においては、ユーザは警備装置1の設置場所やその使用目的等によって、柔軟に不審人物として検知すべき特徴を判定条件として定義しうる。この作成方法の詳細は再度後述する。
カメラ2aは、警備が行われる設置場所(金融機関、病院、店舗等々)内の随所に設けられる監視カメラである。出入口や室内、又は死角となるような位置に設けられ、リアルタイムに映像、即ち連続的な静止画像を撮像し、撮像した静止画像を警備装置1に対し入力する。近年のカメラ性能からすると、例えばこの静止画像は1秒間に20〜30画像(フレーム)程度が撮像され、警備装置1に対し入力される。
センサ2bは、警備が行われる設置場所内の随所に設けられる検知センサである。具体的に、出入口扉の開閉を検知して検知信号を出力する例えばマグネットスイッチ等のセンサ、廊下や室内に設けられ人の存在を検知して検知信号を出力する例えば赤外線検知センサ等のセンサがある。
監視センタ3及び警報器4は、異常時における警報の出力先である。監視センタ3へは電話回線等の通信回線を介して接続されており、監視センタ3は警備装置1から警報を受信すると、例えば現地へ警備員を派遣したり、警察等への連絡を行う。警報器4は、アラート・ランプやアラート・アラーム等であり、警備装置1から警報を受信すると、ランプを点灯させたり緊急時のアラートを鳴らす。
なお、上述の警備装置1の各機能は、実際には装置のCPUが実行するプログラムによりコンピュータに実現させるものであることはいうまでもない。なおまた、本実施形態においてはあくまで一構成例であり、各機能を他の装置に実装することも可能である。例えば、警備装置1の記憶部30は別途のデータ蓄積サーバにより構築することができる。また判定ファイル作成部60は端末PC等に実装し、端末PCの判定ファイル作成部60で作成した判定ファイルを警備装置1の記憶部30へ転送するように構成することも可能である。
[特徴データと判定ファイル]
図2は、特徴データと判定ファイルの関係を説明する図である。
図2は、特徴データと判定ファイルの関係を説明する図である。
警備装置1は、画像(フレーム)及び検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新している。また判定ファイル32は、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、ユーザにより又は判定ファイル作成部60を介して予め作成され記憶部30に保持される。
そして図に示されるように判定部40は、判定ファイル32と、人物毎の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。また不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。以下詳しく説明する。
(特徴データ)
上述の如く、カメラ2aやセンサ2bから入力された画像や検知信号を解析した画像解析結果は、特徴データとして特徴DB31に蓄積される。つまり、警備装置1は、画像及び検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新していく。
上述の如く、カメラ2aやセンサ2bから入力された画像や検知信号を解析した画像解析結果は、特徴データとして特徴DB31に蓄積される。つまり、警備装置1は、画像及び検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新していく。
図3は、特徴データの一例である。また併せて図4は、特徴データの仕様表を示す。図3の特徴データは、実際の1の特徴データを示す。つまり、カメラ2aから入力された1画像及びセンサ2bから入力された検知信号により、人物が検出された場合、その人物の特徴や行動を図3の仕様表の各項目に従い画像解析により解析し、特徴データ項目毎の特徴データ値を検出する。そして1画像(1フレーム)、1人物に対し、1の特徴データを生成する。一方、人物が検出されない場合には、特徴データは生成しなくてよい。
図4の仕様表は、カメラ2aから入力された画像及びセンサ2bから入力された検知信号により解析されうる特徴、行動の一例である。警備装置1において、該当の特徴、行動を解析・抽出しうる画像解析手法が実装されている限り、これら特徴や行動の項目の値を得ることができる。なおまた、センサ2bから入力された検知信号は、人物の存在・位置の特定等に用いられる。画像のみからでも人物の存在・位置を解析することが可能であるため、あくまで画像解析の補完情報として用いるものとする。
具体的に図3を参照する。例えば、特徴データ項目「Date」(日付)は、特徴データの生成元の画像や検知信号が入力された日付を示す。また、特徴データ項目「Time」(時刻)は、特徴データの生成元の画像や検知信号が入力された時刻を示す。
また、特徴データ項目「Gender」(性別)は、入力された1画像において1の人物(人物ID:0001)が写っていた場合、画像解析により解析されたその人物の性別値を示す。ここではこの人物の性別は「男」であると解析されたため、性別値は「0」となっている。また、「Sunglasses」(サングラスの有無)は、画像解析により解析されたその人物のサングラスの有無値を示す。ここではこの人物のサングラスの有無値は「あり」であると解析されたため、サングラスの有無の値は「1」となっている。
また、「Stay[x]」(エリアxにいる)は、画像解析及び検知信号により解析されたその人物の位置(エリア)値を示す。ここではこの人物の位置(エリア)値は「エリア1にいる」と解析されたため、Stay[1]の値は「1」となっている。またStay[2]、Stay[3]の値は「0」となっている。また、「Rove」(きょろきょろしている)は、画像解析により解析されたその人物がきょろきょろしているかどうかの値を示す。ここでは、この人物はきょろきょろしていないと解析されたため、この値は「0」となっている。
なお、特徴データは、各フレーム単位(撮像画像単位)で画像解析されて生成される。そして同一人物毎に人物IDを発行のうえ、蓄積可能なフレーム数を超えるまで特徴DBに保存、管理される。なお同一人物かどうかの判定は、従来の顔認証処理技術等を使って行えばよい。また入力された1画像において複数の人物が写っていた場合、1画像中の人物毎にその特徴、行動を画像解析し、人数分の特徴データを生成する。
(判定ファイル)
図5は、判定ファイル32の一例(その1)である。判定ファイル32は、上述の如く、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、ユーザにより予め作成され記憶部30に保持される。具体的には図に示されるように、判定ファイルは「制御するIO(Input/Output)」、「制御内容」、「判定条件文」の各要素からなる。
図5は、判定ファイル32の一例(その1)である。判定ファイル32は、上述の如く、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、ユーザにより予め作成され記憶部30に保持される。具体的には図に示されるように、判定ファイルは「制御するIO(Input/Output)」、「制御内容」、「判定条件文」の各要素からなる。
「制御するIO」は、「判定条件文」による条件を満たした場合、制御の対象となる出力対象先(例えば監視センタ3及び警報器4等)のID(1、2・・)を示す。「制御内容」は、「判定条件文」による条件を満たした場合、制御の対象となる出力対象に対する制御の内容を示す。「開」はON、「閉」はOFFと意味し、出力対象が監視センタ3であれば通報のON/OFFとなり、警報器4であればランプ点灯/消灯、またもしくはアラームON/OFFといった制御を行う。なお出力対象に対する制御内容は、通常、「開」(ON)と「閉」(OFF)があるため、「開」制御する場合と「閉」制御する場合の判定条件はセットで定義するようにする。「判定条件文」は、人物の特徴データに基づき不審人物として検知すべき特徴が定義された判定条件構文である。この点以下説明する。
図6は、判定条件文の一文例を示す。図に示されるように、「判定条件文」の構成は、大きく分けてア〜ウの3つの部分からなる。まずアの「特徴キーワード」は、例えば「Sunglasses」の場合、画像から画像解析された特徴データの特徴データ項目において、サングラスがありと検知されているときに、「真」を出力し、サングラスがありと検知されていないときに「偽」を出力する。また例えば「Mask」の場合、特徴データの特徴項目において、マスクがありと検知されているときに、「真」を出力し、マスクがありと検知されていないときに「偽」を出力する。よってこのことからも、この「特徴キーワード」と、特徴データの特徴項目(図4)とは対応関係にあることが分かる。
図7は、特徴キーワードの仕様表を示す。特徴キーワードは「Sunglasses」や「Mask」のみならず、図に示されるような複数の特徴キーワードが存在する。よってユーザはこの仕様表の中から使用したい特徴キーワードを使って、つまり不審人物として検知すべき特徴キーワードを使って判定条件を定義するようにする。
再び図6を参照し、次いでイの「個別条件」は、関数FrameCountを用いて定義された個別条件、例えば「FrameCount(x,y,z)」である場合、直近の規定フレーム数zのうち、その直近の規定フレームの画像から画像解析された特徴データの特徴データ項目(特徴データ値)と対応する特徴キーワードxが「真」である回数が、少なくとも指定した数yあるかどうかを判定する条件である。例えば、「FrameCount(Sunglasses,2,10)」である場合、直近の規定10フレームのうち、その直近の10フレームの画像から画像解析された特徴データの特徴データ項目(特徴データ値)と対応する特徴キーワード「Sunglasses」が「真」である回数が、少なくとも2回あるかどうかを判定する条件である。
映像がカメラ2aで撮像されると、カメラ2aからの画像が連続的に警備装置1へ入力されてくる。人物が移っている場合、特徴データはフレーム単位(撮像画像単位)で生成されるので、カメラ2aからの人物画像が連続的に警備装置1へ入力されるたびに次々と特徴データが生成されることになる。しかしながら画像解析においては、人物検知自体の解析は高精度で検知できるものの、ときに人物の細かな特徴データ値を正確に解析できない場合がある。例えば、人物が後ろを向いている画像からは人物のサングラス着用を解析できない。また、人物を正面や側面から撮像できた画像であっても、解析によって必ずしもサングラス着用を解析できるとは限らない。従って特徴キーワード「Sunglasses」は、特徴データ値(Sunglasses=0or1)に基づきサングラス着用の有無を判定するものであるが、撮像された画像、フレームによってサングラスがありと検知されたりされなかったりと、そのばらつきを吸収する必要があるため、ここでは特徴キーワードに対し特徴検知の精度を向上させるための関数を介在させる。これにより、ある一定程度のフレーム数(例えば10フレーム)の幅を持たせ、そのうち指定した数(例えば2回)だけ人物のサングラス着用を検知できた場合、イの「個別条件」全体として「真」を出力するようにしたものである。
図8は、関数の仕様表を示す。各関数の出力内容は図に示される通りであるが、関数の種類は大きくFrame系とTime系とを用意している。例えばFrameCountは、直近の対象フレーム数の中で、特徴キーワードに該当する特徴データが検知フレーム数回数以上、「真」を出力した場合に、「真」、それ以外は「偽」を出力する関数である。一方、TimeCountは、直近の対象時間の中で、特徴キーワードに該当する特徴データが、「真」を出力した時間の合計が検知時間以上の場合に、「真」、それ以外は「偽」を出力する関数である。
つまり、フレーム、時間というそれぞれの観点から、上述でいうばらつきを吸収しつつ該当の特徴を有する人物を検知できるようにしたものである。
つまり、フレーム、時間というそれぞれの観点から、上述でいうばらつきを吸収しつつ該当の特徴を有する人物を検知できるようにしたものである。
再び図6を参照し、次いでウの「総合条件」(判定条件文)は、イの「個別条件」をand、or、next等の接続キー(接続語)で接続されることにより、複数の個別条件から構成されるものである。例えば、イの「個別条件」である「FrameCount(Sunglasses,2,10)」は、10フレーム中2回、サングラス着用者を検知したときには「真」を出力し、「FrameCount(Mask,1,10)」は、10フレーム中1回、マスク着用者を検知したときには「真」を出力する。そして、この2つの個別条件を「and」で接続した「総合条件」においては、サングラス着用且つマスク着用を検知したとき、つまり両個別条件が両方とも「真」である場合に、「真」を出力する。
図9は、接続キーの仕様表を示す。各接続キー数の出力内容は図に示される通りであるので詳述は割愛する。以上のように、ユーザはア〜ウを自由に組み合わせて判定条件文を作成することで、警備装置1の設置先、使用目的に合った不審人物の検知判定を行うことができる。
[判定例]
図10、11を元に、人物(例えば人物ID:0001)が判定ファイル32の判定条件において、不審人物であるかどうかを判定する例をここに示す。
図10、11を元に、人物(例えば人物ID:0001)が判定ファイル32の判定条件において、不審人物であるかどうかを判定する例をここに示す。
図10は、判定ファイル32の一例(その2)である。図に示されるように、判定ファイル32には、「制御するIO」ID1及び2に対する「判定条件文」が少なくとも2セット定義されている。
図11は、複数の特徴データから抽出した特徴項目及び特徴データ値の一例である。即ち、同一人物(例えば人物ID:0001)が撮像されている直近10フレーム分の特徴データの中から、特徴項目「サングラスの有無」(Sunglasses)、「エリア1にいる」(Stay[1])、「エリア2にいる」(Stay[2])を抽出し、その値(0又は1)をグラフに示した。また同一人物が撮像されている直近10000msec以内のフレームの特徴データの中から、特徴項目「きょろきょろしている」(Rove)を抽出し、その値(0又は1)をグラフに示した。
まず、「制御するIO」がID1、「制御内容」が開であるところの「個別条件」である「FrameCount(Sunglasses,2,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Sunglasses」が「真」(特徴データにおいてSunglasses=1)である回数が、2回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、サングラスがありとなっている。従って判定部40は、「FrameCount(Sunglasses,2,5)」に対し、「真」を出力する。
次に「制御するIO」がID1、「制御内容」が開であるところの「個別条件」である「FrameCount(Stay[1],3,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[1]」が「真」(Stay[1]=1)である回数が、3回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、エリア1にいるとなっている。従って判定部40は、「FrameCount(Stay[1],3,5)」に対し、「真」を出力する。
最後に、ここでの「総合条件」(判定条件文)は、「個別条件」である「FrameCount(Sunglasses,2,5)」と、「FrameCount(Stay[1],3,5)」とが、andの接続キーで接続されている。上述のようにそれぞれの「個別条件」の判定結果からすると、「真」and「真」となっているので、判定部40は、最終的に「総合条件」である「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5)」に対し、「真」を出力する。またその結果、「制御するIO」がID1の出力対象先に対し、「制御内容」である開(ON)を出力する。
一方、「制御するIO」がID1、「制御内容」が閉であるところの「個別条件」である「Not(FrameCount(Stay[1],3,5))」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[1]」が「真」(Stay[1]=1)である回数が、3回ないかどうかを判定する条件である。図11より、直近の5フレーム中、1、2、3、5フレームにおいて、エリア1にいるとなっている。従って判定部40は、「Not(FrameCount(Stay[1],3,5))」に対し、「偽」を出力する。ここでは「個別条件」1つのみであるため、これが「総合条件」に相当する。判定部40は、最終的に「総合条件」である「Not(FrameCount(Stay[1],3,5))」に対し、「偽」を出力する。またその結果、「制御するIO」がID1の出力対象先に対し、「制御内容」である閉(OFF)を出力しない。
以上に基づき、「制御するIO」がID1の判定条件文と、「制御するIO」がID1の出力対象先に対する判定結果とを考察する。つまり、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1(例えば立ち入り禁止区域)にいる場合、ID1の出力対象先(例えば警報器4)を鳴らすという使用目的をもって判定ファイル32を定義、作成しているものである。そして実際の特徴データにおいて、この判定条件を満たす特徴、行動の人物が検知されたことにより、警備装置1は警報器4に対し開(ON)を出力し、また警報器4はアラートを鳴らすものである。
その後、この人物がエリア1外に移動するなどして、「FrameCount(Stay[1],3,5)」を満たさなくなった場合、逆に「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5)」に対しては「偽」が出力され、「Not(FrameCount(Stay[1],3,5))」に対し「真」が出力されることになるため、警備装置1は警報器4に対し閉(OFF)を出力し、また警報器4はアラートを停止する。
さて今度は、「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「FrameCount(Sunglasses,2,5)」に関し判定する。ここは上述と同様の要領にて、判定部40は、「FrameCount(Sunglasses,2,5)」に対し、「真」を出力する。
次に「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「FrameCount(Stay[1],3,5)」に関し判定する。ここも上述と同様の要領にて、判定部40は、「FrameCount(Stay[1],3,5)」に対し、「真」を出力する。
次に「制御するIO」がID2、「制御内容」が開であるところの「個別条件」である「TimeCount(Rove,5000,10000)」に関し判定する。この個別条件が意味するところは、
直近の対象時間10000msecの中で、特徴キーワード「Rove」が「真」を出力した時間の合計が検知時間5000msec以上であるかどうかを判定する条件である。図11より、直近の10000msec中、1000〜3000、4000〜9000msecにおいて、エリア1にいるとなっている。従って判定部40は、「TimeCount(Rove,5000,10000)」に対し、「真」を出力する。
直近の対象時間10000msecの中で、特徴キーワード「Rove」が「真」を出力した時間の合計が検知時間5000msec以上であるかどうかを判定する条件である。図11より、直近の10000msec中、1000〜3000、4000〜9000msecにおいて、エリア1にいるとなっている。従って判定部40は、「TimeCount(Rove,5000,10000)」に対し、「真」を出力する。
最後に、ここでの「総合条件」(判定条件文)は、「個別条件」である「FrameCount(Sunglasses,2,5)」と、「FrameCount(Stay[1],3,5)」と、「TimeCount(Rove,5000,10000)」が、andの接続キーで接続されている。それぞれの「個別条件」の判定結果からすると、「真」and「真」and「真」であるので、判定部40は、最終的に「総合条件」である「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5) and TimeCount(Rove,5000,10000)」に対し、「真」を出力する。またその結果、「制御するIO」がID2の出力対象先に対し、「制御内容」である開(ON)を出力する。
一方、「制御するIO」がID2、「制御内容」が閉であるところの「個別条件」である「FrameCount(Stay[2],3,5)」に関し判定する。この個別条件が意味するところは、直近の5フレーム数のうち、特徴キーワード「Stay[2]」が「真」(Stay[2]=1)である回数が、3回以上あるかどうかを判定する条件である。図11より、直近の5フレーム中、エリア2にいないとなっている。従って判定部40は、「FrameCount(Stay[2],3,5)」に対し、「偽」を出力する。ここでは「個別条件」1つのみであるため、これが「総合条件」に相当する。判定部40は、最終的に「総合条件」である「FrameCount(Stay[2],3,5)」に対し、「偽」を出力する。またその結果、「制御するIO」がID2の出力対象先に対し、「制御内容」である閉(OFF)を出力しない。
以上に基づき、「制御するIO」がID2の判定条件文と、「制御するIO」がID2の出力対象先に対する判定結果とを考察する。つまり、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1に位置しているうえ、さらにきょろきょろしている場合、ID2の出力対象先(例えば監視センタ3)へ通報するという使用目的をもって判定ファイル32を定義、作成しているものである。そして実際の特徴データにおいて、この判定条件を満たす特徴、行動の人物が検知されたことにより、警備装置1は監視センタ3に対し開(ON)を出力し、また監視センタ3は通報を受信するものである。
その後、この人物がエリア1外に移動し、エリア2(例えば建物玄関等)へ移動するなどして、「FrameCount(Stay[1],3,5)」を満たさなくなり、また「FrameCount(Stay[2],3,5)」を満たした場合、逆に「FrameCount(Sunglasses,2,5) and FrameCount(Stay[1],3,5) and TimeCount(Rove,5000,10000)」に対しては「偽」が出力され、「FrameCount(Stay[1],3,5)」に対し「真」が出力されることになるため、警備装置1は監視センタ3に対し閉(OFF)を出力する。監視センタ3はこの人物がエリア2(例えば建物玄関等)、つまり建物外へ出たことを把握できる。
以上纏めると、ユーザはこの判定条件文によって、サングラスを着用している人物がエリア1にいる場合、警報器4を鳴らすようにした。またさらにその人物がきょろきょろと不審な行動をしている場合には、警報器4に加えて監視センタ3へ通報するようにしたことになる。そしてまた、サングラスを着用している人物がエリア1から移動した場合には、警報器4を解除し、さらにエリア2へ移動した場合、つまり建物外へ出た場合には、監視センタ3への通報を解除するようにしたことになる。
なお、本判定ファイル32による判定においては、説明の便宜上、例えば「FrameCount(Sunglasses,2,10)」、「FrameCount(Stay[1],3,5)」などの直近の規定フレーム数は、10などの比較的小さな数値を使用して説明している。しかしながら実際の場合、上述の如くカメラ2aは、静止画像を1秒間に約20〜30画像(フレーム)を撮像し、警備装置1に対し入力する。よって、現実的な直近の規定フレーム数としてはもう少し大きな値を用いることができる。より具体的には例えば「FrameCount(Sunglasses,20,100)」、「FrameCount(Stay[1],30,50)」などとすることができる。
[システム動作]
本実施形態に係る警備システム100におけるシステム動作(情報処理)を説明する。上述にて既に説明済みの点と重複する点もあるが、全体的な動作を示すため、あらためて以下、(1)特徴データ生成ステップ、(2)不審人物の判定ステップ、(3)判定結果の出力ステップの大きく3つに分け説明を行う。
本実施形態に係る警備システム100におけるシステム動作(情報処理)を説明する。上述にて既に説明済みの点と重複する点もあるが、全体的な動作を示すため、あらためて以下、(1)特徴データ生成ステップ、(2)不審人物の判定ステップ、(3)判定結果の出力ステップの大きく3つに分け説明を行う。
(1)特徴データ生成ステップ
警備装置1は警備を開始すると、カメラ2a及びセンサ2bから画像及び検知信号が入力されてくる。警備装置1は、画像や検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新する。この動作は、警備装置1が警備をし続ける限り繰り返し行われる。
警備装置1は警備を開始すると、カメラ2a及びセンサ2bから画像及び検知信号が入力されてくる。警備装置1は、画像や検知信号が入力されるたびに画像解析処理を行い、画像解析処理の結果から、人物ID(顔認証結果等を使って人物毎に付与)毎に特徴データを生成し、随時、特徴DB31に蓄積、更新する。この動作は、警備装置1が警備をし続ける限り繰り返し行われる。
図12は、特徴データ生成処理を説明するフローチャートである。以下図面に沿って説明する。
S1:警備装置1の入力部10は、画像(及び検知信号)が入力されたか否かを判定する。警備を開始すると通常の場合、カメラ2aやセンサ2bから画像及び検知信号が次々と入力されてくることになる。
S2:画像解析処理部20は、入力された画像(及び検知信号)に対し画像解析処理を行う。ここではまず画像の画像解析及び検知信号により、人物が写っているかどうかを検出する。
S3:画像解析処理部20は、人物が検出されたか否かを判定する。人物が検出されない場合には、特徴データは生成しなくてよいからである(只の風景画像)。
S4:画像解析処理部20は、人物が検出された場合、その人物の特徴や行動を各特徴項目(図3)に従い、入力された画像(検知信号)に対し画像解析によって解析し、特徴データ項目毎の特徴データ値を検出する。そして1画像(1フレーム)、1人物に対し、1の特徴データを生成する。
S5:最後に画像解析処理部20は、人物ID毎に特徴データを時系列に並べるなどして集計し、特徴DB31に蓄積する。具体的には、検出された人物に対し顔認証結果等を使って人物を特定し、過去に検出されている人物である場合は、その人物に対し発行済みの人物IDを特徴データ(図3[ID=xxxx])に付せばよい。また過去に検出されていない初めての人物である場合は、その人物に対し新たに人物IDを発行し、その人物IDを特徴データ(図3[ID=xxxx])に付せばよい。
以上により、人物を含む画像が入力されるたびに、人物ID毎に特徴データ(例えば図3参照)が生成され、特徴DB31に蓄積される(例えば図2参照)。
(2)不審人物の判定ステップ
警備装置1が警備を開始すると、その判定部40は、判定ファイル32と、人物毎の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。判定処理のタイミングとしては、例えば入力された画像(及び検知信号)に基づき何らかの人物が検出されたタイミングにおいて判定を行うこともできるし、一定の所定間隔で定期的に判定を行うこともできる。
(2)不審人物の判定ステップ
警備装置1が警備を開始すると、その判定部40は、判定ファイル32と、人物毎の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。判定処理のタイミングとしては、例えば入力された画像(及び検知信号)に基づき何らかの人物が検出されたタイミングにおいて判定を行うこともできるし、一定の所定間隔で定期的に判定を行うこともできる。
図13は、不審人物の判定処理を説明するフローチャートである。以下図面に沿って説明する。
S11:警備装置1の判定部40は、判定処理を行うべきタイミングあるか否かを判定する。ここでは画像解析処理部20により入力された画像(及び検知信号)に基づき人物が検出されたタイミングにおいて判定処理を開始するようにする。
S12:判定部40は、記憶部30から判定ファイル32を取得し、この内容の読み込みを行う。上述の如く、判定ファイル32は、人物の特徴データに基づき不審人物として検知すべき特徴が判定条件として定義されたファイルであり、判定処理に先立ってユーザにより予め作成され記憶部30に保持されている。
S13:判定部40は、特徴データDBから人物毎に集計されたと特徴データを参照する。対象の人物としては、特徴データDB内の全人物ではなく、上述の画像解析処理部20がそのときに入力された画像(及び検知信号)に基づき検出した人物を対象とする。そしてその同人物が検出され続ける限り(例えば同人物が建物内に居続ける限り)、判定処理を継続する。
S14:判定部40は、判定ファイル32に基づいて、検出された人物の特徴データを比較、照合し、その人物が不審人物として検知すべき人物であるか否かの判定を行う。具体的な判定方法は上述した通りである。
S15:判定部40は、不審人物として検知すべき人物であると判定したときには、出力部50に対し監視センタ3や警報器4へ警報の出力を指示する。つまり「制御するIO」に対応する出力対象先に対し、「制御内容」である開(ON)又は閉(OFF)の出力を行う。
なお、判定部40は画像解析処理部20により入力された画像(及び検知信号)に基づき人物が検出されたタイミングにおいて判定処理を開始するものの、開始直後においては、その瞬間時点では1画像(フレーム)のみしかまだ撮像されておらず、上述の関数(例えばFrameCount(x,y,z))との関係から、所定フレーム数の撮像がなされ十分な特徴データが蓄積されるまでは、判定ファイル32に基づく判定処理を実施できない。よってカメラ2aの撮像能力として1秒間に20〜30画像(フレーム)を撮像できる場合、判定部40は、人物検知直後から1秒なり2秒なり、判定処理が実施可能な特徴データが蓄積されるのを待ってから、判定処理を開始するようにすればよい。
(3)判定結果の出力ステップ
警備装置1は、判定ファイル32に基づく不審人物を検知すると、不審人物検知時に対する対応を行う。つまり不審人物を検知した場合、監視センタ3への通報や警報器4への出力を行う。
警備装置1は、判定ファイル32に基づく不審人物を検知すると、不審人物検知時に対する対応を行う。つまり不審人物を検知した場合、監視センタ3への通報や警報器4への出力を行う。
図14は、判定結果の出力処理を説明するフローチャートである。
S21:警備装置1の出力部50は、判定部40より出力指示の入力があったか否かを判定する。ここでいう出力指示は、「制御するIO」に対応する出力対象先に対し、「制御内容」である開(ON)又は閉(OFF)の出力を行う旨の指示である(S15)。
S22:出力部50は、出力指示に応じた制御を実施する。例えば監視センタ3に対し通報を出力したりまたこれを解除する。また例えば警報器4に対しアラートを鳴らせたり停止させる。
[具体的な設定方法]
以上、本実施形態に係る警備装置1について説明してきた。ここでは、同警備装置1をある設置先にて設置する場合の設定方法について言及する。具体的には、警備装置1に対しては保守・管理用アプリケーション(保守アプリという)が提供されており、現場技術員は、警備装置1を直接操作又は現場技術員の端末PCを介し、保守アプリを使用して簡便に設定作業を行い、警備装置1の運用を開始することができる。以下説明する。
以上、本実施形態に係る警備装置1について説明してきた。ここでは、同警備装置1をある設置先にて設置する場合の設定方法について言及する。具体的には、警備装置1に対しては保守・管理用アプリケーション(保守アプリという)が提供されており、現場技術員は、警備装置1を直接操作又は現場技術員の端末PCを介し、保守アプリを使用して簡便に設定作業を行い、警備装置1の運用を開始することができる。以下説明する。
図15は、保守アプリの設定画面例(その1)を示す。例えば病院の待合室にて、警備装置1を設置するにあたり、現場技術員は、保守アプリの設定画面を使用して基本設定を行うことができる。
画面右のマップ部1401においては、設置先の基本図面、椅子や棚等のオブジェクトの設置位置、カメラ位置及びカメラの撮像エリア(検知エリア)を設定する。画面左下の基本情報部1402には、カメラの諸設定情報、例えばカメラの名称、位置、向き、俯角、回転角度、エリア等のパラメータを入力する。また画面左上の映像表示部1403には、カメラで撮像されている映像が表示される。基本情報部1402のパラメータに合わせてカメラが動くと、マップ部1401のカメラも合わせて移動する。
ここでは例えば、2台のカメラのうち、1つ目のカメラを受付カウンター付近に設置する。また2つ目のカメラを入り口玄関付近に設置する。現場技術員は、保守アプリの設定画面において、カメラの位置等を調整のうえ、位置が決まると、その撮像範囲の名称設定を行うとともに、マップ部1401上から、対応するエリアの範囲を指定する。具体的に例えば、「エリア名」をそれぞれ「エリア1(受付)」と入力するとともに、マップ部1401上において、ドラッグ操作するなどして、入力した「エリア名」と対応するエリア1の範囲を指定する(図中、エリア1の楕円形状範囲)。エリア範囲が決まると、「範囲決定」ボタンを押下すればその範囲で決定される。
図16は、保守アプリの設定画面例(その2)を示す。使用目的に応じて現場技術員や、病院のシステム管理者又は警備担当者は、保守アプリの設定画面を使用して判定条件の設定(判定ファイル32の作成)を行うことができる。ここでは本設定画面を使用し、図10の判定ファイル32相当の判定条件を設定(作成)した。
具体的には、サングラスを着用している人物がエリア1(受付)にいる場合、警報器4を鳴らす。その後、この人物がエリア1外に移動した場合、警報器4を解除する。また、サングラスを着用している人物がエリア1に位置しているうえ、さらにきょろきょろしている場合、監視センタ3へ通報する。その後、エリア2(玄関)へ移動するなどして病院外へ立ち去った場合、監視センタ3への通報を停止する。
図中、「出力先」1501は、判定条件を満たした場合、制御の対象となる出力対象先を設定する項目である。ここでは、例えば1:警報(警報器)、2:通報(監視センタ)の中から選択できる。
「検知時の状態」1502は、判定条件を満たした場合、制御の対象となる出力対象に対する制御の内容を示す。「開」はON、「閉」はOFFと意味する。通常の場合は、「開」に設定しておく。例えば不審者を検知した場合には、警報を鳴らす(即ち「開」)ためである。
「検知対象項目」1503は、検知したい人物の特徴(又は行動)を設定する項目である。選択枝には、例えば「サングラス着用」、「場所から立ち去った」、「行動不審」等といったように、予めユーザにとって分かりやすい特徴表現を用意しておく。勿論、実際の判定ファイル32では、各特長表現に対応した特徴キーワード及びその組み合わせ等でもって、判定条件文が生成される。以下、不審人物検知関連の特徴表現とその特徴表現に対応する判定条件を、関数FrameCountの場合を用いて例示する。なお、ユーザに分かりやすいこれら特徴表現は、1つの特徴表現に対して、開と閉のセットが割り当てられるようになっている。従って、「検知対象項目」1503の選択肢の中から1の特徴表現を選択すれば、「判定条件文」が1セット自動的に生成されることになる。
「サングラス着用」
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z)
閉 Not(FrameCount(Stay[x],y,z))
「不審者」:
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z) and FramCount(Rove,y,z)
閉 FrameCount(Stay[x],y,z)
「場所」1504は、検知したい人物の所在・位置を設定する項目である。ここでは、2台のカメラの撮像範囲のうち、例えばエリア1(受付)、エリア2(玄関)の中から選択できる。
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z)
閉 Not(FrameCount(Stay[x],y,z))
「不審者」:
開 FrameCount(Sunglasses,y,z) and FrameCount(Stay[x],y,z) and FramCount(Rove,y,z)
閉 FrameCount(Stay[x],y,z)
「場所」1504は、検知したい人物の所在・位置を設定する項目である。ここでは、2台のカメラの撮像範囲のうち、例えばエリア1(受付)、エリア2(玄関)の中から選択できる。
「感度」1505は、検知の感度(精度)を設定する項目である。ここでは、例えば1(高)〜5(低)の中から選択できる。実際の判定ファイル32では、この感度は、関数FrameCountの場合、直近の規定フレーム数、特徴キーワードが「真」である指定回数に反映される。例えば感度「2」の場合、感度が上がると検知回数が緩くなるので、「FrameCount(Sunglasses,2,5)」などといったように反映できる。また例えば感度「1」の場合、「FrameCount(Sunglasses,1,5)」などといったように反映できる。
「ポップアップ」1506は、例えば警備装置1のモニタ画面において、判定条件を満たした場合、その旨をポップアップでユーザに知らせる機能のON/OFFを設定する項目である。
「無効」1507は、その設定行の有効/無効を設定する項目である。チェックボックスにチェックがされている行(判定条件)については、ないものとして取り扱われる。
以上のように、本実施形態に係る警備装置1の判定ファイル作成部60は、保守アプリの設定画面を介し、簡便に判定ファイル32の作成を行うことができる。特に、専門知識を有しない病院のシステム管理者又は警備担当者が、判定条件を設定・変更するのは困難であるが、このような保守アプリの設定画面を使用することにより、容易に判定条件の設定(判定ファイル32の作成)を行うことができる。
なおいうまでもなく、実施形態に係る保守アプリの設定画面を使用せずとも、判定ファイル32の作成を行うことができることは明らかである。例えば、保守アプリの設定画面の「検知対象項目」1503の特徴表現だけでは設定しきれない人物及びその特徴を設定したい場合、現場技術員は、警備装置1の記憶部30に保存される判定ファイル32を直接、作成又は編集することにより、いかようにもより柔軟で高度な判定条件を作成することが可能である。
[総括]
以上、本実施形態に係る警備装置1は、判定ファイルと個々の特徴項目毎に集計された特徴データとに基づき、判定ファイルにおいて定義されている特徴を有する人物を検知する。この判定ファイルでは、特徴データの個々の特徴項目に対応した特徴キーワードを組合せて使用できるため、ユーザの意図に適った検知用の判定条件の定義、作成を柔軟に行うことができる。また併せて設定画面からは、知識のないものであっても選択枝の中から、抽象的な特徴表現を選択するだけで、検知用の判定条件の定義、作成を容易に行うことができる。即ち、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することが可能となる。
以上、本実施形態に係る警備装置1は、判定ファイルと個々の特徴項目毎に集計された特徴データとに基づき、判定ファイルにおいて定義されている特徴を有する人物を検知する。この判定ファイルでは、特徴データの個々の特徴項目に対応した特徴キーワードを組合せて使用できるため、ユーザの意図に適った検知用の判定条件の定義、作成を柔軟に行うことができる。また併せて設定画面からは、知識のないものであっても選択枝の中から、抽象的な特徴表現を選択するだけで、検知用の判定条件の定義、作成を容易に行うことができる。即ち、不審人物を検知するに際し、設置先や使用目的に応じて柔軟性のある検知用の判定条件の定義、作成を行うことにより、設置先や使用目的を問わず汎用的な使用が可能な警備装置を提供することが可能となる。
なお、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。上述の実施形態においては、本発明をビル建物に適用した一例を示したが、家庭用の住居やマンション等にも同様に本発明を適用することができることはいうまでもない。
1 警備装置
2 データ入力装置
2a カメラ
2b センサ
3 監視センタ
4 警報器
10 入力部
20 画像解析処理部
30 記憶部
40 判定部
50 出力部
60 判定ファイル作成部
100 警備システム
2 データ入力装置
2a カメラ
2b センサ
3 監視センタ
4 警報器
10 入力部
20 画像解析処理部
30 記憶部
40 判定部
50 出力部
60 判定ファイル作成部
100 警備システム
Claims (5)
- 人物の特徴を示す複数の種類の特徴データ値を含む特徴データを人物毎に対応付けて記憶した第1記憶手段と、
前記特徴データ値が示す人物の特徴に対応する特徴キーワードの組合せから定義される判定条件を含む判定ファイルを記憶した第2記憶手段と、
前記特徴データの特徴データ値と前記判定ファイルの判定条件とのマッチ比較に基づき、該判定条件を満たすか否かの判定を行い、該判定条件を満たすとき、該特徴データに対応付けられた人物を検知人物として検知する判定手段と、
前記検知人物を検知したとき、出力先に対する制御信号を出力する出力手段とを有し、
前記判定ファイルは、種類の異なる複数の前記特徴キーワードが接続キーを用いて組合されて定義される判定条件と、該判定条件を満たすと判定されたときに人物検知を出力する出力先と、該出力先に対する制御信号の内容とにより構成されること、
を特徴とする警備装置。 - 前記判定ファイルを作成するための画面を提供するとともに、該画面において、検知すべき人物の特徴を示す特徴表現のうち1の特徴表現が選択されたとき、該特徴表現に予め対応付けられている前記特徴キーワード又は前記接続キーを用いて種類の異なる複数の前記特徴キーワードの組合せを作成し、作成した該特徴キーワード又は該特徴キーワードの組合せから定義される判定条件を含む判定ファイルを作成する判定ファイル作成手段とを有し、
前記判定ファイル作成手段により作成された判定ファイルは、前記第2記憶手段に記憶されること、
を特徴とする請求項1記載の警備装置。 - 前記判定手段は、1の特徴キーワード毎に、該特徴キーワードに対応する特徴データ値とのマッチ比較に基づき「真」又は「偽」の値を出力し、次いで出力された「真」又は「偽」の値が、前記接続キーで組み合わされたときに該判定条件を満たすか否かの判定を行い、満たす場合には「真」の値を、満たさない場合には「偽」の値を出力すること、
を特徴とする請求項1又は2記載の警備装置。 - 前記判定手段は、前記判定条件において所定関数が含まれている場合であって、1の特徴キーワード毎に、前記所定関数の第1パラメータで指定されている指定数分の特徴データの中から該特徴キーワードに対応する特徴データ値との比較に基づき、「真」又は「偽」の値を出力するとき、前記指定数分の特徴データのうち、前記所定関数の第2パラメータで指定されている指定数分の特徴データが前記特徴キーワードにマッチした場合には、「真」の値を出力すること、
を特徴とする請求項3記載の警備装置。 - 少なくともカメラからの画像を入力する入力手段と、
前記画像に対し画像解析処理を行うとともに、該画像内に解析された人物の特徴データを人物毎に集計する画像解析手段とを有し、
前記画像解析手段により人物毎に集計された特徴データは、前記第1記憶手段に記憶されること、
を特徴とする請求項1ないし4何れか一項記載の警備装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011074731A JP2012208793A (ja) | 2011-03-30 | 2011-03-30 | 警備装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011074731A JP2012208793A (ja) | 2011-03-30 | 2011-03-30 | 警備装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012208793A true JP2012208793A (ja) | 2012-10-25 |
Family
ID=47188449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011074731A Pending JP2012208793A (ja) | 2011-03-30 | 2011-03-30 | 警備装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012208793A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014174796A1 (ja) * | 2013-04-23 | 2014-10-30 | 日本電気株式会社 | 情報処理システム、情報処理方法および記憶媒体 |
JP2016062131A (ja) * | 2014-09-16 | 2016-04-25 | 日本電気株式会社 | 映像監視装置 |
WO2017029779A1 (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、人物画像表示方法、及びレポート作成方法 |
JP2017040983A (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、及び人物画像表示方法 |
JP2017040982A (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、及びレポート生成方法 |
JP2017045315A (ja) * | 2015-08-27 | 2017-03-02 | パナソニックIpマネジメント株式会社 | 警備システム及び人物画像表示方法 |
JP2018101317A (ja) * | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | 異常監視システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005129003A (ja) * | 2003-06-09 | 2005-05-19 | Hitachi Kokusai Electric Inc | 変化検出装置 |
JP2007280043A (ja) * | 2006-04-06 | 2007-10-25 | Mitsubishi Electric Corp | 映像監視検索システム |
JP2009205617A (ja) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | 警備装置および警備システム更新方法 |
JP2010122746A (ja) * | 2008-11-17 | 2010-06-03 | Secom Co Ltd | 画像監視装置 |
-
2011
- 2011-03-30 JP JP2011074731A patent/JP2012208793A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005129003A (ja) * | 2003-06-09 | 2005-05-19 | Hitachi Kokusai Electric Inc | 変化検出装置 |
JP2007280043A (ja) * | 2006-04-06 | 2007-10-25 | Mitsubishi Electric Corp | 映像監視検索システム |
JP2009205617A (ja) * | 2008-02-29 | 2009-09-10 | Sogo Keibi Hosho Co Ltd | 警備装置および警備システム更新方法 |
JP2010122746A (ja) * | 2008-11-17 | 2010-06-03 | Secom Co Ltd | 画像監視装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014174796A1 (ja) * | 2013-04-23 | 2014-10-30 | 日本電気株式会社 | 情報処理システム、情報処理方法および記憶媒体 |
US9666064B2 (en) | 2013-04-23 | 2017-05-30 | Nec Corporation | Information processing system, information processing method and storage medium |
JP2016062131A (ja) * | 2014-09-16 | 2016-04-25 | 日本電気株式会社 | 映像監視装置 |
US10223619B2 (en) | 2014-09-16 | 2019-03-05 | Nec Corporation | Video monitoring apparatus, control apparatus, control method, and non-transitory readable storage medium |
WO2017029779A1 (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、人物画像表示方法、及びレポート作成方法 |
JP2017040983A (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、及び人物画像表示方法 |
JP2017040982A (ja) * | 2015-08-17 | 2017-02-23 | パナソニックIpマネジメント株式会社 | 警備システム、及びレポート生成方法 |
JP2017045315A (ja) * | 2015-08-27 | 2017-03-02 | パナソニックIpマネジメント株式会社 | 警備システム及び人物画像表示方法 |
JP2018101317A (ja) * | 2016-12-21 | 2018-06-28 | ホーチキ株式会社 | 異常監視システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632292B2 (en) | Cooperative monitoring networks | |
JP5560397B2 (ja) | 自律型防犯警戒システム及び自律型防犯警戒方法 | |
JP2012208793A (ja) | 警備装置 | |
US10424175B2 (en) | Motion detection system based on user feedback | |
KR101133924B1 (ko) | 행동패턴 데이터베이스를 이용한 능동형 영상감시 시스템 및 그 방법 | |
CN105450983B (zh) | 产生虚拟全景缩略图的装置 | |
US20180315200A1 (en) | Monitoring system | |
KR102058452B1 (ko) | IoT 융합 지능형 영상분석 플랫폼 시스템 | |
US20170076576A1 (en) | Activity monitoring method and system | |
KR20040068195A (ko) | 적응성 환경 시스템 및 적응성 환경을 제공하는 방법 | |
US20070252693A1 (en) | System and method for surveilling a scene | |
US10891492B2 (en) | Method and a system for providing privacy enabled surveillance in a building | |
KR20190052190A (ko) | IoT를 이용한 취약계층 보호관리 시스템 | |
US20210365674A1 (en) | System and method for smart monitoring of human behavior and anomaly detection | |
US10964199B2 (en) | AI-based monitoring system for reducing a false alarm notification to a call center | |
TWM565361U (zh) | 金融交易詐騙偵測防範系統 | |
KR101466004B1 (ko) | 지능형 방범, 방재 및 사후처리 통합 트리플렉스 시스템 및 그 제어 방법 | |
CN107122743A (zh) | 安防监控方法、装置和电子设备 | |
US10834363B1 (en) | Multi-channel sensing system with embedded processing | |
KR20190044867A (ko) | 독거 세대 관제 장치 | |
JP2014067383A (ja) | 行動監視通報システム | |
KR102299704B1 (ko) | 재난환경 메타데이터 연계를 통한 스마트 딥러닝 영상감시 시스템 | |
KR20210043960A (ko) | IoT와 인공지능 기술을 이용한 행동인식 기반의 안전 감시 시스템 및 방법 | |
CN205847453U (zh) | 一种基于智能视频技术的智慧金睛人和物的行为识别*** | |
US20120169499A1 (en) | Method and system for monitoring physical security via detecting potential intrusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150519 |