JP2020078030A - システム、情報処理装置、情報処理方法及びプログラム - Google Patents
システム、情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2020078030A JP2020078030A JP2018211632A JP2018211632A JP2020078030A JP 2020078030 A JP2020078030 A JP 2020078030A JP 2018211632 A JP2018211632 A JP 2018211632A JP 2018211632 A JP2018211632 A JP 2018211632A JP 2020078030 A JP2020078030 A JP 2020078030A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- unit
- search
- video
- past
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】オブジェクトの追尾精度の向上を支援することを目的とする。【解決手段】指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受け付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索手段と、前記検索手段の検索において検索された前記指定オブジェクトから抽出される追加の特徴情報に基づいて、前記時点よりも後に前記撮影部により撮影された追尾用映像において、前記指定オブジェクトを追尾する追尾手段と、を有する。【選択図】図6
Description
本発明は、システム、情報処理装置、情報処理方法及びプログラムに関する。
近年、数百台を超えるネットワークカメラを用いた大規模な映像監視システムが登場している。このような監視システムにおいて、複数のネットワークカメラで撮影した特定のオブジェクト(例えば、人物、車両等)を追尾することが要求されている。特定のオブジェクトを追尾するために、オブジェクトの特徴情報(例えば、顔映像等)を用いて、複数のネットワークカメラで撮影したオブジェクトが同一人物か否かを判別する。その際、複数種類の特徴情報を用いることで、人物同定の精度、ひいては人物追尾の精度を高めることができる。
特許文献1には、オブジェクトの追尾を開始した後で、追尾したオブジェクトの領域からそのオブジェクトの新たな特徴情報を抽出し、抽出した新たな特徴情報を後の追尾に利用することが開示されている。
特許文献1には、オブジェクトの追尾を開始した後で、追尾したオブジェクトの領域からそのオブジェクトの新たな特徴情報を抽出し、抽出した新たな特徴情報を後の追尾に利用することが開示されている。
オブジェクトの追尾を開始した後で、追尾したオブジェクトの領域からオブジェクトの追尾に用いられる特徴情報を追加する場合、追尾用の特徴情報が不足し、オブジェクトを検出できない場合がある。例えば、追尾対象のオブジェクトの特徴情報が十分に用意できていない段階では、追尾対象のオブジェクトを検出できずに追尾ができない事態が生じうる。そのため、追尾対象のオブジェクトを見失う可能性が増大する。
本発明は、オブジェクトの追尾精度の向上を支援することを目的とする。
本発明は、オブジェクトの追尾精度の向上を支援することを目的とする。
本発明のシステムは、指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受け付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索手段と、前記検索手段の検索において検索された前記指定オブジェクトから抽出される追加の特徴情報に基づいて、前記時点よりも後に前記撮影部により撮影された追尾用映像において、前記指定オブジェクトを追尾する追尾手段と、を有する。
本発明によれば、オブジェクトの追尾精度の向上を支援することができる。
以下に、本発明の実施の形態を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、本実施形態の監視システムのシステム構成の一例を示す図である。監視システムは、複数のネットワークカメラを用いて、これらのネットワークカメラが配置された領域を監視し、指定されたオブジェクトを追尾するシステムである。本実施形態では、監視システムが追尾する対象のオブジェクトは、人物であるとする。ただし、監視システムは、人物の代わりに、車両や動物等の人物以外のオブジェクトを追尾することとしてもよい。監視システムは、複数のネットワークカメラ102、解析サーバ装置103、クライアントパーソナルコンピュータ(PC)104を含む。また、各要素は、ネットワーク101を介して、相互に通信可能に接続されている。
ネットワークカメラ102は、ネットワーク経由で映像を送信可能なネットワークカメラである。ネットワークカメラ102は、撮影部の一例である。ネットワークカメラ102は、ネットワーク101を介して、解析サーバ装置103に、撮影した映像を送信する。本実施形態では、ネットワークカメラ102は、周期的に連続して撮影した複数の静止映像を、周期的に解析サーバ装置103に送信する。ただし、ネットワークカメラ102は、周期的に連続して撮影した複数の静止映像から動映像を生成し、生成した動映像を、静止映像の代わりに、解析サーバ装置103に送信してもよい。以下では、映像とは、静止映像を指すこととする。
図1は、本実施形態の監視システムのシステム構成の一例を示す図である。監視システムは、複数のネットワークカメラを用いて、これらのネットワークカメラが配置された領域を監視し、指定されたオブジェクトを追尾するシステムである。本実施形態では、監視システムが追尾する対象のオブジェクトは、人物であるとする。ただし、監視システムは、人物の代わりに、車両や動物等の人物以外のオブジェクトを追尾することとしてもよい。監視システムは、複数のネットワークカメラ102、解析サーバ装置103、クライアントパーソナルコンピュータ(PC)104を含む。また、各要素は、ネットワーク101を介して、相互に通信可能に接続されている。
ネットワークカメラ102は、ネットワーク経由で映像を送信可能なネットワークカメラである。ネットワークカメラ102は、撮影部の一例である。ネットワークカメラ102は、ネットワーク101を介して、解析サーバ装置103に、撮影した映像を送信する。本実施形態では、ネットワークカメラ102は、周期的に連続して撮影した複数の静止映像を、周期的に解析サーバ装置103に送信する。ただし、ネットワークカメラ102は、周期的に連続して撮影した複数の静止映像から動映像を生成し、生成した動映像を、静止映像の代わりに、解析サーバ装置103に送信してもよい。以下では、映像とは、静止映像を指すこととする。
解析サーバ装置103は、ネットワークカメラ102から送信された映像を受信して保存し、受信した映像を解析する情報処理装置である。解析サーバ装置103は、例えば、PC、サーバ装置、タブレット装置等である。また、解析サーバ装置103は、映像の解析結果を、追尾結果としてクライアントPC104に送信する。本実施の形態では、指定されたオブジェクトの追尾結果として、オブジェクトの撮影画像を撮影したカメラ情報(カメラ名、およびカメラの設置位置)とともに送信する。
クライアントPC104は、ユーザからの要求を受け付けて、解析サーバ装置103から映像の解析結果を取得する情報処理装置である。クライアントPC104は、例えば、PC、タブレット装置等である。また、クライアントPC104は、ユーザからの要求を受け付けて、その要求に基づき、解析サーバ装置103に対して、映像の解析指示を行う。
クライアントPC104は、ユーザからの要求を受け付けて、解析サーバ装置103から映像の解析結果を取得する情報処理装置である。クライアントPC104は、例えば、PC、タブレット装置等である。また、クライアントPC104は、ユーザからの要求を受け付けて、その要求に基づき、解析サーバ装置103に対して、映像の解析指示を行う。
図2は、解析サーバ装置103のハードウェア構成の一例を示す図である。
解析サーバ装置103は、Central Processing Unit(CPU)201、Random Access Memory(RAM)202、ネットワークI/F203、ストレージ装置204を含む。また、解析サーバ装置103は、ディスプレイ205、キーボード206、マウス207、を含む。各要素は、バス208を介して、相互に通信可能に接続されている。
CPU201は、RAM202に格納されている制御プログラムに従って解析サーバ装置103全体の制御を行う中央演算装置である。RAM202は、CPU201が実行するプログラムや、文書や映像等のデータが展開される主記憶装置であり、揮発性のメモリである。ネットワークI/F203は、ネットワークを介した外部の装置との接続に用いられるインターフェースである。CPU201は、ネットワークI/F203を介して、外部の装置との間でデータ等の送受信を行う。
ストレージ装置204は、ネットワークカメラ102により撮影された映像等の処理対象のデータ、RAM202に展開するための各種プログラム、各種設定情報等を記憶する磁気ディスクやフラッシュメモリ等の記憶装置であり、不揮発性のメモリである。ディスプレイ205は、映像の解析結果等の情報を表示する表示装置である。キーボード206は、ユーザからの情報の入力を受付けるためのキーボードである。マウス207は、ユーザからの情報の入力を受付けるためのポインティングデバイスである。キーボード206とマウス207とそれぞれは、解析サーバ装置103の入力部の一例である。
解析サーバ装置103は、Central Processing Unit(CPU)201、Random Access Memory(RAM)202、ネットワークI/F203、ストレージ装置204を含む。また、解析サーバ装置103は、ディスプレイ205、キーボード206、マウス207、を含む。各要素は、バス208を介して、相互に通信可能に接続されている。
CPU201は、RAM202に格納されている制御プログラムに従って解析サーバ装置103全体の制御を行う中央演算装置である。RAM202は、CPU201が実行するプログラムや、文書や映像等のデータが展開される主記憶装置であり、揮発性のメモリである。ネットワークI/F203は、ネットワークを介した外部の装置との接続に用いられるインターフェースである。CPU201は、ネットワークI/F203を介して、外部の装置との間でデータ等の送受信を行う。
ストレージ装置204は、ネットワークカメラ102により撮影された映像等の処理対象のデータ、RAM202に展開するための各種プログラム、各種設定情報等を記憶する磁気ディスクやフラッシュメモリ等の記憶装置であり、不揮発性のメモリである。ディスプレイ205は、映像の解析結果等の情報を表示する表示装置である。キーボード206は、ユーザからの情報の入力を受付けるためのキーボードである。マウス207は、ユーザからの情報の入力を受付けるためのポインティングデバイスである。キーボード206とマウス207とそれぞれは、解析サーバ装置103の入力部の一例である。
CPU201は、ユーザによりキーボード206やマウス207を介して入力された情報に応じた情報をディスプレイ205に表示する。
CPU201は、ストレージ装置204からRAM202に展開されたOS(Operating System)のプログラムを実行し、OSの機能の一部を必要に応じて呼び出して使用する。また、CPU201は、RAM202に展開されているコンピュータプログラムに基づいて、RAM202に一時記憶するデータの内容の読み書きを行なったり、ストレージ装置204に対するデータの読み書きを行なったりする。また、CPU201は、RAM202に展開されているコンピュータプログラムに基づいて、ネットワークI/F203を介して他の装置との間でのデータの送受信を行なう。また、CPU201は、RAM202に展開されているプログラムに基づいて、キーボード206やマウス207を介した情報の入力を受け付けたり、ディスプレイ205に情報を出力することで表示を行なったりする。
CPU201は、ストレージ装置204からRAM202に展開されたOS(Operating System)のプログラムを実行し、OSの機能の一部を必要に応じて呼び出して使用する。また、CPU201は、RAM202に展開されているコンピュータプログラムに基づいて、RAM202に一時記憶するデータの内容の読み書きを行なったり、ストレージ装置204に対するデータの読み書きを行なったりする。また、CPU201は、RAM202に展開されているコンピュータプログラムに基づいて、ネットワークI/F203を介して他の装置との間でのデータの送受信を行なう。また、CPU201は、RAM202に展開されているプログラムに基づいて、キーボード206やマウス207を介した情報の入力を受け付けたり、ディスプレイ205に情報を出力することで表示を行なったりする。
CPU201が、ストレージ装置204に記憶されたプログラムにしたがって処理を実行することで、図3、8で後述する解析サーバ装置103の機能、図5〜7、9で後述するフローチャートの処理等が実現される。
本実施形態では、クライアントPC104のハードウェア構成は、図2で説明した解析サーバ装置103のハードウェア構成と同様であるとする。クライアントPC104のCPUが、クライアントPC104のストレージ装置に記憶されたプログラムにしたがって処理を実行することで、クライアントPC104の機能、クライアントPC104の処理が実現される。ただし、クライアントPC104は、解析サーバ装置103と同様のハードウェア構成でなくてもよい。例えば、クライアントPC104は、ディスプレイ205とキーボード206とマウス207との代わりに、タッチパネルを有することとしてもよい。
本実施形態では、クライアントPC104のハードウェア構成は、図2で説明した解析サーバ装置103のハードウェア構成と同様であるとする。クライアントPC104のCPUが、クライアントPC104のストレージ装置に記憶されたプログラムにしたがって処理を実行することで、クライアントPC104の機能、クライアントPC104の処理が実現される。ただし、クライアントPC104は、解析サーバ装置103と同様のハードウェア構成でなくてもよい。例えば、クライアントPC104は、ディスプレイ205とキーボード206とマウス207との代わりに、タッチパネルを有することとしてもよい。
図3は、解析サーバ装置103の機能構成の一例を示す図である。
解析サーバ装置103は、映像受信部301、映像管理部302、指示受信部303、追尾対象取得部304、特徴管理部305、処理管理部306、追尾部307及び検索部308を含む。また、追尾部307は、現在映像取得部309、特徴取得部310、検出部311、抽出部312、照合部313及び追加部314を含む。また、検索部308は、過去映像取得部315、特徴取得部316、検出部317、抽出部318、照合部319及び追加部320を含む。
映像受信部301は、ネットワークカメラ102から送信される映像を受信する。映像管理部302は、映像受信部301により受信された映像をストレージ装置204に記憶し、管理する。また、映像管理部302は、要求に応じて管理している映像を要求元に送信する。指示受信部303は、ユーザからのオブジェクトの追尾の開始指示を受信する。
解析サーバ装置103は、映像受信部301、映像管理部302、指示受信部303、追尾対象取得部304、特徴管理部305、処理管理部306、追尾部307及び検索部308を含む。また、追尾部307は、現在映像取得部309、特徴取得部310、検出部311、抽出部312、照合部313及び追加部314を含む。また、検索部308は、過去映像取得部315、特徴取得部316、検出部317、抽出部318、照合部319及び追加部320を含む。
映像受信部301は、ネットワークカメラ102から送信される映像を受信する。映像管理部302は、映像受信部301により受信された映像をストレージ装置204に記憶し、管理する。また、映像管理部302は、要求に応じて管理している映像を要求元に送信する。指示受信部303は、ユーザからのオブジェクトの追尾の開始指示を受信する。
追尾対象取得部304は、追尾対象の人物の特徴量を取得し、取得した特徴量の管理を特徴管理部305に依頼する。オブジェクトの特徴量とは、オブジェクトの何等かの特徴を示す情報であり、映像から得られる情報である。オブジェクトの特徴量は、オブジェクトの特徴を示す特徴情報の一例である。人物の特徴量としては、例えば、顔の各器官の位置や大きさや、人物の体格や上半身、下半身の服の色等がある。以下では、人物の特徴量のうち、顔の各器官の位置や大きさを、顔特徴量とする。また、以下では、人物の特徴量のうち、体格や上半身、下半身の服の色を、人体特徴量とする。
本実施形態では、追尾対象取得部304は、ユーザによる入力装置の操作を介して、ネットワークカメラ102により撮影された映像内に追尾対象の人物の領域の指定を受付ける。以下では、追尾対象の人物を、追尾対象人物とする。追尾対象人物は、追尾対象として指定された指定オブジェクトの一例である。そして、追尾対象取得部304は、指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得する。
特徴管理部305は、人物毎の特徴量を記憶装置としてのストレージ装置204に格納し、人物毎に特徴量を管理する。また、特徴管理部305は、要求に応じて、要求された特徴量を要求元に送信する。処理管理部306は、追尾部307及び検索部308における処理の開始、終了を管理する。処理管理部306は、指示受信部303により追尾の開始指示が受信された場合、追尾部307及び検索部308に処理の開始を指示する。また、処理管理部306は、追尾部307及び検索部308の処理を終了するか否かを判断し、追尾部307及び検索部308に処理の終了を指示する。
本実施形態では、追尾対象取得部304は、ユーザによる入力装置の操作を介して、ネットワークカメラ102により撮影された映像内に追尾対象の人物の領域の指定を受付ける。以下では、追尾対象の人物を、追尾対象人物とする。追尾対象人物は、追尾対象として指定された指定オブジェクトの一例である。そして、追尾対象取得部304は、指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得する。
特徴管理部305は、人物毎の特徴量を記憶装置としてのストレージ装置204に格納し、人物毎に特徴量を管理する。また、特徴管理部305は、要求に応じて、要求された特徴量を要求元に送信する。処理管理部306は、追尾部307及び検索部308における処理の開始、終了を管理する。処理管理部306は、指示受信部303により追尾の開始指示が受信された場合、追尾部307及び検索部308に処理の開始を指示する。また、処理管理部306は、追尾部307及び検索部308の処理を終了するか否かを判断し、追尾部307及び検索部308に処理の終了を指示する。
追尾部307は、追尾対象人物の追尾を行う。追尾部307は、ネットワークカメラ102により撮影された最新の映像から追尾対象人物を検出した場合、検出した追尾対象人物の領域から追尾対象人物の特徴量を抽出し、抽出した特徴量の管理を特徴管理部305に依頼する。本実施形態では、監視システムに含まれる複数のネットワークカメラ102それぞれは、予め定められた間隔で周期的に映像を撮影(例えば、1秒間に15回撮影)し、映像を撮影する度に、撮影した映像を解析サーバ装置103に送信する。そのため、解析サーバ装置103は、複数のネットワークカメラ102それぞれから、周期的に映像を受信し続ける。解析サーバ装置103がネットワークカメラ102から受信した映像のうち最新の映像は、疑似的に処理時点(現在)の環境が撮影された映像とみなすことができる。以下では、解析サーバ装置103が単一のネットワークカメラ102から受信した映像のうち最新の映像を、現在映像とする。また、以下では、解析サーバ装置103が単一のネットワークカメラ102から受信した映像のうち最新の映像以外の映像を、過去映像とする。
検索部308は、追尾対象人物を過去映像から検索する。検索部308は、過去映像から追尾対象人物を検出した場合、検出した追尾対象人物の領域から追尾対象人物の特徴量を抽出し、抽出した特徴量の管理を特徴管理部305に依頼する。
検索部308は、追尾対象人物を過去映像から検索する。検索部308は、過去映像から追尾対象人物を検出した場合、検出した追尾対象人物の領域から追尾対象人物の特徴量を抽出し、抽出した特徴量の管理を特徴管理部305に依頼する。
現在映像取得部309は、映像管理部302に対して、現在映像を要求することで、現在映像を取得する。特徴取得部310は、特徴管理部305に対して、追尾対象人物の特徴量を要求することで、追尾対象人物の特徴量を取得する。検出部311は、現在映像取得部309により取得された現在映像から追尾対象人物を検出する。抽出部312は、現在映像における検出部311により検出された追尾対象人物の領域から、追尾対象人物の特徴量を抽出する。照合部313は、特徴取得部310により取得された特徴量と、抽出部312により抽出された特徴量と、を照合する。追加部314は、抽出部312により抽出された追尾対象人物の特徴量の管理を、特徴管理部305に依頼する。
過去映像取得部315は、映像管理部302に対して、過去映像を要求することで、過去映像を取得する。特徴取得部316は、特徴管理部305に対して、追尾対象人物の特徴量を要求することで、追尾対象人物の特徴量を取得する。検出部317は、過去映像取得部315により取得された過去映像から追尾対象人物を検出する。抽出部318は、過去映像における検出部317により検出された追尾対象人物の領域から、追尾対象人物の特徴量を抽出する。照合部319は、特徴取得部316により取得された特徴量と、抽出部318により抽出された特徴量と、を照合する。追加部320は、抽出部318により抽出された追尾対象人物の特徴量の管理を、特徴管理部305に依頼する。
過去映像取得部315は、映像管理部302に対して、過去映像を要求することで、過去映像を取得する。特徴取得部316は、特徴管理部305に対して、追尾対象人物の特徴量を要求することで、追尾対象人物の特徴量を取得する。検出部317は、過去映像取得部315により取得された過去映像から追尾対象人物を検出する。抽出部318は、過去映像における検出部317により検出された追尾対象人物の領域から、追尾対象人物の特徴量を抽出する。照合部319は、特徴取得部316により取得された特徴量と、抽出部318により抽出された特徴量と、を照合する。追加部320は、抽出部318により抽出された追尾対象人物の特徴量の管理を、特徴管理部305に依頼する。
図4は、本実施形態の監視システムの処理の概要を説明する図である。
映像ストリーム401を構成する映像フレームのそれぞれは、各時刻において、何れか1つのネットワークカメラ102により撮影された映像ストリームである。オブジェクト情報402のそれぞれは、各時刻において、特徴管理部305により管理されている追尾対象人物のどの部分の特徴量であるかを示している。時間の流れは、T1、T2、T3、T4の順であるとする。即ち、時刻T1が、T1、T2、T3、T4のうちで、最も過去の時刻である。時刻T4が、T1、T2、T3、T4のうちで、最も後の時刻である。映像ストリーム401の時刻T1に対応する映像は、ネットワークカメラ102のうちのカメラ1により得られた映像であり、時刻T2、T3、T4に対応する映像は、ネットワークカメラ102のうちのカメラ2により得られた映像である。ここでは、カメラ1により得られた映像に写る人物403が時刻T2、T3、T4においてカメラ2により得られた映像にも写っているものとする。
映像ストリーム401を構成する映像フレームのそれぞれは、各時刻において、何れか1つのネットワークカメラ102により撮影された映像ストリームである。オブジェクト情報402のそれぞれは、各時刻において、特徴管理部305により管理されている追尾対象人物のどの部分の特徴量であるかを示している。時間の流れは、T1、T2、T3、T4の順であるとする。即ち、時刻T1が、T1、T2、T3、T4のうちで、最も過去の時刻である。時刻T4が、T1、T2、T3、T4のうちで、最も後の時刻である。映像ストリーム401の時刻T1に対応する映像は、ネットワークカメラ102のうちのカメラ1により得られた映像であり、時刻T2、T3、T4に対応する映像は、ネットワークカメラ102のうちのカメラ2により得られた映像である。ここでは、カメラ1により得られた映像に写る人物403が時刻T2、T3、T4においてカメラ2により得られた映像にも写っているものとする。
図4に示すように、監視システムは、時刻T1にカメラ1により撮影された映像において、ユーザから人物403の追尾の指示を受け付ける。そして、監視システムは、人物403の特徴量404を取得し、特徴管理部305は、特徴量404を管理する。ここで、時刻T1にカメラ1により撮影された映像では、追尾対象人物の体が隠れているため、監視システムは、顔特徴量のみを特徴量404として抽出する。オブジェクト情報402に示すように、特徴管理部305は、時刻T1においては、追尾対象人物の特徴量として特徴量404を管理する。
その後、監視システムは、時刻T2にカメラ2により撮影された映像から検出した人物の顔領域405から特徴量を抽出する。そして、監視システムは、抽出した特徴量と、特徴管理部305により管理されている特徴量404と、を照合することで、顔領域405に対応する人物が追尾対象人物(人物403)であることを認識する。ここで、時刻T2にカメラ2により撮影された映像には、追尾対象人物の上半身の正面が映っているため、監視システムは、正面向きの上半身の人体特徴量(特徴量406)を抽出する。そして、オブジェクト情報402に示すように、特徴管理部305は、時刻T2においては、追尾対象人物の特徴量として、特徴量404、406を管理する。
その後、監視システムは、時刻T2にカメラ2により撮影された映像から検出した人物の顔領域405から特徴量を抽出する。そして、監視システムは、抽出した特徴量と、特徴管理部305により管理されている特徴量404と、を照合することで、顔領域405に対応する人物が追尾対象人物(人物403)であることを認識する。ここで、時刻T2にカメラ2により撮影された映像には、追尾対象人物の上半身の正面が映っているため、監視システムは、正面向きの上半身の人体特徴量(特徴量406)を抽出する。そして、オブジェクト情報402に示すように、特徴管理部305は、時刻T2においては、追尾対象人物の特徴量として、特徴量404、406を管理する。
その後、監視システムは、時刻T3にカメラ2により撮影された映像から検出した人物の体領域から人体特徴量を抽出する。そして、監視システムは、抽出した人体特徴量と、特徴管理部305により管理されている特徴量404,406と、を照合することで、この体領域に対応する人物が追尾対象人物である人物403であることを認識する。ここで、時刻T3にカメラ2により撮影された映像には、人物403の上半身の右側面が映っている。監視システムは、右側面向きの上半身の人体特徴量(特徴量407)を抽出する。そして、オブジェクト情報402に示すように、特徴管理部305は、時刻T3においては、特徴量404、406、407を管理する。
同様に、監視システムは、時刻T4にカメラ2により撮影された映像においても、追尾対象人物を検出し、追尾対象人物の映像から新たな人体特徴量が抽出されると、これを管理する。特徴量408が新たに抽出された場合には、図4に示すように、時刻T4においては、特徴管理部305は、特徴量404、406、407に加えて、更に特徴量408を管理する。
同様に、監視システムは、時刻T4にカメラ2により撮影された映像においても、追尾対象人物を検出し、追尾対象人物の映像から新たな人体特徴量が抽出されると、これを管理する。特徴量408が新たに抽出された場合には、図4に示すように、時刻T4においては、特徴管理部305は、特徴量404、406、407に加えて、更に特徴量408を管理する。
仮に、カメラ2が、時刻T2、T3に人物403を撮影せずに、時刻T4に人物403の背面向きの上半身の状態で撮影を開始したとする。この場合、時刻T4において、管理される追尾対象人物の特徴量は、顔特徴量である特徴量404のみである。しかしながら、時刻T4にカメラ2により撮影された映像には、人物403の顔は撮影されていない。すなわち、顔以外の部位の特徴量を保持していないため、この場合、時刻T4において人物403の追尾が失敗することとなる。
このような事態に対応して、本実施形態の監視システムの検索部308は、追尾指示の時点よりも過去に撮影された過去映像から、追尾対象人物の特徴量のうちの現在有していない部位の特徴量を取得し、追尾対象人物の追尾用の特徴量として追加する。これにより、監視システムは、追尾用の特徴量が不足して追尾ができない事態の発生を低減できることとなる。
このような事態に対応して、本実施形態の監視システムの検索部308は、追尾指示の時点よりも過去に撮影された過去映像から、追尾対象人物の特徴量のうちの現在有していない部位の特徴量を取得し、追尾対象人物の追尾用の特徴量として追加する。これにより、監視システムは、追尾用の特徴量が不足して追尾ができない事態の発生を低減できることとなる。
図5は、解析サーバ装置103の処理の一例を示すフローチャートである。図5を用いて、解析サーバ装置103が実行する人物追尾処理について説明する。
S501において、指示受信部303は、ユーザによる入力部を介した操作に基づいて、追尾対象人物の追尾開始の指示を受付ける。より具体的には、指示受信部303は、ネットワークカメラ102により撮影された映像に対する人物の領域の指定を受付けることで、その領域に対応する人物を追尾対象人物とした追尾開始の指示を受付ける。以下では、追尾対象人物の追尾開始の指示を受付けた時点を、指示時点とする。
S502において、追尾対象取得部304は、追尾対象人物の特徴量を取得する。より具体的には、追尾対象取得部304は、S501で指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得する。そして、追尾対象取得部304は、取得した特徴量の管理を特徴管理部305に依頼する。
S503において、処理管理部306は、追尾部307と検索部308とに対して、処理の開始を同時に指示する。これにより、処理管理部306は、追尾部307による現在撮影している映像からの追尾用の特徴量を追加する処理と、検索部308による過去に記録された映像からの追尾用の特徴量を追加する処理と、を並行して実行させるように制御する。
S501において、指示受信部303は、ユーザによる入力部を介した操作に基づいて、追尾対象人物の追尾開始の指示を受付ける。より具体的には、指示受信部303は、ネットワークカメラ102により撮影された映像に対する人物の領域の指定を受付けることで、その領域に対応する人物を追尾対象人物とした追尾開始の指示を受付ける。以下では、追尾対象人物の追尾開始の指示を受付けた時点を、指示時点とする。
S502において、追尾対象取得部304は、追尾対象人物の特徴量を取得する。より具体的には、追尾対象取得部304は、S501で指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得する。そして、追尾対象取得部304は、取得した特徴量の管理を特徴管理部305に依頼する。
S503において、処理管理部306は、追尾部307と検索部308とに対して、処理の開始を同時に指示する。これにより、処理管理部306は、追尾部307による現在撮影している映像からの追尾用の特徴量を追加する処理と、検索部308による過去に記録された映像からの追尾用の特徴量を追加する処理と、を並行して実行させるように制御する。
S504において、処理管理部306は、追尾部307の処理についての予め定められた追尾終了条件を満たすか否かを判定する。本実施形態では、追尾終了条件は、「追尾対象人物が最後にネットワークカメラ102に撮影されてから一定時間経過したこと」とする。処理管理部306は、追尾部307により現在映像から追尾対象人物が最後に検出されてからの経過時間をカウントし、カウントした時間が予め定められた閾値以上となった場合、追尾終了条件が満たされたと判定する。また、処理管理部306は、カウントした経過時間が、予め定められた閾値未満である場合、追尾終了条件が満たされていないと判定する。
処理管理部306は、追尾終了条件を満たすと判定した場合、追尾部307と検索部308とに処理の終了を指示する。検索部308にも指示の終了指示を行う理由は、追尾処理を行わない場合には過去映像から追尾対象人物の特徴量を取得する必要がないからである。
処理管理部306は、追尾終了条件を満たすと判定した場合、追尾部307と検索部308とに処理の終了を指示する。検索部308にも指示の終了指示を行う理由は、追尾処理を行わない場合には過去映像から追尾対象人物の特徴量を取得する必要がないからである。
また、処理管理部306は、追尾終了条件を満たしていないと判定した場合、検索部308の処理についての予め定められた終了条件を満たすか否かを判定する。以下では、検索部308の処理についての予め定められた終了条件を、検索終了条件とする。本実施形態では、検索終了条件は、「追尾対象人物について予め定められた数以上の種類の特徴量を取得できたこと」である。処理管理部306は、特徴管理部305により管理されている追尾対象人物の特徴量の数が、予め定められた閾値以上である場合、検索終了条件が満たされたと判定する。また、処理管理部306は、特徴管理部305により管理されている追尾対象人物の特徴量の数が、予め定められた閾値未満である場合、検索終了条件が満たされていないと判定する。
処理管理部306は、検索終了条件が満たされていると判定した場合、検索部308に処理の終了を指示する。また、処理管理部306は、追尾部307に対して、追尾対象人物の特徴量の追加を停止するよう指示する。これにより、追加部314は、特徴管理部305への特徴量の管理の依頼を停止する。このようにすることで、不要な特徴量を更に追加する処理に係る負担を軽減できる。
処理管理部306は、以上の処理を、予め定められた間隔(例えば、30秒間隔等)で繰り返す。
処理管理部306は、追尾終了条件が満たされ、追尾部307と検索部308とに処理の終了を指示した後で、処理をS505に進める。
処理管理部306は、検索終了条件が満たされていると判定した場合、検索部308に処理の終了を指示する。また、処理管理部306は、追尾部307に対して、追尾対象人物の特徴量の追加を停止するよう指示する。これにより、追加部314は、特徴管理部305への特徴量の管理の依頼を停止する。このようにすることで、不要な特徴量を更に追加する処理に係る負担を軽減できる。
処理管理部306は、以上の処理を、予め定められた間隔(例えば、30秒間隔等)で繰り返す。
処理管理部306は、追尾終了条件が満たされ、追尾部307と検索部308とに処理の終了を指示した後で、処理をS505に進める。
S505において、処理管理部306は、追尾部307と検索部308との処理が終了するまで待機する。処理管理部306は、追尾部307と検索部308との処理が終了したら、図5の処理を終了する。
図6(a)は、解析サーバ装置103の追尾部307による追尾処理を示すフローチャートである。追尾部307は、S503における処理管理部306の指示に従い追尾処理を実行する。
S601において、現在映像取得部309が、映像管理部302に対して、複数のネットワークカメラ102それぞれに対応する現在映像(1フレーム分の映像)を要求することで、複数のネットワークカメラ102それぞれに対応する現在映像を取得する。S601で取得される現在映像は、指示時点よりも後に撮影された映像となる。S601で取得される現在映像は、オブジェクトの追尾に用いられる追尾用映像の一例である。
S602において、追尾部307は、S601で取得した現在映像に基づいて、追尾用の特徴量を追加する処理である特徴量追加処理を実行する。特徴量追加処理については、図7で後述する。
S603において、追尾部307は、処理管理部306から処理の終了指示を受付けたか否かを判定する。追尾部307は、処理の終了指示を受付けたと判定した場合、図6(a)の処理を終了し、処理の終了指示を受付けていないと判定した場合、処理をS601に進める。
S601において、現在映像取得部309が、映像管理部302に対して、複数のネットワークカメラ102それぞれに対応する現在映像(1フレーム分の映像)を要求することで、複数のネットワークカメラ102それぞれに対応する現在映像を取得する。S601で取得される現在映像は、指示時点よりも後に撮影された映像となる。S601で取得される現在映像は、オブジェクトの追尾に用いられる追尾用映像の一例である。
S602において、追尾部307は、S601で取得した現在映像に基づいて、追尾用の特徴量を追加する処理である特徴量追加処理を実行する。特徴量追加処理については、図7で後述する。
S603において、追尾部307は、処理管理部306から処理の終了指示を受付けたか否かを判定する。追尾部307は、処理の終了指示を受付けたと判定した場合、図6(a)の処理を終了し、処理の終了指示を受付けていないと判定した場合、処理をS601に進める。
図6(b)は、解析サーバ装置103の検索部308による検索処理を示すフローチャートである。検索部308は、処理管理部306から処理の開始指示を受信した場合に検索処理を実行する。
S604において、過去映像取得部315は、映像管理部302に対して、複数のネットワークカメラ102それぞれに対応する1フレーム分の過去映像を要求することで、複数のネットワークカメラ102それぞれに対応する過去映像を取得する。過去映像取得部315は、過去映像として、指示時点よりも前に撮影された映像を取得する。本実施形態では、過去映像取得部315は、過去映像として取得したことがない過去の映像のうち、撮影時点が指示時点に最も近いものを、過去映像として取得する。
S605において、検索部308は、S604で取得した過去映像に基づいて、特徴量追加処理を実行する。
S606において、検索部308は、処理管理部306から処理の終了指示を受付けたか否かを判定する。検索部308は、処理の終了指示を受付けたと判定した場合、図6(b)の処理を終了し、処理の終了指示を受付けていないと判定した場合、処理をS604に進める。
このように、本実施形態では、追尾部307と検索部308とは、処理管理部306の制御の下で、それぞれS602の処理と、S605の処理と、を同時に開始する。
S604において、過去映像取得部315は、映像管理部302に対して、複数のネットワークカメラ102それぞれに対応する1フレーム分の過去映像を要求することで、複数のネットワークカメラ102それぞれに対応する過去映像を取得する。過去映像取得部315は、過去映像として、指示時点よりも前に撮影された映像を取得する。本実施形態では、過去映像取得部315は、過去映像として取得したことがない過去の映像のうち、撮影時点が指示時点に最も近いものを、過去映像として取得する。
S605において、検索部308は、S604で取得した過去映像に基づいて、特徴量追加処理を実行する。
S606において、検索部308は、処理管理部306から処理の終了指示を受付けたか否かを判定する。検索部308は、処理の終了指示を受付けたと判定した場合、図6(b)の処理を終了し、処理の終了指示を受付けていないと判定した場合、処理をS604に進める。
このように、本実施形態では、追尾部307と検索部308とは、処理管理部306の制御の下で、それぞれS602の処理と、S605の処理と、を同時に開始する。
図7は、S602において追尾部307が実行する特徴量追加処理を示すフローチャートである。
S701において、特徴取得部310は、特徴管理部305に対して追尾対象人物の特徴量を要求することで、追尾対象人物の特徴量を取得する。
S702において、検出部311は、S601で取得された現在映像から人物を検出する。
S703において、抽出部312は、S702で検出された全ての人物それぞれについて特徴量を抽出する。
S704において、照合部313は、S703で抽出された全ての特徴量それぞれと、S701で取得された追尾対象人物の特徴量と、を照合し、2つの特徴量の類似の度合を示す照合度を取得する。例えば、顔の特徴量を用いて照合処理を行う。
S701において、特徴取得部310は、特徴管理部305に対して追尾対象人物の特徴量を要求することで、追尾対象人物の特徴量を取得する。
S702において、検出部311は、S601で取得された現在映像から人物を検出する。
S703において、抽出部312は、S702で検出された全ての人物それぞれについて特徴量を抽出する。
S704において、照合部313は、S703で抽出された全ての特徴量それぞれと、S701で取得された追尾対象人物の特徴量と、を照合し、2つの特徴量の類似の度合を示す照合度を取得する。例えば、顔の特徴量を用いて照合処理を行う。
S705において、照合部313は、S704で取得した照合度に基づいて、現在映像中に追尾対象人物が存在するか否かを判定する。より具体的には、照合部313は、S704で取得した照合度において、予め定められた閾値以上のものが存在すれば、現在映像中に追尾対象人物が存在すると判定し、存在しなければ、現在映像中に追尾対象人物が存在しないと判定する。
照合部313は、現在映像中に追尾対象人物が存在すると判定した場合、現在映像中の追尾対象人物の領域を追尾結果として決定し、処理をS706に進める。その場合、追尾部307は、追尾結果の領域を、現在映像と重畳してディスプレイ205に表示する。照合部313は、現在映像中に追尾対象人物が存在しないと判定した場合、図7の処理を終了する。
S706において、追加部314は、S705で存在すると判定された追尾対象人物の領域のうち、照合に用いられていない部位に対応する領域から抽出された特徴量を、追尾対象人物の特徴量として特定する。そして、追加部314は、特徴管理部305を介して、新たに得られた特徴量を追尾対象人物の追尾に用いられる特徴量として、追尾対象の人物に対応付けてストレージ装置204に格納することで、特徴量を追加する。
このように、追尾部307は、S602の処理を図6(a)のループ処理で繰り返す際に、時間軸上未来方向のフレームを取得し、取得したフレームから追尾対象人物を検出することで、追尾対象人物を追尾する。
照合部313は、現在映像中に追尾対象人物が存在すると判定した場合、現在映像中の追尾対象人物の領域を追尾結果として決定し、処理をS706に進める。その場合、追尾部307は、追尾結果の領域を、現在映像と重畳してディスプレイ205に表示する。照合部313は、現在映像中に追尾対象人物が存在しないと判定した場合、図7の処理を終了する。
S706において、追加部314は、S705で存在すると判定された追尾対象人物の領域のうち、照合に用いられていない部位に対応する領域から抽出された特徴量を、追尾対象人物の特徴量として特定する。そして、追加部314は、特徴管理部305を介して、新たに得られた特徴量を追尾対象人物の追尾に用いられる特徴量として、追尾対象の人物に対応付けてストレージ装置204に格納することで、特徴量を追加する。
このように、追尾部307は、S602の処理を図6(a)のループ処理で繰り返す際に、時間軸上未来方向のフレームを取得し、取得したフレームから追尾対象人物を検出することで、追尾対象人物を追尾する。
また、S605で検索部308が実行する特徴量追加処理は、図7で説明した処理と同様の手順の処理である。ただし、S605の処理においては、現在映像に替えて過去映像を特徴量抽出の対象とする。例えば、図4では、T1より前の時刻に撮影された映像から顔以外の部位の特徴量を抽出することになる。
このように、検索部308は、S605の処理を図6(b)のループ処理で繰り返す際に、時間軸上過去方向のフレームを取得し、取得したフレームから追尾対象人物を検索する。
このように、検索部308は、S605の処理を図6(b)のループ処理で繰り返す際に、時間軸上過去方向のフレームを取得し、取得したフレームから追尾対象人物を検索する。
本実施形態では、追尾部307と検索部308とは、それぞれ、現在映像1フレーム分に対してのS602の処理と、過去映像1フレーム分に対してのS605の処理と、を並行して実行することとした。ただし、追尾部307と検索部308との2つの処理のタイミングは、実施形態に限定されるものではない。
例えば、追尾部307と検索部308とは、並行せずに独立に、それぞれ、S602の処理とS605の処理とを実行することとしてもよい。追尾部307は、新たな現在映像が取得されるまで、新たにS602の処理を実行することができない。しかし、過去映像は指示時点において複数フレーム分存在するため、検索部308は、新たな現在映像の取得を待つことなく、新たにS605の処理を実行できる。そのため、検索部308は、追尾部307と独立に処理を実行することで、より高速に、より多くの特徴量を抽出して、追加することができるようになる。
また、検索部308は、例えば、指示を受け付けた直後の第1のタイミングにおいてまず過去映像の検索を開始してもよい。そして、追尾部307は、第1のタイミングよりも後の第2のタイミングにおいて現在映像を用いた追尾を行ってもよい。ここで、第2のタイミングは予め設定されているものとする。第2のタイミングとしては、例えば、第1のタイミングから一定時間経過した後、ある程度の特徴量が蓄積されたタイミング等が挙げられる。
例えば、追尾部307と検索部308とは、並行せずに独立に、それぞれ、S602の処理とS605の処理とを実行することとしてもよい。追尾部307は、新たな現在映像が取得されるまで、新たにS602の処理を実行することができない。しかし、過去映像は指示時点において複数フレーム分存在するため、検索部308は、新たな現在映像の取得を待つことなく、新たにS605の処理を実行できる。そのため、検索部308は、追尾部307と独立に処理を実行することで、より高速に、より多くの特徴量を抽出して、追加することができるようになる。
また、検索部308は、例えば、指示を受け付けた直後の第1のタイミングにおいてまず過去映像の検索を開始してもよい。そして、追尾部307は、第1のタイミングよりも後の第2のタイミングにおいて現在映像を用いた追尾を行ってもよい。ここで、第2のタイミングは予め設定されているものとする。第2のタイミングとしては、例えば、第1のタイミングから一定時間経過した後、ある程度の特徴量が蓄積されたタイミング等が挙げられる。
また、本実施形態では、追尾部307と検索部308とは、それぞれ、現在映像1フレーム分に対してのS602の処理と、過去映像1フレーム分に対してのS605の処理と、を並行して実行することとした。その場合、追尾部307と検索部308とは、現在映像1フレーム分に対してS602の処理を実行する場合、並行して、過去映像1フレーム分に対してS605の処理を実行することとしてもよい。
また、本実施形態では、検索部308は、過去映像として取得したことがない過去に撮影された映像のうち、撮影時点が指示時点に最も近いものを、過去映像として取得することとした。しかし、検索部308は、S604で複数フレーム分の過去映像を取得することとしてもよい。また、検索部308は、過去映像として取得したことがない過去に撮影された映像のうち、任意の時点に撮影された映像を、過去映像として取得することとしてもよい。
また、本実施形態では、S502で、追尾対象取得部304は、S501で指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得することとした。ただし、追尾対象取得部304は、他の方法で、追尾対象人物の特徴量を取得することとしてもよい。例えば、追尾対象取得部304は、ユーザによる入力装置の操作を介して入力された追尾対象人物の特徴量を受付けることで、追尾対象人物の特徴量を取得してもよい。
また、本実施形態では、S502で、追尾対象取得部304は、S501で指定された領域から追尾対象人物の特徴量を抽出することで、追尾対象人物の特徴量を取得することとした。ただし、追尾対象取得部304は、他の方法で、追尾対象人物の特徴量を取得することとしてもよい。例えば、追尾対象取得部304は、ユーザによる入力装置の操作を介して入力された追尾対象人物の特徴量を受付けることで、追尾対象人物の特徴量を取得してもよい。
以上、本実施形態の監視システムは、人物の追尾の指示を受付けた場合、過去映像から追尾対象人物を検索し、過去映像における検索した領域から抽出した追尾対象人物の特徴量を追尾対象人物の追尾に用いられる特徴量として追加する。
これにより、人物の追尾を開始した時点で特徴量を十分に用意できない場合でも、追尾を行いつつ、特徴量を追加するので、追尾用の特徴量が不足する事態の発生を低減できる。結果として、監視システムは、人物の追尾精度の向上を支援できる。
これにより、人物の追尾を開始した時点で特徴量を十分に用意できない場合でも、追尾を行いつつ、特徴量を追加するので、追尾用の特徴量が不足する事態の発生を低減できる。結果として、監視システムは、人物の追尾精度の向上を支援できる。
<実施形態2>
実施形態1では、オブジェクトの追尾と併せて、過去映像から追尾対象オブジェクトを検索して追尾対象オブジェクトの特徴量を、追尾に用いられる特徴量として追加する処理について説明した。しかしながら、過去映像から追尾対象オブジェクトの特徴量が追加される前の時点では、監視システムは、その現在映像から追尾対象オブジェクトを検出できず追尾できない可能性がある。これに対して、監視システムが、ネットワークカメラ102から映像を取得する度に、取得された映像について以下のような特徴量追加処理を行うことが考えられる。即ち、その映像からオブジェクトを検出し、検出した各オブジェクトの領域から抽出した特徴量を、各オブジェクトの追尾に利用可能な特徴量として追加する処理である。
これにより、追尾の開始の時点から、より多くの追尾対象オブジェクトの特徴量を用意することが可能となる。しかし、ネットワークカメラ102から映像を取得する度に特徴量追加処理を行うことは、処理に係る負担が過大となる。
そこで、本実施形態では、監視システムは、監視システムにかかる負荷が予め定められた水準を超えていない場合、ネットワークカメラ102から映像を取得する度に、その映像に対して、特徴量追加処理を行う。また、監視システムは、監視システムにかかる負荷が予め定められた水準以上である場合、実施形態1と同様の処理を行う。
本実施形態の監視システムのシステム構成は、実施形態1と同様である。また、本実施形態の解析サーバ装置103のハードウェア構成は、実施形態1と同様である。また、本実施形態では、監視システムの追尾対象となるオブジェクトは、実施形態1と同様に人物であるとする。
実施形態1では、オブジェクトの追尾と併せて、過去映像から追尾対象オブジェクトを検索して追尾対象オブジェクトの特徴量を、追尾に用いられる特徴量として追加する処理について説明した。しかしながら、過去映像から追尾対象オブジェクトの特徴量が追加される前の時点では、監視システムは、その現在映像から追尾対象オブジェクトを検出できず追尾できない可能性がある。これに対して、監視システムが、ネットワークカメラ102から映像を取得する度に、取得された映像について以下のような特徴量追加処理を行うことが考えられる。即ち、その映像からオブジェクトを検出し、検出した各オブジェクトの領域から抽出した特徴量を、各オブジェクトの追尾に利用可能な特徴量として追加する処理である。
これにより、追尾の開始の時点から、より多くの追尾対象オブジェクトの特徴量を用意することが可能となる。しかし、ネットワークカメラ102から映像を取得する度に特徴量追加処理を行うことは、処理に係る負担が過大となる。
そこで、本実施形態では、監視システムは、監視システムにかかる負荷が予め定められた水準を超えていない場合、ネットワークカメラ102から映像を取得する度に、その映像に対して、特徴量追加処理を行う。また、監視システムは、監視システムにかかる負荷が予め定められた水準以上である場合、実施形態1と同様の処理を行う。
本実施形態の監視システムのシステム構成は、実施形態1と同様である。また、本実施形態の解析サーバ装置103のハードウェア構成は、実施形態1と同様である。また、本実施形態では、監視システムの追尾対象となるオブジェクトは、実施形態1と同様に人物であるとする。
図8は、本実施形態の解析サーバ装置103の機能構成の一例を示す図である。本実施形態の解析サーバ装置103の機能構成は、負荷情報収集部801と判断部802とを有する点で、図3で説明した機能構成と異なる。
負荷情報収集部801は、監視システムにかかる負荷に関する情報である負荷情報を収集する。以下では、監視システムにかかる負荷を、システム負荷とする。負荷情報は、例えば、リソース使用率、追尾している人物の数、現在時刻等の情報である。
判断部802は、監視システムの負荷情報に基づいて、特徴量追加処理の実行のタイミングを判断する。
負荷情報収集部801は、監視システムにかかる負荷に関する情報である負荷情報を収集する。以下では、監視システムにかかる負荷を、システム負荷とする。負荷情報は、例えば、リソース使用率、追尾している人物の数、現在時刻等の情報である。
判断部802は、監視システムの負荷情報に基づいて、特徴量追加処理の実行のタイミングを判断する。
図9は、本実施形態の解析サーバ装置103の処理の一例を示すフローチャートである。
S901において、負荷情報収集部801は、監視システムの負荷情報を収集する。本実施形態では、負荷情報収集部801は、監視システムのリソースの使用率の情報を収集する。
S902において、判断部802は、S901で収集された負荷情報に基づいて、システム負荷が予め定められた水準以上か否かを判断する。判断部802は、S901で収集された負荷情報が示すリソースの使用率が予め定められた閾値以上である場合、システム負荷が予め定められた水準以上であると判断する。また、判断部802は、S901で収集された負荷情報が示すリソースの使用率が予め定められた閾値未満である場合、システム負荷が予め定められた水準を超えていないと判断する。
判断部802は、システム負荷が予め定められた水準以上であると判断した場合、処理をS903に進め、システム負荷が予め定められた水準を超えていないと判断した場合、処理をS904に進める。
S901において、負荷情報収集部801は、監視システムの負荷情報を収集する。本実施形態では、負荷情報収集部801は、監視システムのリソースの使用率の情報を収集する。
S902において、判断部802は、S901で収集された負荷情報に基づいて、システム負荷が予め定められた水準以上か否かを判断する。判断部802は、S901で収集された負荷情報が示すリソースの使用率が予め定められた閾値以上である場合、システム負荷が予め定められた水準以上であると判断する。また、判断部802は、S901で収集された負荷情報が示すリソースの使用率が予め定められた閾値未満である場合、システム負荷が予め定められた水準を超えていないと判断する。
判断部802は、システム負荷が予め定められた水準以上であると判断した場合、処理をS903に進め、システム負荷が予め定められた水準を超えていないと判断した場合、処理をS904に進める。
S903において、判断部802は、特徴量追加処理を、追尾指示を受信した時点から実行すると判断する。この場合、監視システムは、実施形態1と同様の処理を行うことで、追尾対象人物について追尾用の特徴量を追加する特徴量追加処理を実行することとなる。
S904において、判断部802は、特徴量追加処理を、ネットワークカメラ102から映像を取得する度に実行すると判断する。この場合、追尾対象取得部304は、映像受信部301によりネットワークカメラ102から映像が受信される度に、受信された映像に基づいて、その映像から検出される各人物について追尾用の特徴量を追加する特徴量追加処理を実行する。より具体的には、追尾対象取得部304は、その映像からオブジェクトを検出し、その映像における検出した各オブジェクトの領域から各オブジェクトの特徴量を抽出する。そして、追尾対象取得部304は、抽出した各オブジェクトの特徴量を、各オブジェクトの追尾に用いられる特徴量として、管理を特徴管理部305に依頼する。特徴管理部305は、依頼に対応する特徴量を、その特徴量の抽出元のオブジェクトと対応付けて、ストレージ装置204に記憶し、管理する。
S905において、判断部802は、予め定められた期間(例えば、10分、1時間等)、待機し、待機後に処理をS901に進める。即ち、解析サーバ装置103は、S901からS904の処理を一定時間ごとに繰り返すことになる。
S904において、判断部802は、特徴量追加処理を、ネットワークカメラ102から映像を取得する度に実行すると判断する。この場合、追尾対象取得部304は、映像受信部301によりネットワークカメラ102から映像が受信される度に、受信された映像に基づいて、その映像から検出される各人物について追尾用の特徴量を追加する特徴量追加処理を実行する。より具体的には、追尾対象取得部304は、その映像からオブジェクトを検出し、その映像における検出した各オブジェクトの領域から各オブジェクトの特徴量を抽出する。そして、追尾対象取得部304は、抽出した各オブジェクトの特徴量を、各オブジェクトの追尾に用いられる特徴量として、管理を特徴管理部305に依頼する。特徴管理部305は、依頼に対応する特徴量を、その特徴量の抽出元のオブジェクトと対応付けて、ストレージ装置204に記憶し、管理する。
S905において、判断部802は、予め定められた期間(例えば、10分、1時間等)、待機し、待機後に処理をS901に進める。即ち、解析サーバ装置103は、S901からS904の処理を一定時間ごとに繰り返すことになる。
以上、本実施形態の処理により、監視システムは、オブジェクトの追尾用の特徴量が不足し、オブジェクトの追尾ができない事態の発生をより低減できる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した監視システムの機能構成の一部又は全てをハードウェアとして解析サーバ装置103に実装してもよい。以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせる等してもよい。
102 ネットワークカメラ
103 解析サーバ装置
201 CPU
103 解析サーバ装置
201 CPU
Claims (8)
- 指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受け付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索手段と、
前記検索手段の検索において検索された前記指定オブジェクトから抽出される追加の特徴情報に基づいて、前記時点よりも後に前記撮影部により撮影された映像において、前記指定オブジェクトを追尾する追尾手段と、
を有するシステム。 - 前記追尾手段は、現在、追尾されている前記指定オブジェクトから抽出された追加の特徴情報に基づいて、追尾を行う請求項1記載のシステム。
- 前記過去映像からの追加の特徴情報の抽出と、現在、追尾されているオブジェクトから抽出される追加の特徴情報を並行して行うよう制御する第1の制御手段を更に有する請求項2記載のシステム。
- 前記システムの負荷を示す負荷情報に基づいて、前記負荷が予め定められた水準以上であるか否かを判断する判断手段と、
前記負荷が前記水準以上の場合において、前記追尾指示を受け付けた場合に、前記検索手段による検索を行うよう制御する第2の制御手段と、
を更に有する請求項1乃至3何れか1項記載のシステム。 - 前記負荷が前記水準を超えない場合、前記複数の撮影部により撮影された映像からオブジェクトを検出する検出手段と、
前記検出手段により検出された各オブジェクトから抽出された特徴情報を抽出元のオブジェクトに対応付けて記憶手段に格納する格納手段と、
を更に有する請求項4記載のシステム。 - 指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索手段と、
前記検索手段の検索において検索された前記指定オブジェクトから抽出される追加の特徴情報をに基づいて、前記時点よりも後に前記撮影部により撮影された映像において、前記指定オブジェクトを追尾する追尾手段と、
を有する情報処理装置。 - システムが実行する情報処理方法であって、
指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受け付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索ステップと、
前記検索ステップでの検索において検索された前記指定オブジェクトから抽出される追加の特徴情報に基づいて、前記時点よりも後に前記撮影部により撮影された映像において、前記指定オブジェクトを追尾する追尾ステップと、
を含む情報処理方法。 - コンピュータに、
指定オブジェクトの追尾指示を受け付けた場合、前記指定オブジェクトの特徴情報に基づいて、前記追尾指示を受け付けた時点よりも過去に複数の撮影部により撮影された過去映像から、前記指定オブジェクトを検索する検索ステップと、
前記検索ステップでの検索において検索された前記指定オブジェクトから抽出される追加の特徴情報に基づいて、前記時点よりも後に前記撮影部により撮影された映像において、前記指定オブジェクトを追尾する追尾ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211632A JP2020078030A (ja) | 2018-11-09 | 2018-11-09 | システム、情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211632A JP2020078030A (ja) | 2018-11-09 | 2018-11-09 | システム、情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020078030A true JP2020078030A (ja) | 2020-05-21 |
Family
ID=70724505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018211632A Pending JP2020078030A (ja) | 2018-11-09 | 2018-11-09 | システム、情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020078030A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112601022A (zh) * | 2020-12-14 | 2021-04-02 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控***和方法 |
-
2018
- 2018-11-09 JP JP2018211632A patent/JP2020078030A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112601022A (zh) * | 2020-12-14 | 2021-04-02 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控***和方法 |
CN112601022B (zh) * | 2020-12-14 | 2021-08-31 | 中标慧安信息技术股份有限公司 | 一种基于网络摄像机的现场监控***和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022082561A (ja) | 解析サーバ、監視システム、監視方法及びプログラム | |
EP3236366B1 (en) | Information processing apparatus, information processing method, and storage medium | |
US10353954B2 (en) | Information processing apparatus, method of controlling the same, and storage medium | |
JP2008040781A (ja) | 被写体照合装置および被写体照合方法 | |
JP2008197904A (ja) | 人物検索装置および人物検索方法 | |
JP6914007B2 (ja) | 情報処理装置および情報処理方法 | |
JP6789421B2 (ja) | 情報処理装置、追跡方法、及び追跡プログラム | |
JP2010140425A (ja) | 画像処理システム | |
JP7448043B2 (ja) | 撮影制御システム | |
JP2022177267A (ja) | 認証システム、認証方法、及び、プログラム | |
CN111429476A (zh) | 确定目标人物行动轨迹的方法和装置 | |
JP2018186397A (ja) | 情報処理装置、映像監視システム、情報処理方法及びプログラム | |
JP2017058833A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP2020078030A (ja) | システム、情報処理装置、情報処理方法及びプログラム | |
JP6214762B2 (ja) | 画像検索システム、検索画面表示方法 | |
JP2007179224A (ja) | 情報処理装置および方法、並びにプログラム | |
JP6410427B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
JP2017017488A (ja) | 監視システム、撮影制御方法及びプログラム | |
JP2014042170A (ja) | 撮影システム、撮影支援方法、撮影装置及びその制御方法、管理装置及びその制御方法、並びにプログラム | |
JP4971849B2 (ja) | 撮影装置の制御権の管理方法、撮影装置、プログラムおよびネットワーク撮影システム | |
JP6815667B1 (ja) | 情報処理装置、情報処理方法、プログラム及びカメラシステム | |
KR102085036B1 (ko) | 시간 기준을 이용한 영상 검색장치, 방법 및 컴퓨터로 읽을 수 있는 기록매체 | |
JP2017194798A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113454634A (zh) | 信息处理***、信息处理装置、信息处理方法和程序 |