JP6393424B2 - Image processing system, image processing method, and storage medium - Google Patents
Image processing system, image processing method, and storage medium Download PDFInfo
- Publication number
- JP6393424B2 JP6393424B2 JP2017530538A JP2017530538A JP6393424B2 JP 6393424 B2 JP6393424 B2 JP 6393424B2 JP 2017530538 A JP2017530538 A JP 2017530538A JP 2017530538 A JP2017530538 A JP 2017530538A JP 6393424 B2 JP6393424 B2 JP 6393424B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- frames
- moving object
- registration process
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
Description
本発明は画像処理システムに関する。 The present invention relates to an image processing system.
本技術分野の背景技術として、特開2015−114685号公報(特許文献1)がある。特許文献1は、「第1の場所で撮影された複数のフレームからなる第1の映像、及び、第2の場所で撮影された複数のフレームからなる第2の映像のそれぞれから、一つ以上の移動体の移動経路を検出して記憶装置に格納し、前記第1の映像から検出された前記一つ以上の移動体のうち選択された移動体の、前記フレームごとの画像特徴量を抽出して前記記憶装置に格納し、前記第1の映像から検出された前記選択された移動体の移動経路、及び、前記第2の映像から検出された前記一つ以上の移動体の移動経路に基づいて、前記抽出した画像特徴量のうち、検索クエリとして使用するクエリ画像特徴量を選択し、前記クエリ画像特徴量を用いて、前記第2の映像から抽出された前記一つ以上の移動体の画像特徴量を検索し、前記検索の結果を出力する映像検索装置」(要約)を開示する。
As background art of this technical field, there is JP-A-2015-11485 (Patent Document 1).
映像データから、移動物体を検索する場合、映像データにおける移動物体の特徴量を予め抽出し、データベースに登録しておくことが必要である。例えば、移動物体の一つである人物の移動経路、顔及び服飾の情報を用いて人物を検索する場合、システムは、映像データ中に現れる人物の移動経路、顔及び服飾の特徴登録処理を実行する。特徴登録処理は、人物の移動経路、顔及び服飾それぞれの領域を検出し、特徴量(特徴ベクトル)を抽出し、さらに、特徴量をデータベースに書き込む。 When searching for a moving object from video data, it is necessary to extract in advance the feature quantity of the moving object in the video data and register it in the database. For example, when searching for a person using information on the movement path, face, and clothing of a person, which is one of the moving objects, the system executes a feature registration process for the movement path, face, and clothing of the person appearing in the video data. To do. In the feature registration process, the movement path of the person, the areas of the face and the clothing are detected, the feature amount (feature vector) is extracted, and the feature amount is written in the database.
特徴登録処理において、負荷の高い処理が存在する場合、特徴登録処理にかかる時間が、映像の実時間の数倍に上る場合がある。また、特徴登録処理にかかる時間を短縮するために登録する映像データのフレームレートを低下させると、登録される特徴量が減少し、移動物体の検索精度が低下する。 In the feature registration process, when there is a process with a high load, the time required for the feature registration process may be several times the actual time of the video. Also, if the frame rate of the video data to be registered is reduced in order to shorten the time required for the feature registration process, the registered feature amount is reduced, and the moving object search accuracy is lowered.
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。本願は上記課題を解決する手段を複数含んでいるが、その一例は、プロセッサと前記プロセッサが実行するプログラムを格納する記憶装置とを含む、画像処理システムであって、前記プロセッサは、映像データから複数フレームを作成し、前記複数フレームにおいて移動物体を検出し、検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理 、の内容を、予め定められた条件に従って決定し、前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行する。 In order to solve the above problems, for example, the configuration described in the claims is adopted. The present application includes a plurality of means for solving the above-mentioned problem. An example thereof is an image processing system including a processor and a storage device that stores a program executed by the processor. A plurality of frames are created, a moving object is detected in the plurality of frames, a trajectory feature amount of each detected moving object is extracted from the plurality of frames and recorded in a database, and a moving object is detected in each of the plurality of frames. The content of feature registration processing including extracting feature values from an image and recording them in the database is determined according to a predetermined condition, and the determined content of the feature registration processing is executed in each of the plurality of frames To do.
本発明の一態様によれば、映像データにおける移動物体の特徴量の登録処理時間を低減しつつ、移動物体の検索精度の低下を小さくすることができる。 According to one aspect of the present invention, it is possible to reduce a decrease in moving object search accuracy while reducing a registration processing time of a moving object feature amount in video data.
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.
図1は、実施例1の画像検索システム100の全体構成図である。画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、105、表示装置104、106、及びサーバ計算機107を含む。
FIG. 1 is an overall configuration diagram of an
映像記憶装置101は、映像データを格納する記憶媒体を含み、要求に応じて映像データを出力する。映像記憶装置101は、計算機内蔵のハードディスクドライブ、NAS(Network Attached Storage)またはSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。
The
映像撮影装置102は、映像を撮影して映像データを作成し、それを出力する。映像記憶装置101及び映像撮影装置102から出力された映像データは、サーバ計算機107の映像入力部108(後述)に入力される。画像検索システム100は、映像記憶装置101及び映像撮影装置102の一方のみを含んでもよい。
The
画像検索システム100が映像記憶装置101及び映像撮影装置102の両方を含む場合、映像入力部108への映像データの入力元は、必要に応じて、映像記憶装置101と映像撮影装置102との間で切り替えられてもよい。映像撮影装置102から出力された映像データが一旦映像記憶装置101に格納され、そこから映像入力部108に入力されてもよい。その場合、映像記憶装置101は、例えば、映像撮影装置102から継続的に入力される映像データを一時的に保持するキャッシュメモリであってもよい。
When the
映像記憶装置101に格納される映像データ及び映像撮影装置102によって作成される映像データは、撮影された移動物体の追跡に利用できるものである限り、どのような形式のデータであってもよい。例えば、映像撮影装置102がビデオカメラであり、それによって撮影された動画像データが映像データとして出力されてもよいし、その映像データが映像記憶装置101に格納されてもよい。
The video data stored in the
映像撮影装置102がスチルカメラであり、それによって所定の間隔(少なくとも撮影された物体を追跡できる程度の間隔)で撮影された一連の静止画像データが映像データとして出力されてもよいし、その映像データが映像記憶装置101に記憶されてもよい。また、映像撮影装置102は、複数台のビデオカメラ、または、スチルカメラであってもよいし、その両方で構成されてもよい。
The
入力装置103、105は、マウス、キーボード、タッチデバイスなど、ユーザの操作をサーバ計算機107に伝えるための入力インタフェースである。表示装置104、106は、液晶ディスプレイなどの出力インタフェースであり、サーバ計算機107の特徴登録処理条件の表示、検索結果の表示、ユーザとの対話的操作などのために用いられる。
The
例えばいわゆるタッチパネル等を用いることによって入力装置103と表示装置104、及び、入力装置105と表示装置106は、それぞれ一体化されてもよいし、全て一体化されてもよい。入力装置103と表示装置104の組及び入力装置105と表示装置106の組は、それぞれ、ネットワークを介してサーバ計算機107に接続されたクライアント端末に含まれてもよい。
For example, by using a so-called touch panel or the like, the
サーバ計算機107は、入力された映像データから、規定の処理条件、例えば、システム管理者によって予め設定された処理条件、または、ユーザに指定された処理条件に基づいて、画像に含まれる情報を抽出し、抽出した情報とフレーム画像とを保持する画像登録装置として動作する。さらに、サーバ計算機107は、ユーザに指定された検索条件に基づいて、検索対象物体の画像を検索する画像検索装置として機能する。
The
具体的には、サーバ計算機107は、与えられた映像データのフレームに含まれる移動物体を追跡し、その移動物体に関する情報を蓄積する。ユーザが蓄積されたフレームから探したい移動物体の検索条件を指定すると、サーバ計算機107は、蓄積された情報を用いて画像を検索する。サーバ計算機107の機能は複数の計算機に分散して実装されてもよい。
Specifically, the
以下で説明する例において、サーバ計算機107が扱う各映像は、一箇所で撮影された定点観測の映像であることを想定している。検索対象の物体は、人物または車両などの任意の移動物体である。実施例1は、検索対象の物体が人物である場合の画像検索システム100の例を示している。
In the example described below, it is assumed that each video handled by the
サーバ計算機107は、映像入力部108、移動物体追跡部110、軌跡特徴抽出部111、軌跡特徴記録部112、フレーム記録部113、映像データベース161、特徴登録処理条件入力部109、特徴登録処理内容判定部121、特徴登録処理時間保持部122、特徴登録処理時間演算部123、顔検出部131、顔特徴抽出部132、及び顔特徴記録部133を含む。
The
サーバ計算機107は、さらに、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152、服飾特徴記録部153、特徴ベクトル入力部171、類似特徴ベクトル検索部172、及び検索結果統合部173を含む。特徴登録処理内容判定部121において、特徴登録処理時間保持部122が保持する情報を使用しない場合、サーバ計算機107は、特徴登録処理時間保持部122と特徴登録処理時間演算部123を含まなくてもよい。
The
映像入力部108は、映像記憶装置101から映像データを読み出す、または、映像撮影装置102によって撮影された映像データを受け取り、それをサーバ計算機107内部で使用するデータ形式に変換する。具体的には、映像入力部108は、映像(動画データ形式)をフレーム(静止画データ形式)に分解する動画デコード処理を行う。得られたフレームは、移動物体追跡部110、フレーム記録部113及び特徴登録処理内容判定部121に送られる。得られたフレームは、さらに、顔検出部131、頭部検出部141、服飾検出部151に送られてもよい。
The
移動物体追跡部110は、フレーム中の移動物体を検出し、前フレームで検出された移動物体との対応付けを行うことによって、移動物体の追跡を行う。移動物体の検出及び追跡は、例えばS. Baker and I. Matthews “Lucas-kanade 20 years on: A unifying framework”, International Journal of Computer Vision, vol. 53, no. 3, 2004に記載された方法など、任意の方法を用いて実現することができる。追跡によって得られた移動物体の軌跡(すなわちその移動物体の移動経路)は、一つまたは複数の始点と終点を有するベクトルとして表現され、軌跡情報は、各軌跡にユニークに付与されるID(追跡ID)と各フレームの移動物体の座標情報とで構成される。
The moving
軌跡特徴抽出部111は、同一の追跡IDが付与された移動物体の座標から、軌跡の形状の特徴量(以下、軌跡特徴量とも記載)を抽出する。軌跡特徴記録部112は、抽出された軌跡特徴量を映像データベース161に記録する。
The trajectory
顔検出部131、頭部検出部141、服飾検出部151は、それぞれ、フレームから人物の顔領域、頭部領域及び服飾領域を検出する。検出対象として定義される顔領域と頭部領域とは、重ならなくてもよく、一部が重なってもよい。頭部領域は、例えば、髪の毛や帽子の色を特定するために使用される。例えば、顔領域は首より上の部分における前面の眉毛から下の領域であり、頭部領域は、首より上の部分におけるその他の領域でもよい。
The
服飾領域は、人物が身に着けている服飾を特定するために使用される。服飾領域は、例えば、人物の上半身における首より下の領域、人物の下半身の領域等である。人物において1又は複数の服飾領域が検出される。 The clothing area is used to identify the clothing worn by the person. The clothing area is, for example, an area below the neck in the upper body of the person, an area of the lower body of the person, or the like. One or more clothing areas are detected in a person.
顔特徴抽出部132、頭部特徴抽出部142及び服飾特徴抽出部152は、それぞれ、顔領域、頭部領域及び服飾領域の画像特徴量を抽出する。以下、それぞれ顔特徴量、頭部特徴量及び服飾特徴量とも記載する。例えばエッジ情報または色情報等、画像から抽出できるものであればどのような種類の特徴量が抽出されてもよい。画像特徴量の抽出は、公知の方法を含む任意の方法によって行うことができる。一つの領域で抽出される画像特徴量は、その領域の特徴ベクトルを構成する。特徴量は、それぞれ、特徴ベクトルの要素であり、特徴ベクトルは1または複数の特徴量で構成される。
The face
顔特徴記録部133、頭部特徴記録部143及び服飾特徴記録部153は、それぞれ、顔領域、頭部領域及び服飾領域から抽出された画像特徴量(特徴ベクトル)を映像データベース161に記録する。
The face
顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152、服飾特徴記録部153は、それぞれ、各フレームにおける処理時間を計測し、特徴登録処理時間演算部123に処理時間を通知する。これらの一部のみが、処理時間を計測し、通知してもよい。
特徴登録処理時間演算部123は、顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152及び服飾特徴記録部153から受け付けた処理時間に対し、所定の演算処理を実行する。特徴登録処理時間演算部123の演算結果は、特徴登録処理時間保持部122に送られる。特徴登録処理時間保持部122は、特徴登録処理時間演算部123から受け付けた情報を保持する。
The feature registration processing
特徴登録処理時間演算部123は、検出部、抽出部、記録部から新たに受け付けた処理時間の他に、特徴登録処理時間保持部122に保持された、過去のフレームにおける特徴登録処理時間演算部123の演算結果を使用した演算を行ってもよい。
The feature registration processing
特徴登録処理条件入力部109は、ユーザが入力装置103を操作して入力した、特徴登録処理条件を受け付ける。特徴登録処理条件は、例えば、顔検出部131、頭部検出部141及び服飾検出部151における検出方法、顔特徴抽出部132、頭部特徴抽出部142及び服飾特徴抽出部152における画像特徴量の抽出方法、特徴登録処理の目標フレームレート、特徴登録処理内容判定部121で実行される処理内容判定方法などを含む。
The feature registration processing
顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152及び服飾特徴記録部153は、特徴登録処理内容判定部121における判定結果に応じて、処理内容をフレームごとに変更する。特徴登録処理内容判定部121において実行される処理内容判定方法については、後述する(図4参照)。
フレーム記録部113は、入力映像から抽出されたフレームと、抽出元の映像の情報と、特徴登録処理内容判定部121によって判定された結果を映像データベース161に記録する。
The
映像データベース161は、映像から抽出されたフレーム、移動物体の軌跡情報、顔特徴量、頭部特徴量、服飾特徴量、及びフレーム毎の特徴量抽出状況、などを格納するためのデータベースである。映像データベース161へのアクセスは、軌跡特徴記録部112、フレーム記録部113、顔特徴記録部133、頭部特徴記録部143、服飾特徴記録部153からの書き込み処理、並びに、類似特徴ベクトル検索部172からの検索処理の際に発生する。映像データベース161に格納するデータの詳細については、図3A、図3Bを参照して後述する。
The
特徴ベクトル入力部171は、ユーザが入力装置105を操作して入力した、検索キーとなる1または複数種類の特徴ベクトル(例えば、軌跡特徴ベクトル、顔特徴ベクトル、頭部特徴ベクトル及び服飾特徴ベクトル)を指定する情報を受け付ける。特徴ベクトルは、1以上の特徴量からなる。
The feature
類似特徴ベクトル検索部172は、検索キーとして指定された各特徴ベクトルと類似する特徴ベクトルを、映像データベース161において検索する。検索結果統合部173は、1または複数種類の特徴ベクトルの検索キーに基づく検索結果を結合して出力する。これらの詳細な処理については後述する(図6参照)。
The similar feature
なお、実施例1は、追跡対象の移動物体が人物である画像検索システム100の例を示している。顔領域、頭部領域及び服飾領域は、人物の識別に利用できる画像情報を含んでいると考えられる領域(以下、顕著領域とも記載する)の例である。
The first embodiment shows an example of the
したがって、サーバ計算機107は、上記顕著領域に加えまたは変えて、上記以外の顕著領域を検出する顕著領域検出部、その検出領域から画像特徴量を抽出する画像特徴抽出部、及びその画像特徴量を記録する画像特徴記録部を含んでもよい。設計により、1または複数の種類の顕著領域が検出される。
Therefore, the
上記以外の顕著領域として、例えば、顔領域の一部である口領域、頭部領域の一部である髪領域、服飾領域の一部である上半身領域、下半身領域、または、人物の所持品の領域(例えば鞄領域)等が挙げられる。 As a salient area other than the above, for example, a mouth area that is a part of a face area, a hair area that is a part of a head area, an upper body area that is a part of a clothing area, a lower body area, or a personal belongings A region (for example, a heel region) or the like can be given.
追跡対象の移動物体が人物以外の物体である場合には、その物体の種類に応じて適切な顕著領域が検出され、その特徴量が登録される。例えば追跡対象が自動車である場合、自動車の前面、後面、側面、タイヤ、またはナンバープレート等が顕著領域として検出されてもよい。 When the tracking target moving object is an object other than a person, an appropriate saliency area is detected according to the type of the object, and the feature amount is registered. For example, when the tracking target is an automobile, the front, rear, side, tire, or license plate of the automobile may be detected as the saliency area.
図2は、実施例1の画像検索システム100のハードウェア構成図である。サーバ計算機107は、例えば、相互に接続されたプロセッサ201及び記憶装置202を有する一般的な計算機である。記憶装置202は任意の種類の記憶媒体を含んで構成される。例えば、記憶装置202は、半導体メモリ及びハードディスクドライブを含んでもよい。記憶装置202は、データを格納する、非一時的な計算機読み取り可能な記憶媒体を含んでもよい。
FIG. 2 is a hardware configuration diagram of the
この例において、図1に示した映像入力部108、移動物体追跡部110、軌跡特徴抽出部111、軌跡特徴記録部112、フレーム記録部113、特徴登録処理条件入力部109、特徴登録処理内容判定部121、顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152、服飾特徴記録部153、特徴登録処理時間演算部123、特徴ベクトル入力部171、類似特徴ベクトル検索部172及び検索結果統合部173といった機能部は、プロセッサ201が記憶装置202に格納された処理プログラム203を実行することによって実現される。
In this example, the
言い換えると、上記の各機能部が実行する処理は、実際には、処理プログラム203に記述された命令に従うプロセッサ201によって実行される。また、特徴登録処理時間保持部122と映像データベース161は、記憶装置202の記憶領域である。映像データベース161は、ネットワークを介して接続された記憶装置に含まれてもよい。
In other words, the processing executed by each functional unit described above is actually executed by the
サーバ計算機107は、さらに、プロセッサ201に接続されたネットワークインターフェース装置(NIF)204を含む。映像撮影装置102は、例えば、ネットワークインターフェース装置204を介してサーバ計算機107に接続される。映像記憶装置101は、ネットワークインターフェース装置204を介してサーバ計算機107に接続されたNASまたはSANであってもよいし、記憶装置202に含まれてもよい。
The
図3A及び図3Bは、実施例1の映像データベース161の構成例の説明図である。ここではテーブル形式の構成例を示すが、映像データベース161のデータ形式は任意でよい。映像データベース161は、図3Aに示す映像データ管理情報300、背景画像データ管理情報310、軌跡特徴管理情報320、移動物体管理情報330及びフレーム画像管理情報340を含む。
3A and 3B are explanatory diagrams of a configuration example of the
さらに、映像データベース161は、図3Bに示す顔特徴管理情報350、頭部特徴管理情報360及び服飾特徴管理情報370を含む。図3A及び図3Bのテーブル構成及び各テーブルのフィールド構成は一例であり、アプリケーションに応じてテーブル及びフィールドを追加、変更してもよい。
Further, the
映像データ管理情報300は、映像IDフィールド301、ファイル名フィールド302、及び撮影場所IDフィールド303を有する。映像IDフィールド301は、映像データファイルの識別子(以下、映像ID)を保持する。ファイル名フィールド302は、映像記憶装置101から読み込まれた映像データファイルのファイル名を保持し、映像データベース161内の映像データ(フレーム)と映像記憶装置101内のファイルとを対応づける。映像データが映像撮影装置102から入力される場合、ファイル名を省略してもよい。
The video
撮影場所IDフィールド303は、定点観測された場所の識別子(以下、撮影場所ID)を保持する。映像データファイルと撮影場所とを対応付けるための管理情報は、映像入力部108により保持されていてもよいし、映像データベース161に含まれてもよい。
The shooting
入力された映像データが固定カメラによって撮影された場合は、撮影場所IDをカメラIDと読み替えてもよい。図3Aの例のように、一つの撮影場所に対して、複数の映像データファイルが登録されてもよい。複数の映像データファイルには、例えば、設置場所及び撮影方向が固定された一つのカメラがそれぞれ異なる時間帯に撮影した映像データが含まれる。 When the input video data is shot by a fixed camera, the shooting location ID may be read as the camera ID. As in the example of FIG. 3A, a plurality of video data files may be registered for one shooting location. The plurality of video data files include, for example, video data shot at different time zones by one camera whose installation location and shooting direction are fixed.
背景画像データ管理情報310は、撮影場所IDフィールド311及び背景画像データフィールド312を有する。背景画像データ管理情報310は、システム管理者によって予め作成され、映像データベース161に登録される。撮影場所IDフィールド311は、背景画像の撮影場所の識別子を保持するフィールドであり、この識別子は、映像データ管理情報300に保持される撮影場所IDと対応する。
The background image
背景画像データフィールド312は、各撮影場所で撮影された背景画像のデータを保持する。ここに保持される背景画像は、後述するように、ユーザが検索しようとする移動物体の軌跡を入力するときに表示される。したがって、それぞれの撮影場所において移動物体を撮影するカメラと同じカメラによって撮影された、いずれの移動物体も含まない画像であることが望ましい。
The background
軌跡特徴管理情報320は、追跡IDフィールド321、映像IDフィールド322、移動物体IDフィールド323及び軌跡特徴ベクトル(特徴量)フィールド324を有する。追跡IDフィールド321は、移動物体追跡部110が各移動物体を追跡するために用いる識別子(以下、追跡ID)を保持する。移動物体を追跡することで得られた各軌跡にユニークな追跡IDが与えられる。
The trajectory
移動物体が映像に表れてから消えるまでの軌跡に対して、一つの追跡IDが与えられる。一つの移動物体が、消えた後に再度現れると、新しい追跡IDが与えられる。この例において、追跡IDの値は、異なる映像IDの値において一意である。 One tracking ID is given to the trajectory from when the moving object appears in the image until it disappears. If a moving object appears again after disappearing, it is given a new tracking ID. In this example, the tracking ID value is unique among the different video ID values.
映像IDフィールド322は、追跡対象の移動物体の画像を含む映像データファイルの識別子を保持する。この識別子は、映像データ管理情報300に保持される映像IDと対応する。
The
移動物体IDフィールド323は、それぞれの軌跡を構成する、フレームそれぞれから検出された移動物体の識別子(以下、移動物体ID)のリストを保持する。移動物体IDは、移動物体そのものを識別するものではなく、各フレームから検出された移動物体の画像を識別する。同一の移動物体の画像が複数のフレームから検出された場合、それらの移動物体の画像の各々に別の(一意の)移動物体IDが与えられる。同一の移動物体の画像が連続するフレームで検出された場合、それらの異なる移動物体IDが、一つの追跡IDに対応付けられる。
The moving
例えば、図3Aにおいて、追跡ID「1」に対応する移動物体IDフィールド323に「1、2、4、5、6、・・・」が登録されている。これは、それぞれ異なるフレームから検出された移動物体ID「1」、「2」、「4」、「5」、「6」によって識別される移動物体の画像が、移動物体追跡部110によって相互に対応付けられていることを意味する。すなわち、それらが同一の移動物体の画像と判定されたことを意味する。
For example, in FIG. 3A, “1, 2, 4, 5, 6,...” Is registered in the moving
軌跡特徴ベクトルフィールド324は、映像中の移動物体の座標の時系列変化(軌跡)から抽出された、軌跡特徴量を保持する。軌跡特徴量は、例えば一つまたは複数の固定長のベクトルによって表現される。軌跡特徴量は、任意の公知の方法によって抽出することができる。具体的には、同一の追跡IDに対応付けられた移動物体IDの画像のフレーム内の座標の時系列変化から、当該追跡IDの軌跡特徴量が計算される。 The trajectory feature vector field 324 holds the trajectory feature amount extracted from the time-series change (trajectory) of the coordinates of the moving object in the video. The trajectory feature amount is expressed by, for example, one or a plurality of fixed length vectors. The trajectory feature amount can be extracted by any known method. Specifically, the trajectory feature amount of the tracking ID is calculated from the time-series change of the coordinates in the frame of the image of the moving object ID associated with the same tracking ID.
移動物体管理情報330は、移動物体IDフィールド331、矩形座標フィールド332及び撮影日時フィールド333を含む。移動物体IDフィールド331は、各フレームから検出された移動物体IDを保持する。移動物体IDは、軌跡特徴管理情報320の移動物体IDフィールド323に保持されるものと対応する。
The moving
矩形座標フィールド332は、各フレームから検出された移動物体の画像の当該フレーム中に占める範囲を示す矩形座標を保持する。この座標は、例えば、移動物体の外接矩形の「左上隅の水平座標、左上隅の垂直座標、右下隅の水平座標、右下隅の垂直座標」という形式で表現されてもよいし、矩形の中心の座標、幅及び高さによって表現されてもよい。後述する矩形座標フィールド353、363及び373に保持される矩形座標の表現も同様であってよい。
The rectangular coordinate
撮影日時フィールド333は、各移動物体の画像を含むフレームが撮影された日時を保持する。
The shooting date /
フレーム画像管理情報340は、フレームIDフィールド341、映像IDフィールド342及び画像データフィールド343、顔処理フィールド344、頭部処理フィールド345、服飾処理フィールド346を含む。
The frame image management information 340 includes a
フレームIDフィールド341は、映像データから抽出された各フレームの識別子(以下、フレームID)を保持する。フレームIDは、異なる映像データファイルにおいて一意である。映像IDフィールド342は、フレームの抽出元の映像データファイルを識別する映像IDを保持するフィールドであり、この映像IDは、映像データ管理情報300の映像IDフィールド301に保持される値に対応する。画像データフィールド343は、フレームの静止画像のバイナリデータであり、検索結果などを表示装置106に表示する際に用いられるデータを、保持する。
The
顔処理フィールド344は、フレームにおける顔検出処理及び顔特徴抽出処理の実行有無と、顔検出処理が実行された場合の検出処理方法と、顔特徴抽出が実行された場合の顔特徴抽出方法と、の情報を保持する。頭部処理フィールド345は、フレームにおける頭部検出処理及び頭部特徴抽出処理の実行有無と、頭部検出処理が実行された場合の検出処理方法と、頭部特徴抽出処理が実行された場合の頭部特徴抽出方法と、の情報を保持する。服飾処理フィールド346は、フレームにおける服飾検出処理及び服飾特徴抽出処理の実行有無と、服飾検出処理が実行された場合の検出処理方法と、服飾特徴抽出処理が実行された場合の服飾特徴抽出方法と、の情報を保持する。
The
本例において、「NONE」は処理が実行されなかったことを意味する。「DETECTORk」(kは自然数)及び「EXTRACTORk」は、それぞれ、顔処理、頭部処理、または服飾処理における、検出処理方法及び抽出処理方法の識別子である。 In this example, “NONE” means that the process has not been executed. “DETECTORk” (k is a natural number) and “EXTRACTORk” are identifiers of a detection processing method and an extraction processing method in face processing, head processing, or clothing processing, respectively.
顔特徴管理情報350は、顔IDフィールド351、フレームIDフィールド352、矩形座標フィールド353及び顔特徴ベクトルフィールド354を含む。顔IDフィールド351は、フレームの画像から顔検出部131によって検出された顔領域の識別子(以下、顔ID)を保持する。フレームIDフィールド352は、顔領域が検出されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報340のフレームIDフィールド341に保持されるものと対応する。
The face
矩形座標フィールド353は、検出された顔領域のフレームに占める範囲を示す座標を保持する。顔特徴ベクトルフィールド354は、検出された顔領域から顔特徴抽出部132によって抽出された画像特徴量の特徴ベクトルを保持する。
The rectangular coordinate
頭部特徴管理情報360は、頭部IDフィールド361、フレームIDフィールド362、矩形座標フィールド363及び頭部特徴ベクトルフィールド364を含む。頭部IDフィールド361は、フレームから頭部検出部141によって検出された頭部領域の識別子(以下、頭部ID)を保持する。フレームIDフィールド362は、頭部領域が検出されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報340のフレームIDフィールド341に保持されるものと対応する。
The head
矩形座標フィールド363は、検出された頭部領域のフレームに占める範囲を示す座標を保持する。頭部特徴ベクトルフィールド364は、検出された頭部領域から頭部特徴抽出部142によって抽出された画像特徴量の特徴ベクトルを保持する。
The rectangular coordinate
服飾特徴管理情報370は、服飾IDフィールド371、フレームIDフィールド372、矩形座標フィールド373及び服飾特徴ベクトルフィールド374を含む。服飾IDフィールド371は、フレームから服飾検出部151によって検出された服飾領域の識別子(以下、服飾ID)を保持する。フレームIDフィールド372は、服飾領域が検出されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報340のフレームIDフィールド341に保持されるものと対応する。
The clothing
矩形座標フィールド373は、検出された服飾領域のフレームに占める範囲を示す座標を保持する。服飾特徴ベクトルフィールド374は、検出された服飾領域から服飾特徴抽出部152によって抽出された画像特徴量の特徴ベクトルを保持する。
The rectangular coordinate
上記以外の顕著領域が検出され、その特徴量が抽出された場合には、当該顕著領域に関する上記と同様の情報が映像データベース161に保持される。
When a saliency area other than the above is detected and the feature amount is extracted, the same information as the above regarding the saliency area is held in the
図4は、実施例1のサーバ計算機107が入力された映像を登録する処理を説明するフローチャートである。最初に、映像入力部108が、映像記憶装置101または映像撮影装置102から入力された映像データファイルを取得する(ステップS400)。具体的には、映像入力部108は、映像データ管理情報300に取得した映像データファイルのエントリを追加する。映像データファイルは、映像を撮影した撮影場所または撮影装置の情報を含む。映像入力部108は、不図示の管理情報を参照することで、撮影装置に対応付けられた撮影場所の情報を取得する。
FIG. 4 is a flowchart for explaining processing for registering the input video by the
次に、映像入力部108が、入力された映像データファイルをデコードし、フレームを静止画として抽出する(ステップS401)。映像データファイルのフレームレートは、映像データファイルの種類によって異なってもよい。
Next, the
次に、サーバ計算機107内の各部が、ステップS401で抽出された各フレームに対して、ステップS402〜S419を実行する。
Next, each unit in the
フレーム記録部113は、抽出されたフレームの画像データを、フレームID及び映像IDと共に映像データベース161のフレーム画像管理情報340に記録する(ステップS403)。
The
移動物体追跡部110は、処理対象である現在フレームから移動物体を検出し、検出した移動物体と直前の時刻のフレームから検出された移動物体との間の対応関係を決定し、その情報を保持する(ステップS404)。移動物体追跡部110は、現在フレームにおいて検出された移動物体それぞれに移動物体IDを与え、さらに、現在フレームにおいて検出された移動物体と同じ移動物体が直前フレームで検出されている場合、それらの移動物体IDを同一移動物体として対応付ける。
The moving
次に、軌跡特徴記録部112は、現在フレームから検出された移動物体の情報を映像データベース161の移動物体管理情報330に記録する(ステップS405)。具体的には、軌跡特徴記録部112は、現在フレームから検出された移動物体に付与した移動物体ID、対応する移動物体の矩形座標及び現在フレームの撮影日時の情報を記録する。撮影日時の情報は映像データファイルの属性情報に含まれており、軌跡特徴記録部112は、それを映像入力部108から取得する。
Next, the trajectory
次に、移動物体追跡部110は、現在フレームにおいて新しい移動物体が出現しているか否かを判定する(ステップS406)。具体的には、移動物体追跡部110は、現在フレームから検出された移動物体が直前の時刻のフレームから検出されたいずれの移動物体とも対応付けられない、言い換えると、現在フレームから検出された移動物体と同一の移動物体の画像が直前の時刻のフレームに含まれていない場合、新しい移動物体が出現したと判定する。
Next, the moving
新しい移動物体が出現している場合(ステップS406:YES)、移動物体追跡部110は、当該新しい移動物体に新しい追跡IDを付与する。軌跡特徴記録部112は、当該新しい追跡IDと、当該新しい移動物体が検出された映像の映像IDと、を含むエントリを、軌跡特徴管理情報320に記録する(ステップS407)。一方、新しい移動物体が出現していない場合(ステップS406:NO)、ステップS407は省略される。
When a new moving object appears (step S406: YES), the moving
次に、軌跡特徴記録部112は、ステップS404における対応関係に従って、軌跡特徴管理情報320における移動物体IDフィールド323を更新する(ステップS408)。
Next, the trajectory
具体的には、軌跡特徴記録部112は、新たに出現した移動物体の移動物体IDを、ステップS407で記録された追跡IDのエントリの移動物体IDフィールド323に記録する。さらに、軌跡特徴記録部112は、直前の時刻のフレームから検出された移動物体と同一の移動物体の移動物体IDを、当該直前の時刻の移動物体と同一のエントリの移動物体IDフィールド323に記録する。
Specifically, the trajectory
次に、移動物体追跡部110は、消失した移動物体が存在するか否かを判定する(ステップS409)。具体的には、ステップS404において直前の時刻のフレームから検出された移動物体が現在フレームのいずれの移動物体とも対応付けられない、言い換えると、直前の時刻のフレームから検出された移動物体と同一の移動物体の画像が現在フレームに含まれていない場合、移動物体追跡部110は、直前の時刻のフレームから検出された当該移動物体が消失したと判定する。
Next, the moving
消失した移動物体が存在する場合(S409:YES)、軌跡特徴抽出部111は、消失した移動物体それぞれの軌跡から、軌跡特徴量を抽出する(ステップS410)。具体的には、軌跡特徴抽出部111は、軌跡特徴管理情報320における、消失した移動物体のエントリの移動物体IDフィールド323から、移動物体IDを取得する。
When there is a lost moving object (S409: YES), the trajectory
さらに、軌跡特徴抽出部111は、移動物体管理情報330から、取得した移動物体IDそれぞれの矩形座標を取得し、当該移動物体の軌跡を決定する。各フレームにおける移動物体の座標は、例えば、矩形の中心位置である。軌跡特徴抽出部111は、決定した軌跡から軌跡特徴量を算出する。軌跡特徴抽出部111は、抽出された軌跡特徴量から軌跡特徴ベクトルを生成する。
Further, the trajectory
軌跡特徴記録部112は、消失した移動物体それぞれの軌跡特徴ベクトルを、軌跡特徴管理情報320内の軌跡特徴ベクトルフィールド324に記録する(ステップS411)。消失していない移動物体に対しては、軌跡がさらに延長される可能性があるため、ステップS410、S411は実行されない。消失した移動物体が存在しない場合(S409:NO)、ステップS410及びS411は省略される。
The trajectory
次に、特徴登録処理内容判定部121は、顔検出部131、頭部検出部141、服飾検出部151それぞれにおいて検出処理を実行するか、または、実行しないか判定する(ステップS412)。検出処理を実行する場合、検出処理内容を切り替える判定が含まれてもよい。判定は、特徴登録処理条件入力部109が保持する特徴登録処理条件と、特徴登録処理時間保持部122が保持する各検出部、各抽出部、各記録部の過去の処理時間とに、基づいてもよい。
Next, the feature registration process
特徴登録処理時間保持部122が処理中の映像について保持する処理時間は、例えば、各検出部、各抽出部、各記録部の、過去のフレームそれぞれの処理時間、直前フレームの処理時間、過去所定数のフレームにおける1フレームあたりの平均処理時間、当該映像の最初のフレームから直前のフレームまでの1フレームあたりの平均処理時間等である。ステップS412において、特徴登録処理内容判定部121が検出処理を実行しないという判定となった場合、ステップS413〜ステップS417は実行しない。
The processing time that the feature registration processing
ステップS412における特徴登録処理内容判定部121の判定は、例えば、以下の通りである。特徴登録処理内容判定部121は、ユーザ入力または設定ファイルに従い、所定数フレームに1回の頻度で、特定の検出処理を省略する、または、特定の検出処理において複数の方法から負荷の小さい方法を選択する。これにより、特徴登録処理内容の判定が容易となる。頻度は、検出処理の種類毎に決定されてもよく、撮影場所毎に設定されてもよい。
The determination by the feature registration process
例えば、特徴登録処理内容判定部121は、顔検出はフレーム毎に実行し、頭部検出及び服飾検出は、それぞれに対して設定された規定数フレームに1回の頻度で省略すると、判定する。これにより、顔検出が実行されるフレームレートは、頭部検出が実行されるフレームレートよりも大きい。
For example, the feature registration process
当該判定は、過去のフレームの処理時間を参照しない。省略する処理及び省略頻度は、ユーザによって指定される、または設定ファイルに予め設定されている。検索精度に影響が小さい処理の省略頻度を大きくすることで、検索精度への影響を小さくしつつ、特徴登録処理の時間を短縮することができる。 This determination does not refer to the processing time of past frames. The process to be omitted and the frequency of omission are designated by the user or preset in the setting file. By increasing the omission frequency of the process that has a small influence on the search accuracy, it is possible to reduce the time for the feature registration process while reducing the influence on the search accuracy.
特徴登録処理内容判定部121は、当該映像における過去のフレームの処理時間に基づいて、特徴登録処理内容を決定してもよい。これにより、状況に応じて適切に登録処理内容を変更できる。
The feature registration processing
例えば、特徴登録処理内容判定部121は、特徴登録処理の目標フレームレートを元に、1フレームあたりの目標平均処理時間を算出する。特徴登録処理の目標フレームレートは、顔処理、頭部処理及び服飾処理それぞれに対して設定されている。顔処理、頭部処理及び服飾処理は並列に実行されてもよいし、直列に実行されてもよい。顔処理、頭部処理及び服飾処理に対して独立に目標フレームレートを設定することで、検索精度の影響を小さくしつつ、登録処理時間を短縮できる。
For example, the feature registration process
特徴登録処理内容判定部121は、顔処理、頭部処理、及び服飾処理それぞれの、過去の1フレームあたりの特徴登録処理時間の平均値を算出する。特徴登録処理時間は、検出部、抽出部、記録部の処理時間の合計である。
The feature registration process
特徴登録処理内容判定部121は、顔処理、頭部処理及び服飾処理それぞれについて、特徴登録処理時間の平均値と目標平均処理時間の差分に基づいて、現在フレームの当該処理を省略するか否かまたは処理方法を変更するか否か判定する。
Whether the feature registration process
たとえば、ある処理の特徴登録処理時間の平均値が当該処理の目標平均処理時間よりも長い場合、特徴登録処理内容判定部121は、当該処理の検出処理の実行頻度を減少させる(省略頻度を増加させる)、または現在フレームで当該処理を省略すると判定する。現在フレームで当該処理を省略することは、省略頻度を増加させることになる。
For example, when the average value of the feature registration processing time of a certain process is longer than the target average processing time of the process, the feature registration process
実行頻度の減少量は、ユーザによって指定される、または設定ファイルに予め設定されてもよい。これにより、検出処理の負荷を低減し、特徴処理時間の平均値を小さくして目標値に近づけることができる。 The amount of decrease in the execution frequency may be designated by the user or set in advance in the setting file. As a result, the load of the detection process can be reduced, and the average value of the feature processing time can be reduced to approach the target value.
特徴登録処理内容判定部121は、目標平均処理時間と特徴登録処理時間の平均値とに基づき、それぞれの検出処理の処理方法を決定してもよい。たとえば、特徴登録処理内容判定部121は、フレーム内で検出処理を実行する領域を変化させてもよい。特徴登録処理時間の平均値が目標平均処理時間よりも長い場合、特徴登録処理内容判定部121は、検出処理を実行する領域を小さくすると判定する。検出処理を実行する領域は、たとえば、撮影場所毎に予め設定されている。
The feature registration process
これにより、検出処理の負荷を低減し、特徴処理時間の平均値を小さくして目標値に近づけることができる。特徴処理時間の平均値は、単純平均値または加重平均値でもよい。平均値と異なる統計値が使用されてもよい。 As a result, the load of the detection process can be reduced, and the average value of the feature processing time can be reduced to approach the target value. The average value of the feature processing time may be a simple average value or a weighted average value. A statistical value different from the average value may be used.
特徴登録処理の一つの目標フレームレートが、撮影場所や映像に対して設定されていてもよい。特徴登録処理内容判定部121は、過去フレームそれぞれの顔処理、頭部処理、及び服飾処理の特徴登録処理時間の最大値を選択し、それらの平均値を過去の1フレームあたりの特徴登録処理時間の平均値と決定する。ここでは、上述のように、顔処理、頭部処理、及び服飾処理は並列に実行される。
One target frame rate of the feature registration process may be set for the shooting location and the video. The feature registration processing
特徴登録処理時間の平均値が目標平均処理時間よりも遅い場合、特徴登録処理内容判定部121は、予め決められている検出処理、例えば頭部検出処理の実行頻度を減少させる、または現在フレームでの当該検出処理を省略する。特徴登録処理内容判定部121は、実行頻度を低減する処理として、特徴登録処理時間の平均値が最も長い検出処理を選択してもよい。
When the average value of the feature registration processing time is later than the target average processing time, the feature registration processing
特徴登録処理内容判定部121は、目標平均処理時間と特徴登録処理時間の平均値との差分に基づいて、実行頻度を減少させる検出処理及び実行頻度を決定してもよく、現在フレームで省略する検出処理を決定してもよい。たとえば、特徴登録処理内容判定部121は、差分が第1閾値よりも大きい場合に服飾検出処理を省略し、差分が第1閾値よりも大きな第2閾値よりも大きい場合に頭部検出処理及び服飾検出処理を省略すると判定してもよい。
The feature registration process
特徴登録処理内容判定部121は、目標平均処理時間と特徴登録処理時間の平均値とに基づき、それぞれの検出処理の処理方法を決定してもよい。たとえば、特徴登録処理内容判定部121は、顔処理、頭部処理、及び服飾処理のうちの1又は複数の処理において、検出処理を実行する領域を変化させてもよい。
The feature registration process
次に、顔検出部131、頭部検出部141及び服飾検出部151は、それぞれ、特徴登録処理内容判定部121の判定結果に従い、処理対象の現在フレームの画像から顔領域、頭部領域及び服飾領域を検出する、または検出を省略する(ステップS413)。実行頻度が決められている場合、過去のフレームにおける検出処理の有無と実行頻度とから、現在フレームにおける検出処理の実行の有無が決定される。検出は、公知の方法を含む任意の方法によって実行することができる。
Next, the
次に、顔検出部131、頭部検出部141及び服飾検出部151は、それぞれの領域の検出に成功したか否かを判定する(ステップS414)。検出が成功している処理については(ステップS414:YES)、特徴登録処理内容判定部121は、ステップS415に進む。検出が成功していない処理については(ステップS414:NO)、特徴登録処理内容判定部121は、ステップS418に進む。
Next, the
ステップS415において、顔特徴抽出部132、頭部特徴抽出部142、服飾特徴抽出部152において特徴抽出処理を実行するか否かの判定を行う(ステップS415)。特徴抽出を省略すると判定する場合(S415:NO)、特徴登録処理内容判定部121は、ステップS416を省略し、ステップS417に進む。
In step S415, it is determined whether or not feature extraction processing is executed in the face
特徴抽出を実行すると判定する場合(S415:YES)、特徴登録処理内容判定部121は、ステップS416に進む。特徴抽出処理を実行する場合、特徴抽出処理を切り替える判定を含めてもよい。判定においては、特徴登録処理条件入力部109が保持する登録処理条件と、特徴登録処理時間保持部122が保持する各検出部、各抽出部、各記録部の処理時間を使用してもよい。
When it determines with performing feature extraction (S415: YES), the characteristic registration process
ステップS415における特徴登録処理内容判定部121の判定内容は、例えば、以下の通りである。特徴登録処理内容判定部121検出処理によって検出された顕著領域の構成に基づいて、特徴抽出処理の内容を決定してもよい。これにより、検索精度への影響を小さくしつつ特徴抽出処理の負荷および時間を低減できる。
The determination content of the feature registration process
たとえば、検出処理によって検出された顕著領域の矩形領域のサイズ、たとえば、フレーム内の最大サイズまたはサイズ平均値が、ユーザが指定したまたは設定ファイルに予め記載されたサイズより小さい場合、対応する特徴抽出処理を省略すると判定される。フレームにおける各種顕著領域の最大サイズ、最小サイズまたは平均値であってもよい。目標平均処理時間と特徴登録処理時間の平均値との比較に基づく判定は、検出処理と同様である。 For example, if the size of the rectangular area of the salient area detected by the detection process, for example, the maximum size or average size value in the frame is smaller than the size specified by the user or described in the setting file in advance, the corresponding feature extraction It is determined that the process is omitted. It may be the maximum size, minimum size, or average value of various salient regions in the frame. The determination based on the comparison between the target average processing time and the average value of the feature registration processing time is the same as the detection processing.
特徴登録処理内容判定部121は、検出された顕著領域の数に基づいて特徴抽出処理を省略するか否か判定してもよく、または検出された顕著領域の数に基づいて特徴抽出方法を切り替えてもよい。たとえば、特定の検出処理(たとえば顔検出)で検出された顕著領域(たとえば顔領域)が閾値を超える場合、特徴登録処理内容判定部121は、対応する特徴抽出処理(たとえば顔特徴抽出処理)を省略する。閾値の数は、顔処理、頭部処理及び服飾処理それぞれに設定されてもよく、共通でもよい。閾値は、特徴登録処理時間の平均値と目標平均処理時間の差分に応じて変化してもよい。
The feature registration process
顔特徴抽出部132は、特徴登録処理内容判定部121における判定結果(ステップS415)に応じて、検出された顔領域から特徴量を抽出する(ステップS416)。顔特徴記録部133は、ステップS413が実行された場合、検出された顔領域の範囲を示す座標を処理対象の現在フレームのフレームIDに対応する矩形座標フィールド353に登録し、ステップS416が実行された場合、抽出された特徴量からなる特徴ベクトルを処理対象の現在フレームのフレームIDに対応する顔特徴ベクトルフィールド354に登録する(ステップS417)。
The face
頭部特徴抽出部142は、特徴登録処理内容判定部121における判定結果(ステップS415)に応じて、検出された頭部領域から特徴量を抽出する(ステップS416)。頭部特徴記録部143は、ステップS413が実行された場合、検出された頭部領域の範囲を示す座標を処理対象の現在フレームのフレームIDに対応する矩形座標フィールド363に記録し、ステップS416が実行された場合、抽出された特徴量からなる特徴ベクトルを処理対象の現在フレームのフレームIDに対応する頭部特徴ベクトルフィールド364に記録する(ステップS417)。
The head
服飾特徴抽出部152は、特徴登録処理内容判定部121における判定結果(ステップS415)に応じて、検出された服飾領域から特徴量を抽出する(ステップS416)。服飾特徴記録部153は、ステップS413が実行された場合、検出された服飾領域の範囲を示す座標を処理対象の現在フレームのフレームIDに対応する矩形座標フィールド373に記録し、ステップS416が実行された場合、抽出された特徴量からなる特徴ベクトルを処理対象の現在フレームのフレームIDに対応する服飾特徴ベクトルフィールド374に記録する(ステップS417)。
The clothing
顔特徴記録部133は、顔検出部131及び顔特徴抽出部132における処理内容をフレーム画像管理情報340の顔処理フィールド344に記録する(ステップS418)。顔処理フィールド344には、例えば、顔検出や顔特徴量抽出が実行されたか実行されていないかについての情報、顔検出に使用した検出方法、顔領域の画像特徴量の抽出に使用した方法などが登録される。
The face
頭部特徴記録部143は、頭部検出部141及び頭部特徴抽出部142における処理内容をフレーム画像管理情報340の頭部処理フィールド345に記録する(ステップS418)。頭部処理フィールド345には、例えば、頭部検出や頭部特徴量抽出が実行されたか実行されていないかについての情報、頭部検出に使用した検出方法、頭部領域の画像特徴量の抽出に使用した方法などが登録される。
The head
服飾特徴記録部153は、服飾検出部151及び服飾特徴抽出部152における処理内容をフレーム画像管理情報340の服飾処理フィールド346に記録する(ステップS418)。服飾処理フィールド346には、例えば、服飾検出や服飾特徴量抽出が実行されたか実行されていないかについての情報、服飾検出に使用した検出方法、服飾領域の画像特徴量の抽出に使用した方法などが登録される。
The clothing
特徴登録処理時間演算部123は、顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152、服飾特徴記録部153が使用したそれぞれの処理時間の全て、または、いずれかを受け付け、特徴登録処理時間保持部122に格納する(ステップ419)。ステップ419において、特徴登録処理時間演算部123は、各抽出部、各検出部、各記録部から受け付けた処理時間をそのまま特徴登録処理時間保持部122に格納してもよいし、演算を行った結果を登録してもよい。
The feature registration processing
さらに、演算において、特徴登録処理時間保持部122に保持された処理時間を使用してもよい。例えば、顔検出部131、顔特徴抽出部132、顔特徴抽出部132が、ステップS413、S416、S418において使用した時間の和を計算してもよいし、特徴登録処理時間保持部122に保存された処理対象フレームより以前に処理されたフレームの処理時間を使用して、処理開始以降の1フレームあたりの平均処理時間を計算してもよい。
Further, in the calculation, the processing time held in the feature registration processing
全てのフレームについて上記の処理が終了すると、入力された映像を登録する処理が終了する。なお、ステップS403、S404〜411、S412〜419については、並列に実行されてもよい。 When the above process is completed for all frames, the process of registering the input video is completed. Note that steps S403, S404 to 411, and S412 to 419 may be executed in parallel.
図5は、実施例1のサーバ計算機107が入力された映像を登録する処理の条件を設定するための設定画面の説明図である。図5を参照して、ユーザからの登録処理条件の入力方法の一例を説明する。図5の画面での設定内容は、図4のステップS412及びS415における判定に使用される。
FIG. 5 is an explanatory diagram of a setting screen for setting processing conditions for registering the input video by the
登録処理条件設定画面は、表示装置104によって表示され、チェックボックス501、502、504、506と、特徴登録処理時間比率表示エリア503と、フレームレート比率表示エリア505と、設定ボタン507と、を含む。
The registration processing condition setting screen is displayed by the
チェックボックス501は、特徴登録処理におけるフレームレートの変更を禁止するか許可するかの選択状態を表示する。特徴登録処理におけるフレームレートの変更を禁止する設定の場合、ステップS412及びステップS415では判定処理は実行されず、後続のステップが実行される。
A
チェックボックス502は、特徴登録処理におけるフレームレートを自動的に設定するか否かの選択状態を表示する。チェックボックス502が選択状態の場合、特徴登録処理時間比率表示エリア503の入力値が有効となる。特徴登録処理時間比率表示エリア503には、ユーザがキーボードを用いて入力した特徴登録処理時間比率が表示される。特徴登録処理時間比率は、処理対象の実映像時間に対する特徴登録処理時間の目標時間であり、この値によって、特徴登録処理における顕著領域に共通の目標フレームレートが決まる。
A check box 502 displays a selection state as to whether or not to automatically set the frame rate in the feature registration process. When the check box 502 is selected, the input value in the feature registration processing time
チェックボックス504は、顕著領域別に特徴登録処理のフレームレート比率を指定するか否かの選択状態を表示する。チェックボックス504が選択状態の場合、フレームレート比率表示エリア505に表示されている各顕著領域別のフレームレート比率が有効となる。
A check box 504 displays a selection state as to whether or not to specify the frame rate ratio of the feature registration process for each saliency area. When the check box 504 is selected, the frame rate ratio for each remarkable area displayed in the frame rate
フレームレート比率表示エリア505には、ユーザがキーボードを用いて入力した顕著領域別のフレームレート比率が表示される。それぞれの顕著領域において、特徴登録処理のフレームレートが、映像入力部108が受け付ける映像のフレームレートとフレームレート比率の積となるように、ステップS412において処理をスキップする判定が実行される。
In the frame rate
チェックボックス506は、特徴抽出方法の切替許可の選択状態を表示する。チェックボックス506が選択状態の場合、ステップS415において、特徴登録処理内容判定部121は、処理状況に応じて、ステップS415における該当する顕著領域の画像特徴量の抽出方法を切り替える。図5では省略しているが、登録処理条件設定画面には、切替対象となる抽出方法を指定するための表示エリアが含まれてもよい。
A
チェックボックス501、502、504、506は、マウスクリックすることで状態を切り替えることが可能である。設定ボタン507をクリックすることで、登録条件設定画面における登録処理条件が特徴登録処理条件入力部109に送られる。
Check
上述のように、実施例1によれば、映像の特徴登録処理において、各顕著領域の検出処理及び特徴抽出処理の方法及び頻度、並びに、映像データベースへの特徴記録処理の頻度を、変更することができる。これにより、負荷の高い処理の頻度を低下させることや、処理方法を負荷の低い方法に切り替えることができ、移動物体の特徴量登録処理時間を低減しつつ、移動物体の検索精度の低下を小さくできる。 As described above, according to the first embodiment, in the video feature registration process, the method and frequency of each salient area detection process and feature extraction process, and the frequency of the feature recording process in the video database are changed. Can do. As a result, it is possible to reduce the frequency of processing with a high load and to switch the processing method to a method with a low load, thereby reducing the reduction in the accuracy of moving object search while reducing the feature amount registration processing time of the moving object. it can.
実施例1によれば、入力された映像から特徴量を抽出する際の自由度が向上し、入力された映像データファイルのフレームの登録処理と、特徴登録処理とを、リアルタイムに行うことが出きる。また、情報の記録量と処理時間の調整が可能となる。 According to the first embodiment, the degree of freedom in extracting feature values from the input video is improved, and the registration processing of the frames of the input video data file and the feature registration processing can be performed in real time. Yes. In addition, the amount of information recorded and the processing time can be adjusted.
図6は、実施例1のサーバ計算機107による検索処理を説明するフローチャートである。最初に、ユーザが検索に使用する特徴ベクトル(特徴量)を決定し、入力する(ステップS601)。ユーザからの入力は、特徴ベクトル入力部171によって受け付けられる。ここでは、軌跡特徴ベクトル、顔特徴ベクトル、頭部特徴ベクトル及び服飾特徴ベクトルを検索に使用することが決定された場合について説明する。
FIG. 6 is a flowchart for explaining search processing by the
上述のように検索に使用する特徴ベクトルが決定された場合、サーバ計算機107は、軌跡特徴ベクトルを用いた検索処理(ステップS611〜S616)、顔特徴ベクトルを用いた検索処理(ステップS621〜S623)、頭部特徴ベクトルを用いた検索処理(ステップS631〜S633)、及び服飾特徴ベクトルを用いた検索処理(ステップS641〜S643)を、任意の順に、または並列に実行する。
When the feature vector used for the search is determined as described above, the
最初に、軌跡特徴ベクトルを用いた検索処理(ステップS611〜S616)を説明する。サーバ計算機107は、ステップS611〜S614を順次実行する。ユーザが入力装置105を用いて撮影場所IDをサーバ計算機107に入力すると(ステップS611)、サーバ計算機107は背景画像データ管理情報310を参照して、入力された撮影場所IDに対応する背景画像データを読み出し、そのデータに基づいて背景画像を表示装置106に表示する(ステップS612)。
First, the search process (steps S611 to S616) using the trajectory feature vector will be described. The
次に、ユーザが入力装置105を用いて特徴ベクトル入力部171に軌跡を入力すると(ステップS613)、類似特徴ベクトル検索部172が入力された軌跡を軌跡特徴ベクトルに変換する(ステップS614)。この変換は、軌跡特徴抽出部111が図4のステップS410において実行する軌跡特徴ベクトルの抽出と同様の方法で行われる。
Next, when the user inputs a trajectory to the feature
次に、ユーザが入力装置105を操作して軌跡特徴ベクトルの重みを決定する(ステップS615)。次に、類似特徴ベクトル検索部172が、ステップS613で入力された軌跡と類似する軌跡を映像データベース161の軌跡特徴管理情報320から検索する(ステップS616)。軌跡特徴ベクトルの検索機能は、例えば、クエリとして入力された軌跡特徴ベクトルと近い順にデータを並び替えて出力する。軌跡特徴ベクトルの比較には、例えば、軌跡特徴ベクトル間のユークリッド距離を用いることができる。
Next, the user operates the
次に、顔特徴ベクトルを用いた検索処理(ステップS621〜S623)を説明する。まず、ユーザが入力装置105を操作して検索キーとなる顔を設定する(ステップS621)。次に、ユーザが入力装置105を操作して顔特徴ベクトルの重みを決定する(ステップS622)。
Next, search processing (steps S621 to S623) using a face feature vector will be described. First, the user operates the
次に、類似特徴ベクトル検索部172が、ステップ521で検索キーとして設定された顔に類似する顔を顔特徴管理情報350から検索する(ステップS623)。具体的には、類似特徴ベクトル検索部172は、ステップ521で検索キーとして設定された顔の画像特徴ベクトルと、顔特徴管理情報350に保持された顔特徴ベクトルとの間のユークリッド距離を用いて、類似する顔を検索することができる。後述する類似頭部検索(ステップS633)及び類似服飾検索(ステップS643)も同様である。
Next, the similar feature
次に、頭部特徴量を用いた検索処理(ステップS631〜S633)を説明する。まず、ユーザが入力装置105を操作して検索キーとなる頭部を設定する(ステップS631)。次に、ユーザが入力装置105を操作して頭部特徴ベクトルの重みを決定する(ステップS632)。次に、類似特徴ベクトル検索部172が、ステップ531で検索キーとして設定された頭部に類似する頭部を頭部特徴管理情報360から検索する(ステップS633)。
Next, a search process (steps S631 to S633) using the head feature amount will be described. First, the user operates the
次に、服飾特徴ベクトルを用いた検索処理(ステップS641〜S643)を説明する。まず、ユーザが入力装置105を操作して検索キーとなる服飾を設定する(ステップS641)。次に、ユーザが入力装置105を操作して服飾特徴ベクトルの重みを決定する(ステップS642)。次に、類似特徴ベクトル検索部172が、ステップ531で検索キーとして設定された服飾に類似する服飾を服飾特徴管理情報370から検索する(ステップS643)。
Next, search processing (steps S641 to S643) using the clothing feature vector will be described. First, the user operates the
次に、検索結果統合部173が、ステップS616、S623、S633及びS643の検索結果を統合する(ステップS651)。具体的には、検索結果統合部173は、検索によって得られた軌跡特徴ベクトル、顔特徴ベクトル、頭部特徴ベクトル及び服飾特徴ベクトルの類似度に、それぞれ、ステップS615、S622、S632及びS642で決定された重み係数を掛けた値を合計することで総合的な類似度のスコアを得る。検索結果統合部173は、設定された重み係数をそのまま使用してもよいし、全ての特徴ベクトルの重み係数の合計値が1となるように正規化してもよい。
Next, the search
なお、たとえば、顔特徴管理情報350に登録された顔特徴ベクトルが、移動物体管理情報330に登録されたどの人物の顔の特徴ベクトルであるかは、顔特徴管理情報350に登録された矩形座標と移動物体管理情報330に登録された矩形座標とが重複するか否か(またはどの程度重複するか)に基づいて判定することができる。頭部特徴ベクトル及び服飾特徴ベクトルについても同様である。この判定を容易にするために、移動物体管理情報330は、それぞれの移動物体の画像が抽出されたフレームを識別するフレームIDをさらに含んでもよい。
Note that, for example, which face feature vector registered in the face
次に、検索結果統合部173は、検索結果及びスコアを表示装置106に出力し、表示装置106が検索結果をスコアが高い順に表示する(ステップS661)。以上で検索処理が終了する。
Next, the search
図7は、実施例1のサーバ計算機107によって出力される検索画面の説明図である。図7を参照して、図6の処理におけるユーザからの情報の入力方法及び検索結果の表示方法の一例を説明する。
FIG. 7 is an explanatory diagram of a search screen output by the
表示装置106によって表示される検索画面は、映像再生エリア701、カメラ内追跡結果表示エリア702、全体像表示エリア703、重み設定エリア704、特徴ベクトル設定エリア705、検索ボタン706及び検索結果表示エリア707を含む。
The search screen displayed by the
映像再生エリア701には、ユーザが選択した撮影場所で撮影された映像が再生され、表示される。ユーザが表示された映像に含まれる移動物体のいずれかを指定すると、指定された移動物体を当該映像内で追跡した結果がカメラ内追跡結果表示エリア702に表示される。ここでは、移動物体が人物である例について説明する。例えば当該映像の複数のフレーム画像から切り出された、指定された人物の複数の画像が、撮影日時の順に並べて表示されてもよい。
In the
実行される検索の目的は、ユーザが指定した特徴に近い特徴を有する人物の画像を、当該映像、当該映像と同じ場所で撮影された別の映像、または別の場所で撮影された映像から検索することであり、その人物と同一の人物(または同一の人物ではないが類似する特徴を有する人物)の画像が映像再生エリア701に表示された映像から発見された場合には、ユーザはその画像を指定することができる。
The purpose of the search performed is to search for an image of a person with features close to the features specified by the user from the video, another video taken at the same location as the video, or a video taken at another location. If an image of the same person (or a person who is not the same person but has similar characteristics) is found from the video displayed in the
ただし、例えば目撃情報から設定された特徴ベクトル(後述)のみが検索キーとして設定される場合のように、検索キーを設定するために移動物体の画像を参照する必要がない場合、映像再生エリア701に表示された画像をユーザが指定する必要がない。全体像表示エリア703には、移動物体の全体像が模式的に表示される。図7の例では、人物の頭部、顔、上半身、下半身、鞄等の領域を含む人物の模式図が表示される。
However, when it is not necessary to refer to the image of the moving object in order to set the search key, for example, when only the feature vector (described later) set from the sighting information is set as the search key, the
重み設定エリア704には、それぞれの特徴量の重みを設定するためのスライドバーまたはその他の設定手段が表示される。図7の例では、全体像表示エリア703に表示された領域及び軌跡のそれぞれの特徴ベクトルの重みを設定するためのスライドバーが表示される。
In the
図7の例では頭部、顔、上半身、下半身、鞄及び軌跡のそれぞれの特徴ベクトルに対応するスライドバーが表示されているが、頭部、顔、服飾及び軌跡に対応するスライドバーが表示されてもよいし、その他の任意の顕著領域の特徴ベクトルに対応するスライドバーが表示されてもよい。 In the example of FIG. 7, slide bars corresponding to the feature vectors of the head, face, upper body, lower body, heel, and locus are displayed, but slide bars corresponding to the head, face, clothing, and locus are displayed. Alternatively, a slide bar corresponding to the feature vector of any other saliency area may be displayed.
特徴ベクトル設定エリア705には、以下に具体例を説明するように、特徴ベクトルの設定画面が表示される。例えば、ユーザは、軌跡特徴ベクトルを検索に使用することを決定した場合(ステップS601)、重み設定エリア704から「軌跡」を選択し、撮影場所IDを指定すると(ステップS611)、指定された撮影場所の背景画像が特徴ベクトル設定エリア705に表示される(ステップS612)。
In the feature
続いて、ユーザは特徴ベクトル設定エリア705に表示された背景画像上で、検索キーとなる軌跡を入力する(ステップS613)。例えば、ユーザは、入力装置105であるマウスを操作してポインタ(マウスカーソル)を入力しようとする軌跡の始点に置き、マウスボタンを押して、ポインタを軌跡に沿って動かすようにドラッグし、軌跡の終点でマウスボタンを離すことで、軌跡を入力する。
Subsequently, the user inputs a locus serving as a search key on the background image displayed in the feature vector setting area 705 (step S613). For example, the user operates the mouse as the
または、表示装置106が例えば入力装置105としての機能も有するタッチパネルである場合、ユーザが特徴ベクトル設定エリア705に表示された背景画像上の軌跡の始点を指またはペン等によってタッチし、軌跡に沿って終点までスワイプしてもよい。ユーザがマウスクリックまたはタッチによって背景画像上のいくつかの点を指定し、サーバ計算機107がベジエ曲線等によってそれらの点を補間することによって軌跡を生成してもよい。
Alternatively, when the
軌跡特徴抽出部111は、入力された軌跡を軌跡特徴量に変換する(ステップS614)。ユーザは、さらに、重み設定エリア704に表示された「軌跡」に対応するスライドバーを操作することで、軌跡特徴ベクトルの重みを設定する(ステップS615)。
The trajectory
または、ユーザは、顔特徴ベクトルを検索に使用することを決定した場合(ステップS601)、重み設定エリア704から「顔」を選択し、検索キーとなる顔を設定する(ステップ521)。例えば、カメラ内追跡結果表示エリア702に表示された複数の画像から切り出された複数の顔画像が特徴ベクトル設定エリア705に表示され、ユーザがそれらの顔画像のいずれかを選択すると、選択された顔画像が検索キーとして設定されてもよい。ユーザは、さらに、重み設定エリア704に表示された「顔」に対応するスライドバーを操作することで、顔特徴ベクトルの重みを設定する(ステップS622)。
Alternatively, when the user decides to use the face feature vector for the search (step S601), the user selects “face” from the
同様に、ユーザは、頭部特徴ベクトルを検索に使用することを決定した場合(ステップS601)、重み設定エリア704から「頭部」を選択し、検索キーとなる頭部を設定し(ステップ531)、頭部特徴ベクトルの重みを設定する(ステップS632)。これらの手順は、例えば、顔特徴量及びその重みの設定と同様に実行することができる。
Similarly, when the user decides to use the head feature vector for the search (step S601), the user selects “head” from the
さらに、ユーザは、服飾特徴量を検索に使用することを決定した場合、重み設定エリア704から「服飾」(図7の例では「上半身」または「下半身」でもよい)を選択し、検索キーとなる服飾を設定し(ステップ541)、服飾特徴ベクトルの重みを設定する(ステップS642)。これらの手順は、例えば、顔特ベクトル量及びその重みの設定と同様に実行することができる。
Furthermore, when the user decides to use the clothing feature value for the search, the user selects “clothing” (may be “upper body” or “lower body” in the example of FIG. 7) from the
または、例えば服飾特徴量として色特徴量が設定される場合には、カメラ内追跡結果表示エリア702に表示された画像から切り出された服飾画像ではなく、色見本またはカラーパレット等が特徴ベクトル設定エリア705に表示され、ユーザがいずれかの色を選択してもよい。
Alternatively, for example, when a color feature amount is set as a clothing feature amount, a color sample or a color palette is not a clothing image cut out from the image displayed in the in-camera tracking
図6では省略されているが、他の顕著領域(例えば鞄領域)の特徴量が設定される場合も、上記と同様に行うことができる。設定された特徴量(例えば色等)が全体像表示エリア703に表示された人物の模式図に反映されてもよい。
Although omitted in FIG. 6, it is possible to perform the same processing as described above even when a feature amount of another saliency area (for example, a wrinkle area) is set. The set feature amount (for example, color) may be reflected in the schematic diagram of the person displayed in the overall
ユーザが検索ボタン706を操作すると、検索に使用することが決定された特徴量について類似特徴ベクトル検索が行われ(ステップS616、S623、S633及びS643)、設定された重みに基づいて検索結果が統合され(ステップS651)、スコアの順に検索結果が検索結果表示エリア707に表示される(ステップS661)。
When the user operates the
画像708aには、指定された撮影場所の背景画像上に、検索結果として得られた軌跡710aが表示され、さらに、当該軌跡710aに対応する移動物体(この例では人物)709aの画像が表示される。すなわち、軌跡710aは移動物体709aが移動した軌跡である。
In the
例えば、検索された軌跡の開始日時から終了日時までのいずれかの時点のフレームの画像上に、検索された軌跡を示す矢印を重畳表示することによって画像708aが生成されてもよい。この場合、図7に示すように、表示されたフレームが撮影された日時が表示されてもよい。画像708bも同様に、別の検索された軌跡710b及びそれに対応する移動物体709bの画像を含む。
For example, the
なお、検索結果表示エリア707には、背景画像及び移動物体の画像を表示せずに、検索された軌跡を示す矢印のみを表示してもよい。または、いずれかの時点のフレームの画像(すなわち静止画像)ではなく、検索された軌跡の開始日時から終了日時までの映像を再生し、それを検索結果表示エリア707に表示してもよい。
In the search
また、図6及び図7の例では、検索条件として撮影場所及び軌跡が指定さるが、さらに時刻が指定されてもよい。この場合、図7に示す検索画面にさらに時刻指定エリア(図示省略)が設けられ、ユーザが入力装置105を操作して時刻(例えば検索対象の時間帯)を入力する。この場合、ユーザに指定された時間帯に開始時刻から終了時刻までの時間が含まれる軌跡が検索される。または、検索条件として撮影場所が指定されなくてもよい。その場合、撮影場所にかかわらず、類似する軌跡が検索される。
In the examples of FIGS. 6 and 7, the shooting location and the locus are specified as the search conditions, but the time may be specified. In this case, a time designation area (not shown) is further provided on the search screen shown in FIG. 7, and the user operates the
上述のように、実施例1によれば、1種類以上の特徴ベクトルに基づいて移動物体の画像を検索することができる。実際に撮影された画像から取得された特徴ベクトル、例えば映像再生エリア701に表示された映像から切り出された顔画像の特徴ベクトル、だけでなく、ユーザが直接入力した特徴ベクトル、例えばユーザによって色見本から選択された色特徴ベクトルを検索キーとして指定することができる。
As described above, according to the first embodiment, a moving object image can be searched based on one or more types of feature vectors. Not only feature vectors acquired from actually captured images, eg, feature vectors of face images cut out from the video displayed in the
検索しようとする人物が所持していると推定される所持品(例えば鞄)と類似する所持品を所持する別の人物の画像が得られる場合、その画像から抽出された所持品の特徴ベクトルを検索キーとして指定することもできる。 When an image of another person who possesses possession similar to the possession that is estimated to be possessed by the person to be searched (for example, bag) is obtained, the feature vector of the possession extracted from the image is obtained. It can also be specified as a search key.
複数種類の特徴ベクトルを検索キーとして検索が行われる場合、それらの検索結果は重み付けをした上で統合される。例えばユーザがいずれかの特徴を特に重視したい特徴ベクトルがある場合、その特徴ベクトルの重みを大きくすることができる。ユーザは、設定された検索キーの確度またはそれを用いた移動物体の識別のしやすさ等に基づいて重みを設定してもよい。 When a search is performed using a plurality of types of feature vectors as search keys, the search results are weighted and integrated. For example, when there is a feature vector that the user particularly wants to emphasize any feature, the weight of the feature vector can be increased. The user may set the weight based on the accuracy of the set search key or the ease of identifying a moving object using the search key.
サーバ計算機107は、例えば顔領域に含まれる画像の「顔らしさ」を判定して、顔らしさが高いほど重みが大きくなるように重みを自動設定してもよい。他の顕著領域についても同様である。
For example, the
実施例1によれば、実際に撮影された検索対象の移動物体の画像の特徴ベクトルだけでなく、例えば目撃情報またはその他の情報に基づいて推定される1種類以上の特徴ベクトルを検索キーとして用い、さらにそれらの重みを任意に設定することによって、種々の情報源からの情報を統合した検索キーを用いた検索など、自由度の高い検索を実現することができる。 According to the first embodiment, not only the feature vector of the image of the moving object that is actually photographed but also one or more types of feature vectors estimated based on, for example, sighting information or other information are used as the search key. Further, by arbitrarily setting these weights, it is possible to realize a search with a high degree of freedom such as a search using a search key that integrates information from various information sources.
なお、画像検索システム100は、特徴ベクトル入力部171、類似特徴ベクトル検索部172、検索結果統合部173、入力装置105、表示装置106を持たない情報処理装置として機能してもよい。この場合、サーバ計算機107は、映像撮影装置102に組み込まれてもよい。
Note that the
次に、実施例2の画像検索システム100について説明する。実施例1においては、図4のステップS412〜S418において検出及び抽出の処理が実行されない場合、図6のステップS616、S623、S633、S643における検索の対象となるデータ量が減少する場合がある。
Next, the
このようなデータ量減少を解消するため、実施例2においては、特徴量がデータベースに登録されていないフレームについて、追加で特徴登録処理を行う。実施例2の画像検索システム100について、図8〜図12を用いて説明する。
In order to eliminate such a decrease in the data amount, in the second embodiment, an additional feature registration process is performed for frames whose feature amounts are not registered in the database. An
図8及び図9は、実施例2の画像検索システム100の全体構成図である。実施例1記載の画像検索システム100と異なる点を説明する。実施例2の画像検索システム100は、図8記載の追加登録実行判定部801及び追加登録条件入力部802を含む。さらに、実施例2の画像検索システム100は、図9記載の、追加登録処理内容判定部901、フレーム記録部903、顔検出部911、顔特徴抽出部912、顔特徴記録部913、頭部検出部921、頭部特徴抽出部922、頭部特徴記録部923、服飾検出部931、服飾特徴抽出部932、服飾特徴記録部933を含む。
8 and 9 are overall configuration diagrams of the
追加登録実行判定部801は、追加登録条件入力部802から受け付けた特徴ベクトルと、軌跡特徴記録部112、顔特徴記録部133、頭部特徴記録部143、服飾特徴記録部153から受けつけた各特徴ベクトルを照合し、照合結果に応じて、後述する特徴追加登録のフロー(図11)を開始する。追加登録条件入力部802は、ユーザが入力装置103を用いて入力した内容を受け付ける。
The additional registration
フレーム記録部903、顔検出部911、顔特徴抽出部912、顔特徴記録部913、頭部検出部921、頭部特徴抽出部922、頭部特徴記録部923、服飾検出部931、服飾特徴抽出部932、服飾特徴記録部933は、図1記載のフレーム記録部113、顔検出部131、顔特徴抽出部132、顔特徴記録部133、頭部検出部141、頭部特徴抽出部142、頭部特徴記録部143、服飾検出部151、服飾特徴抽出部152、服飾特徴記録部153と同様であるが、それぞれ独立に動作することが可能である。
実施例2の画像検索システム100のハードウェア構成は、実施例1における画像検索システム100のハードウェア構成(図2)と同様であり、説明を省略する。実施例2の映像データベース161の構成及びデータ例については、実施例1の映像データベース161の構成及びデータ例(図3)と同様であり、説明を省略する。
The hardware configuration of the
図10は、実施例2のサーバ計算機107が、入力された映像を登録する処理を説明するフローチャートである。以下、図4との相違点を中心に説明する。ステップS401〜ステップS419については、図4と同様である。
FIG. 10 is a flowchart illustrating a process in which the
次に、追加登録実行判定部801は、特徴量を追加で登録するかを判定する追加特徴量登録判定を実行する(ステップS1001)。具体的には、追加登録実行判定部801は、追加登録条件入力部802より特徴ベクトルを受け付け、軌跡特徴記録部112、顔特徴記録部133、頭部特徴記録部143、服飾特徴記録部153から受け付けた特徴ベクトルのうち該当する種類の特徴ベクトルとの照合を行い、特徴ベクトルの類似度が閾値より高い場合には、後述する特徴追加登録のフロー(図11)を開始する(ステップS1001)。
Next, the additional registration
例えば、追加登録実行判定部801が追加登録条件入力部802より軌跡特徴ベクトルを受け付けた場合、追加登録実行判定部801は、軌跡特徴記録部112から受け付けた軌跡特徴ベクトルと追加登録条件入力部802より受け付けた軌跡特徴ベクトルの類似度が規定値を超える場合、特徴追加登録のフローを開始する。これにより、問題となる動きを示す移動物体の未登録の特徴量を登録できる。
For example, when the additional registration
または、追加登録実行判定部801が追加登録条件入力部802より顔特徴ベクトルを受け付けた場合、追加登録実行判定部801は、顔特徴記録部133から受け付けた顔特徴ベクトルと追加登録条件入力部802より受け付けた顔特徴ベクトルの類似度が規定値を超える場合、特徴追加登録のフローを開始させる。問題となる人物の未登録の特徴量を登録できる。
Alternatively, when the additional registration
なお、追加登録実行判定部801は、追加登録条件入力部802より特徴ベクトルを受け付ける以外に、特徴ベクトルを決定するための情報を受け付けてもよい。追加登録実行判定部801は、例えば、追加登録条件入力部802より人物の顔画像が含まれる画像と画像からの特徴抽出の対象とする顕著領域の指定情報を受け取った場合、顔検出部911、顔特徴抽出部912を使用して画像から判定に使用する特徴ベクトルを抽出する。
Note that the additional registration
そのほか、追加登録実行判定部801が軌跡特徴記録部112から受け付けた軌跡特徴ベクトルに含まれるデータ長が閾値より小さい場合に、追加登録実行判定部801は、特徴追加登録のフロー(図11)を開始してもよい。上記処理により、映像内に映っている時間の短い人物の特徴ベクトルの登録が未実行となることを回避できる。
In addition, when the data length included in the trajectory feature vector received by the additional registration
図11は、実施例2のサーバ計算機107が、映像データベース161に登録されているフレームに対して実行する特徴追加登録処理についてのフローチャートである。図11記載のフローは、図10記載のステップS1001における判定結果に基づき実行される。以下、図11の各ステップについて説明する。
FIG. 11 is a flowchart of a feature addition registration process executed by the
まず、追加登録処理内容判定部901は、追加登録実行判定部801より処理中のフレームIDを受け付け、フレーム画像管理情報340を参照して、同一映像における処理中のフレームの直前フレームのフレームIDを決定する。追加登録処理内容判定部901は、さらに、フレーム画像管理情報340から、直前フレームのフレームIDから追加登録条件入力部802より受けつけたフレーム数だけ遡ったフレームのフレームIDを決定し、それらフレームIDの範囲内に含まれる同映像IDのフレームIDを選択する(ステップS1101)。
First, the additional registration process
次に、サーバ計算機107内の各部が、ステップS1101で抽出された各フレームに対して、ステップS1103〜S1107を実行する。追加登録処理内容判定部901は、フレーム画像管理情報340における該当フレームIDに対応する顔処理フィールド344、頭部処理フィールド345、服飾処理フィールド346を確認し、顔検出部131、頭部検出部141、服飾検出部151、顔特徴抽出部132、頭部特徴抽出部142、服飾特徴抽出部152による検出処理及び特徴抽出処理のうち未実行の処理があるか確認する(ステップS1103)。
Next, each unit in the
ステップ1103において確認された未実行の検出処理について(ステップS1103:ELSE)、顔検出部911、頭部検出部921、服飾検出部931は、それぞれ、検出処理を実行する(ステップS1104)。
Regarding the unexecuted detection process confirmed in step 1103 (step S1103: ELSE), the
顔検出部911、頭部検出部921、服飾検出部931は、ステップS1104で実行した検出処理が成功しているか判定する(ステップS1105)。ステップS1103の未実行の処理の確認の結果、未実行の検出処理が無い場合(ステップS1103:SKIP)、ステップS1104、S1105は実行されない。
The
ステップS1105においてステップS1104における検出処理が成功していると判定された場合(ステップS1105:YES)、または、ステップS1103において検出処理が実行済みであるが特徴抽出処理が未実行であると判定された場合(ステップS1103:SKIP)、顔特徴抽出部912、頭部特徴抽出部922、服飾特徴抽出部932のうち該当する抽出部は、特徴抽出処理を実行する(ステップS1106)。ステップS1106における特徴抽出処理は、ステップS416と同様である。
If it is determined in step S1105 that the detection process in step S1104 is successful (step S1105: YES), or it is determined in step S1103 that the detection process has been performed but the feature extraction process has not been performed. In the case (step S1103: SKIP), the corresponding extraction unit among the face
ステップS1105においてステップS1104における検出処理が失敗と判定された場合(ステップS1105:NO)、当該領域における特徴抽出処理(ステップS1106)は省略される。 If it is determined in step S1105 that the detection process in step S1104 has failed (step S1105: NO), the feature extraction process (step S1106) in the area is omitted.
顔特徴記録部913、頭部特徴記録部923、服飾特徴記録部933は、ステップS1106において該当する特徴量が抽出された場合、特徴ベクトル(特徴量)を記録する(ステップS1107)。ステップS1107における処理は、ステップS418における処理内容と同様である。
The face
図11記載の特徴追加登録のフローは、図10記載の映像登録のフローとは、独立、または、並列に実行可能である。このため、実施例2においては、図10記載の映像登録のフローの実行時間を遅延させることなく、図6記載の類似軌跡検索S616、類似顔検索S623、類似頭部検索S633、類似服飾検索S643の検索対象とする特徴ベクトル(特徴量)のデータ量を拡大することが可能となり、検索精度の低下を回避することが可能となる。 The feature addition registration flow shown in FIG. 11 can be executed independently or in parallel with the video registration flow shown in FIG. Therefore, in the second embodiment, the similar locus search S616, the similar face search S623, the similar head search S633, and the similar clothing search S643 illustrated in FIG. 6 are performed without delaying the execution time of the video registration flow illustrated in FIG. It is possible to expand the data amount of the feature vector (feature amount) to be searched, and to avoid a decrease in search accuracy.
図12は、実施例2のサーバ計算機107が映像データベース161に登録済みのフレーム画像のうち特徴ベクトルの登録が未実行のフレーム画像に対して、特徴ベクトルの登録を追加で行うための条件を設定するための設定画面の説明図である。
FIG. 12 illustrates a condition for additionally registering a feature vector for a frame image for which feature vector registration has not been performed among the frame images registered in the
特徴ベクトルの追加登録条件の設定画面は、表示装置104によって表示され、撮影場所ID設定セクション1201、禁止軌跡設定セクション1202、許可対象特徴設定セクション1205、ブラックリスト特徴設定セクション1206、追加登録フレーム数設定セクション1207を含む。
The feature vector additional registration condition setting screen is displayed by the
禁止軌跡設定セクション1202は、ユーザが撮影場所ID設定セクション1201により選択した撮影場所IDに対応する背景画像データを表示する。ユーザは、入力装置103であるマウスをドラッグすることで、禁止対象とする禁止軌跡1204を指定することが可能である。禁止軌跡設定セクション1202で設定した禁止軌跡1204は、追加登録条件入力部802に受け付けられる。
The prohibited
禁止軌跡1204は、追加登録実行判定部801が追加登録条件入力部802から禁止軌跡を受け付けた際、軌跡ベクトルに変換される。禁止軌跡設定セクション1202において禁止軌跡1204を入力した場合、図10記載のステップS1001において、類似する軌跡が存在するかの判定が行われ、存在する場合、図11記載のベクトルの特徴追加登録のフローが開始される。
The prohibited
許可対象特徴設定セクション1205では、許可対象とする人物の画像ファイルと、その画像ファイルから抽出対象とする特徴ベクトルを設定することが可能である。例えば、特徴ベクトルの入力セクションで顔を指定し、ファイル入力セクションで人物の全身が写った画像ファイルを指定し、登録処理ボタンを押すと、指定した情報が許可対象一覧に追加されるとともに、追加登録条件入力部802に送られる。追加登録実行判定部801は、追加登録条件入力部802に送られた情報を受けつけた際、顔検出部911と顔特徴抽出部912により、顔特徴ベクトルに変換して判定に使用する。
In the permission target
許可対象特徴設定セクション1205において許可対象とする特徴ベクトル(許可対象特徴ベクトル)を登録した場合、図10記載のステップS1001において、禁止軌跡1204と許可対象特徴設定セクション1205で設定された許可対象特徴ベクトルの両方が判定に使用される。このように、許可対象の特徴ベクトルは、禁止軌跡1204の判定に付随して使用される。
When a feature vector (permitted target feature vector) to be permitted is registered in the permitted target
一例として、禁止軌跡1204を設定し、さらに、許可対象特徴ベクトルとして特定の人物の顔を設定した場合について説明する。ステップS1001において、追加登録実行判定部801により、禁止軌跡1204に類似する軌跡が存在すると判定された場合、追加登録実行判定部801は、さらに、映像データベース161からその軌跡を移動している人物の顔特徴量(顔特徴ベクトル)を抽出し、抽出した顔特徴ベクトルと、許可対象特徴ベクトルとして設定された顔特徴ベクトルの比較を行い、類似度が高いと判定した場合は、特徴追加登録のフロー(図11)を開始しない。
As an example, a case where a prohibited
以上のように、禁止軌跡1204と許可対象特徴ベクトルを組み合わせて使用すれば、例えば、以下のような運用が可能である。ユーザは、特定の人物以外立ち入り禁止の進入禁止エリア1203が存在する場合、禁止軌跡設定セクション1202で進入禁止エリア1203に侵入する禁止軌跡1204を指定し、かつ、許可対象特徴設定セクション1205で進入禁止エリア1203に進入してもよい人物の特徴ベクトルを設定する。これにより、許可されていない人物が進入禁止エリア1203に進入した場合のみ、図11記載の特徴追加登録のフローが開始される。
As described above, if the prohibited
ブラックリスト特徴設定セクション1206では、追加の特徴登録を実施すべき対象の特徴ベクトル(特徴量)を設定することが可能である。例えば、特徴ベクトルの入力セクションで服飾を指定し、ファイル入力セクションで人物の全身が写った画像ファイルを指定し、登録処理ボタンを押すと、指定した情報がブラックリスト一覧に追加されるとともに、追加登録条件入力部802に送られる。追加登録実行判定部801は、追加登録条件入力部802に送られた情報を受けつけた際、服飾検出部931と服飾特徴抽出部932により、服飾特徴ベクトルに変換して判定に使用する。
In the black list
ブラックリスト特徴設定セクション1206においてブラックリスト対象とする特徴ベクトル(ブラックリスト特徴ベクトル)を登録した場合、図10記載のステップS1001において、類似する特徴ベクトルが存在するかの判定が行われ、類似する特徴量が存在する場合、図11記載の特徴追加登録のフローが開始される。この判定は、上述の禁止軌跡1204の判定とは独立に実行される。
When the blacklist
ブラックリスト特徴設定セクション1206におけるブラックリスト特徴ベクトルの設定により、以下の運用が可能となる。進入禁止エリア1203によらず監視すべき人物が存在する場合、ユーザは、ブラックリスト特徴ベクトルに該当する人物の特徴ベクトルを設定する。これにより、該当する人物が映像内に存在する場合、図11記載の特徴追加登録のフローが開始される。
By setting the black list feature vector in the black list
なお、許可対象特徴ベクトルやブラックリスト特徴ベクトルには、たとえば、顔、服の色、帽子の色、ヘルメットの色や形状、服やヘルメットのロゴマークなどを指定してもよい。追加登録フレーム数設定セクション1207では、図11記載の特徴追加登録のフローにおいて登録の対象とするフレーム数を設定することが可能である。
For example, a face, clothes color, hat color, helmet color or shape, clothes or helmet logo mark, etc. may be designated as the permission target feature vector or blacklist feature vector. In the additional registration frame
実施例2において、図11記載の特徴追加登録のフローチャートが図10記載のステップにS1001における判定によって開始する場合について説明したが、図11記載の特徴追加登録のフローは、図10記載のフローとは無関係に周期的に開始してもよい。たとえば、10分おきに開始するなどであってもよい。この場合、図10記載のステップS1001は実行しなくてもよい。 In the second embodiment, the case where the flowchart of feature addition registration illustrated in FIG. 11 is started by the determination in S1001 in the step illustrated in FIG. 10 is described. The flow of feature addition registration illustrated in FIG. May start periodically regardless. For example, it may start every 10 minutes. In this case, step S1001 described in FIG. 10 may not be executed.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。 Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them, for example, by an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or an SD card.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.
Claims (18)
前記プロセッサは、
映像データから複数フレームを作成し、
前記複数フレームにおいて移動物体を検出し、
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、
前記複数フレームの移動物体の画像から複数種類の特徴量を抽出し、
前記複数フレームから、第1フレームレートにおいて、第1種類の特徴量を抽出し、
前記複数フレームから、第1フレームレートより小さい第2フレームレートにおいて、第2種類の特徴量を抽出する、画像処理システム。 An image processing system including a processor and a storage device that stores a program executed by the processor,
The processor is
Create multiple frames from video data,
Detecting a moving object in the plurality of frames;
Extracting the feature amount of the detected locus of each moving object from the plurality of frames and recording it in a database
In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
In each of the plurality of frames, execute the content of the determined feature registration process ,
Extracting a plurality of types of feature quantities from the images of moving objects of the plurality of frames,
Extracting a first type of feature quantity from the plurality of frames at a first frame rate;
An image processing system that extracts a second type of feature amount from the plurality of frames at a second frame rate smaller than the first frame rate.
前記プロセッサは、 The processor is
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
所定頻度において、前記処理対象フレームからの第1種類の特徴量の抽出を省略する、画像処理システム。 An image processing system that omits extraction of a first type of feature amount from the processing target frame at a predetermined frequency.
前記プロセッサは、 The processor is
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
過去フレームにおける前記特徴登録処理の処理時間と、予め設定された目標値とに基づいて、選択されている処理対象フレームにおける前記特徴登録処理の内容を決定する、画像処理システム。 An image processing system that determines the content of the feature registration process in a selected processing target frame based on a processing time of the feature registration process in a past frame and a preset target value.
前記プロセッサは、過去フレームにおける第1種類の特徴量の特徴登録処理の処理時間の統計値が目標値より長い場合、前記第1種類の特徴量の抽出を省略する頻度を増加させる、画像処理システム。 The processor increases the frequency of omitting the extraction of the first type of feature quantity when the statistical value of the processing time of the feature registration process of the first type of feature quantity in the past frame is longer than a target value. .
前記プロセッサは、 The processor is
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記特徴登録処理において、処理対象フレームから1または複数の領域を検出し、前記1または複数の領域から特徴量を抽出し、 In the feature registration process, one or more areas are detected from the processing target frame, and feature quantities are extracted from the one or more areas,
前記1または複数の領域の構成に基づいて前記1または複数の領域からの特徴量抽出の内容を決定する、画像処理システム。 An image processing system that determines contents of feature quantity extraction from the one or more regions based on the configuration of the one or more regions.
前記プロセッサは、 The processor is
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記データベースは前記複数フレームを格納し、 The database stores the plurality of frames;
前記プロセッサは、 The processor is
特徴登録処理の少なくとも一部が省略されたフレームを前記データベースから選択し、 Selecting a frame from which at least a part of the feature registration process is omitted from the database;
選択した前記フレームの特徴登録処理を実行する、画像処理システム。 An image processing system for executing feature registration processing of the selected frame.
前記プロセッサは、 The processor is
特徴登録処理の少なくとも一部が省略されたフレームのうち、指定された特徴量との類似度が閾値を超える移動物体の画像を含むフレームを、前記データベースから選択する、画像処理システム。 An image processing system that selects, from the database, a frame including an image of a moving object whose similarity with a specified feature amount exceeds a threshold among frames from which at least part of the feature registration processing is omitted.
前記指定された特徴量は移動物体の軌跡の特徴量を示す、画像処理システム。 The image processing system, wherein the specified feature amount indicates a feature amount of a locus of a moving object.
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームの移動物体の画像から複数種類の特徴量を抽出し、 Extracting a plurality of types of feature quantities from the images of moving objects of the plurality of frames,
前記複数フレームから、第1フレームレートにおいて、第1種類の特徴量を抽出し、 Extracting a first type of feature quantity from the plurality of frames at a first frame rate;
前記複数フレームから、第1フレームレートより小さい第2フレームレートにおいて、第2種類の特徴量を抽出する、ことを含む画像処理方法。 An image processing method comprising: extracting a second type of feature amount from the plurality of frames at a second frame rate smaller than the first frame rate.
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
所定頻度において、前記処理対象フレームからの第1種類の特徴量の抽出を省略する、ことを含む画像処理方法。 An image processing method including omitting extraction of the first type of feature amount from the processing target frame at a predetermined frequency.
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
過去フレームにおける前記特徴登録処理の処理時間と、予め設定された目標値とに基づいて、選択されている処理対象フレームにおける前記特徴登録処理の内容を決定する、 Determining the content of the feature registration process in the selected processing target frame based on the processing time of the feature registration process in the past frame and a preset target value;
ことを含む画像処理方法。An image processing method.
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記特徴登録処理において、処理対象フレームから1または複数の領域を検出し、前記1または複数の領域から特徴量を抽出し、 In the feature registration process, one or more areas are detected from the processing target frame, and feature quantities are extracted from the one or more areas,
前記1または複数の領域の構成に基づいて前記1または複数の領域からの特徴量抽出の内容を決定する、ことを含む画像処理方法。 An image processing method comprising: determining content of feature amount extraction from the one or more regions based on a configuration of the one or more regions.
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
前記複数フレーム及び検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 The feature amount of the trajectory of each of the plurality of frames and the detected moving object is extracted from the plurality of frames and recorded in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
特徴登録処理の少なくとも一部が省略されたフレームを前記データベースから選択し、 Selecting a frame from which at least a part of the feature registration process is omitted from the database;
選択した前記フレームの特徴登録処理を実行する、ことを含む画像処理方法。 An image processing method including executing a feature registration process of the selected frame.
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームの移動物体の画像から複数種類の特徴量を抽出し、 Extracting a plurality of types of feature quantities from the images of moving objects of the plurality of frames,
前記複数フレームから、第1フレームレートにおいて、第1種類の特徴量を抽出し、 Extracting a first type of feature quantity from the plurality of frames at a first frame rate;
前記複数フレームから、第1フレームレートより小さい第2フレームレートにおいて、第2種類の特徴量を抽出する、ことを含む、記憶媒体。 A storage medium comprising: extracting a second type of feature amount from the plurality of frames at a second frame rate smaller than the first frame rate.
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
所定頻度において、前記処理対象フレームからの第1種類の特徴量の抽出を省略する、ことを含む、記憶媒体。 A storage medium including: omitting extraction of the first type of feature amount from the processing target frame at a predetermined frequency.
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記複数フレームから処理対象フレームを順次選択して前記特徴登録処理を実行し、 Sequentially selecting the processing target frame from the plurality of frames and executing the feature registration process;
過去フレームにおける前記特徴登録処理の処理時間と、予め設定された目標値とに基づいて、選択されている処理対象フレームにおける前記特徴登録処理の内容を決定する、ことを含む、記憶媒体。 A storage medium comprising: determining content of the feature registration process in a selected processing target frame based on a processing time of the feature registration process in a past frame and a preset target value.
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 Extracting the feature amount of the detected trajectory of each moving object from the plurality of frames and recording it in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
前記特徴登録処理において、処理対象フレームから1または複数の領域を検出し、前記1または複数の領域から特徴量を抽出し、 In the feature registration process, one or more areas are detected from the processing target frame, and feature quantities are extracted from the one or more areas,
前記1または複数の領域の構成に基づいて前記1または複数の領域からの特徴量抽出の内容を決定する、ことを含む、記憶媒体。 Determining a content of feature amount extraction from the one or more regions based on a configuration of the one or more regions.
映像データから複数フレームを作成し、 Create multiple frames from video data,
前記複数フレームにおいて移動物体を検出し、 Detecting a moving object in the plurality of frames;
前記複数フレーム及び検出した前記移動物体それぞれの軌跡の特徴量を前記複数フレームから抽出してデータベースに記録し、 The feature amount of the trajectory of each of the plurality of frames and the detected moving object is extracted from the plurality of frames and recorded in a database,
前記複数フレームのそれぞれにおいて、移動物体の画像から特徴量を抽出して前記データベースに記録することを含む特徴登録処理、の内容を、予め定められた条件に従って決定し、 In each of the plurality of frames, the content of a feature registration process including extracting a feature amount from an image of a moving object and recording it in the database is determined according to a predetermined condition,
前記複数フレームのそれぞれにおいて、決定した前記特徴登録処理の内容を実行し、 In each of the plurality of frames, execute the content of the determined feature registration process,
特徴登録処理の少なくとも一部が省略されたフレームを前記データベースから選択し、 Selecting a frame from which at least a part of the feature registration process is omitted from the database;
選択した前記フレームの特徴登録処理を実行する、ことを含む、記憶媒体。 Performing a feature registration process of the selected frame.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/071488 WO2017017808A1 (en) | 2015-07-29 | 2015-07-29 | Image processing system, image processing method, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017017808A1 JPWO2017017808A1 (en) | 2018-03-08 |
JP6393424B2 true JP6393424B2 (en) | 2018-09-19 |
Family
ID=57884431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017530538A Active JP6393424B2 (en) | 2015-07-29 | 2015-07-29 | Image processing system, image processing method, and storage medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6393424B2 (en) |
WO (1) | WO2017017808A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3489842A1 (en) | 2017-11-23 | 2019-05-29 | PKE Holding AG | Forensic database |
JP7191711B2 (en) * | 2019-01-28 | 2022-12-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
US20220156311A1 (en) * | 2019-03-08 | 2022-05-19 | Semiconductor Energy Laboratory Co., Ltd. | Image retrieval method and image retrieval system |
CN111797652A (en) * | 2019-04-09 | 2020-10-20 | 佳能株式会社 | Object tracking method, device and storage medium |
JP7318321B2 (en) * | 2019-06-05 | 2023-08-01 | コニカミノルタ株式会社 | Information processing device, information processing method, person search system, and person search method |
JP6989572B2 (en) | 2019-09-03 | 2022-01-05 | パナソニックi−PROセンシングソリューションズ株式会社 | Investigation support system, investigation support method and computer program |
WO2021205843A1 (en) * | 2020-04-10 | 2021-10-14 | ソニーグループ株式会社 | Information processing device, information processing method, and imaging system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7875666B2 (en) * | 2008-04-24 | 2011-01-25 | Prc-De Soto International, Inc. | Thioethers, methods for their preparation, and compositions including such thioethers |
CN103109307B (en) * | 2010-04-28 | 2015-11-25 | 奥林巴斯株式会社 | For making the method and apparatus of Three-dimension object recognition image data base |
JP5925068B2 (en) * | 2012-06-22 | 2016-05-25 | キヤノン株式会社 | Video processing apparatus, video processing method, and program |
JP6139364B2 (en) * | 2013-10-02 | 2017-05-31 | 株式会社東芝 | Person identification device, person identification method and program |
JP6200306B2 (en) * | 2013-12-09 | 2017-09-20 | 株式会社日立製作所 | Video search device, video search method, and storage medium |
-
2015
- 2015-07-29 WO PCT/JP2015/071488 patent/WO2017017808A1/en active Application Filing
- 2015-07-29 JP JP2017530538A patent/JP6393424B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017017808A1 (en) | 2017-02-02 |
JPWO2017017808A1 (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6393424B2 (en) | Image processing system, image processing method, and storage medium | |
JP6225039B2 (en) | Image search system, image search apparatus, and image search method | |
US10810255B2 (en) | Method and system for interfacing with a user to facilitate an image search for a person-of-interest | |
JP7282851B2 (en) | Apparatus, method and program | |
CA3111097C (en) | Bounding box doubling as redaction boundary | |
KR101514169B1 (en) | Information processing device, information processing method, and recording medium | |
CN107408119B (en) | Image retrieval device, system and method | |
US20170017833A1 (en) | Video monitoring support apparatus, video monitoring support method, and storage medium | |
JP7018001B2 (en) | Information processing systems, methods and programs for controlling information processing systems | |
JP5963609B2 (en) | Image processing apparatus and image processing method | |
JP6139447B2 (en) | Image processing apparatus, image processing method, and image processing program | |
EP3518522B1 (en) | Image capturing method and device | |
KR102036490B1 (en) | Method and apparatus of extracting region-of-interest video in source video | |
JP2011076255A (en) | Gesture recognizing device, gesture recognizing method and gesture recognizing program | |
US7308119B2 (en) | Image retrieval apparatus and method, and image display apparatus and method thereof | |
US11334621B2 (en) | Image search system, image search method and storage medium | |
US20210127071A1 (en) | Method, system and computer program product for object-initiated redaction of surveillance video | |
EP2677397A2 (en) | Character input method and information processing apparatus | |
WO2016006090A1 (en) | Electronic apparatus, method, and program | |
JP2023015228A (en) | Information processing system, information processing device, information processing method, and computer program | |
CN112991555B (en) | Data display method, device, equipment and storage medium | |
US20210407265A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2023152977A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6393424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |