JP2015143921A - 画像検索システム、画像検索装置及び画像検索方法 - Google Patents

画像検索システム、画像検索装置及び画像検索方法 Download PDF

Info

Publication number
JP2015143921A
JP2015143921A JP2014016813A JP2014016813A JP2015143921A JP 2015143921 A JP2015143921 A JP 2015143921A JP 2014016813 A JP2014016813 A JP 2014016813A JP 2014016813 A JP2014016813 A JP 2014016813A JP 2015143921 A JP2015143921 A JP 2015143921A
Authority
JP
Japan
Prior art keywords
trajectory
image
unit
search
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014016813A
Other languages
English (en)
Other versions
JP6225039B2 (ja
Inventor
信尾 額賀
Nobuo Nukaga
信尾 額賀
大輔 松原
Daisuke Matsubara
大輔 松原
裕樹 渡邉
Hiroki Watanabe
裕樹 渡邉
健一 米司
Kenichi Yoneshi
健一 米司
智明 吉永
Tomoaki Yoshinaga
智明 吉永
廣池 敦
Atsushi Hiroike
敦 廣池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014016813A priority Critical patent/JP6225039B2/ja
Priority to US15/114,585 priority patent/US10074186B2/en
Priority to CN201580002030.9A priority patent/CN105593855B/zh
Priority to PCT/JP2015/050786 priority patent/WO2015115179A1/ja
Priority to SG11201606262TA priority patent/SG11201606262TA/en
Publication of JP2015143921A publication Critical patent/JP2015143921A/ja
Application granted granted Critical
Publication of JP6225039B2 publication Critical patent/JP6225039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが指定した軌跡に類似する移動物体の軌跡を検索する。【解決手段】映像を撮影する撮影部と、プロセッサ及び記憶部を有し、前記映像に含まれる画像を検索する検索部と、前記検索部に入力される情報を受ける入力部と、前記検索部から出力される情報を表示する表示部と、を有する画像検索システムであって、前記記憶部は、前記映像から抽出された複数の移動物体の移動経路を示す軌跡の形状を示す情報を保持し、前記検索部は、前記入力部から軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された軌跡の形状と類似する軌跡を検索し、前記検索された軌跡に沿って移動した前記移動物体の画像を前記表示部に表示させる。【選択図】図1

Description

本発明は、画像検索技術に関する。
本技術分野の背景技術として、特開2013−150218号公報(特許文献1)がある。特許文献1には、「動画検索装置において、受付部は、静止画像、静止画像内の2つの参照位置、動画フレーム内の2つの目標位置、の入力を受け付ける。抽出部は、静止画像から2つの参照位置を含む参照画像を抽出する。検索部は、動画像に含まれるフレーム画像から、参照画像に類似する局所画像が描画される類似フレーム画像を検索し、局所画像内において、2つの参照位置に対応する開始位置に描画される2つの注目画素の、動画像において類似フレーム画像から時間を進行あるいは逆行させた際の2つの移動軌跡を追跡し、2つの移動軌跡が2つの目標位置の近傍に至る目標フレーム画像を検索し、類似フレーム画像と目標フレーム画像とを含む動画像を、検索結果とする。」と記載されている。
特開2013−150218号公報
撮影された映像から、例えば不審人物又は不審車両等の移動物体の画像を検索しようとする場合に、当該移動物体を特徴づける情報、例えば当該移動物体の移動経路又は外見上の特徴等の情報は得られているが、実際に当該移動物体を撮影した画像が特定されていない場合がある。このような場合にユーザが入力した当該移動物体の特徴に基づいて当該移動物体の画像を検索することはできなかった。
上記の課題を解決するために、本発明の一態様は、映像を撮影する撮影部と、プロセッサ及び記憶部を有し、前記映像に含まれる画像を検索する検索部と、前記検索部に入力される情報を受ける入力部と、前記検索部から出力される情報を表示する表示部と、を有する画像検索システムであって、前記記憶部は、前記映像から抽出された複数の移動物体の移動経路を示す軌跡の形状を示す情報を保持し、前記検索部は、前記入力部から軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された軌跡の形状と類似する軌跡を検索し、前記検索された軌跡に沿って移動した前記移動物体の画像を前記表示部に表示させることを特徴とする。
本発明の一態様によれば、検索対象の移動物体を実際に撮影した映像の有無にかかわらず、ユーザが指定した軌跡に類似する移動物体の軌跡を検索することができる。上記した以外の課題、構成、および効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1の画像検索システムの全体構成図である。 本発明の実施例1の画像検索システムのハードウェア構成図である。 本発明の実施例1の映像データベースの構成及びデータ例の説明図である。 本発明の実施例1のサーバ計算機が入力された映像を登録する処理を説明するフローチャートである。 本発明の実施例1のサーバ計算機が軌跡を検索する処理を説明するフローチャートである。 本発明の実施例1のサーバ計算機によって出力される検索画面の説明図である。 本発明の実施例2の画像検索システムの全体構成図である。 本発明の実施例2の映像データベースの構成及びデータ例の第1の説明図である。 本発明の実施例2の映像データベースの構成及びデータ例の第2の説明図である。 本発明の実施例2のサーバ計算機が入力された映像を登録する処理を説明するフローチャートである。 本発明の実施例2のサーバ計算機による検索処理を説明するフローチャートである。 本発明の実施例2のサーバ計算機によって出力される検索画面の説明図である。 本発明の実施例3の画像検索システムによって実行される地図情報を用いた軌跡検索の説明図である。 本発明の実施例3の画像検索システムによって実行されるカメラ画像上の軌跡の地図上の軌跡への変換の説明図である。 本発明の実施例4のサーバ計算機によって出力される検索画面の説明図である。
以下、図面を参照して本発明の実施例を説明する。
図1は、本発明の実施例1の画像検索システム100の全体構成図である。
本実施例の画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、およびサーバ計算機105を備える。
映像記憶装置101は、映像データを保存し、要求に応じて出力する記憶媒体であり、コンピュータ内蔵のハードディスクドライブ、または、NAS(Network Attached Storage)もしくはSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。
映像撮影装置102は、映像を撮影して映像データを作成し、それを出力する装置である。
映像記憶装置101又は映像撮影装置102から出力された画像は、いずれもサーバ計算機105の映像入力部106(後述)に入力される。画像検索システム100は、図1に示すように映像記憶装置101及び映像撮影装置102の両方を備えてもよいが、いずれか一方のみを備えてもよい。画像検索システム100が映像記憶装置101及び映像撮影装置102の両方を備える場合、映像入力部106への映像データの入力元が必要に応じて映像記憶装置101又は映像撮影装置102に切り替えられてもよいし、映像撮影装置102から出力された映像データが一旦映像記憶装置101に記憶され、そこから映像入力部106に入力されてもよい。その場合、映像記憶装置101は、例えば、映像撮影装置102から継続的に入力される映像データを一時的に保持するキャッシュメモリであってもよい。
なお、映像記憶装置101に保存される映像データ及び映像撮影装置102によって作成される映像データは、撮影された物体の追跡に利用できるものである限り、どのような形式のデータであってもよい。例えば、映像撮影装置102がビデオカメラであり、それによって撮影された動画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。あるいは、映像撮影装置102がスチルカメラであり、それによって所定の間隔(少なくとも撮影された物体を追跡できる程度の間隔)で撮影された一連の静止画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。
入力装置103は、マウス、キーボード、タッチデバイスなど、ユーザの操作をサーバ計算機105に伝えるための入力インタフェースである。表示装置104は、液晶ディスプレイなどの出力インタフェースであり、サーバ計算機105の検索結果の表示、ユーザとの対話的操作などのために用いられる。例えばいわゆるタッチパネル等を用いることによって入力装置103と表示装置104とが一体化されてもよい。
サーバ計算機105は、入力された映像データから、ユーザに指定された検索条件に基づいて所望の画像を検索する画像検索装置として機能する。具体的には、サーバ計算機105は、与えられた映像データの各フレームに含まれる移動物体を追跡し、その移動物体に関する情報を蓄積する。ユーザが蓄積されたフレームから探したい移動物体の検索条件を指定すると、サーバ計算機105は、蓄積された情報を用いて画像を検索する。サーバ計算機105が扱う映像は、一箇所以上の場所で撮影された定点観測の映像であることを想定している。また、検索対象の物体は、人物または車両などの任意の移動物体である。サーバ計算機105は、映像入力部106、フレーム登録部107、移動物体追跡部108、軌跡特徴抽出部109、軌跡特徴登録部110、映像データベース111、軌跡入力部112、軌跡特徴変換部113及び類似ベクトル検索部114を備える。
映像入力部106は、映像記憶装置101から映像データを読み出すか、又は映像撮影装置102によって撮影された映像データを受け取り、それをサーバ計算機105内部で使用するデータ形式に変換する。具体的には、映像入力部106は、映像(動画データ形式)をフレーム(静止画データ形式)に分解する動画デコード処理を行う。得られたフレームは、フレーム登録部107及び移動物体追跡部108に送られる。
フレーム登録部107は、抽出されたフレームと抽出元の映像の情報を映像データベース111に書き込む。映像データベース111に記録するデータの詳細については図3の説明として後述する。
移動物体追跡部108は、映像中の移動物体を検出し、前フレームの移動物体との対応付けを行うことによって、移動物体の追跡を行う。移動物体の検出及び追跡は、任意の方法を用いて実現することができる。追跡によって得られた移動物体の軌跡(すなわちその移動物体の移動経路)は、始点と終点を有するベクトルとして表現され、軌跡情報は、各フレームの移動物体の座標情報と各軌跡にユニークに付与されるID(追跡ID)で構成される。
軌跡特徴抽出部109は、同一の追跡IDが付与された移動物体の座標から、軌跡の形状の特徴量(以下、軌跡特徴量とも記載)を抽出し、軌跡特徴登録部110は、抽出された軌跡特徴量を映像データベース111に登録する。
映像データベース111は、映像、フレーム、及び移動物体の軌跡情報等を保存するためのデータベースである。後述するように軌跡情報には軌跡特徴量が含まれるため、サーバ計算機105は、入力された軌跡特徴量と類似する軌跡特徴量を有する移動物体の画像を検索することができる。軌跡特徴量の検索機能は、例えば、クエリとして入力された軌跡特徴量と近い順にデータを並び替えて出力する機能である。軌跡特徴量の比較には、例えば、軌跡特徴量ベクトル間のユークリッド距離を用いることができる。映像データベース111へのアクセスは、フレーム登録部107及び軌跡特徴登録部110からの登録処理、並びに、類似ベクトル検索部114からの検索処理の際に発生する。映像データベース111の構造について、詳しくは図3の説明として後述する。
軌跡入力部112は、ユーザが入力した軌跡の情報(例えば座標値の列)を入力装置103から受け取る。軌跡特徴変換部113は、入力された軌跡の特徴量を取得する。類似ベクトル検索部114は、入力された軌跡特徴量と類似する軌跡特徴量を映像データベース111から検索して、その結果を表示装置104に出力する。
図2は、本発明の実施例1の画像検索システム100のハードウェア構成図である。
サーバ計算機105は、例えば、相互に接続されたプロセッサ201および記憶装置202を有する一般的な計算機である。記憶装置202は任意の種類の記憶媒体によって構成される。例えば、記憶装置202は、半導体メモリ及びハードディスクドライブを含んでもよい。
この例において、図1に示した映像入力部106、フレーム登録部107、移動物体追跡部108、軌跡特徴抽出部109、軌跡特徴登録部110、軌跡入力部112、軌跡特徴変換部113及び類似ベクトル検索部114といった機能部は、プロセッサ201が記憶装置202に格納された処理プログラム203を実行することによって実現される。言い換えると、この例において、上記の各機能部が実行する処理は、実際には、処理プログラム203に記述された命令に従うプロセッサ201によって実行される。また、映像データベース111は、記憶装置202に含まれる。
サーバ計算機105は、さらに、プロセッサに接続されたネットワークインターフェース装置(NIF)204を含む。映像撮影装置102は、例えば、ネットワークインターフェース装置204を介してサーバ計算機105に接続される。映像記憶装置101は、ネットワークインターフェース装置204を介してサーバ計算機105に接続されたNASまたはSANであってもよいし、記憶装置202に含まれてもよい。
図3は、本発明の実施例1の映像データベース111の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。
映像データベース111は、映像データ管理情報300、背景画像データ管理情報310及び軌跡特徴量管理情報320を含む。図3のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
映像データ管理情報300は、映像IDフィールド301、ファイル名フィールド302、及び撮影場所IDフィールド303を有する。映像IDフィールド301は、各映像データの識別情報(以下、映像ID)を保持する。ファイル名フィールド302は、映像記憶装置101から読み込まれた映像データのファイル名を保持する。映像データが映像撮影装置102から入力される場合は、ファイル名を省略してもよい。撮影場所IDフィールド303は、定点観測された場所の識別情報(以下、撮影場所ID)を保持する。映像IDと撮影場所との対応は、アプリケーションで管理してもよいし、映像データベース111に撮影場所の管理情報(図示省略)を追加することで管理してもよい。入力された映像データが固定カメラによって撮影された場合は、撮影場所IDをカメラIDと読み替えてもよい。図3の例のように、一つの撮影場所に対して、複数の映像ファイルが登録されてもよい。この場合、当該複数の映像ファイルには、例えば、設置場所及び撮影方向が固定された一つのカメラがそれぞれ異なる時間帯に撮影した映像データが含まれる。
背景画像データ管理情報310は、撮影場所IDフィールド311及び背景画像データフィールド312を有する。撮影場所IDフィールド311は、背景画像の撮影場所の識別情報を保持するフィールドであり、この識別情報は、映像データ管理情報300に保持される撮影場所IDと対応する。背景画像データフィールド312は、各撮影場所で撮影された背景画像のデータを保持する。ここに保持される背景画像は、後述するように、ユーザが検索しようとする移動物体の軌跡を入力するときに表示されるものであるため、それぞれの撮影場所において移動物体を撮影するものと同じカメラによって撮影された、いずれの移動物体も含まない画像であることが望ましい。
軌跡特徴量管理情報320は、追跡IDフィールド321、映像IDフィールド322、開始日時フィールド323、終了日時フィールド324、座標フィールド325及び軌跡特徴量フィールド326を有する。
追跡IDフィールド321は、移動物体追跡部108が各移動物体を追跡するために用いる識別情報(以下、追跡ID)を保持する。移動物体を追跡することで得られた各軌跡にユニークな追跡IDが与えられる。映像IDフィールド322は、追跡対象の移動物体の画像を含む映像データの識別番号を保持する。この識別番号は、映像データ管理情報300に保持される映像IDと対応する。
開始日時フィールド323及び終了日時フィールド324は、それぞれ、各軌跡の始点及び終点の画像が撮影された日時を保持する。この日時に基づいて、移動物体が各軌跡上を移動した時刻が特定される。座標フィールド325は、追跡された移動物体の画像の各時刻における画面上の座標を保持する。この座標を時刻の順に連結したものが各移動物体の軌跡となる。軌跡特徴量フィールド326は、映像中の移動物体の座標の時系列変化から抽出した軌跡特徴量を保持する。軌跡特徴量は、例えば固定長のベクトルによって表現されるものであり、座標フィールド325に保持された値から任意の公知の方法によって抽出することができる。
図4は、本発明の実施例1のサーバ計算機105が入力された映像を登録する処理を説明するフローチャートである。以下、図4の各ステップについて説明する。
最初に、映像入力部106が、映像記憶装置101又は映像撮影装置102から入力された映像データをデコードし、フレームを静止画として抽出する(ステップS401)。
次に、サーバ計算機105内の各部が、ステップS401で抽出された各フレームに対して、ステップS402〜S411を実行する。
移動物体追跡部108は、処理対象のフレームから移動物体を検出し、検出した移動物体を前の時刻のフレームから検出された移動物体と対応付ける(ステップS403)。
次に、移動物体追跡部108は、新しい移動物体が出現したか否かを判定する(ステップS404)。具体的には、移動物体追跡部108は、処理対象のフレームから検出した移動物体が前の時刻のフレームから検出されたいずれの移動物体とも対応付けられなかった(言い換えると、処理対象のフレームから検出された移動物体と同一の移動物体の画像が前の時刻のフレームに含まれていないと判定された)場合、新しい移動物体が出現したと判定する。
新しい移動物体が出現した場合、移動物体追跡部108は、当該新しい移動物体に新しい追跡IDを付与し、軌跡特徴登録部110は、当該新しい追跡IDと、当該新しい移動物体が検出された映像の映像IDと、当該新しい移動物体が検出されたフレームの撮影日時と、をそれぞれ映像データベース111の軌跡特徴量管理情報320内の追跡IDフィールド321、映像IDフィールド322及び開始日時フィールド323に登録する(ステップS405)。一方、新しい移動物体が出現しなかった場合、ステップS405は実行されない。
次に、軌跡特徴登録部110は、軌跡特徴量管理情報320内の座標フィールド325に、ステップS403で検出された移動物体の座標を追加する(ステップS406)。
次に、移動物体追跡部108は、移動物体が消失したか否かを判定する(ステップS407)。具体的には、移動物体追跡部108は、前の時刻のフレームから検出された移動物体がステップS403で検出されたいずれの移動物体とも対応付けられなかった(言い換えると、前の時刻のフレームから検出された移動物体と同一の移動物体の画像が処理対象のフレームに含まれていないと判定された)場合、当該前の時刻のフレームから検出された移動物体が消失したと判定する。
移動物体が消失した場合、軌跡特徴抽出部109が当該消失した移動物体の軌跡から軌跡特徴量を抽出し(ステップS408)、続いて抽出された軌跡特徴量を軌跡特徴登録部110が軌跡特徴量管理情報320内の軌跡特徴量フィールド326に登録し(ステップS409)、当該消失した移動物体が最後に検出されたフレーム(すなわち前の時刻のフレーム)の撮影日時を終了日時フィールド324に登録する(ステップS410)。一方、移動物体が消失しなかった場合、軌跡がさらに延長される可能性があるため、ステップS408〜S410は実行されない。
映像データから抽出された全てのフレームについてステップS403〜S410が終了すると、フレーム登録部107は、背景画像を、背景画像データ管理情報310の当該映像データに対応する背景画像データフィールド312に登録する(ステップS412)。具体的には、フレーム登録部107は、ステップS401で抽出されたフレームのいずれかを背景画像として登録する。このとき、例えば、移動物体が一つも検出されなかったフレームを背景画像として登録してもよい。なお、背景画像は一つの撮影場所に一つ登録されていれば十分であるため、既に背景画像が登録されている撮影場所については、図4の処理を実行する度にステップS412を実行することで背景画像を更新してもよいし、ステップS412を省略してもよい。
全てのフレームについて上記の処理が終了すると、入力された映像を登録する処理が終了する。
図5は、本発明の実施例1のサーバ計算機105が軌跡を検索する処理を説明するフローチャートである。以下、図5の各ステップについて説明する。
最初に、ユーザが入力装置103を用いて撮影場所IDをサーバ計算機105に入力すると(ステップS501)、サーバ計算機105は背景画像データ管理情報310を参照して、入力された撮影場所IDに対応する背景画像データを読み出し、そのデータに基づいて背景画像を表示装置104に表示する(ステップS502)。
次に、ユーザが入力装置103を用いて軌跡入力部112に軌跡を入力すると(ステップS503)、軌跡特徴変換部113が入力された軌跡を軌跡特徴量に変換する(ステップS504)。この変換は、軌跡特徴抽出部109が図4のステップS408において実行する軌跡特徴量の抽出と同様の方法で行われる。
次に、類似ベクトル検索部114が、ステップS504で変換された軌跡特徴量をクエリとして軌跡特徴量管理情報320を検索する(ステップS505)。これによって、軌跡特徴量管理情報320から、ユーザが入力した軌跡と類似する軌跡が検索される。
次に、類似ベクトル検索部114が検索結果を表示装置104に出力し、表示装置104が検索結果を類似度の順に表示する(ステップS506)。
以上で軌跡を検索する処理が終了する。
図6は、本発明の実施例1のサーバ計算機105によって出力される検索画面の説明図である。図6を参照して、図5の処理におけるユーザからの情報の入力方法及び検索結果の表示方法の一例を説明する。
表示装置104によって表示される検索画面は、撮影場所選択エリア601、撮影場所表示エリア602、検索ボタン603及び検索結果表示エリア604を含む。
撮影場所選択エリア601には、背景画像データ管理情報310に登録された各撮影場所の背景画像が表示される。ユーザが入力装置103を操作してこれらの背景画像のいずれかを選択することで、その背景画像に対応する撮影場所IDが指定され(ステップS501)、指定された撮影場所の背景画像が撮影場所表示エリア602に表示される(ステップS502)。例えば撮影場所選択エリア601には各撮影場所の背景画像が縮小表示され、撮影場所表示エリア602には指定された撮影場所の背景画像が拡大表示されてもよい。
ユーザは、撮影場所表示エリア602に表示された背景画像上で軌跡を入力する(ステップS503)。例えば、ユーザは、入力装置103であるマウスを操作してポインタ(マウスカーソル)605を入力しようとする軌跡の始点に置き、マウスボタンを押して、ポインタ605を軌跡に沿って動かすようにドラッグし、軌跡の終点でマウスボタンを離すことで、軌跡606aが入力される。
あるいは、表示装置104が例えば入力装置103としての機能も有するタッチパネルである場合、ユーザが撮影場所表示エリア602に表示された背景画像上の軌跡の始点を指又はペン等によってタッチし、軌跡に沿って終点までスワイプしてもよい。あるいは、ユーザがマウスクリック又はタッチによって背景画像上のいくつかの点を指定し、サーバ計算機105がベジエ曲線等によってそれらの点を補間することによって軌跡を生成してもよい。図6の例において、軌跡606a矢印の向きが軌跡の始点から終点に向かう方向であり、物体がその方向に移動する軌跡を示している。後述する他の軌跡についても同様である。サーバ計算機105は、マウスボタンが解放されたときのポインタ605の位置、又はユーザがタッチパネルから指を離した位置を軌跡の終点として認識することで、入力された軌跡の方向を決定してもよいし、さらに、軌跡の終点に自動的に矢印を表示してもよい。
入力された軌跡606aは軌跡特徴量に変換される(ステップS504)。ユーザがマウス等を用いて検索ボタン603を操作すると、類似軌跡検索が実行され(ステップS505)、その結果が検索結果表示エリア604に表示される(ステップS506)。図6に示すように、検索結果として画像604a、604b及びその他の画像(図示省略)が表示される。
画像604aには、指定された撮影場所の背景画像上に、検索結果として得られた軌跡606bが表示され、さらに、当該軌跡606bに対応する移動物体(この例では人物)607aの画像が表示される。すなわち、軌跡606bは移動物体607aが移動した軌跡である。例えば、検索された軌跡の開始日時から終了日時までのいずれかの時点のフレームの画像上に、検索された軌跡を示す矢印を重畳表示することによって画像604aが生成されてもよい。この場合、図6に示すように、表示されたフレームが撮影された日時が表示されてもよい。画像604bも同様に、別の検索された軌跡606c及びそれに対応する移動物体607bの画像を含む。
なお、検索結果表示エリア604には、背景画像及び移動物体の画像を表示せずに、検索された軌跡を示す矢印のみを表示してもよい。あるいは、いずれかの時点のフレームの画像(すなわち静止画像)ではなく、検索された軌跡の開始日時から終了日時までの映像を再生し、それを検索結果表示エリア604に表示してもよい。
また、図5及び図6の例では、検索条件として撮影場所及び軌跡が指定されたが、さらに時刻が指定されてもよい。この場合、図6に示す検索画面にさらに時刻指定エリア(図示省略)が設けられ、ユーザが入力装置103を操作して時刻(例えば検索対象の時間帯)を入力する。この場合、ユーザに指定された時間帯に開始時刻から終了時刻までの時間が含まれる軌跡が検索される。あるいは、検索条件として撮影場所が指定されなくてもよい。その場合、撮影場所にかかわらず、類似する軌跡が検索される。
以上の本発明の実施例1によれば、ユーザが指定した任意の軌跡に類似する移動物体の軌跡を検索することができる。これによって、例えば、検索対象の移動物体を実際に撮影した映像が特定されていない場合であっても、目撃情報又は周囲の状況等からその移動物体の軌跡が推定されるときには、その軌跡に類似する軌跡を描いて移動した移動物体の画像を検索することができる。
次に、本発明の実施例2の画像検索システム100について説明する。以下に説明する相違点を除き、実施例2の画像検索システム100の各部は、図1〜図6に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
図7は、本発明の実施例2の画像検索システム100の全体構成図である。
本実施例の画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、およびサーバ計算機105を備える。映像記憶装置101、映像撮影装置102、入力装置103及び表示装置104は、実施例1と同様であるため、説明を省略する。
実施例2のサーバ計算機105は、実施例1と同様の映像入力部106、フレーム登録部107、移動物体追跡部108、軌跡特徴抽出部109及び軌跡特徴登録部110に加えて、顔検知部701、顔特徴抽出部702、顔特徴登録部703、頭部検知部711、頭部特徴抽出部712、頭部特徴登録部713、服飾検知部721、服飾特徴抽出部722、服飾特徴登録部723、複数特徴入力部731、類似ベクトル検索部732及び検索結果統合部733を有する。また、実施例2のサーバ計算機105は映像データベース111を有するが、そこに登録される情報には、図8A及び図8Bを参照して後述するように、実施例1と相違する部分がある。
顔検知部701、頭部検知部711及び服飾検知部721は、それぞれ、フレームの画像から人物の顔領域、頭部領域及び服飾領域を検知する。顔特徴抽出部702、頭部特徴抽出部712及び服飾特徴抽出部722は、それぞれ、顔領域、頭部領域及び服飾領域の画像特徴量を抽出する。例えばエッジ情報又は色情報等、画像から抽出できるものであればどのような種類の特徴量が抽出されてもよい。このような画像特徴量の抽出は、公知の方法を含む任意の方法によって行うことができる。顔特徴登録部703、頭部特徴登録部713及び服飾特徴登録部723は、それぞれ、顔領域、頭部領域及び服飾領域から抽出された画像特徴量(以下、それぞれ顔特徴量、頭部特徴量及び服飾特徴量とも記載する)を映像データベース111に登録する。
複数特徴入力部731は、ユーザが入力装置103を操作して入力した、検索キーとなる特徴量(例えば、軌跡特徴量、顔特徴量、頭部特徴量及び服飾特徴量)を指定する情報を受け付ける。類似ベクトル検索部732は、検索キーとして指定された特徴量ベクトルと類似する特徴量ベクトルを映像データベース111から検索する。検索結果統合部733は、複数の種類の特徴量の検索キーに基づく複数の検索結果を結合して出力する。これらの詳細な処理については後述する(図10参照)。
なお、実施例2は、追跡対象の移動物体が人物である場合の画像検索システム100の例を示している。顔領域、頭部領域及び服飾領域は、人物の識別に利用できる画像情報を含んでいると考えられる領域(以下、顕著領域とも記載する)の例である。したがって、サーバ計算機105は、上記以外の顕著領域を検知する顕著領域検知部、その検知領域から画像特徴量を抽出する画像特徴量抽出部、及びその画像特徴量を登録する画像特徴量登録部(いずれも図示省略)を含んでもよい。上記以外の顕著領域として、例えば、顔領域の一部である口領域、頭部領域の一部である髪領域、服飾領域の一部である上半身領域、下半身領域、又は、人物の所持品の領域(例えば鞄領域)等が挙げられる。
また、追跡対象の移動物体が人物以外の物体である場合には、その物体の種類に応じて適切な顕著領域が検知され、その特徴量が登録される。例えば追跡対象が自動車である場合、自動車の前面、後面、側面、タイヤ部分又はナンバープレート部分等が顕著領域として検知されてもよい。
実施例2の画像検索システム100のハードウェア構成は、実施例1(図2参照)と同様であるため、説明を省略する。実施例2のサーバ計算機105の各機能部が実行する処理は、実際には、処理プログラム203に記述された命令に従うプロセッサ201によって実行される。
図8A及び図8Bは、本発明の実施例2の映像データベース111の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。
映像データベース111は、図8Aに示す映像データ管理情報300、背景画像データ管理情報310、軌跡特徴量管理情報800、移動物体管理情報810及びフレーム画像管理情報820、並びに、図8Bに示す顔特徴量管理情報830、頭部特徴量管理情報840及び服飾特徴量管理情報850を含む。図8A及び図8Bのテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
実施例2の映像データ管理情報300及び背景画像データ管理情報310は、実施例1と同様であるため、説明を省略する。
軌跡特徴量管理情報800は、追跡IDフィールド801、映像IDフィールド802、移動物体IDフィールド803及び軌跡特徴量フィールド804を有する。追跡IDフィールド801、映像IDフィールド802及び軌跡特徴量フィールド804は、それぞれ実施例1の追跡IDフィールド321、映像IDフィールド322及び軌跡特徴量フィールド326と同様であるため、説明を省略する。
移動物体IDフィールド803は、それぞれの軌跡を構成する、各フレームから検出された移動物体の識別情報(以下、移動物体ID)のリストを保持する。ここで、移動物体IDは、移動物体そのものを識別するものではなく、各フレームから検出された移動物体の画像を識別するものである。同一の移動物体の画像が複数のフレームから検出された場合には、それらの移動物体の画像の各々に別の(一意の)移動物体IDが与えられ、それらの移動物体IDが一つの追跡IDに対応付けられる。
例えば、図8Aに示すように、追跡ID「1」に対応する移動物体IDフィールド803に「1、2、4、5、6、・・・」が登録されていることは、あるフレームから検出された移動物体ID「1」によって識別される移動物体の画像と、別のフレームから検出された移動物体ID「2」によって識別される移動物体の画像と、同様にそれぞれ別のフレームから検出された移動物体ID「4」、「5」、「6」によって識別される移動物体の画像とが、移動物体追跡部108によって相互に対応付けられた(すなわちそれらが同一の移動物体の画像と判定された)ことを意味する。
移動物体管理情報810は、移動物体IDフィールド811、矩形座標フィールド812及び撮影日時フィールド813を含む。
移動物体IDフィールド811は、各フレームから検出された移動物体IDを保持する。この移動物体IDは、軌跡特徴量管理情報800の移動物体IDフィールド803に保持されるものと対応する。
矩形座標フィールド812は、各フレームから検出された移動物体の画像の当該フレーム画像中に占める範囲を示す矩形座標を保持する。この座標は、例えば、移動物体の外接矩形の「左上隅の水平座標、左上隅の垂直座標、右下隅の水平座標、右下隅の垂直座標」という形式で表現されてもよいし、矩形の中心の座標、幅及び高さによって表現されてもよい。後述する矩形座標フィールド833、843及び853に保持される矩形座標の表現も同様であってよい。
撮影日時フィールド813は、各移動物体の画像を含むフレームが撮影された日時を保持する。
フレーム画像管理情報820は、フレームIDフィールド821、映像IDフィールド822及び画像データフィールド823を含む。
フレームIDフィールド821は、映像データから抽出された各フレームの識別情報(以下、フレームID)を保持する。映像IDフィールド822は、フレームの抽出元の映像を識別する映像IDを保持するフィールドであり、この映像IDは、映像データ管理情報300の映像IDフィールド301に保持される値に対応する。画像データフィールド823は、フレームの静止画像のバイナリデータであり、検索結果などを表示装置104に表示する際に用いられるデータを保持する。
顔特徴量管理情報830は、顔IDフィールド831、フレームIDフィールド832、矩形座標フィールド833及び顔特徴量フィールド834を含む。
顔IDフィールド831は、フレームの画像から顔検知部701によって検知された顔領域の識別情報(以下、顔ID)を保持する。フレームIDフィールド832は、顔領域が検知されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報820のフレームIDフィールド821に保持されるものと対応する。矩形座標フィールド833は、検知された顔領域のフレーム画像に占める範囲を示す座標を保持する。顔特徴量フィールド834は、検知された顔領域から顔特徴抽出部702によって抽出された画像特徴量を保持する。
頭部特徴量管理情報840は、頭部IDフィールド841、フレームIDフィールド842、矩形座標フィールド843及び頭部特徴量フィールド844を含む。
頭部IDフィールド841は、フレームの画像から頭部検知部711によって検知された頭部領域の識別情報(以下、頭部ID)を保持する。フレームIDフィールド842は、頭部領域が検知されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報820のフレームIDフィールド821に保持されるものと対応する。矩形座標フィールド843は、検知された頭部領域のフレーム画像に占める範囲を示す座標を保持する。頭部特徴量フィールド844は、検知された頭部領域から頭部特徴抽出部712によって抽出された画像特徴量を保持する。
服飾特徴量管理情報850は、服飾IDフィールド851、フレームIDフィールド852、矩形座標フィールド853及び服飾特徴量フィールド854を含む。
服飾IDフィールド851は、フレームの画像から服飾検知部721によって検知された服飾領域の識別情報(以下、服飾ID)を保持する。フレームIDフィールド852は、服飾領域が検知されたフレームのフレームIDを保持する。このフレームIDは、フレーム画像管理情報820のフレームIDフィールド821に保持されるものと対応する。矩形座標フィールド853は、検知された服飾領域のフレーム画像に占める範囲を示す座標を保持する。服飾特徴量フィールド854は、検知された服飾領域から服飾特徴抽出部722によって抽出された画像特徴量を保持する。
上記以外の顕著領域が検知され、その特徴量が抽出された場合には、当該顕著領域に関する上記と同様の情報が映像データベース111に保持される。
図9は、本発明の実施例2のサーバ計算機105が入力された映像を登録する処理を説明するフローチャートである。以下、図9の各ステップについて説明する。
最初に、映像入力部106が、映像記憶装置101又は映像撮影装置102から入力された映像データをデコードし、フレームを静止画として抽出する(ステップS901)。
次に、サーバ計算機105内の各部が、ステップS901で抽出された各フレームに対して、ステップS902〜S916を実行する。
フレーム登録部107は、抽出されたフレームを映像データベース111のフレーム画像管理情報820に登録する(ステップS903)。
移動物体追跡部108は、処理対象のフレームから移動物体を検出し、検出した移動物体を前の時刻のフレームから検出された移動物体と対応付ける(ステップS904)。
次に、軌跡特徴登録部110は、検出された移動物体の情報を映像データベース111の移動物体管理情報810に登録する(ステップS905)。
次に、移動物体追跡部108は、新しい移動物体が出現したか否かを判定する(ステップS906)。この判定は、図4のステップ404と同様の方法で行うことができる。
新しい移動物体が出現した場合、移動物体追跡部108は、当該新しい移動物体に新しい追跡IDを付与し、軌跡特徴登録部110は、当該新しい追跡IDと、当該新しい移動物体が検出された映像の映像IDと、をそれぞれ映像データベース111の軌跡特徴量管理情報800に登録する(ステップS907)。一方、新しい移動物体が出現しなかった場合、ステップS907は実行されない。
次に、軌跡特徴登録部110は、ステップS904における対応付けの結果に従って、軌跡特徴量管理情報800に登録された移動物体IDを更新する(ステップS908)。具体的には、軌跡特徴登録部110は、ステップS904において検出された移動物体が新たに出現したと判定された場合、当該移動物体の移動物体IDを、ステップS907で追加された追跡IDに対応する移動物体IDフィールド803に追加し、ステップS904において検出された移動物体が前の時刻のフレームから検出された移動物体と対応付けられた場合、当該ステップS904において検出された移動物体の移動物体IDを、当該前の時刻の移動物体と同一の追跡IDに対応する移動物体IDフィールド803に追加する。
次に、移動物体追跡部108は、移動物体が消失したか否かを判定する(ステップS909)。この判定は、図4のステップS407と同様に行うことができる。
移動物体が消失した場合、軌跡特徴抽出部109が当該消失した移動物体の軌跡から軌跡特徴量を抽出し(ステップS910)、続いて抽出された軌跡特徴量を軌跡特徴登録部110が軌跡特徴量管理情報800内の軌跡特徴量フィールド804に登録する(ステップS911)。一方、移動物体が消失しなかった場合、軌跡がさらに延長される可能性があるため、ステップS910及びS911は実行されない。
次に、顔検知部701、頭部検知部711及び服飾検知部721が、それぞれ、処理対象のフレームの画像から顔領域、頭部領域及び服飾領域を検知する(ステップS912)。この検知は、公知の方法を含む任意の方法によって実行することができる。
次に、顔検知部701、頭部検知部711及び服飾検知部721は、それぞれの領域の検知に成功したか否かを判定する(ステップS913)。
顔検知部701が顔領域の検知に成功した場合、顔特徴抽出部702は、検知された顔領域から画像特徴量を抽出し(ステップS914)、顔特徴登録部703は、検知された顔領域の範囲を示す座標及び抽出された画像特徴量を、それぞれ、処理対象のフレームのフレームIDに対応する矩形座標フィールド833及び顔特徴量フィールド834に登録する(ステップS915)。
頭部検知部711が頭部領域の検知に成功した場合、頭部特徴抽出部712は、検知された頭部領域から画像特徴量を抽出し(ステップS914)、頭部特徴登録部713は、検知された頭部領域の範囲を示す座標及び抽出された画像特徴量を、それぞれ、処理対象のフレームのフレームIDに対応する矩形座標フィールド843及び頭部特徴量フィールド844に登録する(ステップS915)。
服飾検知部721が服飾領域の検知に成功した場合、服飾特徴抽出部722は、検知された服飾領域から画像特徴量を抽出し(ステップS914)、服飾特徴登録部723は、検知された服飾領域の範囲を示す座標及び抽出された画像特徴量を、それぞれ、処理対象のフレームのフレームIDに対応する矩形座標フィールド853及び服飾特徴量フィールド854に登録する(ステップS915)。
全てのフレームについて上記の処理が終了すると、入力された映像を登録する処理が終了する。
図10は、本発明の実施例2のサーバ計算機105による検索処理を説明するフローチャートである。以下、図10の各ステップについて説明する。
最初に、ユーザが検索に使用する特徴量を決定し、その結果を入力する(ステップS1001)。ここでは、軌跡特徴量、顔特徴量、頭部特徴量及び服飾特徴量を検索に使用することが決定された場合について説明する。
上記のように検索に使用する特徴量が決定された場合、サーバ計算機105は、軌跡特徴量を用いた検索処理(ステップS1011〜1016)、顔特徴量を用いた検索処理(ステップS1021〜S1023)、頭部特徴量を用いた検索処理(ステップS1031〜S1033)、及び服飾特徴量を用いた検索処理(ステップS1041〜S1043)を、任意の順に、又は並列に実行する。
最初に、軌跡特徴量を用いた検索処理(ステップS1011〜S1016)を説明する。まず、サーバ計算機105は、ステップS1011〜S1014を順次実行する。これらは、それぞれ図5のステップS501〜S504と同様であるため、説明を省略する。ただし、ユーザからの入力は、複数特徴入力部731によって受け付けられる。次に、ユーザが入力装置103を操作して軌跡特徴量の重みを決定する(ステップS1015)。次に、類似ベクトル検索部732が、ステップS1013で入力された軌跡と類似する軌跡を映像データベース111の軌跡特徴量管理情報800から検索する(ステップS1016)。この検索処理は、図5のステップS505と同様に実行される。
次に、顔特徴量を用いた検索処理(ステップS1021〜S1023)を説明する。まず、ユーザが入力装置103を操作して検索キーとなる顔を設定する(ステップS1021)。次に、ユーザが入力装置103を操作して顔特徴量の重みを決定する(ステップS1022)。次に、類似ベクトル検索部732が、ステップ1021で検索キーとして設定された顔に類似する顔を顔特徴量管理情報830から検索する(ステップS1023)。具体的には、類似ベクトル検索部732は、類似軌跡検索(ステップS505、S1016)と同様に、ステップ1021で検索キーとして設定された顔の画像特徴量のベクトルと、顔特徴量管理情報830に保持された顔特徴量のベクトルとの間のユークリッド距離を用いて、類似する顔を検索することができる。後述する類似頭部検索(ステップS1033)及び類似服飾検索(ステップS1043)も同様である。
次に、頭部特徴量を用いた検索処理(ステップS1031〜S1033)を説明する。まず、ユーザが入力装置103を操作して検索キーとなる頭部を設定する(ステップS1031)。次に、ユーザが入力装置103を操作して頭部特徴量の重みを決定する(ステップS1032)。次に、類似ベクトル検索部732が、ステップ1031で検索キーとして設定された頭部に類似する頭部を頭部特徴量管理情報840から検索する(ステップS1033)。
次に、服飾特徴量を用いた検索処理(ステップS1041〜S1043)を説明する。まず、ユーザが入力装置103を操作して検索キーとなる服飾を設定する(ステップS1041)。次に、ユーザが入力装置103を操作して服飾特徴量の重みを決定する(ステップS1042)。次に、類似ベクトル検索部732が、ステップ1031で検索キーとして設定された服飾に類似する服飾を服飾特徴量管理情報850から検索する(ステップS1043)。
次に、検索結果統合部733が、ステップS1016、S1023、S1033及びS1043の検索結果を統合する(ステップS1111)。具体的には、検索結果統合部733は、検索によって得られた軌跡特徴量、顔特徴量、頭部特徴量及び服飾特徴量の類似度に、それぞれ、ステップS1015、S1022、S1032及びS1042で決定された重み係数を掛けた値を合計することで総合的な類似度のスコアを得る。このとき、検索結果統合部733は、設定された重み係数をそのまま使用してもよいし、全ての特徴量の重み係数の合計値が1となるように正規化してそれを使用してもよい。
なお、例えば顔特徴量管理情報830に登録された顔特徴量が、移動物体管理情報810に登録されたどの人物の顔の特徴量であるかは、顔特徴量管理情報830に登録された矩形座標と移動物体管理情報810に登録された矩形座標とが重複するか否か(又はどの程度重複するか)に基づいて判定することができる。頭部特徴量及び服飾特徴量についても同様である。この判定を容易にするために、移動物体管理情報810は、それぞれの移動物体の画像が抽出されたフレームを識別するフレームIDをさらに含んでもよい。
次に、検索結果統合部733が検索結果及びスコアを表示装置104に出力し、表示装置104が検索結果をスコアが高い順に表示する(ステップS1121)。
以上で検索処理が終了する。
図11は、本発明の実施例2のサーバ計算機105によって出力される検索画面の説明図である。図11を参照して、図10の処理におけるユーザからの情報の入力方法及び検索結果の表示方法の一例を説明する。
実施例2の表示装置104によって表示される検索画面は、映像再生エリア1101、カメラ内追跡結果表示エリア1102、全体像表示エリア1103、重み設定エリア1104、特徴量設定エリア1105、検索ボタン1106及び検索結果表示エリア1107を含む。
映像再生エリア1101には、ユーザが選択した撮影場所で撮影された映像が再生され、表示される。図11では省略されているが、ユーザが撮影場所を選択するために、実施例2の表示装置104に図6の撮影場所選択エリア601が表示されてもよい。
ユーザが表示された映像に含まれる移動物体のいずれかを指定すると、指定された移動物体を当該映像内で追跡した結果がカメラ内追跡結果表示エリア1102に表示される。ここでは、移動物体が人物である例について説明する。例えば当該映像の複数のフレーム画像から切り出された、指定された人物の複数の画像が、撮影日時の順に並べて表示されてもよい。これから実行される検索の目的は、ユーザが指定した特徴に近い特徴を有する人物の画像を、当該映像、当該映像と同じ場所で撮影された別の映像、又は別の場所で撮影された映像から検索することであり、その人物と同一の人物(又は同一の人物ではないが類似する特徴を有する人物)の画像が映像再生エリア1101に表示された映像から発見された場合には、その画像を指定することができる。
ただし、例えば目撃情報から設定された特徴量(後述)のみが検索キーとして設定される場合のように、検索キーを設定するために移動物体の画像を参照する必要がない場合には、映像再生エリア1101に表示された画像をユーザが指定する必要がない。
全体像表示エリア1103には、移動物体の全体像が模式的に表示される。図11の例では、人物の頭部、顔、上半身、下半身、鞄等の領域を含む人物の模式図が表示される。
重み設定エリア1104には、それぞれの特徴量の重みを設定するためのスライドバー又はその他の設定手段が表示される。図11の例では、全体像表示エリア1103に表示された領域及び軌跡のそれぞれの特徴量の重みを設定するためのスライドバーが表示される。図11の例では頭部、顔、上半身、下半身、鞄及び軌跡のそれぞれの特徴量に対応するスライドバーが表示されているが、図7〜図10を参照して説明したように、頭部、顔、服飾及び軌跡に対応するスライドバーが表示されてもよいし、その他の任意の顕著領域の特徴量に対応するスライドバーが表示されてもよい。
特徴量設定エリア1105には、以下に具体例を説明するように、特徴量の設定画面が表示される。
例えば、ユーザは、軌跡特徴量を検索に使用することを決定した場合(ステップS1001)、重み設定エリア1104から「軌跡」を選択し、撮影場所IDを指定すると(ステップS1011)、指定された撮影場所の背景画像が特徴量設定エリア1105に表示される(ステップS1012)。続いて、ユーザは特徴量設定エリア1105に表示された背景画像上で、検索キーとなる軌跡を入力する(ステップS1013)。この入力は、実施例1のステップS503と同様に行うことができる。軌跡特徴抽出部は、入力された軌跡を軌跡特徴量に変換する(ステップS1014)。ユーザは、さらに、重み設定エリア1104に表示された「軌跡」に対応するスライドバーを操作することで、軌跡特徴量の重みを設定する(ステップS1015)。
あるいは、ユーザは、顔特徴量を検索に使用することを決定した場合(ステップS1001)、重み設定エリア1104から「顔」を選択し、検索キーとなる顔を設定する(ステップ1021)。例えば、カメラ内追跡結果表示エリア1102に表示された複数の画像から切り出された複数の顔画像が特徴量設定エリア1105に表示され、ユーザがそれらの顔画像のいずれかを選択すると、選択された顔画像が検索キーとして設定されてもよい。ユーザは、さらに、重み設定エリア1104に表示された「顔」に対応するスライドバーを操作することで、顔特徴量の重みを設定する(ステップS1022)。
同様に、ユーザは、頭部特徴量を検索に使用することを決定した場合(ステップS1001)、重み設定エリア1104から「頭部」を選択し、検索キーとなる頭部を設定し(ステップ1031)、頭部特徴量の重みを設定する(ステップS1032)。これらの手順は、例えば、顔特徴量及びその重みの設定と同様に実行することができる。
さらに、ユーザは、服飾特徴量を検索に使用することを決定した場合、重み設定エリア1104から「服飾」(図11の例では「上半身」又は「下半身」でもよい)を選択し、検索キーとなる服飾を設定し(ステップ1041)、服飾特徴量の重みを設定する(ステップS1042)。これらの手順は、例えば、顔特徴量及びその重みの設定と同様に実行することができる。
あるいは、例えば服飾特徴量として色特徴量が設定される場合には、カメラ内追跡結果表示エリア1102に表示された画像から切り出された服飾画像ではなく、色見本又はカラーパレット等が特徴量設定エリア1105に表示され、ユーザがいずれかの色を選択してもよい。
図10では省略されているが、他の顕著領域(例えば鞄領域)の特徴量が設定される場合も、上記と同様に行うことができる。設定された特徴量(例えば色等)が全体像表示エリア1103に表示された人物の模式図に反映されてもよい。
ユーザが検索ボタン1106を操作すると、検索に使用することが決定された特徴量について類似ベクトル検索が行われ(ステップS1016、S1023、S1033及びS1043)、設定された重みに基づいて検索結果が統合され(ステップS1111)、スコアの順に検索結果が検索結果表示エリア1107に表示される(ステップS1121)。検索結果表示エリア1107は、実施例1の検索結果表示エリア604と同様であってよいため、説明を省略する。
上記のように、本発明の実施例2によれば、実施例1と同様の軌跡特徴量だけでなく、一つ以上の画像特徴量に基づいて移動物体の画像を検索することができる。このとき、実際に撮影された画像から取得された画像特徴量(例えば映像再生エリア1101に表示された映像から切り出された顔画像の特徴量等)だけでなく、ユーザが直接入力した画像特徴量(例えばユーザによって色見本から選択された色特徴量)を検索キーとして指定することができる。あるいは、例えば検索しようとする人物が所持していると推定される所持品(例えば鞄)と類似する所持品を所持する別の人物の画像が得られる場合、その画像から抽出された所持品の特徴量を検索キーとして指定することもできる。
また、上記のように複数の特徴量を検索キーとして検索が行われる場合、それらの検索結果は重み付けをした上で統合される。例えばユーザがいずれかの特徴量を特に重視したい特徴量がある場合、その特徴量の重みを大きくすることができる。あるいは、ユーザは、例えば設定された検索キーの確度又はそれを用いた移動物体の識別のしやすさ等に基づいて重みを設定してもよい。具体的には、例えば、目撃情報に基づいて服飾の色特徴量を設定する場合、その目撃情報の確度が高いほど大きい重みを設定してもよい。あるいは、例えば鞄特徴量を設定する場合、その鞄の希少性が高いほど大きい重みを設定してもよい。あるいは、サーバ計算機105は、例えば顔領域に含まれる画像の「顔らしさ」を判定して、顔らしさが高いほど重みが大きくなるように重みを自動設定してもよい。他の顕著領域についても同様である。
このように、本発明の実施例2によれば、実際に撮影された検索対象の移動物体の画像の特徴量だけでなく、例えば目撃情報又はその他の情報に基づいて推定される一つ以上の特徴量を検索キーとして用い、さらにそれらの重みを任意に設定することによって、例えば種々の情報源からの情報を統合した検索キーを用いた検索など、自由度の高い検索を実現することができる。
次に、本発明の実施例3の画像検索システム100について説明する。以下に説明する相違点を除き、実施例3の画像検索システム100の各部は、図1〜図6に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
実施例3の映像データベース111は、実施例1で説明したものに加えて、地図情報及び座標変換情報を有する。地図情報は、映像記憶装置101に保持された映像を撮影した各カメラ、又は、映像撮影装置102に相当する各カメラの撮影範囲を含む空間の地図情報である。例えば各カメラが複数のフロアを有する建物内を撮影するように設置されている場合、地図情報は、その建物の3次元地図情報であってもよいし、フロアごとの平面図であってもよいし、その他の任意の形態の地図情報であってもよい。
座標変換情報は、各カメラによって撮影された映像から抽出されたフレーム画像上の座標と、地図上の座標との間の変換パラメータを特定する情報を含む。例えば、座標変換情報は、各カメラの設置位置、撮影方向及び画角等の情報を含んでもよい。サーバ計算機105は、それらの情報に基づいて、各カメラによって撮影された画像上の座標と地図上の座標との間の変換パラメータを算出し、それを用いて座標を変換することができる。あるいは、座標変換情報は、算出された変換パラメータそのものを含んでもよい。
図12は、本発明の実施例3の画像検索システム100によって実行される地図情報を用いた軌跡検索の説明図である。
実施例3の表示装置104は、撮影場所表示エリア602に、ユーザによって指定された撮影場所の背景画像の代わりに、検索対象の撮影場所を含むエリア(例えばその撮影場所を含むフロア)の地図を表示する。図12の地図1201は、撮影場所表示エリア602に表示される地図の一例である。地図1201が示すフロアには、映像撮影装置102として5個のカメラが設置されている。座標変換情報が各カメラの設置位置等の情報を含んでいる場合、地図情報を座標変換情報と照合することによって、地図1201における各カメラの撮影範囲を特定することができる。図12の撮影範囲1201a〜1201eは、それぞれのカメラの撮影範囲である。
ユーザは、図6の軌跡606aの入力と同様の方法によって、地図1201上の軌跡1202を入力することができる。この軌跡1202は、複数のカメラの撮影範囲に跨る長い軌跡である。軌跡特徴変換部113は、入力された軌跡1202の地図上の座標(図12の例では平面図上の座標)を軌跡入力部112から受けると、その座標を、各カメラによって撮影された画像上の座標(図12の例では斜め下方向を俯瞰する画面上の座標)に変換する。具体的には、例えば、軌跡特徴変換部113は、入力された軌跡1202から、各カメラの撮影範囲1201a〜1201eのそれぞれに含まれる部分を切り出し、それらの部分の座標を、座標変換情報に基づいて、画像上の座標に変換する。このような変換は、公知の方法によって行うことができる。
図12に示す画像1203a〜1203eは、それぞれのカメラが撮影範囲1201a〜1201eを撮影した画像であり、それぞれの中に矢印によって表示された軌跡1204a〜1204eは、軌跡1202のそれぞれの撮影範囲に含まれる部分の地図上の座標を画面上の座標に変換することによって得られた軌跡(すなわち軌跡1202のカメラ画像への写像)である。例えば軌跡1202に沿って移動した人物の画像は、画像1203a上では軌跡1204aに沿って移動する。
軌跡特徴変換部113は、ステップS504(図5)において、上記の座標変換を行い、変換された軌跡(例えば軌跡1204a〜1204e)を軌跡特徴量に変換する。類似ベクトル検索部114は、軌跡特徴変換部113から取得した軌跡特徴量に基づいて、実施例1と同様の検索を行い、その結果を出力する。
類似ベクトル検索部114は、ステップS506において、検索結果として得られた軌跡を、実施例1と同様にカメラ画像上の軌跡として表示装置104の検索結果表示エリア604に表示させてもよい。具体的には、図12に示すように、一つの長い軌跡1202から複数の軌跡1204a〜1204eが得られ、それらを検索キーとして検索を実行した場合、軌跡1204a〜1204eの各々に類似する軌跡が検索結果として得られる。類似ベクトル検索部114は、検索結果として得られたそれぞれの軌跡を、図6に示した例と同様に、検索結果表示エリア604に表示させてもよい。
あるいは、類似ベクトル検索部114は、図13を参照して説明するように、検索結果として得られたそれぞれのカメラ画像上の軌跡を地図上の軌跡に変換して表示させてもよいし、そのようにして変換された複数の地図上の軌跡を連結して一本の軌跡として表示させてもよい。
図13は、本発明の実施例3の画像検索システム100によって実行されるカメラ画像上の軌跡の地図上の軌跡への変換の説明図である。
画像1301a上の軌跡1302aは、図12の軌跡1204aをキーとする検索結果として得られた軌跡の一例である。類似ベクトル検索部114は、軌跡1302aの表示を含む画像1301aをそのまま検索結果表示エリア604に表示させてもよいが、カメラ画像上の軌跡1302aから地図1303上の軌跡1304aを生成し、これらの画像(すなわち地図1303の画像上に軌跡1304aを重畳した画像)を検索結果表示エリア604に表示させてもよい。類似ベクトル検索部114は、軌跡特徴変換部113が実行したものと逆の座標変換を行うことによって軌跡1302aから、軌跡1302aの地図1303への写像である軌跡1304aを生成することができる。
類似ベクトル検索部114は、実施例1の場合と同様に、検索された軌跡1031aに対応する移動物体の画像を出力してもよい。その場合、表示装置104がその移動物体の画像を軌跡1304aの上に重畳表示してもよい。あるいは、表示装置104は、地図1303上には変換された軌跡のみを表示し、それとは別に、検索された移動軌跡に対応する移動物体のカメラ画像を表示してもよい。
同様の処理によって、類似ベクトル検索部114は、例えば画像1301b上の軌跡1302bが検索結果として得られた場合、軌跡1302bを地図1303上の軌跡1304bに変換し、これを地図1303上に重畳して検索結果表示エリア604に表示させてもよい。
さらに、類似ベクトル検索部114は、軌跡1304a及び1304bが所定の条件を満たす場合、これらを連結した一本の軌跡1305を生成し、それを地図1303上に重畳して検索結果表示エリア604に表示させてもよい。
具体的には、例えば、軌跡特徴量管理情報320に保持された軌跡1302aの終了日時から軌跡1302bの開始日時までの時間と、軌跡1304aの終点の座標から軌跡1304bの終点の座標までの距離とから計算される移動速度が、物理的に可能と判断される範囲内であり、かつ、それぞれの軌跡に対応する画像の特徴量が類似する場合、軌跡1304a及び1304bが、同一の人物の連続した軌跡であると判定し、これらを連結してもよい。このような判定を行うために、実施例3の映像データベース111は、実施例2に示した顔特徴量管理情報830、頭部特徴量管理情報840及び服飾特徴量管理情報850と同様の情報を含んでもよい。
類似ベクトル検索部114は、同様にしてさらに他の軌跡を連結することによって、軌跡1202に類似する長い軌跡を検索結果表示エリア604の地図上に表示させることができる。
なお、図13を参照して説明した検索結果の表示は、図12を参照して説明した軌跡の入力とは独立に行うこともできる。例えば、ユーザが実施例1と同様の方法で軌跡を入力し、検索結果としてその軌跡に類似する軌跡が得られた場合に、その検索結果の軌跡が図13に示すように表示されてもよい。
以上の本発明の実施例3によれば、地図上に描かれた移動物体の軌跡を入力して、それに類似するカメラ画像上の軌跡を検索することができ、さらに検索結果を地図上に描かれた軌跡として表示することができる。これによって、カメラによって撮影された映像以外の情報源(例えば目撃情報等)から特定された軌跡の入力、及び、検索結果として得られた軌跡の把握が容易になる。
次に、本発明の実施例4の画像検索システム100について説明する。以下に説明する相違点を除き、実施例4の画像検索システム100の各部は、図1〜図6に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
図14は、本発明の実施例4のサーバ計算機105によって出力される検索画面の説明図である。
実施例4において、ユーザは、入力装置103を操作して、検索キーとなる複数の移動物体の軌跡を入力することができる。例えば、表示装置104が入力装置103も兼ねるタッチパネルである場合、ユーザは、二つの指示手段(例えば2本の指又は2本のペン)を同時にスワイプすることで軌跡606a及び606dを同時に入力してもよい。軌跡入力部112は、このようにして同時に入力された2本の軌跡を一つのグループとして扱う。あるいは、ユーザは、一つの指示手段を使って、又は入力装置103であるマウスによってポインタ605を動かすことによって、軌跡606a及び606dを順次入力し、さらにそれらが一つのグループであることを指定する情報を入力してもよい。軌跡入力部112は、このようにして指定された2本の軌跡を一つのグループとして扱う。
軌跡特徴変換部113は、一つのグループに含まれる2本の軌跡のそれぞれを軌跡特徴量に変換し、類似ベクトル検索部114は、2本の軌跡のグループに類似するグループを検索する。具体的には、例えば、類似ベクトル検索部114は、軌跡特徴量に基づいて、軌跡606aに類似する形状の軌跡を検索し、さらに、軌跡606dに類似する形状の軌跡を検索してもよい。そして、類似ベクトル検索部114は、例えば軌跡606aに類似する形状の軌跡606bが検索され、軌跡606dに類似する形状の軌跡606eが検索された場合、軌跡606aと軌跡606bとの間の形状の類似度、軌跡606dと軌跡606eとの間の形状の類似度、及び、軌跡606bと軌跡606eとの間の開始日時及び終了日時の類似度に基づいて、軌跡606a及び606dのグループと、軌跡606b及び606eのグループとの間の類似度のスコアを計算してもよい。
類似ベクトル検索部114は、他の検索された軌跡のグループについても同様に類似度のスコアを計算し、それに従って検索結果表示エリア604に検索結果を表示させてもよい。図14の例では、軌跡606b及び606eを含む画像604a、並びに、軌跡606c及び606fを含む画像604bが表示される。軌跡606b、606c、606e及び606fのそれぞれに対応する移動物体607a、607b、607c及び607dの画像がさらに表示されてもよい。
実施例1のサーバ計算機105は、上記と同様の方法で3本以上の軌跡の入力を受け付けて、それらの軌跡のグループに類似する軌跡のグループを検索してもよい。また、ユーザは、例えば1本の軌跡606aを入力し、さらに、その軌跡606aが複数の移動物体を含むグループの軌跡であることを示す情報を入力してもよい。例えば、ユーザは、円形の図形など、グループを示す所定の図形を軌跡606aの始点に入力し、その図形を軌跡606aの形に移動させることで軌跡606aを軌跡のグループとして入力してもよい。このとき、ユーザは、軌跡のグループに含まれる軌跡の本数を指定する情報をさらに入力してもよい。
このようにして軌跡のグループが入力された場合、類似ベクトル検索部114は、例えば上記と同様の方法で、形状、開始日時及び終了日時が軌跡606aに類似する、指定された本数の軌跡のグループを検索し、その結果を出力する。
本発明の実施例2において上記のように複数の移動物体の軌跡が指定されてもよい。その場合、ユーザは、さらに、それらの複数の移動物体の少なくとも一つの画像特徴量(例えば顔特徴量等)を指定してもよい。その場合、類似ベクトル検索部732は、上記の類似ベクトル検索部114と同様の検索に加えて、実施例2と同様の画像特徴量に基づく検索を実行し、検索結果統合部733がそれらの検索結果を統合して出力する。
以上の本発明の実施例4によれば、複数の移動物体を含む移動物体のグループも容易に検索することが可能になる。
なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
また、図面には、実施例を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
100 画像検索システム
101 映像記憶装置
102 映像撮影装置
103 入力装置
104 表示装置
105 サーバ計算機
106 映像入力部
107 フレーム登録部
108 移動物体追跡部
109 軌跡特徴抽出部
110 軌跡特徴登録部
111 映像データベース
112 軌跡入力部
113 軌跡特徴変換部
114、732 類似ベクトル検索部
300 映像データ管理情報
310 背景画像データ管理情報
320、800 軌跡特徴量管理情報
701 顔検知部
702 顔特徴抽出部
703 顔特徴登録部
711 頭部検知部
712 頭部特徴抽出部
713 頭部特徴登録部
721 服飾検知部
722 服飾特徴抽出部
723 服飾特徴登録部
731 複数特徴入力部
733 検索結果統合部
810 移動物体管理情報
820 フレーム画像管理情報
830 顔特徴量管理情報
840 頭部特徴量管理情報
850 服飾特徴量管理情報

Claims (11)

  1. 映像を撮影する撮影部と、記憶部を有し、前記映像に含まれる画像を検索する検索部と、前記検索部に入力される情報を受ける入力部と、前記検索部から出力される情報を表示する表示部と、を有する画像検索システムであって、
    前記記憶部は、前記映像から抽出された複数の移動物体の移動経路を示す軌跡の形状を示す情報を保持し、
    前記検索部は、
    前記入力部から軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された軌跡の形状と類似する軌跡を検索し、
    前記検索された軌跡に沿って移動した前記移動物体の画像を前記表示部に表示させることを特徴とする画像検索システム。
  2. 請求項1に記載の画像検索システムであって、
    前記記憶部は、さらに、前記映像から抽出された複数の種類の画像領域の画像特徴量を示す情報を保持し、
    前記検索部は、
    前記入力部から、前記軌跡の形状を示す情報に加えて、一つ以上の種類の画像領域の画像特徴量を示す情報と、前記軌跡の形状の特徴量及び前記一つ以上の種類の画像領域の画像特徴量の各々の重みを示す情報と、を入力されると、前記入力された軌跡の形状と前記記憶部に保持された前記複数の移動物体の軌跡の形状との類似度、前記入力された一つ以上の種類の画像領域の画像特徴量と前記記憶部に保持された画像特徴量との類似度、及び前記重みに基づいて、類似度のスコアを計算し、
    前記検索された軌跡に沿って移動した前記移動物体の画像を、前記類似度のスコアの順に、前記表示部に表示させることを特徴とする画像検索システム。
  3. 請求項1に記載の画像検索システムであって、
    前記記憶部は、さらに、前記撮影部によって撮影された空間の地図情報と、前記空間の地図上の座標と前記撮影部によって撮影された映像上の座標との間の変換パラメータを特定する変換情報と、を保持し、
    前記検索部は、
    前記空間の地図を前記表示部に表示させ、
    前記空間の地図上の軌跡の形状を示す情報を入力されると、前記変換情報に基づいて、前記入力された軌跡の形状を、前記撮影部によって撮影された映像上の軌跡の形状に変換し、
    前記記憶部に保持された前記複数の移動物体の軌跡から、前記変換された軌跡の形状と類似する軌跡を検索することを特徴とする画像検索システム。
  4. 請求項1に記載の画像検索システムであって、
    前記記憶部は、さらに、前記撮影部によって撮影された空間の地図情報と、前記空間の地図上の座標と前記撮影部によって撮影された映像上の座標との間の変換パラメータを特定する変換情報と、を保持し、
    前記検索部は、
    前記変換情報に基づいて、前記検索された軌跡の形状を、前記空間の地図上の軌跡の形状に変換し、
    前記空間の地図及び前記変換された軌跡の形状を前記表示部に表示させることを特徴とする画像検索システム。
  5. 請求項1に記載の画像検索システムであって、
    前記記憶部は、前記複数の移動物体の移動時刻を示す情報をさらに保持し、
    前記検索部は、
    前記入力部から複数の軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された複数の軌跡の形状に類似し、かつ、前記移動時刻が所定の条件を満たす複数の移動物体の軌跡を検索し、
    前記検索された軌跡に沿って移動した前記複数の移動物体の画像を前記表示部に表示させることを特徴とする画像検索システム。
  6. プロセッサと、前記プロセッサに接続される記憶部と、を有する画像検索装置であって、
    前記記憶部は、撮影部によって撮影された映像から抽出された複数の移動物体の移動経路を示す軌跡の形状を示す情報を保持し、
    前記プロセッサは、
    軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された軌跡の形状と類似する軌跡を検索し、
    前記検索された軌跡に沿って移動した前記移動物体の画像を出力することを特徴とする画像検索装置。
  7. 請求項6に記載の画像検索装置であって、
    前記記憶部は、さらに、前記映像から抽出された複数の種類の画像領域の画像特徴量を示す情報を保持し、
    前記プロセッサは、
    前記軌跡の形状を示す情報に加えて、一つ以上の種類の画像領域の画像特徴量を示す情報と、前記軌跡の形状の特徴量及び前記一つ以上の種類の画像領域の画像特徴量の各々の重みを示す情報と、を入力されると、前記入力された軌跡の形状と前記記憶部に保持された前記複数の移動物体の軌跡の形状との類似度、前記入力された一つ以上の種類の画像領域の画像特徴量と前記記憶部に保持された画像特徴量との類似度、及び前記重みに基づいて、類似度のスコアを計算し、
    前記検索された軌跡に沿って移動した前記移動物体の画像を、前記類似度のスコアの順に表示するための情報を出力することを特徴とする画像検索装置。
  8. 請求項6に記載の画像検索装置であって、
    前記記憶部は、さらに、前記撮影部によって撮影された空間の地図情報と、前記空間の地図上の座標と前記撮影部によって撮影された映像上の座標との間の変換パラメータを特定する変換情報と、を保持し、
    前記プロセッサは、
    前記空間の地図を出力し、
    前記空間の地図上の軌跡の形状を示す情報を入力されると、前記変換情報に基づいて、前記入力された軌跡の形状を、前記撮影部によって撮影された映像上の軌跡の形状に変換し、
    前記記憶部に保持された前記複数の移動物体の軌跡から、前記変換された軌跡の形状と類似する軌跡を検索することを特徴とする画像検索装置。
  9. 請求項6に記載の画像検索装置であって、
    前記記憶部は、さらに、前記撮影部によって撮影された空間の地図情報と、前記空間の地図上の座標と前記撮影部によって撮影された映像上の座標との間の変換パラメータを特定する変換情報と、を保持し、
    前記プロセッサは、
    前記変換情報に基づいて、前記検索された軌跡の形状を、前記空間の地図上の軌跡の形状に変換し、
    前記空間の地図及び前記変換された軌跡の形状を示す情報を出力することを特徴とする画像検索装置。
  10. 請求項6に記載の画像検索装置であって、
    前記記憶部は、前記複数の移動物体の移動時刻を示す情報をさらに保持し、
    前記プロセッサは、
    複数の軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された複数の軌跡の形状に類似し、かつ、前記移動時刻が所定の条件を満たす複数の移動物体の軌跡を検索し、
    前記検索された軌跡に沿って移動した前記複数の移動物体の画像を出力することを特徴とする画像検索装置。
  11. 映像を撮影する撮影部と、プロセッサ及び記憶部を有し、前記映像に含まれる画像を検索する検索部と、前記検索部に入力される情報を受ける入力部と、前記検索部から出力される情報を表示する表示部と、を有する画像検索システムが実行する画像検索方法であって、
    前記記憶部は、前記映像から抽出された複数の移動物体の移動経路を示す軌跡の形状を示す情報を保持し、
    前記画像検索方法は、
    前記検索部が、前記入力部から軌跡の形状を示す情報を入力されると、前記記憶部に保持された前記複数の移動物体の軌跡から、前記入力された軌跡の形状と類似する軌跡を検索する手順と、
    前記検索部が、前記検索された軌跡に沿って移動した前記移動物体の画像を前記表示部に表示させる手順と、を含むことを特徴とする画像検索方法。
JP2014016813A 2014-01-31 2014-01-31 画像検索システム、画像検索装置及び画像検索方法 Active JP6225039B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014016813A JP6225039B2 (ja) 2014-01-31 2014-01-31 画像検索システム、画像検索装置及び画像検索方法
US15/114,585 US10074186B2 (en) 2014-01-31 2015-01-14 Image search system, image search apparatus, and image search method
CN201580002030.9A CN105593855B (zh) 2014-01-31 2015-01-14 图像检索***、图像检索装置以及图像检索方法
PCT/JP2015/050786 WO2015115179A1 (ja) 2014-01-31 2015-01-14 画像検索システム、画像検索装置及び画像検索方法
SG11201606262TA SG11201606262TA (en) 2014-01-31 2015-01-14 Image search system, image search apparatus, and image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014016813A JP6225039B2 (ja) 2014-01-31 2014-01-31 画像検索システム、画像検索装置及び画像検索方法

Publications (2)

Publication Number Publication Date
JP2015143921A true JP2015143921A (ja) 2015-08-06
JP6225039B2 JP6225039B2 (ja) 2017-11-01

Family

ID=53756756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014016813A Active JP6225039B2 (ja) 2014-01-31 2014-01-31 画像検索システム、画像検索装置及び画像検索方法

Country Status (5)

Country Link
US (1) US10074186B2 (ja)
JP (1) JP6225039B2 (ja)
CN (1) CN105593855B (ja)
SG (1) SG11201606262TA (ja)
WO (1) WO2015115179A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063266A (ja) * 2015-09-24 2017-03-30 富士通株式会社 情報処理方法、情報処理装置、及びプログラム
JP2018081630A (ja) * 2016-11-18 2018-05-24 株式会社東芝 検索装置、検索方法およびプログラム
KR20210108018A (ko) * 2020-02-25 2021-09-02 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치
JP2022168070A (ja) * 2017-02-13 2022-11-04 日本電気株式会社 人物検出システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014208524A1 (de) * 2014-05-07 2015-11-12 Robert Bosch Gmbh Ortsgebundene verkehrsanalyse mit erkennung eines verkehrspfads
WO2016021121A1 (ja) * 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
US10523991B2 (en) * 2015-08-31 2019-12-31 Orcam Technologies Ltd. Systems and methods for determining an emotional environment from facial expressions
CN105388993B (zh) * 2015-11-09 2018-09-18 小米科技有限责任公司 一种具有指纹识别功能的终端
JP6813086B2 (ja) * 2017-05-15 2021-01-13 富士通株式会社 演技表示プログラム、演技表示方法および演技表示装置
CN108182218B (zh) * 2017-12-21 2021-11-19 深圳先进技术研究院 一种基于地理信息***的视频人物识别方法、***及电子设备
CN110554420B (zh) * 2018-06-04 2022-06-28 百度在线网络技术(北京)有限公司 设备轨迹获取方法、装置、计算机设备及存储介质
WO2020003451A1 (ja) * 2018-06-28 2020-01-02 三菱電機株式会社 検索装置、検索方法および機械学習装置
SG10201807675TA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd Duration and Potential Region of Interest for Suspicious Activities
JP6573346B1 (ja) * 2018-09-20 2019-09-11 パナソニック株式会社 人物検索システムおよび人物検索方法
JP7018001B2 (ja) * 2018-09-20 2022-02-09 株式会社日立製作所 情報処理システム、情報処理システムを制御する方法及びプログラム
CN109614897A (zh) * 2018-11-29 2019-04-12 平安科技(深圳)有限公司 一种室内查找物品的方法及终端
JP7274298B2 (ja) * 2019-02-12 2023-05-16 株式会社コア 撮像装置、撮像方法及び撮像プログラム
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
JP7256390B2 (ja) * 2019-08-30 2023-04-12 富士通株式会社 分析対象取得装置、分析対象取得方法及び分析対象取得プログラム
JP7205457B2 (ja) * 2019-12-23 2023-01-17 横河電機株式会社 装置、システム、方法およびプログラム
US20220137700A1 (en) * 2020-10-30 2022-05-05 Rovi Guides, Inc. System and method for selection of displayed objects by path tracing
US11599253B2 (en) * 2020-10-30 2023-03-07 ROVl GUIDES, INC. System and method for selection of displayed objects by path tracing
US20230040567A1 (en) * 2021-08-05 2023-02-09 MedikEquip LLC Apparatus and method for positioning a body part
CN115630191B (zh) * 2022-12-22 2023-03-28 成都纵横自动化技术股份有限公司 基于全动态视频的时空数据集检索方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259502A (ja) * 1998-03-11 1999-09-24 Mitsubishi Electric Corp 映像情報表示装置
JP2004118290A (ja) * 2002-09-24 2004-04-15 Nippon Telegr & Teleph Corp <Ntt> 移動軌跡データ検索用インデックス生成装置及びその方法と、移動軌跡データ検索装置及びその方法と、移動軌跡データ検索用インデックス生成プログラム及びそのプログラムを記録した記録媒体と、移動軌跡データ検索プログラム及びそのプログラムを記録した記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3278623B2 (ja) 1999-01-06 2002-04-30 日本電気株式会社 地図3次元化システム,地図3次元化方法および地図3次元化用プログラムを記憶した記憶媒体
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
US8537219B2 (en) * 2009-03-19 2013-09-17 International Business Machines Corporation Identifying spatial locations of events within video image data
WO2010143291A1 (ja) * 2009-06-11 2010-12-16 トヨタ自動車株式会社 車両走行位置判定方法及び車両走行位置判定装置
CN102567380A (zh) * 2010-12-28 2012-07-11 沈阳聚德视频技术有限公司 在视频图像中检索车辆信息的方法
JP5248685B1 (ja) 2012-01-20 2013-07-31 楽天株式会社 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259502A (ja) * 1998-03-11 1999-09-24 Mitsubishi Electric Corp 映像情報表示装置
JP2004118290A (ja) * 2002-09-24 2004-04-15 Nippon Telegr & Teleph Corp <Ntt> 移動軌跡データ検索用インデックス生成装置及びその方法と、移動軌跡データ検索装置及びその方法と、移動軌跡データ検索用インデックス生成プログラム及びそのプログラムを記録した記録媒体と、移動軌跡データ検索プログラム及びそのプログラムを記録した記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
矢島 史 外2名: ""映像上での動きの直接描画によるサッカー映像検索"", 情報処理学会研究報告, vol. 第2002巻,第41号, JPN6015013448, 22 May 2002 (2002-05-22), JP, pages 33 - 40, ISSN: 0003594363 *
石塚 淳 外2名: ""京都観光支援のための移動軌跡データ類似検索手法"", 情報処理学会研究報告, vol. 第2007巻,第1号, JPN6015013449, 12 January 2007 (2007-01-12), JP, pages 17 - 23, ISSN: 0003594364 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063266A (ja) * 2015-09-24 2017-03-30 富士通株式会社 情報処理方法、情報処理装置、及びプログラム
JP2018081630A (ja) * 2016-11-18 2018-05-24 株式会社東芝 検索装置、検索方法およびプログラム
JP2022168070A (ja) * 2017-02-13 2022-11-04 日本電気株式会社 人物検出システム
JP7405200B2 (ja) 2017-02-13 2023-12-26 日本電気株式会社 人物検出システム
KR20210108018A (ko) * 2020-02-25 2021-09-02 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치
KR102656084B1 (ko) 2020-02-25 2024-04-11 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치

Also Published As

Publication number Publication date
CN105593855A (zh) 2016-05-18
JP6225039B2 (ja) 2017-11-01
US20160343147A1 (en) 2016-11-24
WO2015115179A1 (ja) 2015-08-06
US10074186B2 (en) 2018-09-11
CN105593855B (zh) 2019-01-08
SG11201606262TA (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6225039B2 (ja) 画像検索システム、画像検索装置及び画像検索方法
US10565437B2 (en) Image processing device and method for moving gesture recognition using difference images
JP6200306B2 (ja) 映像検索装置、映像検索方法、および記憶媒体
US11665311B2 (en) Video processing system
JP6961363B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2019057836A (ja) 映像処理装置、映像処理方法、コンピュータプログラム、及び記憶媒体
JP6393424B2 (ja) 画像処理システム、画像処理方法及び記憶媒体
US10623659B2 (en) Image processing system, image processing method, and program
US11250633B2 (en) Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time
JP2024520943A (ja) キー機能実行方法、キー機能実行システム、キー機能実行装置、電子機器、及びコンピュータプログラム
JP2013164667A (ja) 映像検索装置、映像検索方法、および映像検索用プログラム
WO2016117039A1 (ja) 画像検索装置、画像検索方法、および情報記憶媒体
Siam et al. Human computer interaction using marker based hand gesture recognition
KR101370830B1 (ko) 사용자 인터페이스 구현 시스템 및 구현 방법
JP2022124095A (ja) 画像合成方法、コンピュータプログラム及び画像合成装置
JP2017211739A (ja) ユーザインターフェース装置およびユーザインターフェースプログラム
Huerta et al. Hand Gesture Recognition With a Novel Particle Filter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171006

R150 Certificate of patent or registration of utility model

Ref document number: 6225039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150