JP6194963B2 - 映像処理システム - Google Patents

映像処理システム Download PDF

Info

Publication number
JP6194963B2
JP6194963B2 JP2015562730A JP2015562730A JP6194963B2 JP 6194963 B2 JP6194963 B2 JP 6194963B2 JP 2015562730 A JP2015562730 A JP 2015562730A JP 2015562730 A JP2015562730 A JP 2015562730A JP 6194963 B2 JP6194963 B2 JP 6194963B2
Authority
JP
Japan
Prior art keywords
video data
object movement
information
movement information
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015562730A
Other languages
English (en)
Other versions
JPWO2015122163A1 (ja
Inventor
康史 平川
康史 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015122163A1 publication Critical patent/JPWO2015122163A1/ja
Application granted granted Critical
Publication of JP6194963B2 publication Critical patent/JP6194963B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、映像処理システム、映像処理装置、映像処理方法、およびプログラムに関する。
監視カメラを用いて、所定の監視対象エリアを監視する監視システムが知られている。このような監視システムにおいては、監視カメラで取得した映像を記憶装置に記憶しておき、必要な時に所望の映像を取得して再生できるようになっている。しかしながら、全ての映像を再生して人力により所望の映像を探し出すことは極めて効率が悪い。
そこで、取得した映像内を移動する物体(オブジェクト)のメタデータを検出し記憶しておくことで、特定の行動を行う物体が記録された映像を検索することを可能とする技術が知られている。このような技術を用いることで、監視カメラが取得した大量の映像の中から特定の行動を行う物体が記録された映像を検索することが可能となる。
このような大量の映像から特定の行動を行う物体が記録された映像を検索するための技術として、例えば、非特許文献1が知られている。非特許文献1には、物体の形状特徴量と動き特徴量と背景の形状特徴量とを抽出してデータベース化しておき、移動物体の形状と動きと背景という3つの要素を手書きのスケッチで描画することでクエリを作成し映像検索を行うという技術が記載されている。この非特許文献1では、各フレーム画像における移動物体の領域内のオプティカルフロー(OF)を平均したベクトルを算出し、各フレーム画像におけるベクトルをまとめた連続データを移動物体の動き特徴量としてデータベース化している。同様に、ユーザが描いた手書きのスケッチからベクトルの連続データを抽出してクエリの動き特徴量としている。
瀬倉章宏、戸田真志、"移動物体と背景の描画による手書きスケッチ映像検索システム"、情報処理学会、インタラクション2011.
ところで、監視カメラによる監視システムにおいて、監視対象エリアを予め定められた複数の領域に区切り、領域内での移動経路は問わずに、特定の領域から別の特定の領域に移動した人物等の映像を検索したい場合がある。このような検索を非特許文献1に記載された技術で行う場合、領域内での移動経路が異なる多数のクエリを入力する必要がある。その理由は、非特許文献1では、同じ複数の領域間を移動する人物等の映像であっても、その領域内の移動経路がクエリの移動経路と異なる映像は、検索の対象から外れてしまうためである。
しかしながら、領域内での移動経路が多様なケースでは、複数の領域間を移動する移動経路の数は膨大になり、領域内での移動経路が異なる多数のクエリを入力することは実際上困難である。このため、漏れの無い検索は難しい。
そこで、本発明の目的は、上述した課題である、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索するのは難しいという問題を解決する映像処理システムを提供することにある。
かかる目的を達成するため本発明の一形態である映像処理システムは、
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報と、前記移動物体の移動に応じた前記節領域の順序を示す節領域順序情報と、を物体移動情報として取得する物体移動情報取得手段と、
前記物体移動情報取得手段が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する物体移動情報・映像データ記憶手段と、
検索の対象となる検索対象体の移動を示す前記節領域と前記節領域の順序とを検索条件として入力する検索条件入力手段と、
前記検索条件入力手段により入力される前記検索条件に応じて前記物体移動情報・映像データ記憶手段が記憶する前記物体移動情報を検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する映像データ検索手段と
を備える。
また、本発明の他の形態である映像処理装置は、
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報と、前記移動物体の移動に応じた前記節領域の順序を示す節領域順序情報と、を物体移動情報として取得する物体移動情報取得部と、
前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する物体移動情報・映像データ記憶部と、
検索の対象となる検索対象体の移動を示す前記節領域と前記節領域の順序とを検索条件として入力する検索条件入力部と、
前記検索条件入力部により入力される前記検索条件に応じて前記物体移動情報・映像データ記憶部が記憶する前記物体移動情報を検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する映像データ検索部と
を備える。
また、本発明の他の形態である映像処理方法は、
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報と、前記移動物体の移動に応じた前記節領域の順序を示す節領域順序情報と、を物体移動情報として取得し、当該物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶し、
検索の対象となる検索対象体の移動を示す前記節領域と前記節領域の順序とを検索条件として入力し、入力された前記検索条件に応じた前記物体移動情報を検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する。
また、本発明の他の形態であるプログラムは、
映像処理装置を、
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報と、前記移動物体の移動に応じた前記節領域の順序を示す節領域順序情報と、を物体移動情報として取得する物体移動情報取得部と、
前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する物体移動情報・映像データ記憶部と、
検索の対象となる検索対象体の移動を示す前記節領域と前記節領域の順序とを検索条件として入力する検索条件入力部と、
前記検索条件入力部により入力される前記検索条件に応じて前記物体移動情報・映像データ記憶部が記憶する前記物体移動情報を検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する映像データ検索部と
して機能させる。
本発明は上述した構成を有するため、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
本発明の第1の実施形態に係る映像処理装置の概略を説明する図である。 本発明の第1の実施形態に係る映像処理装置のブロック図である。 本発明の第1の実施形態に係る映像処理装置が物体移動情報を記憶する際の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る映像処理装置が映像データを出力する際の動作の一例を示すフローチャートである。 本発明の第1の実施形態に係る映像処理装置の動作を説明するための図である。 本発明の第2の実施形態に係る映像処理装置の概略を説明する図である。 本発明の第2の実施形態に係る映像処理装置の概略を説明する図である。 本発明の第2の実施形態に係る映像処理装置のブロック図である。 図8で示す軌跡情報取得部の構成を説明するためのブロック図である。 軌跡情報・節領域対応付け部において判断される軌跡の状態を説明するための図である。 軌跡情報・節領域対応付け部において判断される軌跡の状態を説明するための図である。 軌跡情報・節領域対応付け部において判断される軌跡の状態を説明するための図である。 クエリ入力部に入力する軌跡状態情報の一例を示す図である。 クエリ入力部に入力する軌跡状態情報の一例を示す図である。 クエリ入力部に入力する軌跡状態情報の一例を示す図である。 ジェスチャ認識部が認識したジェスチャのフィードバックの一例を示す図である。 本発明の第2の実施形態に係る映像処理装置が物体移動情報を記憶する際の動作の一例を示すフローチャートである。 本発明の第2の実施形態に係る映像処理装置が映像データを出力する際の動作の一例を示すフローチャートである。 本発明の第3の実施形態に係る映像処理装置が区切る節領域を説明するための図である。 拡大・縮小操作による節領域の変更を説明するための図である。 本発明の第4の実施形態に係る映像処理システムの構成の概略を説明するための概略ブロック図である。 本発明の第5の実施形態に係る映像処理装置の構成の概略を説明するための概略ブロック図である。
次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
図1を参照すると、本発明の第1の実施形態に係る映像処理装置1は、監視カメラなどの外部装置が取得した映像を記憶しておき、当該記憶された映像の中から所望の映像を検索してモニタなどの出力装置に出力する装置である。
図2を参照すると、本発明の第1の実施形態に係る映像処理装置1は、物体移動情報取得部11(物体移動情報取得手段)と映像データ・メタデータDB(DataBase)12(物体移動情報・映像データ記憶手段)と検索条件入力部13(検索条件入力手段)とメタデータ照合部14(映像データ検索手段)とを有する。なお、映像処理装置1は、演算装置と記憶装置とを備える情報処理装置である。映像処理装置1は、記憶装置が記憶するプログラムを演算装置が実行することで、上記各機能を実現することになる。
物体移動情報取得部11は、監視カメラなどの外部装置(映像データ取得手段)から受信した映像データから、移動節領域情報と節領域順序情報とからなる物体移動情報を取得する機能を有する。具体的には、物体移動情報取得部11は、監視カメラなどの外部装置から映像データを受信する。続いて、物体移動情報取得部11は、受信した映像データの画像内の監視対象エリアを予め定められた複数の節領域に区切り当該複数の節領域間を移動する人物(移動物体)を検出する。
ここで、節領域とは、監視対象エリアを区切る予め定められた複数の領域のことであり、人物の行動がまとめられる単位を示す領域のことである。物体移動情報取得部11は、例えば、図示しない節領域範囲記憶部に記憶されている節領域の定義に基づいて、監視対象エリアを区切ることになる。
節領域の範囲は任意で構わないが、例えば、部屋や廊下などの特定の空間ごとに節領域の範囲を定義したり、人物の行動(例えば人物の通行頻度)などに基づいて節領域の範囲を定義したりすることが考えられる。節領域の範囲は、人物の通行頻度や検出した人物の行動傾向などに基づいて適宜変更されるように構成しても構わない。後述するように、ユーザは節領域単位でメタデータ(物体移動情報)の検索を行うことが出来る。そのため、例えば、部屋と廊下とに節領域を定義することで、部屋・廊下単位で映像データの検索を行うことが可能となる。
また、物体移動情報取得部11による移動する人物の検出は、既存の様々な技術を用いて行うことが出来る。物体移動情報取得部11は、例えば、映像データの画像フレームと予め取得された背景画像との差分を取ることで移動する人物を検出することが出来る。また、物体移動情報取得部11は、例えば、テンプレートと呼ばれる画像領域と同じパターンが画像フレーム内に現れる否かを調べることで、当該テンプレートと同じパターンを備える人物を検出することが出来る。動きベクトルを用いて移動する物体を検出することも考えられる。また、カルマンフィルタやパーティクルフィルタにより移動する物体の追跡を行うことが出来る。このように、物体移動情報取得部11による移動する人物の検出は、複数の節領域間を移動する人物を検出可能な様々な方法を用いることが出来る。
物体移動情報取得部11は、このようにして移動する人物を検出する。そして、物体移動情報取得部11は、検出した人物が移動した節領域を示す移動節領域情報と検出した人物の移動に応じた節領域の順序を示す節領域順序情報とを物体移動情報(メタデータ)として取得する。
ここで、移動節領域情報とは、検出した人物が移動した節領域を示す情報である。上述したように、物体移動情報取得部11は、監視対象エリアを予め定められた複数の節領域に区切っている。そこで、物体移動情報取得部11は、検出した人物が移動した節領域を検出し、当該検出した節領域を移動節領域情報として取得することになる。物体移動情報取得部11による移動節領域情報の取得は、人物の移動の軌跡をとり当該軌跡と節領域とを関連付ける、各画像フレームに現れる人物が存在する節領域を逐次取得していくなど、様々な方法を用いて実現することが可能である。
また、節領域順序情報とは、検出した人物の移動に応じた節領域の順序を示す情報である。つまり、節領域順序情報とは、検出した人物が通った節領域の通過順を示す情報である。物体移動情報取得部11による節領域順序情報の取得も、人物の移動の軌跡と節領域とを関連付ける、各画像フレームの撮影時間を用いて節領域の通過順を判断するなど、様々な方法を用いて実現することが可能である。
このように、物体移動情報取得部11は、移動節領域情報として人物が移動した節領域を示す情報を取得する。また、物体移動情報取得部11は、移動節領域情報に加えて当該移動節領域情報が示す節領域を人物が移動した際の通過順を節領域順序情報として取得する。これにより、物体移動情報取得部11は、複数の節領域間を移動する人物が通った節領域を示す移動節領域情報と節領域の通過順を示す節領域順序情報とからなる物体移動情報を取得することが出来る。その後、物体移動情報取得部11は、取得した物体移動情報を映像データ・メタデータDB12へと送信する。
なお、物体移動情報取得部11は、物体移動情報を取得する際に、検出した人物が節領域を通過した時刻(人物が節領域に現れた時刻や節領域から出る時刻)を表す時刻情報や節領域の場所を示す場所情報を取得するように構成しても構わない。物体移動情報取得部11が時刻情報や場所情報を取得する場合には、当該取得した時刻情報や場所情報は物体移動情報と共に(又は物体移動情報に含めて)映像データ・メタデータDB12へと送信されることになる。場所情報は移動節領域情報に含むよう構成しても構わない。
また、物体移動情報取得部11は、物体移動情報から当該物体移動情報に応じた映像データを検索することが可能なように(物体移動情報と物体移動情報に応じた映像データとを関連付けることが可能なように)物体移動情報を構成することになる。物体移動情報取得部11は、例えば、物体移動情報に当該物体移動情報を取得した映像データを識別するための情報を付与する。また、物体移動情報取得部11は、例えば、検出した人物の移動開始時刻と移動終了時刻とを物体移動情報に付与する。このような情報を物体移動情報に付与することで、後述するように、物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶することが可能になる。また、検索した物体移動情報に応じた映像データを出力装置へと出力することが可能となる。なお、物体移動情報に応じた映像データとは、物体移動情報が示す節領域間を移動する人物が映る映像データのことであり、物体移動情報取得手段11が物体移動情報を取得した映像データのことである。
また、物体移動情報取得部11は、監視カメラなどの外部から取得した映像データを映像データ・メタデータDB12へと送信するように構成することが出来る。なお、外部から取得した映像データは物体移動情報取得部11を介さずに映像データ・メタデータDB12へと送信するように映像処理装置1を構成しても構わない。
映像データ・メタデータDB12は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成され、各種のデータを記憶する。ここで、映像データ・メタデータDB12が記憶するデータとは物体移動情報や映像データのことである。また、本実施形態においては、映像データ・メタデータDB12は、物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶することになる。
映像データ・メタデータDB12は、物体移動情報取得部11が送信した映像データを受信するなどの方法により監視カメラなどの外部から受信した映像データを受信する。そして、映像データ・メタデータDB12は、受信した映像データを記憶する。また、映像データ・メタデータDB12は、物体移動情報取得部11が送信した物体移動情報を取得する。そして、映像データ・メタデータDB12は、物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する。これにより、映像データ・メタデータDB12は、映像データと映像データに関連付けた物体移動情報とを記憶することになる。
また、映像データ・メタデータDB12は、メタデータ照合部14からの要請に応じて、記憶する物体移動情報や映像データをメタデータ照合部14や出力装置へと送信する。メタデータ照合部14による映像データ・メタデータDB12が記憶する物体移動情報の検索の詳細については、後述する。
なお、物体移動情報取得部11が時刻情報や場所情報を送信するように構成されている場合には、当該時刻情報や場所情報を物体移動情報とともに記憶することになる。
検索条件入力部13は、節領域と節領域の順序とを検索条件として入力する機能を有する。具体的には、検索条件入力部13はタッチパネルやキーボードなどの入力装置を備えており、入力装置を操作することで検索条件を入力することが出来るように構成されている。検索条件入力部13による検索条件の入力は、例えば、画面上に表示された節領域をマウスで選択することにより行われる。この際には、選択した節領域と節領域の選択順序とが検索条件になる。また、検索条件入力部13による検索条件の入力は、例えば、節領域を背景とする画面上に検索の対象となる人物の軌跡を線で描画することにより行われる。この際には、描画した線が通過した節領域とその通過順序とが検索条件になる。その後、検索条件入力部13は入力された検索条件をメタデータ照合部14へと送信する。そして、メタデータ照合部14により検索条件に基づいた物体移動情報の検索が行われることになる。
メタデータ照合部14は、検索条件入力部13から受信した検索条件を基に映像データ・メタデータDB12に記憶されている物体移動情報(メタデータ)の検索を行う機能を有する。
具体的には、メタデータ照合部14は、検索条件入力部13から節領域と節領域の順序とからなる検索条件を受信する。続いて、メタデータ照合部14は、当該受信した検索条件を用いて、映像データ・メタデータDB12が記憶する物体移動情報を検索する。
ここで、メタデータ照合部14は、例えば、検索条件と同一の物体移動情報(同一の節領域、同一の順序)のみを映像データ・メタデータDB12から検索するように構成することが出来る。または、メタデータ照合部14は、例えば、検索条件と同一・類似の物体移動情報を映像データ・メタデータDB12から検索するように構成することが出来る。
なお、検索条件と物体移動情報との類似は、例えば、検索条件が示す節領域の並び(節領域と当該節領域の順序)と物体移動情報が示す節領域の並びとの離れ具合(距離)を算出することで判断することが出来る。また、上記のような方法を採る場合以外にも、類似性を判断するための様々な一般的な基準を用いて検索条件と物体移動情報とが類似であるか否かの判断を行うように、メタデータ照合部14を構成することが出来る。
また、メタデータ照合部14は、検索した物体移動情報に関連付けて記憶されている映像データをモニタなどの出力装置へと送信する機能を有する。つまり、メタデータ照合部14は、映像データ・メタデータDB12から検索した物体移動情報に関連付けて記憶されている映像データを受信してモニタなどの出力装置へと送信する。
以上が、映像処理装置1の構成である。上記構成を映像処理装置1が備えることで、映像処理装置1が記憶する映像の中から所望の節領域を所望の順序で移動する人物が映る映像を検索することが可能となる。つまり、領域内(各節領域内)での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能となる。次に、本実施形態に係る映像処理装置1の動作を説明する。
監視カメラなどの外部から取得した映像データから物体移動情報(メタデータ)を取得して、当該物体移動情報と映像データとを記憶する際の動作について説明する。
映像処理装置1の物体移動情報取得部11は監視カメラなどから映像データを取得すると、図3に示す処理の実行を開始する。物体移動情報取得部11は、受信した映像データの画像内の監視対象エリアを予め定められた複数の節領域に区切り当該複数の節領域間を移動する人物(移動物体)を検出する(ステップS101)。
続いて、物体移動情報取得部11は、検出した人物が移動した節領域を示す移動節領域情報と検出した人物の移動に応じた節領域の順序を示す節領域順序情報とを物体移動情報(メタデータ)として取得する(ステップS102)。
そして、物体移動情報取得部11は、取得した物体移動情報を映像データ・メタデータDB12に送信する。また、物体移動情報取得部11は、映像データを映像データ・メタデータDB12に送信する。その後、映像データ・メタデータDB12は、物体移動情報取得部11が送信した物体移動情報と映像データとを受信する。そして、映像データ・メタデータDB12は、物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する(ステップS103)。
このような動作により、映像処理装置1は、人物が移動した節領域と当該節領域の順序とをメタデータ(物体移動情報)として記憶することになる。また、上記メタデータは、対応する映像データに関連付けて記憶されることになる。次に、映像処理装置1が記憶する映像の中から所望の節領域を所望の順序で移動する人物が映る映像を検索する際の動作について説明する。
図4を参照すると、検索条件入力部13に検索の対象となる検索対象体の移動を示す節領域と節領域の順序とを入力する(ステップS201)。すると、検索条件を入力された検索条件入力部13は、当該検索条件をメタデータ照合部14へと送信する。
続いて、メタデータ照合部14は、検索条件入力部13が送信した検索条件を受信する。そして、メタデータ照合部14は、受信した検索条件を用いて映像データ・メタデータDB12が記憶する物体移動情報の中から検索条件と同一(又は同一・類似)である物体移動情報を検索する(ステップS202)。その後、メタデータ照合部14は、検索した物体移動情報に関連付けて記憶されている映像データを取得し、当該取得した映像データをモニタなどの出力装置へ出力する(ステップS203)。
このような動作により、映像処理装置1は、当該映像処理装置1に記憶されている映像データの中から所望の節領域を所望の順序で移動する人物が映る映像データを出力することが出来る。
このように、本実施形態における映像処理装置1は、物体移動情報取得部11と、映像データ・メタデータDB12と、を備えている。この構成によると、映像処理装置1の物体移動情報取得部11は、外部から取得した映像データから複数の節領域を移動する人物を検出し、移動節領域情報と節領域順序情報とからなる物体移動情報を取得する。そして、映像データ・メタデータDB12は、物体移動情報と映像データとを記憶する。つまり、映像処理装置1は、映像データ中の人物が移動した節領域と当該節領域の順序とを示すメタデータ(物体移動情報)を記憶することが出来る。また、本実施形態における映像処理装置1は、検索条件入力部13と、メタデータ照合部14と、を備えている。この構成によると、検索条件入力部13に節領域と節領域の順序とからなる検索条件を入力し、当該検索条件から映像データ・メタデータDB12に記憶されているメタデータ(物体移動情報)の検索をメタデータ照合部14が行うことが可能となる。その結果、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
例えば、図5で示す節領域Cにいる人物が節領域Bに移動する場合、ルートaやルートbなど様々な軌跡が考えられることになる。しかしながら本発明によると、物体移動情報取得部11は、ルートaルートbともに、節領域と節領域の順序、つまり、節領域C、D、BをC→D→Bの順序で移動したというメタデータ(物体移動情報)を取得することになる。そして、節領域と節領域の順序とを検索条件入力部13で入力し、メタデータ照合部14で検索されることになる。その結果、ルートaやルートbのように特定の領域から別の特定の領域に移動した人物の領域内での移動経路が異なっていたとしても、当該特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
なお、本実施形態においては、映像処理装置1は、映像データ・メタデータDB12を備えるとした。しかしながら、映像データとメタデータ(物体移動情報)とはそれぞれ異なる場所に記憶するように映像処理装置1を構成しても構わない。
また、本実施形態においては、映像データの画像内の監視対象エリアを複数の節領域に区切ってから移動する人物の検出を行うとした。しかしながら、映像処理装置1は、移動する人物の検出を、監視対象エリアを複数の節領域に区切るよりも先に行うように構成しても構わない。
また、本実施形態における映像処理装置1は、検出した人物が予め定められた所定の状態にある場合に当該所定の状態を示す情報(例えば、軌跡状態情報)を物体移動情報に含むよう構成することが出来る。ここで、予め定められた所定の状態とは、例えばうろつきや高速移動などの所定の状態のことをいう。映像処理装置1の物体移動情報取得部11は、例えば、検出した人物が同一の節領域内を何度も往復しているなど所定の状態にある場合に検出した人物がうろつき状態にあると判断し、うろつき状態であるという情報を物体移動情報に加えることになる。なお、上記所定の状態はうろつきや高速移動などの場合に限定されない。例えば、同時刻に同じ節領域内に複数の人物が検出された場合に当該複数の人物からそれぞれ取得される物体移動情報を関連づけるなど、様々な状態を物体移動情報に含めることが出来る。また、人物が所定の状態にあるか否かの判断は、例えば、節領域毎に行うよう映像処理装置1(の物体移動情報取得部11)を構成することが出来る。
なお、本実施形態においては、1つの映像処理装置1が映像データから物体移動情報を取得して記憶する映像データ記憶手段と、映像データを検索する映像データ検索手段と、の2つの手段を備えるとした。しかしながら、本発明は、映像処理装置1がそのような構成を備える場合に限定されない。例えば、本発明は、映像データ記憶手段を備える情報処理装置と、映像データ検索手段を備える情報処理装置と、の2つの情報処理装置を備えることによっても実現可能である。この場合、映像データ検索手段を備える情報処理装置は、例えば、監視対象エリアを分割した複数の節領域の節領域情報と節領域を移動体が通過した順序情報とを検索条件として、取得した検索条件に合致する移動体の映像データを検索する映像データ検索部と、映像データ検索部により取得された映像データを出力する映像データ出力部とを備えることになる。このように、本発明は、複数の情報処理装置により実現されても構わない。
また、監視カメラなどの外部装置(映像データ取得手段)から受信した映像データから物体移動情報を取得するタイミングは、任意のタイミングで行って構わない。例えば、物体移動情報取得部11は、映像データを取得したタイミングで物体移動情報を取得することが出来る。物体移動情報の取得は、例えば、検索条件を入力されたタイミングで行われても構わない。
[第2の実施形態]
図6、7を参照すると、本発明の第2の実施形態に係る映像処理装置2は、複数の監視カメラで撮影された映像を記憶しておき、当該記憶された複数の映像の中から所望の映像群を検索してモニタなどの出力装置に出力する装置である。特に本実施形態においては、複数の監視カメラそれぞれの撮影範囲全体がそれぞれ1つの節領域を形成する場合について説明する。また、本実施形態においては、上記所定の状態を加えた物体移動情報を取得する場合について、より詳細に説明する。
図8を参照すると、本発明の第2の実施形態に係る映像処理装置2は、軌跡情報取得部3(軌跡情報取得手段)と、物体移動情報取得部4と、メタデータ蓄積部5と、検索条件入力部6と、メタデータ照合部7と、映像データ蓄積部8と、を有する。また、物体移動情報取得部4は、節領域・経路定義処理部41と、軌跡情報・節領域対応付け部42と、を有する。そして、検索条件入力部6は、クエリ入力部61と、ジェスチャ認識部62と、を有する。なお、映像処理装置2は、演算装置と記憶装置とを備える情報処理装置である。映像処理装置2は、記憶装置が記憶するプログラムを演算装置が実行することで、上記各機能を実現することになる。
軌跡情報取得部3は、外部から複数の映像データを取得して複数の映像データ間を移動する人物の軌跡を検出する機能を有する。図9を参照すると、軌跡情報取得部3は、映像データ受信部31と軌跡情報検出部32とを有する。
映像データ受信部31は、監視カメラなどの外部装置から映像データを受信する機能を有する。図9で示すように、本実施形態においては所定位置に複数の監視カメラが設置されており、当該複数の監視カメラは外部のネットワークを介して映像データ受信部31と接続されている。そのため、映像データ受信部31は、所定位置に設置された複数の監視カメラが撮影した映像を外部のネットワークを介して取得することになる。そして、映像データ受信部31は、軌跡情報検出部32で軌跡情報を検出するために必要となる前処理を行った上で、複数の映像データを軌跡情報検出部32へと送信する。
また、映像データ受信部31は、受信した映像データを映像データ蓄積部8へと送信する機能を有する。後述するように、映像データ蓄積部8へと送信された映像データは、出力装置へと映像データを出力する際に用いられることになる。
軌跡情報検出部32は、複数地点に設置された監視カメラが撮影した複数地点の映像データ間を移動する人物を検出し、当該検出した人物の軌跡を検出する機能を有する。上述したように、本実施形態においては、1つの監視カメラが撮影した映像の画像全体を1つの節領域として判断する。そのため、軌跡情報検出部32は、複数の節領域間を移動する人物を検出し、当該複数の節領域間を移動する人物の軌跡を検出することになる。
軌跡情報検出部32は映像データ受信部31が送信する映像データを受信する。または、軌跡情報検出部32は、映像データ蓄積部8に蓄積されている映像データを取得する。そして、軌跡情報検出部32は、映像データ受信部31から受信した映像データや映像データ蓄積部8から取得した映像データを用いて、複数地点の映像データ間を移動する人物の検出を行う。
例えば、図7を参照すると、軌跡情報検出部32は、映像データAと映像データaと映像データBとを取得する。そして、軌跡情報検出部32は、映像データAと映像データaと映像データBとを移動する同一人物の検出を行うことになる。ここで、複数の映像データ間を移動する人物の検出は、様々な技術を用いて行うことが出来る。例えば、人物の顔認識を行い、同一のデータが得られる人物を同一人物として検出する、服装認識により同一人物を認識するなどの方法を用いることが考えられる。つまり、軌跡情報検出部32は、映像データAと映像データaと映像データBとのそれぞれに同一の顔や服装と認識される人物が現れた場合に、当該映像データAと映像データaと映像データBとのそれぞれに現れた同一の顔や服装と認識される人物を同一人物として認識する。また、例えばある映像を通過後別の映像に現れる一般的な経過時間を予め定めておき、当該予め定められた経過時間を満たす人物が検出された場合に同一人物として認識するなどの方法を用いることも考えられる。その他にも、一般的な様々な方法を用いて構わない。
そして、軌跡情報検出部32は、上記方法により検出された複数の映像データ間を移動する人物の軌跡を軌跡情報として検出する。軌跡情報検出部32による人物の軌跡の検出も、様々な技術を用いて行うことが可能である。例えば、複数の映像データの幾つかの画像フレームからそれぞれ同一人物を抽出し、当該抽出した人物間を線でつなぐ、などの方法を採ることが考えられる。その他にもさまざまな一般的な方法をとって構わない。
このように、軌跡情報検出部32は、複数の映像データ間を移動する人物を検出し、当該複数の映像データ間を移動する人物の軌跡を軌跡情報として検出する。そして、軌跡情報検出部32は、当該検出した軌跡情報を軌跡情報・節領域対応付け部42に送信する。
なお、本実施形態においては、図7を用いて、3つの映像データを取得して3つの映像データ間(3つの節領域間)を移動する人物を検出する場合について説明した。しかしながら、軌跡情報検出部32は、例えば4つの映像データを取得して2つの映像データ間を移動する人物を検出するなど、上記場合に限定されず、複数の映像データを取得して複数の映像データ間を移動する人物を検出することが出来る。
また、軌跡情報は、当該軌跡情報を検出した映像データを識別するための情報を含んで構成されているとする。さらに、軌跡情報は、複数の映像データのそれぞれのうち軌跡情報が示す節領域を移動する人物が映る部分を認識するための情報を含むよう構成することが出来る。軌跡情報は、軌跡情報が示す軌跡の各地点(例えば各節領域の移動開始地点や移動終了地点)を人物が通過した時刻を示す時刻情報や、軌跡情報を取得した各映像データの撮影場所を示す(節領域の場所を示す)場所情報を含めて構成しても構わない。
物体移動情報取得部4は、軌跡情報を用いて移動節領域情報と節領域順序情報とからなる物体移動情報を取得する機能を有する。上述したように、物体移動情報取得部4は、節領域・経路定義処理部41と、軌跡情報・節領域対応付け部42と、を有している。
節領域・経路定義処理部41は、節領域、節領域同士の結合を示す経路情報を定義した節領域経路情報を生成する機能を有する。つまり、節領域・経路定義処理部41は、複数の映像データを区切る節領域と、当該節領域間の結合を示す経路情報と、からなる節領域経路情報を生成する。そして、節領域・経路定義処理部41は、生成した節領域経路情報を軌跡情報・節領域対応付け部42と検索条件入力部6へと送信する。なお、節領域経路情報は予め定められていても構わない。上述したように、本実施形態においては、節領域・経路定義処理部41は、複数の監視カメラそれぞれの撮影範囲全体がそれぞれ1つの節領域であると定義していることになる。また、各監視カメラそれぞれが撮影する場所同士のつながりが経路情報として定義されていることになる。
軌跡情報・節領域対応付け部42は、軌跡情報と節領域経路情報とを用いて物体移動情報を取得する機能を有する。つまり、軌跡情報・節領域対応付け部42は、軌跡情報と節領域経路情報とを対応付けることで、軌跡が示す人物が移動した節領域を示す移動節領域情報と当該人物の移動に応じた節領域の順序を示す節領域順序情報とを物体移動情報として取得することになる。なお、本実施形態においては、上述したように、複数の監視カメラそれぞれの撮影範囲全体がそれぞれ1つの節領域であると定義している。そのため、例えば図7を参照すると、軌跡情報・節領域対応付け部42は、節領域A、節領域a、節領域Bを節領域A→節領域a→節領域Bの順序で通過したという各映像データの撮影範囲に応じた物体移動情報を取得することになる。
また、軌跡情報・節領域対応付け部42は、各節領域内の軌跡の状態が予め定められた所定の状態であるか否かの判断を行う機能を有する。つまり、軌跡情報・節領域対応付け部42は、上記軌跡情報と節領域経路情報との対応付けの後、それぞれの節領域内の軌跡が予め定められた所定の状態にあるか否か判断することになる。
ここで、予め定められた所定の状態とは、例えばうろつきや高速移動などの所定の状態のことをいう。例えば、図10を参照すると、検出した人物が節領域Aの内部で何度も往復移動していることが分かる。このように節領域内(図10の場合、節領域A内)の軌跡情報が示す軌跡の状態が、規定回数以上往復行動をしている状態である、当該ある節領域内に所定の時間以上留まっている状態である、などの所定の状態である場合に、軌跡情報・節領域対応付け部42は、人物がうろつき状態にあると判断する。そして、軌跡情報・節領域対応付け部42は、節領域Aの軌跡はうろつき状態であるという情報(軌跡状態情報)を加えた物体移動情報を取得する。
軌跡情報・節領域対応付け部42は、上記うろつき状態の他に、例えば、ある節領域内の軌跡状態が示す軌跡が当該節領域を高速で通り過ぎる状態にある場合には、高速移動の状態であるという情報(軌跡状態情報)を物体移動情報に加えることが出来る。軌跡情報・節領域対応付け部42は、例えば、節領域と軌跡情報と時刻情報とを用いることで、節領域内の軌跡(人物の移動)が高速であるか否かの判断を行うことが可能である。
その他にも軌跡情報・節領域対応付け部42は、例えば、同時刻に同じ節領域内に複数の軌跡が存在している場合に、当該複数の軌跡を示す軌跡情報を関連付けることが出来る。つまり、軌跡情報・節領域対応付け部42は、同時刻に同じ節領域内に存在している軌跡を示す軌跡情報を関連付ける情報を、対応する物体移動情報に加えることが出来る。また、軌跡情報・節領域対応付け部42は、当該複数の軌跡の状態を加味した情報を物体移動情報に加えることが出来る。例えば、図11を参照すると、複数の人物が集合して移動している状態であることが分かる。そこで、軌跡情報・節領域対応付け部42は、複数の人物の軌跡が予め定められた距離以内の場合には、集合して移動している状態であるという情報(軌跡状態情報)をそれぞれの物体移動情報に加えることになる。また、例えば、図12を参照すると、節領域Aにおいて複数の人物が分離して移動していることが分かる。そこで、軌跡情報・節領域対応付け部42は、節領域Aにおいて複数の人物の軌跡が予め定められた距離以上離れた場合には、節領域A内を分離して移動している状態であるという情報(軌跡状態情報)をそれぞれの物体移動情報に加えることになる。
さらに、軌跡情報・節領域対応付け部42は、軌跡の方向を加味した情報を物体移動情報に加えることが出来る。以上、軌跡状態情報としての一例を挙げたが、本発明は上記説明した以外にも様々な軌跡の状態を物体移動情報に加えることが出来る。
このように、軌跡情報・節領域対応付け部42は、各節領域内の軌跡自体ではなく、軌跡が所定の状態である場合に当該軌跡の所定の状態を示す軌跡状態情報を加えた物体移動情報を取得する。軌跡情報・節領域対応付け部42は、軌跡が所定の状態にあるか否かの判断を節領域毎にまとめることになる。
なお、物体移動情報は、当該物体移動情報を取得した軌跡情報に含まれる複数の映像データを識別するための情報を含んで構成されていることになる。また、物体移動情報は、時刻情報や場所情報を含んでいても構わない。
以上説明したように、軌跡情報・節領域対応付け部42は、軌跡情報と節領域経路情報とを用いて物体移動情報(メタデータ)を取得する。そして、軌跡情報・節領域対応付け部42は、軌跡情報と物体移動情報とをメタデータ蓄積部5へと送信する。なお、軌跡情報・節領域対応付け部42は、物体移動情報のみをメタデータ蓄積部5へ送信するように構成しても構わない。
メタデータ蓄積部5は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成され、軌跡情報や物体移動情報を記憶する。つまり、メタデータ蓄積部5は、軌跡情報・節領域対応付け部42から送信された軌跡情報や物体移動情報を受信する。そして、メタデータ蓄積部5は、当該受信した軌跡情報や物体移動情報を記憶する。その後メタデータ蓄積部5は、後述するメタデータ照合部7の要求に対し、記憶する物体移動情報(メタデータ)を送信することになる。なお、軌跡情報・節領域対応付け部42が物体移動情報のみを送信するように構成されている場合には、メタデータ蓄積部5は物体移動情報のみを記憶することになる。
検索条件入力部6は、節領域と節領域の順序とを検索条件として入力する機能を有する。上述したように、検索条件入力部6はクエリ入力部61とジェスチャ認識部62とを有している。
クエリ入力部61は、メタデータ蓄積部5が記憶する物体移動情報(メタデータ)を検索するためのクエリを入力し、そのクエリを基にクエリ情報を生成する機能を有する。本実施形態におけるクエリ入力部61はタッチパネルを備えており、当該タッチパネル上に表示される節領域に対応した背景に線描画を行うことでクエリの入力を行うことになる。
ここで、クエリ情報とは線又は連続する点の入力を示す。本実施形態では線の入力にタッチパネルを用いるが、その他にも例えばマウスを用いるなど、線を表現可能な様々なものを用いることが出来る。そして、後述するように、入力された線と、線を描く際の方向、結合した線が何筆書きであるか、線が何本描かれたかがまとめられクエリ情報となることになる。
クエリ入力部61によるクエリ情報の入力は、例えば上述したように、タッチパネル上に表示された節領域に対応した背景に線描画を行うことで行われる。つまり、クエリ情報を入力したい(検索を行いたい)範囲など(節領域)を背景として選択する。そして、当該選択した範囲に線描画を行う(若しくは表示されている背景の一部に描画する)。また、この際に、予め定められた所定の動作を行うことで、軌跡状態情報を入力する。なお、軌跡状態情報は節領域毎に判断されることになる。そのため、クエリ入力部61には、節領域毎に必要な軌跡状態情報を入力することになる。
ここで、クエリ入力部61に軌跡状態情報を入力する際の所定の動作の一例について説明する。図13を参照すると、図13αは人物がうろつき状態であるという軌跡状態情報を入力する際の動作を示している。図13βは、人物が高速に移動している状態であるという軌跡状態情報を入力する際の動作を示している。図13γは、複数の人物が集合して移動している状態であるという軌跡状態情報を入力する際の動作を示している。図13δは、複数の人物が節領域Aを分離して移動し節領域a、節領域Bを集合して移動している状態であるという軌跡状態情報を入力する際の動作を示している。図13εは、逆走している人物がいる状態であるという軌跡状態情報を入力する際の動作を示している。
図13αで示すように、人物がうろつき状態であるという軌跡状態情報を入力する際には、例えば、円をぐるぐると数回描く。このように入力することで、後述するように、数回円を描かれた部分を含む節領域(図13αの場合は節領域A)で人物がうろついているという軌跡状態情報を入力することが出来る。また、図13βで示すように、人物が高速で移動している状態であるという軌跡状態情報を入力する際には、例えば、円を1回描く。このように入力することで、1回円を描かれた部分を含む節領域(図13βの場合は節領域A)を人物が高速に移動しているという軌跡状態情報を入力することが出来る。また、図13γで示すように、複数の線を近づけて描画することで、複数の人物が集合して移動している状態であるという軌跡状態情報を入力することが出来る。また、図13δで示すように、図13γのように複数の線を描画する際に線同士の間隔を予め定められた間隔以上空けることで、当該予め定められた間隔以上空けて描画した部分を含む節領域を分離して移動している状態であるという軌跡状態情報を入力することが出来る。また、図13εで示すように、反対方向の線を描画することで、逆走している人物がいる状態であるという軌跡状態情報を入力することが出来る。
なお、上記クエリ入力部61に入力されるクエリは、各順序によって方向が定まることになる。また、上記クエリ同士は組み合わせることが可能である。例えば、図14を参照すると、逆走している人物が高速に移動している状態を描画することが出来る。
また、一筆書きと二筆書き以上とを分けることで、AND条件とOR条件とを使い分けることが可能である。例えば図15を参照すると、一筆書きでクエリを入力した場合には、節領域Aを高速で移動しかつ節領域Bを高速で移動したという状態を描画することになる。一方で、二筆書きでクエリを入力した場合には、節領域Aを高速で移動した又は節領域Bを高速で移動したという状態を描画することになる。AND条件、OR条件の表現のその他の例としては、三筆書き以上で書いたり、一筆書きを複数行い、複数のクエリを描いたりしてもよい。
このように線描画を行う際に特定の図形を描画することで、軌跡状態情報を入力することが出来る。なお、本発明は上記方法を用いて軌跡状態情報を入力する場合に限定されず実施可能である。例えば、線描画の際に所定時間描画を止めることで表示されるメニューの中から所望の軌跡状態情報を選択するなど、さまざまな方法をとることが出来る。
上記方法によりクエリ情報を入力されたクエリ入力部61は当該クエリ情報をジェスチャ認識部62に送信することになる。
ジェスチャ認識部62は、クエリ入力部61から受信したクエリ情報と節領域・経路定義処理部41から受信した節領域経路情報とを対応付けることで、節領域毎のクエリが表現する軌跡状態情報(ジェスチャ)を認識する機能を有する。また、ジェスチャ認識部62は、クエリ情報と節領域経路情報とを対応付けることで、クエリが通過した(検索条件となる)節領域と節領域の順序とを取得する機能を有する。
つまり、ジェスチャ認識部62は、クエリ情報と節領域経路情報とを用いることで、節領域毎の軌跡状態情報(ジェスチャ)を示すジェスチャ情報と節領域と節領域の順序とを検索条件として取得する。そして、ジェスチャ認識部62は、当該取得した検索条件をメタデータ照合部7へと送信する。
なお、ジェスチャ認識部62には、当該ジェスチャ認識部62が認識したジェスチャをフィードバックする機能を持たせることが出来る。具体的には、ジェスチャ認識部62は、予め設定された各ジェスチャに対応付けした記号やシンボルを、表示機能を備えたクエリ入力部61に表示することが出来る。例えば、図16のように入力と出力が同一である場合(例えば、タッチパネル上に背景と描画した線とが表示される場合)、ユーザが描画した線(クエリ情報となる)に対し、ジェスチャ認識部62によるジェスチャの認識結果として、うろつきを示すシンボルをタッチパネル上に表示する。また、例えば、当該表示したシンボルをタップすることで、当該シンボルに対応する軌跡の状態(図16ではうろつき)に関する詳細情報を入力することが出来るように構成することが出来る。例えば、図16では、うろつき時間の範囲を指定していることになる。
メタデータ照合部7は、検索条件入力部6から受信した検索条件を基にメタデータ蓄積部5に記憶されている物体移動情報(メタデータ)の検索を行う機能を有する。また、メタデータ照合部7は、検索した物体移動情報に関連する映像データを映像データ蓄積部8から取得してモニタなどの出力装置へ検索結果を出力する機能を有することが出来る。
メタデータ照合部7は、検索条件入力部6から検索条件を受信する。すると、メタデータ照合部7は、当該受信した検索条件を用いて、メタデータ蓄積部5が記憶する物体移動情報を検索する。その後、メタデータ照合部7は、検索した物体移動情報に関連する映像データ(物体移動情報が示す人物が映っている映像データ)を映像データ蓄積部8から取得し、当該取得した映像データをモニタなどの出力装置へと送信する。
ここで、メタデータ照合部7は、例えば、検索条件と同一の物体移動情報のみをメタデータ蓄積部5から検索するように構成することが出来る。また、メタデータ照合部7は、例えば、検索条件と同一・類似の物体移動情報をメタデータ蓄積部5から検索するように構成しても構わない。
なお、メタデータ照合部7による類似の判断は既に説明したものと同様の構成を採りうる。また、メタデータ照合部7は、軌跡状態情報も考慮した上で類似の判断を行うように構成しても構わない。
映像データ蓄積部8は、例えば、ハードディスクやRAM(Random Access Memory)などの記憶装置で構成され、映像データを記憶する。つまり、映像データ蓄積部8は、映像データ受信部31から送信された映像データを受信する。そして、映像データ蓄積部8は、当該受信した映像データを記憶する。その後映像データ蓄積部8は、後述するメタデータ照合部7の要求に対し、物体移動情報に応じた映像データを出力装置へと送信することになる。
以上が、映像処理装置2の構成である。上記構成を映像処理装置2が備えることで、記憶された映像の中から所望の節領域を所望の順序で移動する人物が映る映像を検索することが可能となる。次に、本実施形態に係る映像処理装置2の動作を説明する。
監視カメラなどの外部から取得した映像データから物体移動情報(メタデータ)を取得して、当該物体移動情報と映像データとを記憶する際の動作について説明する。
映像処理装置2の映像データ受信部31が外部の所定位置に複数設置された監視カメラから外部のネットワークを介して映像データを受信すると、図17に示す処理の実行を開始することになる。映像データ受信部31は、受信した複数地点の映像データを軌跡情報検出部32へと送信する。そして、軌跡情報検出部32は、複数地点の映像データ間を移動する人物を検出し、当該検出した人物の軌跡を検出する。これにより軌跡情報検出部32は、複数地点の映像データを移動する人物の軌跡を示す軌跡情報を検出することになる(ステップS301)。
続いて、軌跡情報検出部32は、検出した軌跡情報を軌跡情報・節領域対応付け部42へと送信する。また、軌跡情報・節領域対応付け部42には、節領域・経路定義処理部41が定義した節領域経路情報が送信されている。そこで、軌跡情報・節領域対応付け部42は、軌跡情報と節領域経路情報とを対応付けて物体移動情報を取得する(メタデータ化)(ステップS302)。なお、物体移動情報には、節領域と節領域の順序と節領域毎の軌跡状態情報とが含まれることになる。
続いて、軌跡情報・節領域対応付け部42は、物体移動情報をメタデータ蓄積部5へと送信する。その後、メタデータ蓄積部5が物体移動情報をメタデータとして蓄積することになる(ステップS303)
このような動作により、映像処理装置2は、人物が移動した節領域と当該節領域の順序と節領域毎の軌跡状態情報とをメタデータ(物体移動情報)として記憶することになる。なお、上記メタデータは、対応する映像データに関連付けて記憶されることになる。次に、映像処理装置2が記憶する映像の中から所望の節領域を所望の順序で移動する人物が映る映像を検索する際の動作について説明する。
図18を参照すると、検索条件入力部6のクエリ入力部61にクエリ情報の入力を行う(ステップS401)。続いて、クエリ入力部61は入力されたクエリ情報をジェスチャ認識部62へと送信する。
次に、クエリ情報をジェスチャ認識部62が受信する。また、ジェスチャ認識部62は、節領域・経路定義処理部41から節領域経路情報を受信している。そこで、ジェスチャ認識部62は、入力されたクエリ情報から予め定められた図形を読み取りクエリ情報に含まれるジェスチャを認識する(ステップS402)。また、ジェスチャ認識部62は、認識したジェスチャと節領域経路情報とを対応付けることで、節領域毎のジェスチャ情報を取得する(ステップS403)。さらに、ジェスチャ認識部62は、クエリ情報と節領域経路情報とを対応付けることで、クエリが通過した(検索条件となる)節領域と節領域の順序とを取得する。これにより、ジェスチャ認識部62は、節領域と節領域の順序と節領域毎のジェスチャ(物体移動情報)を示すジェスチャ情報とからなる検索条件を取得する(ステップS404)。そして、ジェスチャ認識部62は、取得した検索条件をメタデータ照合部7へと送信する。なお、ジェスチャ認識部62による節領域と節領域の順序との取得は、ジェスチャ情報を取得する前に行われても構わない。
その後、メタデータ照合部7は、ジェスチャ認識部62が送信した検索条件を受信する。そして、メタデータ照合部7は、メタデータ蓄積部5が記憶する物体移動情報の中から検索条件と同一・類似である物体移動情報を検索する(ステップS405)。そして、メタデータ照合部14は、検索した物体移動情報に応じた映像データを映像データ蓄積部8から取得し、当該取得した映像データをモニタなどの出力装置へ出力する(ステップS406)。
このような動作により、映像処理装置2は、当該映像処理装置2に記憶されている映像データの中から所望の節領域を所望の順序で移動する人物が映る映像データを出力することが出来る。
このように、本実施形態における映像処理装置2は、軌跡情報取得部3と、物体移動情報取得部4と、メタデータ蓄積部5と、検索条件入力部6と、メタデータ照合部7と、映像データ蓄積部8と、を備えている。この構成によると、映像処理装置2の軌跡情報取得部3は、複数の映像データ間を移動する人物を検出し、当該移動する人物の軌跡を検出する。そして、映像処理装置2の物体移動情報取得部4は、検出した軌跡に基づいて物体移動情報を取得し、メタデータ蓄積部5に記憶することが出来る。また、映像処理装置2のメタデータ照合部7は、検索条件入力部6に検索条件を入力することにより、メタデータ蓄積部5が記憶する物体移動情報を検索することが出来る。このような構成により、節領域と節領域の順序とからなる検索条件を入力して検索を行うことが出来るようになり、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
また、本実施形態における映像処理装置2は、節領域・経路定義処理部41と、軌跡情報・節領域対応付け部42と、クエリ入力部61と、ジェスチャ認識部62と、を備えている。この構成によると、節領域・経路定義処理部41が定義した節領域ごとの軌跡の状態を軌跡情報・節領域対応付け部42が取得することが出来る。また、軌跡の状態を加味したクエリをクエリ入力部61に入力することで、ジェスチャ認識部62は節領域毎の軌跡の状態を取得することが出来る。このような構成により、各節領域内での軌跡の状態を加味した上で適切な映像データを検索することが可能になる。
[第3の実施形態]
本実施形態では、節領域・経路定義処理部41が第2の実施形態とは異なる形で節領域を定義する場合について説明する。
なお、本実施形態における映像処理装置は、第2の実施形態と同様の構成をしている。そのため、各構成についての説明は既に行ったため省略する。
図19を参照すると、本実施形態における映像処理装置は、複数の映像データを取得している。そして、本実施形態においては節領域Aは4つの節領域Aa、Ab、Ac、Adに区切られており、節領域Bは2つの節領域Ba、Bbに区切られている。
本実施形態で示すように、節領域・経路定義処理部41は、複数の映像データを取得する場合に、必ずしも複数の監視カメラそれぞれの撮影範囲全体がそれぞれ1つの節領域であると定義しなくても構わない。例えば、節領域・経路定義処理部41は、映像データAのように、1つの映像データの画像内の監視対象エリアをさらに複数の節領域に区切ることが出来る。また、節領域・経路定義処理部41は、映像データ毎に当該映像データの画像内の監視対象エリアを区切る節領域の数を変更することが出来る。
このように、本実施形態における節領域・経路定義処理部41は、複数の映像データの画像内の監視対象エリアを複数の節領域で区切る際に、各映像データ毎に節領域を設定する場合に限られず、各映像データの画像内の監視対象エリアをさらに複数の節領域に区切ることが出来る。これにより、例えば人物の通行頻度に応じた節領域を定義するなど、より実態に沿った節領域を定義することが可能となる。
なお、節領域・経路定義処理部41による節領域の定義は、例えばタッチパネル上に表示される背景の倍率に応じて変更するように構成しても構わない。例えば、図20を参照すると、背景を縮小した状態においては、監視カメラそれぞれの撮影範囲全体がそれぞれ1つの節領域であるとする(例えば、節領域Aと節領域aと節領域Bとに区切る)。一方で、拡大した状態においては、節領域Aa、Ab、Ac、Adの4つの節領域であるとする(縮小した状態の節領域Aを節領域Aaと節領域Abと節領域Acと節領域Adとに区切る)。このように、背景として表示可能な倍率に応じて物体移動情報取得部4が物体移動情報(メタデータ)を生成してメタデータ蓄積部5に蓄積し、倍率操作のみで各々の検索を行うことが可能なように構成しても構わない。このように構成することで、節領域の細分化による詳細な軌跡検索が可能となる。なお、拡大・縮小操作は、例えば、マルチタッチを利用したピンチイン・ピンチアウトなどのジェスチャ入力や拡大縮小ボタンを用いるなど、どのような方法で行っても構わない。
次に、特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能な映像処理システム9について説明する。なお、本実施形態においては、映像処理システム9の構成の概略について説明する。
[第4の実施形態]
図21を参照すると、本発明の第4の実施形態に係る映像処理システム9は、物体移動情報取得手段91と、物体移動情報・映像データ記憶手段92と、検索条件入力手段93と、映像データ検索手段94と、を有する。
物体移動情報取得手段91は、監視対象エリアを撮影した映像データから移動節領域情報と節領域順序情報とからなる物体移動情報を取得する機能を有する。具体的には、物体移動情報取得手段91は、(例えば1または複数の映像データ取得手段から)監視対象エリアを撮影した映像データを受信する。続いて、物体移動情報取得手段91は、監視対象エリアを予め定められた複数の節領域に区切り監視対象エリアを撮影した映像データから複数の節領域間を移動する人物(移動物体)を検出する。そして、物体移動情報取得手段91は、検出した人物が移動した節領域を示す移動節領域情報と、検出した人物の移動に応じた節領域の順序を示す節領域順序情報と、を物体移動情報として取得する。その後、物体移動情報取得手段91は、物体移動情報を物体移動情報・映像データ記憶手段92へと送信する。
ここで、物体移動情報取得手段91は、単数の映像データを取得して当該取得した映像データの画像内の監視対象エリアを複数の節領域に区切ることが出来る。また、物体移動情報取得手段91は、複数の映像データを取得して当該複数の映像データの撮影範囲毎に節領域を定義することで、複数の映像データの画像内の監視対象エリアを複数の節領域で区切ることが出来る。また、物体移動情報取得手段91は、取得した複数の映像データそれぞれの画像内のそれぞれの監視対象エリアを複数の節領域で区切ることが出来る。
なお、節領域や移動節領域情報、節領域順序情報などの詳細は既に説明したため省略する。また、既に説明した場合と同様に、物体移動情報は当該物体移動情報に応じた映像データを検索可能なように構成されることになる。
物体移動情報・映像データ記憶手段92は、例えばハードディスクなどで構成されており、物体移動情報を映像データに関連付けて記憶する機能を有する。物体移動情報・映像データ記憶手段92は、物体移動情報取得手段91が送信した物体移動情報を受信する。また、物体移動情報・映像データ記憶手段92は、物体移動情報取得手段91などを介することで、物体移動情報取得手段91が取得した映像データを取得する。そして、物体移動情報・映像データ記憶手段92は、物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する。
検索条件入力手段93は、検索の対象となる人物の移動を示す節領域と節領域の順序とを入力する機能を有する。検索条件入力手段93は、例えば、タッチパネルやキーボードなどの入力装置を備えている。そして、検索条件入力手段93は、入力装置を操作することで検索条件を入力することになる。その後、検索条件入力手段93は、入力された検索条件を映像データ検索手段94へと送信する。
映像データ検索手段94は、検索条件に応じた物体移動情報を検索する機能を有する。映像データ検索手段94は、検索条件入力手段93から節領域と節領域の順序とからなる検索条件を受信する。続いて、映像データ検索手段94は、当該受信した検索条件を用いて、物体移動情報・映像データ記憶手段92が記憶する物体移動情報を検索する。そして、映像データ検索手段94は、検索された物体移動情報に関連付けて記憶されている映像データを、例えばモニタなどの出力装置などへ出力する。
なお、映像データ検索手段94は、検索条件と同一の物体移動情報(同一の節領域、同一の順序)のみを物体移動情報・映像データ記憶手段92から検索するように構成することが出来る。または、映像データ検索手段94、検索条件と同一・類似の物体移動情報を物体移動情報・映像データ記憶手段92から検索するように構成しても構わない。
以上が、映像処理システム9の構成である。上記構成を映像処理システム9が備えることで、映像処理システム9の物体移動情報・映像データ記憶手段92が記憶する映像の中から所望の節領域を所望の順序で移動する人物が映る映像を検索することが可能となる。つまり、領域内(各節領域内)での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能となる。
次に、特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能な映像処理装置10について説明する。なお、本実施形態においては、映像処理装置10の構成の概略について説明する。
[第5の実施形態]
図22を参照すると、本発明の第5の実施形態に係る映像処理装置10は、映像データ検索部101と、映像データ出力部102と、を有する。
映像データ検索部101は、監視対象エリアを分割した複数の節領域の節領域情報と前記節領域を移動体が通過した順序情報とを検索条件として、取得した前記検索条件に合致する移動体の映像データを検索する機能を有する。つまり、映像データ検索部101は、映像データ記憶部や外部から映像データを取得して、取得した映像データから検索条件に合致する移動体の映像データを検索する。また、映像データ検索部101が行う検索の条件である検索条件は、監視対象エリアを分割した複数の節領域の節領域情報と前記節領域を移動体が通過した順序情報とからなっている。
映像データ出力部102は、映像データ検索部101により取得された映像データを出力する機能を有する。映像データ出力部102は、例えばモニタなどの外部装置と接続されており、映像データ出力部102は、当該モニタなどに映像データを出力することになる。
以上が、映像処理装置10の構成である。このように、映像処理装置10は、映像データ検索部101と、映像データ出力部102と、を備えている。また、映像処理装置10が行う検索の検索条件は、監視対象エリアを分割した複数の節領域の節領域情報と前記節領域を移動体が通過した順序情報とからなっている。このような構成により、映像処理装置10は、節領域情報と順序情報とを用いて映像データの検索を行うことが可能となる。その結果、映像処理装置10は、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
また、上述した映像処理装置10は、当該映像処理装置10に所定のプログラムを組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、監視対象エリアを分割した複数の節領域の節領域情報と節領域を移動体が通過した順序情報とを検索条件として、取得した検索条件に合致する移動体の映像データを検索する映像データ検索部と、映像データ検索部により取得された映像データを出力する映像データ出力部として機能させるためのプログラムである。
また、上述した映像処理装置10が作動することにより実行される映像処理方法は、監視対象エリアを分割した複数の節領域の節領域情報と節領域を移動体が通過した順序情報とを検索条件として、取得した検索条件に合致する移動体の映像データを検索し、当該検索された映像データを出力する、という方法である。
上述した構成を有する、プログラム、又は、映像処理方法、の発明であっても、上記映像処理装置10と同様の作用を有するために、上述した本発明の目的を達成することができる。
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における映像処理装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報を物体移動情報として取得する物体移動情報取得手段と、
前記物体移動情報取得手段が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する物体移動情報・映像データ記憶手段と、
検索の対象となる検索対象体の移動を示すと前記節領域の順序を検索条件として入力する検索条件入力手段と、
前記検索条件入力手段により入力される前記検索条件に応じて前記物体移動情報・映像データ記憶手段が記憶する前記物体移動情報を検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する映像データ検索手段と
を備える
映像処理システム。
この構成によると、映像処理システムが映像データ取得手段と、物体移動情報取得手段と、検索条件入力手段と、映像データ検索手段と、を備えている。このような構成により、映像処理システムは、映像データ取得手段が取得した映像データから移動節領域情報と節領域順序情報とからなる物体移動情報(メタデータ)を取得することが出来る。また、検索条件入力手段に検索条件を入力することで、映像データ検索手段は物体移動情報の検索を行い関連する映像データの出力を行うことが出来る。その結果、物体移動情報に基づいた映像データの検索を行うことが可能となり、領域内での移動経路は問わずに特定の領域から別の特定の領域に移動した人物等の映像を漏れなく検索することが可能になる。
(付記2)
前記移動物体が前記複数の節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得する軌跡情報取得手段を備え、
前記物体移動情報取得手段は、前記軌跡情報取得手段が取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
付記1に記載の映像処理システム。
この構成によると、映像処理システムが軌跡情報取得手段を備えている。このような構成により、映像処理システムは軌跡情報取得手段が取得した軌跡情報に基づいて物体移動情報を取得することが可能になる。その結果、より効率的に物体移動情報を取得することが可能になる。
(付記3)
前記物体移動情報取得手段は、前記軌跡情報が示す軌跡の状態が予め定められた所定の状態である場合には、当該所定の状態を示す軌跡状態情報を加えた前記物体移動情報を取得し、
前記検索条件入力手段は、前記軌跡状態情報を加えた前記検索条件を入力するよう構成された
付記2に記載の映像処理システム。
この構成によると、物体移動情報取得手段は、軌跡の状態を示す軌跡状態情報を加えた物体移動情報を取得する。また、検索条件入力手段には、軌跡の状態を加えた検索条件が入力される。このような構成により、軌跡の状態を加味した上で映像データの検索を行うことが可能になる。その結果、より条件と合致した映像データを検索することが可能となる。
(付記4)
前記検索条件入力手段は、前記予め定められた複数の節領域を表す背景に線描画を行うことで、前記検索条件を入力する
付記1乃至3の何れかに記載の映像処理システム。
(付記5)
前記検索条件入力手段は、前記予め定められた複数の節領域を表す背景に線描画を行う際に予め定められた所定の動作を行うことで前記軌跡状態情報を入力する
付記4に記載の映像処理システム。
(付記6)
前記監視対象エリアの映像データを取得する1または複数の映像データ取得手段を有する
付記1乃至5の何れかに記載の映像処理システム。
(付記7)
監視対象エリアを分割した複数の節領域の節領域情報と前記節領域を移動体が通過した順序情報とを検索条件として、取得した前記検索条件に合致する移動体の映像データを検索する映像データ検索部と、
前記映像データ検索部により取得された映像データを出力する映像データ出力部と
を備える
映像処理装置。
(付記8)
映像データを記憶する映像データ記憶部を備え、
前記映像データ検索部は、前記映像データ記憶部が記憶する映像データを取得して前記検索条件に合致する移動体の映像データを検索する
付記7に記載の映像処理装置。
(付記9)
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報を物体移動情報として取得する物体移動情報取得部を備え、
前記映像データ記憶部は、前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する
付記8に記載の映像処理装置。
(付記10)
前記移動物体が前記複数の節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得する軌跡情報取得部を備え、
前記物体移動情報取得部は、前記軌跡情報取得部が取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
付記9に記載の映像処理装置。
(付記11)
前記物体移動情報取得部は、前記軌跡情報が示す軌跡の状態が予め定められた所定の状態である場合には、当該所定の状態を示す軌跡状態情報を加えた前記物体移動情報を取得し、
前記映像データ検索部は、前記軌跡状態情報を含む前記検索条件に合致する移動体の映像データを検索する
付記10に記載の映像処理装置。
(付記12)
前記節領域を表す背景に線描画を行うことで前記検索条件を入力する検索条件入力部を備えた
付記8乃至11の何れかに記載の映像処理装置。
(付記13)
前記節領域を表す背景に線描画を行う際に予め定められた所定の動作を行うことで前記軌跡状態情報を入力する検索条件入力部を備えた
付記11に記載の映像処理装置。
(付記14)
前記物体移動情報取得部は、1又は複数の外部装置から前記映像データを取得するよう構成された
付記8乃至13の何れかに記載の映像処理装置。
(付記15)
監視対象エリアを分割した複数の節領域の節領域情報と節領域を移動体が通過した順序情報とを検索条件として、取得した検索条件に合致する移動体の映像データを検索し、
当該検索された映像データを出力する
映像処理方法。
(付記16)
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報を物体移動情報として取得し、
前記取得した物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶し、
当該物体移動情報に応じた映像データを検索する
付記15に記載の映像処理方法。
(付記17)
前記移動物体が前記複数の節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得し、
取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
付記16に記載の映像処理方法。
(付記18)
映像処理装置を、
監視対象エリアを分割した複数の節領域の節領域情報と前記節領域を移動体が通過した順序情報とを検索条件として、取得した前記検索条件に合致する移動体の映像データを検索する映像データ検索部と、
前記映像データ検索部により取得された映像データを出力する映像データ出力部と
して機能させるためのプログラム。
(付記19)
映像データを記憶する映像データ記憶部として機能させ
前記映像データ検索部は、前記映像データ記憶部が記憶する映像データを取得して前記検索条件に合致する移動体の映像データを検索する
付記18に記載のプログラム。
(付記20)
監視対象エリアを予め定められた複数の節領域に区切り前記監視対象エリアを撮影した映像データから前記複数の節領域間を移動する移動物体を検出し、検出した前記移動物体が移動した節領域を示す移動節領域情報を物体移動情報として取得する物体移動情報取得部として機能させ、
前記映像データ記憶部は、前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する
付記19に記載のプログラム。
なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
なお、本発明は、日本国にて2014年2月14日に特許出願された特願2014−026467の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
1 映像処理装置
11 物体移動情報取得部
12 映像データ・メタデータDB
13 検索条件入力部
14 メタデータ照合部
2 映像処理装置
3 軌跡情報取得部
31 映像データ受信部
32 軌跡情報取得部
4 物体移動情報取得部
41 節領域・経路定義処理部
42 軌跡情報・節領域対応付け部
5 メタデータ蓄積部
6 検索条件入力部
61 クエリ入力部
62 ジェスチャ認識部
7 メタデータ照合部
8 映像データ蓄積部
9 映像処理システム
91 映像データ取得手段
92 物体移動情報取得手段
93 物体移動情報・映像データ記憶手段
94 検索条件入力手段
95 映像データ検索手段
10 映像処理装置
101 物体移動情報取得部
102 物体移動情報・映像データ記憶部
103 検索条件入力部
104 映像データ検索部

Claims (20)

  1. 数の節領域に区切られた監視対象エリアを撮影した映像データから複数の前記節領域間を移動する移動物体を検出し、検出された前記移動物体が複数の前記節領域を通過した順序又は時刻を示す情報を物体移動情報として取得する物体移動情報取得手段と、
    前記物体移動情報取得手段が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する物体移動情報・映像データ記憶手段と、
    検索の対象となる検索対象体前記節領域を通過する順序を検索条件として入力する検索条件入力手段と、
    前記検索条件入力手段により入力される前記検索条件に応じた前記物体移動情報を前記物体移動情報・映像データ記憶手段から検索し、当該検索された物体移動情報に関連づけて記憶されている映像データを出力する映像データ検索手段と
    を備える
    映像処理システム。
  2. 前記移動物体が複数の前記節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得する軌跡情報取得手段を備え、
    前記物体移動情報取得手段は、前記軌跡情報取得手段が取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
    請求項1に記載の映像処理システム。
  3. 前記物体移動情報取得手段は、前記軌跡情報が示す軌跡の状態が予め定められた所定の状態である場合には、当該所定の状態を示す軌跡状態情報を加えた前記物体移動情報を取得し、
    前記検索条件入力手段は、前記軌跡状態情報を加えた前記検索条件を入力するよう構成された
    請求項2に記載の映像処理システム。
  4. 前記検索条件入力手段は、前記予め定められた複数の節領域を表す背景に線描画を行うことで、前記検索条件を入力する
    請求項1乃至3の何れかに記載の映像処理システム。
  5. 前記検索条件入力手段は、前記予め定められた複数の節領域を表す背景に線描画を行う際に予め定められた所定の動作を行うことで前記軌跡状態情報を入力する
    請求項3に記載の映像処理システム。
  6. 前記監視対象エリアの映像データを取得する1または複数の映像データ取得手段を有する
    請求項1乃至5の何れかに記載の映像処理システム。
  7. 検索の対象となる検索対象体が監視対象エリアを分割した複数の節領域を通過する順序を検索条件として、取得した前記検索条件に合致する移動体の映像データを検索する映像データ検索部と、
    前記映像データ検索部により取得された映像データを出力する映像データ出力部と
    を備える
    映像処理装置。
  8. 映像データを記憶する映像データ記憶部を備え、
    前記映像データ検索部は、前記映像データ記憶部が記憶する映像データを取得して前記検索条件に合致する移動体の映像データを検索する
    請求項7に記載の映像処理装置。
  9. 数の節領域に区切られた監視対象エリアを撮影した映像データから複数の前記節領域間を移動する移動物体を検出し、検出された前記移動物体が複数の前記節領域を通過した順序又は時刻を示す情報を物体移動情報として取得する物体移動情報取得部を備え、
    前記映像データ記憶部は、前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する
    請求項8に記載の映像処理装置。
  10. 前記移動物体が複数の前記節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得する軌跡情報取得部を備え、
    前記物体移動情報取得部は、前記軌跡情報取得部が取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
    請求項9に記載の映像処理装置。
  11. 前記物体移動情報取得部は、前記軌跡情報が示す軌跡の状態が予め定められた所定の状態である場合には、当該所定の状態を示す軌跡状態情報を加えた前記物体移動情報を取得し、
    前記映像データ検索部は、前記軌跡状態情報を含む前記検索条件に合致する移動体の映像データを検索する
    請求項10に記載の映像処理装置。
  12. 前記節領域を表す背景に線描画を行うことで前記検索条件を入力する検索条件入力部を備えた
    請求項8乃至11の何れかに記載の映像処理装置。
  13. 前記節領域を表す背景に線描画を行う際に予め定められた所定の動作を行うことで前記軌跡状態情報を入力する検索条件入力部を備えた
    請求項11に記載の映像処理装置。
  14. 前記物体移動情報取得部は、1又は複数の外部装置から前記映像データを取得するよう構成された
    請求項8乃至13の何れかに記載の映像処理装置。
  15. 映像処理装置が、
    検索の対象となる検索対象体が監視対象エリアを分割した複数の節領域を通過する順序を検索条件として、取得した検索条件に合致する移動体の映像データを検索し、
    当該検索された映像データを出力する
    映像処理方法。
  16. 前記映像処理装置は、
    複数の節領域に区切られた監視対象エリアを撮影した映像データから複数の前記節領域間を移動する移動物体を検出し、検出された前記移動物体が複数の前記節領域を通過した順序又は時刻を示す情報を物体移動情報として取得し、
    取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶し、
    当該物体移動情報に応じた映像データを検索する
    請求項15に記載の映像処理方法。
  17. 前記映像処理装置は、
    前記移動物体が複数の前記節領域間を移動する際の軌跡を軌跡情報として前記映像データから取得し、
    取得した前記軌跡情報が示す軌跡と前記予め定められた複数の節領域とを関連付けることで、前記物体移動情報を取得する
    請求項16に記載の映像処理方法。
  18. 映像処理装置を、
    検索の対象となる検索対象体が監視対象エリアを分割した複数の節領域を通過する順序を検索条件として、取得した前記検索条件に合致する移動体の映像データを検索する映像データ検索部と、
    前記映像データ検索部により取得された映像データを出力する映像データ出力部と
    して機能させるためのプログラム。
  19. 映像データを記憶する映像データ記憶部として機能させ
    前記映像データ検索部は、前記映像データ記憶部が記憶する映像データを取得して前記検索条件に合致する移動体の映像データを検索する
    請求項18に記載のプログラム。
  20. 複数の節領域に区切られた監視対象エリアを撮影した映像データから複数の前記節領域間を移動する移動物体を検出し、検出された前記移動物体が複数の前記節領域を通過した順序又は時刻を示す情報を物体移動情報として取得する物体移動情報取得部として機能させ、
    前記映像データ記憶部は、前記物体移動情報取得部が取得した前記物体移動情報を当該物体移動情報に応じた映像データに関連付けて記憶する
    請求項19に記載のプログラム。
JP2015562730A 2014-02-14 2015-02-05 映像処理システム Active JP6194963B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014026467 2014-02-14
JP2014026467 2014-02-14
PCT/JP2015/000531 WO2015122163A1 (ja) 2014-02-14 2015-02-05 映像処理システム

Publications (2)

Publication Number Publication Date
JPWO2015122163A1 JPWO2015122163A1 (ja) 2017-03-30
JP6194963B2 true JP6194963B2 (ja) 2017-09-13

Family

ID=53799914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015562730A Active JP6194963B2 (ja) 2014-02-14 2015-02-05 映像処理システム

Country Status (4)

Country Link
US (5) US10389969B2 (ja)
JP (1) JP6194963B2 (ja)
AR (1) AR099431A1 (ja)
WO (1) WO2015122163A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210108018A (ko) * 2020-02-25 2021-09-02 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649231B2 (ja) * 2016-11-18 2020-02-19 株式会社東芝 検索装置、検索方法およびプログラム
WO2018103042A1 (en) 2016-12-08 2018-06-14 Zhejiang Dahua Technology Co., Ltd. Methods and systems for video synopsis
US10691950B2 (en) * 2017-03-10 2020-06-23 Turing Video, Inc. Activity recognition method and system
KR20190028103A (ko) * 2017-09-08 2019-03-18 삼성에스디에스 주식회사 비관심 객체에 대한 마스크 처리 방법 및 그 장치
WO2019140621A1 (zh) * 2018-01-19 2019-07-25 深圳市大疆创新科技有限公司 视频处理方法及终端设备
CN111382313A (zh) * 2018-12-29 2020-07-07 浙江大华技术股份有限公司 一种动检数据检索方法、设备及装置
US10999534B2 (en) * 2019-03-29 2021-05-04 Cisco Technology, Inc. Optimized video review using motion recap images
CN116894103B (zh) * 2023-07-24 2024-02-09 安徽云图信息技术有限公司 特定场景的数据分类存储***

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4277038A (en) * 1979-04-27 1981-07-07 The United States Of America As Represented By The Secretary Of The Army Trajectory shaping of anti-armor missiles via tri-mode guidance
NZ518774A (en) 1999-10-22 2004-09-24 Activesky Inc An object oriented video system
US7194109B2 (en) * 2001-08-30 2007-03-20 Hitachi Kokusai Electric, Inc. Method and system for delivering monitored image signal of subject to be monitored
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US7136507B2 (en) * 2003-11-17 2006-11-14 Vidient Systems, Inc. Video surveillance system with rule-based reasoning and multiple-hypothesis scoring
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US20060066719A1 (en) * 2004-09-24 2006-03-30 Objectvideo, Inc. Method for finding paths in video
GB0502369D0 (en) * 2005-02-04 2005-03-16 British Telecomm Classifying an object in a video frame
JP4152398B2 (ja) * 2005-05-26 2008-09-17 三洋電機株式会社 手ぶれ補正装置
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US9036028B2 (en) * 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
EP1991934B1 (en) * 2006-02-27 2016-10-26 Robert Bosch GmbH Trajectory-based video retrieval system, method and computer program
JP4541316B2 (ja) 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
JP2008092279A (ja) * 2006-10-02 2008-04-17 Fuji Electric Systems Co Ltd 監視システム及び監視方法
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
JP2008211847A (ja) * 2008-05-26 2008-09-11 Matsushita Electric Ind Co Ltd 監視用デジタル画像記録再生装置
US8284258B1 (en) * 2008-09-18 2012-10-09 Grandeye, Ltd. Unusual event detection in wide-angle video (based on moving object trajectories)
US8457466B1 (en) * 2008-09-29 2013-06-04 Videomining Corporation Videore: method and system for storing videos from multiple cameras for behavior re-mining
JP2010123069A (ja) * 2008-11-21 2010-06-03 Panasonic Corp センシングデータ検索装置及び検索画像作成方法
US20110205359A1 (en) * 2010-02-19 2011-08-25 Panasonic Corporation Video surveillance system
US8379098B2 (en) * 2010-04-21 2013-02-19 Apple Inc. Real time video process control using gestures
JP5656567B2 (ja) * 2010-11-05 2015-01-21 キヤノン株式会社 映像処理装置および方法
US8335350B2 (en) * 2011-02-24 2012-12-18 Eastman Kodak Company Extracting motion information from digital video sequences
WO2012127815A1 (ja) * 2011-03-22 2012-09-27 パナソニック株式会社 移動体検出装置および移動体検出方法
US8988230B2 (en) * 2011-10-25 2015-03-24 Accipiter Radar Technologies Inc. Device and method for smart, non-habituating, automatic bird deterrent system
US20130234926A1 (en) * 2012-03-07 2013-09-12 Qualcomm Incorporated Visually guiding motion to be performed by a user
US9349275B2 (en) * 2012-03-15 2016-05-24 Behavorial Recognition Systems, Inc. Alert volume normalization in a video surveillance system
JP5550124B2 (ja) * 2012-08-17 2014-07-16 Necシステムテクノロジー株式会社 入力装置、機器、入力方法およびプログラム
WO2015122161A1 (ja) * 2014-02-14 2015-08-20 日本電気株式会社 映像解析システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210108018A (ko) * 2020-02-25 2021-09-02 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치
KR102656084B1 (ko) * 2020-02-25 2024-04-11 한국전자통신연구원 이동경로 기반 객체 매핑 방법 및 장치

Also Published As

Publication number Publication date
US10389969B2 (en) 2019-08-20
AR099431A1 (es) 2016-07-20
US20190306455A1 (en) 2019-10-03
WO2015122163A1 (ja) 2015-08-20
US20170013230A1 (en) 2017-01-12
JPWO2015122163A1 (ja) 2017-03-30
US20190306454A1 (en) 2019-10-03
US20230239428A1 (en) 2023-07-27
US11665311B2 (en) 2023-05-30
US20210014451A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
JP6194963B2 (ja) 映像処理システム
US10074186B2 (en) Image search system, image search apparatus, and image search method
JP6362674B2 (ja) 映像監視支援装置、映像監視支援方法、およびプログラム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
CN105830093B (zh) 用于产生与非均匀大小的空间区相关的元数据的***、方法及设备
JP2020503604A (ja) 外観検索のシステムおよび方法
JP6516832B2 (ja) 画像検索装置、システム及び方法
EP3627354A1 (en) Information processing system, method for controlling information processing system, and storage medium
JP2007267294A (ja) 複数カメラを用いた移動物体監視装置
US10999556B2 (en) System and method of video capture and search optimization
US11429985B2 (en) Information processing device calculating statistical information
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP4110323B2 (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
JP6909657B2 (ja) 映像認識システム
JP2013164667A (ja) 映像検索装置、映像検索方法、および映像検索用プログラム
JP6744536B1 (ja) 目線撮像方法及び目線撮像システム
Rajput et al. Heuristics2Annotate: Efficient Annotation of Large-Scale Marathon Dataset For Bounding Box Regression
JP2023064238A (ja) 計算機システム及び運動を行う人の身体動作の分析方法
KR20220040148A (ko) 동작 흐름 데이터 생성 방법, 상기 동작 흐름 데이터를 이용한 동작 유사 판단 방법, 동작 흐름 데이터 처리 장치 및 시스템
JP2023119287A (ja) 映像検索システム、映像検索方法およびコンピュータプログラム
Khoshrou et al. Spatio-temporal fusion for learning of regions of interests over multiple video streams

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6194963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150