JP2010258704A - 再生装置及び再生方法 - Google Patents

再生装置及び再生方法 Download PDF

Info

Publication number
JP2010258704A
JP2010258704A JP2009105560A JP2009105560A JP2010258704A JP 2010258704 A JP2010258704 A JP 2010258704A JP 2009105560 A JP2009105560 A JP 2009105560A JP 2009105560 A JP2009105560 A JP 2009105560A JP 2010258704 A JP2010258704 A JP 2010258704A
Authority
JP
Japan
Prior art keywords
event
time
video
index
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009105560A
Other languages
English (en)
Other versions
JP5393236B2 (ja
Inventor
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009105560A priority Critical patent/JP5393236B2/ja
Priority to US12/763,897 priority patent/US9420239B2/en
Publication of JP2010258704A publication Critical patent/JP2010258704A/ja
Application granted granted Critical
Publication of JP5393236B2 publication Critical patent/JP5393236B2/ja
Priority to US15/210,717 priority patent/US10313627B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2747Remote storage of video programs received via the downstream path, e.g. from the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

【課題】ある物体に関するイベントが発生した場合に、前記物体に関連する物体に関する適切な映像を速やかに再生することを目的とする。
【解決手段】映像から検出された複数の物体のなかの第一の物体に関する事象が検知された場合、第一の物体に関する事象と、第一の物体に関係する第二の物体に関する映像の再生に係る時刻と、に係るインデックスを生成するインデックス生成手段と、第一の物体に関する事象を示す図形を時間軸に沿って配置したタイムラインを表示する表示手段と、タイムラインから図形が指定された場合、図形が示す第一の物体に関する事象に係るインデックスに基づいて、時刻の第二の物体に関する映像を再生する再生手段と、を有することによって課題を解決する。
【選択図】図8

Description

本発明は、再生装置及び再生方法に関する。
複数のネットワークカメラと、カメラ映像を録画する録画装置と、ライブ映像や録画映像を再生するビューワと、から構成されるデジタルモニタリングシステムの導入が急速に進んでいる。
特許文献1には、特定のカメラとイベントとの対応付けを明確にするために、カメラを指定すると対応するタイムライン上のイベントが有効化する手段が開示されている。また、イベントを指定すると、対応するカメラの録画映像を対応時刻から再生する手段が開示されている。特許文献2には、複数カメラで撮影した映像からシーンの三次元モデルを構成し、イベントと映像とを関連付けると共に、物体単位でイベントを表示する手段が開示されている。
特表2007−505523号公報 米国特許第6144375号明細書
動画像の撮影中に物体を持った人物が登場し、その人物が物体を置いたまま立ち去ったことを置き去り検知イベントとして検知することができる。置き去り検知イベントが生じた場合に、置き去り物体を持ち込んだ人物を確認できると便利である。このようにあるイベントと関連する物体(人物)、又は人物のイベントの映像を再生する要求がある。これに対し従来の技術では、所望の映像を再生するためには、物体とイベントとの関連を使用者が考慮した上で、関連するイベントを順次指定して映像を再生する必要があった。また従来の技術では、物体とイベントとの対応関係を知るために、別途、物体専用のウィンドウを表示していた。このため、物体とイベントとの対応関係を直感的に把握することは困難であった。
本発明はこのような問題点に鑑みなされたもので、ある物体に関するイベントが発生した場合に、前記物体に関連する物体に関する適切な映像を速やかに再生することを目的とする。
そこで、本発明は、映像から検出された複数の物体のなかの第一の物体に関する事象が検知された場合、前記第一の物体に関する事象と、前記第一の物体に関係する第二の物体に関する映像の再生に係る時刻と、に係るインデックスを生成するインデックス生成手段と、前記第一の物体に関する事象を示す図形を時間軸に沿って配置したタイムラインを表示する表示手段と、前記タイムラインから前記図形が指定された場合、前記図形が示す前記第一の物体に関する事象に係る前記インデックスに基づいて、前記時刻の前記第二の物体に関する映像を再生する再生手段と、を有することを特徴とする。
また、本発明は、再生方法、プログラム及び記憶媒体としてもよい。
本発明によれば、ある物体に関する事象(イベント)が発生した場合に、前記物体に関連する物体に関する適切な映像を速やかに再生することができる。
ネットワークカメラシステムのシステム構成の一例を示す図である。 再生装置のハードウェア構成の一例を示す図である。 表画面の一例を示す図である。 イベント情報の一例を示す図である。 置き去り検知が生じたときの、物体の存在時間と、イベントと、を示した図である。 置き去り検知と関連するイベントの前後の映像を抜き出してインデックスを生成する一例を示す図である。 インデックス情報の一例を示す図である。 再生装置の1プロセスの処理手順の一例を示すフローチャートである。 持ち去り検知が生じたときの、物体の存在時間と、イベントと、を示した図である。 持ち去り検知と関連するイベントの前後の映像を抜き出してインデックスを生成する一例を示す図である。 再生装置の1プロセスの処理手順の一例を示すフローチャートである。 物体領域表示とタイムライン上のイベント表示との対応関係の一例を示す図である。 タイムラインにおいて同一物体に関するイベントを強調する別の例を示す図である。 複数カメラ間の物体とイベントを対応付けて表示する場合の録画アプリケーションの画面の一例を示す図である。 再生装置の1プロセスの処理手順の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
本実施形態では、ネットワークカメラの再生装置は、ある物体に関するイベント(事象)が生じたときに、当該物体に関係する物体に関するイベントの再生タイミングを記したインデックス(インデックス情報)を生成する。例えば再生装置は、置き去り検知イベントが生じたときに、再生装置は、置き去り検知イベントと、置き去り物体を持ち込んだ人物の登場前後の時刻と、置き去り開始前後の時刻と、を記したインデックスを作成する。次に再生装置は、使用者がタイムライン上の、置き去り検知イベントを示す置き去り検知イベント記号を指定すると、前記置き去り検知イベントを含むインデックスに基づいて録画映像を連続再生する。その結果、本実施形態のネットワークカメラシステム(又は再生装置)の使用者は、関連するイベントを検索し、手動で再生する必要が無くなり、重要な映像を即座に確認することができる。
本実施形態における典型的なネットワークカメラシステムのシステム構成を図1に示す。図1は、ネットワークカメラシステムのシステム構成の一例を示す図である。図1に示されるように、ネットワークカメラシステムは、複数のネットワークカメラ101、102、103と、録画装置2100を有する再生装置200と、がネットワーク経由で接続されている。ネットワークカメラ101は、ネットワーク経由で映像を送信する機能や、映像の動き検知機能、及び、映像中の物体領域の検知機能を有する。
また再生装置200は、ネットワークカメラから映像を取得する機能と、取得した映像を録画装置2100に保存する機能と、受信・保存した映像を再生する機能と、映像の動き検知機能と、映像中の物体領域の検知機能と、を有する。
再生装置200のこれらの機能は、後述する図2に示されるCPU206が、ROM207又はHDD209等に記憶されているプログラムに基づき、処理を実行することによって実現される。
図2は、再生装置200のハードウェア構成の一例を示す図である。
表示装置201は、例えばウィンドウ、アイコン、メッセージ、メニューその他のユーザインターフェース情報を表示する。VRAM202は、表示装置201に表示するための画像を記憶する。なお、表示装置201は、再生装置200を構成するハードウェアであってもよいし、再生装置200に接続された再生装置200とは異なる装置(ハードウェア)としてもよい。図2の例では、表示装置201は、再生装置200を構成するハードウェアとはしていない。
VRAM202に記憶された画像データは、所定の規定に従って表示装置201に転送され、これにより表示装置201に画像が表示される。CDD(コンパクトディスクドライブ)203は、CD−ROMや、CD−R等の記録メディアとの間で各種制御プログラムやデータの読み書きを行う装置である。CDDの代わりにDVDドライブであってもよい。
キーボード204は、文字入力を行うための各種キーを有する。PD(ポインティングデバイス)205は、例えば、表示装置201の表示画面上に表示されたアイコン、メニューその他のオブジェクトを指示するために使用される。CPU206は、ROM207、又はHDD(ハードディスクドライブ)209、又はFDD(フレキシブルディスクドライブ)210、又は外部記憶装置(CDD)203等に格納された制御プログラムに基づいて各デバイスを制御する。なお、上述したように、再生装置200のCPUがプログラムに基づき、処理を実行することにより、上述した再生装置200の機能を実現する。
ROM(リードオンリメモリ)207は、各種の制御プログラムやデータを保持する。RAM(ランダムアクセスメモリ)208は、CPU206のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。
HDD209は、各種制御プログラムや各種データを保存する。ネットワーク・インターフェース(Net−I/F)211は、他の情報処理装置やプリンタ等とネットワーク213を介して通信を行う。CPUバス212は、アドレスバス、データバス及びコントロールバスを含む。CPU206に対する制御プログラムの提供は、ROM207、HDD209、FDD210、CDD203から行うこともできるし、ネットワーク213を介して他の情報処理装置等から行うこともできる。
録画装置2100の機能は、再生装置200の内部のCPUがハードディスクドライブ等の外部記憶装置を制御することにより実現可能である。再生装置200は、ネットワーク制御部を通じてネットワークカメラ101と通信し、映像を取得して録画装置2100に保存する。このときネットワークカメラ101と再生装置200との間の通信は例えばHTTPによりなされるが、本実施形態は特定のプロトコルに限定されるものではない。
ここで、再生装置200の映像の動き検知機能とは、例えば隣接フレーム間差分により映像中の動き量を計算し、映像中の動き量が予め定められた一定の基準量を超えた場合に動き検知イベントを生ずるものである。また再生装置200の映像の中の物体領域の検知機能(検出機能)は、例えば背景差分画像に対して、領域結合処理を行って得られる予め定められた一定のサイズ以上の領域を物体領域とするものである。このときに、過去の物体領域検出結果から得た物体の知識を利用して検出精度を上げる手法が一般に用いられる。映像の動き検知機能、及び、物体領域検出機能は、ネットワークカメラ101側、再生装置200側のどちらに具備されていてもよい。また、本実施形態は、動き検知及び物体領域検出の手法が制限されるものではない。
次に図3を用いて、本実施形態における再生装置200の表示画面の例を説明する。図3は、表画面の一例を示す図である。図3は、画面上の1つのウィンドウを表したものであり、ウィンドウ枠300、画像表示領域310、320、330、タイムライン340から構成される。画像表示領域310上には物体領域を示す枠311、312が示されている。この物体領域の表示例としては図示したような矩形の他に、ブロック、楕円、等任意の形状での表現が可能である。
タイムライン340は、録画の状態やイベントの発生時刻を表示するものである。より具体的に説明すると、タイムライン340には、イベントを示す図形が時間軸に沿って配置されている。
右端が現在時刻であり、再生装置200は、時間の経過と共に表示イベントが右から左にむかってシフトするよう表示する。使用者が現在又は過去の時刻を指定すると、現在有効になっているカメラの録画映像を指定時刻から再生する。イベントは、システムの起動・停止、録画の開始・停止、外部センサー入力状態の変化、動き検知状態の変化、物体の登場・退室、置き去り、持ち去り等がある。図3においてイベント341は矩形で表示されているが、矩形以外の図形で表記することも可能である。
次に本実施形態におけるイベント情報の一例を、図4を用いて説明する。図4は、イベント情報の一例を示す図である。再生装置200は、イベントを、発生時刻順にIDを割り振り管理する。管理内容としては、発生日時、種別、優先度、デバイスID、カメラID、物体ID、イベント詳細がある。種別はイベントのグルーピングであり、詳細がより具体的なイベントの内容である。例えば置き去り検知は、種別が「異常検知」であり、詳細が「滞留検知」である。デバイスIDは、イベント発生源となったセンサーやカメラデバイスのIDを示す。優先度は、イベント通知に関する優先度であり、優先度ごとにイベント発生時の表示色や使用者へのアラーム通知が別途設定される。物体IDは、検出された物体に個別に割り振られる通し番号である。
次に本実施形態におけるインデックス生成の手法を説明する。本実施形態では置き去り検知を例として取り上げる。図5は、置き去り検知が生じたときの、物体の存在時間と、イベントと、を示した図である。物体B(第一の物体)は鞄であり、物体A(第二の物体)は鞄を持つ人物である。物体Aは時刻411で登場し、時刻421で物体Bを放置し、時刻431で退出する。物体Bは時刻421で登場し、時刻441で一定時間以上静止していると再生装置200で判別される。その結果、時刻421で置き去り検知イベントが発生する。このとき物体Bは物体Aから分離した物体であることから物体間の関係が再生装置200によって定義される。
物体の分離や統合は物体の動作を解析することで可能となる。例えば既存物体のサイズが急に増加した直後に、既存物体と同一地点から新規物体が発生した場合、再生装置200は、既存物体が分離したと判別できる。一方、2つ以上の既存物体が同一地点に存在し、その後一定時間以上見かけ上の物体数が1つである場合、再生装置200は既存物体が統合したと判別できる。
ここで再生装置200は、人物検出技術を用いて、物体の分離・統合検出精度を向上することが可能である。人物検出技術とは、画像中の人体特徴や顔特徴を用いて人物領域や位置を求める技術である。物体の分離に適用する場合、人物が人物と人物以外の物体に分離することは可能であるが、人物が複数の人物に分離することは不可能とする、ルールを設ける。逆に物体の統合に適用する場合、人物と物体が1人の人物に統合することは可能であるが、複数の人物が人物に統合することは不可能とする、ルールを設ける。これにより、再生装置200等における、人物同士の重複動作による分離・統合に関する誤検出を減ずることができる。
次に置き去り検知イベントが生じたときの、インデックスの生成方法を、図6を用いて説明する。図6は、置き去り検知と関連するイベントの前後の映像を抜き出してインデックスを生成する一例を示す図である。図6の(a)は、録画映像である。図6の(b)は、インデックスに基づく再生映像の例である。図6の(a)において、録画映像500中に、図5で説明した、人物登場の時刻411、置き去り開始の時刻421、人物退出の時刻431、置き去り検知の時刻441の各イベントが表記されている。
置き去り検知イベント442が生じたときに、使用者が知りたいのは置き去り物体を放置した人物と、置き去りの瞬間である。そこで再生装置200は、図6の(b)に示すように、人物登場の時刻411と、置き去り開始の時刻421と、の前後の映像を連続して再生する。このときイベントの前後の再生時間をΔTとすると、4ΔT時間の映像510が再生装置200によって再生される。ここで、置き去り検知イベント前後の映像は変化の無い映像であるため再生装置200は再生を省略する。なお、イベント前後の再生時間はΔTに限定されず、各イベントにおいて任意に設定可能にするようにしてもよい。
インデックスとして保持する情報の例を図7に示す。図7は、インデックスとして再生装置200が保持しているインデックス情報の一例を示す図である。図7に示されるように、インデックス情報は、注目イベント、関連イベント、オペレーション情報の3種類の情報を含む。注目イベント情報は、インデックスを生成する原因となったイベントであり、例えば図5における置き去り検知イベントである。注目イベント情報として、前記イベントのイベントIDが保持される。また関連イベント情報は、注目イベントに対応した物体の登場の時刻421や、当該物体の分離元物体の登場の時刻411である。関連イベント情報として、前記イベントのイベントIDが保持される。但し、図中のコメントは必ずしも必要ではない。オペレーション情報は、再生の開始時刻と停止時刻の一覧である。より具体的に説明すると、オペレーション情報は、開始、終了といった操作内容、カメラID、時刻、関連イベントID等を含む。再生時刻と停止時刻とは既に説明したように、関連イベントの発生時刻によって再生装置200が決定する。
なお、図4のイベント情報や、図7のインデックスの表現方法は多様な手法を用いることができる。例えば、プログラム中において構造体のリスト形式として表現したり、XML形式でファイルに保存したり、送信することができる。
使用者は、タイムライン340上の置き去り検知イベントを指定することにより、映像再生を再生装置200に行わせる。ここで指定方法としては、ダブルクリックや、コンテキストメニュー等を用いる方法があるが、本実施形態では指定方法を限定するものではない。
次に図8を用いて本実施形態における再生装置200の1プロセスの処理手順を説明する。図8は、再生装置200の1プロセスの処理手順の一例を示すフローチャート(その1)である。このプロセスは、GUIに関するプロセスであり、より具体的には、イベント処理プロセスである。説明の簡略化のため、本実施形態に直接関連するイベントのみを表記している。
なお、上述したように、CPU206が、プログラムを実行することによって、イベント処理プロセスが実行される。
ステップS701で初期化を実行する。ステップS702で使用者からの操作入力を待つ。操作イベントが生じた場合、Y分岐し、ステップS703で置き去り・持ち去り検知イベントかどうかを判別する。置き去り・持ち去り検知イベントである場合には、Y分岐し、ステップS704で既に述べた手法に従ってインデックスを生成する。
ステップS703で置き去り・持ち去り検知イベント以外である場合には、N分岐し、ステップS710で再生指示入力かどうかを判別する。再生指示入力はタイムライン上のイベント指定の結果、生じる。再生指示入力である場合にはY分岐し、ステップS711で指定イベントに関する録画映像のインデックス再生を行う。ステップS710において、再生指示入力で無い場合にはN分岐し、ステップS720でその他のイベント処理を行って戻る。
以上説明した処理によれば、再生装置200は、ある物体に関するイベントが生じたときに、当該物体に関連する別の物体の映像のインデックスを生成し、指定に応じて再生する。より具体的には、再生装置200は、置き去り検知イベントが生じた場合に、置き去り物体を持ち込んだ人物の登場と、置き去りとの瞬間を捉えたインデックスを生成しておき、タイムライン上のイベントの指定に応じてインデックスに従って関連する録画映像を再生する。
(第2の実施形態)
ある物体に関わるイベントが生じたときに、前記物体に関連する全ての物体の退出を待って、ビデオインデックスを生成する手法がある。これは例えば持ち去り検知イベントが生じたときに、物体を持ち去った人物が画面から退出するまでをインデックスに含めたい場合に有効である。その一方で、持ち去り検知イベント発生からインデックスの作成、映像の再生までに遅延が生じる場合がある。
本実施形態のシステム構成は第1の実施形態と同一であるため説明を省略し、以下、第1の実施形態と異なる部分を中心に説明する。本実施形態におけるインデックスの作成方法を、図9と図10とに示す。
図9は、持ち去り検知が生じたときの、物体の存在時間と、イベントと、を示した図である。物体A(第二の物体)は人物であり、物体B(第一の物体)は持ち去り後に新規に現れた背景領域である。物体Bが持ち去り後に新規に現れた背景領域であるのは、背景差分を用いた物体領域抽出の場合、再生装置200は、持ち去り前のシーンを背景として記憶するため、持ち去り後に現れた壁等の領域は、最初は新規物体領域と判別されるためである。物体Aに関するイベントは、人物登場811、持ち去り開始821、退出831である。物体Bは持ち去り開始821の検知の時刻で物体Aから分離して発生し、一定時間以上静止状態であったため持ち去り検知イベント841が生じる。図9と図5とで異なる点は、持ち去り検知イベント841の発生後に、持ち去り人物の退出831のイベントが生じていることである。
ここで物体Aから物体Bが分離したことは、再生装置200は、第1の実施形態と同様な識別手段によって計測することができる。
図10は、持ち去り検知と関連するイベントの前後の映像を抜き出してインデックスを生成する一例を示す図である。図10の(a)は物体Aの登場から物体Bの退室までの録画映像と、イベントと、である。図10の(b)は再生映像を示したものである。図10の(a)において、録画映像910には人物登場811、持ち去り開始821、持ち去り検知確定(持ち去り人物の退出831)、人物退出のイベント(持ち去り検知イベント841)がある。持ち去り検知が生じた場合、使用者は持ち去り行為を確認する必要がある。このためには、持ち去りを行った人物の登場、持ち去りの瞬間、及び、物体を持った状態での退室が重要な瞬間になる。
そこで本実施形態の再生装置200は、図10の(b)に示すように、人物登場811、持ち去り開始821、人物退出842の、前後ΔTの時刻を記憶したインデックスを生成する。その結果6ΔTの長さを持つ録画920が再生される。なおイベント前後の再生時刻ΔTは、第1の実施形態と同様、各イベントの前後で任意に設定可能である。
次に図11を用いて本実施形態における再生装置200の1プロセスの処理手順を説明する。図11は、再生装置200の1プロセスの処理手順の一例を示すフローチャート(その2)である。このプロセスは、GUIに関するプロセスであり、より具体的には、イベント処理プロセスである。図8と同様、説明の簡略化のため本実施形態に直接関連するイベントのみを表記している。図8と異なる部分を説明する。
ステップS1003で置き去り・持ち去り検知イベントかどうかを判別する。置き去り・持ち去り検知イベントである場合には、Y分岐し、ステップS1004で関連物体が映像中に存在しているかどうかを判別する。これは関連する全ての物体が退出するのを待つためである。関連物体が映像中に存在している場合にはY分岐し処理を続ける。関連物体がない場合にはN分岐し、ステップS1005でビデオインデックスの生成を行う。
ステップS1003で置き去り・持ち去り検知イベント以外である場合には、N分岐し、ステップS1010で再生指示入力かどうかを判別する。これはタイムライン上のイベント指定の結果生じる。再生指示入力である場合にはY分岐し、ステップS1011でインデックスに従って録画を再生する。ステップS1010において、再生指示入力で無い場合にはN分岐し、S1020でその他のイベント処理を行って戻る。
以上説明した処理によれば、あるイベントが生じたときに、関連する物体の退室を待って、重要なシーンのみを編集したビデオインデックスを作成する。より具体的には持ち去り検知イベントが生じた場合に、持ち去り行為を行う人物の入室、持ち去りの瞬間、持ち去り行為を行った人物の退出までを含めたインデックスを生成し、再生することができる。
(第3の実施形態)
本実施形態では、タイムラインを有するモニタリングシステムにおいて、物体領域表示とタイムライン上のイベント表示との対応が直感的に理解できるようにするための処理を説明する。
図12を用いて本実施形態における物体領域表示とタイムライン上のイベント表示との対応関係を示す手法を説明する。図12は、物体領域表示とタイムライン上のイベント表示との対応関係の一例を示す図である。図12において、あるカメラの画像表示領域310及び物体領域を示す枠312が選択状態にある。これは使用者が物体領域を示す枠312をマウスポインタでクリックすることによってなされる。このとき、タイムライン上では物体領域を示す枠312に関わる物体のイベントが強調表示される。物体のイベントとは、例えば物体の登場や退室等である。再生装置200は、図4に示したイベント情報において同一物体IDによって対応関係を識別することができる。このとき、再生装置200は、物体領域を示す枠312と物体に関連するイベント342、343、344の表示とを、物体領域を示す枠312と同様に強調表示することによって、物体とイベントの対応関係を明確化できる。より具体的には、再生装置200は、枠の太さ、線種、色、等を同一とする。これにより使用者は、タイムライン上の多くのイベントの中から、指定した物体に対応したイベントのみを容易に識別できる。
ここで、再生装置200は、画像上の物体領域を示す枠312とタイムライン上のイベント342の表示との色を、物体の属性の変化に応じて変化させることができる。例えば、イベント342の表示が当該物体の登場イベントとする。ここでイベントとして置き去り検知イベントを定義し、物体が一定時間以上停止状態の時に、イベントが発火することとする。このような場合、再生装置200は、物体の停止時間に応じて物体領域を示す枠312の色を青→緑→黄色→赤等と、変えることによりイベント発生が近いことを分かりやすく示すことができる。
この場合、再生装置200は、タイムライン340上のイベント342の表示の色も、物体領域を示す枠312と連動して変化させることによって、対応関係を保つことができる。再生装置200は、物体とイベント表示との対応関係を示すと共に、タイムライン上のイベント表示のみでも物体の停止時間情報を示すことができる。
本実施形態の再生装置200は、また、イベントを指定したときに同一物体に関するイベントを強調表示すると共に、対応する映像及び、物体表示を強調表示することもできる。これは例えばイベント342の表示を使用者が選択した場合、再生装置200が同一物体に関するイベント342、343、344の表示を強調表示すると同時に、対応する画像表示領域310及び物体領域を示す枠312を強調表示する。この状態で、使用者がマウスをダブルクリックすることにより指定すると、再生装置200は、対応する時刻の映像の再生を開始する。
タイムラインにおいて同一物体に関するイベントを強調する別の例を図13に示す。図13は、タイムラインにおいて同一物体に関するイベントを強調する別の例を示す図である。図13では再生装置200は、図12のタイムラインと同様に、同一物体に関わるイベントを強調した上で、更に物体の登場イベントと退室イベントとの間の背景350を、通常の背景とは別に着色している。再生装置200は、使用者が選択した物体以外に関わるイベントは図13に示すように同時に表示してもよいし、背後に隠してもよい。
ところで、再生装置200は、物体表示とイベント表示との対応付けを、複数カメラが存在する場合でも行うことができる。即ち、再生装置200は、別々の位置に設置された複数のカメラが、同一物体を撮影した場合、複数カメラ間の全ての物体とイベントとの対応関係が分かるように表示する。
図14は、複数カメラ間の物体とイベントを対応付けて表示する場合の録画アプリケーションの画面の一例を示す図である。図14において、画像表示領域310に存在する物体領域を示す枠312と、カメラ映像320中に存在する物体321と、は同一の物体とする。再生装置200が複数カメラ映像中の物体が同一物体かどうかを判別する手法は複数存在する。再生装置200は、複数カメラ映像において同時刻に発生した同一種類のイベントがある場合は、同一物体に関わるイベントとみなすことができる。これは異なるカメラ映像において同一時刻に置き去り検知が生じた場合、再生装置200は、当該物体は同一とみなす、というものである。他の手法としては、再生装置200が、複数カメラの物理的な位置関係に基づいてシーン中の物体の同一性を確認する手法がある。
使用者が、ネットワークカメラ101の画像表示領域310上の物体領域を示す枠312を選択すると、再生装置200によって強調表示される。同時に再生装置200によってイベント情報が参照され、タイムライン340上で当該物体に関係するイベント345、347、348が強調表示される。次に再生装置200は、同一物体に関わるイベントが無いか確認し、該当するイベントがある場合には強調表示する。図14では346が強調表示されている。ここでは同時刻に発生した同一種類のイベントは同一物体に関わるイベントとみなす、というルールを用いているものとする。図14の例ではネットワークカメラ101の画像表示領域310と、カメラ102のカメラ映像320と、において、同時に置き去り検知イベントが生じたものである。同時に発生したことを示すために再生装置200は、位置をずらして重複表示している。更に再生装置200は、346に対応する物体321も同様に強調表示する。以上の処理により、再生装置200は、物体領域を示す枠312に関連するイベントと異なる映像中の同一の物体321とを対応付けて表示することができる。
このとき、再生装置200は、図4におけるイベント管理には物体間の対応付けも追加する。例えば、再生装置200は、図4の滞留検知ONイベント(イベントID00128、デバイスIDCam01、物体ID002)と同一時刻に、異なるカメラで生じた滞留検知ONイベント(例えば、デバイスIDCam02、物体ID003)は、同一物体に関するイベントとみなす。そして、再生装置200は、物体ID002と物体ID003とを同一物体として記憶する。
次に図15を用いて本実施形態における再生装置200の1プロセスの処理手順を説明する。図15は、再生装置200の1プロセスの処理手順の一例を示すフローチャート(その3)である。このプロセスは、GUIに関するプロセスであり、より具体的には、イベント処理プロセスである。図8、図11と同様、説明の簡略化のため本実施形態に直接関連するイベントのみを表記している。
ステップS1400で表示の初期化を行う。ステップS1401でイベントを待つ。次に、ステップS1402で映像フレームの指定かどうかを判別する。これはマウスポインタにより使用者によって特定のカメラ映像フレームが指定されたかどうかを判別するものである。映像フレームの指定であればステップS1404に進み指定フレームの有効化、及び、ステップS1405で指定カメラに関連するイベントの強調表示を行う。
もしステップS1402で映像フレーム指定イベントではなかった場合には、S1410へ進み物体指定イベントかどうかを判別する。物体指定イベントである場合Y分岐し、ステップS1411に進んで指定範囲を検出する。これは複数物体を指定している場合があるからである。次にステップS1412に進んで指定物体を強調表示する。更にステップS1413に進んで関連するイベントを強調表示する。
もしステップS1410で物体指定イベントではない場合、ステップS1420に進んでイベント指定イベントかどうかを判別する。イベント指定イベントである場合はY分岐して、ステップS1421に進んで指定範囲を検出する。これは複数のイベントを指定している場合があるからである。次にステップS1422に進んで同一物体に関わるイベントを強調表示する。更にステップS1423に進んで、指定イベントと関連する物体を強調表示する。
以上の説明からも明らかなように、本実施形態によれば、映像中の物体表示とタイムライン上のイベント表示との強調表示方法を統一することにより、物体とイベントとの対応関係を明確にできる。また、本実施形態によれば、1本のタイムライン上で異なるカメラ映像中に発生した全てのイベントを表示するイベント表示方式において、複数カメラ画像上の物体とイベントとの対応を容易に把握できるような表示法方式を実現することができる。
(その他の実施形態)
また、本発明の目的は、以下のようにすることによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(又は記録媒体)を、システム或いは装置に供給する。そして、そのシステム或いは装置の中央演算処理手段(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコードを記録した記憶媒体は本発明を構成することになる。
また、システム或いは装置の前記中央演算処理手段が読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、システム或いは装置上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行う。その処理によって上述した実施形態の機能が実現される場合も含まれる。
更に、記憶媒体から読み出されたプログラムコードが、前記システム或いは装置に挿入された機能拡張カードや、接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。
本発明を前記記憶媒体に適用する場合、その記憶媒体(コンピュータ読み取り可能な記憶媒体)には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
以上、上述した各実施形態によれば、再生装置200は、あるイベントが生じた場合に、イベントに係る物体の親物体の出現時刻と、前記物体が親物体から分離した時刻の前後を含む短時間映像を再生する。このことにより、使用者は、イベントに関して最も知りたい映像を確認できる。また、再生装置200が、使用者が指定した物体と対応するイベントのみを強調表示することで、複数映像中の物体表示とタイムライン上のイベント表示との対応関係が明確になる。更に再生装置200が、物体の属性変化に応じて物体表示とイベント表示との両方を変化させることにより、物体属性の変化をタイムライン上で知ることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
200 再生装置、2100 録画装置

Claims (9)

  1. 映像から検出された複数の物体のなかの第一の物体に関する事象が検知された場合、前記第一の物体に関する事象と、前記第一の物体に関係する第二の物体に関する映像の再生に係る時刻と、に係るインデックスを生成するインデックス生成手段と、
    前記第一の物体に関する事象を示す図形を時間軸に沿って配置したタイムラインを表示する表示手段と、
    前記タイムラインから前記図形が指定された場合、前記図形が示す前記第一の物体に関する事象に係る前記インデックスに基づいて、前記時刻の前記第二の物体に関する映像を再生する再生手段と、
    を有することを特徴とする再生装置。
  2. 前記インデックス生成手段は、前記第一の物体に関する事象が検知された場合、前記第一の物体に関係する第二の物体に関する事象に係る時刻を、前記第二の物体に関する映像の再生に係る時刻として、前記第一の物体に関する事象と、前記時刻と、を含むインデックスを生成することを特徴とする請求項1に記載の再生装置。
  3. 前記インデックス生成手段は、前記第一の物体に関する事象として、前記第一の物体の置き去り、又は持ち去りの発生が検知された場合、前記第一の物体の置き去り、又は持ち去りを行った人物を前記第二の物体として、前記人物による前記前記第一の物体の置き去りの時刻、又は持ち去りの時刻、又は前記人物の入室の時刻、又は退室の時刻を、前記人物に関する映像の再生に係る時刻として含むインデックスを生成することを特徴とする請求項2に記載の再生装置。
  4. 前記再生手段は、使用者から操作入力に応じて、前記タイムラインから前記図形が指定された場合、前記図形に係る第一の物体に関する事象を含むインデックスを特定し、前記インデックスに含まれる前記時刻の前記第二の物体に関する映像を再生することを特徴とする請求項2又は3に記載の再生装置。
  5. 前記表示手段は、前記タイムラインをウィンドウに表示すると共に、前記映像から検出された物体をウィンドウに表示することを特徴とする請求項1乃至4の何れか1項に記載の再生装置。
  6. 前記表示手段は、前記タイムラインを構成する図形と、前記図形に係る前記物体と、を対応付けて表示することを特徴とする請求項5に記載の再生装置。
  7. 再生装置における再生方法であって、
    映像から検出された複数の物体のなかの第一の物体に関する事象が検知された場合、前記第一の物体に関する事象と、前記第一の物体に関係する第二の物体に関する映像の再生に係る時刻と、に係るインデックスを生成するインデックス生成ステップと、
    前記第一の物体に関する事象を示す図形を時間軸に沿って配置したタイムラインを表示する表示ステップと、
    前記タイムラインから前記図形が指定された場合、前記図形が示す前記第一の物体に関する事象に係る前記インデックスに基づいて、前記時刻の前記第二の物体に関する映像を再生する再生ステップと、
    を有することを特徴とする再生方法。
  8. コンピュータを、
    映像から検出された複数の物体のなかの第一の物体に関する事象が検知された場合、前記第一の物体に関する事象と、前記第一の物体に関係する第二の物体に関する映像の再生に係る時刻と、に係るインデックスを生成するインデックス生成手段と、
    前記第一の物体に関する事象を示す図形を時間軸に沿って配置したタイムラインを表示する表示手段と、
    前記タイムラインから前記図形が指定された場合、前記図形が示す前記第一の物体に関する事象に係る前記インデックスに基づいて、前記時刻の前記第二の物体に関する映像を再生する再生手段と、
    して機能させることを特徴とするプログラム。
  9. 請求項8に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2009105560A 2009-04-23 2009-04-23 再生装置及び再生方法 Active JP5393236B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009105560A JP5393236B2 (ja) 2009-04-23 2009-04-23 再生装置及び再生方法
US12/763,897 US9420239B2 (en) 2009-04-23 2010-04-20 Apparatus for playing back recorded video images related to event, and method thereof
US15/210,717 US10313627B2 (en) 2009-04-23 2016-07-14 Apparatus for playing back recorded video images related to event, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105560A JP5393236B2 (ja) 2009-04-23 2009-04-23 再生装置及び再生方法

Publications (2)

Publication Number Publication Date
JP2010258704A true JP2010258704A (ja) 2010-11-11
JP5393236B2 JP5393236B2 (ja) 2014-01-22

Family

ID=42991784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105560A Active JP5393236B2 (ja) 2009-04-23 2009-04-23 再生装置及び再生方法

Country Status (2)

Country Link
US (2) US9420239B2 (ja)
JP (1) JP5393236B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217056A (ja) * 2011-03-31 2012-11-08 Saxa Inc 置き去り又は持ち去り検知システム及び前記検知システムにおける置き去り又は持ち去り発生時刻を検知する方法
JP2012222685A (ja) * 2011-04-12 2012-11-12 Saxa Inc 置き去り又は持ち去り検知システム
JP2013026723A (ja) * 2011-07-19 2013-02-04 Toa Corp 監視装置、及びプログラム
JP2014123181A (ja) * 2012-12-20 2014-07-03 Fuji Xerox Co Ltd プログラム及び診療記録表示装置
JP2015041945A (ja) * 2013-08-23 2015-03-02 国立大学法人山梨大学 映像内活動度可視化装置、方法及びプログラム
JP2016051964A (ja) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 サーバ、及びその制御方法、プログラム
JP2017011417A (ja) * 2015-06-18 2017-01-12 キヤノン株式会社 表示制御装置、表示制御方法、プログラム
JP2017107434A (ja) * 2015-12-10 2017-06-15 株式会社リコー プログラム、情報処理装置、画像表示方法、画像処理システム
JP2017135476A (ja) * 2016-01-25 2017-08-03 パナソニックIpマネジメント株式会社 置去り監視装置およびこれを備えた置去り監視システムならびに置去り監視方法
WO2017154845A1 (ja) * 2016-03-10 2017-09-14 株式会社smart-FOA 再生装置
WO2019021628A1 (ja) * 2017-07-28 2019-01-31 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP2019087841A (ja) * 2017-11-06 2019-06-06 京セラドキュメントソリューションズ株式会社 監視システム
JP2020005180A (ja) * 2018-06-29 2020-01-09 キヤノンマーケティングジャパン株式会社 情報処理システム、及びその制御方法、プログラム
JP2020177676A (ja) * 2017-03-30 2020-10-29 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US11164006B2 (en) 2017-03-30 2021-11-02 Nec Corporation Information processing apparatus, control method, and program
JP7279241B1 (ja) 2022-08-03 2023-05-22 セーフィー株式会社 システムおよびプログラム
JP7302088B1 (ja) 2022-12-28 2023-07-03 セーフィー株式会社 システムおよびプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8839109B2 (en) * 2011-11-14 2014-09-16 Utc Fire And Security Americas Corporation, Inc. Digital video system with intelligent video selection timeline
CN103248853B (zh) * 2012-02-10 2017-06-13 华为技术有限公司 实现录像检索的方法、设备和***
JP6091079B2 (ja) * 2012-04-26 2017-03-08 キヤノン株式会社 制御装置、制御方法及びプログラム
JPWO2014050518A1 (ja) 2012-09-28 2016-08-22 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6226721B2 (ja) * 2012-12-05 2017-11-08 キヤノン株式会社 再生制御装置、再生制御方法、プログラム及び記憶媒体
KR101978216B1 (ko) * 2013-01-04 2019-05-14 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9766769B1 (en) * 2014-12-31 2017-09-19 FullStory, Inc. Evaluation of interactions with a user interface
JP6241796B2 (ja) * 2015-12-25 2017-12-06 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
KR102634188B1 (ko) * 2016-11-30 2024-02-05 한화비전 주식회사 영상 감시 시스템
US11494729B1 (en) * 2017-03-27 2022-11-08 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11238401B1 (en) 2017-03-27 2022-02-01 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11087271B1 (en) 2017-03-27 2021-08-10 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
CN107734303B (zh) * 2017-10-30 2021-10-26 北京小米移动软件有限公司 视频标识方法及装置
JP2020119181A (ja) * 2019-01-23 2020-08-06 シャープ株式会社 画像形成装置及びイベント検出システム
CN112218150A (zh) * 2020-10-15 2021-01-12 Oppo广东移动通信有限公司 终端及其录像分析显示方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240542A1 (en) * 2002-02-06 2004-12-02 Arie Yeredor Method and apparatus for video frame sequence-based object tracking
US20050185823A1 (en) * 2004-02-24 2005-08-25 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JP2007243342A (ja) * 2006-03-06 2007-09-20 Yokogawa Electric Corp 画像監視装置及び画像監視システム
JP2007259091A (ja) * 2006-03-23 2007-10-04 Matsushita Electric Ind Co Ltd 録画画像再生装置及び録画画像再生方法
JP2008104130A (ja) * 2006-10-23 2008-05-01 Hitachi Ltd 映像監視装置および映像監視システム
JP2009087033A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 人物追跡システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144375A (en) 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
US20040001106A1 (en) * 2002-06-26 2004-01-01 John Deutscher System and process for creating an interactive presentation employing multi-media components
JP4612906B2 (ja) 2003-09-12 2011-01-12 キヤノン株式会社 シーケンスを送信する方法、装置、及びコンピュータ・プログラム
US7996771B2 (en) * 2005-06-17 2011-08-09 Fuji Xerox Co., Ltd. Methods and interfaces for event timeline and logs of video streams

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240542A1 (en) * 2002-02-06 2004-12-02 Arie Yeredor Method and apparatus for video frame sequence-based object tracking
US20050185823A1 (en) * 2004-02-24 2005-08-25 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JP2007243342A (ja) * 2006-03-06 2007-09-20 Yokogawa Electric Corp 画像監視装置及び画像監視システム
JP2007259091A (ja) * 2006-03-23 2007-10-04 Matsushita Electric Ind Co Ltd 録画画像再生装置及び録画画像再生方法
JP2008104130A (ja) * 2006-10-23 2008-05-01 Hitachi Ltd 映像監視装置および映像監視システム
JP2009087033A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 人物追跡システム

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217056A (ja) * 2011-03-31 2012-11-08 Saxa Inc 置き去り又は持ち去り検知システム及び前記検知システムにおける置き去り又は持ち去り発生時刻を検知する方法
JP2012222685A (ja) * 2011-04-12 2012-11-12 Saxa Inc 置き去り又は持ち去り検知システム
JP2013026723A (ja) * 2011-07-19 2013-02-04 Toa Corp 監視装置、及びプログラム
JP2014123181A (ja) * 2012-12-20 2014-07-03 Fuji Xerox Co Ltd プログラム及び診療記録表示装置
JP2015041945A (ja) * 2013-08-23 2015-03-02 国立大学法人山梨大学 映像内活動度可視化装置、方法及びプログラム
JP2016051964A (ja) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 サーバ、及びその制御方法、プログラム
JP2017011417A (ja) * 2015-06-18 2017-01-12 キヤノン株式会社 表示制御装置、表示制御方法、プログラム
JP2017107434A (ja) * 2015-12-10 2017-06-15 株式会社リコー プログラム、情報処理装置、画像表示方法、画像処理システム
JP2017135476A (ja) * 2016-01-25 2017-08-03 パナソニックIpマネジメント株式会社 置去り監視装置およびこれを備えた置去り監視システムならびに置去り監視方法
WO2017130252A1 (ja) * 2016-01-25 2017-08-03 パナソニックIpマネジメント株式会社 置去り物体監視装置およびこれを備えた置去り物体監視システムならびに置去り物体監視方法
GB2560477B (en) * 2016-01-25 2022-01-12 Panasonic Ip Man Co Ltd Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
GB2560477A (en) * 2016-01-25 2018-09-12 Panasonic Ip Man Co Ltd Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
US10740906B2 (en) 2016-01-25 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
WO2017154845A1 (ja) * 2016-03-10 2017-09-14 株式会社smart-FOA 再生装置
JP2020177676A (ja) * 2017-03-30 2020-10-29 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US11164006B2 (en) 2017-03-30 2021-11-02 Nec Corporation Information processing apparatus, control method, and program
US11776274B2 (en) 2017-03-30 2023-10-03 Nec Corporation Information processing apparatus, control method, and program
US12046043B2 (en) 2017-03-30 2024-07-23 Nec Corporation Information processing apparatus, control method, and program
US12046044B2 (en) 2017-03-30 2024-07-23 Nec Corporation Information processing apparatus, control method, and program
JPWO2019021628A1 (ja) * 2017-07-28 2020-07-27 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2019021628A1 (ja) * 2017-07-28 2019-01-31 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11120838B2 (en) 2017-07-28 2021-09-14 Nec Corporation Information processing apparatus, control method, and program
JP2019087841A (ja) * 2017-11-06 2019-06-06 京セラドキュメントソリューションズ株式会社 監視システム
JP2020005180A (ja) * 2018-06-29 2020-01-09 キヤノンマーケティングジャパン株式会社 情報処理システム、及びその制御方法、プログラム
JP7231811B2 (ja) 2018-06-29 2023-03-02 キヤノンマーケティングジャパン株式会社 情報処理システム、及びその制御方法、プログラム
JP7347481B2 (ja) 2020-07-02 2023-09-20 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022009396A (ja) * 2020-07-02 2022-01-14 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP7279241B1 (ja) 2022-08-03 2023-05-22 セーフィー株式会社 システムおよびプログラム
JP2024021191A (ja) * 2022-08-03 2024-02-16 セーフィー株式会社 システムおよびプログラム
JP7302088B1 (ja) 2022-12-28 2023-07-03 セーフィー株式会社 システムおよびプログラム
JP2024094914A (ja) * 2022-12-28 2024-07-10 セーフィー株式会社 システムおよびプログラム

Also Published As

Publication number Publication date
US9420239B2 (en) 2016-08-16
US20160323536A1 (en) 2016-11-03
US20100271478A1 (en) 2010-10-28
US10313627B2 (en) 2019-06-04
JP5393236B2 (ja) 2014-01-22

Similar Documents

Publication Publication Date Title
JP5393236B2 (ja) 再生装置及び再生方法
TWI509409B (zh) 用於檢視在一程式之執行期間錄製之記錄之方法及系統
US20160142794A1 (en) Electronic apparatus of generating summary content and method thereof
US10043079B2 (en) Method and apparatus for providing multi-video summary
KR100883066B1 (ko) 텍스트를 이용한 피사체 이동 경로 표시장치 및 방법
WO2015122627A1 (ko) 영상 편집 방법 및 이를 위한 장치
US9860475B2 (en) Video processing apparatus, video processing method, and storage medium
JP2016136699A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR20140126936A (ko) 실시간 영상에 프라이버시 마스킹 툴을 제공하는 장치 및 방법
JP2011101251A (ja) 電子機器及び画像表示方法
JP2015082692A (ja) 映像編集装置、映像編集方法、および、映像編集プログラム
JP4450591B2 (ja) 情報編集装置、表示制御方法およびプログラム
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
US20230137452A1 (en) Information processing device, inforamtion processing method, and program
JP2018107596A (ja) 動画再生装置、動画再生方法、そのプログラム及び記録媒体
JP2009267864A (ja) プレゼンテーション記録装置、プレゼンテーション再生装置及びプログラム
JP4959534B2 (ja) 映像アノテーション付与・表示方法及び装置及びプログラム及びコンピュータ読取可能な記録媒体
JP2016122413A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP6617042B2 (ja) 映像データ編集装置、映像データ編集方法及びコンピュータプログラム
JP6661312B2 (ja) 監視システム、情報処理方法及びプログラム
US9343108B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
EP4203460A1 (en) Video editing device, video editing method, and computer program
JP5089648B2 (ja) 映像比較装置,映像比較方法,映像比較プログラムおよび映像比較プログラムの記録媒体
EP4332871A1 (en) Information processing device, information processing method, and program
JP2019110353A (ja) マルチメディア再生装置、及び、マルチメディア生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131015

R151 Written notification of patent or utility model registration

Ref document number: 5393236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151