JP6631618B2 - 画像監視装置及び画像監視方法 - Google Patents
画像監視装置及び画像監視方法 Download PDFInfo
- Publication number
- JP6631618B2 JP6631618B2 JP2017506154A JP2017506154A JP6631618B2 JP 6631618 B2 JP6631618 B2 JP 6631618B2 JP 2017506154 A JP2017506154 A JP 2017506154A JP 2017506154 A JP2017506154 A JP 2017506154A JP 6631618 B2 JP6631618 B2 JP 6631618B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- store
- display
- imaging device
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19604—Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19665—Details related to the storage of video surveillance data
- G08B13/19671—Addition of non-video data, i.e. metadata, to video stream
- G08B13/19673—Addition of time stamp, i.e. time metadata, to video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、このような事情に鑑みてなされたものであり、或るイベントの影響を示す情報を提示することができる画像監視技術を提供する。
〔システム構成〕
図1は、第一実施形態における監視システム1のハードウェア構成例を概念的に示す図である。第一実施形態における監視システム1は、画像サーバ5、複数の店舗に配置される複数の店舗内システム7、画像監視装置(以降、単に監視装置と略称する場合もある)10等を有する。監視システム1は、各店舗内システム7でそれぞれ撮像された画像を監視する。店舗の数は限定されないため、店舗数nは1以上の整数である。
図2は、第一実施形態における画像サーバ5の処理構成例を概念的に示す図である。画像サーバ5は、店舗毎の画像データベース(DB)17、画像取得部18等を有する。画像DB17及び画像取得部18は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから通信ユニット13を介してインストールされ、メモリ12に格納されてもよい。
図3は、画像DB17の例を示す図である。図3の例では、画像DB17は、各時刻情報と共に、監視カメラ9毎の画像データをそれぞれ格納する。画像データと共に格納される時刻情報は、その画像データの画像の撮像時刻を示す。また、その時刻情報は、店舗内システム7から送信され画像サーバ5で周期的に受信される画像データの、画像サーバ5で受信された時刻が属する周期を特定可能な周期時刻を示してもよい。この周期時刻については、図4を用いて後述する。画像DB17は、図3の例に限定されない。例えば、画像DB17は、時刻情報(2015年3月6日16時6分等)自体を格納しなくてもよい。この場合、時刻情報に代えて、画像データが画像サーバ5で受信された時刻が属する周期を特定可能な周期番号を示す情報が格納されてもよい。図3に例示される時刻情報や周期番号等で示される時刻が、画像DB17に格納される各画像データの時刻となる。
以下、第一実施形態における画像監視方法について図7を用いて説明する。図7は、第一実施形態における監視装置10の動作例を示すフローチャートである。図7に示されるように、画像監視方法は、監視装置10のような少なくとも一つのコンピュータにより実行される。図示される各工程は、例えば、監視装置10の各処理モジュールにより実行される。各工程は、監視装置10の各処理モジュールの上述の処理内容と同様であるため、各工程の詳細は、適宜省略される。
上述したように、第一実施形態では、イベント情報が取得され、或る監視カメラ9で撮像された画像の中の、そのイベント情報に対応する基準時刻の前後の画像が比較され、この比較結果に基づいて被害状況が判定される。そして、その監視カメラ9で撮像された画像に当該判定された被害状況を示す情報を関連付けた表示が出力される。結果、この出力を見た者は、イベント情報により示されるイベント(例えば、地震)の発生による被害状況を監視カメラ9で撮像された画像と共に容易に把握することができる。即ち、第一実施形態によれば、イベント情報により示されるイベントの影響を示す情報を提示することができる。このように、第一実施形態では、取得されるイベント情報に対応する基準時刻より前の画像が正常時の被害の無い状態を表すと仮定して、その基準画像と基準時刻より後の各画像との比較により、被害状況が判定される。これは、直前及び直後の画像の比較を時系列に並ぶ各画像について順次実行することにより何かを検出する手法とは異なる。
上述のイベント情報により示され得るイベントの中には、余震のように、或るイベントが発生した後に引き続き起こるイベントが存在する。以降、このようなイベントを連動イベントと表記し、その連動イベントに先行するイベントを先行イベントと表記する場合もある。一般的には、先行イベントよりも連動イベントのほうが、その規模は小さくなる。しかし、先行イベントで被害が起きなくても、その後の連動イベントで被害が顕著化する場合もある。例えば、本震が先行イベントであり、余震が連動イベントである。上述の第一実施形態では、このような連動イベントの扱いについて触れられなかっため、第二実施形態では、連動イベントの扱いを中心に説明される。以下、第二実施形態における監視システム1について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
第二実施形態における監視装置10は、第一実施形態と同様の処理構成を有する。
イベント取得部22は、先行イベントを示す第一イベント情報の取得後、連動イベントを示す第二イベント情報を取得する。
連動イベントの扱い方には、次のような二つの方法が存在する。比較部23は、次のような二つの方法のいずれか一方を実行する。しかしながら、比較部23は、連動イベントを他の方法で扱ってもよい。
第一方法は、第二イベント情報に対応する第二基準時刻が、第一イベント情報に対応する第一基準時刻から所定期間経過する前の時刻を示すか否かを考慮する。比較部23は、第一イベント情報の取得時には、第一実施形態と同様に、監視カメラ9により撮像された画像の中から第一基準時刻より前の画像を基準画像として選択する。第二イベント情報の取得時には、比較部23は、第二イベント情報に対応する第二基準時刻が当該第一基準時刻から所定期間経過する前の時刻を示すか否かを判定し、判定結果に応じて新たな基準画像を選択するか否かを決定する。具体的には、比較部23は、第二基準時刻が第一基準時刻から所定期間経過する前の時刻を示す場合、第一イベント取得時に選択された基準画像を維持し、第二イベント取得に応じて新たな基準画像の選択を行わない。一方、比較部23は、第二基準時刻が第一基準時刻から所定期間経過後の時刻を示す場合、取得された第二イベント情報に基づいて新たな基準画像を選択する。
第二方法は、上述のような所定期間の経過を考慮することなく、第一イベント情報取得時に判定された被害状況を考慮する。比較部23は、第一イベント情報の取得時には、第一実施形態と同様に、監視カメラ9により撮像された画像の中から第一基準時刻より前の画像を基準画像として選択する。比較部23は、選択された基準画像と第一基準時刻より後の画像とを比較することで被害状況を判定する。比較部23は、判定された被害状況を保持しておく。第二イベント情報の取得時には、比較部23は、その第一基準時刻に基づいて選択された基準画像を用いてその監視カメラ9に関して判定された前回の被害状況に応じて新たな基準画像を選択するか否かを決定する。具体的には、比較部23は、保持されている被害状況が被害有り又は不明である場合、その保持されている基準画像をそのまま維持し、第二イベント取得に応じて新たな基準画像の選択を行わない。一方、比較部23は、第一イベント情報取得時に既に判定されている被害状況が被害無しである場合、第二イベント取得に応じて新たな基準画像の選択を行う。
以下、第二実施形態における画像監視方法について図8及び図9を用いて説明する。図8は、第二実施形態における監視装置10の動作例(第一方法)の一部を示すフローチャートである。図9は、第二実施形態における監視装置10の動作例(第二方法)の一部を示すフローチャートである。図8及び図9に示されるように、画像監視方法は、監視装置10のような少なくとも一つのコンピュータにより実行される。図示される各工程は、例えば、監視装置10の各処理モジュールにより実行される。各工程は、監視装置10の各処理モジュールの上述の処理内容と同様であるため、各工程の詳細は、適宜省略される。
監視装置10は、第一実施形態と同様に、イベント情報を取得する(S71)。ここでは、取得されたイベント情報よりも前に、他のイベント情報が取得され、この取得された他のイベント情報に基づいて、監視装置10が第一実施形態と同様に動作していると仮定する。
イベント情報の取得後(S71)、監視装置10は、保持されている前回の被害状況を確認する(S91)。言い換えれば、監視装置10は、先に取得されたイベント情報に対応する第一基準時刻に基づいて選択された基準画像を用いて同一の監視カメラ9に関して判定された前回の被害状況を確認する(S91)。
第二実施形態では、或るイベント情報が取得された場合に、そのイベント情報に対応する基準時刻に基づいて新たに基準画像を選択するか、そのイベント情報よりも前に取得されているイベント情報に対応する基準時刻に基づいて既に選択されている基準画像を維持するかが判断される。従って、第二実施形態によれば、被害が生じた状態を表す画像を基準画像とすることによる被害状況の誤判定を防ぐことができる。
上述の各実施形態では、取得されるイベント情報により示され得るイベント種については特に言及されなかった。上述の各実施形態では、地震といった一種のイベントを示すイベント情報が取得対象とされてもよい。ところが、監視システム1は、複数種の所定イベントを示す複数種のイベント情報を取得することもできる。例えば、地震の発生を示すイベント情報、大雨、暴風、暴風雪、大雪の特別警報を示すイベント情報など、複数種のイベント情報が取得可能である
第三実施形態における監視装置10は、第一実施形態及び第二実施形態と同様の処理構成を有する。
以下、第三実施形態における画像監視方法について、図7を用いて説明する。
(S72)において、監視装置10は、(S71)で取得されたイベント情報により示されるイベント種を取得し、そのイベント種に対応する所定期間を特定する。監視装置10は、取得されたイベント情報に対応する基準時刻からその特定された所定期間前の画像を基準画像として選択する(S72)。他の工程については、第一実施形態及び第二実施形態と同様である。
上述のように第三実施形態では、取得されたイベント情報により示されるイベント種に基づいて、そのイベント情報に対応する基準時刻からどのくらい前の画像を基準画像とするかが判断される。これにより、第三実施形態によれば、複数種のイベント情報を扱っても、被害が生じていない通常時の状態を表す画像を基準画像とすることができ、被害状況の誤判定を防ぐことができる。
以下、第四実施形態における画像監視装置及び画像監視方法について図11及び図12を用いて説明する。また、第四実施形態は、この画像監視方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該少なくとも1つのコンピュータが読み取り可能な記録媒体であってもよい。
撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
を備える画像監視装置。
2. 前記比較手段は、前記比較の結果に基づいて被害状況を判定し、
前記表示処理手段は、前記撮像装置により撮像された画像に前記判定された被害状況を示す情報を関連付けた表示を前記表示部に出力する、
1.に記載の画像監視装置。
3. 前記比較手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、被害状況が不明と判定し、
前記表示処理手段は、前記撮像装置により撮像される画像が取得されないことを示す情報と被害状況が不明であることを示す情報とを関連付けた表示を前記表示部に出力する、
1.又は2.に記載の画像監視装置。
4. 前記比較手段は、被害状況を不明と判定した後、新たな画像が取得された場合に、前記基準時刻よりも前の画像とその新たな画像とを比較することにより、不明と判定していた被害状況を新たな比較の結果に対応する被害状況に更新し、
前記表示処理手段は、画像が取得されないことを示す情報を前記新たな画像に置き換え、被害状況が不明であることを示す情報を前記更新された被害状況を示す情報に変更する、
3.に記載の画像監視装置。
5. 店舗毎及びその店舗に設置されている撮像装置毎に、撮像装置で撮像された画像を格納する画像格納部を参照する参照手段、
を更に備え、
前記比較手段は、前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、各店舗について被害状況をそれぞれ判定し、
前記表示処理手段は、前記画像格納部に格納される店舗の代表画像又は画像が取得されないことを示す情報と、その店舗について判定された被害状況を示す情報とを店舗毎に関連付けた表示を前記表示部に出力する、
3.又は4.に記載の画像監視装置。
6. 前記表示処理手段は、前記画像格納部に格納される店舗毎の複数の最新画像の中から、前記判定された被害状況を示す画像を各店舗の代表画像としてそれぞれ選択する、
5.に記載の画像監視装置。
7. 前記表示処理手段は、店舗の代表画像又は画像が取得されないことを示す情報と、その店舗の被害状況を示す情報とが関連付けられた表示要素が、各店舗の位置にそれぞれ配置された地図表示を前記表示部に出力する、
5.又は6.に記載の画像監視装置。
8. 前記比較手段は、前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、撮像装置毎に被害状況を判定し、同一店舗に配置された複数の撮像装置について判定された複数の被害状況に基づいて、各店舗について被害状況をそれぞれ判定する、
5.から7.のいずれか1つに記載の画像監視装置。
9. 前記比較手段は、店舗に配置された撮像装置について判定された被害状況及び他の店舗について判定された被害状況に基づいて、その店舗についての被害状況を判定する、
5.から8.のいずれか1つに記載の画像監視装置。
10. 前記イベント取得手段は、第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記比較手段は、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を比較対象となる基準画像として選択し、
前記第二のイベント情報の取得時には、前記第二のイベント情報に対応する第二基準時刻が前記第一基準時刻から所定期間経過する前の時刻を示すか否かを判定し、判定結果に応じて新たな基準画像を選択するか否かを決定する、
1.から9.のいずれか1つに記載の画像監視装置。
11. 前記イベント取得手段は、第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記比較手段は、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を基準画像として選択し、選択された基準画像と第一基準時刻より後の画像とを比較することで被害状況を判定し、
前記第二のイベント情報の取得時には、前記第一基準時刻に基づいて選択された基準画像を用いて前記撮像装置に関して判定された前回の被害状況に応じて新たな基準画像を選択するか否かを決定する、
2.から9.のいずれか1つに記載の画像監視装置。
12. 前記比較手段は、前記基準時刻から前記取得されたイベント情報のイベント種に対応する所定期間前の画像を、比較対象となる基準画像として選択する、
1.から11.のいずれか1つに記載の画像監視装置。
イベント情報を取得し、
撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較し、
前記比較の結果に対応する表示を表示部に出力する、
ことを含む画像監視方法。
14. 前記比較の結果に基づいて被害状況を判定する、
ことを更に含み、
前記出力は、前記撮像装置により撮像された画像に前記判定された被害状況を示す情報を関連付けた前記表示を出力する、
13.に記載の画像監視方法。
15. 前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、被害状況が不明と判定する、
ことを更に含み、
前記出力は、前記撮像装置により撮像される画像が取得されないことを示す情報と被害状況が不明であることを示す情報とを関連付けた前記表示を出力する、
13.又は14.に記載の画像監視方法。
16. 被害状況が不明と判定された後、新たな画像が取得された場合に、前記基準時刻よりも前の画像とその新たな画像とを比較し、
不明と判定されていた被害状況を前記比較の結果に対応する被害状況に更新し、
画像が取得されないことを示す情報を前記新たな画像に置き換え、被害状況が不明であることを示す情報を前記更新された被害状況を示す情報に変更する、
ことを更に含む15.に記載の画像監視方法。
17. 店舗毎及びその店舗に設置されている撮像装置毎に、撮像装置で撮像された画像を格納する画像格納部を参照し、
前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、各店舗について被害状況をそれぞれ判定し、
前記画像格納部に格納される店舗の代表画像又は画像が取得されないことを示す情報と、その店舗について判定された被害状況を示す情報とを店舗毎に関連付けた表示を前記表示部に出力する、
ことを更に含む15.又は16.に記載の画像監視方法。
18. 前記画像格納部に格納される店舗毎の複数の最新画像の中から、前記判定された被害状況を示す画像を各店舗の代表画像としてそれぞれ選択する、
ことを更に含む17.に記載の画像監視方法。
19. 店舗の代表画像又は画像が取得されないことを示す情報と、その店舗の被害状況を示す情報とが関連付けられた表示要素が、各店舗の位置にそれぞれ配置された地図表示を前記表示部に出力する、
ことを更に含む17.又は18.に記載の画像監視方法。
20. 前記各店舗についての被害状況の判定は、
前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、撮像装置毎に被害状況を判定し、
同一店舗に配置された複数の撮像装置について判定された複数の被害状況に基づいて、各店舗について被害状況をそれぞれ判定する、
ことを含む17.から19.のいずれか1つに記載の画像監視方法。
21. 前記各店舗についての被害状況の判定は、店舗に配置された撮像装置について判定された被害状況及び他の店舗について判定された被害状況に基づいて、その店舗についての被害状況を判定することを含む、
17.から20.のいずれか1つに記載の画像監視方法。
22. 第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を比較対象となる基準画像として選択し、
前記第二のイベント情報の取得時には、前記第二のイベント情報に対応する第二基準時刻が前記第一基準時刻から所定期間経過する前の時刻を示すか否かを判定し、この判定結果に応じて新たな基準画像を選択するか否かを決定する、
ことを更に含む13.から21.のいずれか1つに記載の画像監視方法。
23. 第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を基準画像として選択し、
前記選択された基準画像と第一基準時刻より後の画像とを比較することで被害状況を判定し、
前記第二のイベント情報の取得時には、前記第一基準時刻に基づいて選択された基準画像を用いて前記撮像装置に関して判定された前回の被害状況に応じて新たな基準画像を選択するか否かを決定する、
ことを更に含む14.から21.のいずれか1つに記載の画像監視方法。
24. 前記基準時刻から前記取得されたイベント情報のイベント種に対応する所定期間前の画像を比較対象となる基準画像として選択する、
ことを更に含む13.から23.のいずれか1つに記載の画像監視方法。
Claims (14)
- イベント情報を取得するイベント取得手段と、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
を備え、
前記表示処理手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報と被害状況が不明であることを示す情報とを関連付けた表示を前記表示部に出力する、
画像監視装置。 - 前記比較手段は、前記比較の結果に基づいて被害状況を判定し、
前記表示処理手段は、前記撮像装置により撮像された画像に前記判定された被害状況を示す情報を関連付けた表示を前記表示部に出力する、
請求項1に記載の画像監視装置。 - 前記比較手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、被害状況が不明と判定する、
請求項1又は2に記載の画像監視装置。 - イベント情報を取得するイベント取得手段と、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
を備え、
前記表示処理手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報を前記表示部に出力し、
前記比較手段は、
前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、被害状況が不明と判定し、
被害状況を不明と判定した後、新たな画像が取得された場合に、前記基準時刻よりも前の画像とその新たな画像とを比較することにより、不明と判定していた被害状況を新たな比較の結果に対応する被害状況に更新し、
前記表示処理手段は、画像が取得されないことを示す情報を前記新たな画像に置き換え、被害状況が不明であることを示す情報を前記更新された被害状況を示す情報に変更する、
画像監視装置。 - イベント情報を取得するイベント取得手段と、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
店舗毎及びその店舗に設置されている撮像装置毎に、撮像装置で撮像された画像を格納する画像格納部を参照する参照手段と、
を備え、
前記表示処理手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報を前記表示部に出力し、
前記比較手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、被害状況が不明と判定し、
前記比較手段は、前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、各店舗について被害状況をそれぞれ判定し、
前記表示処理手段は、前記画像格納部に格納される店舗の代表画像又は画像が取得されないことを示す情報と、その店舗について判定された被害状況を示す情報とを店舗毎に関連付けた表示を前記表示部に出力する、
画像監視装置。 - 前記表示処理手段は、前記画像格納部に格納される店舗毎の複数の最新画像の中から、前記判定された被害状況を示す画像を各店舗の代表画像としてそれぞれ選択する、
請求項5に記載の画像監視装置。 - 前記表示処理手段は、店舗の代表画像又は画像が取得されないことを示す情報と、その店舗の被害状況を示す情報とが関連付けられた表示要素が、各店舗の位置にそれぞれ配置された地図表示を前記表示部に出力する、
請求項5又は6に記載の画像監視装置。 - 前記比較手段は、前記画像格納部に格納される撮像装置毎の画像の比較結果に基づいて、撮像装置毎に被害状況を判定し、同一店舗に配置された複数の撮像装置について判定された複数の被害状況に基づいて、各店舗について被害状況をそれぞれ判定する、
請求項5から7のいずれか1項に記載の画像監視装置。 - 前記比較手段は、店舗に配置された撮像装置について判定された被害状況及び他の店舗について判定された被害状況に基づいて、その店舗についての被害状況を判定する、
請求項5から8のいずれか1項に記載の画像監視装置。 - イベント情報を取得するイベント取得手段と、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
を備え、
前記表示処理手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報を前記表示部に出力し、
前記イベント取得手段は、第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記比較手段は、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を比較対象となる基準画像として選択し、
前記第二のイベント情報の取得時には、前記第二のイベント情報に対応する第二基準時刻が前記第一基準時刻から所定期間経過する前の時刻を示すか否かを判定し、判定結果に応じて新たな基準画像を選択するか否かを決定する、
画像監視装置。 - イベント情報を取得するイベント取得手段と、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する比較手段と、
前記比較の結果に対応する表示を表示部に出力する表示処理手段と、
を備え、
前記表示処理手段は、前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報を前記表示部に出力し、
前記イベント取得手段は、第一のイベント情報の取得の後、第二のイベント情報を取得し、
前記比較手段は、
前記第一のイベント情報の取得時には、前記撮像装置により撮像された画像の中から前記取得された第一イベント情報に対応する第一基準時刻より前の画像を基準画像として選択し、選択された基準画像と第一基準時刻より後の画像とを比較することで被害状況を判定し、
前記第二のイベント情報の取得時には、前記第一基準時刻に基づいて選択された基準画像を用いて前記撮像装置に関して判定された前回の被害状況に応じて新たな基準画像を選択するか否かを決定し、
前記表示処理手段は、前記撮像装置により撮像された画像に前記判定された被害状況を示す情報を関連付けた表示を前記表示部に出力する、
画像監視装置。 - 前記比較手段は、前記基準時刻から前記取得されたイベント情報のイベント種に対応する所定期間前の画像を、比較対象となる基準画像として選択する、
請求項1から11のいずれか1項に記載の画像監視装置。 - 少なくとも一つのコンピュータにより実行される画像監視方法において、
イベント情報を取得し、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較し、
前記比較の結果に対応する表示を表示部に出力し、
前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報と被害状況が不明であることを示す情報とを関連付けた表示を前記表示部に出力する、
ことを含む画像監視方法。 - 少なくとも一つのコンピュータを、
イベント情報を取得する手段、
店舗に設置されている撮像装置により撮像された画像の中の、前記取得されたイベント情報に対応する基準時刻の前後の画像を比較する手段、
前記比較の結果に対応する表示を表示部に出力する手段、
前記撮像装置により撮像された前記基準時刻より後の画像が取得されていない場合、前記撮像装置により撮像される画像が取得されないことを示す情報と被害状況が不明であることを示す情報とを関連付けた表示を前記表示部に出力する手段、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015055242 | 2015-03-18 | ||
JP2015055242 | 2015-03-18 | ||
PCT/JP2016/054816 WO2016147789A1 (ja) | 2015-03-18 | 2016-02-19 | 画像監視装置及び画像監視方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016147789A1 JPWO2016147789A1 (ja) | 2017-12-28 |
JP6631618B2 true JP6631618B2 (ja) | 2020-01-15 |
Family
ID=56918825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017506154A Active JP6631618B2 (ja) | 2015-03-18 | 2016-02-19 | 画像監視装置及び画像監視方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180082413A1 (ja) |
JP (1) | JP6631618B2 (ja) |
WO (1) | WO2016147789A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102674150B1 (ko) * | 2016-12-27 | 2024-06-10 | 한화비전 주식회사 | 가변 이벤트 검출 조건을 가지는 촬상 장치 |
US11232685B1 (en) * | 2018-12-04 | 2022-01-25 | Amazon Technologies, Inc. | Security system with dual-mode event video and still image recording |
JP7193728B2 (ja) * | 2019-03-15 | 2022-12-21 | 富士通株式会社 | 情報処理装置および蓄積画像選択方法 |
JPWO2021033703A1 (ja) * | 2019-08-22 | 2021-02-25 | ||
EP3817371A1 (en) * | 2019-10-28 | 2021-05-05 | Axis AB | Method and system for composing a video material |
CN113505667B (zh) * | 2021-06-29 | 2023-11-17 | 浙江华是科技股份有限公司 | 一种变电站监控方法、装置、***及计算机存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02182093A (ja) * | 1989-01-07 | 1990-07-16 | Mitsubishi Electric Corp | 監視装置 |
JPH08149455A (ja) * | 1994-11-21 | 1996-06-07 | Nittan Co Ltd | 防犯システム |
US20030025599A1 (en) * | 2001-05-11 | 2003-02-06 | Monroe David A. | Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events |
JP2004015110A (ja) * | 2002-06-03 | 2004-01-15 | Aiful Corp | 監視システム、監視方法及びプログラム |
JP2004265180A (ja) * | 2003-03-03 | 2004-09-24 | Hitachi Ltd | 監視機器装置 |
JP2005151150A (ja) * | 2003-11-14 | 2005-06-09 | Marantz Japan Inc | 画像伝送システム |
JP5248780B2 (ja) * | 2003-12-31 | 2013-07-31 | ギブン イメージング リミテッド | 画像ストリームを表示するシステムおよび方法 |
JP4321455B2 (ja) * | 2004-06-29 | 2009-08-26 | ソニー株式会社 | 状況認識装置、システム |
JP2010181920A (ja) * | 2009-02-03 | 2010-08-19 | Optex Co Ltd | エリア管理システム |
JP5867432B2 (ja) * | 2013-03-22 | 2016-02-24 | ソニー株式会社 | 情報処理装置、記録媒体および情報処理システム |
JP6239256B2 (ja) * | 2013-04-16 | 2017-11-29 | 株式会社東芝 | 映像監視システム及びデコーダ |
-
2016
- 2016-02-19 JP JP2017506154A patent/JP6631618B2/ja active Active
- 2016-02-19 US US15/558,599 patent/US20180082413A1/en not_active Abandoned
- 2016-02-19 WO PCT/JP2016/054816 patent/WO2016147789A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016147789A1 (ja) | 2016-09-22 |
US20180082413A1 (en) | 2018-03-22 |
JPWO2016147789A1 (ja) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6631618B2 (ja) | 画像監視装置及び画像監視方法 | |
JP7168052B2 (ja) | 監視システム及び監視方法 | |
US20190244504A1 (en) | Fire monitoring system | |
JP2018072881A (ja) | 火災監視システム | |
JP2018088105A (ja) | 監視システム | |
KR101687477B1 (ko) | 빅데이터를 이용한 이벤트 발생 정보 제공 방법 및 이벤트 발생 정보 제공 시스템 | |
JP5388829B2 (ja) | 侵入物体検知装置 | |
KR102149832B1 (ko) | 딥러닝 기반의 자동 폭력 감지 시스템 | |
US20100002142A1 (en) | System and method for video-processing algorithm improvement | |
JP4999794B2 (ja) | 静止領域検出方法とその装置、プログラム及び記録媒体 | |
US9202283B2 (en) | Method and device for detecting falls by image analysis | |
US11836935B2 (en) | Method and apparatus for detecting motion deviation in a video | |
JP2009239507A (ja) | 監視システム | |
US10922819B2 (en) | Method and apparatus for detecting deviation from a motion pattern in a video | |
US10810856B2 (en) | Dangerous situation detection method and apparatus using time series analysis of user behaviors | |
CN112949442B (zh) | 一种异常事件预识别方法、装置、电子设备及监控*** | |
JP2012098830A (ja) | 監視装置、監視方法、及びプログラム | |
CN116597603B (zh) | 一种智能消防火灾报警***及其控制方法 | |
US20230368627A1 (en) | Transmitting a security alert which indicates a location in a recipient's building | |
KR101070664B1 (ko) | 소방용 플레임 감지 모듈 및 소방용 플레임 감지 방법 | |
CN114519925A (zh) | 一种噪声报警方法、装置、设备、***及介质 | |
WO2019228218A1 (zh) | 监控方法、装置、服务器和存储介质 | |
CN116612414A (zh) | 视频检测方法、***、电子设备及存储介质 | |
KR20100027331A (ko) | 관제 영상 모니터링 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190918 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6631618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |