JP6948128B2 - 映像監視装置及びその制御方法及びシステム - Google Patents

映像監視装置及びその制御方法及びシステム Download PDF

Info

Publication number
JP6948128B2
JP6948128B2 JP2017004617A JP2017004617A JP6948128B2 JP 6948128 B2 JP6948128 B2 JP 6948128B2 JP 2017004617 A JP2017004617 A JP 2017004617A JP 2017004617 A JP2017004617 A JP 2017004617A JP 6948128 B2 JP6948128 B2 JP 6948128B2
Authority
JP
Japan
Prior art keywords
image
attention level
designated
attention
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017004617A
Other languages
English (en)
Other versions
JP2018113661A (ja
Inventor
矢野 光太郎
光太郎 矢野
河合 智明
智明 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017004617A priority Critical patent/JP6948128B2/ja
Priority to US15/856,577 priority patent/US11048947B2/en
Priority to CN201810020855.9A priority patent/CN108307153A/zh
Publication of JP2018113661A publication Critical patent/JP2018113661A/ja
Priority to US17/326,418 priority patent/US11830251B2/en
Application granted granted Critical
Publication of JP6948128B2 publication Critical patent/JP6948128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G9/00Bed-covers; Counterpanes; Travelling rugs; Sleeping rugs; Sleeping bags; Pillows
    • A47G9/10Pillows
    • A47G9/1027Details of inflatable pillows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4666Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Otolaryngology (AREA)
  • Pulmonology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、複数のカメラによる映像を監視する技術に関するものである。
近年、監視カメラの設置台数は増え続け、監視システムの利用の重要性が増している。オフィスや大型商業施設においては、ビルの設備管理の目的で多くの監視カメラが設置され、防災センターにて一括管理されているが、それだけに留まらず、不審者の検知や混雑状況の監視なども期待されている。スポーツ競技やコンサートを行うイベント会場やその周辺市街地においても、これらの機能を活用する提案もある。更には、けんかや転倒などの異常を検知したいという要望もある。
しかしながら、カメラの設置数の増加は、確認対象の映像数の増加を意味し、それらを全て確認することはますます困難となる。一般には、監視者が所定の時間間隔で監視する映像を切替えるものであるが、このような切替方法では、重要なカメラ映像が監視できなくなってしまう恐れがある。
このような課題に対応するために、本出願人は特許文献1において、監視映像から特徴量を算出し、この算出した特徴量に基づいて自動的に異常を検知する方法を提案した。このような異常検知結果にもとづいて監視映像を自動的に切り替えることで監視者の作業を軽減することができる。
一方、特許文献2では、監視者の視線や操作履歴から監視映像の異常度合いを学習し、異常事象の発見を早めることで監視者の作業を軽減する方法が提案されている。
特開2016−81355号公報 特開2008−288870号公報
特許文献1は、事前にラベル付けされた正常ラベルと異常ラベルにもとづいて学習した観測モデルから異常を検知する。このため、必ずしも監視者の意図に合った検知結果が得られるとは言えず、監視者が確認したい異常を取りこぼしてしまう恐れがある。
また、特許文献2では、監視者の視線や操作履歴を反映した異常の学習を行うが、異常度をデータベースに蓄積して検索するようにしているのでデータ量が多くなるに従って検知に時間が掛るといった問題がある。特に、多くのカメラ映像を監視する場合には、カメラ数の増大に伴い、検索処理に係る時間は長くなる。
本発明は、上記問題に鑑みなされたものであり、複数の撮像装置からの画像に対し、監視者の意図を汲んだ監視画像の切り替えを自動的に行い、もって監視者の作業に係る負担を軽減する技術を提供しようとするものである。
この課題を解決するため、例えば本発明の映像監視装置は以下の構成を備える。すなわち、
複数の撮像装置からの画像を取得する取得手段と、
該取得手段により取得した複数の画像それぞれについて、ユーザの注目度を推定する推定手段と、
ユーザからの指示に応じて、前記複数の画像の1つを表示すべき画像として指定する指定手段と、
該指定手段で指定された画像の注目度が前記指定手段で指定されなかった画像の注目度より高くなるように、前記推定手段を学習させる学習手段と、
前記推定手段が推定した各画像の注目度に基づいて、前記複数の画像のうち注目度が他の画像の注目度より大きい画像を選択する選択手段とを有する。
本発明によれば、複数の撮像装置からの画像に対し、監視者の意図を汲んだ監視画像の切り替えを自動的に行い、もって監視者の作業に係る負担を軽減することが可能になる。
実施形態の映像監視システムの機能構成を示す図。 実施形態の映像監視システムの学習時の処理の流れを示す図。 実施形態の映像監視システムの注目度推定手段の構成を示す図。 実施形態の映像監視システムの注目度を推定する為のニューラルネットワークを示す図。 実施形態の映像監視システムの表示画面の例を示す図。 実施形態の映像監視システムの画面切替操作後の表示画面を示す図。 実施形態の映像監視システムの自動制御時の処理の流れを示す図。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
図1は、実施形態に係る映像監視システムの機能構成を示す図である。映像監視システムは、複数のカメラ200−1〜N(N≧2)、表示部300、画面切替操作部400、画像取得部110、注目度推定部120、推定パラメータ記憶部130、画面切替制御部140、操作情報取得部150、及び、学習部160を有する。カメラ200−1〜Nと画像所得部110との通信は有線、無線を問わない。
表示部300は、液晶パネル、外部モニタ等であり、カメラで撮影した画像および各種の情報を出力する。画面切替操作部400は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、複数台のカメラで撮影した映像の画面切替操作を入力する。図中、参照符号110〜160は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、および、メモリで構成される演算処理装置に実装される。そして、これらが後述する動作プログラムを実行することで実現する。各処理部は、互いに通信可能に構成され、バス等により接続されている。
画像取得部110は、カメラ200−1〜Nで撮影した画像データを取得する。画像データは静止画像、または、時系列画像データである。カメラ200−1〜Nがネットワーク上に設置されている場合には、各カメラのネットワーク上の名前やアドレス(IPアドレス等)から、それぞれの画像がどのカメラから取得したのかを特定できる。実施形態では、カメラより取得した画像がどのカメラから取得したものであるかを示す情報をカメラ識別番号として表す。
表示部300は、画像取得部110で取得した画像を表示する。注目度推定部120は、推定パラメータ記憶部130に記憶されているパラメータを用いて画像取得部110で取得した各画像に対する、ユーザ(監視者)の注目の度合い表すための指標値(以下、注目度)を推定する。当然、監視者が画面切替操作で選択した画面(画像)の方が、非選択の画像よりも注目度は高い。
画面切替制御部140は、注目度推定部120が推定した複数のカメラの各画像の注目度から表示部300に表示する画面を自動的に切替える。画面切替操作部400は、表示部300に表示する画面を監視者の操作にしたがって手動で切替える。操作情報取得部150は、画面切替操作部400の操作情報を取得する。学習部160は、注目度推定部120が推定した複数のカメラの注目度と操作情報取得部150で取得した操作情報から注目度推定部120を学習し、推定パラメータ記憶部130に記憶する。
以下、実施形態に係る映像監視システムの学習時の動作を図2に示す処理の流れに従って説明する。
画像取得部110は、カメラ200−1〜Nで撮影した画像データを取得する(S100)。取得する画像データはRGB各8ビットの画素からなる二次元データであり、時系列に順次取得する。取得した画像データは不図示のメモリに保持される。
注目度推定部120は、推定パラメータ記憶部130に記憶されているパラメータを用いて、画像取得部110で取得した各画像の注目度を推定する。注目度推定部120の構成を図3に示す。図に示すように注目度推定部120は、領域分割部121、特徴抽出部122、推定部123、統合部124により構成される。領域分割部121は、画像取得部100で取得した着目画像データを、水平、垂直方向に、それぞれ予め設定された数で分割することで、同じ大きさの複数の画像領域を生成する。そして、分割した各画像領域を所定のサイズに正規化する(S110)。本実施例では、同じ大きさの領域(垂直方向H画素、水平方向W画素)に分割した画像を正規化するが、これに限らない。例えば、画面中心ほど小さい領域に分割しても良い。また、分割する領域は、互いにその一部が重複するようにしてもよく、領域の大きさは同一でなくても構わない。
特徴抽出部122および推定部123は、領域分割部121で分割した画像領域毎に注目度を推定する(S120)。特徴抽出部122および推定部123は、図4に示す深層ニューラルネットワークで構成する。このニューラルネットワークでは解像度H×Wの局所領域のRGB画像を入力として5層構成の畳込み型ニューラルネットワークの演算を行い、その演算結果を第6層、第7層の全結合ニューラルネットワークを通して出力を得る。図中、f1〜f5は夫々第1層から第5層の畳込み演算のフィルタサイズを表し、d1〜d7は夫々第1層から第7層の出力チャネル数を表す。特徴抽出部122は、第1層から第5層の畳込み型ニューラルネットワークで構成され、画像特徴量を得る。この画像特徴量は推定部123に供給される。推定部123を第6層、第7層の全結合ニューラルネットワークで構成し、注目度を出力する。注目度は監視映像に対して監視者が注目したい度合いを表す値である。
注目度推定部120は領域分割部121で分割した領域数分、上記の推定処理を繰り返す。注目度推定部120の統合部124は、注目度推定部120の推定部123の出力を統合する(S130)。本実施形態では、複数の領域の夫々に対して推定した注目度を比較し、最も高い注目度を求めるものとする。ただし、この他、複数の領域から推定した注目度を平均してもよいし、他の統合方法を用いてもよい。
一方、表示部300は、画像取得部110で取得した画像を表示する(S140)。表示部300に表示する画面の一例を図5に示す。図中、参照符号Fはメインの画面(ユーザが特に注視すべき画面)、参照符号F1、F2…の夫々は、カメラ200−1、200−2…からのサブ画面を表す。この例では、メインの画面Fにカメラ200−1の画像が表示されていることを示している。なお、図示では、サブ画面は4つの例であるが、水平方向にスクロールすることで、5つ以上の画面のうちの4つを表示するようにしても良いし、サブ画面の個数を適宜設定できるようにしても構わない。
表示画面切替操作部400は、表示部300に表示する画面を監視するユーザからの画面切替操作を受け付け、表示部300に表示する画面を切り替える(S150)。画面切替操作後の画面の例を図6に示す。図6は、ユーザがカメラ200−1からカメラ200−2からの映像にメイン画面を切り替えた例を示している。図では、ユーザはカメラ200で人物が密集しているのを見て画面を切り替えた例を示している。なお、この切替操作は、例えば、ユーザがポインティングデバイスやキーボード等からサブ画面を指定することで行うものとする。このS100乃至S150の処理を、N回(カメラの台数分)繰り返す。
操作情報取得部150は、画面切替操作部400の操作情報を取得する(S160)。ここで取得する操作情報は、選択した画像のカメラを特定するカメラ識別番号である。学習部160は、注目度推定部120が推定した複数のカメラで得た画像の注目度と、操作情報取得部150で取得したカメラ識別番号を学習データとして取得する(S170)。 そして、ユーザが画像の1つを選択しなかった場合には、次の画像取得のため、処理はS100に戻る。
一方、ユーザが画像の1つを選択した場合には、処理をS180進める。このS180にて、学習部160は、取得した学習データから注目度推定部120で用いるパラメータを更新し、推定パラメータ記憶部130に記憶する(S180)。
そして、各カメラからの画像の取得する回数が予め設定された値になるまで、上記処理を繰り返す。
ニューラルネットワークの学習は平均損失の勾配から推定パラメータを求める確率的勾配降下法を用いる。注目度推定部120が推定した注目度のうち、カメラ識別番号に対応するカメラから得たS130で求めた統合後の注目度をAp、その他のカメラから得たS120で求めた注目度をAm iとする。但し、iはデータのインデックスを表す値である。本実施形態では平均損失としてユーザが選択したカメラの注目度と選択しなかった注目度の差異を評価する。損失関数は以下の式1に従って求める。
L=ΣI(Ap−Am i<0)…(式1)
但し、I()は指示関数であり、括弧の中が真の時に1、それ以外の時に0の値を出力する。また、Σはインデックスiの学習データ数分の総和を表す。学習に用いるデータは全てを用いてもよいし、ランダムに所定数分選択してもかまわない。
学習部160は注目度推定部120の推定部123、すなわち図4に示したニューラルネットワークの第6層および第7層の各パラメータを所定の微小量だけ変化させて得た注目度推定値から、式1に基づく勾配を夫々求めていく。そして、平均損失が小さくなるように、推定パラメータを学習させていく。つまり、選択した画像の注目度と非選択画像の注目度との差が大きくなるように、推定パラメータを更新させていくことで学習を行う。学習部160は、求めたパラメータを推定パラメータ記憶部130に記憶して、推定パラメータを更新する。
以上で実施形態における学習時の動作は終了する。上記では、学習ステージの処理を、各カメラからの画像の取得回数が所定回数になることをトリガに実行するものとした。しかしながら、選択操作の回数が多いほど高い学習効果が期待できるので、画像取得とユーザよる画像選択操作の回数が予め設定された回数に到達することを条件にしても良い。
次に、実施形態に係る映像監視システムの自動画面切替制御時(運用ステージ)の表示制御に係る動作を図7に示す処理の流れに従って説明する。
画像取得部110は、カメラ200−1乃至Nで撮影した画像データを取得する(S200)。注目度推定部120の領域分割部121は、画像取得部100で取得した各画像データを垂直、水平方向それぞれに予め設定された数だけ分割することで、同じ大きさの画像領域に分割する。そして、画像取得部110は、分割した各画像領域を予め設定された所定のサイズに正規化する(S210)。
注目度推定部120の特徴抽出部122および推定部123は、領域分割部121で分割した領域毎に注目度を推定する(S220)。このとき、前述した学習時の処理で推定パラメータが更新された場合は最新のパラメータを用いて注目度を推定する。また、注目度推定部120は領域分割部121で分割した領域数分、前記推定処理を繰り返す。
注目度推定部120の統合部124は、注目度推定部120の推定部123の出力を統合する(S230)。
一方、表示部300は、画像取得部110で取得した画像をサブ画面に表示する(S240)。カメラ200−1乃至Nに対して、カメラ台数分、S200からS240の処理を繰り返す。
画面切替制御部140は、カメラ毎のS230で求めた統合後の注目度を比較し、注目度の最も大きい値を持つカメラのカメラ識別番号を得る(S250)。
画面切替制御部140は、求めたカメラ識別番号の画像を、表示部300のメイン画面に表示することで、画面の自動的に切り替えを行う(S260)。
以上で自動制御時の動作は終了する。なお、不図示の操作部を介して自動制御終了の指示があるまで処理を継続して行う。
以上説明したように、本実施形態では、カメラ毎に画像から推定した注目度を用いて画面を切り替える操作からユーザが選んだカメラの注目度がその他のカメラの注目度より大きくなるように学習を行う。このため、ユーザの意図を汲んだ画面切り替えの学習が可能となる。また、学習したパラメータを更新すればよいのでカメラ数が増えても処理時間が問題になることはない。
なお、実施形態において、注目度推定部をニューラルネットワークで構成するようにしたが、サポートベクターマシン等の他の機械学習による推定部で構成することも可能である。
また、実施形態における注目度推定部は静止画から注目度を推定するようにしたが、時系列画像の複数フレームの領域を結合した時空間画像(動画像)から注目度を推定するようにしてもよい。
例えばカメラが1秒当たり30フレームで撮像する場合、例えば直近の時間軸に並んだ30個(1秒間の場合)の特徴量又は上記実施形態で示した注目度を入力するニューラルネットワークを用いる。そして、ユーザが選択(注目)したカメラからの時間軸映像が、非選択のカメラからの時間軸映像と区別がつくように学習させればよい。
また、本実施形態において、学習部は注目度推定部が推定する画像中の複数の推定結果を領域毎に学習データとして取得するようにしたが、注目度推定部の統合部で一つの推定結果として統合した後にカメラ画像毎に学習データとするようにしてもよい。あるいは、注目度推定部を複数の推定結果を再帰型のニューラルネットワークを用いて統合して推定するようにし、学習部でその出力を学習データとして取得するようにしてもよい。再帰型のニューラルネットワークとしては、RNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いてもよい。
また、実施形態において、学習部は画面切替操作部で選択したカメラの注目度がその他のカメラの注目度よりも大きくなるように学習するようにしたが、画面切替操作前後の情報を用いてもよい。例えば、選択したカメラの注目度が選択前にメインの画面に映っているカメラの注目度よりも大きくなるように学習するようにしてもよい。
また、ユーザによる画面切替操作の発生時刻にもとづいて、学習ステージと画面切替ステージ(運用ステージ)を自動的に切り替えるようにしてもよい。
また、上記実施形態では、学習ステージにて、カメラ200−1乃至Nから画像を取得するものとして説明した。例えばカメラ200−1乃至Nで過去(前日等)に撮像した画像を、それぞれのカメラ識別番号と対応付けてハードディスク等のストレージデバイスに記憶しておく。そして、そのストレージデバイスから各カメラの画像を取得しては、ユーザが選択するという操作を繰り返して学習させても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110…画像取得部、120…注目度推定部、130…推定パラメータ記憶部、140…画面切換制御部、150…操作情報取得部、160…学習部、200−1〜N…カメラ、300…表示部、400…画面切換操作部

Claims (10)

  1. 複数の撮像装置からの画像を取得する取得手段と、
    該取得手段により取得した複数の画像それぞれについて、ユーザの注目度を推定する推定手段と、
    ユーザからの指示に応じて、前記複数の画像の1つを表示すべき画像として指定する指定手段と、
    該指定手段で指定された画像の注目度が前記指定手段で指定されなかった画像の注目度より高くなるように、前記推定手段を学習させる学習手段と、
    前記推定手段が推定した各画像の注目度に基づいて、前記複数の画像のうち注目度が他の画像の注目度より大きい画像を選択する選択手段と
    を有することを特徴とする映像監視装置。
  2. 前記推定手段は、設定されたパラメータに基づいて前記注目度を推定し、
    前記学習手段は、前記指定手段で指定された画像の注目度が前記指定手段で指定されなかった画像の注目度より高くなるように前記設定されたパラメータを更新することで、前記推定手段を学習させることを特徴とする請求項1に記載の映像監視装置。
  3. 前記学習手段は、前記パラメータの更新の回数が予め設定された回数になるまで継続することを特徴とする請求項2に記載の映像監視装置。
  4. 前記学習手段は、ユーザによる所定の指示があるまで継続することを特徴とする請求項1または2に記載の映像監視装置。
  5. 前記学習手段は、ユーザによる画像の選択操作の時刻に基づいて学習を行うことを特徴とする請求項1乃至4のいずれか1項に記載の映像監視装置。
  6. 前記推定手段は、
    前記複数の画像のそれぞれを複数の領域に分割する分割手段と、
    与えられたパラメータに従って、分割した領域それぞれについて特徴量を推定し、各領域の特徴量を統合した値に基づいて前記注目度を求める統合手段と、
    を含むことを特徴とする請求項1乃至5のいずれか1項に記載の映像監視装置。
  7. 前記推定手段は、前記複数の撮像装置からの複数フレームを結合した時空間画像から前記注目度を推定することを特徴とする請求項1乃至6のいずれか1項に記載の映像監視装置。
  8. 取得手段が、複数の撮像装置からの画像を取得する取得工程と、
    推定手段が、前記取得工程で取得した複数の画像それぞれについて、ユーザの注目度を推定する推定工程と、
    指定手段が、ユーザからの指示に応じて、前記複数の画像の1つを表示すべき画像として指定する指定工程と、
    学習手段が、前記指定工程で指定された画像の注目度が前記指定手段で指定されなかった画像の注目度より高くなるように、前記推定手段を学習させる学習工程と、
    選択手段が、前記推定工程で推定された各画像の注目度に基づいて、前記複数の画像のうち注目度が他の画像の注目度より大きい画像を選択する選択工程と
    を有することを特徴とする映像監視装置の制御方法。
  9. コンピュータが読み込み実行することで、前記コンピュータに、請求項8に記載の方法が有する各工程を実行させるためのプログラム。
  10. 映像監視システムであって、
    複数の撮像装置と、
    前記複数の撮像装置のそれぞれと通信可能に接続され、それぞれが撮像した画像を表示する映像監視装置とを含み、
    前記映像監視装置は、
    前記複数の撮像装置から取得した複数の画像それぞれについて、ユーザの注目度を推定する推定手段と、
    ユーザからの指示に応じて、前記複数の画像の1つを表示すべき画像として指定する指定手段と、
    該指定手段で指定された画像の注目度が前記指定手段で指定されなかった画像の注目度より高くなるように、前記推定手段を学習させる学習手段と、
    前記推定手段が推定した各画像の注目度に基づいて、前記複数の画像のうち注目度が他の画像の注目度より大きい画像を選択する選択手段と
    を有することを特徴とする映像監視システム。
JP2017004617A 2017-01-13 2017-01-13 映像監視装置及びその制御方法及びシステム Active JP6948128B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017004617A JP6948128B2 (ja) 2017-01-13 2017-01-13 映像監視装置及びその制御方法及びシステム
US15/856,577 US11048947B2 (en) 2017-01-13 2017-12-28 Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system
CN201810020855.9A CN108307153A (zh) 2017-01-13 2018-01-10 视频监视装置及其控制方法、存储介质和视频监视***
US17/326,418 US11830251B2 (en) 2017-01-13 2021-05-21 Video monitoring apparatus, method of controlling the same, computer-readable storage medium, and video monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017004617A JP6948128B2 (ja) 2017-01-13 2017-01-13 映像監視装置及びその制御方法及びシステム

Publications (2)

Publication Number Publication Date
JP2018113661A JP2018113661A (ja) 2018-07-19
JP6948128B2 true JP6948128B2 (ja) 2021-10-13

Family

ID=62839023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017004617A Active JP6948128B2 (ja) 2017-01-13 2017-01-13 映像監視装置及びその制御方法及びシステム

Country Status (3)

Country Link
US (2) US11048947B2 (ja)
JP (1) JP6948128B2 (ja)
CN (1) CN108307153A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6948128B2 (ja) * 2017-01-13 2021-10-13 キヤノン株式会社 映像監視装置及びその制御方法及びシステム
CN108846841A (zh) * 2018-07-02 2018-11-20 北京百度网讯科技有限公司 显示屏质量检测方法、装置、电子设备及存储介质
WO2020161799A1 (ja) * 2019-02-05 2020-08-13 日本電気株式会社 学習装置、学習方法、及び制御プログラムが格納された非一時的なコンピュータ可読媒体、並びに、推定装置
JP7510789B2 (ja) 2020-06-03 2024-07-04 日本放送協会 映像区間重要度算出モデル学習装置およびそのプログラム、ならびに、要約映像生成装置およびそのプログラム
CN111918112B (zh) * 2020-06-29 2021-07-20 北京大学 一种视频优化的方法、装置、存储介质及终端
CN113011399B (zh) * 2021-04-28 2023-10-03 南通大学 基于生成协同判别网络的视频异常事件检测方法及***
CN114893390B (zh) * 2022-07-15 2023-08-04 安徽云磬科技产业发展有限公司 一种基于注意力与集成学习机制的泵机设备故障检测方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141437A (en) * 1995-11-22 2000-10-31 Arch Development Corporation CAD method, computer and storage medium for automated detection of lung nodules in digital chest images
US6914624B1 (en) * 2000-11-13 2005-07-05 Hewlett-Packard Development Company, L.P. Adaptive and learning setting selection process for imaging device
JP4029636B2 (ja) * 2002-03-14 2008-01-09 セイコーエプソン株式会社 オブジェクトレイアウト装置、画像レイアウト装置、オブジェクトレイアウトプログラム及び画像レイアウトプログラム、並びにオブジェクトレイアウト方法及び画像レイアウト方法
JP2005136978A (ja) 2003-10-08 2005-05-26 Oojisu Soken:Kk 撮像システム、処理装置、コンピュータプログラム及び記録媒体
CN101061713A (zh) 2004-11-18 2007-10-24 皇家飞利浦电子股份有限公司 一种更新用户档案的方法和装置
CN101069424A (zh) 2004-11-30 2007-11-07 皇家飞利浦电子股份有限公司 一种估计用户对一个节目的兴趣度的方法和装置
US20080288870A1 (en) * 2007-05-14 2008-11-20 Yu Brian Zheng System, methods, and apparatus for multi-user video communications
JP2008288870A (ja) * 2007-05-17 2008-11-27 Toshiba Corp 映像監視システムおよび映像監視方法
CN101681555B (zh) * 2007-10-26 2012-11-28 松下电器产业株式会社 状况判定装置、状况判定方法、异常判定装置、异常判定方法
AU2009243442B2 (en) * 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects
JP5398518B2 (ja) * 2009-12-25 2014-01-29 キヤノン株式会社 医療診断支援装置
CN101751782A (zh) 2009-12-30 2010-06-23 北京大学深圳研究生院 一种基于多源信息融合的十字路***通事件自动检测***
US20110205359A1 (en) * 2010-02-19 2011-08-25 Panasonic Corporation Video surveillance system
AU2010201740B2 (en) * 2010-04-30 2013-03-07 Canon Kabushiki Kaisha Method, apparatus and system for performing a zoom operation
JP2012063395A (ja) * 2010-09-14 2012-03-29 Toshiba Corp 注目画像表示装置および注目画像表示方法
KR101760258B1 (ko) * 2010-12-21 2017-07-21 삼성전자주식회사 얼굴 인식 장치 및 그 방법
ES2656868T3 (es) * 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
JP5764592B2 (ja) * 2013-02-22 2015-08-19 東京エレクトロン株式会社 基板処理装置、基板処理装置の監視装置及び基板処理装置の監視方法
JP2015070401A (ja) * 2013-09-27 2015-04-13 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP6132452B2 (ja) * 2014-05-30 2017-05-24 株式会社日立国際電気 無線通信装置及び無線通信システム
JP6525542B2 (ja) 2014-10-17 2019-06-05 キヤノン株式会社 異常検知方法、異常検知装置、及びプログラム
CN104504362A (zh) 2014-11-19 2015-04-08 南京艾柯勒斯网络科技有限公司 基于卷积神经网络的人脸检测方法
CN105989174B (zh) 2015-03-05 2019-11-01 欧姆龙株式会社 关注区域提取装置以及关注区域提取方法
CN106303382A (zh) 2015-05-26 2017-01-04 湖北泰信科技信息发展有限责任公司 一种基于物联网的应急指挥综合管理平台
CN105163183B (zh) 2015-08-28 2018-08-07 北京奇艺世纪科技有限公司 一种视频图片的筛选方法及装置
JP6948128B2 (ja) * 2017-01-13 2021-10-13 キヤノン株式会社 映像監視装置及びその制御方法及びシステム

Also Published As

Publication number Publication date
US11830251B2 (en) 2023-11-28
CN108307153A (zh) 2018-07-20
US20180204069A1 (en) 2018-07-19
US11048947B2 (en) 2021-06-29
JP2018113661A (ja) 2018-07-19
US20210271896A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP6948128B2 (ja) 映像監視装置及びその制御方法及びシステム
US11373408B2 (en) Image processing apparatus, monitoring system, image processing method, and program
JP6156665B1 (ja) 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
US20220292944A9 (en) Fire monitoring system
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6597609B2 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US20180285656A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP6758834B2 (ja) 表示装置、表示方法及びプログラム
JP2010147560A (ja) 目標追尾装置
US10497130B2 (en) Moving information analyzing system and moving information analyzing method
CN108391147B (zh) 显示控制装置和显示控制方法
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
JPWO2019064947A1 (ja) 監視端末装置及び表示処理方法
KR101840300B1 (ko) Cctv 영상의 검색 장치 및 방법
JP2008288870A (ja) 映像監視システムおよび映像監視方法
JP7146416B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2020170252A (ja) 画像処理装置、情報処理方法及びプログラム
JP2020170252A5 (ja)
US10929686B2 (en) Image processing apparatus and method and storage medium storing instructions
JP6058720B2 (ja) 情報出力装置、検知装置、プログラム及び情報出力方法
CN110298223A (zh) 图像处理装置和方法及存储指令的存储介质
JP6937666B2 (ja) 施設管理装置、施設管理システム及びプログラム
JP2024098816A (ja) 検知装置
JP2021034803A (ja) 監視装置および監視装置の監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R151 Written notification of patent or utility model registration

Ref document number: 6948128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151