JP6261190B2 - 設定装置および設定方法 - Google Patents

設定装置および設定方法 Download PDF

Info

Publication number
JP6261190B2
JP6261190B2 JP2013115668A JP2013115668A JP6261190B2 JP 6261190 B2 JP6261190 B2 JP 6261190B2 JP 2013115668 A JP2013115668 A JP 2013115668A JP 2013115668 A JP2013115668 A JP 2013115668A JP 6261190 B2 JP6261190 B2 JP 6261190B2
Authority
JP
Japan
Prior art keywords
image
detection
detection area
setting
vertices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013115668A
Other languages
English (en)
Other versions
JP2014236312A (ja
JP2014236312A5 (ja
Inventor
博 楠本
博 楠本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013115668A priority Critical patent/JP6261190B2/ja
Priority to US14/290,688 priority patent/US9904865B2/en
Publication of JP2014236312A publication Critical patent/JP2014236312A/ja
Publication of JP2014236312A5 publication Critical patent/JP2014236312A5/ja
Priority to US15/872,835 priority patent/US20180144206A1/en
Application granted granted Critical
Publication of JP6261190B2 publication Critical patent/JP6261190B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像内の検知対象物体に対応する検知領域内の変化を検知するために検知領域を設定する設定装置および方法に関するものである。
近年、例えば、店舗監視やビル監視においては、撮像した画像を解析して特定の事象を検知すると、事象が発生した際の画像を蓄積したり、管理者が閲覧・確認したりすることが行われている。画像解析する特定の事象としては、例えば、監視対象物体が持ち去られたことを検知する持ち去り検知等がある。
たとえば特許文献1では、監視対象が持ち去られることを検知する機能について書かれている。
特開2008−16898
しかしながら、映像内の検知対象物体に対応する検知領域をオペレータがポインティングデバイス等で設定するようにすると、操作が煩雑でありオペレータに負荷がかかり、正確に設定できないと、検知精度が悪くなってしまっていた。
本発明は、これらの問題を解決することを目的とする。
上述した目的を達成するため、本発明の設定装置は、映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定装置であって、前記検知対象物体が存在する映像と存在しない映像を入力する入力手段と、前記検知対象物体が存在する映像と存在しない映像の差から前記検知対象物体に対応する検知領域を算出する算出手段とを有し、前記算出手段は、前記検知対象物体が存在する映像と存在しない映像の差から算出した多角形の頂点数が所定数以下になるように、ある頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離が短い頂点から順に頂点を削除して、頂点数が所定数以下の多角形である前記検知領域を算出することを特徴とする。
本発明により、オペレータによる領域設定手順を軽減することができる。
また、検知精度の低下を防ぐことが可能となる。
本発明の実施形態におけるソフトウェア構成図である。 本発明の実施形態におけるハードウェア構成図である。 本発明の実施形態におけるユーザーインタフェースである。 本発明の実施形態における処理工程図である。 本発明の実施形態における処理工程1の説明図である。 本発明の実施形態における処理工程2の説明図である。 本発明の実施形態における処理工程3の説明図である。 本発明の実施形態における処理工程4の説明図である。
図1は、本発明の第1の実施形態における持ち去り検知機能を提供する物体検知システムのソフトウェア構成図である。
図1において、物体検知システムは、設定装置101、ネットワーク102、ネットワークカメラ103、クライアント120から構成されている。設定装置101上では、ネットワークカメラ103からの映像データに応じた映像を表示すると共に持ち去り監視の対象の物体検知のための設定用のユーザーインタフェースを提供する物体検知機能設定ツールが動作する。ネットワーク102は、LANやインターネットなどのIPベースの通信が可能なネットワークである。
ネットワークカメラ103は、映像撮影機能と物体検知機能を有し、ライブ映像と、検知した物体に関する検知物体情報をネットワーク102経由で設定装置101とクライアント120へ配送する。設定装置101とクライアント120は、ネットワークカメラ103から配送された映像データに応じた映像と検知物体情報に応じた検知結果を表示する。
ネットワークカメラ103は、物体の持ち去りを検知すると、検知物体情報を設定装置101に送信し、設定装置は、検知物体情報を受信すると、検知領域枠を表示するとともに、物体が持ち去られたことを表示する。このときの検知領域枠は、検知領域枠の設定中とは異なる色で表示する。設定装置101は、映像と検知物体情報を表示する表示制御装置である。ネットワークカメラ103は、撮影部104、物体検知部105、通信部106を有している。
なお、物体検知部105は、ネットワークカメラ103ではなく、設定装置101に設けてもよい。
撮影部104は、撮影デバイスによってライブ映像を取得する。撮影部104は、例えば1秒間に30フレーム分のライブ映像を取得することが可能である。本実施形態の撮影部104は、撮影デバイスから取得したライブ映像をJPEGなどに符号化しネットワーク配送可能なデジタル映像データに変換する機能も提供する。なお、この変換機能は、通信部106に設けてもよい。
物体検知部105は、撮影部104によって取得された映像データを解析し、設定装置101により設定された検知設定情報により検知領域内の物体が持ち去られたか否かなどを検知する。物体検知部105は、検知領域内の映像が変化した場合、物体が持ち去られたことを検知する。
なお、本形態の物体検知部105は、連続した映像フレームの差分を解析することで物体の持ち去りを検知する。ただし、物体の持ち去り検知アルゴリズムとして、例えば撮影により得られた映像データとあらかじめ設定された基準映像との差分を解析する方法などさまざまな方法を用いることが可能である。
通信部106は、撮影部104が取得した映像データと物体検知部105により生成された検知物体情報をネットワーク102経由でクライアント120および設定装置101に送信する。また、通信部106は、利用者が設定装置101を使用して設定した検知設定情報を受信し、物体検知部105に設定する。
通信部110は、ネットワークカメラ103から送信される映像データおよび検知物体情報を受信する。また、利用者が設定装置101を使用して設定した検知設定情報をネットワークカメラ103に送信する。
表示制御部111は、ネットワークカメラ103から配送された映像データに応じた映像をディスプレイ等の表示デバイス上に表示する。
検知枠設定部112は、検知設定情報として映像上の検知領域を設定する。検知領域とは、映像内の領域であって、物体が検知される領域である。つまり、検知領域を設定することで、映像全体ではなく映像の一部(持ち去られることを監視対象とする物体)のみを物体検知の対象とすることができる。これにより、物体の検知精度の向上や、処理負荷の低減が期待できる。
なお、検知枠設定部112は、検知領域を示す枠を、表示制御部111を介して映像上に表示させる。
表示制御部111は、ネットワークカメラ103からの映像を映像表示領域302(図3)に表示させる。また、表示制御部111は、映像表示領域302内に、検知領域枠303を表示させる。表示制御部111による表示例は、図3を用いて後述する。
検知結果表示部115は、ネットワークカメラ103の物体検知部105による検知結果に応じた検知領域枠303を表示制御部111を介して持ち去られたか否かの結果を表示させる。
このように、設定装置101は、映像内の検知対象物体に対応する検知領域内の変化を検知するために検知領域を設定する。
クライアント120は、ネットワークカメラ103からの映像データと検知物体情報を受信し、物体の検知結果と映像とを表示する機能を有する。すなわち、クライアント120は、設定装置101の構成のうち、通信部110と表示制御部111と検知結果表示部115を有し、検知枠設定部112を有しない。
図2は、設定装置101およびネットワークカメラ103のハードウェア構成を示す図である。クライアント120のハードウェア構成は設定装置101と同様である。図2において、CPU201は設定装置101を統括制御する制御処理装置である。
二次記憶装置202は、CPU201が設定装置101を制御するためのプログラムを記憶する。RAM203は、CPU201が二次記憶装置202から読出したプログラムを展開し、処理を実行するためのメモリである。また、RAM203は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。
ネットワークインタフェース204は、ネットワーク102を介して通信をおこなう回路である。ネットワークインタフェース204は、ネットワークカメラ103からの映像データや検知物体情報の受信、および検知設定情報の送信を行う際に使用される。
表示装置205は、映像データに応じた映像等を表示するディスプレイ等の表示デバイスである。なお、設定装置101は、表示装置205と一体の装置であってもよい。入力装置206は、キーボードおよびマウス等である。ただし、入力装置206は、例えば、ジョイスティックや音声入力装置などでもよい。
設定装置101は一般的なPC(パーソナルコンピュータ)として構成される。持ち去り監視の対象の物体検知のための設定用のユーザーインタフェースを提供する物体検知機能設定ツールは、一般的なPC上で動作するソフトウェアとして実装することが可能である。なお、本形態では、CPU201が二次記憶装置202からプログラムを読み出して処理を実行する例について説明しているが、図1の各部の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。
次にネットワークカメラ103のハードウェア構成を説明する。図2において、CPU210はネットワークカメラ103を統括制御する制御部である。
ROM211は、CPU210がネットワークカメラ103を制御するためのプログラムを記憶する。なお、ROM211のかわりに二次記憶装置202と同等な二次記憶装置であってもよい。RAM212は、ROM211から読み出されたプログラムを展開し、処理を実行するためのメモリである。また、RAM212は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。
ネットワークインタフェース213は、ネットワーク102を介して通信を行う回路である。ネットワークインタフェース213は、設定装置101への映像データや検知物体情報の送信、および検知設定情報の受信に使用される。
撮影装置214は、撮影デバイスを有し、ライブ映像を動画および静止画として撮影するビデオカメラなどの撮影デバイスである。なお、ネットワークカメラ103と撮影装置214は一体の装置であってもよいし、別の装置であってもよい。
次に図3を用いて、設定装置101のユーザーインタフェースを説明する。設定装置101は、ネットワークカメラ103からの映像を表示装置205上に表示させるコンピュータプログラムである物体検知機能設定ツールを実行する。図3で示すユーザーインタフェースは、図1の表示制御部111により図2の表示装置205の画面上で表示される。なお設定装置101と表示装置205は一体の装置でもよいし、別の装置であってもよい。設定装置101は、映像を表示装置205上に表示する表示制御装置である。
図3において、ユーザーインタフェース表示領域301は、表示装置205のディスプレイ上の表示領域をあらわしている。ユーザーインタフェース表示領域301は、ディスプレイ全体とすることも、1つのウィンドウとすることも可能である。
映像表示領域302は、ネットワークカメラ103から配送されてくる映像データに応じた映像(ライブ映像)を表示するための領域である。
検知領域枠303(太線で示している枠)は、検知枠設定部112により設定された物体検知部105の物体検知処理の対象となる領域を示す枠である。検知領域枠303は、検知枠設定部112の設定、検知結果表示部115に基づいて、表示制御部111により表示される。
検知領域設定ボタン304を押すまたはクリックすることにより、検知枠設定部112は検知設定情報である対象となる持ち去り検知対象物体の検知領域枠を設定し、検知領域枠303として表示される。表示されている検知領域枠303は検知領域枠303の頂点や辺をマウス等の入力装置206で選択し、ドラッグすること等により検知領域枠303の大きさ、形状を変更することを可能とする。
検知領域クリアボタン305を押すまたはクリックすることにより、検知枠設定部112は検知設定情報である検知領域枠の設定を解除し映像表示領域302に表示されている画像を背景として記憶する。
図4は、本形態の設定装置101による検知領域枠303の検知設定情報作成処理を説明するための処理工程を示した図である。設定装置101では、ネットワークカメラ103からの映像を表示する物体検知機能設定ツールが動作する。図4の処理は、操作者の処理とCPU201が二次記憶装置202に記録されたプログラムをRAM203へ読み出して実行されることによって行われる。ただし、図4の処理でCPU201、CPU210が行う処理の少なくとも一部を専用のハードウェアによって行うようにしてもよい。設定装置101は、以下のように、映像内の検知対象物体に対応する検知領域内の変化を検知するために検知領域を設定する。
(工程1)背景の取得
背景の取得工程について図5をもとに説明する。この例では持ち去り検知対象物体は図6の映像表示領域302に映し出されている人の右に置かれるPCのような物体である。
持ち去り検知対象物体を映像表示領域302に映し出されない状態のところに退避させ、検知領域クリアボタン305を押す(図5)。検知領域クリアボタン305が押されることにより検知枠設定部112は撮影部104より映像表示領域302に映し出されている画像を取得し背景画像として記憶する。
この工程では、所定時間分のフレーム(例えば、10秒間)、あるいは、所定数のフレーム(例えば、300フレーム)を入力し、入力したフレームを元に背景画像を生成してもよい。入力したフレームを単純平均してもよいし、所定の重みで加重平均してもよい。この背景の生成は、検知枠設定部112で行っても、ネットワークカメラ103が生成した背景を検知枠設定部112が取得してもよい。検知領域が設定された状態で検知領域クリアボタン305を押すと、その時に設定されていた検知領域はクリアされる。
(工程2)検知対象物体を入れた画像の取得
検知対象物体を入れた画像の取得工程について図6をもとに説明する。
持ち去り検知対象物体を映像表示領域302に入る所定の位置に置き、検知領域設定ボタン304を押す。検知領域設定ボタン304が押されることにより検知枠設定部112は撮影部104より映像表示領域302に映し出されている画像を取得し記憶する。この工程でも、所定時間分のフレーム(例えば、10秒間)、あるいは、所定数のフレーム(例えば、300フレーム)を入力し、入力したフレームを元に記憶画像を生成してもよい。入力したフレームを単純平均してもよいし、所定の重みで加重平均してもよい。
このように、工程1と2で、通信部110により、検知対象物体が存在する映像と存在しない映像を入力する。
(工程3)検知領域と頂点の抽出
検知領域と頂点の抽出工程について図7をもとに説明する。
検知枠設定部112は工程1で記憶した画像を背景画像とし工程2で記憶した画像と背景差分画像がある領域を抽出する。図7では工程1と工程2で記憶した画像をブロック分割し、差分のあるブロックを差分領域310として抽出している。なお、この差分領域310の抽出は画素単位で行ってもよい。このようにして、検知枠設定部112は、検知対象物体が存在する映像と存在しない映像の差を抽出する。本形態では、差があると判断した領域に対応する多角形を生成する。
なお、工程1から3をネットワークカメラ103で実行して、その結果を検知枠設定部112が取得してもよい。また、検知領域枠の設定をネットワークカメラ103が実行してもよい。
差分領域310が抽出されると領域を囲む各頂点311を結ぶ線を抽出する。
(工程4)検知領域頂点の間引き
検知領域頂点の間引きについて図8をもとに説明する。
工程3で抽出した差分領域310の形状が複雑な形になった場合、システムの負荷が増大し、表示処理が間に合わず、表示映像が欠ける等の問題が生じることがある。そのため、以下のように包含率、被覆率を定義し、頂点の数、包含率、被覆率に閾値を持たせ頂点の数を減らしシステムの負荷を減らす。
この閾値は装置の中に固定で持っていてもよいし、外部から書きかえることが可能なインターフェースを持っていてもよい。
ここで、
包含率=差分領域310内にある検知領域枠303の面積÷差分領域310の面積
被覆率=検知領域枠303内にある差分領域310の面積÷検知領域枠303の面積
である。
検知枠設定部112は各頂点311間の間引き距離を計算する。本実施例での間引き距離の計算はダグラス・ペッカ―法を用いて行っている。検知枠設定部112は、図8(2)に示す各頂点311の間引き距離を計算し、計算した各頂点311の間引き距離を小さい順に並べ、間引き距離がもっとも小さかった頂点を間引き、頂点を減らす。そして、検知枠設定部112は、減らされた頂点の両端の頂点間を結び、残った頂点により検知領域枠303を抽出する(図8(1))。ある頂点の間引き距離は、その頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離である。
このように、検知枠設定部112は、検知対象物体が存在する映像と存在しない映像の差から算出した多角形の頂点数が所定数以下になるようにする。すなわち、検知枠設定部112は、このように頂点数が所定数以下になるように、ある頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離が短い頂点から順に頂点を削除する。このようにして、検知枠設定部112は、頂点数が所定数以下の多角形である検知領域(枠)を算出する。
以下図8(3)を用い頂点を減らす方法を説明する。
検知枠設定部112は頂点311の数が頂点数の閾値を下回るまでこの頂点311の間引きを続ける(S801)。尚、間引く頂点を求める方法としては、地図のラインの簡素化に使用されている最小距離(Minimum Distance)法や最小比率(Minimum Ratio)法を使用してもよい。このようにして、検知枠設定部112は、頂点数が所定数以下の多角形である検知領域を算出する。
検知枠設定部112は頂点311の数が頂点数の閾値を下回った後に工程3で抽出した差分領域310と本工程で抽出した検知領域枠303の包含率と被覆率を上記の式に従って求める。
検知枠設定部112は包含率と被覆率が各々の閾値未満であれば(S805)、メッセージを表示装置205に出力し処理を中止する(S802)。
検知枠設定部112は包含率と被覆率が各々の閾値以上であれば、再度間引かれずに残った各頂点311の間引き距離を計算し、間引き距離がもっとも小さい頂点を間引いた検知領域を抽出する。そして、検知枠設定部112は包含率と被覆率を計算する。検知枠設定部112は、包含率と被覆率が各々の閾値以上であれば、この頂点を間引いた検知領域を検知領域枠303とし包含率と被覆率が各々の閾値を下回らない範囲で頂点311の数を減らす(S803)。
検知枠設定部112は包含率と被覆率がいずれかが閾値未満になったらS803またはS801で作成した検知領域枠303で、後に作成された検知領域枠303を、工程4での最終的な検知領域枠303と確定する(S804)。
表示制御部111は抽出した検知領域枠303に間引かれずに残った頂点位置、頂点間の線を表示装置205に表示する。
工程3で差があると判断した領域に対応する多角形の頂点数が閾値以下であるとS801で判定され、頂点数を減らすと包含率、被覆率が閾値未満になるとS806で判定された場合、工程3で差があると判断した領域に対応する多角形が検知領域枠になる。
尚、頂点311の数が頂点の閾値を下回らない状態でも包含率、被覆率を計算し、包含率、被覆率の各々の閾値以下にならない条件で頂点を減らし検知領域枠303を決めてもよい。
このようにして、検知枠設定部112は、検知対象物体が存在する映像と存在しない映像の差から第1の多角形を算出し、第1の多角形と所定以上の比率で重複する範囲で、第1の多角形より頂点数を減らした第2の多角形である検知領域(枠)を算出する。
(工程5)検知領域の調整
検知領域の調整について図8、3をもとに説明する。
工程4で抽出した検知領域枠303(図8(1))は表示制御部111により表示装置205に表示されている。
検知枠設定部112はこの検知領域枠303の頂点および頂点を結ぶ線をマウスなどのポインティングデバイスに変更を受けるとその指示に従い検知領域枠303を変更する。ある頂点Aを動かした場合、その頂点Aに隣接する2つの頂点BとCとその頂点Aを結ぶ線ABとACは、移動後の頂点Aと頂点BとCを結ぶように変更される。
また、2つの頂点DとEを結ぶ線の1箇所Fをマウスでつかんで移動した場合、マウスでつかんだ箇所が頂点DとEの間の新たな頂点Fとなり、頂点DとEを結ぶ線は、頂点DとFを結んだ線と頂点FとEを結んだ線に変更される。ただし、頂点Fを追加すると図8(3)のS801における頂点数の閾値を超える場合、頂点Fは追加しない。頂点を追加すると頂点数の敷値を超える場合、頂点の追加ができないことを示すメッセージをユーザーインタフェース表示領域301に表示する。
検知枠設定部112は、図8(1)のように、検知領域(枠)を映像上で表示し、映像上で表示された検知領域(枠)を変更する。
検知枠設定部112は検知領域設定ボタン304が押されると検知領域枠303を確定する(図3)。工程4で算出された検知領域枠を調整する必要がないとユーザーが判断する場合、ユーザーは工程5での調整は行わない。
検知枠設定部112は検知領域枠303が確定すると物体検知部105に検知設定情報を送る。物体検知部105は工程2で取得した画像から検知設定情報で設定された検知領域枠303の画像を切り出し、この切り出した画像と撮影部104で撮像された画像を比較する。以上により、検知領域枠303内の検知対象物体の持ち去り検知が可能になる。なお、物体検知部105は、ネットワークカメラ103ではなく、設定装置101に設けてもよい。
以上のようにして、検知枠設定部112は、工程3で抽出した検知対象物体が存在する映像と存在しない映像の差から検知対象物体に対応する検知領域を算出する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上説明したように、本実施形態の持ち去り検知領域設定機能を使用することにより、持ち去り検知領域の設定をシステムに負荷を少なくし、包含率、被覆率を一定以上持ち設定することが可能となり、また複雑な操作が不要となる。
101 設定装置
103 ネットワークカメラ
104 撮影部
105 物体検知部
111 映像表示部
112 検知枠設定部

Claims (8)

  1. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定装置であって、
    前記検知対象物体が存在する映像と存在しない映像を入力する入力手段と、
    前記検知対象物体が存在する映像と存在しない映像の差から算出した多角形の頂点数が所定数以下になるように、ある頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離が短い頂点から順に頂点を削除して、頂点数が所定数以下の多角形である検知領域を算出する算出手段と
    を有することを特徴とする設定装置。
  2. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定装置であって、
    前記検知対象物体が存在する映像と存在しない映像を入力する入力手段と、
    前記検知対象物体が存在する映像と存在しない映像の差から第1の多角形を算出し、前記第1の多角形と所定以上の比率で重複する範囲で、前記第1の多角形より頂点数を減らした第2の多角形である検知領域を算出する算出手段と
    を有することを特徴とする設定装置。
  3. 前記検知領域を映像上で表示する表示制御手段と、前記映像上で表示された前記検知領域を変更する変更手段を有することを特徴とする請求項1または2に記載の設定装置。
  4. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定装置における設定方法であって、
    前記検知対象物体が存在する映像と存在しない映像を入力し、
    前記検知対象物体が存在する映像と存在しない映像の差から算出した多角形の頂点数が所定数以下になるように、ある頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離が短い頂点から順に頂点を削除して、頂点数が所定数以下の多角形である検知領域を算出する
    ことを特徴とする設定方法。
  5. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定装置における設定方法であって、
    前記検知対象物体が存在する映像と存在しない映像を入力し、
    前記検知対象物体が存在する映像と存在しない映像の差から第1の多角形を算出し、前記第1の多角形と所定以上の比率で重複する範囲で、前記第1の多角形より頂点数を減らした第2の多角形である検知領域を算出することを特徴とする設定方法。
  6. 前記検知領域を映像上で表示し、前記映像上で表示された前記検知領域を変更することを特徴とする請求項4または5に記載の設定方法。
  7. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定手順をコンピュータに実行させるためのプログラムであって、
    前記検知対象物体が存在する映像と存在しない映像を入力する入力手順と、
    前記検知対象物体が存在する映像と存在しない映像の差から算出した多角形の頂点数が所定数以下になるように、ある頂点に隣接する2つの頂点を結ぶ直線とその頂点の距離が短い頂点から順に頂点を削除して、頂点数が所定数以下の多角形である検知領域を算出する算出手順と
    をコンピュータに実行さることを特徴とするプログラム。
  8. 映像内の検知対象物体に対応する検知領域内の変化を検知するために前記検知領域を設定する設定手順をコンピュータに実行させるためのプログラムであって、
    前記検知対象物体が存在する映像と存在しない映像を入力する入力手順と、
    前記検知対象物体が存在する映像と存在しない映像の差から第1の多角形を算出し、前記第1の多角形と所定以上の比率で重複する範囲で、前記第1の多角形より頂点数を減らした第2の多角形である検知領域を算出する算出手順と
    をコンピュータに実行させることを特徴とするプログラム。
JP2013115668A 2013-05-31 2013-05-31 設定装置および設定方法 Active JP6261190B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013115668A JP6261190B2 (ja) 2013-05-31 2013-05-31 設定装置および設定方法
US14/290,688 US9904865B2 (en) 2013-05-31 2014-05-29 Setting apparatus which sets a detection region for a detection process
US15/872,835 US20180144206A1 (en) 2013-05-31 2018-01-16 Setting apparatus, setting method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013115668A JP6261190B2 (ja) 2013-05-31 2013-05-31 設定装置および設定方法

Publications (3)

Publication Number Publication Date
JP2014236312A JP2014236312A (ja) 2014-12-15
JP2014236312A5 JP2014236312A5 (ja) 2016-06-23
JP6261190B2 true JP6261190B2 (ja) 2018-01-17

Family

ID=51985152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013115668A Active JP6261190B2 (ja) 2013-05-31 2013-05-31 設定装置および設定方法

Country Status (2)

Country Link
US (2) US9904865B2 (ja)
JP (1) JP6261190B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11245850B2 (en) 2018-10-18 2022-02-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6261190B2 (ja) * 2013-05-31 2018-01-17 キヤノン株式会社 設定装置および設定方法
US20160026898A1 (en) * 2014-07-24 2016-01-28 Agt International Gmbh Method and system for object detection with multi-scale single pass sliding window hog linear svm classifiers
JP6650677B2 (ja) * 2015-02-26 2020-02-19 キヤノン株式会社 映像処理装置、映像処理方法、およびプログラム
JP2020109582A (ja) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 情報処理装置
JP7472482B2 (ja) * 2019-12-11 2024-04-23 オムロン株式会社 情報処理装置、範囲決定方法、プログラム
CN116563521B (zh) * 2023-04-14 2024-04-23 依未科技(北京)有限公司 目标检测的检测框处理方法及其装置、电子设备

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590248A (en) * 1992-01-02 1996-12-31 General Electric Company Method for reducing the complexity of a polygonal mesh
JP3574170B2 (ja) * 1994-03-17 2004-10-06 富士通株式会社 分散型画像処理装置
JP4020982B2 (ja) * 1995-03-10 2007-12-12 松下電器産業株式会社 動画像処理装置
JP2746214B2 (ja) * 1995-07-25 1998-05-06 日本電気株式会社 ポリゴンメッシュ接続装置
JP3341549B2 (ja) * 1995-11-14 2002-11-05 ミノルタ株式会社 3次元形状データ処理装置
JP2001266159A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 物体領域情報生成方法及び物体領域情報生成装置並びに近似多角形生成方法及び近似多角形生成装置
JP3810657B2 (ja) * 2001-07-31 2006-08-16 松下電器産業株式会社 運動物体検出方法および装置
US7081893B2 (en) * 2001-10-10 2006-07-25 Sony Computer Entertainment America Inc. System and method for point pushing to render polygons in environments with changing levels of detail
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP4208596B2 (ja) * 2003-02-14 2009-01-14 キヤノン株式会社 操作端末装置、そのカメラ設定方法およびプログラム
US8675059B2 (en) * 2010-07-29 2014-03-18 Careview Communications, Inc. System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients
US7903141B1 (en) * 2005-02-15 2011-03-08 Videomining Corporation Method and system for event detection by multi-scale image invariant analysis
JP4646668B2 (ja) * 2005-03-29 2011-03-09 キヤノン株式会社 撮像装置及びその制御方法
JP4137078B2 (ja) * 2005-04-01 2008-08-20 キヤノン株式会社 複合現実感情報生成装置および方法
US9077882B2 (en) * 2005-04-05 2015-07-07 Honeywell International Inc. Relevant image detection in a camera, recorder, or video streaming device
WO2006137071A2 (en) * 2005-06-23 2006-12-28 Israel Aerospace Industries Ltd. A system and method for tracking moving objects
CN101410875B (zh) * 2006-04-24 2012-07-04 松下电器产业株式会社 描绘装置以及描绘方法
JP4201025B2 (ja) 2006-06-30 2008-12-24 ソニー株式会社 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム
JP2008182456A (ja) * 2007-01-24 2008-08-07 Sony Corp 監視装置、検知設定方法および監視カメラシステム
JP5354767B2 (ja) * 2007-10-17 2013-11-27 株式会社日立国際電気 物体検知装置
JP5495930B2 (ja) * 2010-05-10 2014-05-21 キヤノン株式会社 画像処理装置、方法、およびプログラム
JP5697369B2 (ja) * 2010-06-28 2015-04-08 キヤノン株式会社 画像処理装置、画像処理システム及び画像処理方法
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video
JP5653119B2 (ja) * 2010-08-06 2015-01-14 キヤノン株式会社 設定装置、設定方法、及びプログラム
KR101355974B1 (ko) * 2010-08-24 2014-01-29 한국전자통신연구원 복수의 객체를 추적하는 객체 추적 방법 및 장치
US9226037B2 (en) * 2010-12-30 2015-12-29 Pelco, Inc. Inference engine for video analytics metadata-based event detection and forensic search
US8666145B2 (en) * 2011-09-07 2014-03-04 Superfish Ltd. System and method for identifying a region of interest in a digital image
JP5938631B2 (ja) * 2011-12-19 2016-06-22 パナソニックIpマネジメント株式会社 物体検出装置及び物体検出方法
US9110587B2 (en) * 2012-07-13 2015-08-18 Samsung Electronics Co., Ltd. Method for transmitting and receiving data between memo layer and application and electronic device using the same
US9171213B2 (en) * 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
JP2014186392A (ja) * 2013-03-21 2014-10-02 Fuji Xerox Co Ltd 画像処理装置及びプログラム
JP6261190B2 (ja) * 2013-05-31 2018-01-17 キヤノン株式会社 設定装置および設定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11245850B2 (en) 2018-10-18 2022-02-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP2014236312A (ja) 2014-12-15
US9904865B2 (en) 2018-02-27
US20140355828A1 (en) 2014-12-04
US20180144206A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6261190B2 (ja) 設定装置および設定方法
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP4915655B2 (ja) 自動追尾装置
CN108476304B (zh) 丢弃物体监视装置和具备该丢弃物体监视装置的丢弃物体监视***以及丢弃物体监视方法
KR20080058171A (ko) 카메라 템퍼링 검출
JP6270433B2 (ja) 情報処理装置、情報処理方法、情報処理システム
EP2840557B1 (en) Image processing system, server device, image pickup device and image evaluation method
EP3442219B1 (en) Information processing apparatus, information processing method, and storage medium
EP3016383B1 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JP2010267055A (ja) 動体検出装置と動体検出方法およびコンピュータ・プログラム
JP5693094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
KR100887942B1 (ko) 실시간 이상현상 감지 시스템 및 그 제어방법
CN113615166B (zh) 事故检测装置及事故检测方法
JP2013143655A (ja) 現場状況把握システム及び現場画像提供方法
JP2013257785A (ja) 物体検出装置、物体検出方法、及びプログラム
JP5769468B2 (ja) 物体検出システム及び物体検出方法
JP4853657B2 (ja) 画像処理装置
JP2019161362A (ja) 監視システム
JP6737262B2 (ja) 異常状態検知装置、異常状態検知方法、及び、異常状態検知プログラム
CN115937730A (zh) 推测装置、推测方法以及存储介质
CN110647792B (zh) 信息处理设备、控制方法和存储介质
JP7208713B2 (ja) 画像解析装置および画像解析方法
KR101924336B1 (ko) 영상 감시를 위한 영역 설정 방법과 그를 위한 영상 감시 장치
JP2009129388A (ja) 物体認識装置、物体認識方法、物体認識プログラム、および該プログラムを格納するコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171212

R151 Written notification of patent or utility model registration

Ref document number: 6261190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151