JP6325643B2 - モニタリングシステムにおける信頼性を高めるための方法 - Google Patents

モニタリングシステムにおける信頼性を高めるための方法 Download PDF

Info

Publication number
JP6325643B2
JP6325643B2 JP2016236879A JP2016236879A JP6325643B2 JP 6325643 B2 JP6325643 B2 JP 6325643B2 JP 2016236879 A JP2016236879 A JP 2016236879A JP 2016236879 A JP2016236879 A JP 2016236879A JP 6325643 B2 JP6325643 B2 JP 6325643B2
Authority
JP
Japan
Prior art keywords
line
predetermined
scene
size
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016236879A
Other languages
English (en)
Other versions
JP2017188070A (ja
JP2017188070A5 (ja
Inventor
エマヌエル ヨハンソン,
エマヌエル ヨハンソン,
Original Assignee
アクシス アーベー
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー, アクシス アーベー filed Critical アクシス アーベー
Publication of JP2017188070A publication Critical patent/JP2017188070A/ja
Publication of JP2017188070A5 publication Critical patent/JP2017188070A5/ja
Application granted granted Critical
Publication of JP6325643B2 publication Critical patent/JP6325643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、キャプチャされた動画ビデオの解析に関し、特に、動画ビデオにおいて所定のラインを横断する物体を検出するための方法に関する。
監視における1つの一般的な作業は、誰か又は何かが、所定の境界又はライン、例えば、フェンスを横断しているか否かを判定することである。このタイプの監視は、手動で実行されるならば退屈な作業であり、したがって、様々な自動システムが何年にもわたって提案されてきた。実際の物理的なワイヤーから光線まで、種々のタイプのトリップワイヤー(tripwire)が使用されてきた。最近の何年かは、トリップワイヤーが論理領域(logic realm)にまで入ってきた。この具現化において、トリップワイヤーは、カメラによってキャプチャされた動画ビデオを解析するソフトウェア内に実装される。そのような論理トリップワイヤーは、概して、キャプチャされた光景内に1以上のラインを画定し、その後、ビデオ内で移動している物体を特定するために動画ビデオが解析され、特定された物体が画定されたラインを破るならば、イベントが生成される。イベントは、警報、オペレータのインターフェース上の表示、ログへの入力(entry)などをもたらし得る。
システムに有用な警報を生成させ、誤検出の生成を避けるために、システムは、概して、光景内の論理ラインを横断する物体が、興味の対象である場合のみに、イベントを生成するように構成される。ある用途では、興味のタイプの物体が人間であり、他の用途では、それが象であり、更に他の用途では、それが犬である。興味のタイプの物体は、工程中の製品、例えば、コンベヤベルトから飛び出すべきではない、コンベヤベルト上で搬送されている物体でさえあり得る。誤検出をもたらし得る単純なトリップワイヤーの実施態様における1つの問題は、検出された物体が、鼠であるか、人間であるか、又はトラックであるかとは無関係に、検出された物体がラインを横断するや否や、イベントが生成されるということである。この問題は、検出された物体が、特定のサイズであるか、又は特定のサイズの範囲内にあるときにのみ、システムにイベントを生成させることによって、ある既知の実施態様において解決された。
郵便番号95134‐1706、米国カリフォルニア州サンノゼのウエストタスマンドライブ170のCisco Systems Inc.からの“Cisco Video User Guide”、2011年、Text Part Number OL‐24428‐01において、一般的なビデオ解析プロセスから、特定のサイズよりも小さい物体を除去するための最小サイズフィルタ及び特定のサイズよりも大きい物体を除去するための最大サイズフィルタを実装するシステムが提供されている。最大フィルタは、光景のスナップショット内に設定される。2つのボックスであって、一方が前景のためのものであり、他方が後景のためのものである、2つのボックスが、光景のスナップショット内に提示される。その後、ユーザは、それぞれ、前景及び後景内の物体の最大サイズを示すために、ボックスの各々のサイズを変更する。その後、同じ手順が最小サイズフィルタのために実行され、すなわち、ボックスが提示され、ボックスのサイズが調整される。その文書は、それぞれ、最大サイズのフィルタ及び最小サイズのフィルタが使用され得る、2つの実施例を更に説明する。例えば、木又は木の枝からの影が、人間として誤って分類され得る。木に対して風が吹き、その影がビデオのトリップワイヤーを横断するならば、これは誤った警報をもたらし得る。そのような場合では、ビデオのトリップワイヤーを横断する過剰に大きな物体を無視するのに十分な情報をシステムに提供するように、最大物体フィルタが規定され得る。別の一実施例では、栗鼠などの小さい動物が、ビデオのトリップワイヤーを横断したときに、誤って分類され、誤った警報をトリガ(trigger)し得る。その時、この状況は、ビデオのトリップワイヤーを横断する小さい物体をシステムに無視させる、最小物体サイズフィルタを使用して解決され得る。
したがって、上述の実施態様は、検出されるべき物体のサイズから区別可能なサイズを有する物体からもたらされる誤検出の問題を解決する。しかし、フィルタを設定する作業は、極めて面倒であり、フィルタのために設定を調整することは容易ではない。
本発明の1つの目的は、動画ビデオカメラの手段によってキャプチャされた光景内の所定のラインを横断する物体の改良された検出を提供することである。更なる1つの目的は、検出されるべき物体のサイズから区別可能なサイズを有する物体からもたらされる誤検出の数を低減させることである。
第1の態様によれば、動画ビデオカメラの手段によってキャプチャされた光景内の所定の第1のラインにおける物体横断イベントを検出するための方法によって、完全に又は少なくとも部分的に、これらの及び他の目的が達成される。該方法は、動画ビデオカメラによってキャプチャされた光景の画像から、物体画像が所定の第1のラインを横断しているか否かを判定すること、所定の第1のラインを横断している物体画像のサイズに関するサイズ値を計算すること、ライン距離値を、物体の所定の第1のラインとの接触点と、所定の第2のライン上の近傍点との間の距離から計算された値に設定すること、及び計算されたサイズ値とライン距離との間の関係が所定の範囲内にあるならば、物体横断イベント信号を生成することを含む。物体画像のサイズを物体画像の位置における光景内の基準に関係付けることの利点は、キャプチャされた光景内の物体画像のサイズと、対応する現実の世界の物体の実際のサイズとの間の関係を判定することができることである。したがって、検出ラインに沿って、物体画像のサイズが計算されることとは無関係に、現実の世界の物体のサイズが、特定のサイズの範囲内あるか否かを判定することができ、それによって、興味がないサイズの物体からの誤検出を生成するリスクを低減させることを可能にする。キャプチャされた画像の深さに対応する基準を提供することができるので、これは可能であり、すなわち、基準は、カメラからのより遠い距離においてより小さく、それは、カメラからの異なる距離において配置された物体の挙動に対応する。更に、2つのラインを導入し、ラインを横断している物体の位置における2つのラインの間の距離を基準とすることによって、ラインを横断することに対する規則を設定するプロセスをより単純にし、誤検出ではない結果をもたらす傾向が高まる。
物体のサイズは、キャプチャされた画像内の物体によって占められた面積のサイズに関係し得る。更に、物体のサイズに関係した面積のサイズは、キャプチャされた画像内で物体が占める画素の数から計算され得る。
ある実施形態では、物体が所定の第1のラインを横断しているか否かを判定することが、光景のキャプチャされた画像内で、物体を表す画素が所定の第1のライン内に含まれる画素上に配置されているか否かを検出することを含み得る。ある実施形態によれば、所定の第1のライン及び所定の第2のラインが仮想のラインであり、各ラインは光景内の位置を表す少なくとも2つの座標によって画定される。カメラから更に離れた位置を表している光景内の画素において、所定の第1のラインと所定の第2のラインが互いに接近しているように、それらは光景内で画定される。単純にラインに光景の遠近法の特性を近似させることによって、カメラからの種々の距離における様々な基準値が、人間によって容易に概算され得るので、ラインをこの方式で規定することによって、ユーザが、ラインを横断することに関係するイベント規則を設定することが容易になる。多くの人間にとって、現実の世界における2つの平行なラインの斜視図を模倣するカメラのキャプチャされた光景において、遠近法で2つのラインを描くことが容易であり自然なことである。概して、典型的な光景は、2つのラインの間の距離の精度を検証するために使用され得る、幾つかの物体の基準を含むだろう。明らかに、これらの物体の基準は、鉄道の線路のペアであることはまれであるが、木、柱、フェンスの部分、窓、ガラスなどであり、それらの全ては、人間の精神の中で利用可能な複雑な画像解析によって容易に処理される。これは、この方法を驚くほどロバスト(robust)にする。
ライン距離を判定することは、物体の所定の第1のラインとの接触点までの最も短い距離を有する、所定の第2のラインに沿った位置を計算することを含み得る。このやり方で基準値にアクセスすることの利点は、それが、2つのラインによって導入された基準値を、多かれ少なかれ途切れることなく適合させることから、基準値を得るための容易な方法であるということである。
更に、所定の第1のラインと所定の第2のラインは、検出ラインのペアであり、複数の検出ラインのペアが、光景に対して画定され得る。このやり方では、2以上のラインの横断に対するイベントを規定し、又は光景内で制限することが可能である。それは、光景内の複雑なラインに対する横断ラインイベントの生成も容易にする。
ある実施形態では、物体の計算されたサイズとライン距離の二乗との間の関係が所定の範囲内にあるときに、物体横断イベント信号が生成される。更に、物体横断イベント信号が、次の関係が有効になるや否や生成され得る。すなわち、
k≦A≦L
ここで、Lは、プロセス内で判定されたライン距離の値であり、Aは、プロセス内で判定された物体の面積の値であり、kは、所定の下側制限定数であり、Kは、所定の上側制限定数である。
別の一態様によれば、キャプチャされた光景内の所定のラインを横断する物体を検出するためのシステムが、上述された様々な方法を実行するように構成され得る。そのようなシステム内の特徴の利点は、該方法内の対応する特徴の利点と一致する。
本発明の適用性の更なる範囲は、以下の詳細な説明から明らかとなるであろう。しかしながら、この詳細な説明よって本発明の範囲内の様々な変更及び修正が当業者に明らかとなるため、詳細な説明及び具体例は、本発明の好適な実施形態を示しながらも例示的な形でのみ提示されることを理解されたい。したがって、記載のデバイス及び記載の方法は異なる場合があるため、この発明は、記載のデバイスの特定の構成要素部品又は記載の方法のステップに限定されないことを理解されたい。本明細書で使用される用語は、特定の実施形態を説明する目的のために過ぎず、限定的であることを意図しないことを更に理解されたい。明細書及び添付の特許請求の範囲で使用されるように、冠詞(「a」、「an」、「the」、及び「said」)は、文脈によって他のことが明らかに示されない限り、1以上の要素があることを意味していると意図されることに留意するべきである。したがって、例えば、「センサ」(a sensor)又は「前記センサ」(the sensor)に言及した場合、これは幾つかのセンサなどを含んでもよい。更に、「含む(comprising)」という用語は、他の要素又はステップを除外しない。
本発明の他の特徴及び利点は、添付の特許請求の範囲を参照して、現在の好適な実施形態の以下の詳細な説明から明らかになるであろう。
自然なアクセスの制限、すなわち、フェンスを含む光景を表す概略的な画像であり、その画像には、検出ラインのペアと物体の検出ボックスの重なりが挿入されている。 図1の検出ラインのペアと物体の検出ボックスを表す概略的な画像であり、本発明のある実施形態による方法に従って操作されるパラメータを示している。 図1の検出ラインのペアと、イベントを生成するサイズよりも大きいサイズと小さいサイズを有する物体の2つの例とを表す概略的な画像である。 図4は、光景内で検出ラインを設定するためのプロセスのフローチャートである。 動画ビデオカメラの手段によってキャプチャされた光景内の所定の第1のラインにおける物体横断イベントを検出するための方法のフローチャートである。 本発明のある実施形態による、ライン横断検出デバイスの概略的なブロック図である。 本発明のある実施形態による、動画ビデオカメラ内のライン横断検出デバイスの概略的なブロック図である。 複数の検出ラインのペアを示す概略的な画像である。
更に、図面では、同様の参照文字が、幾つかの図面を通して同様の部分又は対応する部分を指定する。
上述されたように、本発明は、上述されたように、境界監視、及び/又は1つのライン若しくは複数の関連付けられたラインが、人間、動物、又は任意の他の物体によって通過されることを禁止された境界若しくは制限を画定するところの領域内の監視に関する。この文章では、所定のライン又は制限を横断している物体の検出が、トリップワイヤー、トリップワイヤー検出、境界横断検出、ライン横断検出と呼ばれ得る。これらの用語の全ては、光景内の所定のラインを横断する物体のイベントを検出し又はそのイベントに反応する、同じ機能を表している。
次に図1を参照すると、動画ビデオカメラによってキャプチャされた、監視されている光景10の一実施例が示されている。この光景では、フェンス12の形態を採る物理的な境界が存在する。本実施例では、フェンス12が、人間によって通過されるべきではない境界であると想定する。境界を通過している人間を検出することを容易にするために、物理的な境界12は、検出を実行しているシステム内の論理ライン14、16のペアによって表されている。検出を実行しているシステムは、光景の画像をキャプチャしている動画ビデオカメラであり、又は該カメラに接続された別のデバイスであり、キャプチャされた光景からの画像データを処理する能力を有し得る。2つの論理ライン14、16は、ユーザによって画定され得る。ディスプレイ上で及び/又は光景のデジタル表現において論理ラインを画定するための複数の方法が、当業者に知られている。例えば、ユーザは、意図された論理ラインのそれぞれの端におけるポイントを選択し、ラインを一方のポイントから他方のポイントまで延在するラインとして規定し得る。2つのラインは、「遠近法」で描かれ、すなわち、2つのラインの間の距離は、光景内の深さを反映するはずである。これは、ユーザが、表示されたキャプチャされた光景を見ること及び光景内の様々な深さにおけるラインの間の固定された距離を可視化することによって達成され、それは、2つのラインが、見えるか又は見えないか分からない水平線上のポイントに向かって収束することをもたらし得る。このやり方で、ユーザは、画定された境界に沿ったキャプチャされた光景内の様々な深さにおける物体の実際のサイズを判定するための近似的な基準を入力する。
検出を実行するシステムは、光景内の物体、特に、移動している物体を検出するための物体検出機能も含む。更に、該システムは、物体画像18の面積Aを判定又は概算するように構成される。物体画像18は、動画ビデオカメラによってキャプチャされた現実の世界の物体の表現である。物体の検出及び物体画像の面積Aの判定又は概算は、任意の既知のプロセス、アルゴリズム、又は数値的方法を使用して実行され得る。例えば、面積は、四角形20又は多角形を検出された物体画像18に近似させ、その後、四角形20又は多角形の内側の画素の数を数えることによって計算され得る。画素は画像ブロックであり、それはピクセルであり得る。
本発明の実施形態では、検出された物体画像18の判定された面積、及び物体画像18がラインを横断していることを検出されたところの、ラインに沿った位置における2つのライン14、16の間の距離に基づいて、検出された物体が、興味の対象の物体であると判定される。物体画像18の面積と2つのライン14、16の間の距離との間の関係は、その後、カメラからの更に離れた距離における物体が、カメラに近い同じサイズの物体よりも画像センサ上の小さい面積としてキャプチャされるとしても、検出システムに、特定の実際のサイズの範囲内に物体を正確にアドレス(address)させるために使用されることが可能である。境界12に沿って表される位置がカメラから更に離れて見られると、ライン14、16の間の距離が小さくなるように、ライン14、16が配置されることによって、これは達成される。したがって、2つのライン14、16の間の距離は、システムが、検出された物体画像18の実際のサイズが所定の範囲内にあるか否かを判定することを可能にするために、サイズの基準として使用され得る。
図2では、ある実施形態による、トリップワイヤーイベントを判定することにおいて考慮されるパラメータが示されている。以前に述べられたように、ライン14、16の間の距離Lは、検出された物体画像18がライン14、16のうちの一方を横断する位置において、判定される。この距離Lは、横断位置におけるライン14、16の間の最も短い距離を計算することによって判定され得る。更に、ライン14を横断する際に検出された物体画像18の面積Aが判定される。この面積Aは、物体を取り囲む論理ボックスを生成し、その後、ボックス内のピクセルの数を計算することによって判定され得る。別の一代替例は、検出された物体画像18によって占められるピクセルに基づいて面積を計算する。当業者は、デジタル画像内の特定の領域の面積を計算するための多くの方法をよく知っている。横断している物体画像18がトリップワイヤーイベントを生成するべきか否かを判定するために、距離Lと物体画像の面積Aとの間の関係が観察される。この観察は、明らかに興味の対象ではない物体、例えば、境界12を横断している兎、境界12を横断する雲からの影などに対して、トリップワイヤーイベントが生成されることを避けるために実施されるべきである。図3は、両方ともが、トリップワイヤーイベントを生成するべき物体のサイズの範囲の外側にあるはずの、非常に小さい物体Ao1及び非常に大きい物体Ao2を表す面積を示している。更に、この図で見られるように、2つの物体画像30、32は、ライン14、16の間の異なる距離に関係している。面積Ao1を有する物体画像30は、物体画像30がラインのうちの一方を横断している位置におけるライン14、16の間の距離であるLd1と関係し、面積Ao2を有する物体画像32は、物体画像32がライン14、16のうちの一方を横断している位置におけるライン14、16の間の距離であるLd2と関係する。
ある実施形態では、ライン14、16を横断している検出された物体画像18の位置におけるライン14、16の間の距離Lと、検出された物体画像18の面積との間の関係が、ライン14、16を横断している物体画像の位置におけるライン距離Lに基づいて、物体画像18の面積に対する下側検出制限を計算すること、及び同じライン距離に基づいて、物体の面積に対する上側検出制限を計算することによって、すなわち、特定の位置においてトリップワイヤーイベントをトリガするべき面積の範囲を計算することによって判定され得る。下側検出制限は、ライン距離Lの二乗×下側検出係数kとして計算され得る。すなわち、
上側検出制限は、ライン距離Lの二乗×上側検出係数Kとして計算され得る。すなわち、
したがって、トリップワイヤーイベントをトリガする検出された物体の面積のサイズは、以下のように表現され得る。すなわち、
k≦A≦L
下側制限係数kの値と上側制限係数Kの値は、幾つかの実施形態に従って、予め設定され調整可能である。これらの係数の値は、カメラ内で使用されているレンズの焦点距離に応じて変動し得る。それらは、カメラの光学システムに適用可能ならば、ズームレベルにも応じて変動し得る。しかし、ライン14、16が、ほぼ1メートルだけ離れて設定され、トリップワイヤーイベントが、人間のサイズを有する物体によってトリガされることになっているならば、これらの係数に対する初期値は、k=1/5及びK=5であってもよい。これらの係数値は、非常に大きいエラーのマージンを許容し、すなわち、幾つかの望ましくない誤検出を生成し得るが、そこから調整が容易に行われ得るところの、システムの設定における完璧な開始点であり得る。これらの係数は、使用される物体検出アルゴリズムが、物体画像よりもかなり大きい物体画像の面積を提供する傾向があるときにも、優れた開始点である。検出された物体画像に対してより精密な面積予測アルゴリズムを有する実施態様では、係数が、好適にk=0.75及びK=1.25に設定され得る。
更に、図1〜図3との関連で説明された設定におけるトリップワイヤー検出は、ライン14、16のうちのいずれか一方が、規定された範囲内のサイズを有する物体画像18によって破られたときに、トリップワイヤーイベントを生成するように構成され得る。しかし、カメラからの距離に関係する物体の相対的なサイズを計算するための入力を提供するために、ライン14及び16に対応する2つのラインが配置される一方で、代替的に、ライン14、16のうちの一方だけが物体の横断を検出するために配置され、更に別の一代替例では、更なるラインが境界それ自体の上に配置され得る。更なる実施形態では、2つの検出ライン14、16のシステムが、検出ライン14、16のうちの1つ目を物体が横断したとき、及び2つ目の検出ライン14、16を破っているときに、トリップワイヤーイベントを生成するように指示命令され得る。物体が検出ラインまで移動し、それによって、物体の何れかの部分が現実の世界のラインを横断することなしに、キャプチャされた光景内で、物体画像18のある部分が検出ライン14、16に重なる状況に対して、誤検出の生成が避けられ得るので、この実施態様は有利である。
次に図4のフローチャートを参照すると、本発明のある実施形態による、ユーザがトリップワイヤー検出ラインを設定するための方法(プロセス100)が示されている。先ず、それに対してトリップワイヤー検出が設定されるべきところの、光景のデジタル画像が、検出ラインを設定するオペレータのために表示される(ステップ102)。デジタル画像は、光景の静止画像であり、記録された動画ビデオであり、又は生の動画ビデオストリームであり得る。その後、ユーザは、光景内で第1のポイント及び第2のポイントを指し示すことによって、第1の検出ライン14を画定することから開始する(ステップ104)。その時、ラインは、これらの2つのポイントの間のラインとして画定される。その後、ユーザは、光景内で第3のポイント及び第4のポイントを指し示すことによって、第2の検出ライン16を画定する(ステップ106)。2つのライン14、16は、上述されたように、カメラに近い領域では、互いから大きく離れた距離において配置され、カメラから更に離れた光景の位置では、互いから近い距離において配置される。ラインが設定されるときに、ユーザは、下側制限係数k及び上側制限係数Kの値を調整する機会が与えられ得る(ステップ108)。ライン14、16が画定されるときに、システムは、具体的な事例における用途に関係するサイズの物体の検出のために設定される。
図5のフローチャートでは、トリップワイヤーイベントの生成のためのプロセス(200)が提示される。プロセスは、動画ビデオを受信すること(ステップ202)及び動画ビデオ内の物体画像を検出すること(ステップ204)を含む。その後、物体画像18の位置が、検出ライン14、16の少なくとも一方によって占められた位置と比較される(ステップ206)。検出された物体画像18が、検出ライン14、16のうちの一方を横断しているならば、その時、プロセスはステップ208へと続く。検出された物体画像18が、検出ライン14、16のうちの一方を横断していないならば、その時、プロセスは前に戻って更なる動画ビデオを受信し物体画像の検出を継続する。
システムがラインの横断として解釈するための基準を規定する様々なやり方が存在する。システムを実施する1つのやり方は、物体画像の周りに描かれたボックスがラインと接触したときに、システムにラインの横断を検出させることである。別の1つのやり方は、検出された物体画像の1つのピクセル又は2、3のピクセルが、ラインに接触するや否や横断を検出することである。更に別の1つのやり方は、所定量の物体画像がラインを横断したとき、又は物体画像の全体がラインを横断しラインの他方の側から離れているときに、ラインの横断を検出することである。更に、上述したように、検出において使用されるラインは、実施態様に応じて変動し得る。
その後、物体画像18がライン14、16を横断していることを検出したときに、物体画像18の面積Aが計算される(ステップ208)。面積Aは、上述された別のやり方においても判定され得る。その後、物体の検出が検討対象の物体に関するものであるか否かを判定するために、ラインの横断の位置における検出ラインのペアの検出ライン14、16の間の最も短い距離が計算される(ステップ210)。ラインのうちの一方を横断している物体の位置における2つのライン14、16の間の距離を求めるための他のスキームが、上述されたように実施され得る。その後、物体の面積A及びラインのうちの一方の横断位置におけるラインの間の距離Lが使用され、例えば、上述されたように、ライン距離の二乗L を物体の面積Aと比較することによって、物体画像18の面積Aが、2つのライン14、16の間の距離によって示されるカメラからの距離において規定された範囲内にあるか否かを判定する(ステップ212)。ライン距離Lとライン14、16を横断している物体画像の面積Aの間の関係が、現実の世界の物体が、現在のモニタリングスキームの興味の対象のサイズであることを示しているならば、その時、トリップワイヤーイベントが生成され(ステップ214)、トリップワイヤーイベントが、1以上のユーザに対して、警報信号伝達デバイス又はモニタリングクライアント内のディスプレイ上に提示される。ライン14、16を横断する物体の面積Aが、興味の対象の物体よりも小さい又は大きい値であると判定されたならば、その時、プロセスは、ステップ202へ戻り、トリップワイヤーイベントを生成することなしに、トリップワイヤーのモニタリングを継続する。
次に図6を参照すると、本発明のある実施形態による、ライン横断検出デバイス300の一実施例が示されている。このライン横断検出デバイスは、ビデオ入力デバイス302、物体画像検出器304、処理ユニット306、不揮発性メモリ308、トリップワイヤーイベント生成器310、イベントを含むデータの出力のための出力デバイス312を含む。ライン横断検出デバイス300は、汎用コンピュータ、アナログビデオをデジタルビデオに符号化し、結果としてのビデオをコンピュータネットワークを介してクライアントに送信するように構成されたネットワーク化されたビデオエンコーダ、又は動画ビデオ内のライン横断を検出する目的で構築されたデバイスであり得る。ビデオ入力デバイス302は、動画ビデオ、例えば、アナログビデオ、又はデジタルビデオを含むネットワークトラフィックを受信するように構成されたポートである。物体検出器304は、受信された動画ビデオ内の物体を検出するように構成される。
物体画像検出器304は、電子回路、論理ゲートなどを使用して実装され得る。物体画像検出器304も、処理デバイス内で実行されるプログラムコードの手段によって実装され、その処理デバイスは、分離した処理デバイス又は処理ユニット306であり得る。物体画像検出器304の機能は、受信された動画ビデオ内の物体画像を特定することができ、当業者は、そのような機能を達成するための複数の異なる潜在的な実施態様をよく知っている。
処理ユニット306は、任意のタイプの汎用コンピュータ、例えば、マイクロプロセッサ、CPUなどであり、それは、メモリ内に記憶されたプログラムを実行することができる。ライン横断検出デバイス300の実施例では、処理ユニット306が、検出ラインのペア14、16において、ライン14、16のうちの少なくとも一方を横断している物体画像18を検出することに関する、物体画像の面積を計算することに関する、ライン距離Lと物体画像の面積Aとの間の関係を計算することに関するコードを実行し、これらの動作に基づいてトリップワイヤーイベントの生成に対する指示命令を送信する。ある実施形態では、図5に関連して説明された全ての機能が、対応する処理ユニット内でコードを実行する手段によって実行される。不揮発性メモリ308は、処理ユニット306によって実行されるべきプログラムコードなどの情報を記憶し得る。更に、不揮発性メモリ308は、ライン横断検出において使用される検出ライン14、16を画定するデータ、及び同じ目的のために使用される係数k、Kも記憶し得る。
トリップワイヤーイベント生成器310は、ユーザ又はオペレータに検出ライン14、16が横断されたという事実を警告する、トリップワイヤーイベントを生成するように構成される。出力デバイス312は、ネットワークを介してトリップワイヤーイベントをクライアントへ送信するためのネットワーク接続であり得る。代替的に、出力デバイス312は、トリップワイヤーイベント生成器310が、提示されるべき画像の重ね合わせ及び/又は音を生成し得る場合に、ユーザ又はオペレータにインターフェースを提示するディスプレイ出力デバイスであり得る。
他の実施形態では、ライン横断検出デバイスが、ネットワーク化された動画ビデオカメラ320内に実装される。そのような実施形態の一実施例が、図7に示されている。図6からの特徴と同じ参照番号を有する図7の特徴は、図6との関連で説明されたものとして理解されるべきであり、したがって、図7の説明においては説明されない。特徴における主たる差異は、ネットワーク化された動画ビデオカメラ320内の出力デバイス312が、ネットワーク接続を提供するように構成されたデバイスだということであり、そのネットワーク接続は、ライン横断検出デバイス300に対する代替例でもあった。更に、ビデオ入力デバイス302は、レンズ322、画像センサ324、及び画像プロセッサ326によって置き換えられている。これらの特徴は、当業者によく知られており、したがって、本明細書では詳細に説明しない。
本発明のある実施形態によれば、ライン検出プロセスは、複数のラインに対するライン横断を検出するように実装され得る。図8では、この実施例が示されている。図は、2つの異なる検出ラインのペア14a、16a、及び14b、16bを示している。ライン検出動作は、プロセスが、各検出ラインのベアを個別にチェックしなければならない、すなわち、物体画像18がラインを横断したか否かの検証が、各検出ラインのペア14a、16a、及び14b、16bに対して個別に実行されるという差異を除いて、1つのライン検出ペアに対するのと同じやり方で動作する。その後、単一の検出ラインのペアに対して説明された上述のプロセスが、本説明で上述された単一の検出ラインのペアの場合に対して説明されたのと同じやり方で、各検出ラインのペア14a、16a、及び14b、16bを処理することによって同様に、複数の検出ラインのペアに適用可能である。当業者は、検出ラインのペアの数が3以上であり得ることを理解する。検出ラインのペアの数を制限する1つのものは、キャプチャされる動画ビデオの解像度、及び1つの光景内に収まり得る検出ラインのペアの数であり得る。更に、検出ラインのペアの数は、検出プロセスを実装するデバイスの処理能力によっても制限され得る。
ある実施形態によれば、ライン横断の検出に対して処理される動画ビデオは、キャプチャされた赤外線放射から作られた動画ビデオ、すなわち、赤外線動画ビデオであり得る。動画ビデオカメラ内に実装されているプロセスの場合に、動画ビデオカメラは、赤外線放射をキャプチャできる赤外線画像センサを含む。

Claims (11)

  1. 動画ビデオカメラによってキャプチャされた光景内の所定の第1のライン(14、16)における物体横断イベントを検出するための方法であって、
    前記動画ビデオカメラによってキャプチャされた前記光景の画像から、物体画像(18)が前記所定の第1のライン(14、16)を横断しているか否かを判定すること、
    前記所定の第1のライン(14、16)を横断している前記物体画像(18)のサイズに関するサイズ値(A)を計算すること、
    ライン距離(L)値を、前記物体の前記所定の第1のライン(14、16)との接触点と、所定の第2のライン(16、14)との間の最短距離から計算された値に設定すること、及び
    前記計算されたサイズ値(A)と前記ライン距離(L)との間の関係が所定の範囲内にあるならば、物体横断イベント信号を生成することを含む、方法。
  2. 前記物体画像(18)の前記サイズに関する前記サイズ値(A)が、前記キャプチャされた画像内の前記物体によって占められた面積(A)のサイズに関係する、請求項1に記載の方法。
  3. 前記物体画像(18)の前記サイズに関係する前記面積(A)の前記サイズが、前記キャプチャされた画像内で前記物体画像(18)が占める画素の数から計算される、請求項2に記載の方法。
  4. 前記物体が前記所定の第1のライン(14、16)を横断しているか否かを判定することが、前記光景のキャプチャされた画像内で、前記物体を表す画素が前記所定の第1のライン(14、16)内に含まれる画素上に配置されているか否かを検出することを含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記所定の第1のライン(14、16)及び前記所定の第2のライン(16、14)が仮想のラインであり、各ライン(14、16)が前記光景内の位置を表す少なくとも2つの座標によって画定される、請求項1から4のいずれか一項に記載の方法。
  6. 前記動画ビデオカメラから更に離れた位置を表している前記光景内の画素において、前記所定の第1のラインと前記所定の第2のライン(14、16)が互いに接近しているように、前記所定の第1のライン及び前記所定の第2のライン(14、16)が前記光景内で画定される、請求項1から5のいずれか一項に記載の方法。
  7. 前記ライン距離(L)を判定することが、前記物体画像(18)の前記所定の第1のライン(14、16)との前記接触点までの最も短い距離を有する、前記所定の第2のライン(16、14)に沿った位置を計算することを含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記所定の第1のライン(14、16)と前記所定の第2のライン(16、14)が検出ラインのペアであり、複数の検出ラインのペア(14a、16a、14b、16b)が1つの光景に対して画定され得る、請求項1から7のいずれか一項に記載の方法。
  9. 前記計算されたサイズ値(A)と前記ライン距離(L)の二乗との間の関係が所定の範囲内にあるときに、前記物体横断イベント信号が生成される、請求項1から8のいずれか一項に記載の方法。
  10. 以下の関係、すなわち、
    k≦A≦L
    が有効になるや否や、前記物体横断イベント信号が生成され、ここで、Lは、プロセス内で判定された前記ライン距離の値であり、Aは、プロセス内で判定された前記物体の面積の値であり、kは、所定の下側制限定数であり、Kは、所定の上側制限定数である、請求項1から9のいずれか一項に記載の方法。
  11. キャプチャされた光景内で所定のラインを横断している物体を検出するためのシステムであって、請求項1から10のいずれか一項に記載の方法を実行するように構成されている、システム。
JP2016236879A 2015-12-11 2016-12-06 モニタリングシステムにおける信頼性を高めるための方法 Active JP6325643B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15199524.8 2015-12-11
EP15199524.8A EP3179406B1 (en) 2015-12-11 2015-12-11 Method for increasing reliability in monitoring systems

Publications (3)

Publication Number Publication Date
JP2017188070A JP2017188070A (ja) 2017-10-12
JP2017188070A5 JP2017188070A5 (ja) 2018-03-29
JP6325643B2 true JP6325643B2 (ja) 2018-05-16

Family

ID=55024761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016236879A Active JP6325643B2 (ja) 2015-12-11 2016-12-06 モニタリングシステムにおける信頼性を高めるための方法

Country Status (6)

Country Link
US (1) US10055847B2 (ja)
EP (1) EP3179406B1 (ja)
JP (1) JP6325643B2 (ja)
KR (1) KR101889051B1 (ja)
CN (1) CN106874829B (ja)
TW (1) TWI704529B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445102B2 (en) 2018-08-31 2022-09-13 Sony Corporation Information processing device and information processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475640B2 (en) * 2020-02-28 2022-10-18 Manuel Martinello Detection-area fencing with polarity and object ingress/egress monitoring
US11556098B2 (en) 2020-02-28 2023-01-17 Ricoh Company, Ltd. Tracking conditions concerning an area to automatically generate artificial intelligence based responsive actions

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816184B1 (en) * 1998-04-30 2004-11-09 Texas Instruments Incorporated Method and apparatus for mapping a location from a video image to a map
TWI277912B (en) * 2005-01-11 2007-04-01 Huper Lab Co Ltd Method for calculating a transform coordinate on a second video of an object having an object coordinate on a first video and related operation process and video surveillance system
WO2006103744A1 (ja) * 2005-03-29 2006-10-05 Fujitsu Limited 映像管理システム
TW200806020A (en) * 2006-07-07 2008-01-16 Wen Wen Hung Tech Corp Image tracking method
CN101123721A (zh) * 2007-09-30 2008-02-13 湖北东润科技有限公司 一种智能视频监控***及其监控方法
DE102007058959A1 (de) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Konfigurationsmodul für ein Überwachungssystem, Überwachungssystem, Verfahren zur Konfiguration des Überwachungssystems sowie Computerprogramm
US20110033087A1 (en) * 2008-04-09 2011-02-10 Finn Alan M Video content analysis
RU2484531C2 (ru) * 2009-01-22 2013-06-10 Государственное научное учреждение центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики (ЦНИИ РТК) Устройство обработки видеоинформации системы охранной сигнализации
GB2484668A (en) * 2010-10-18 2012-04-25 Intelligent Door Solutions Ltd Motion Sensitive System and Method of Generating a Control Signal
EP2607952B1 (en) * 2011-12-21 2013-12-04 Axis AB Monitoring camera and method for monitoring
CN103456024B (zh) * 2012-06-02 2016-03-09 浙江西谷数字技术有限公司 一种运动目标越线判断方法
KR20140056790A (ko) * 2012-10-31 2014-05-12 한국전자통신연구원 영상 인식 장치 및 그 방법
JP5574551B2 (ja) * 2012-12-14 2014-08-20 株式会社日立国際電気 画像処理装置および画像処理方法
CN103345840B (zh) * 2013-05-28 2015-09-23 南京正保通信网络技术有限公司 一种交叉道路口横穿道路事件视频检测方法
JP2015018330A (ja) * 2013-07-09 2015-01-29 大日本印刷株式会社 移動体の方向別計数システム
TWI508027B (zh) * 2013-08-08 2015-11-11 Huper Lab Co Ltd 三維偵測裝置及其偵測影像之方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445102B2 (en) 2018-08-31 2022-09-13 Sony Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
TW201721583A (zh) 2017-06-16
CN106874829B (zh) 2018-10-26
CN106874829A (zh) 2017-06-20
KR20170069937A (ko) 2017-06-21
US10055847B2 (en) 2018-08-21
JP2017188070A (ja) 2017-10-12
KR101889051B1 (ko) 2018-08-20
US20170169560A1 (en) 2017-06-15
EP3179406A1 (en) 2017-06-14
EP3179406B1 (en) 2017-11-22
TWI704529B (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
CN109076198B (zh) 基于视频的对象跟踪遮挡检测***、方法和设备
CN110794405B (zh) 一种基于相机和雷达融合的目标检测方法及***
CN108256404B (zh) 行人检测方法和装置
CN109727275B (zh) 目标检测方法、装置、***和计算机可读存储介质
CN111724558B (zh) 一种监控方法、装置及入侵报警***
JP6325643B2 (ja) モニタリングシステムにおける信頼性を高めるための方法
CN106845352B (zh) 行人检测方法和装置
US11373396B2 (en) Systems and methods for improved feature extraction using polarization information
US10997469B2 (en) Method and system for facilitating improved training of a supervised machine learning process
CN112634577A (zh) 用于烟雾报警的方法和设备
JP6525934B2 (ja) 画像処理装置および制御方法
JP6096589B2 (ja) 火災検知装置及び火災検知方法
WO2020091749A1 (en) Object detection using a combination of deep learning and non-deep learning techniques
CN114255477A (zh) 一种吸烟行为检测的方法和相关装置
JP6784254B2 (ja) 滞留物体検出システム、滞留物体検出方法およびプログラム
JP7079466B2 (ja) 人属性認識システムおよびプログラム
JP6448457B2 (ja) 撮影方向変動検出装置および撮影方向変動検出方法
JP7311299B2 (ja) 人認識システムおよび人認識プログラム
WO2022254890A1 (ja) 動線解析装置、動線解析方法及びコンピュータプログラム
JP6317490B2 (ja) 火災検知装置及び火災検知方法
WO2024038551A1 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
US10127440B1 (en) Insect indicia-based alert suppression apparatus, system, and method of operation
JP2008046769A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN114255384A (zh) 一种人数检测方法、装置、电子设备及存储介质
JP2014222430A (ja) 火災検知装置及び火災検知方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180216

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180412

R150 Certificate of patent or registration of utility model

Ref document number: 6325643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250