JP3569992B2 - 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム - Google Patents

移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム Download PDF

Info

Publication number
JP3569992B2
JP3569992B2 JP02909995A JP2909995A JP3569992B2 JP 3569992 B2 JP3569992 B2 JP 3569992B2 JP 02909995 A JP02909995 A JP 02909995A JP 2909995 A JP2909995 A JP 2909995A JP 3569992 B2 JP3569992 B2 JP 3569992B2
Authority
JP
Japan
Prior art keywords
background
image
moving object
region
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02909995A
Other languages
English (en)
Other versions
JPH08221577A (ja
Inventor
茂喜 長屋
孝文 宮武
武洋 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP02909995A priority Critical patent/JP3569992B2/ja
Priority to US08/601,951 priority patent/US5721692A/en
Publication of JPH08221577A publication Critical patent/JPH08221577A/ja
Priority to US09/023,467 priority patent/US5862508A/en
Priority to US09/946,528 priority patent/US20020030739A1/en
Application granted granted Critical
Publication of JP3569992B2 publication Critical patent/JP3569992B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、道路における交通流の計測や、線路・踏切における異常検知、銀行やコンビニエンスストアにおける犯罪防止など、カメラにより入力された映像監視のための、移動体検出・抽出装置及び方法に関する。
【0002】
【従来の技術】
現在、道路や踏切、銀行のサービスフロア等のいたる場所でカメラ映像による監視が行われている。これらは、特定の場所を移動する物体(以下では、移動体または移動物体という)を監視することによって、交通集中を解消したり、事故や犯罪を未然に防止することを目的としている。例えば、街頭でときどき行われている交通流調査では、自動車やバイク、自転車、人が、監視区域を何台通過したか計測したり、様々なカテゴリに分類したりして、交通流に関する統計的情報を収集することができる。また、道路上での渋滞監視や踏切事故の監視、銀行やコンビニエンス・ストアのサービスフロア等に対する監視では、渋滞やエンストといった車両の停止、或いは落下物、あやしげな挙動を示す顧客などの異常を検知することにより、事故や犯罪を未然に防ぐことがでいる。このように、移動体に対する映像監視のニーズはきわめて高い。ところが、現在の映像監視は技術的な問題から人手に頼らざるを得ない状況にある。このため、コストが非常に高く、また、人的ミスが入り込みやすい等の問題が生じている。こうした背景から、コンピュータ等による監視処理の自動化が求められており、モデルやテンプレート等を用いた様々な手法が提案されている。
【0003】
ところが、実際の映像監視のケースでは屋内よりも屋外であることが多い。このため、対象や背景などは降雨や積雪などの気象条件や日照や街灯といった照明条件の影響を強く受ける。例えば、降雨が原因となる周囲の写り込みや光の反射などによって、見かけ上の形状が大きく変化する。また、照明が日光から水銀灯などへの変化により、監視対象と背景との明るさや色彩上の対比関係の変化する。同一箇所の映像であっても、季節や時刻によって、画像としての性質は大きく変化する。このため、ある条件下では有効な特徴量を抽出できても、他の条件下では抽出できなくなる場合が頻繁に生じる。このように、複雑な背景下では、認識アルゴリズムに用いる特徴量の種類によってはその信頼性が非常に低くなるため、実用化が困難であった。
【0004】
こうした複雑背景の問題の内、漸近的な照明変化を解決するものとして、背景差分を用いた移動体検出手法がある。背景差分とは、固定カメラで撮影された映像では背景がほとんど変化しないことを利用して、背景だけが映っている背景画像と移動体を含むフレーム画像との差分をとることにより、移動体だけを分離・抽出する手法である。背景画像を自動的に取得するには、画素毎にその濃度について時間方向のメディアンやモードを求め、これを使う方法を用いる。図24に背景差分を用いた移動体検出手法の原理を簡単に示す。監視対象となるシーン110について、背景画像100があらかじめ与えられていれば、背景画像100とシーン110との差分画像120から、移動体111をシーン変化121として分離・抽出できる。この手法の特長は、どんな監視場所に対してもロバストな点である。カメラの動きがないものと仮定すれば、どんな複雑な背景であっても、電柱101の様に差分操作で消えてしまうためである。こうした背景差分による移動体検出法の従来技術として、(1)電子情報通信学会論文 D−II Vol.J72−D−II, No.6, pp.855−865,1989、(2)情報処理学会コンピュータビジョン研究会報告75−5,1991、(3)電子情報通信学会論文 D−II Vol.J77−D−II, No.9, pp.1716−1726,1994などがある。
【0005】
【発明が解決しようとする課題】
しかし、これらの従来技術では背景の構造的変化に弱いという問題点があった。図25に従来技術の問題点を簡単に示す。例えば、背景画像100のシーン中に、駐停車した車両131が現れて、シーン130の様に背景の構造変化が生じたとする。従来技術では、背景画像100とシーン130との差分画像140に示されるように、駐停車した車両131が変化分141として抽出される。ところが、この変化分141が移動体によるものなのか、背景の構造変化によるものなのかを区別できないため、背景の構造変化の発生以降のシーン150では、移動体151が通過しても構造変化と移動体がシーン160中の領域161の様にくっついて分離できなくなってしまう。実際の映像監視では、こうした背景の構造変化が数多く生じる。例えば、上記のように、道路を通過していた自動車が路肩のパーキングメータに駐停車し、その自動車が新しい背景の一部となる場合がある。逆に、駐停車していた車両が移動して、その車両によって隠されていた領域が新しい背景の一部となることもある。また、通過した車両が道路上に物を落としていった場合も、落下物が新しい背景の一部となる。さらに、雪上を車両が通過することによってできる轍などもある。
【0006】
このように、従来の背景差分を用いた手法では、背景の構造的な変化に対応できない。これは、背景構造の変化した部分が、移動体であるか、新たな背景部分であるかを区別できないためである。区別を行うために、移動体の運動解析を行うことが考えられるが、オプティカルフローなどの運動解析アルゴリズムでは、移動体の数を前もって知る必要があるため、いったん移動体数を誤認識するとそれ以降の処理では、背景変化領域の分離はおろか、背景変化の有無すら判定が困難となる。
【0007】
さらに、移動体の分離・抽出が不安定であるということが挙げられる。これは、仮に背景変化の有無を判定できたとしても、上記の理由から背景変化部分と移動体領域をいつでも正確に判別できるとはかぎらないためである。例えば、移動する車両から荷物が落ちて路上に残った場合、この落下物による新たな背景の変化を検出し背景を更新すると、移動体領域も一緒に背景として更新され、背景更新時に移動体が存在していた領域にゴミが混入する。このように、背景の構造変化が生じた後では、移動体を背景から正しく分離・抽出することができなくなり、結果的に監視処理を継続することが困難になっていた。
【0008】
以上の問題点を解決するため、本発明では次の三つの目的を挙げる。
第一の目的は、着目した画素領域が背景か移動体かの判定を行い、背景の変化があればその種類を判定することである。
第二の目的は、背景変化部分と移動体領域とを分離・判別して、移動体のみを抽出することである。
第三の目的として、抽出した移動体の運動方向や速度を簡単に算出することである。
【0009】
【課題を解決するための手段】
まず、本発明を構成する基本的な手段として、映像を入力する手段と、移動体を抽出・検出する手段と、処理結果を映像として出力する手段を有する。
【0010】
次に、第一の目的である、特定の画素領域について移動体と背景の構造変化の有無の判定を実現するために以下の手段を提供する。
映像中から背景判定を行う画素領域を取得する手段と、ある時刻における画素領域とフレーム毎の画素領域との相関を算出する手段と、算出された相関値を時系列として保持すると、保持されている相関値の時系列から、移動体が存在せず背景と予測される時間区間を判定する手段と、判定された背景と予測される時間区間から、移動体が存在する時間区間を決定する手段を有する。また、移動体が存在する時間区間を決定する手段には、判定された背景と予測される時間区間から背景の変化の有無を判定する手段と、判定された背景の変化を照度変化と構造変化に分別する手段と、判定された背景と予測される時間区間から移動体が存在する時間区間を決定する手段を備える。
【0011】
第二の目的である、背景変化部分と移動体領域とを分離・判別して、移動体のみの抽出を実現するために以下の手段を提供する。
移動体が存在する時間区間をもとに、移動体を含むフレーム画像と、移動体が存在する時間区間の前後に位置する、二つの背景のみが写っている画像(移動体が存在する時間区間より過去の背景画像と未来の背景画像)、映像中から取得する手段と、フレーム画像と過去の背景画像と未来の背景画像から、過去背景差分画像と未来背景差分画像を作成する手段と、過去背景差分画像と未来背景差分画像から、論理積により統合領域を求める手段と、フレーム画像と統合領域から、移動体画像を切り出す手段を有する。
【0012】
第三の目的である、抽出した移動体の運動方向や速度を簡単に算出するために以下の手段を提供する。
移動体が存在する時間区間の時空間画像を切り出す手段と、移動体が存在する時間区間の前後に位置する二つの背景のみのスリット画像(移動体が存在する時間区間より、過去の背景スリット画像と未来の背景スリット画像)と、時空間画像から移動体領域候補を分離する手段と、伸張収縮処理及び穴埋め処理により移動体領域候補を補正する手段と、補正された二つ背景差分画像から共通する統合領域を求める手段と、得られた統合領域の傾きを算出し、移動体の方向・速度を推定する手段を有する。
【0013】
その他の特徴的な移動体検出・抽出装置及び方法は、明細書中の記載から自と明らかになるであろう。
【0014】
【作用】
本発明では、映像入力手段により入力された映像をもとに、以下の手順で移動体の検出・抽出処理が行われる。
【0015】
まず最初に、特定の画素領域について移動体と背景の構造変化の判定が行われる。映像中から背景判定を行う画素領域を取得し、フレーム毎に画素領域が取得され、ある時刻における画素領域との相関が算出される。算出された相関値は時系列として扱うことができるようになる。次に、この相関値の時系列に対し、移動体が存在せず背景と予測される時間区間を判定する。この背景と予測される時間区間に背景の変化が生じたどうかを判定し、判定された背景の変化を照度変化と構造変化に分別する。最後に、背景と予測される時間区間から移動体が存在する時間区間を決定する。
【0016】
次に、背景変化部分と移動体領域とを分離・判別して、移動体のみを抽出する。まず、移動体が存在する時間区間をもとに、移動体を含むフレーム画像を取得する。次に、移動体が存在する時間区間の前後に位置する、過去の背景画像と未来の背景画像を、映像中から取得する。次いで、フレーム画像と過去の背景画像と未来の背景画像から、過去背景差分画像と未来背景差分画像を作成する。過去背景差分画像と未来背景差分画像から論理積により統合領域を求め、最後に、フレーム画像と統合領域から移動体画像を切り出す。
【0017】
第三に、抽出した移動体の運動方向や速度を簡単に算出する。まず、移動体が存在する時間区間の時空間画像を切り出す。次いで、背景スリット画像と時空間画像から移動体領域候補を分離する。伸張収縮及び穴埋め処理によって、移動体領域候補を補正する。補正された過去背景差分画像と未来背景差分画像の論理積から統合領域を求め、最後に、統合領域の傾きを算出し、移動体の方向・速度を推定する。
【0018】
最後に、上記処理結果を結果出力をする手段によりディスプレイ上に表示する。
【0019】
【実施例】
以下、本発明の一実施例を詳細に説明する。
図2に、本発明を実現するハードウエア構成の一例である。TVカメラ200は監視対象となるシーンを撮影し、これを映像信号201に変換して、コンピュータ400に送る。伝送の際、映像信号201はフレーム毎にデジタル化されて、コンピュータ400内のメモリに格納される。コンピュータ400は、そのメモリ内容を読みとり、メモリ内の別のアドレスに格納された処理プログラムに従って、フレーム画像上の画素が背景であるか移動体であるかの判定と、移動物体の切り出し、運動方向・速度の推定を行う。抽出された移動物体の画像とそれに付随する他の処理結果等はディスプレイ300に伝送される。ディスプレイ300は、コンピュータ400で処理された結果である、背景画像や移動体の画像、運動方向・速度を画面上に出力する。また、これらの情報は、ネットワーク210を通じて、安全制御装置や監視センタのディスプレイなどに送られる。
【0020】
図1は、コンピュータ400内部に実現されたシステム構成の一例である。コンピュータ400は、映像入力手段500、結果出力手段600、背景判定手段700、運動解析手段800、移動体抽出手段900、の大きく五つから構成される。これらの各手段は、実際はコンピュータ400内にて、記憶手段に格納されたプログラムがロードされ、CPUにて実行される。勿論、ソフトウエアによる処理ではなく、適宜ハードウエアによって実現してもよい。
【0021】
映像入力手段500は、映像信号201をフレーム毎にデジタル画像データ1000に変換して、背景判定手段700、運動解析手段800、移動体抽出手段900に伝送する。結果出力手段600は、背景判定手段700、運動解析手段800、移動体抽出手段900での処理結果である、背景画像1002や運動方向・速度1003、移動体の画像1004をディスプレイ上にユーザが見やすい形態で表示するものである。
背景判定手段700は、デジタル画像データ1000上の画素毎に背景であるか、移動体であるか、背景構造の変化であるかを判定し、移動体存在区間情報1001を運動解析手段800、移動体抽出手段900に伝送する。移動体存在区間情報1001とは、画素毎の、移動体が存在すると判定された区間(時間)情報をまとめたものである。このほか、背景判定手段700は背景と判定された画素を集積した背景画像1002を結果出力手段600に伝送する。背景判定方法の詳細については、図3〜図12で説明する。
運動解析手段800は、デジタル画像データ1000と移動体存在区間情報1001から移動体の運動方向・速度1003を算出し、結果出力手段600に伝送する。移動体の運動方向・速度1003の算出方法の詳細については、図13〜図19で説明する。移動体抽出手段900は、デジタル画像データ1000と移動体存在区間情報1001から移動体画像1004を抽出し、結果出力手段600に伝送する。移動体画像1004の抽出装置の詳細については、図20〜図22で説明する。
【0022】
まず、図3〜図5で、移動物体と背景の構造変化の有無を判定する方法の概要を説明する。次に図6〜図12でこれを実現する背景判定手段について説明する。
【0023】
図3は、映像とスリット画像、時空間画像の関係を示したものである。映像(動画像)は毎秒25〜30枚のフレーム画像と呼ばれる静止画像のシーケンスから構成されている。これを模擬的に表したものが、映像1010である。この場合、映像1010は時刻T0から時刻Tnまでのフレーム画像を並べたものである。スリット画像1040は、フレーム画像1020中からスリット1030と呼ばれる線分に含まれる画素を集めた画像である。このスリット画像1040をフレーム毎に時間順に並べたものを時空間画像1050と呼ぶ。これは、時空間画像1050が時間方向と空間方向の両方の情報を含む画像だからである。
固定カメラの時空間画像1050では、時間的に濃度変化のない画素は図3の1051のように時間方向に水平に流れる線となる。このように時間的に濃度変化のない画素は、背景と考えることができる。一方、背景であっても水平線がとぎれることがある。これは、日照条件など照度の変化や、背景を構成している物体の移動などによって、背景であっても画素の濃度が変化するからである。
これに対し、フレーム画像中を移動する物体は、図3の1052のようにその画像が現れて通常は水平線にはならない。移動体が水平線になるのは、スリット上で静止したような場合か、移動方向と水平にスリットが置かれた場合だけである。これは先に述べた背景を構成している物体が変化した場合に含めることができる。
このように、時空間画像1050では、背景は水平な線1051に、背景以外は1052のように変化する。さらに、この変化1052の原因は移動物体か背景変化であると考えられる。本発明では、この時空間画像1050の性質をもとに背景かどうかの判定を行い、移動体を検出・抽出する。
【0024】
図4は、背景区間のスリット画像と各時刻における対象スリットとの距離の関係を示したものである。まず、時空間画像1050の、移動体や背景の変化のない時間区間から、スリット画像1040を取り出し、これを背景スリットβ1041とする。次に、これ以外の時刻から、スリット画像1040を取り出し、これを対象スリットτ1042とする。ここで、スリット画像1040を構成する各画素の濃度をベクトル要素とする、スリットベクトルを考え、式1060で与えられるふたつのスリット・ベクトルの距離δを考える。時空間画像1050に対して、各時刻の対象スリットτ1042毎に距離δを求めると、これを時刻順に並べた距離時系列1070で与えられるグラフが得られる。
距離時系列1070と図3で説明した時空間画像1050の性質から次のことがわかる。距離時系列1070の内、一定以上の長さを持つ平坦な部分は、背景であり移動体の存在しないと予測される。また、これ以外の変化の大きい部分には、移動物体の通過や背景の変化が起こったと考えられる。以降の説明でこれらを区別するために、距離時系列1070の内、一定以上の長さを持つ平坦な部分を背景候補区間1071とし、これ以外を移動体存在区間1072と定義する。
【0025】
図5に、背景の構造変化が発生した場合の時空間画像1050と距離時系列1070を示す。ここでは、図5(a)の映像1010に示すように、移動物体1100が落下物1200をスリット1030上に落とした場合を考える。この場合、落下物1200によって背景の構造が変化するため、その時空間画像1050は図5(b)のようになる。すなわち、移動体1100の時空間画像上の像1101のすぐ後に、落下物1200の像1201が現れる。途中から背景の一部となるため、その像1201は、図5(b)に示されるような水平線となる。
こうした時空間画像1050に対して、背景スリットβ1041を用いて距離時系列1070を求めると図5(c)のようになる。この距離時系列1070の内、背景候補区間1073も背景候補区間1074も、距離時系列1070の内の一定以上の長さを持つ平坦な部分であるから、ともに背景候補区間1071である。ところが、背景スリットβ1041と同一スリットの区間では、背景候補区間1073のように、その平均値がほとんどゼロになるのに対し、落下物の像1201のために背景スリットβ1041とスリットが異なる場合、背景候補区間1074のように、その平均値が一定以上の値になる。これは、落下物の像1201を背景スリットβ1041との差として検出するためである。このように同じ背景候補区間1071であっても、背景スリットβ1041と同一のスリット画像であるかどうかで、距離時系列1070の平均値は異なる。そこで、以降の説明では両者を区別するために、それぞれの背景候補区間1071を真の背景候補区間1073、偽の背景候補区間1074と定義する。
偽の背景候補区間1074が生じる原因として、背景の構造変化の他に、急激な照度変化が考えられる。いずれにせよ、偽の背景候補区間1074が生じた場合は、背景が変化したことを意味している。背景か移動体かの判定を継続するには、偽の背景候補区間1074からスリットτ1042を新たな背景として更新し、距離時系列1070による判定処理を繰り返せばよい。
以上の性質を基に、本発明では、距離時系列1070における一定長の平坦区間を背景候補区間1071と見なし、これ以外を移動体存在区間1072として、背景と移動物体との時間区間を分離する。さらに、背景候補区間1071のうち、その平均値が0に近いものを真の背景候補区間1073とし、それ以外のものを偽の背景候補区間1074と分類する。偽の背景候補区間1074の場合は、照度変化や構造変化等の理由により、背景が変化したと見なして、偽の背景候補区間1074のスリット画像τ1042を新たな背景として更新し、以上の判定処理を繰り返す。こうした処理により、常に移動物体と背景、背景の構造変化の三つを判別し、移動物体と背景の構造変化の有無を判定する方法を実現する。
【0026】
図6は、上記方法を実現する背景判定手段700の構成(データフロー)を説明するものである。背景判定手段700は、スリット画像作成手段701、背景スリット保持手段702、距離算出手段703、距離時系列保持手段704、距離時系列平滑化手段710、平滑化時系列保持手段705、背景候補区間判定手段720、背景候補真偽判定手段730、移動体存在区間取得手段740、背景構造変化判定手段750を有する。スリット画像作成手段701は、入力されたデジタル画像データ1000をもとに判定対象となる対象スリット1042を作成し、距離算出手段703に伝送する。
背景スリット保持手段702は、背景候補真偽判定手段730や背景構造変化判定手段750で判定された背景スリット1041を保持しておき、距離算出手段702からの要求に応じてこれを伝送する。
距離算出手段702は、対象スリット1042と背景スリット1041をベクトルとみて、式1060に従って距離δを計算する。算出された距離δは距離時系列保持手段704に伝送される。
【0027】
距離時系列保持手段704は、算出された距離δを過去一定時間に渡って保持し、時系列として扱えるようにする。距離時系列1070は新たに距離が伝送される度に、最も過去の値を捨て最新の値を含むように更新される。距離時系列平滑化手段710からの要求に応じて、距離時系列1070を伝送する。
距離時系列平滑化手段710は、距離時系列保持手段704に格納されている距離時系列1070を移動平均によって平滑化する。これは、ジッター等の影響によって、距離時系列が細かい振動がしばしば発生するためである。平滑化された距離時系列1070は、平滑化時系列保持手段705に伝送される。
平滑化時系列保持手段705は、平滑化された最新の距離時系列を保持する。背景候補区間判定手段720、背景候補真偽判定手段730、移動体存在区間取得手段740、からの要求に応じてこれを伝送する。
背景候補区間判定手段720は、平滑化された最新の距離時系列1070から背景候補区間1071を探し、その結果を区間情報として、背景候補真偽判定手段730と移動体存在区間取得手段740にそれぞれ伝送する。背景候補区間1071の探索は、図4で述べたように、平滑化された距離時系列1070の平坦部分を判定することによって実現される。探索アルゴリズムの詳細については図7で説明する。
背景候補真偽判定手段730は、背景候補区間1071と平滑化距離時系列1070を基に、真の背景候補区間1073か偽の背景候補区間1074かを判定する。その後、判定結果に応じて対象スリット画像1042を背景スリット保持手段702や背景構造変化判定手段750に伝送する。真の背景候補区間1073の場合には、現在の対象スリット画像1042をあらたな背景スリット1041として背景スリット保持手段702に送る。偽の背景候補区間1074の場合には、背景構造変化判定手段750に送って背景の構造変化を抽出する。真偽判定を行うアルゴリズムの詳細については図8〜図11で説明する。
移動体存在区間取得手段740は、移動体が存在する区間情報と平滑化された距離時系列1070を基に極大値を求めて、移動体が存在すると予測される区間の実際の移動体の数と、極大値部分の時刻を移動体存在区間として返す。
背景構造変化判定手段750は、背景スリット保持手段702に格納されている背景スリット1041と、背景候補真偽判定手段730から送られた対象スリット画像1042から、背景の変化が構造変化によるものか照度変化によるものかを判定し、対象スリット画像1042を新たな背景として更新する。判定アルゴリズムの詳細については図12で説明する。
【0028】
図7に、背景候補区間判定手段のフローチャートを示す。まず、平滑化時系列保持手段705から、最新の値から一定時間区間(例えば、最新45フレーム)の平滑化された時系列1070を取得する(ステップ2001)。次に、平滑化時系列1070からその区間での最大値・最小値を取得する(ステップ2002)。最大値と最小値の差が、あらかじめ決めておいた閾値より大きい場合には、背景候補区間1071ではないと判定し、処理を終了する。小さい場合には、背景候補区間1071と判定し、ステップ2004に進む(ステップ2003)。最後に、区間の先頭と最後の時刻を区間情報として返す(ステップ2004)。
【0029】
図8は、スリット画像に対する照度変化の影響を示したものである。まず、図8(a)のように各画素の明るさがP....Pで与えられるスリット1040を考える。次に、横軸を画素の位置、縦軸を画素の明るさとするグラフを考えると、図8(b)1046のようになる。
ここで、急激な照度変化が生じ、スリット画像1040全体が暗くなったとすると、スリット画像1040中の各画素P....Pの明るさは図8(c)のように相対的な関係を保ったまま、1046から1047のように一様に小さくなる。この照度変化をスリット画像をベクトルに見立てて考えると次の図9のようになる。
【0030】
図9(a)のように、スリット画像1040は各画素の明るさを要素とするベクトルv1048と考えることができる。各画素P....P毎の基底ベクトルをb1,b2,b3,....,bnとすると、ベクトルv1048は、図9(b)のようなn次元のベクトル空間上の一点と表すことができる。次に、このベクトルv1048に対し、急激な照度変化が生じてスリットベクトルが変化し、図9(c)のスリットベクトルv’1049のようになったとする。このとき、図8の考察から、変化したスリットベクトルv’1049は、ベクトルv1048とほとんど同一直線上に存在し、ベクトルv1048のスカラー倍になっていると考えることができる。
このように、もとのスリットベクトル1048と照度によって変化したスリットベクトル1049は、ベクトル空間上での座標位置は大きく異なっても、その向きはほとんど同一であることが分かる。これに対し、構造変化の生じたスリットベクトルでは、座標位置だけでなく、その向きも大きく異なると予想される。従って、スリット1040の照度変化と構造変化を区別するには、向きを考慮すればよい。
【0031】
図10は、通常のスリットベクトル1048と照度変化の影響を受けたスリットベクトル1049の単位球上へ射影である。図10に示されるように、ベクトルv1048の単位球上への射影ベクトルP1048’と、ベクトルv1049の単位球上への射影ベクトルQ1049’との距離PQは、元の距離vv’に比べて非常に近づく。二つの異なるスリット画像の関係が、単なる照度差の違いか構造変化の違いかは、単位球上でのベクトル距離が非常に小さいかどうかで判定できるということである。以降、この正規化されたベクトル間の距離を、式1060で定義される距離と区別するために、正規化距離と呼ぶこととする。
本発明では、この正規化距離を利用して、背景の変化が構造変化によるものか照度変化によるものかを判別する。
【0032】
図11に、背景候補真偽判定手段730のフローチャートを示す。まず、背景候補区間判定手段720から背景候補区間1071を取得する(ステップ2101)。次に、背景候補区間1071の平滑化時系列から平均値を取得する(ステップ2102)。平均値があらかじめ決めておいた閾値よりも小さい場合には、与えられた背景候補区間1071を真の背景候補区間1073と判定し、ステップ2104に進む。大きい場合には、偽の背景候補区間1074と判定し、ステップ2105に進む(ステップ2103)。ステップ2104の場合、背景候補区間1071は真の背景候補区間1073であり、最新スリットを新しい背景スリット1041として、背景スリット保持手段702に格納し、処理を終了する(ステップ2105)。ステップ2105の場合、背景候補区間1071は偽の背景候補区間1074であり、背景構造判定手段705で照度変化によるものか構造変化によるものかを判定し、処理を終了する(ステップ2105)。
【0033】
図12に、背景構造変化判定手段750のフローチャートを示す。まず、偽の背景候補区間1074と判定された原因が、照度変化によるものかどうかを判定するため、背景スリット1041と、平滑化時系列内の最新の対象スリット1042との正規化距離を求める(ステップ2201)。正規化距離があらかじめ決めておいた閾値よりも小さい場合には、照度変化と判定してステップ2203に進む。大きい場合には、構造変化と判定してステップ2204に進む。(ステップ2202)。
ステップ2203の場合、背景候補区間1071は照度変化に起因する、偽の背景候補区間1074である。平滑化時系列内の値をゼロにし、対象スリット1042を新しい背景スリット1041として、背景スリット保持手段702に格納し、処理を終了する。ステップ2204の場合、背景候補区間1071は構造変化に起因する偽の背景候補区間1074である。この場合、最新の対象スリット1042を新しい背景スリット1041として背景スリット保持手段702に格納し、平滑化時系列の全ての値をゼロにして処理を終了する。
【0034】
次に、移動物体のみを抽出する方法とその運動方向や速度を算出する方法について説明する。図13は、時空間画像から背景変化部分と移動物体領域を分離・判別して、移動物体のみを抽出する方法の概要を説明するものである。図14,図15は、その運動方向や速度を算出する方法の概要を説明するものである。図15〜図19はこれらを実現する運動解析手段を説明するものである。
【0035】
図13は、時空間画像1050から背景変化部分と移動物体領域を分離・判別して、移動物体のみを抽出する方法の概要を示したものである。
まず、移動体区間情報1001を元に、時空間画像1050から、移動体が存在すると考えられる区間の時空間画像1053を切り出すと共に、過去の背景スリット1041、未来の背景スリット1041’を取得する。次に、過去背景スリット1041と時空間画像1053から過去背景差分画像1054を、未来背景スリット1041’と時空間画像1053から未来背景差分画像1055を作成する。この背景差分画像では、移動体領域1102の他に、背景スリット1041と背景構造変化との差分領域1202などが含まれる。
最後に、過去背景差分画像1054と未来背景差分画像1055の論理積を求めて、移動体領域1102を抽出する。これにより、背景構造変化との差分領域1202がキャンセルされて、共通の領域である移動体領域1102のみを抽出できる。
【0036】
図14は、映像中の移動物体の運動を解析するためのスリット設定法と、これによって得られる時空間画像1050から抽出した移動体1101の運動方向・速度1003を算出する方式の概要を示したものである。
一般に、移動体の運動方向に対して、直角または平行ではない斜め方向にスリット1030を設定すると、これから得られる時空間画像1050では図14のように移動物体1101が前方または後方に傾く。これは、スリット1030に対して、移動物体1101の上方あるいは下方の辺が、反対側の辺よりも先にスリット1030に到達するためである。これにより、一本のスリットだけでも、傾き1210の正負から、移動物体が左右どちらから移動してきたかを決定できる。さらに、傾き1210の大きさから、スリット1030を横切る際の平均的な速度を算出できる。
本発明では、これを利用して、移動体1101の運動方向・速度1003を算出する。運動解析手段800では、斜め方向に設定したスリット1030より得られる時空間画像1050から、移動体領域1201を抽出したのち、その傾き1210を領域のモーメントより算出して、移動方向と速度1003を推定する。
【0037】
図15は、スリット1030の傾きと移動体1101の傾き1210から、抽出した移動体1101の運動方向・速度1003を算出する原理を説明したものである。
まず、映像1010上に設定したスリット1030の水平方向からの傾きをαとする。このスリット1030に対して、水平方向の速度がvである移動体1100が右から通過したとする。移動体1100の高さをhとし、移動体1100の上方部分がスリットを通過してから、下方部分がスリットを通過するまでに、画面上をw移動したとすると、水平方向の移動速度vは式1610で表される。次に、時空間画像1050中での、この移動物体の像の1101の傾きがθとする。一秒あたりのフレーム画像枚数がfである時、フレーム画像中でw移動するのにかかったフレーム数sは式1620で記述される。式1610, 1620から、vについて整理すると、式1630が得られる。vの正負が方向を表し、絶対値は水平方向の速度成分の大きさを表す。
本発明では、以上の原理により、スリット1030の傾きと時空間画像1050中での移動体1100の像の1101の傾きとから、運動方向・速度1003を算出する。
【0038】
図16は、上記方法を実現する運動解析手段800の構成(データフロー)を示したものである。運動解析手段800は、時空間画像作成手段801、背景スリット取得手段802、背景差分作成手段810、背景差分統合手段803、統合背景差分傾き判定手段820を有する。
【0039】
時空間画像作成手段801、背景スリット取得手段802、背景差分作成手段810、背景差分統合手段803は、図13で説明した、時空間画像1050から背景変化部分1202と移動物体領域1102を分離・判別して、移動物体1101のみを抽出する方法を実現する。
時空間画像作成手段801は、デジタル画像データ1000と移動体区間情報1001から、スリット画像を取得し、これをフレーム順に並べて、移動体1101が存在する区間の時空間画像1053を作成する。背景差分作成手段810、810’からの要求に応じて、時空間画像1050を伝送する。
背景スリット取得手段802は、デジタル画像データ1000と移動体区間情報1001により、移動体1101が存在する区間の前後から、過去背景スリット1041と未来背景スリット1041’を取得する。
背景差分作成手段810、810’は、時空間画像1053と過去背景スリット1041・未来背景スリット1041から、過去背景差分1054・未来背景差分1055を作成する。背景差分作成アルゴリズムの詳細については、図17で詳細に説明する。
背景差分統合手段803は、作成された過去背景差分1054と未来背景差分1055の論理積から統合背景差分1056を作成する。以上の処理によって、移動体1101のみが抽出される。
【0040】
統合背景差分傾き判定手段820は、図13,図14で説明したスリット1030の傾きと移動体の傾き1210から、抽出した移動体の運動方向・速度1003を算出する方式を実現する。
【0041】
図17は、過去背景・未来背景を用いて背景差分を作成する手段810の構成(データフロー)を示したものである。背景差分作成手段810は、移動体領域分離手段811、移動体領域伸張収縮手段812、ノイズ領域除去手段813、閉領域補充手段814を有する。
移動体領域分離手段811は、背景スリット画像1041と対象スリット画像1042、または背景フレーム画像と対象フレーム画像から、移動体領域1201のみを二値化して分離・抽出する。分離・抽出アルゴリズムの詳細については、図18,図19で説明する。
次に、移動体が一定以上の大きさを持つ一つの閉領域であるという仮定に基づいて、移動体領域伸張収縮手段812、ノイズ領域除去手段813、閉領域補充手段814は、移動体領域分離手段911で生じた移動体領域の破れや分断を修正する。
移動体領域伸張収縮手段812は、破れや分断の生じた移動体領域1201を、伸張収縮を行うことによって接続する。伸張収縮の回数は3回程度である。ノイズ領域除去手段813は、伸張収縮を行った移動体領域1201から独立した微小領域をノイズとみなして取り除く。閉領域補充手段814は、上記移動体領域1201に含まれる空孔を探し、これを塗りつぶす。
以上の処理によって、移動体1200を移動体領域1201として切り出し、背景差分画像を作成する。背景構造の変化を切り出す場合には、対象画像の代わりに、変化後の背景画像を用いて、上記の処理を行うことによって、これを切り出すことができる。
【0042】
図18は、移動体領域分離手段810の概要を説明するものである。まず、背景スリット1041と、移動体領域を切り出そうとする対象スリット1042を取得する。次に、背景スリット1041と対象スリット1042を一画素づつ比較しながら、背景か移動体かを判定していく。比較の方法としては、該当する画素の明るさではなく、該当画素を含むw個の画素から成る局所スリットを作成して、局所スリット間の正規化距離を求めることにより、判定する。
例えば、判定対象画素Pn1045が、背景か移動体かを判定する場合、対象画素Pn1045を含む局所スリットτ1:1044とこれに対応する背景局所スリットβ1:1043を作成して、両者の正規化距離を求める。正規化距離を用いているので、背景の一部分が移動する物体の影やライトによって照度変化が生じていても、正しく背景と判定してこれを取り除くことができる。
但し、背景局所スリット1043の各画素値の分散が小さい場合には、通常のベクトル距離を用いる。これは、真っ暗な背景上を真っ白い物体が移動する場合でも、正規化距離はゼロになり、背景と間違えることがあるからである。
【0043】
図19は、移動体領域分離手段810のフローチャートを示したものである。まず、判定を行う対象スリット1042を映像1010から取得する(ステップ2301)。次に、判定処理が全スリット画素で行われたかどうかチェックし、未処理の画素があれば、ステップ2303に進み、なければ、処理を終了する(ステップ2302)。背景スリット1041及び対象スリット1042から、上から順に2つの局所スリット1043,1044を取得する(ステップ2303、ステップ2304)。背景局所スリット1043の分散を求め、あらかじめ決めておいた閾値TVと比較する。小さい場合にはステップ2306に進み、大き場合にはステップ2307に進む(ステップ2305)。ここでは、二つの局所スリット1043,1044間の距離として、正規化距離を求める(ステップ2306)。ここでは、二つの局所スリット1043,1044間の距離として、ベクトル距離を求める(ステップ2307)。こうして求めた二つの局所スリットの距離を、あらかじめ決めておいた閾値TDと比較する。小さい場合にはステップ2309に進み、大き場合にはステップ2310に進む(ステップ2308)。小さいと判定された場合、判定対象となる画素は背景であり(ステップ2309)、大きいと判定された場合、判定対象となる画素は非背景である(ステップ2310)。以上の処理をステップ2302に戻って繰り返す。
【0044】
図20,図21はフレーム画像に対し、背景変化部分と移動物体領域とを分離・判別して、移動物体と背景変化を抽出する方法を説明するものである。
【0045】
図20に、フレーム画像に対し、背景変化部分と移動物体領域とを分離・判別して、移動物体のみを抽出する方法の概要を示す。
まず、過去の背景画像1801と未来の背景画像1803及び現在のフレーム画像1802を取得する。ここで、現在のフレーム画像1802には移動体1804と落下物1805が映っており、未来の背景画像1803には落下物1805に加えて別の落下物1806が映っていたものとする。
次に、過去の背景画像1801と現在のフレーム画像1802の過去背景差分1807と、未来の背景画像1803と現在のフレーム画像1802の未来背景差分1808を作成する。過去背景差分1807には、移動体領域1809と落下物による背景変化領域1810が現れる。また、未来背景差分1808には、移動体領域1809と落下物1806による背景変化領域1811が現れる。
過去背景差分1807と未来背景差分1808の統合差分1812を論理積によって求めると、背景変化領域1810,1811は打ち消され、移動体領域1809のみが残る。
最後に、統合差分1812をマスク画像としてフレーム画像1802から、切り出しを行うと移動体1804のみを含む移動体画像1813を得ることができる。
【0046】
図21は、フレーム画像に対し、背景変化部分と移動物体領域とを分離・判別して、背景変化のみを抽出する方法の概要を示す。
まず、過去の背景画像1801と未来の背景画像1803を取得する。ここで、未来の背景画像1803に,落下物1805と落下物1806が映っていたものとする。次に、過去の背景画像1801と未来の背景画像1803の背景間差分1901を作成する。背景間差分1901には、落下物1805による背景変化領域1810と落下物1806による背景変化領域1811が現れる。最後に、統合差分1901をマスク画像として未来の背景画像1803から、切り出しを行うと落下物1805と落下物1806のみを含む背景構造変化画像1902を得ることができる。
【0047】
図22は、上記方法を実現する移動体抽出手段900の構成(データフロー)を示したものである。移動体抽出手段900は、フレーム画像取得手段901、背景画像作成手段902、背景差分作成手段910・910’、背景差分統合手段903、移動体切り出し手段904を有する。これらの手段は図19で説明した、背景変化部分と移動物体領域とを分離・判別して、移動物体のみを抽出する方法を実現する。
フレーム画像取得手段901は、移動体区間情報1001とデジタル画像データ1000から、移動体1100が存在すると思われる時間区間のフレーム画像1802を取得し、これを背景差分作成手段910・910’に伝送する。背景画像作成手段902は、移動体区間情報1001とデジタル画像データ1000から、背景と判定された時間区間のフレーム画像を取得し、過去背景画像1801と未来背景画像1803として、背景差分作成手段910・910’に伝送する。背景差分作成手段910・910’は、フレーム画像上の全面に対して、図15で説明した背景差分作成手段810、810’の処理を繰り返し行い、フレーム画像の過去背景差分1807と未来背景差分1808を作成する。背景差分統合手段903は、フレーム画像の過去背景差分1807と未来背景差分1808の論理積から統合背景差分1812を作成し、移動体切り出し手段904に伝送する。
移動体切り出し手段904は、フレーム画像1802から統合背景差分1812をマスク画像として切り出しを行い、移動体画像1804を抽出する。
【0048】
図23は、結果出力手段600によりディスプレイ300上に出力された結果表示画面2000の例を示したものである。結果表示画面例2000は、入力映像表示領域2010、背景変化代表画面表示領域2020、移動物体代表画面表示領域2030、相関値時系列表示領域2040の4つの表示領域から構成される。
【0049】
この表示結果例では、図23のように、スリット1030を映像1010中の真ん中に縦置きにし、これを通過した移動物体の代表画面2032と背景に生じた変化の代表画面2022、2033を背景変化代表画面表示領域2020、移動物体代表画面表示領域2030にそれぞれ表示する。また、スリットの相関値の時系列(距離時系列1070)を相関値時系列表示領域2040に表示し、移動物体の存在と背景変化を判定する根拠をユーザに示す。
入力映像表示領域2010は、TVカメラ200から入力される現在の映像1010を表示する部分である。
【0050】
背景変化代表画面表示領域2020は、映像1010中に生じた背景の構造変化を検出し、変化前の背景代表画面2022と変化後の背景代表画面2023を表示する部分である。検出された背景構造の変化は、その違いをユーザが判断できるように、背景変化表示ウインドウ2021中に変化前の背景代表画面2022と変化後の背景代表画面2023を上下組として表示する。この画面例では、背景変化として乗用車の駐車、トラックによる落下物などがあったことを示している。背景変化表示ウインドウ2021には、スクロールバーがついており、今までに検出された背景構造の変化を見ることができるようになっている。また、このとき、最新の代表画面の組がどれかがすぐ分かるように、マーカー2024がつけられる。
【0051】
移動物体代表画面表示領域2030は、映像1010中の移動物体を検出し、移動物体の映った代表画面2032を表示する部分である。検出された移動物体は、ユーザが判断できるように、移動物体代表画面表示ウインドウ2031中に表示される。この画面例では、移動物体として、バイク、黒い乗用車、白い乗用車、灰色の乗用車、トラックなどがあったことを示している。移動物体代表画面表示ウインドウ2031には、スクロールバーがついており、今までに検出された移動物体の代表画面を見ることができるようになっている。また、このとき、最新の移動物体がどれかがすぐ分かるように、マーカー2033がつけられる。
【0052】
相関値時系列表示領域2040は、スリット1030から得られた時空間画像1050と、対応する時刻の相関値(距離)の時系列1070を同時に表示する部分である。時空間画像1050、距離時系列1070の最新時刻の画素、グラフ値が相関値時系列表示ウインドウ2041の右端に常に表示されるようになっている。また、このほかに移動物体検出時の時空間画像上の位置を示す移動物体検出マーカー2042や、背景変化検出時の時空間画像上の位置を表す背景変化検出マーカー2043が同時に表示され、ユーザに検出の根拠が一目で分かるようになっている。
【0053】
本実施例では、映像1010上の着目領域の一例としてスリット1030を用いた。しかし、背景判定手段700や移動体抽出手段900での処理については、スリット1030と別の形状であっても、複数個の隣接した画素の集合体であれば、本質的に同じ動作を行う。
【0054】
本発明の別の実施例として、着目領域の形状が矩形状であったり、円形状であったり、同心円などが考えられる。例えば、家庭やオフィスの玄関にとりつけたTVカメラから得た十数時間分の映像に対し、フレーム画像全体の相関値時系列で判定を行い、訪問者や配達された荷物の代表画像を一覧として取り出すことが考えられる。
【0055】
本発明は、道路における交通流の計測や、線路・踏切における異常検知、銀行や小売店における犯罪防止にための監視、家庭やオフィスにおける監視や認証などへの適用を考慮してきた。しかし、適用分野としてこれに限られるものではなく、各種の検査装置の他、広く適用が可能である。
【0056】
【発明の効果】
本発明によれば、照明条件の変化や構造的変化が生じるような複雑背景下であっても、背景と移動体を判別し、移動体のみを検出・抽出できる。抽出される移動体については、その形状や色彩、運動方向や速度になんら制限を持たない。また、運動の方向や速度についても算出できる。
背景の変化が生じた場合には、その変化が構造変化であるか照明条件変化であるかを判定する事ができる。
加えて、従来の移動物体抽出方式に比べて、処理対象が映像中の数%の画素で済むため、十倍以上高速に処理することができる。結果として、メモリの使用量についても同様に数%に低減することが可能である。このため、パーソナルコンピュータなどの安価なコンピュータでも実時間処理が可能である。
【図面の簡単な説明】
【図1】本発明を実現するハードウエア構成を示すものである。
【図2】本発明を実現するシステム構成を示すものである。
【図3】映像とスリット画像、時空間画像の関係を示したものである。
【図4】背景スリット1041と各時刻における対象スリット1042との距離の関係を示したものである。
【図5】背景の構造変化が発生した場合の時空間画像1050と距離時系列を示したものである。
【図6】背景判定手段700のデータフローを説明するものである。
【図7】背景候補区間判定手段720のフローチャートを示すものである。
【図8】スリット画像1040に対する照度変化の影響を示したものである。
【図9】スリット画像1040をベクトルと見なした場合の、スリットベクトルに対する照度変化の影響を示したものである。
【図10】通常のスリットベクトルと照度変化の影響を受けたスリットベクトルとの単位球上へ射影を示すものである。
【図11】背景候補真偽判定手段730のフローチャートを示したものである。
【図12】背景構造変化判定手段750のフローチャートを示したものである。
【図13】時空間画像1050から背景変化部分と移動物体領域を分離・判別して、移動物体1100のみを抽出する方法の概要を示したものである。
【図14】映像1010中の移動物体1100の運動を解析するためのスリット設定法と、これによって得られる時空間画像1050を示したものである。
【図15】スリット1030の傾きと移動体の傾き1210から、抽出した移動体の運動方向・速度1003を算出する方式の概要を説明である。
【図16】上記方法を実現する運動解析手段800のデータフローを示したものである。
【図17】過去背景差分・未来背景差分を作成する手段810のデータフローを示したものである。
【図18】移動体領域分離手段811の概要を示したものである。
【図19】移動体領域分離手段のフローチャートを示したものである。
【図20】フレーム画像に対し、背景変化部分と移動物体領域とを分離・判別して、移動物体のみを抽出する方法の概要を示すものである。
【図21】フレーム画像に対し、背景変化部分と移動物体領域とを分離・判別して、背景変化のみを抽出する方法の概要を示すものである。
【図22】上記方法を実現する移動体抽出手段900のデータフローを示したものである。
【図23】結果出力手段600によりディスプレイ300上に出力された結果表示画面の例を示したものである。
【図24】従来の背景差分を用いた手法による移動体検出・抽出の原理を示す。
【図25】従来の背景差分を用いた手法による移動体検出・抽出の問題点を示す。
【符号の説明】
200…TVカメラ,300…ディスプレイ,400…コンピュータ,201…映像信号,202…A/D変換器,203…CPU,204…メモリ,205…補助記憶装置,206…ネットワーク装置,,500…映像入力手段,600…結果出力手段,700…背景判定手段,800…運動解析手段,900…移動体抽出手段,701…スリット画像作成手段,702…背景スリット保持手段,703…距離算出手段,704…距離時系列保持手段,710…距離時系列平滑化手段,705…平滑化時系列保持手段,720…背景候補区間判定手段,730…背景候補真偽判定手段,740…移動体存在区間取得手段,706…背景構造変化判定手段,801…時空間画像作成手段,802…背景スリット取得手段,810…背景差分作成手段,803…背景差分統合手段,820…統合背景差分傾き判定手段,901…フレーム画像取得手段,902…背景画像作成手段,903…背景差分統合手段,904…移動体画像切り出し手段,910…背景差分作成手段。

Claims (14)

  1. 映像を入力する手段と、入力された映像から移動体を検出・抽出する手段と、検出・抽出された結果を出力する手段とを有する移動体検出・抽出装置において、
    前記移動体を検出・抽出する手段は、入力された映像に対して背景判定を行うための着目領域を設定する手段と、特定のフレームにおける着目領域のデータと各フレームにおける着目領域のデータとの相関を算出する手段と、算出された相関のパターンから背景と予測される時間区間を判別する手段と、前記判別された背景と予測される時間区間から移動体が存在する時間区間を判定する手段とを有することを特徴とする移動体検出・抽出装置。
  2. 前記移動体を検出・抽出する手段は、さらに前記判別された背景と予測される時間区間が照度変化か背景変化かを判定する手段を有することを特徴とする請求項1記載の移動体検出・抽出装置。
  3. 前記背景と予測される時間区間を判別する手段は、背景と予測される時間区間を判別する相関のパターンとして、一定時間相関値が変化しないパターンを用いることを特徴とする請求項1又は2に記載の移動体検出・抽出装置。
  4. 前記相関を算出する手段は、相関値として、着目領域のデータをベクトルと見立てて、距離、内積、またはベクトル間のなす角度を用いることを特徴とする請求項1乃至3記載の移動体検出・抽出装置。
  5. 背景判定を行う前記着目領域の形状が、直線または線分状であることを特徴とする請求項1記載の移動体検出・抽出装置。
  6. 背景判定を行う前記着目領域の形状が、矩形状であることを特徴とする請求項1記載の移動体検出・抽出装置。
  7. 前記移動体を検出・抽出する手段は、移動体の運動を解析する手段として、移動体が存在する時間区間から移動体を含むフレーム画像を取得し、移動体が存在する時間区間の前後に位置する背景と予測される時間区間から、それぞれ2つの背景画像を取得する手段と、フレーム画像と背景画像とから2つの背景差分画像を作成する手段と、2つの背景差分画像から統合領域を求める手段とを有し、フレーム画像と統合領域とから移動体画像を抽出することを特徴とする請求項1記載の移動体検出・抽出装置。
  8. 前記記移動体を検出・抽出する手段は、移動体を抽出する手段として、移動体が存在する時間区間の時空間画像を切り出す手段と、移動体が存在する時間区間の前後に位置する、2つの背景のみの画像領域と、時空間画像から移動体領域候補を分離する手段と、得られた移動体領域候補に対し伸張収縮処理及び穴埋め処理により補正する手段と、補正された背景差分画像から得られる、2つの移動体領域候補を統合した領域を求める手段と、得られた統合領域の傾きを算出し、移動体の方向・速度を推定する手段を有することを特徴とする請求項1記載の移動体検出・抽出装置。
  9. 前記検出・抽出された結果を出力する手段は、入力された映像と、検出された移動体の代表画面、または、検出された背景変化の代表画面を表示することを特徴とする請求項1乃至8記載の移動体検出・抽出装置。
  10. 入力された映像に対して背景判定を行う着目領域を設定し、
    ある特定のフレームにおける着目領域のデータと各フレームでの着目領域のデータとの相関を算出し、
    算出された少なくとも一つの相関値のパターンから、移動体が存在せず背景と予測される時間区間を判別し、
    判別された背景と予測される時間区間から、移動体が存在する時間区間を決定することを特徴とする移動体検出・抽出方法。
  11. 移動体が存在する時間区間をもとに、移動体を含むフレーム画像を取得し、移動体が存在する時間区間の前後に位置する、背景と予測される時間区間から、それぞれ二つの背景画像を取得し、
    フレーム画像とこの時間の前後に位置する背景画像から、二つの背景差分画像を作成し、
    2つの背景差分画像から統合領域を求め、
    フレーム画像と統合領域から、移動体画像を切り出し、移動体画像を抽出することを特徴とする請求項10記載の移動体検出・抽出方法。
  12. 移動体が存在する時間区間の時空間画像を切り出し、
    移動体が存在する時間区間の前後に位置する、二つの背景のみの画像領域と、時空間画像から移動体領域候補を分離し、
    得られた移動体領域候補に対し伸張収縮処理及び穴埋め処理により補正し、
    補正された背景差分画像から得られる、二つの移動体領域候補を統合した領域を求め、
    得られた統合領域の傾きを算出し、移動体の方向・速度を推定することを特徴とする請求項11記載の移動体検出・抽出方法。
  13. フレーム毎の画像を得るTVカメラ部と、前記画像を監視するコンピュータ部と、監視結果を表示するディスプレイ部とを備え、
    前記コンピュータは、ある特定のフレームにおける着目領域のデータと各フレームでの着目領域のデータとの相関を算出し、算出された相関のパターンから、移動体が存在せず背景と予測される時間区間を判別し、判別された背景と予測される時間区間から、移動体が存在する時間区間を決定し、
    前記ディスプレイ部は、前記移動体の代表画面を表示することを特徴とする移動体監視システム。
  14. フレーム毎の画像を得るTVカメラ部と、前記画像を監視するコンピュータ部と、監視結果を表示するディスプレイ部とを備え、
    前記コンピュータは、ある特定のフレームにおける画素領域のデータとその後のフレームでの画素領域のデータとの相関を算出し、算出された相関のパターンから、画像中に生じた変化を判断し、
    前記ディスプレイ部は、前記画像中に生じた変化の代表画面を表示することを特徴とする移動体監視システム。
JP02909995A 1995-02-17 1995-02-17 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム Expired - Fee Related JP3569992B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP02909995A JP3569992B2 (ja) 1995-02-17 1995-02-17 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
US08/601,951 US5721692A (en) 1995-02-17 1996-02-15 Moving object detection apparatus
US09/023,467 US5862508A (en) 1995-02-17 1998-02-13 Moving object detection apparatus
US09/946,528 US20020030739A1 (en) 1995-02-17 2001-09-06 Moving object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02909995A JP3569992B2 (ja) 1995-02-17 1995-02-17 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム

Publications (2)

Publication Number Publication Date
JPH08221577A JPH08221577A (ja) 1996-08-30
JP3569992B2 true JP3569992B2 (ja) 2004-09-29

Family

ID=12266908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02909995A Expired - Fee Related JP3569992B2 (ja) 1995-02-17 1995-02-17 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム

Country Status (2)

Country Link
US (3) US5721692A (ja)
JP (1) JP3569992B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995102B2 (en) 2008-02-13 2011-08-09 Casio Computer Co., Ltd. Imaging apparatus for generating stroboscopic image

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8948442B2 (en) * 1982-06-18 2015-02-03 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US6256040B1 (en) 1996-06-21 2001-07-03 Namco, Ltd. Three-dimensional game machine and information storage medium
WO1998009253A1 (fr) * 1996-08-29 1998-03-05 Sanyo Electric Co., Ltd. Procede permettant de fournir des informations sur une texture, procede d'extraction d'objet, procede de production de modeles tridimensionnels et appareillage associe a ceux-ci
DE69738287T2 (de) * 1996-09-20 2008-06-12 Hitachi, Ltd. Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür
AU5573698A (en) * 1997-01-30 1998-08-25 Yissum Research Development Company Of The Hebrew University Of Jerusalem Generalized panoramic mosaic
US5936639A (en) * 1997-02-27 1999-08-10 Mitsubishi Electric Information Technology Center America, Inc. System for determining motion control of particles
US6130707A (en) * 1997-04-14 2000-10-10 Philips Electronics N.A. Corp. Video motion detector with global insensitivity
US5903271A (en) * 1997-05-23 1999-05-11 International Business Machines Corporation Facilitating viewer interaction with three-dimensional objects and two-dimensional images in virtual three-dimensional workspace by drag and drop technique
JP3444160B2 (ja) * 1997-10-09 2003-09-08 松下電器産業株式会社 動物体検出方法
KR100246626B1 (ko) * 1997-10-16 2000-03-15 정선종 모포로지컬 영상분할을 위한 시공간 결합 마커추출 방법
JP3567066B2 (ja) * 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6177944B1 (en) * 1998-09-18 2001-01-23 International Business Machines Corporation Two phase rendering for computer graphics
US6278460B1 (en) 1998-12-15 2001-08-21 Point Cloud, Inc. Creating a three-dimensional model from two-dimensional images
JP3721867B2 (ja) * 1999-07-07 2005-11-30 日本電気株式会社 映像表示装置及び表示方法
JP2001078017A (ja) * 1999-09-07 2001-03-23 Dainippon Printing Co Ltd 画像処理システム
US6424370B1 (en) * 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
JP3601392B2 (ja) * 1999-12-27 2004-12-15 住友電気工業株式会社 画像処理装置、画像処理方法及び車両監視システム
JP3828349B2 (ja) 2000-09-27 2006-10-04 株式会社日立製作所 移動体検出測定方法、その装置および移動体検出測定プログラムを記録した記録媒体
US7215795B2 (en) * 2000-09-28 2007-05-08 Hitachi Kokusai Electric Inc. Intruding object detecting method and intruding object monitoring apparatus employing the method
DE10050083A1 (de) * 2000-10-10 2002-04-18 Sick Ag Vorrichtung und Verfahren zur Erfassung von Objekten
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US20050162515A1 (en) * 2000-10-24 2005-07-28 Objectvideo, Inc. Video surveillance system
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US6711279B1 (en) * 2000-11-17 2004-03-23 Honeywell International Inc. Object detection
US6466158B2 (en) 2000-12-08 2002-10-15 Lockheed Martin Corp. Identifying closely clustered moving targets
KR100450793B1 (ko) * 2001-01-20 2004-10-01 삼성전자주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
KR100355382B1 (ko) * 2001-01-20 2002-10-12 삼성전자 주식회사 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US7508485B2 (en) * 2001-01-23 2009-03-24 Kenneth Martin Jacobs System and method for controlling 3D viewing spectacles
US7405801B2 (en) * 2001-01-23 2008-07-29 Kenneth Jacobs System and method for Pulfrich Filter Spectacles
US9781408B1 (en) 2001-01-23 2017-10-03 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US8750382B2 (en) 2001-01-23 2014-06-10 Kenneth Martin Jacobs System and method for calculating 3Deeps action specs motion estimation from the motion vectors in an MPEG file
US7850304B2 (en) 2001-01-23 2010-12-14 Kenneth Martin Jacobs Continuous adjustable 3Deeps filter spectacles for optimized 3Deeps stereoscopic viewing and its control method and means
US10742965B2 (en) 2001-01-23 2020-08-11 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US7522257B2 (en) * 2001-01-23 2009-04-21 Kenneth Jacobs System and method for a 3-D phenomenoscope
US6891570B2 (en) * 2001-01-31 2005-05-10 Itt Manufacturing Enterprises Inc. Method and adaptively deriving exposure time and frame rate from image motion
US6778705B2 (en) * 2001-02-27 2004-08-17 Koninklijke Philips Electronics N.V. Classification of objects through model ensembles
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
EP2246799A1 (en) 2001-05-15 2010-11-03 Psychogenics Inc. Systems and methods for monitoring behaviour informatics
US7162101B2 (en) * 2001-11-15 2007-01-09 Canon Kabushiki Kaisha Image processing apparatus and method
US6697010B1 (en) * 2002-04-23 2004-02-24 Lockheed Martin Corporation System and method for moving target detection
MXPA02005732A (es) * 2002-06-10 2004-12-13 Valencia Reuther Herman Tarjeta inteligente medidora de tiempo.
AU2003242974A1 (en) * 2002-07-15 2004-02-02 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
CN100334598C (zh) * 2002-11-26 2007-08-29 东芝照明技术株式会社 卖场计划支持***
JP3947973B2 (ja) * 2003-02-14 2007-07-25 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
PL359194A1 (en) * 2003-03-17 2004-09-20 Adam Mazurek Method and system for analysis and identification of moving objects
US7280753B2 (en) 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
US7664292B2 (en) * 2003-12-03 2010-02-16 Safehouse International, Inc. Monitoring an output from a camera
US7428318B1 (en) * 2003-12-11 2008-09-23 Motion Reality, Inc. Method for capturing, measuring and analyzing motion
DE102004018410A1 (de) * 2004-04-16 2005-11-03 Robert Bosch Gmbh Sicherheitssystem und Verfahren zu dessen Betrieb
JP4506308B2 (ja) * 2004-07-02 2010-07-21 三菱電機株式会社 画像処理装置及び該画像処理装置を用いた画像監視システム
US7653261B2 (en) * 2004-11-12 2010-01-26 Microsoft Corporation Image tapestry
US7529429B2 (en) 2004-11-12 2009-05-05 Carsten Rother Auto collage
US7532771B2 (en) * 2004-11-12 2009-05-12 Microsoft Corporation Image processing system for digital collage
JP2006165935A (ja) * 2004-12-07 2006-06-22 Nec Corp 制御情報の変換装置及び制御情報の変換方法
US8031226B2 (en) * 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
EP1867167A4 (en) * 2005-04-03 2009-05-06 Nice Systems Ltd DEVICE AND METHOD FOR SEMI-AUTOMATIC TRACKING AND INVESTIGATION OF AN OBJECT OR EVENT AT A MONITORED LOCATION
US9077882B2 (en) 2005-04-05 2015-07-07 Honeywell International Inc. Relevant image detection in a camera, recorder, or video streaming device
JP4610005B2 (ja) * 2005-07-08 2011-01-12 財団法人電力中央研究所 画像処理による侵入物体検出装置および方法およびプログラム
EP2013817A2 (en) * 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
JP4866159B2 (ja) * 2006-06-27 2012-02-01 株式会社日立製作所 移動体検出装置
US20080122926A1 (en) * 2006-08-14 2008-05-29 Fuji Xerox Co., Ltd. System and method for process segmentation using motion detection
US8264544B1 (en) * 2006-11-03 2012-09-11 Keystream Corporation Automated content insertion into video scene
US8045783B2 (en) * 2006-11-09 2011-10-25 Drvision Technologies Llc Method for moving cell detection from temporal image sequence model estimation
US8243805B2 (en) * 2006-11-14 2012-08-14 Microsoft Corporation Video completion by motion field transfer
JP4821642B2 (ja) 2007-02-15 2011-11-24 株式会社ニコン 画像処理方法、画像処理装置、ディジタルカメラ及び画像処理プログラム
TWI355615B (en) * 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
US20080310677A1 (en) * 2007-06-18 2008-12-18 Weismuller Thomas P Object detection system and method incorporating background clutter removal
JP4972491B2 (ja) * 2007-08-20 2012-07-11 株式会社構造計画研究所 顧客動作判定システム
JP4807354B2 (ja) * 2007-12-25 2011-11-02 住友電気工業株式会社 車両検出装置、車両検出システム及び車両検出方法
JP2009194595A (ja) * 2008-02-14 2009-08-27 Sony Corp 放送システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
JP2010011016A (ja) * 2008-06-26 2010-01-14 Sony Corp 追尾点検出装置および方法、プログラム、並びに記録媒体
JP5272890B2 (ja) * 2009-05-21 2013-08-28 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8218818B2 (en) * 2009-09-01 2012-07-10 Behavioral Recognition Systems, Inc. Foreground object tracking
JP2012053708A (ja) 2010-09-01 2012-03-15 Toshiba Tec Corp 店舗システム、売上登録装置及びプログラム
JP6024229B2 (ja) * 2012-06-14 2016-11-09 富士通株式会社 監視装置、監視方法、及びプログラム
US10115431B2 (en) * 2013-03-26 2018-10-30 Sony Corporation Image processing device and image processing method
FR3007878B1 (fr) * 2013-06-27 2016-10-21 Rizze Dispositif permettant a un systeme de video surveillance routier d'enregistrer le contexte d'un evenement en fonction de la presence d'un vehicule dans le champ de vision de la camera
JP6157242B2 (ja) * 2013-06-28 2017-07-05 キヤノン株式会社 画像処理装置及び画像処理方法
FR3010220A1 (fr) * 2013-09-03 2015-03-06 Rizze Systeme de recensement des vehicules par le cloud
WO2015193988A1 (ja) * 2014-06-18 2015-12-23 株式会社日立製作所 計算機システム
US10372977B2 (en) * 2015-07-09 2019-08-06 Analog Devices Gloval Unlimited Company Video processing for human occupancy detection
US20170164267A1 (en) * 2015-12-03 2017-06-08 The Trustees Of Columbia University In The City Of New York Apparatus to inhibit misuse of an electrically powered device
WO2017120196A1 (en) 2016-01-04 2017-07-13 The Trustees Of Columbia University In The City Of New York Apparatus to effect an optical barrier to pests
KR102153607B1 (ko) * 2016-01-22 2020-09-08 삼성전자주식회사 영상에서의 전경 검출 장치 및 방법
US10410371B2 (en) 2017-12-21 2019-09-10 The Boeing Company Cluttered background removal from imagery for object detection
US11436839B2 (en) 2018-11-02 2022-09-06 Toyota Research Institute, Inc. Systems and methods of detecting moving obstacles

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5134472A (en) * 1989-02-08 1992-07-28 Kabushiki Kaisha Toshiba Moving object detection apparatus and method
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
JP2754867B2 (ja) * 1990-05-23 1998-05-20 松下電器産業株式会社 画像の動き検出装置
JP3011748B2 (ja) * 1990-09-12 2000-02-21 日本電信電話株式会社 移動体の計数装置
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
JPH0554276A (ja) * 1991-08-23 1993-03-05 Matsushita Electric Ind Co Ltd 障害物検出装置
JPH0554085A (ja) * 1991-08-28 1993-03-05 Fuji Xerox Co Ltd 動画像検索支援装置
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
JPH0589242A (ja) * 1991-09-26 1993-04-09 Nippon Telegr & Teleph Corp <Ntt> 画像の物体領域切り出し装置
US5500904A (en) * 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
EP0700623A1 (en) * 1993-05-14 1996-03-13 Rct Systems, Inc. Video traffic monitor for retail establishments and the like
EP0633546B1 (en) * 1993-07-02 2003-08-27 Siemens Corporate Research, Inc. Background recovery in monocular vision
JP3123587B2 (ja) * 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
JP3468877B2 (ja) * 1994-10-27 2003-11-17 矢崎総業株式会社 植物の自動診断方法及び装置
US5805733A (en) * 1994-12-12 1998-09-08 Apple Computer, Inc. Method and system for detecting scenes and summarizing video sequences
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
JP3454396B2 (ja) * 1995-10-11 2003-10-06 株式会社日立製作所 動画像の変化点検出制御方法とそれに基づく再生停止制御方法およびそれらを用いた動画像の編集システム
DE69738287T2 (de) * 1996-09-20 2008-06-12 Hitachi, Ltd. Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995102B2 (en) 2008-02-13 2011-08-09 Casio Computer Co., Ltd. Imaging apparatus for generating stroboscopic image

Also Published As

Publication number Publication date
US20020030739A1 (en) 2002-03-14
US5721692A (en) 1998-02-24
JPH08221577A (ja) 1996-08-30
US5862508A (en) 1999-01-19

Similar Documents

Publication Publication Date Title
JP3569992B2 (ja) 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
EP0567059B1 (en) Object recognition system using image processing
Zhu et al. VISATRAM: A real-time vision system for automatic traffic monitoring
Omer et al. An automatic image recognition system for winter road surface condition classification
KR100459476B1 (ko) 차량의 대기 길이 측정 장치 및 방법
US9154741B2 (en) Apparatus and method for processing data of heterogeneous sensors in integrated manner to classify objects on road and detect locations of objects
Sina et al. Vehicle counting and speed measurement using headlight detection
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
US20060274917A1 (en) Image processing techniques for a video based traffic monitoring system and methods therefor
WO2004042673A2 (en) Automatic, real time and complete identification of vehicles
KR20220032681A (ko) 노상 주차장의 주차 관리 방법
JPH09297849A (ja) 車両検出装置
Malinovskiy et al. Model‐free video detection and tracking of pedestrians and bicyclists
Kanhere et al. Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways
JP4150218B2 (ja) 地形認識装置および地形認識方法
JP4082144B2 (ja) 混雑度調査装置
KR102492290B1 (ko) 교통량 측정을 위한 딥러닝 기반의 드론 영상 분석 시스템
JP4697761B2 (ja) 待ち行列検出方法及び待ち行列検出装置
Oh et al. Development of an integrated system based vehicle tracking algorithm with shadow removal and occlusion handling methods
Branca et al. Cast shadow removing in foreground segmentation
JPH11328365A (ja) 画像監視装置及びその方法
Foresti et al. Vehicle detection and tracking for traffic monitoring
JPH0954891A (ja) 画像処理による車種判別方法と装置
JP7438547B2 (ja) 車両管理システム
Liu et al. Real-time detection of traffic flow combining virtual detection-line and contour feature

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080702

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090702

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100702

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110702

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110702

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120702

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees