JP4742168B2 - ビデオ監視カメラが検出した対象物の特性を識別する方法および機器 - Google Patents

ビデオ監視カメラが検出した対象物の特性を識別する方法および機器 Download PDF

Info

Publication number
JP4742168B2
JP4742168B2 JP2009511978A JP2009511978A JP4742168B2 JP 4742168 B2 JP4742168 B2 JP 4742168B2 JP 2009511978 A JP2009511978 A JP 2009511978A JP 2009511978 A JP2009511978 A JP 2009511978A JP 4742168 B2 JP4742168 B2 JP 4742168B2
Authority
JP
Japan
Prior art keywords
video surveillance
color histogram
color
histogram
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009511978A
Other languages
English (en)
Other versions
JP2009538558A (ja
Inventor
ブログレン、マーティン
スカンス、マルクス
アームブラッド、ヨハン
エルヴィン、ダニエル
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2009538558A publication Critical patent/JP2009538558A/ja
Application granted granted Critical
Publication of JP4742168B2 publication Critical patent/JP4742168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明はビデオ監視カメラが捕らえたビデオ・シーケンス内で検出された対象物の特性を識別する方法に関するものである。また、本発明はビデオ監視システム内の対象物を追跡する方法に関するものである。更に、本発明はビデオ監視カメラが捕らえたビデオ・シーケンス内で検出された対象物の特性を識別するビデオ監視システム内の識別機器と、ビデオ監視システム内の対象物を追跡する追跡装置とを備えるビデオ監視システムに関するものである。
監視の目的では監視カメラ(CCTV)システムが主として用いられる。最近では、空港、公共領域、学校、高速道路、およびその他の多くの場所で監視システムが増えている。CCTV市場は、アナログ・システムとディジタル・ネットワーク・ビデオ・システムという2つの分野から成る。アナログ・システムに比べてネットワーク・ビデオ・システムはいくつかの利点を有する。ネットワーク・ビデオ市場のシェアが増加している最も大きな理由は、遠隔でのアクセス可能性、容易な将来の証明の統合、拡張性および柔軟性などである。
ディジタル・ネットワーク・ビデオ・システムとアナログ・システムとを分ける1つの特徴は、前者のシステムが実時間の画像処理に適していることである。これは、或る種のディジタル信号プロセッサとカメラとを統合してこれにアルゴリズムを導入すれば可能になる。
現在の実時間の監視は非常に大きな労力を要するのでコストがかかる。また人間の注意力は時間と共に急速に劣化するので、この種の仕事の支援ツールとして画像を処理するインテリジェント・ビデオ機能を用いることが望ましい。これにより、人件費が下がると共に性能が向上する。実時間の監視を容易にするのに有用なインテリジェント・ビデオ機能には、動きの検出(例えば、人のいない施設内に立ち入った人物の検出)、特定の事象の検出(例えば、車の衝突の検出)、認識(例えば、大きなあいまいなカメラ・システム内の不審な人物の動きの追跡)などである。
ネットワーク・ビデオ・カメラがこれらの機能を満足な方法で行うことができれば、アナログ・システムより優れた独特の利点を有することになるであろう。
複数のカメラを備えるビデオ監視システムで、すなわち、異なるカメラが捕らえた異なるビデオ・シーケンスまたは場面間で、人間などの剛体でない対象物を検出しまた追跡できるようにするには、次の要素を考慮に入れなければならない。すなわち、人間が剛体でないために起こる形の変化、シーケンス内の異なる視点、別の場面の間および同じ場面の中の異なる照明レベル、異なる場面の間および同じ場面の中の異なる照明の色、シーケンス内のカメラまでの異なる距離、などである。
これらの事情から、非剛性対象物を検出しまた追跡する方法の中には適用できないものがある。解像度が低くまたカメラと対象物との間に距離があるために、詳かい部分を処理する方法は全て使えない。人の衣服の生地は非常に細かいことが多いので、生地に基づく方法も使えない。
本発明の目的は、人間などの非剛性対象物を認識できるようにすることである。したがって、この方法は対象物の形の変化に敏感であってはならない。
監視カメラのユーザはカメラを較正することは望まないので、この方法はカメラの位置が既知であることに依存することはできない。このため、対象物を見る角度を考慮に入れることはできない。したがって、対象物の異なる部分の相対的サイズ(例えば、腕や足の相対的長さ)に基づく方法は使えない。
追跡の問題はすでに広く調査されているが、人物を追跡するための周知の方法はここでは使えない。なぜなら、同じ場面内の人物を追跡することと、異なる場面内の人物を認識する(異なる場面は異なるカメラから得られる)こととの間に重要な違いがあるからである。同じ場面内の人物を追跡するときは、問題は各新しいフレーム内でその人物を見つけることである。この場合は、その前のフレームからの情報が非常に有用である。照明や、見る角度や、その人物の位置は、フレーム間で全く同じか、変化してもごくわずかのはずである。場面が変わると、これらの情報は全て失われる可能性がある。したがって、異なる場面間で人物を認識する方法は普通の追跡方法以外の特徴を用いなければならない。
異なる場面間の対象物を識別しまた追跡する方法は、多数のカメラを用いる監視システムにおける支援ツールとして用いるべきである。したがって、この方法は誤って一致と判定することは許容できるが、正しく一致したものを見落としてはならない。モニタを監視している監視者は、前者の場合は正しい人物を手動で容易に認識することができるが、後者の場合は、その方法は監視者にとって何の助けにもならない。
したがって、対象物の特性を識別する方法およびシステムが必要である。この特性は異なるビデオ・シーケンス間で対象物を追跡するのに用いることができるものであり、この方法は2つの異なるビデオ・シーケンス内で起こる全ての対象物を見落とすことがないという意味で信頼できるものである。
本発明の目的は、上に述べた問題の少なくとも一部を緩和することができる、ビデオ監視システムにおける方法と、ビデオ監視システム内の機器と、ビデオ監視システムとを得ることである。
本発明の第1の態様では、これはビデオ監視カメラが捕らえたビデオ・シーケンス内の対象物の特性を識別するビデオ監視システムにおける方法により達成される。この方法は、ビデオ・シーケンス内の特定の対象物を識別するステップと、ビデオ・シーケンス内で識別された特定の対象物の色および強さの情報、すなわち、ビデオ・シーケンスの複数の画像から生じる色および強さの情報、に基づいて少なくとも2次元の色空間内に色ヒストグラムを生成するステップと、生成された色ヒストグラムに基づいて対象物の特性を識別するステップとを含む。
ビデオ・シーケンスの複数の画像に基づいて色ヒストグラムを生成することにより、対象物の種々の可能な外観を受け、これを結合して色ヒストグラムを作ることができる。これは、ビデオ・シーケンス内で対象物が向きを変えて大きく動いた場合に、多くの可能な視点から対象物を完全に記述する色ヒストグラムが得られることを意味する。これにより、ヒストグラムは画像内の空間的変化に対して不変になる。例えば対象物が人間の場合は、この人がジャケットを手に持っているか着ているかは色ヒストグラム内では関係ない。この色ヒストグラムに基づいて識別された対象物の特性は後で、例えば、同じカメラからまたは別のカメラから生じるその後のビデオ・シーケンス内の対象物を、新しいビデオ・シーケンス内の対象物の位置や視角に関わらず検出するのに用いることができる。また、色ヒストグラムは強さおよび色に基づくので、色ヒストグラムは情報がどの画像から生じたかに関係ない。すなわち、時間に関係ない。
当業者に明らかなように、色および強さの色空間から得られる任意の多次元表現を用いて任意の少なくとも2次元のヒストグラムに同じ方法を適用することができる。
本発明の或る実施の形態では、生成された色ヒストグラムに基づいて対象物の特性を識別するステップは、色ヒストグラムを正規分布などの多数の分布でモデル化するステップと、生成されモデル化された色ヒストグラムに基づいて対象物の特性を識別するステップとを含む。色ヒストグラムを多数の分布でモデル化することにより、色ヒストグラムから受けるデータの量を、対象物の特性を識別するのに管理しやすい量まで減らすことができる。
本発明の別の実施の形態では、色ヒストグラムは、期待最大化アルゴリズムなどの分布当てはめアルゴリズムを用いて多数の分布でモデル化する。分布当てはめアルゴリズムを用いることにより、色ヒストグラムの良いモデルが得られる。また、期待最大化アルゴリズムは、多数の正規分布により色ヒストグラムの良い推定を得るための比較的高速の方法である。
本発明の別の実施の形態では、この方法は更に、色ヒストグラムをデカルト座標系から極座標系に変換するステップを含む。これにより、ヒストグラム内の対象物の特性を、環境に依存する色ヒストグラムの特性から分離しやすくなる。色ヒストグラム内では、対象物の各色部分は色ヒストグラム内に或る広がりを有する斑点(blob)により表される。モデル化された色ヒストグラムを?座標およびa座標を持つ極座標系に変換することにより、或る対象物の第1のビデオ・シーケンスと同じ対象物の第2のビデオ・シーケンスとの間の照明の強さの変化はほぼ?方向の斑点の位置の変化に変わり、シーケンス間の光の色の変化はほぼa方向の斑点の位置の変化に変わる。画像内の環境の影響を対象物の特性から分離するときにこの知識を用いることができる。色ヒストグラムを分布でモデル化するステップの後に変換するステップを行って、変換するステップでの計算量を減らすのが好ましい。しかし、変換するステップはモデル化するステップの前に行ってもよい。
本発明の更に別の実施の形態では、対象物の特性を計算するステップは、多数の分布のパラメータに、各パラメータと対象物の特性との相関に依存して重みを付けることにより対象物の特性を計算することを含む。各パラメータと対象物の特性との相関の大きさの推定に依存して異なる重み係数を分布のパラメータに与えることにより、対象物の特性の計算値を得ることができる。
更に別の実施の形態では、分布のパラメータを計算するステップは更に、色ヒストグラムを極座標系から第2のデカルト座標系に変換するステップと、第2のデカルト座標系の原点を色ヒストグラム内の対象物の重心にするステップとを含む。これにより色ヒストグラム内の対象物を記述する内部座標系が得られるので、色ヒストグラム内の情報を分離して、これを対象物の特性と多少とも相関するパラメータ内に入れるのが容易になる。
本発明の別の実施の形態では、対象物の各色部分を色ヒストグラム内に或る広がりを有する斑点により表し、また対象物をかかる斑点のクラスタとして記述する。これにより、色ヒストグラム内の情報を分離して、これを対象物の特性と多少とも相関するパラメータ内に入れるのが容易になる。
本発明の第1の態様の別の実施の形態では、この方法は更に、複数の画像からそれぞれ生じた色および強さの情報を、各画像内で対象物を記述する画素の数に関して正規化するステップを含む。これにより、色および強さの情報は画素に中立になる。例えば、各画像を取得した異なる時間および対象物のスケールに対して不変になる。
別の実施の形態では、色空間は、強さ情報と色情報とを分離できるYCbCr、HSV、YUV色空間などの色空間である。強さ情報と色情報とを分離できる色空間を用いることにより、対象物に関係する色ヒストグラム内の特性を、ビデオ・シーケンスを捕らえたときの環境に関係する色ヒストグラム内の特性から分離することができる。
更に別の実施の形態では、色ヒストグラムはビデオ・シーケンスの全ての画像内の色および強さの情報に基づいて生成する。色ヒストグラムを生成するのに用いる画像が多いほど、ヒストグラムは対象物の時間的および空間的態様に依存しなくなる。
更に別の実施の形態では、色ヒストグラムに基づいて対象物の特性を識別するステップは、色ヒストグラムに基づいてビデオ・シーケンス内の対象物を記述するパラメータを識別するステップと、この識別されたパラメータに基づいて対象物の特性を計算するステップとを含む。ビデオ・シーケンス内の対象物を記述するパラメータを識別するステップは、色ヒストグラムの重心および色ヒストグラム分布を識別するステップと、識別された重心および識別された色ヒストグラム分布に基づいて対象物の特性を識別するパラメータを計算するステップとを含む。重心および色ヒストグラム分布の特徴は、対象物の特性を識別するのに用いることができるパラメータを計算するための、最初の良い特徴であることが分かった。
本発明の第2の態様では、ビデオ監視システム内の対象物を追跡する方法を提供する。この方法は、第1のビデオ監視カメラが捕らえた第1のビデオ・シーケンス内の追跡すべき対象物を識別するステップと、追跡すべき対象物の特性を本発明の第1の態様の方法に従って識別するステップと、第2のビデオ監視カメラが捕らえた第2のビデオ・シーケンス内の候補の対象物を識別するステップと、候補の対象物の特性を本発明の第1の態様の方法に従って識別するステップと、候補の対象物の識別された特性と追跡すべき対象物の識別された特性とを照合するステップと、候補の対象物が追跡すべき対象物と同一である確度を前記照合するステップに基づいて計算するステップとを含む。この方法により、第2のビデオ・シーケンス内の候補の対象物が、前に捕らえた第1のビデオ・シーケンス内の追跡すべき対象物と同じ対象物かどうかを自動的に検出することができる。本発明の第1の態様の方法は各ビデオ・シーケンス内の対象物の空間的な変化および時間的な変化に対して不変なので、正しく一致したものを第2の態様の方法が見落とす可能性は低い。
本発明の第3の態様では、ビデオ監視システム内の識別機器を提供する。この識別機器は、ビデオ・シーケンス内の特定の対象物を識別する対象物識別ユニットと、ビデオ・シーケンス内で識別された特定の対象物の色および強さの情報、すなわちビデオ・シーケンスの複数の画像から生じた色および強さの情報、に基づいて少なくとも2次元の色空間内に色ヒストグラムを生成する色ヒストグラム発生器と、生成された色ヒストグラムに基づいて対象物の特性を識別する対象物特性識別器とを備える。ビデオ・シーケンスの複数の画像に基づいて対象物の色ヒストグラムを生成する色ヒストグラム発生器により、対象物の種々の可能な外観を受け、これを結合して色ヒストグラムを作ることができる。これは、ビデオ・シーケンス内で対象物が向きを変えて大きく動いた場合に、多くの可能な視点から対象物を完全に記述する色ヒストグラムが得られることを意味する。これにより、ヒストグラムは画像内の空間的変化に対して不変になる。また、色ヒストグラムは強さおよび色だけに基づくので、色ヒストグラムは情報がどの画像から生じたかに無関係になる。すなわち、時間に無関係になる。
本発明の第4の態様ではビデオ監視システムを提供する。このビデオ監視システムは、共通の通信ネットワークに接続する多数のビデオ監視カメラと、本発明の第3の態様に係る、共通の通信ネットワークに接続する少なくとも1台の識別機器と、ビデオ監視システム内の対象物を追跡する、共通の通信ネットワークに接続する追跡装置とを備える。
追跡装置は、第1のビデオ監視カメラが捕らえた第1のビデオ・シーケンス内で識別された候補の対象物の識別された特性に関する情報と第2のビデオ監視カメラが捕らえた第2のビデオ・シーケンス内で識別された追跡すべき対象物の識別された特性に関する情報とを含む情報を少なくとも1台の識別機器から受ける受信器と、候補の対象物の識別された特性と追跡すべき対象物の識別された特性とを照合する照合ユニットと、照合するステップに基づいて候補の対象物が追跡すべき対象物と同一である確度を計算する計算ユニットとを備える。かかるビデオ監視システムは、第2のビデオ・シーケンス内の候補の対象物が、前に捕らえた第1のビデオ監視カメラ内の追跡すべき対象物と同じ対象物かどうかを自動的に検出することができる。少なくとも1台の識別機器がビデオ・シーケンスの複数の画像から対象物の色ヒストグラムを生成することにより、このシステムは各ビデオ・シーケンス内の対象物の空間的な変化および時間的な変化に対して不変になるので、正しく一致したものをこのシステムが見落とす可能性は低い。
本発明の好ましい実施の形態を示す添付の図面を参照して、本発明について以下に詳細に説明する。しかし、本発明は多くの異なる形で実現してよく、ここに示す実施の形態に限定されると考えてはならない。むしろ、これらの実施の形態は、この開示を十分かつ完全にして本発明の範囲を当業者に十分に伝えるために提供されるものである。各図の同じ参照番号は同じ要素を指す。
図1aおよび図1bは本発明に係るビデオ監視システムを示す。このビデオ監視システムは、通信ネットワーク20を介して監視センタ30に接続する多数のビデオ監視カメラ10,12,14を備える。ビデオ監視カメラ10,12,14は画像シーケンスを生成することができる任意のディジタル・カメラおよび/または画像シーケンスを生成することができる任意のアナログ・カメラでよい。この場合、アナログ・カメラは、アナログ画像情報をディジタル画像データに変換してディジタル画像データをネットワーク20に与える変換器に接続する。通信ネットワーク20はディジタル画像情報を伝える任意の種類の通信ネットワークでよい。例えば、ローカル・エリア・ネットワーク(LAN)、または無線ローカル・エリア・ネットワーク(W−LAN)、またはワイド・エリア・ネットワーク(WAN)などの有線または無線のデータ通信ネットワークでよい。
図1aに示すシステムでは、各ビデオ監視カメラ10,12,14は、ビデオ監視カメラが捕らえたビデオ・シーケンス内の対象物の特性を識別するための本発明にかかる識別機器100a,100b,100cを備える(図2参照)。対象物の特性を識別した後、各ビデオ監視カメラは識別された特性IDをネットワーク内の監視センタ30などのノードに伝える。このため、監視センタ30は、第1のビデオ・カメラ10から受けた追跡すべき対象物の識別された特性および第2のビデオ・カメラ12から受けた候補の対象物の識別された特性に基づいてビデオ監視システム内の対象物を追跡するための本発明に係る追跡装置200を備える(図3参照)。追跡装置は、追跡すべき対象物の識別された特性と候補の対象物の識別された特性とを比較して候補の対象物が追跡すべき対象物と同一かどうかを計算する。
図1bに示すシステムでは、ビデオ監視カメラ10,12,14内に識別機器がない。その代わりに、監視センタ30は追跡装置200に加えて少なくとも1台の識別機器100を備える。このシステムでは、ビデオ監視カメラ10,12,14はビデオ・シーケンスを監視センタに送り、監視センタ内に配置された識別機器内で対象物の特性を識別する。
別の実施の形態では、一部のカメラは識別機器100を備え、一部のカメラは識別機器100を備えない。この場合は、入力データは識別機器を備えないカメラから識別機器を備えるカメラに送る。別の形態では、監視センタ30などの中央ノード内にも識別機器100を備えてよい。この場合は、入力データは識別機器を備えないカメラから中央ノード内の識別機器に送ってよい。
更に別の実施の形態では、ビデオ監視システム内のカメラの少なくとも1個は追跡装置200を備えてよい。
また追跡装置200は、追跡すべき対象物の識別された特性を受けたカメラと同じカメラから候補の対象物の識別された特性に関する情報を受けてよい。この場合は、追跡すべき対象物の識別された特性は第1のビデオ・シーケンスから生じ、候補の対象物の識別された特性は第1のビデオ・シーケンスとは別個の第2のビデオ・シーケンスから生じる。
図2は本発明の或る実施の形態に係る識別機器100を備えるビデオ監視カメラ10の概要を示す。本発明の理解を助けるために、ビデオ監視カメラの標準機能の中で本発明に関係のないものは説明しない。ビデオ監視カメラ10は、入射光を記録するための画像センサ52(例えば、電荷結合素子(CCD)、CMOSセンサなど)、画像処理手段54、ネットに接続する他のノードに通信ネットワークを介して情報を送る通信ユニット150、本発明の或る実施の形態に係る識別機器100を備える。
画像処理手段54は記録した光に関する情報を受け、この情報を、当業者に周知のA/D変換器および信号処理手段56により処理する。或る実施の形態では(例えば、画像センサ52がCMOSセンサのとき)画像センサ52はA/D変換器を含むので、画像処理手段54内にA/D変換器は必要ない。A/D変換器および信号処理手段56からの結果はディジタル画像データであって、1つの実施の形態では、これをスケーリング・ユニット57および符号器58で処理した後、ディジタル画像データを識別機器100に送る。スケーリング・ユニット57はディジタル画像データを処理して或るサイズの少なくとも1つの画像を作る。しかし、異なるサイズの複数の画像(全てA/D変換器および信号処理手段56により与えられる同じ画像/フレームを表す)を生成してもよい。別の実施の形態ではスケーリング・ユニットの機能を符号器で行い、また更に別の実施の形態では画像センサからの画像のスケーリング、すなわちサイズ変更を行う必要は全くない。
符号器58は本発明の実施においては随意であるが、ディジタル画像データを符号化して、複数の周知のフォーマット(連続したビデオ・シーケンスのための、制限されたビデオ・シーケンスのための、静止画像のための、または流れる画像/ビデオのための)の任意の1つを作る。例えば、画像情報を符号化して、MPEG1、MPEG2、MPEG4、JPEG、MJPG、ビットマップなどを作る。識別機器100は非符号化画像を入力データとして用いてもよい。この場合は、画像データは信号処理手段56からまたはスケーリング・ユニット57から取り、符号器58を通さずに識別機器100に与える。非符号化画像は、BMP、PNG、PPM、PGM、PNM、PBMなどの任意の非符号化画像フォーマットでよい。しかし、識別機器100は符号化データを入力データとして用いてもよい。
本発明の或る実施の形態では、スケーリング・ユニット57または符号器58を通さずに、画像データを信号処理手段56から識別機器100に直接送ってよい。更に別の実施の形態では、符号器を通さずに画像データをスケーリング・ユニット57から識別機器100に送ってよい。
図2の識別機器100は、対象物識別ユニット102、色ヒストグラム発生器104、および対象物特性識別器106を備える。対象物識別ユニット102は画像処理手段54から受けた画像情報に基づいてビデオ・シーケンス内の対象物を識別する。対象物は対象物識別ユニット102内で任意の周知の対象物識別技術に従って手動または自動で識別してよい。色ヒストグラム発生器104は、対象物の色および強さの情報、すなわちビデオ・シーケンスの複数の画像から生じた情報、に基づいて色ヒストグラムを生成する。色ヒストグラムは色を記述するヒストグラムを意味する。
対象物特性識別器106は生成された色ヒストグラムに基づいて対象物の特性を識別する。色ヒストグラムを生成するときにビデオ・シーケンスの複数の画像から生じた情報を用いることにより、1つの画像だけからの情報を用いる場合に比べて、識別機器は時間的および空間的な態様(すなわち、絵の中のいつどこで対象物を識別したか)に対して敏感でなくなる。用いる画像が多くなるほど、識別機器は時間的および空間的な態様に強くなる。これは、本発明の識別機器が対象物の特性を識別できる確実性が高いことを意味する。なぜなら、この機器は異なるビデオ・シーケンス内の対象物の外観の変化に対して敏感でないからである。
本発明の或る実施の形態では、対象物の特性は種々のステップで識別することができる。例えば、まずビデオ・シーケンスの少数の画像(例えば5画像)内の色および強さの情報に基づいて特性を識別してよい。その後で、ビデオ・シーケンスの多数の画像に基づいて(例えば、後でビデオ・シーケンス内の更に多数の画像内で対象物を見たときに)対象物の特性の正確な識別を行ってよい。
本発明の或る実施の形態では、対象物特性識別器は、ヒストグラム・モデル化器108、ヒストグラム変換器110、パラメータ計算器112、対象物特性計算器114を備える。
ヒストグラム・モデル化器108は、生成された色ヒストグラムを多数の分布(1つの実施の形態では正規分布)でモデル化してデータ量を減らす。ヒストグラム変換器110は、強さを表す?および色を表すaを用いて色ヒストグラムをデカルト座標系から極座標系に変換する。これにより色ヒストグラム内の対象物の特性を環境に依存する色ヒストグラムの特性から分離しやすくなる。パラメータ計算器112は対象物の特性を識別する多数の分布のパラメータを計算する。
対象物特性計算器114は、対象物の特性を識別するために各パラメータの重要性に従ってパラメータに重みを付けることにより、計算されたパラメータに基づいて対象物の特性を計算する。各パラメータの重要性は、例えばテスト・ステップで前もってテストしてよい。カメラ10の通信ユニット150は、例えばカメラ10の中の識別機器100が色ヒストグラムから識別した対象物の特性に関する情報を、通信ネットワーク内の別のノード内または同じカメラ内の追跡装置に伝える。
図3は本発明に係る追跡装置200を示す。追跡装置200は、受信器202、照合ユニット204、計算ユニット206、信号発生器208を備える。受信器202は、追跡すべき対象物の識別された特性に関する情報を第1の識別機器から受け、また候補の対象物の識別された特性に関する情報を第2の識別機器から受ける。または、第1および第2の識別機器は同じ識別機器でよい。照合ユニット204は、候補の対象物の識別された特性に関する情報と追跡すべき対象物の識別された特性に関する情報とを照合する。
計算ユニット206は、照合するステップに基づいて、候補の対象物が追跡すべき対象物と同一である確度を計算する。計算の結果は監視センタ内のディスプレイなどの表示ユニットに信号として送られ、ディスプレイ上に表示されて、一致/不一致が見つかったことを監視センタで働く担当者に示す。計算の結果は、候補の対象物が追跡すべき対象物と同一である確率を示す確率値でよい。信号発生器208は計算の結果に基づいてかかる信号を生成する。
図4は、本発明の或る実施の形態に係る、ビデオ監視カメラが捕らえたビデオ・シーケンス内の対象物の特性を識別する方法を示す。この方法は次のステップを含む。すなわち、ビデオ監視カメラが捕らえたビデオ・シーケンス内の対象物を識別するステップ302と、ビデオ・シーケンス内の複数の画像からの対象物の色および強さの情報に基づいて色ヒストグラムを生成するステップ306と、生成された色ヒストグラムに基づいて対象物の特性を識別するステップとである。
本発明の実施の形態では、生成された色ヒストグラムに基づいて対象物の特性を識別するステップは、更に次のステップの1つ以上を含む。すなわち、多数の正規分布で色ヒストグラムをモデル化するステップ308と、モデル化された分布をデカルト座標系から極座標系に変換するステップ310と、対象物の特性を識別するのに用いた分布のパラメータを計算するステップ312と、各パラメータと対象物の特性との相関に従って分布のパラメータに重みを付けることにより、対象物の計算されたパラメータに基づいて対象物の特性を計算するステップ314とである。モデル化するステップ308と変換するステップ310の順序はどちらが先でもよい。
本発明の或る実施の形態では、この方法は更に、各画像内の対象物の色および強さの情報を、各画像内で対象物を記述する画素の数により正規化するステップを含む。正規化するステップは色ヒストグラムを生成するステップ306の前または後に行ってよい。
本発明の或る実施の形態では、分布のパラメータを計算するステップ312は、色ヒストグラムを極座標系からデカルト座標系に変換するステップと、座標の原点を色ヒストグラム内の対象物の重心に移すステップと、第2のデカルト座標系内の多数の分布の位置を計算するステップとを含む。第2のデカルト座標系内の多数の分布の位置は対象物の特性を識別するパラメータとして用いる。
分布のパラメータを計算するステップ312は更に、色ヒストグラム内の重心および色ヒストグラム分布を識別するステップと、識別された重心および識別された色ヒストグラム分布に基づいて対象物の特性を識別するためのパラメータを計算するステップとを含む。この場合、「色ヒストグラム分布」という用語は対象物を記述する斑点のクラスタの、色ヒストグラム内への延長と解釈すべきである。ヒストグラムは多数の斑点を含むものと言ってよい。各斑点は単色の対象物の部分と定義され、対象物はかかる単色の対象物の部分のクラスタである。
図5は、本発明の或る実施の形態に係る、ビデオ監視システム内で対象物を追跡する方法を示す。この方法は、第1のビデオ監視カメラが捕らえた第1のビデオ・シーケンス内の追跡すべき対象物を識別するステップ402と、追跡すべき対象物の特性を図4に示す方法に従って識別するステップ404と、第2のビデオ監視カメラが捕らえた第2のビデオ・シーケンス内の候補の対象物を識別するステップ406と、候補の対象物の特性を図4に示す方法に従って識別するステップ408と、候補の対象物の識別された特性と追跡すべき対象物の識別された特性とを照合するステップ410と、照合するステップに基づいて候補の対象物が追跡すべき対象物と同一である確度を計算するステップ412と、候補の対象物が追跡すべき対象物と同一である確度を示す信号を生成するステップ414とを含む。
生成された信号は、例えば監視センタ内の監視員のスクリーンで視覚的に提示してよい。監視員はこの情報を用いて、候補の対象物と追跡すべき対象物との間に一致が実際に存在するかどうかを、2つのビデオ・シーケンス内で目で更にチェックする。
本発明の別の実施の形態では、第1のビデオ監視カメラと第2のビデオ監視カメラとは同じビデオ監視カメラでよい。この場合は、第1のビデオ・シーケンスと第2のビデオ・シーケンスとは同じカメラで捕らえた別個のビデオ・シーケンスである。
ビデオ監視カメラおよび/またはビデオ監視システム内の他のノードは、コンピュータ使用可能媒体(コンピュータ・プログラム製品をその上に記憶している)を受けるコンピュータを有してよい。コンピュータ・プログラム製品はコンピュータ読取り可能プログラム手段を含み、コンピュータはこれにより、ビデオ・シーケンス内の対象物の特性を識別する方法のステップを実行し、および/または本発明に係るビデオ監視システム内で対象物を追跡する方法のステップを実行する。
理論
本章は調査した問題の背後の基本的理論を含む。第1節は調査に用いた機器を扱い、第2節は数学を扱う。
調査の際に、研究、訓練、および確認のためにビデオ・シーケンスを作った。用いたカメラはAxis207ネットワーク・カメラおよびAxis210ネットワーク・カメラで、両方とも自動ホワイト・バランスおよび露出制御を備える。これらのカメラは2つの異なるセンサ技術を用いている。前者のカメラはディジタル・センサCMOSを用い、後者のカメラはアナログ・センサCCDを用いる。これらを用いて、この応用で説明する方法を、特定のカメラまたはセンサ技術に適用される技術ではなく、より一般的な技術環境で開発した。ビデオ・シーケンスはMJPGファイルとして捕らえた。各MJPGファイルはJPGファイルのシリーズから成る。これらを分離し、PPMファイルに変換して、調査の際にデータとして用いた。しかし、本発明を実施するのに任意の種類の画像フォーマットを用いてもよかった。
以下の節ではホワイト・バランスおよび色空間の問題を詳細に説明し、またこれらの領域の数学的側面も扱う。
われわれの周囲のほとんどの光源は輻射黒体である。そのスペクトル強さはその温度に依存し、プランクの黒体輻射の法則により次式で与えられる。
Figure 0004742168

ただし、Iはスペクトル放射輝度、?は周波数、Tは温度、hはプランクの定数、cは光速、eは自然対数の底、kはボルツマン定数である。
黒体輻射の為に、低温の光源は赤の方にシフトし(例えば、白熱電球)、高温の光源は青の方にシフトする(例えば、太陽)。
対象物から反射された光の色は対象物の色と入射光の色の両方に依存する。人間の脳は調整を行って周囲の光の色を補償するので、人間は入射光に関係なく対象物の正しい色を見ることができる。しかし普通のカメラはかかる調整を行わないので、画像の色は影響を受ける(例えば、その場面の入射光が青い場合は画像内の白色の対象物は青みがかることがある)。対象物の真の色を示す画像を作るにはホワイト・バランス・アルゴリズムを適用しなければならない。このアルゴリズムは場面内の白い対象物を画像内で白くし、他の全ての色も或る程度の正確さで修正する。
ネットワーク・カメラはセンサで画像を捕らえる。これらのセンサは一般にRGBまたはCMYG色空間を用いる。人間の目は光の強さに対してよりも色に対して感度が低いので、色の解像度は強さの解像度より低くてよい。そのため、画像の圧縮では色と強さとを別個に処理する方がよい。したがって、画像をYCbCr色空間(Yは強さの情報を含み、CbおよびCrは色の情報を含む)に変換した後、これを圧縮してJPEGまたはMPEGフォーマットを作る。これにより、YCbCrは全ての画像処理において好ましい色空間になる。なぜなら、更に変換する必要がないからである。図6はRGB色空間に対するYCbCr色空間を示す。
YCbCr色空間は
Figure 0004742168

で定義されるRGB色空間の線形マップである。ただし、0≦R,G,B≦256、0≦Y≦256、および−128≦Cb,Cr≦128である。
方法
まず、ビデオ監視カメラが捕らえた画像を前処理して、識別された対象物を正しく区分する。図7aでは画像は識別された対象物(すなわち室内の人物)を含む。図7bでは対象物は区分されている。すなわち、対象物に対応しない画像の部分は削除されている。区分は、対象物を場面の残りから分離する任意の周知の区分方法により行ってよい。
追跡すべき対象物の識別された特性および候補の対象物の識別された特性に基づいて2つの異なるビデオ・シーケンス間で対象物の特性を識別しまた対象物を追跡するのに最も期待できる特徴の1つは色であることが分かった。人物の色ヒストグラムを特徴として用いると、形の変化、小さな部分的な重なり(occlusion)、方向の変化、見る位置のシフトなどの変動に対して敏感でないはずである。他方で、色ヒストグラムの特徴は照明の色および強さの変化に対して敏感なことである。したがって、色空間としてはRGBより、YCbCr色空間などの強さ情報と色情報とを分離することができる色空間を用いる方がよさそうである。なぜなら、YCbCr色空間内では照明の強さの変化の影響と色の変化の影響とが分離されるからである。大体のところ、照明の強さはY軸に沿って変化し、照明の色はCbCr平面内で変化する。この知識を用いると照明の変動を調整することができる。前に述べたように、YCbCr色空間はハードウエア応用で扱うのにも適している。
3次元色空間を扱うと大量のコンピュータ容量を消費するし、また分析のための視覚化が困難なので、2次元データ(CbCr、YCb、YCr平面内の)の方が便利であろう。図8に、YCbCr色空間が立方体でないことを示す。したがって、異なる照明の強さの中の単色の対象物は、Y軸に平行に広がるのではなく図8に示す線に沿って広がる。これらの線に沿ってCbCr平面上に投影するのが正しいが、簡単のためにこの明細書では近似を行い、YCbCrヒストグラムをそのまま3つの全ての平面上に投影したものを用いて2次元ヒストグラムを作った。
本発明に係るビデオ・シーケンス内の対象物の特性を識別するのに用いるヒストグラムを生成するには、ビデオ・シーケンスの複数の画像が必要である。ヒストグラムを生成するのに用いるビデオ・シーケンスからの画像が多いほどより多くの情報が用いられるし、またこの方法はより強くなる。対象物を見た時間の違いおよびスケールに対してこの方法を不変にするため、用いる全ての画像内の対象物を構成する画素の数でヒストグラムを割るのが好ましい。人物の異なる部分の位置を用いないので、色ヒストグラムを特徴として扱うとこの方法は画像内の空間的変化に対して不変になる。人物が例えばジャケットを手に持っているか着ているかは、色ヒストグラム内では関係ない。第1の場面内の人物のこれらの特徴は、図9aに人物のCbCr、YCb、YCrヒストグラムとしてこの順に左から右に示されている。各対の第1の変数は垂直軸上に示され、各対の第2の変数は水平軸上に示されている。128のオフセットがCbおよびCrスケールに加えられている。
同じ人物の別の場面の特徴がCbCr、YCb、YCrヒストグラムとして図9bに示されている。これらの2つの場面での照明の色は大幅に異なる。一方の場面の照明は主として青にシフトした室外光から成り、この光で対象物を照らした。しかし赤にシフトした室内光も存在し、この光がこの場面内の白い対象物を照らしたのでカメラはこの照明にホワイト・バランスし、対象物の色は正しくなくなった。このため、図9aと図9bのヒストグラムは余り似ていない。このデータを用いて人物を認識することは難しい問題である。したがって、良い結果が得られるようにカメラのホワイト・バランスが働けばよい。それには1つのタイプの光源を用いればよい。この明細書の最後の方法は1つのタイプの光源を用いて確認する。しかしテストしてみると、異なるタイプの光源でも良い結果が得られることが分かった。
図10aおよび図10bは、2つの異なる場面における或る人物のCbCr、YCb、およびYCr色ヒストグラムを示す。この場合は、1つのタイプの光源を用いた。図10aおよび図10bには、或る人物のCbCr、YCb、YCrヒストグラムがこの順に左から右に示されている。各対の第1の変数は垂直軸上に示され、各対の第2の変数は水平軸上に示されている。128のオフセットがCbおよびCrスケールに加えられている。図10aと図10bとの間の色ヒストグラムの類似性は図9aと図9bとの間に比べてはるかに大きい。複数の人物のヒストグラム(2つの異なる場面からの)の分析によると、認識する対象物が人間の場合、その人が目立たない色の衣服を着ている限り、CbCr平面はYCbおよびYCr平面ほど認識するのに有用ではないことが分かった。その理由は、CbCr平面内のデータは原点の近くに集中し、また異なる色の対象物(衣服の各片)を表す斑点は重なることが多いからである。したがって、目立たない色の衣服を着た人物を認識するには、YCbおよびYCrヒストグラムを特徴として用いるのが好ましい。
照合の特徴
異なるビデオ・シーケンス内の人物を認識するには、異なるビデオ・シーケンスからの特徴を互いに照合する。ヒストグラムを照合するいくつかの方法が文献に示されており、これらの方法を直接用いてよい。ヒストグラムを照合するこれらの方法の1つはヒストグラム内のビンを直接比較することである。これを行う1つの方法は、2つのヒストグラムの対応するビンの積の平方根の和であるバタチャヤ(Bhattacharyya)係数を用いることである。この方法は、D.Comaniciu、V.Ramesh、P.Meerの、「核ベースの対象物の追跡(Kernel−based object tracking)」、IEEE Computer Vision and Pattern Recognition,(2000)、に記述されている。
円錐照合(conic matching)は別の照合方法であって、斑点の特徴を照合する(例えば、見た目を照合する)のに用いられる。円錐照合アルゴリズムでは、類似の色を持つ画素を区分して楕円に似た形の斑点を作る。次に、或る画像内で見つけた斑点と別の画像内の斑点とを比較して、一致するかどうか調べる。この比較で用いる特徴は斑点の色、形、位置である。この照合方法は、
Figure 0004742168

A.Moeの、「斑点の特徴を用いる視覚照合
Figure 0004742168

、に記述されている。
本発明に用いることのできる別の照合方法は、ヒストグラムを正規分布でモデル化した後、照合する特徴としてモデルのパラメータを用いることである。この場合はデータ量が大幅に少なくなる。
期待最大化(EM)アルゴリズムなどの分布当てはめアルゴリズムでは、未知の分布を一組の正規分布によりモデル化する。EMアルゴリズムは、所定の数の正規分布(クラス)とこれらのクラスの初期パラメータ推定値とを用いて開始する。そして、或る停止基準を満たすまで2つのステップを繰り返す。すなわち、現在のパラメータを用いる期待ステップ(Eステップ)と、新しいパラメータを見つける最大化ステップ(Mステップ)とである。有用な結果を得るためにEMアルゴリズムは集束する必要はないが、繰り返す度にモデルは一層良くなる。この論題ではこれは有用である。なぜなら、実時間で適用できる高速の方法が必要だからである。EMアルゴリズムについては、「画像のモデル化および推定、統計的方法(Image Modeling and Estimation,a Statistical Approach)」、Lund University,2005,ch.2.3.3 未知の分布のためのEMアルゴリズム(The EM−algorithm for unknown distributions)、に詳細に記述されている。
対象物の区分された画像の背景は黒なので、テストした人物の全てのヒストグラム内のY=0およびCb,Cr=0にスパイクが存在する。これらのスパイクはEMアルゴリズムを乱すし、また対象物に関する情報を含まないので除去する。また全てのヒストグラムは、斑点に加えて基礎となる分布も有する。したがって、長方形分布をモデルに追加する。このため、EMアルゴリズムの調整を行った。またヒストグラムを処理するためにこのアルゴリズムを調整した。
長方形分布の相対度数もクラスの最適な数も手動で決定してよく、または分布をモデル化するときに任意の種類の周知の自動的方法で計算してもよい。異なる数のクラス(すなわち、異なる数の正規分布)を用いてモデル化したヒストグラムを図11a−cに示す。これらの図はそれぞれ2つの画像から成る。すなわち、ヒストグラムを左の画像で示し、正規分布を用いてモデル化したヒストグラムを右のαρ座標の画像で示す。これについては後で説明する。変数αを垂直軸上に示す。図11aではK=2である。ただし、Kはモデル化したヒストグラムで用いた正規分布の数である。図11bではK=3、図11cではK=4である。また、このアルゴリズムはヒストグラム毎に、初期パラメータ推定値に依存して2つの異なるモデルに向けて繰り返す。ほとんどのヒストグラムは1つ以上(2つが多い)の可能な正規分布モデルを有する。これらのモデルのどれを用いるかは、手動でまたは任意の種類の自動的方法で選んでよい。
初期パラメータ推定値を得るため、Kミーンズ(K−means)アルゴリズムの1繰返しを用いる。Kミーンズ・アルゴリズムについてはJ.B.MacQueenの、「多変量観測の分類および分析のための諸方法(Some methods for classification and analysis of multivariate observations)」,the 5th Berkeley Symposium on Mathematical Statistics and Probability,1967,pp.281−297、に記述されている。Kミーンズ・アルゴリズムはヒストグラム内のクラス毎に1つのクラスタ・センタをランダムに位置決めし、次にビンをその最も近くのクラスタ・センタに集める。最後に、異なるクラスタについて初期パラメータを計算する。
以下に、長方形分布を持つヒストグラムについての調整されたEMアルゴリズムを述べる。このアルゴリズムの中で、hはヒストグラムのビンの高さ、2次元の
Figure 0004742168

はビン(YおよびCbまたはCr)に対応する座標、j=1,...,H、ただしHは空でないビンの数、k=0,...,Kはクラス数、ただしKは正規分布の数で、k=0は長方形分布を意味し、
Figure 0004742168

は分布パラメータで、
Figure 0004742168

は期待値、
Figure 0004742168

は分布の観測結果
Figure 0004742168

の共分散マトリックス、πは相対度数を意味し、Ψ={π,Θ}である。
Kミーンズ・アルゴリズムの1ステップを行うと、全てのビンは分類される。初期相対度数が一定で、k=1,...,Kおよびπ=C(Cは手動で選ぶ定数)について
Figure 0004742168

の条件を有すると仮定すると、初期相対度数推定値π は次式で与えられる。
Figure 0004742168
初期期待値
Figure 0004742168

は異なるクラスを表すk=1,...,Kについて次式で与えられる。
Figure 0004742168

j∈kは、クラスkに分類されたビンjを意味する。
異なる次元では分布は相関がないこと、言い換えると、初期共分散マトリックスΣ は共分散を有しないこと、および全てのクラスで共分散は同じであることを仮定すると、
Σ =Σ
である。ただし、
Figure 0004742168

であり、またk=1,...,Kについて
Figure 0004742168

である。
Figure 0004742168

は2次元の変数
Figure 0004742168

である。ただし、u はY部分、u はCbまたはCr部分である。
EMアルゴリズムは属するビンh={h,...,h}を持つデータ
Figure 0004742168

を用いてΨ={π,Θ}を推定する。変数
Figure 0004742168


Figure 0004742168

毎にモデル選択を完了した
Figure 0004742168

の或るバージョンである。
Figure 0004742168

が観測されたデータ
Figure 0004742168

の確度であるとし、また
Figure 0004742168


Figure 0004742168

の確度であるとすると、
Figure 0004742168

である。
初期パラメータ推定値Ψが与えられると、以下のステップが繰り返される。
Eステップ:
Figure 0004742168

を評価すると、
Figure 0004742168

である。ただし、
Figure 0004742168

である。ベイズ(Bayes)の式を用いると、k=1,...,Kについて
Figure 0004742168

および、長方形分布についての特殊のケース(k=0)
Figure 0004742168

が得られる。ただし、上の2つの式においてj=1,...,Hであり、tは繰返し回数である。ω=kはビン番号jをクラス番号kとして分類したことを意味する。
正規分布は、k=1,...,Kおよびj=1,...,Hのとき次式で与えられる。
Figure 0004742168

d=2は次元の数である(YおよびCbまたはCr)。
Figure 0004742168

は近似的に1/256に設定する。Aが色平面の面積とすると、これは1/Aである。この近似は結果に影響を与えないが、この式はその統計的意味を失う。
Mステップ:
制約付き最適化のためのラグランジュ乗法を用いて条件
Figure 0004742168

の下でQ(Ψ,Ψ(t))を最大にするΨ=Ψ(t+1)を見つけると、k=1,...,Kについて
Figure 0004742168

k=1,...,Kについて
Figure 0004742168

およびk=1,...,Kについて
Figure 0004742168

が得られる。ただしnはヒストグラム内の画素の数である。
本発明に長方形分布を用いてヒストグラム内の雑音をモデル化して、ヒストグラム内の有用な情報から雑音を除去してよい。ヒストグラムをモデル化するとき、一般に2個から5個までの分布が適当なことが多い。しかし、これより少数または多数の分布を用いてもよい。ヒストグラムをモデル化するときに用いる分布の数をクラスとも呼ぶ。たとえば、クラスK=2は2つの分布を用いたことを意味する。長方形分布をモデルに追加するときに必要なクラスの数はこれより少なかったが、ヒストグラムに対するモデルの類似性は下がった。
これは図12に見ることができる。図12はテストの人物のYCb内のヒストグラムと、種々の相対度数(π)の長方形分布を持つヒストグラムの対応する正規分布とを示す。ヒストグラムは左上の隅に示す。ここに示す種々の相対度数(π)の長方形分布を持つヒストグラムの対応する正規分布モデルは、πが図の左から右にまた上から下に増加するように並べてある。ここで、0<=π<=0.35である。128のオフセットがCbに加えられている。
また問題は更に複雑になる。なぜなら、別のパラメータ(長方形分布の相対的サイズ)を手動または自動で調整しなければならないからである。したがって、この明細書では今後は長方形分布を用いず、上のアルゴリズム内の相対度数をゼロに設定する(π=0)。しかし、本発明の別の実施の形態として長方形分布を用いてよい。
測定基準
この節は異なるビデオ・シーケンス内の対象物間の類似性を測る測定基準の開発を扱う。第1部はどの変数を用いるかに関する説明を含み、第2部は測定基準関数を開発する。
測定基準変数
測定基準を作るのに、パラメータ
Figure 0004742168

を用いたが、いくつかの理由により、これらのパラメータを直接比較しても良い結果を得るのは難しい。異なる場面では光の強さおよび色が変わるので、ヒストグラム内の斑点の位置は変化する。このため、正規分布期待値
Figure 0004742168

の値を測定基準関数への直接入力として扱うことが困難になる。
正規分布の共分散マトリックス(Σ)および相対度数(π)は、場面の光と、分布当てはめアルゴリズムによるヒストグラムのモデルの作り方とに依存する。これらは正規分布の次元を表す。また、斑点は座標軸の方向に広がるのではなく、図8に示す線に沿って広がる。分散および共分散はY、Cb、Cr軸に沿って測定するので、斑点が少し回転するとこれらは大きく変化する。したがって、共分散マトリックスを互いに比較するのは困難である。そのため、Σもπも認識の特徴としては不安定である。
代わりに斑点の広がりに沿う軸を持つ座標系を用いれば、共分散マトリックスは、分析するのも認識の特徴として用いるのも容易であろう。したがって、座標系をYCbまたはYCrから、図13に示す座標?およびaを有して
Figure 0004742168

で定義される座標系に変える。ただし、CはCbまたはCrを意味し、ρは度で与えられる。
新しい座標系では、照明の強さの変化はほぼρ方向の斑点の位置変化になり、また光の色の変化はほぼα方向の斑点の位置変化になる。モデルを比較するときにこの知識を用いてよい。原点はY=0およびC=0ではなく、Y=256およびC=0に置く方がよい。さもないと、αは図8に示す線の方向を記述しない。しかし、これが起こるのは暗い場面の中で非常に明るい対象物を捕らえた場合(これは対象物が人間のときは起こりそうもない)だけなので多く場合は近似を行ってよく、原点をY=0およびC=0に置いてよい。
図14は、YCb内のヒストグラムを図の左に示し、座標軸としてαおよび?を持つ新しい座標系内の同じヒストグラムを図の右に示す。ただし、αは垂直軸上に示し、?は水平軸上に示す。128のオフセットがCbに加えられている。
少なくとも3つのタイプの変化が異なるビデオ・シーケンス間に現われてモデルに影響を与えるはずである。すなわち、
・ 斑点の全クラスタがρ方向およびα方向に移動する。
・ 斑点の全クラスタが回転する。
・ 斑点が互いに対して内部で移動する。
次に、場面および環境に関する変動を対象物に関係する変動から分離する。次にこれに、対象物の認識の際の重要性に関して測定基準関数内で異なる重みを与えてよい。
全クラスタの移動を測定するには、ヒストグラム内の重心(または重心)(ρCWおよびαCW)を用いる。これらは
Figure 0004742168

で定義される。ただし、Hはヒストグラム内の空でないビンの数、hはビン番号jの高さである。
重心はYCr平面またはYCb平面またはYCbCr空間内で直接計算してもよい。
クラスタの回転を推定するために、主な方向(すなわちクラスタの中心軸)を得る。この中心軸を得る1つの方法は主成分分析(Principal Component Analysis(PCA))アルゴリズムである。しかしこの目的を持つ他のアルゴリズムがいくつかある。PCAについては、「画像モデル化および推定、統計的方法」、Lund University,2005,ch.2.2.4 データ整理(Data reduction)、に記述されている。本発明の或る実施の形態では、このアルゴリズムはヒストグラム内の全てのサンプルが重みを有することを考慮に入れてよい。かかるアルゴリズムの一例は重み付きPCAアルゴリズムである。重み付きPCAについては後で説明する。
このアルゴリズムでは、hは重みとして用いられるヒストグラムのビンの高さである。2次元の
Figure 0004742168

はビンの2つの座標であって、
Figure 0004742168

j=1,...,H、ただし、Hは空でないビンの数である。
属する重みh、j=1,...,H、を持つデータ
Figure 0004742168

の主成分は共分散マトリックスΣを対角化することにより得られる。
Figure 0004742168

ただし、
Figure 0004742168

はヒストグラム内の画素の数である。Λは降順の固有値λ≧λを持つ対角マトリックスである。
Figure 0004742168

は直交マトリックスで、列
Figure 0004742168

はλに属する固有ベクトルである。基準方向として用いる第1の主方向は最大の固有値に対応する
Figure 0004742168

内の固有ベクトルである。あいまいな結果を確実にするため、必要であれば
Figure 0004742168

の符号を変えて、
Figure 0004742168

が負のρ方向を指し、
Figure 0004742168

が正のα方向を指すようにする。
斑点の互いに対する内部移動を測定するため、新しい内部クラスタ座標系を用いる。この座標系を図15に示す。基準方向を基準角φに変換する。これは正のα方向から始まって反時計回りに増加する。原点をクラスタの重心(cw)に置き、用いる軸は上のアルゴリズムから得られた2つの主方向
Figure 0004742168

すなわち、内部クラスタ座標軸である。
新しい座標への変換は
Figure 0004742168

で定義される。ただし、p1およびp2は新しい座標、αおよびρは古い座標、αcwおよびρcwはクラスタの重心のαおよびρ座標である。
Figure 0004742168

は第1および第2の主方向をそれぞれ列として持つ2x2マトリックスである。
Figure 0004742168

の行列式は1なので、この変換のためにスケールの変更を考慮に入れる必要はない。
測定基準関数内で最終的に用いる変数は、全クラスタの重心(ρcwおよびαcw)、全クラスタの基準角(φ)、異なるクラスの相対度数(π)、内部クラスタ座標系内の正規分布の位置(p1およびp2)である。ただし、この場合もk=1,...,Kはクラス数で、Kは現在のモデル内のクラスの総数である。
測定基準関数
測定基準関数内の諸変数は認識の際に必ずしも同じ重要性ではないので、その重要性に従って、比較した2つの対象物間の得られた類似度への影響に重みを付ける。したがって、全関数は重み付き副関数の和として構築する。或る実施の形態では、副関数は比較した2つのモデル内の変数間の偏差の二次関数として構築する。一次副関数ではなく二次副関数を用いて、大きな偏差の方を小さな偏差より比例的に大きく罰する。副関数は0から1まで変わる。すなわち、現在の変数の比較したモデル値間で、最大偏差の場合は0であり、1は全く偏差がないことに対応する。変数に属する重みを最終的に副関数に追加する。また、全クラスタではなく個別の斑点に接続する変数を扱う副関数を、最小数の斑点を持つモデル内の斑点の数で割る。これはある意味で全関数を0と1との間に入れるために行う。2つの同じモデルを比較した場合は後者の結果が得られる。
下の式1.1に、一般的な変数xの副関数f(x1,)の構造を示す。xはモデル1内の変数値、xはモデル2内の変数値で、モデル1は最大数の正規分布を持つモデル(Kはモデル1内の正規分布の数)、モデル2は最小数の正規分布を持つモデル(Kはモデル2内の正規分布の数)である。
Figure 0004742168

ただし、0≦W≦1、Σx∈U=1、U={ρCW,αCW,φ,π,p1,p2}は測定基準内で用いる全ての変数から成る集合である。
Figure 0004742168

であり、Δxmaxは現在の変数の最大の可能な偏差で、ΔρCW max=256、ΔαCW max=90、Δφmax=180、Δπmax=1、Δplmax=271、Δp2max=271である。
2つのモデル内の斑点を互いに照合するとき、最も適合する斑点の対がまず一致する。次に残りの斑点の中の最も適合する対が一致する。このようにしてそのモデル内の全ての斑点を突き合せて、他のモデルの中の斑点と一致する斑点の数が最も少なくなるまで行う。斑点を照合するのに用いる関数h(k,k)を次のように定義する。すなわち、
Figure 0004742168

ただし、fは式1.1で定義され、またT={π,p1,p2}は、斑点のクラスタではなく個別の斑点に接続する測定基準内の全ての変数の集合である。
これらの変数はモデルの正規分布毎に1つの値を有することに注意していただきたい。すなわち、モデル1ではπk1,p1k1,p2k1であり、モデル2ではπk2,p1k2,p2k2である。ただし、1≦k≦Kおよび1≦k≦Kである。この関数はモデル1およびモデル2内の1対の正規分布間の類似性値を与えるが、最も良い一致を決定する前に、2つのモデルの中のクラスの全ての可能な照合の組合せをテストすべきである。全ての測定基準関数の中で最も良く一致するものだけを用いる。
比較する2つのモデルの中の斑点の数が異なる場合は、
Figure 0004742168

で定義される全測定基準関数の中の罰金関数p(K,K,πk1)によりこれを罰する。ただし、F≦1である。pがないと、関数は0と1の間に広がる。f(x,x)は式1.1と同様に構築する。R={ρCW,αCW,φ}は、個別の斑点ではなく全クラスタに接続する全ての変数の集合である。p(K,K,πk1)は次の式1.2により定義される。
Figure 0004742168

ただし、Kはモデル1内の正規分布の数、Kはモデル2内の正規分布の数、K≧K、ΔK=K−Kである。πk1はモデル1内のクラスkの相対度数で、1≦k≦Kである。Vはモデル2内のどの斑点とも一致しなかったモデル1の中の全ての斑点から成る集合である。
pの構造は、同じ人物を見たにもかかわらず、2つの異なるシーケンス内で異なる数の斑点を得る確度について、実際のテストおよび分析を行った結果である。シーケンス内の異なる斑点の数がごくわずか(例えば1つ)であって残りの斑点が互いによく一致する場合は、例えば、人物が前側に大きな印をつけたセーターを着ていてそれが1つの場面にだけ見える場合でも、測定基準関数はやはり高い類似性値を与えるはずである。しかし、異なる斑点の数が2つ以上ある場合は、2つのシーケンス内に同じ人物を有する確度は小さい。そのため、pはΔKの2乗に比例する。同じ人物を見たにもかかわらずシーケンス間で斑点が消える確率は、小さな斑点の場合の方が大きな斑点の場合より高い。
多数の斑点から成る人物とごく少数の斑点から成る人物とを比べたときに同じことが言える。したがって、pは不一致の斑点の相対度数πk1に比例し、モデル1内の斑点の数Kに逆比例する。最後に、この式を変数Z=10で割って適当な値を得る。H(k,k)は次式で定義される。
Figure 0004742168

ただし、h(k,k)は式1.2で定義されており、Sは2つのモデル内の斑点間に見られる最も良い一致の集合である。
式1.3はこの明細書のテスト部および確認部内で比較した対象物間の類似性を測定するのに用いられ、マットラブ(matlab)内に実現されている。
妥当性検証
本章はビデオ・シーケンス内の対象物の特性を識別するための提案された方法およびビデオ監視システム内の対象物を追跡するための提案された方法の訓練およびテストを扱う。第1節は測定基準の重みを決定する訓練部を説明する。テストおよび結果は第2節に示す。
訓練
測定基準関数内で用いる重み(W={WρCW,WαCW,Wφ,Wπ,Wp1,Wp2})を決定するため、訓練データの或る集合を用いた。この集合は、同じ照明条件の2つの異なる場面(1および2)から得た6つ(各場面から3つ)のビデオ・シーケンス(L,L,M,M,N,N)から成る。これらのビデオ・シーケンスは、それぞれ現在の場面内で行ったり来たりして歩いているテストの人物を捕らえた。3人のテストの人物(L、M、N)を用いて、それぞれ2つ(各場面から1つ)のシーケンスを作った。2つの場面でカメラの位置および視角は同じでなく、対象物までの距離と、対象物の見た部分とはシーケンス内で変わっている。ビデオ・シーケンスLからの画像を図16aに示し、ビデオ・シーケンスLからの画像を図16bに示す。
提案された方法により、訓練シーケンス毎にヒストグラムおよび正規分布モデルを作った。テスト・シーケンスでは、モデル内に次の数の分布を用いた。すなわち、LではK=3、LではK=3、MではK=3、MではK=3、NではK=5、NではK=5で、Kは用いた正規分布の数である。図17aおよび図17bに、各図の左から右に順に3つの図を示す。すなわち、LおよびLについてのYCb内のヒストグラム、?−a内のヒストグラム、?−a内のヒストグラムのモデルである。図17aはLについてのヒストグラムおよびモデルを示し、図17bはLについてのヒストグラムおよびモデルを示す。
提案された測定基準を用いて、6つのシーケンスの全てをあらゆる可能な組合せについて互いに比較した。測定基準関数の望ましい出力は、同じ人物を含む2つのシーケンスを比べたときは類似性値が高く、異なる人物を含む2つのシーケンスを比べたときは類似性値が低いことである。これらの結果は、重み
Figure 0004742168

が変わると変わり、また重みの最適な組合せとして、同じ人物を含むシーケンス間の最低の類似性値と異なる人物を含むシーケンス間の最高の類似性値との差が最大になるものを選んだ。最適な重みを見つけるため、簡単なフォアループ(forloop)を例えばマットラブで用いて、
Figure 0004742168

の全ての可能な組合せを処理(loop through)した。0≦Wx∈U≦1およびΣx∈U=1という制約条件の下で0.04の増分を用いた。ただし、U={ρCW,αCW,φ,π,p1,p2}である。後で最適な重みWoptをこの明細書のテスト部分で用いた。
2次元データを扱うので、この最適化をYCb平面で1回とYCr平面で1回行う必要があった。その結果、
Figure 0004742168

が得られた。すなわち、
Figure 0004742168

ただし、
Figure 0004742168

で、CはCbまたはCrである。
場面1および2内で比較した訓練の人物L、M、Nの全ての可能な組合せについての類似性値を示す類似性マトリックスSCbおよびSCrを次のように表す。すなわち、
Figure 0004742168

ただし、CはCbまたはCrである。
Figure 0004742168

を用いると、
Figure 0004742168

Figure 0004742168

が得られる。Cb内の同じ人物間の最低の類似性値は0.9990であり、Cb内の異なる人物間の最高の類似性値は0.9792であって、その差は0.0198である。Crについての同じ値は0.9996および0.9805で、その差は0.0191である。
テスト
提案された認識方法をテストするため、訓練手続きと同じ手続きを行う。訓練集合の場合と同様に、8つのビデオ・シーケンスのテスト集合(E,E,F,F,G,G,H,H)を、同じ2つの場面(1および2)から捕らえた。4人のテストの人物(E,F,G,H)を用いてそれぞれ2つ(各場面から1つ)のシーケンスを作った。カメラの位置、視角、対象物までの距離、対象物の見た部分、に関する条件は訓練シーケンスの場合と同じであった。ビデオ・シーケンスEおよびEからの画像を図18a−bに示す。
訓練手続きの場合と同様に、ヒストグラムと、ヒストグラムの正規分布モデルとをテスト・シーケンス毎に作った。この訓練手続きの場合は、モデル内に次の数の分布を用いた。すなわち、EではK=2、EではK=2、FではK=3、FではK=3、GではK=3、GではK=3、HではK=3、HではK=3で、Kは用いた正規分布の数である。ビデオ・シーケンスEおよびEのシーケンスのヒストグラムと対応するモデルとを図19a−bに示す。各図は3つの画像から成り、左から右に、YCb内のヒストグラム、?−a内のヒストグラム、?−a内のヒストグラムのモデルを示す。
訓練からの類似性関数および重みを用いて、8つのシーケンスを全てあらゆる可能な組合せについて互いに比較した。場面1および2の中で比較したテストの人物E,F,G,H間の類似性値を2つの類似性マトリックスで以下に示す。
Figure 0004742168

ただし、CはCbまたはCrで、
Figure 0004742168

Figure 0004742168

が得られる。Cb内の同じ人物間の最低の類似性値は0.9971であり、Cb内の異なる人物間の最高の値は0.9942であって、その差は0.0029である。Crについての同じ値は0.9982および0.9986で、その差は−0.0004である。
CbおよびCb内の情報を同時に用いる簡単な方法は、SCbとSCrとを加えて類似性マトリックスS
Figure 0004742168

を得ることである。このマトリックス内の同じ人物間の最低の類似性値は0.9976であり、異なる人物間の最高の類似性値は0.9963であって、その差は0.0013である。
図面および明細書の中で、本発明の好ましい実施の形態および例を開示した。特定の用語を用いたが、それは一般的および説明的意味で用いただけであって、制限するためではない。本発明の範囲は以下のクレーム内に設定されている。
本発明について添付の図面を参照して詳細に説明する。
本発明の或る実施の形態に係るビデオ監視システムの概要を示す。 本発明の別の実施の形態に係るビデオ監視システムの概要を示す。 本発明に係る識別機器を備えるビデオ監視カメラのブロック図を示す。 本発明に係る追跡装置のブロック図を示す。 本発明に係る対象物の特性を識別する方法の流れ図を示す。 ビデオ監視システムで対象物を追跡するための本発明に係る方法の流れ図を示す。 RGB色空間とYCbCr色空間との関係を示す。 対象物を捕らえたビデオ・シーケンスの或る画像を示す。 対象物を区分した、図7aの画像を示す。 YCbCr色空間内に示す色付き対象物への変化する照明の影響を示す。 或る人物の第1の場面内のCbCr,YCb,YCr色ヒストグラムを示す。 図9aの人物の第2の場面内のCbCr,YCb,YCr色ヒストグラムを示す。 別の人物の第1の場面内のCbCr,YCb,YCr色ヒストグラムを示す。 図10aの人物の第2の場面内のCbCr,YCb,YCr色ヒストグラムを示す。 或る場面内の或る人物のαρ座標内のヒストグラムを左の画像で示し、2個の正規分布でモデル化されたヒストグラムを右の画像で示す。 或る場面内の或る人物のαρ座標内のヒストグラムを左の画像で示し、3個の正規分布でモデル化されたヒストグラムを右の画像で示す。 或る場面内の或る人物のαρ座標内のヒストグラムを左の画像で示し、4個の正規分布でモデル化されたヒストグラムを右の画像で示す。 8個の画像を含み、第1の画像は或る場面内の人物のヒストグラムを示し、他の画像は種々の相対度数(p)の長方形分布を持つヒストグラムの対応する正規分布を示す。 YC座標系と、座標?およびaを有する座標系とを示す。 YCb内のヒストグラムを図の左に示し、座標軸としてαおよび?を有する座標系内の同じヒストグラムを図の右に示す。 内部クラスタ座標系を示す。 或るビデオ・シーケンスからの区分された画像を示す。 別のビデオ・シーケンスからの区分された画像を示す。 図16aに画像で示すビデオ・シーケンスの、YCb色空間内の1つのヒストグラム(左)と、正規分布でモデル化されたヒストグラム(中央)と、?−α座標系に変換された分布モデル(右)とを示す。 図16bに画像で示すビデオ・シーケンスの、YCb色空間内の1つのヒストグラム(左)と、正規分布でモデル化されたヒストグラム(中央)と、?−α座標系に変換された分布モデル(右)とを示す。 別のビデオ・シーケンスからの区分された画像を示す。 図18aとは異なるビデオ・シーケンスからの区分された画像を示す。 図18aに画像で示すビデオ・シーケンスの、YCb色空間内の1つのヒストグラム(左)と、正規分布でモデル化されたヒストグラム(中央)と、?−α座標系に変換された分布モデル(右)とを示す。 図18bに画像で示すビデオ・シーケンスの、YCb色空間内の1つのヒストグラム(左)と、正規分布でモデル化されたヒストグラム(中央)と、?−α座標系に変換された分布モデル(右)とを示す。

Claims (39)

  1. ビデオ監視カメラが捕らえたビデオ・シーケンス内の対象物の特性を識別するビデオ監視システムの方法であって、
    前記ビデオ・シーケンス内の特定の対象物を識別するステップ(302)と、
    前記ビデオ・シーケンス内で識別された前記特定の対象物の色および強さの情報、すなわち、前記ビデオ・シーケンスの複数の画像から生じた色および強さの情報、に基づいて少なくとも2次元の色空間内に色ヒストグラムを生成するステップ(306)と、
    前記生成された色ヒストグラムに基づいて前記対象物の特性を識別するステップ(308,310,312,314)と、
    を含むビデオ監視システムの方法。
  2. 前記生成された色ヒストグラムに基づいて前記対象物の特性を識別する前記ステップは、
    前記色ヒストグラムを多数の分布でモデル化するステップ(308)と、
    前記生成されモデル化された色ヒストグラムに基づいて前記対象物の特性を識別するステップ(310,312,314)と、
    を含む請求項1記載のビデオ監視システムの方法。
  3. 前記生成されモデル化された色ヒストグラムに基づいて前記対象物の特性を識別する前記ステップは更に、
    前記対象物の特性を識別するために多数の分布のパラメータを計算するステップ(312)と、
    前記計算されたパラメータに基づいて前記対象物の特性を計算するステップ(314)と、
    を含む請求項2記載のビデオ監視システムの方法。
  4. 前記色ヒストグラムは、分布当てはめアルゴリズムを用いて多数の分布でモデル化する、請求項記載のビデオ監視システムの方法。
  5. 前記色ヒストグラムをデカルト座標系から極座標系に変換するステップ(310)、
    を更に含む請求項3、4のいずれか一項記載のビデオ監視システムの方法。
  6. 前記計算されたパラメータに基づいて前記対象物の特性を計算する前記ステップ(314)は、
    前記多数の分布のパラメータに、各パラメータと前記対象物の特性との相関に依存して重みを付けることにより前記対象物の特性を計算する、
    ことを含む請求項3−5のいずれか一項記載のビデオ監視システムの方法。
  7. 前記分布のパラメータを計算する前記ステップ(312)は更に、
    前記色ヒストグラムを極座標系から第2のデカルト座標系に変換するステップと、
    前記第2のデカルト座標系の原点を前記色ヒストグラム内の前記対象物の重心にするステップと、
    を含む請求項5または6記載のビデオ監視システムの方法。
  8. パラメータを計算する前記ステップ(312)は前記第2のデカルト座標系内の前記多数の分布の位置を計算するステップを更に含み、前記第2のデカルト座標系内の前記多数の分布の前記位置は前記対象物の特性を識別するためのパラメータとして用いられる、請求項7記載のビデオ監視システムの方法。
  9. 前記色ヒストグラム内で対象物の各色部分を前記色ヒストグラム内に或る広がりを有する斑点により表し、また前記対象物をかかる斑点のクラスタとして記述する、請求項1−8のいずれか一項記載のビデオ監視システムの方法。
  10. 色ヒストグラム内で対象物の各色部分を前記色ヒストグラム内に或る広がりを有する斑点により表し、また前記対象物をかかる斑点のクラスタとして記述し、また前記対象物の特性を識別するのに用いる前記多数の分布のパラメータは、前記斑点のクラスタの重心(ρcw,αcw)、前記斑点のクラスタの基準角(φ)、各分布の相対度数(π)、前記座標系内の分布の位置(ρ1およびρ2)であり、k=1,...,Kは分布番号、Kはモデル内の分布の総数である、請求項3−9のいずれか一項記載のビデオ監視システムの方法。
  11. 複数の画像からそれぞれ生じた色および強さの情報を各画像内で対象物を記述する前記画素の数に関して正規化するステップ(304)、
    を更に含む請求項1−10のいずれか一項記載のビデオ監視システムの方法。
  12. 前記色空間は、強さの情報と色の情報とを分離できる、YCbCr、HSV、またはYUV色空間などの色空間である、請求項1−11のいずれか一項記載のビデオ監視システムの方法。
  13. 前記色ヒストグラムが2次元の色平面内に生成される、請求項1−12のいずれか一項記載のビデオ監視システムの方法。
  14. 前記色ヒストグラムは前記ビデオ・シーケンスの全ての画像内の色および強さの情報に基づいて生成される、請求項1−13のいずれか一項記載のビデオ監視システムの方法。
  15. 前記対象物の特性を前記色ヒストグラムに基づいて識別する前記ステップは、
    前記ビデオ・シーケンス内の前記対象物を記述するパラメータを前記色ヒストグラムに基づいて識別するステップ(308,310,312)と、
    前記対象物の特性を前記識別されたパラメータに基づいて計算するステップ(314)と、
    を含む請求項1−14いずれか一項記載のビデオ監視システムの方法。
  16. 前記ビデオ・シーケンス内の前記対象物を記述するパラメータを識別する前記ステップ(308,310,312)は、
    前記色ヒストグラムの重心および色ヒストグラム分布を識別するステップと、
    前記対象物の特性を識別するためのパラメータを前記識別された重心および前記識別された色ヒストグラム分布に基づいて計算するステップと、
    を含む請求項15記載のビデオ監視システムの方法。
  17. 前記重心は期待値として、および広がりは共分散マトリックスとして識別する、請求項16記載のビデオ監視システムの方法。
  18. ビデオ監視システムで対象物を追跡する方法であって、
    第1のビデオ監視カメラが捕らえた第1のビデオ・シーケンス内の追跡すべき対象物を識別するステップ(402)と、
    前記追跡すべき対象物の特性を請求項1−17のいずれか一項記載の方法に従って識別するステップ(404)と、
    第2のビデオ監視カメラが捕らえた第2のビデオ・シーケンス内の候補の対象物を識別するステップ(406)と、
    前記候補の対象物の特性を請求項1−17のいずれか一項記載の方法に従って識別するステップ(408)と、
    前記候補の対象物の識別された特性と前記追跡すべき対象物の識別された特性とを照合するステップ(410)と、
    前記候補の対象物が前記追跡すべき対象物と同一である確度を前記照合するステップに基づいて計算するステップ(412)と、
    を含む対象物を追跡する方法。
  19. 前記照合するステップ(410)は、
    前記追跡すべき対象物の生成された斑点のクラスタと前記候補の対象物の生成された斑点のクラスタとの間の移動を検出するステップと、
    前記追跡すべき対象物の生成された斑点のクラスタと前記候補の対象物の生成された斑点のクラスタとの間の回転を検出するステップと、
    前記追跡すべき対象物の生成された色ヒストグラム内の斑点と前記候補の対象物の生成された色ヒストグラム内の斑点との間の内部移動を検出するステップと、
    前記検出された移動、回転、内部移動を比較するステップと、
    を更に含む請求項18記載の対象物を追跡する方法。
  20. 前記検出された移動、回転、内部移動を比較する前記ステップは、
    前記移動、回転、内部移動を示すパラメータを比較することにより前記検出された移動、回転、内部移動を比較するステップと、
    前記候補の対象物が前記追跡すべき対象物と同一である確度を計算するために重要度に従って前記比較されたパラメータに重みを付けるステップと、
    を更に含む請求項19記載の対象物を追跡する方法。
  21. 前記方法は、
    前記候補の対象物が前記追跡すべき対象物と同一である確度を示す信号を生成するステップ(414)、
    を更に含む請求項18−20のいずれか一項記載の対象物を追跡する方法。
  22. 前記候補の対象物の識別された特性と前記追跡すべき対象物の識別された特性とを照合する前記ステップ(410)は、
    前記追跡すべき対象物の前記色ヒストグラム内の前記多数の斑点と前記候補の対象物の前記色ヒストグラム内の前記多数の斑点とを比較するステップ、
    を更に含む請求項18−21のいずれか一項記載の対象物を追跡する方法。
  23. 前記候補の対象物の識別された特性と前記追跡すべき対象物の識別された特性とを照合する前記ステップ(410)は、
    前記候補の対象物を記述する前記色ヒストグラムのパラメータと前記追跡すべき対象物を記述する前記色ヒストグラムのパラメータとを照合する、
    ことを含む請求項18−22のいずれか一項記載の対象物を追跡する方法。
  24. ビデオ監視システム内の識別機器(100)であって、
    ビデオ・シーケンス内の特定の対象物を識別する対象物識別ユニット(102)と、
    前記ビデオ・シーケンス内で識別された特定の対象物の色および強さの情報、すなわち前記ビデオ・シーケンスの複数の画像から生じた色および強さの情報、に基づいて少なくとも2次元の色空間内に色ヒストグラムを生成する色ヒストグラム発生器(104)と、
    前記生成された色ヒストグラムに基づいて前記対象物の特性を識別する対象物特性識別器(106)と、
    を含む識別機器。
  25. 前記対象物特性識別器(106)は、
    正規分布などの多数の分布で色ヒストグラムをモデル化するヒストグラム・モデル化器(108)、
    を更に備える請求項24記載の識別機器。
  26. 前記対象物特性識別器(106)は、
    前記対象物の特性を識別するための前記多数の分布のパラメータを計算するパラメータ計算器(112)と、
    前記計算されたパラメータに基づいて前記対象物の特性を計算する対象物特性計算器(114)と、
    を更に備える請求項25記載の識別機器。
  27. 前記対象物特性識別器(106)は、
    前記色ヒストグラムをデカルト座標系から極座標系に変換するヒストグラム変換器(110)、
    を更に備える請求項24−26のいずれか一項記載の識別機器。
  28. 前記対象物特性計算器(114)は、前記対象物の認識のときの各パラメータの重要性に従って前記多数の分布のパラメータに重みを付けることにより前記対象物の特性を計算する、請求項26または27記載の識別機器。
  29. 前記ヒストグラム変換器(110)は更に、前記色ヒストグラムを前記極座標系から第2のデカルト座標系に変換し、また前記座標の原点を前記色ヒストグラム内の前記対象物の重心に移す、請求項27または28記載の識別機器。
  30. 請求項2429のいずれか一項記載の識別機器を備えるビデオ監視カメラ。
  31. ビデオ監視システムであって、
    共通の通信ネットワーク(20)に接続する多数のビデオ監視カメラ(10,12,14)と、
    請求項2429のいずれか一項に係る前記共通の通信ネットワークに接続する少なくとも1台の識別機器(100)と、
    前記共通の通信ネットワーク(20)に接続する、ビデオ監視システム内の対象物を追跡する追跡装置(200)と、
    を備え、前記追跡装置は、
    第1のビデオ監視カメラ(10)が捕らえた第1のビデオ・シーケンス内で識別された追跡すべき対象物の識別された特性に関する情報と第2のビデオ監視カメラ(12)が捕らえた第2のビデオ・シーケンス内で識別された候補の対象物の識別された特性に関する情報とを前記少なくとも1台の識別機器(100)から受ける受信器(202)と、
    前記候補の対象物の識別された特性と前記追跡すべき対象物の識別された特性とを照合する照合ユニット(204)と、
    前記照合するステップに基づいて前記候補の対象物が前記追跡すべき対象物と同一である確度を計算する計算ユニット(206)と、
    を備える、
    ビデオ監視システム。
  32. 前記第1のビデオ監視カメラ(10)と前記第2のビデオ監視カメラ(20)とは同じビデオ監視カメラである、請求項31記載のビデオ監視システム。
  33. 前記第1のビデオ監視カメラ(10)と前記第2のビデオ監視カメラ(20)とは前記ビデオ監視システム内の異なるビデオ監視カメラである、請求項31記載のビデオ監視システム。
  34. 前記追跡装置(200)は、
    前記候補の対象物が前記追跡すべき対象物と同一である確度を示す信号を生成する信号発生器(208)、
    を更に備える請求項3133のいずれか一項記載のビデオ監視システム。
  35. 少なくとも1台の識別機器(100)から受ける前記候補の対象物の前記識別された特性に関する情報は前記候補の対象物の前記色ヒストグラムのパラメータを含み、少なくとも1台の識別機器(100)から受ける前記追跡すべき対象物の前記識別された特性に関する情報は前記追跡すべき対象物の前記色ヒストグラムのパラメータを含み、また前記照合ユニット(204)は前記候補の対象物の前記色ヒストグラムのパラメータと前記追跡すべき対象物の前記色ヒストグラムのパラメータとを照合する、請求項3134のいずれか一項記載のビデオ監視システム。
  36. 前記追跡装置(200)は、前記共通の通信ネットワーク(20)を介して前記多数のビデオ監視カメラ(10)に接続する前記システムの中央ノード(30)に適している、請求項3135のいずれか一項記載のビデオ監視システム。
  37. 請求項1−17のいずれか一項記載の方法を実行するための手段を有するビデオ監視システム内の識別機器。
  38. ビデオ監視システムであって、
    共通の通信ネットワーク(20)に接続する多数のビデオ監視カメラ(10)と、
    請求項37に係る少なくとも1台の識別機器と、
    ビデオ監視システム内にあってビデオ監視システム内の対象物を追跡する追跡装置(200)と、
    を備え、
    前記追跡装置は、
    第1のビデオ監視カメラ(10)が捕らえた第1のビデオ・シーケンス内で識別された追跡すべき対象物の識別された特性に関する情報と第2のビデオ監視カメラ(12)が捕らえた第2のビデオ・シーケンス内で識別された候補の対象物の識別された特性に関する情報とを前記少なくとも1台の識別機器から受ける手段と、
    前記候補の対象物の識別された特性と前記追跡すべき対象物の識別された特性とを照合する手段と、
    前記照合するステップに基づいて前記候補の対象物が前記追跡すべき対象物と同一である確度を計算する手段と、
    を備える、
    ビデオ監視システム。
  39. 請求項1−23のいずれか一項記載のステップをコンピュータに実行させるコンピュータ読取り可能プログラム手段を含む、コンピュータ使用可能媒体上に記憶されるコンピュータ・プログラム製品。
JP2009511978A 2006-05-22 2007-05-21 ビデオ監視カメラが検出した対象物の特性を識別する方法および機器 Active JP4742168B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US80272106P 2006-05-22 2006-05-22
US60/802,721 2006-05-22
PCT/SE2007/000496 WO2007136332A1 (en) 2006-05-22 2007-05-21 Method and apparatus for identifying properties of an object detected by a video surveillance camera

Publications (2)

Publication Number Publication Date
JP2009538558A JP2009538558A (ja) 2009-11-05
JP4742168B2 true JP4742168B2 (ja) 2011-08-10

Family

ID=38474137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009511978A Active JP4742168B2 (ja) 2006-05-22 2007-05-21 ビデオ監視カメラが検出した対象物の特性を識別する方法および機器

Country Status (6)

Country Link
US (2) US8478040B2 (ja)
EP (1) EP1862941B1 (ja)
JP (1) JP4742168B2 (ja)
KR (1) KR101180160B1 (ja)
CN (1) CN101563710B (ja)
WO (1) WO2007136332A1 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185352A (ja) * 2007-01-26 2008-08-14 Nec Corp 色識別装置および色識別方法
JP2008185526A (ja) * 2007-01-31 2008-08-14 Nec Corp 色識別装置および色識別方法
US8270711B2 (en) * 2007-08-10 2012-09-18 Asian Institute Of Technology Method and apparatus for recognition of an object by a machine
AU2008200966B2 (en) * 2008-02-28 2012-03-15 Canon Kabushiki Kaisha Stationary object detection using multi-mode background modelling
GB2491987B (en) * 2008-03-03 2013-03-27 Videoiq Inc Method of searching data for objects identified by object detection
GB2472932B (en) * 2008-06-13 2012-10-03 Lockheed Corp Method and system for crowd segmentation
US8726355B2 (en) * 2008-06-24 2014-05-13 Gary Stephen Shuster Identity verification via selection of sensible output from recorded digital data
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
KR101038726B1 (ko) * 2009-03-18 2011-06-03 (주)에스엔알 높은 신뢰도를 갖는 무인 감시 방법, 무인 감시 장치 및 무인 감시 시스템
CN102117484B (zh) * 2009-12-31 2013-04-10 新谊整合科技股份有限公司 使用图像色彩信息的处理***、处理方法与图像分类方法
US8665329B2 (en) * 2010-06-11 2014-03-04 Gianni Arcaini Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
JP5521836B2 (ja) * 2010-07-05 2014-06-18 ソニー株式会社 撮像装置及び画像処理装置
EP2410467A1 (en) * 2010-07-23 2012-01-25 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO System and method for identifying image locations showing the same person in different images
EP2413265B1 (en) * 2010-07-29 2017-10-18 Tata Consultancy Services Ltd. A system and method for classification of moving object during video surveillance
WO2012046025A1 (en) * 2010-10-07 2012-04-12 Bae Systems Plc Image processing
AU2011311387B2 (en) * 2010-10-07 2014-12-11 Bae Systems Plc Image processing
US8193909B1 (en) 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
WO2012067603A1 (en) * 2010-11-15 2012-05-24 Intergraph Technologies Company System and method for camera control in a surveillance system
AU2010257454B2 (en) * 2010-12-24 2014-03-06 Canon Kabushiki Kaisha Summary view of video objects sharing common attributes
US9615064B2 (en) 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
US9171075B2 (en) 2010-12-30 2015-10-27 Pelco, Inc. Searching recorded video
CN102103409A (zh) * 2011-01-20 2011-06-22 桂林理工大学 基于运动轨迹识别的人机交互方法及装置
JP2012217137A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像処理装置、画像処理方法、画像処理プログラム
JP5699802B2 (ja) * 2011-05-26 2015-04-15 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控***操作方法
EP2549759B1 (en) * 2011-07-19 2016-01-13 Axis AB Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
TWI439967B (zh) * 2011-10-31 2014-06-01 Hon Hai Prec Ind Co Ltd 安全監控系統及安全監控方法
CN102663780B (zh) * 2012-03-16 2015-04-15 安科智慧城市技术(中国)有限公司 遗留物属性的判断方法及***
JP2013210845A (ja) * 2012-03-30 2013-10-10 Secom Co Ltd 移動物体照合装置
CN102706274B (zh) * 2012-04-25 2014-08-06 复旦大学 工业结构化场景中机器视觉精确定位机械零件的***
CN103426159B (zh) * 2012-05-23 2016-03-02 华为技术有限公司 多维直方图统计电路和图像处理***
CN102843547B (zh) * 2012-08-01 2014-01-08 安科智慧城市技术(中国)有限公司 一种嫌疑目标智能追踪方法和***
US9633263B2 (en) * 2012-10-09 2017-04-25 International Business Machines Corporation Appearance modeling for object re-identification using weighted brightness transfer functions
WO2014106777A1 (en) 2013-01-03 2014-07-10 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A system and method for contrast enhancement
US9063991B2 (en) * 2013-01-25 2015-06-23 Wipro Limited Methods for identifying unique entities across data sources and devices thereof
US9100207B2 (en) * 2013-02-13 2015-08-04 Green Edge Technologies, Inc. Systems, devices, and methods for mapping devices to realize building automation and energy management
US20140267595A1 (en) * 2013-03-15 2014-09-18 Mark J. Cuddeback Rotating surveillance camera
US20160098609A1 (en) * 2013-05-07 2016-04-07 Koninklijke Philips N.V. A video analysis device and a method of operating a video analysis device
IL226751A (en) * 2013-06-04 2014-06-30 Elbit Systems Ltd A method and system for coordinating imaging sensors
JP6389888B2 (ja) * 2013-08-04 2018-09-12 アイズマッチ エルティーディー.EyesMatch Ltd. 鏡における仮想化の装置、システム、及び方法
EP3066022A1 (en) * 2013-11-06 2016-09-14 The Procter & Gamble Company Easy to empty flexible containers
KR101541384B1 (ko) 2013-12-24 2015-08-03 전남대학교산학협력단 영상 인식 장치 및 방법
KR102116092B1 (ko) * 2014-01-21 2020-05-27 한화테크윈 주식회사 윤형 철조망 검출 방법
US20150379770A1 (en) * 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
CN104268568B (zh) * 2014-09-17 2018-03-23 电子科技大学 基于独立子空间网络的行为识别方法
CN104331500A (zh) * 2014-11-19 2015-02-04 中安消技术有限公司 一种监控录像分析方法及装置
US9678999B1 (en) * 2014-12-31 2017-06-13 Teradata Us, Inc. Histogram generation on multiple dimensions
CN104657490A (zh) * 2015-03-05 2015-05-27 四川智羽软件有限公司 一种信息检索方法
CN104636497A (zh) * 2015-03-05 2015-05-20 四川智羽软件有限公司 一种视频数据智能检索方法
JP6524497B2 (ja) * 2015-03-31 2019-06-05 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
JP6789676B2 (ja) * 2015-06-11 2020-11-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9449258B1 (en) 2015-07-02 2016-09-20 Agt International Gmbh Multi-camera vehicle identification system
US9767564B2 (en) 2015-08-14 2017-09-19 International Business Machines Corporation Monitoring of object impressions and viewing patterns
US9710911B2 (en) * 2015-11-30 2017-07-18 Raytheon Company System and method for generating a background reference image from a series of images to facilitate moving object identification
CN105718909A (zh) * 2016-01-22 2016-06-29 孟玲 一种可增强对比度的地质采样装置
US10026003B2 (en) 2016-03-08 2018-07-17 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10824878B2 (en) 2016-03-08 2020-11-03 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10706516B2 (en) * 2016-09-16 2020-07-07 Flir Systems, Inc. Image processing using histograms
EP3312762B1 (en) * 2016-10-18 2023-03-01 Axis AB Method and system for tracking an object in a defined area
EP3321844B1 (en) * 2016-11-14 2021-04-14 Axis AB Action recognition in a video sequence
JP7085812B2 (ja) * 2017-08-02 2022-06-17 キヤノン株式会社 画像処理装置およびその制御方法
US10579880B2 (en) * 2017-08-31 2020-03-03 Konica Minolta Laboratory U.S.A., Inc. Real-time object re-identification in a multi-camera system using edge computing
GB2577689B (en) 2018-10-01 2023-03-22 Digital Barriers Services Ltd Video surveillance and object recognition
CN109973848B (zh) * 2018-11-01 2021-05-18 南通益纳森智能科技有限公司 灯管颜色即时调整机构
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
JP7285536B2 (ja) * 2018-12-28 2023-06-02 国立大学法人佐賀大学 分類器生成装置、対象者推定装置及びそれらのプログラム、並びに対象者推定システム
CN109614956A (zh) * 2018-12-29 2019-04-12 上海依图网络科技有限公司 一种视频中对象的识别方法及装置
US11017240B2 (en) * 2019-02-20 2021-05-25 Vigilands Inc System and method for image analysis based security system
US11501619B2 (en) 2019-11-22 2022-11-15 Deere & Company Worksite classification system and method
KR102473804B1 (ko) * 2020-10-16 2022-12-05 이노뎁 주식회사 영상관제 시스템에서 카메라 영상내 관제 지점의 지도 매핑 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346287A (ja) * 2004-06-01 2005-12-15 Denso Corp 画像認識方法および装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3544215B2 (ja) * 1993-07-13 2004-07-21 ソニー株式会社 ビデオカメラシステム
JPH11150676A (ja) * 1997-11-17 1999-06-02 Canon Inc 画像処理装置及び追尾装置
US6389168B2 (en) 1998-10-13 2002-05-14 Hewlett Packard Co Object-based parsing and indexing of compressed video streams
US6980679B2 (en) 1998-10-23 2005-12-27 Varian Medical System Technologies, Inc. Method and system for monitoring breathing activity of a subject
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6532301B1 (en) 1999-06-18 2003-03-11 Microsoft Corporation Object recognition with occurrence histograms
US6611622B1 (en) 1999-11-23 2003-08-26 Microsoft Corporation Object recognition system and process for identifying people and objects in an image of a scene
JP4063486B2 (ja) 2000-09-06 2008-03-19 日本電気株式会社 画像検索装置及び方法並びに画像検索プログラムを記録した記憶媒体
US6829391B2 (en) * 2000-09-08 2004-12-07 Siemens Corporate Research, Inc. Adaptive resolution system and method for providing efficient low bit rate transmission of image data for distributed applications
US7742073B1 (en) 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
US6760465B2 (en) 2001-03-30 2004-07-06 Intel Corporation Mechanism for tracking colored objects in a video sequence
US20090231436A1 (en) * 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
US6523301B2 (en) * 2001-07-10 2003-02-25 Vicke T. Delaney Floral arranging device
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
DE60330898D1 (de) 2002-11-12 2010-02-25 Intellivid Corp Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen
US7113185B2 (en) * 2002-11-14 2006-09-26 Microsoft Corporation System and method for automatically learning flexible sprites in video layers
US7263220B2 (en) 2003-02-28 2007-08-28 Eastman Kodak Company Method for detecting color objects in digital images
US7450735B1 (en) 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
US7929017B2 (en) * 2004-07-28 2011-04-19 Sri International Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
WO2006073647A2 (en) 2004-12-03 2006-07-13 Sarnoff Corporation Method and apparatus for unsupervised learning of discriminative edge measures for vehicle matching between non-overlapping cameras
US7817822B2 (en) * 2005-10-14 2010-10-19 Microsoft Corporation Bi-directional tracking using trajectory segment analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346287A (ja) * 2004-06-01 2005-12-15 Denso Corp 画像認識方法および装置

Also Published As

Publication number Publication date
US20120133773A1 (en) 2012-05-31
EP1862941B1 (en) 2016-10-26
US8478040B2 (en) 2013-07-02
CN101563710B (zh) 2013-12-04
EP1862941A3 (en) 2013-04-24
KR20090009899A (ko) 2009-01-23
JP2009538558A (ja) 2009-11-05
US20080031493A1 (en) 2008-02-07
EP1862941A2 (en) 2007-12-05
US8472714B2 (en) 2013-06-25
CN101563710A (zh) 2009-10-21
WO2007136332A1 (en) 2007-11-29
KR101180160B1 (ko) 2012-09-10

Similar Documents

Publication Publication Date Title
JP4742168B2 (ja) ビデオ監視カメラが検出した対象物の特性を識別する方法および機器
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
Rosenberg et al. Color constancy using kl-divergence
KR101953626B1 (ko) 다중 히스토그램을 이용한 객체 추적 방법 및 이를 이용한 객체 추적 시스템
EP2537140A2 (en) Method and system for detection and tracking employing multi view multi spectral imaging
US20130021496A1 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras
CN109271932A (zh) 基于颜色匹配的行人再识别方法
CN110197185B (zh) 一种基于尺度不变特征变换算法监测桥下空间的方法和***
CN110503017A (zh) 基于图像处理的智慧节能室内人数检测***与方法
Brenner et al. RGB-D and thermal sensor fusion: a systematic literature review
Galiyawala et al. Visual appearance based person retrieval in unconstrained environment videos
JP7092616B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
CN116561700A (zh) 基于毫米波雷达的室内人体姿态识别方法
Yeu et al. Investigation on different color spaces on faster RCNN for night-time human occupancy modelling
Iodice et al. Person re-identification based on enriched symmetry salient features and graph matching
CN114359328B (zh) 一种利用单深度相机和人体约束的运动参数测量方法
JP6687658B2 (ja) 領域区分装置
Sofiah et al. Performance Benchmark in Febrile Mass Screening Detection
Weiss et al. An embedded ground change detector for a “smart walker”
CN117636226A (zh) 一种基于人机交互的实境化对抗训练***
CN117994286A (zh) 一种对携带放射源的可疑行人进行定位与追踪的方法
Madden Tracking people across disjoint camera views
Mohammadi et al. INTRODUCING NEW PARAMETERS TO COMPARE THE ACCURACY AND RELIABILITY OF MEAN-SHIFT BASED TRACKING ALGORITHMS

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

R150 Certificate of patent or registration of utility model

Ref document number: 4742168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250