JP6439757B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6439757B2
JP6439757B2 JP2016136130A JP2016136130A JP6439757B2 JP 6439757 B2 JP6439757 B2 JP 6439757B2 JP 2016136130 A JP2016136130 A JP 2016136130A JP 2016136130 A JP2016136130 A JP 2016136130A JP 6439757 B2 JP6439757 B2 JP 6439757B2
Authority
JP
Japan
Prior art keywords
tracking
map
occlusion
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016136130A
Other languages
English (en)
Other versions
JP2018005839A (ja
Inventor
相澤 知禎
知禎 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2016136130A priority Critical patent/JP6439757B2/ja
Priority to PCT/JP2017/007312 priority patent/WO2018008184A1/ja
Priority to EP17823793.9A priority patent/EP3483834B1/en
Priority to US15/756,084 priority patent/US10497133B2/en
Priority to CN201780002921.3A priority patent/CN107924568B/zh
Priority to KR1020187005263A priority patent/KR102011231B1/ko
Publication of JP2018005839A publication Critical patent/JP2018005839A/ja
Application granted granted Critical
Publication of JP6439757B2 publication Critical patent/JP6439757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、連続したフレームに含まれる物体を追跡する技術に関する。
監視システムなどにおいて、画像に含まれる物体を検知し、その動きを自動的に追跡する技術が知られている。物体の追跡は、例えば、追跡対象の物体が映っていない画像と映っている画像との差分を取得してテンプレートを生成し、当該テンプレートを用いて1フレームずつ画像内を探索することで実現することができる(特許文献1)。
物体の追跡を応用したシステムに、交通流計測システムがある。例えば路側に設置されたカメラを用いて道路上を撮影し、通過する車両を追跡することで、対象の地点を通過した車両の台数をカウントすることができる(特許文献2)。
特開2001−060269号公報 特開2009−087316号公報
道路を撮影した画像(動画)に基づいて、当該道路上を通過する車両を追跡しようとした場合、遮蔽が問題となる場合がある。例えば、車両同士の車間距離が短くなると、画像上で当該車両同士が重なりあうことがある。また、車線変更などに伴い、隣り合った車線間で車両同士が重なりあうことがある。このように、追跡対象の車両の一部が他の物体(車両等)に遮蔽されると、テンプレートマッチングの精度が著しく低下するという問題がある。
特許文献1に記載の発明では、異なる時刻において取得した複数のテンプレートを用いてマッチングを行い、一致度が最も高いテンプレートを採用することで、追跡精度の低下を防いでいる。しかし、道路上の車両を追跡する場合、追跡対象の車両が前後の車両によって大きく遮蔽される場合があり、このような場合、当該手法では精度を確保することができない。
また、特許文献2に記載の発明では、道路上にいる車両を個別に追跡したうえで、追跡が正しく行えている可能性を検証し、当該可能性に基づいて最終的な結果を確定させるという手法をとっている。しかし、対象の車両が大きく遮蔽された場合や、複数の車両が複雑な挙動をとった場合、同様に精度を確保することができない。
本発明は上記の課題を考慮してなされたものであり、物体を追跡する画像処理装置において、追跡対象物の一部が遮蔽された場合における追跡精度を向上させることを目的とする。
上記課題を解決するための、本発明に係る画像処理装置は、
連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置であって、画像を取得する画像取得手段と、前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得手段と、前記画像に含まれる追跡対象物の、他の物体によ
る遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成手段と、前記テンプレートを用いて前記画像に含まれる追跡対象物を検出するとともに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡手段と、を有することを特徴とする。
本発明に係る画像処理装置は、複数のフレーム間における追跡対象物の移動を追跡する装置である。なお、移動とは、画像上における移動であり、追跡対象物そのものの移動と、撮影条件(カメラのパン、チルト、ズーム等)の変化の双方に起因して発生しうる。
テンプレート取得手段は、追跡対象物に対応するテンプレートを取得する手段である。テンプレートは、追跡対象物の特徴量であってもよいし、追跡対象物の画像そのものであってもよい。例えば、車両を追跡する場合、車種(例えば、乗用車、貨物車、バス、オートバイ等)ごとの特徴量を用いてもよいし、既に追跡を行った結果がある場合、追跡結果に基づいて切り出した画像を用いてもよい。
遮蔽マップ生成手段は、他の物体によって追跡対象物が遮蔽されている度合いを表したマップ(遮蔽マップ)を生成する手段である。遮蔽マップは、例えば、追跡対象物に対応する領域を複数のブロックに分割したマップであってもよい。また、遮蔽の度合いは何段階で表してもよい。
また、追跡手段は、取得した画像に含まれる追跡対象物を、連続して取得した複数のフレーム間で追跡する手段である。本発明では、追跡手段は、追跡対象物に対応するテンプレートだけでなく、遮蔽マップをさらに用いてフレーム間における追跡対象物の移動を追跡する。追跡対象物の一部が遮蔽されている場合、マッチングによる追跡精度が遮蔽割合に応じて低下するが、遮蔽マップを利用することで、他の物体による遮蔽を考慮してマッチングを行うことができるようになり、追跡の精度が向上する。
また、前記遮蔽マップは、前記テンプレートを複数のブロックに分割し、各ブロックに遮蔽度合いを関連付けたマップであり、前記追跡手段は、前記テンプレートを前記ブロック単位で用いてマッチングを行い、さらに、各ブロックに対応する遮蔽度合いを用いて重み付けを行った結果に基づいて、前記追跡対象物の移動量および移動方向を取得することを特徴としてもよい。
ブロックごとの遮蔽度合いに基づいて、マッチング結果に対して重み付けを行うことで、遮蔽されているブロックの影響を弱めつつ、精度よく追跡対象物の移動先を取得することができる。
また、前記遮蔽マップ生成手段は、前記追跡対象物を画像間で追跡して得られた単一のベクトルと、前記複数のブロックをそれぞれ画像間で追跡して得られた複数のベクトルのそれぞれと、を比較した結果に基づいて前記遮蔽マップを生成することを特徴としてもよい。
追跡対象物の遮蔽状況は、「追跡対象物全体に対応する単一のベクトル」と、「追跡対象物を構成する複数のブロックにそれぞれ対応する複数のベクトル」とを比較することで生成することができる。あるブロックにおいて遮蔽が発生している場合、当該ブロックについては、フレーム間における追跡の精度が低下する(あるいは追跡自体が失敗する)。よって、双方のベクトルのずれに基づいて、当該ブロックにおける遮蔽の度合いを算出することができる。
また、前記遮蔽マップ生成手段は、前記単一のベクトルと前記複数のベクトルのそれぞれを比較した結果の間の差が大きいほど、対応するブロックの遮蔽度合いを大きく設定し
、前記追跡手段は、ブロックに対応する遮蔽度合いが大きいほど、当該ブロックの重みを小さく設定することを特徴としてもよい。
また、前記遮蔽マップ生成手段は、前記追跡手段が追跡結果を生成するごとに前記遮蔽マップを更新し、前記追跡手段は、次フレームにおける前記追跡対象物の検出処理において、前記更新された遮蔽マップを利用することを特徴としてもよい。
追跡対象物の遮蔽状況はフレームごとに変化する。よって、前フレームにおける追跡対象物の遮蔽状況を、次フレームにおける追跡に利用してもよい。このようにすることで、遮蔽状況が刻々と変化するようなケースにも対応することができる。
また、前記遮蔽マップに設定される遮蔽度合いは、対応するブロック内における、前記追跡対象物の移動方向に対して垂直なエッジが強くなるほど小さくなることを特徴としてもよい。
追跡対象物が一定の方向に移動するものであって、当該移動方向に対して垂直なエッジが強く観察される場合、当該追跡対象物が遮蔽されていないことが推定できる。よって、エッジの強さによって遮蔽マップを補正するようにしてもよい。
また、前記テンプレート取得手段は、前記追跡手段が検出した前記追跡対象物をクリッピングして得られた画像を、次フレームにおけるテンプレートとしてもよい。
追跡対象物を検出した結果がある場合、当該結果に基づいて、テンプレートとなる画像を取得し、次フレームにおいて利用してもよい。かかる構成によると、時間の経過とともに追跡対象物の大きさや向きが徐々に変化する場合ってあっても、正確に追跡を行うことができる。
なお、本発明は、上記手段の少なくとも一部を含む画像処理装置として特定することができる。また、本発明は、上記画像処理装置が実行する画像処理方法として特定することもできる。また、本発明は、コンピュータに上記画像処理方法を実行させるプログラムとして特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、物体を追跡する画像処理装置において、追跡対象物の一部が遮蔽された場合における追跡精度を向上させることができる。
第一の実施形態に係る画像処理システムの配置図である。 第一の実施形態に係る画像処理システムの構成図である。 画像取得部が取得した画像の例である。 後続車両による先行車両の遮蔽と、遮蔽マップを説明する図である。 第一の実施形態に係る画像処理装置が行う処理のフローチャート図である。 車両の検出処理を説明する図である。 第一の実施形態に係る画像処理装置が行う処理のフローチャート図である。 車両の追跡処理を説明する図である。 第二の実施形態におけるエッジの強さを説明する図である。
(第一の実施形態)
<システム構成>
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係る画像処理システムは、道路上を走行する車両を撮影した画像を連続して取得し、取得した複数の画像に基づいて車両の動きを追跡するシステムである。
図1は、本実施形態に係る画像処理システムの配置図である。本実施形態に係る画像処理システムは、画像処理装置100と、カメラ200からなり、画像処理装置100が、道路上に配置されたカメラ200によって連続して撮影された複数の画像を処理することで、車両の動きを追跡する。
図2は、本実施形態に係る画像処理システムのシステム構成図である。
画像処理装置100は、画像取得部101、車両検出部102、車両追跡部103、遮蔽状態取得部104、記憶部105から構成される。
画像取得部101は、道路上にマウントされたカメラ200を用いて、道路を走行する車両が含まれた画像(以下、道路画像)を取得する手段である。画像取得部101は、所定のフレームレートで、連続して道路画像を取得することができる。画像取得部101が取得した道路画像は、時系列順に記憶部105に記憶され、以降で説明する各手段が行う処理に供される。
なお、実施形態の説明では、連続して取得される道路画像のうちの一枚という意味で、フレームという語を用いるが、フレームと道路画像は等価である。また、連続したフレームにおいて、撮影範囲外から新規の車両(まだ追跡を行っていない車両)が現れることを流入、追跡中の車両が撮影範囲外に出て行くことを流出と称する。
車両検出部102は、現在追跡を行っていない新しい車両がカメラ200の撮影範囲内に流入したことを検出する手段である。新しい車両の検出は、記憶部105に予め記憶された複数の特徴量を用いて行うことができる。特徴量は、車両を検出することができれば、どのようなものであってもよい。例えば、車種や車体の形状(乗用車、貨物車、バス、二輪車等)ごとに異なる特徴量を用いてもよい。また、複数の特徴量を用いる場合、どのように分類されていてもよい。また、車両を異なる方向(前後左右など)から見た場合の特徴量をそれぞれ保持していてもよい。
車両検出部102は、追跡を行っていない新しい車両が現れたことを検出する手段であり、それ以降のフレームにおける車両の追跡は、車両追跡部103が行う。
なお、本実施形態では、カメラ200の撮影範囲の全域において車両を追跡するものとするが、車両を追跡する範囲は別途定められていてもよい。
車両追跡部103は、車両検出部102が検出した車両の動きを複数のフレーム間で追跡する手段である。追跡は、車両が撮影範囲外へ流出するまで続けられる。車両の追跡は、追跡対象の車両(以下、追跡対象車両)に対応するテンプレート画像と、後述する遮蔽状態取得部104が生成する遮蔽マップの二種類のデータを用いて行われる。テンプレート画像および遮蔽マップを生成する処理の具体的な内容については後述する。
遮蔽状態取得部104は、追跡対象車両の遮蔽状態を取得し、遮蔽マップを生成する手段である。
ここで、遮蔽状態と遮蔽マップについて説明する。図3は、カメラ200によって撮影された道路画像の例である。本実施形態に係る画像処理システムは、道路上に設置されたカメラによって撮影された車両を追跡するシステムであるため、追跡対象の車両が前後の車両によって隠れてしまうケースが多く発生する。
例えば、図3の例では、車両10Aおよび10Cが、後続車両によって遮蔽されている。
このような場合、従来用いられているテンプレートマッチングなどの手法を適用すると、正確な位置が検出できなくなるおそれがある。特に、車両10Cは、対応する領域のうち半分近くが隠れているため、マッチングにおけるスコアが低下し、追跡が中断されてしまうケースも発生しうる。
そこで、本実施形態に係る画像処理装置は、遮蔽状態取得部104が、各追跡対象車両について、どの程度他の物体(車両)に遮蔽されているかを表すマップである遮蔽マップを生成し、当該遮蔽マップに基づいて重み付けを行ったうえでテンプレートマッチングを行う。遮蔽マップの具体的な生成方法、ならびに遮蔽マップの使用法については後述する。
記憶部105は、装置が用いるデータを一時的または恒久的に記憶する手段である。記憶部105には、高速に読み書きでき、かつ、大容量な記憶媒体を用いることが好ましい。例えば、フラッシュメモリなどを好適に用いることができる。記憶部105には、車両検出部102が利用する特徴量、画像取得部101が取得した複数の画像、車両追跡部103が利用するテンプレート画像、遮蔽状態取得部104が生成した遮蔽マップなどが一時的または恒久的に記憶される。
なお、画像取得部101、車両検出部102、車両追跡部103、遮蔽状態取得部104は、専用に設計されたハードウェアによって実現されてもよいし、ソフトウェアモジュールによって実現されてもよい。ソフトウェアとして実行される場合、補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、CPUによって実行されることによって各手段が機能する。(CPU、補助記憶装置、主記憶装置はいずれも不図示)
<遮蔽マップ>
次に、遮蔽状態取得部104によって生成される遮蔽マップの詳細について説明する。図4は、追跡対象車両の遮蔽状態と、対応する遮蔽マップを示した図である。
遮蔽マップとは、追跡対象車両に対応する領域を16個のブロック(4×4)に分割し、各ブロックに対して遮蔽の程度を表す値(遮蔽度)を割り当てたマップである。なお、遮蔽度は、完全に遮蔽されている状態を1とし、全く遮蔽されていない状態を0とした実数によって表される。
図4(A)は、追跡対象車両が遮蔽されていない状態の例である。この場合、遮蔽マップには全て0という値が割り当たっている。また、図4(B)は、追跡対象車両の一部が後続車両によって遮蔽されている状態の例である。この場合、左下の6つのブロックに0以上の値が割り当たっている。
本実施形態に係る画像処理装置は、このような遮蔽マップを、追跡対象車両およびフレームごとに生成し、割り当てられた値に基づいて重み付けを行ったうえでテンプレートマッチングを実施する。すなわち、遮蔽されているブロックに対してより小さい重みを与え、遮蔽されていないブロックに対してより大きい重みを与える。このようにすることで、遮蔽の影響を排除しつつ、追跡対象車両の位置を検出することができる。
遮蔽マップの具体的な生成方法については後述する。なお、本例では、遮蔽度は0〜1の範囲をとる実数であるが、遮蔽度はこれ以外であってもよい。また、遮蔽度は必ずしも0〜1の範囲をとる必要はない。例えば、0〜255の範囲をとる整数であってもよい。
<処理フローチャート>
次に、画像処理装置100が行う画像処理の詳細について、処理フローチャートである図5を参照しながら説明する。図5に示した処理は、画像取得部101が新規のフレームを取得するごとに実行される。例えば、フレームレートが10fpsである場合、秒間10回実行される。
まず、ステップS11で、画像取得部101が、カメラ200を介して道路画像を取得し、記憶部105に一時的に記憶させる。なお、取得された道路画像は、時系列順に記憶され、処理が完了すると削除される。
次に、ステップS12で、車両追跡部13が、現在追跡している車両が存在するか否かを判定し、ある場合に、追跡対象車両を追跡する処理を実行する。現在追跡している車両が存在するか否かは、後述するカウンタを用いて判断する。なお、ここでは、追跡中の車両が無いものとして説明を行い、ステップS12の詳細については、図7を参照しながら後ほど説明する。
ステップS13では、車両検出部102が、ステップS11で取得した画像上に、現在追跡していない車両が存在するか否かを判定する。具体的には、記憶部105に予め記憶されている特徴量に基づいて、車両の検出を試みる。本ステップにおける車両の検出には、特徴量に基づく既知の物体検出手法を用いることができる。例えば、記憶された複数の特徴量を用いてマッチングを試み、初期位置と範囲を特定する。なお、検出した車両が既に追跡中の車両であった場合、当該車両はスキップする。追跡中の車両についての情報は、記憶部105を介して、車両検出部102および車両追跡部103の間で共有される。
ここでは、図6(A)に示した画像600内において新しい車両を検出したものとする。
新しい車両が検出されると、処理はステップS14へ遷移する。また、新しい車両が検出されなかった場合、当該フレームに対する処理は終了する。
車両を検出すると、ステップS14で、車両検出部102が、対応する範囲をクリッピングし、テンプレート画像601とする。ここで生成したテンプレート画像が、以降のフレームにおいて車両の追跡に利用される。テンプレート画像601は、車両の識別子(車両を検出するごとに採番される)、および、車両を検出した画像上の範囲と関連付けられ、記憶部105に記憶される。また、車両検出部102が、追跡対象車両に対応する遮蔽マップ602を生成する。ここで生成される遮蔽マップは、図6(B)のように、全てのブロックにデフォルト値(遮蔽度:0)が設定されたマップである。
次に、ステップS15で、車両検出部102が、現在追跡中である車両の数(以下、追跡中車両数)に、検出した車両の台数を追加する。ここで設定された台数は、ステップS12で実行される車両追跡処理において利用される。
次に、ステップS12で行われる処理について、図7に示したフローチャートを参照しながら説明する。なお、特に記載がない場合、各ステップは車両追跡部103が実行するものとする。
ステップS12の処理は、設定されている「追跡中車両数」が1台以上である場合に実行される。すなわち、ステップS12が実行されるタイミングでは、時系列順に二つ以上のフレームが記憶部105に記憶されている。
まず、ステップS21で、カウンタnに1を設定する。nは、画像に含まれる追跡対象車両に対して順次処理を行うためのカウンタである。
次に、ステップS22で、画像に含まれるn番目の車両について、現在のフレームにおける大まかな位置を推定する。本ステップは、画像の全領域から、テンプレートマッチングを行うための領域を絞り込むための処理である。例えば、過去の二つ以上のフレームにおいて、n番目の車両の位置の変化が求まっている場合、当該位置の変化に基づいて、現在のフレームにおける位置を推定してもよい。例えば、2フレーム前における対象車両と、1フレーム前における対象車両との位置の変化を取得し、当該変化を用いて現在のフレ
ームにおける当該対象車両の位置を推定してもよい。また、カルマンフィルタなどを用いて車両の位置を推定してもよい。
なお、推定を行うための十分な情報が無い場合、ステップS13または直前のフレームで検出した位置の近傍に当該対象車両がいるものと推定してもよいし、絞り込み自体を省略してもよい。
次に、ステップS23で、n番目の車両に対応するテンプレート画像を用いて、道路画像に対するテンプレートマッチングを行う。
なお、ここでは、テンプレート画像を4×4の16ブロックに分割し、ステップS22で推定した位置の近傍において、ブロックごとにマッチングを行う。この結果、16個のマッチング結果が得られるため、前フレームとの位置の変化に基づいて、16ブロックぶんの移動ベクトルvblock(x,y)を生成する(x,yは座標)。
図8(A)は、現在処理しているフレームの直前のフレームを表した図であり、図8(B)は、現在処理しているフレームを表した図である。また、図8(C)は、双方のフレーム間における、ブロックの移動ベクトルを表した図である。なお、ハッチングで示した二つのブロックは、遮蔽に起因して、正しく移動ベクトルが取得できていないことを表す。当該ブロックでは、移動ベクトルが0となっている。
ステップS23の処理が完了すると、直前のフレームと、現在のフレームとの間における、ブロックごとの移動ベクトルが取得された状態となる。
ステップS24では、ステップS23で取得したブロックごとの移動ベクトルと、遮蔽マップに基づいて、車両に対応する単一の移動ベクトルを取得する。
具体的には、まず、16個の移動ベクトルのうち、外れ値、すなわち、値が他のベクトルから大きくずれているベクトルを除外する。例えば、平均値や最頻値から20%以上外れているベクトルを除外する。
次に、残った移動ベクトルに対して、遮蔽マップに基づく重み付けを行う。具体的には、遮蔽度の減少関数を用いて重みを算出する。例えば関数(1−x)を用いることができる。すなわち、遮蔽度が0である場合に1という重みを、遮蔽度が1である場合に0という重みを算出して、移動ベクトルに対して乗算する。
ここで利用される遮蔽マップは、前フレームにおける追跡対象車両の遮蔽状態を表すマップである。初回の処理では、遮蔽マップはデフォルト(すなわち、遮蔽度が全て0)であるため、移動ベクトルは変化しない。
最後に、複数の移動ベクトルの平均を取り、追跡対象車両に対応する単一の移動ベクトルvとする。
なお、前述した単一の移動ベクトルの取得方法は、上記に例示した方法に限定されない。例えば、最も重みが大きいブロックに対応する移動ベクトルを、車両に対応する単一の移動ベクトルとしてもよいし、所定の閾値よりも重みが大きいブロックについて移動ベクトルの平均を取ったものを、車両に対応する単一の移動ベクトルとしてもよい。
ステップS25では、追跡対象車両が、撮影範囲から出たか否かを判定する。なお、画像上に追跡範囲が設定されている場合、当該範囲から流出した場合に肯定判定としてもよい。また、追跡に失敗した場合や、所定のフレーム数だけ連続して追跡に失敗した場合に肯定判定としてもよい。追跡対象車両が撮影範囲から出たと判定した場合、n番目の車両について追跡終了フラグを真にし、ステップS29へ遷移する。
追跡対象車両が撮影範囲を出ていない場合、当該車両が移動した先の領域をクリッピングし、新たなテンプレート画像として設定する(ステップS27)。図8の例の場合、領域801に対応する画像が、テンプレート画像として再設定される。クリッピングする際
に領域の大きさは前フレームと同じでもよいし、適宜調整してもよい。調整する場合は所定の係数に基づいて拡大または縮小する方法や、検出されたブロック間の距離の変化に基づいて拡大または縮小する方法がある。
次に、ステップS28で、遮蔽状態取得部104が、遮蔽マップを更新する。
具体的には、車両に対応する移動ベクトルvと、16個の移動ベクトルvblock(x,y)との差分(ΔP(x,y)とおく)をそれぞれ取得し、ΔP(x,y)の大きさに定数kを乗じた値(k|ΔP(x,y)|)を、遮蔽マップに設定されている現在の値にそれぞれ加算する。すな
わち、遮蔽マップの各ブロックが有する遮蔽度は、初回の処理では、0+k|ΔP(x,y)
|となる。
図8の例の場合、左下の二ブロックが後続車両によって遮蔽されているため、左下の二ブロックのみが、他のブロックよりも高い遮蔽度によって更新される。
なお、遮蔽が解消したと判断した場合、各ブロックに割り当たった遮蔽度を0に戻す処理を行う。例えば、(1)遮蔽度が所定の値以上であって、(2)|ΔP(x,y)|が所定
の値以下となった場合に、遮蔽が解消したと判断してもよい。もちろん、他の手法を採用してもよい。
以上で、n番目の車両に対する追跡処理が終了する。
ステップS29では、カウンタnをインクリメントし、ステップS30で、カウンタnが、追跡中の車両数を超えたか否かを判定する。この結果、超えていない場合、処理はステップS22に戻り、次の車両に対する追跡を開始する。超えていた場合、追跡中の車両数から追跡を終了した車両の数(追跡終了フラグが真である車両の数)を減算する(ステップS31)。
なお、更新された遮蔽マップは、次のフレームにおける処理で重み付けに利用される。
また、遮蔽マップは、フレームの処理が進むごとに随時更新される。これにより、i番目のフレームを処理した際に得た遮蔽マップを、i+1番目のフレームを処理する際に使用することができる。このようにすることで、時刻の経過とともに刻々と変化する遮蔽状態を随時反映させることができる。すなわち、連続したフレームにおいて遮蔽が動的に発生した場合であっても、遮蔽マップを適切に更新することができる。
なお、本実施形態では、更新された遮蔽マップを次のフレームにおける処理で重み付けに利用する例を挙げたが、必ずしも次のフレームにおける処理で利用する必要はない。すなわち、発明の効果が得られる範囲で、適宜対象となるフレームを変更しても構わない。
例えば、i番目のフレームで更新された遮蔽マップを、i+2番目のフレームの処理に用いてもよい。また、例えば、10フレームごとに遮蔽マップを更新するように構成したうえで、i番目のフレームで更新された遮蔽マップを、i+1番目からi+10番目のフレームの処理に用いるようにしてもよい。
以上説明したように、本実施形態に係る画像処理装置では、ブロックごとに取得した移動ベクトルと、車両全体に対応する移動ベクトルとを比較した結果に基づいて遮蔽マップを生成し、当該遮蔽マップを用いてマッチングの際の重み付けを行う。従来の技術では、テンプレートマッチングにおいて遮蔽の影響を積極的に除去することができなかったが、本実施形態に係る画像処理装置は、前述した重み付けを行うことで、悪影響があるブロックの影響を抑えてマッチングを行うことができる。すなわち、車両の追跡精度を向上させることができる。
(第二の実施形態)
第二の実施形態は、画像上におけるエッジの強さに基づいて遮蔽度を補正する実施形態
である。
第二の実施形態では、ステップS28の処理において、車両の進行方向に対して垂直な方向に存在するエッジの強さを抽出し、当該エッジの強さに比例した係数を算出して遮蔽度に乗算する。例えば、取得した画像に、車両の進行方向に対して垂直な方向(図8の例では横軸方向)に存在するエッジを抽出するSobelフィルタを適用し、得られた全ての値の絶対値の和を取得する。そして、図9に示したような関係式で求めた係数を、遮蔽マップにおける遮蔽度に乗算する。
画像内において特定の方向に進行する車両は、遮蔽が発生していない場合、進行方向と直交する方向にエッジが立つという特徴がある。第二の実施形態では、これを利用し、より正確に遮蔽度を演算することが可能になる。
なお、車両の進行方向は、予め定義されていてもよいし、検出手段を設け、検出結果に応じて動的に設定するようにしてもよい。例えば、過去の追跡結果に基づいて学習を行い、車両の進行方向を推定するようにしてもよい。
(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、追跡対象車両を16個のブロックに分割して処理を行ったが、分割方法はこれ以外であってもよい。ブロックが多いほど精度は向上するが、処理時間も長くなるため、ブロック数やブロックサイズは、要求される仕様に基づいて適宜設定すればよい。
また、実施形態の説明では、車両に対応する移動ベクトルと、16個の移動ベクトルの差分をそれぞれ求めることで遮蔽マップを生成したが、遮蔽の度合いを求めることができれば、遮蔽度の演算方法は例示した方法に限られない。
また、実施形態の説明では、連続して取得した複数のフレームを1フレームずつ処理することで車両を追跡する例を挙げたが、処理は必ずしも1フレームずつ行わなくてもよい。例えば、1枚飛ばしのようにフレームを間引いて処理するように構成することも可能である。
100 画像処理装置
101 画像取得部
102 車両検出部
103 車両追跡部
104 遮蔽状態取得部
105 記憶部
200 カメラ

Claims (8)

  1. 連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置であって、
    画像を取得する画像取得手段と、
    前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得手段と、
    前記画像に含まれる追跡対象物の、他の物体による遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成手段と、
    前記テンプレートを用いて前記画像に含まれる追跡対象物を検出し、さらに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡手段と、
    を有し、
    前記遮蔽マップは、前記テンプレートを複数のブロックに分割し、各ブロックに遮蔽度合いを関連付けたマップであり、
    前記遮蔽マップ生成手段は、前記追跡対象物を画像間で追跡して得られた単一のベクトルと、前記複数のブロックをそれぞれ画像間で追跡して得られた複数のベクトルのそれぞれと、を比較した結果に基づいて前記遮蔽マップを生成する
    ことを特徴とする、画像処理装置。
  2. 前記追跡手段は、前記テンプレートを前記ブロック単位で用いてマッチングを行い、さらに、各ブロックに対応する遮蔽度合いを用いて重み付けを行った結果に基づいて、前記追跡対象物の移動量および移動方向を取得する
    ことを特徴とする、請求項1に記載の画像処理装置。
  3. 前記遮蔽マップ生成手段は、前記単一のベクトルと前記複数のベクトルのそれぞれを比較した結果の間の差が大きいほど、対応するブロックの遮蔽度合いを大きく設定し、
    前記追跡手段は、ブロックに対応する遮蔽度合いが大きいほど、当該ブロックの重みを小さく設定する
    ことを特徴とする、請求項1または2に記載の画像処理装置。
  4. 前記遮蔽マップ生成手段は、前記追跡手段が追跡結果を生成するごとに前記遮蔽マップを更新し、
    前記追跡手段は、次フレームにおける前記追跡対象物の検出処理において、前記更新された遮蔽マップを利用する
    ことを特徴とする、請求項1からのいずれかに記載の画像処理装置。
  5. 前記遮蔽マップに設定される遮蔽度合いは、対応するブロック内における、前記追跡対象物の移動方向に対して垂直なエッジが強くなるほど小さくなる
    ことを特徴とする、請求項1からのいずれかに記載の画像処理装置。
  6. 前記テンプレート取得手段は、前記追跡手段が検出した前記追跡対象物をクリッピングして得られた画像を、次フレームにおけるテンプレートとする、
    ことを特徴とする、請求項1からのいずれかに記載の画像処理装置。
  7. 連続して撮影された複数の画像に含まれる追跡対象物を追跡する画像処理装置が行う画像処理方法であって、
    画像を取得する画像取得ステップと、
    前記画像に含まれる追跡対象物に対応するテンプレートを取得するテンプレート取得ステップと、
    前記画像に含まれる追跡対象物の、他の物体による遮蔽度合いを示すマップである遮蔽マップを生成する遮蔽マップ生成ステップと、
    前記テンプレートを用いて前記画像に含まれる追跡対象物を検出し、さらに、前記テンプレートと、前記遮蔽マップの双方に基づいて、複数の画像間における前記追跡対象物の移動量および移動方向を取得する追跡ステップと、
    を含み、
    前記遮蔽マップは、前記テンプレートを複数のブロックに分割し、各ブロックに遮蔽度合いを関連付けたマップであり、
    前記遮蔽マップ生成ステップでは、前記追跡対象物を画像間で追跡して得られた単一のベクトルと、前記複数のブロックをそれぞれ画像間で追跡して得られた複数のベクトルのそれぞれと、を比較した結果に基づいて前記遮蔽マップを生成する
    ことを特徴とする、画像処理方法。
  8. 請求項に記載の画像処理方法をコンピュータに実行させるプログラム。
JP2016136130A 2016-07-08 2016-07-08 画像処理装置および画像処理方法 Active JP6439757B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016136130A JP6439757B2 (ja) 2016-07-08 2016-07-08 画像処理装置および画像処理方法
PCT/JP2017/007312 WO2018008184A1 (ja) 2016-07-08 2017-02-27 画像処理装置および画像処理方法
EP17823793.9A EP3483834B1 (en) 2016-07-08 2017-02-27 Image processing device and image processing method
US15/756,084 US10497133B2 (en) 2016-07-08 2017-02-27 Object tracking apparatus and object tracking method
CN201780002921.3A CN107924568B (zh) 2016-07-08 2017-02-27 图像处理装置、图像处理方法和存储介质
KR1020187005263A KR102011231B1 (ko) 2016-07-08 2017-02-27 화상 처리 장치 및 화상 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016136130A JP6439757B2 (ja) 2016-07-08 2016-07-08 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2018005839A JP2018005839A (ja) 2018-01-11
JP6439757B2 true JP6439757B2 (ja) 2018-12-19

Family

ID=60912433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016136130A Active JP6439757B2 (ja) 2016-07-08 2016-07-08 画像処理装置および画像処理方法

Country Status (6)

Country Link
US (1) US10497133B2 (ja)
EP (1) EP3483834B1 (ja)
JP (1) JP6439757B2 (ja)
KR (1) KR102011231B1 (ja)
CN (1) CN107924568B (ja)
WO (1) WO2018008184A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11107223B2 (en) * 2016-03-31 2021-08-31 Nec Corporation Image detection device, image detection method and storage medium storing program
CN109816701B (zh) * 2019-01-17 2021-07-27 北京市商汤科技开发有限公司 一种目标跟踪方法及装置、存储介质
JP2022067928A (ja) * 2020-10-21 2022-05-09 株式会社Subaru 対象物推定装置、その対象物推定方法、および、車両
CN112330717B (zh) * 2020-11-11 2023-03-10 北京市商汤科技开发有限公司 目标跟踪方法及装置、电子设备和存储介质
WO2023089706A1 (ja) * 2021-11-17 2023-05-25 日本電信電話株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768073B2 (ja) 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
JP4469980B2 (ja) * 2004-12-21 2010-06-02 国立大学法人静岡大学 移動体追跡のための画像処理方法
JP2008042659A (ja) * 2006-08-08 2008-02-21 Sony Corp 画像処理装置および方法、プログラム、並びにプログラム格納媒体
KR20080073933A (ko) * 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
JP4775277B2 (ja) * 2007-02-07 2011-09-21 株式会社デンソー 画像処理装置及び画像処理方法
JP4884331B2 (ja) * 2007-08-20 2012-02-29 セコム株式会社 移動物体追跡装置
JP5128339B2 (ja) 2007-09-11 2013-01-23 株式会社日立製作所 交通流計測システム
JP2009199417A (ja) * 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法
US9349189B2 (en) * 2013-07-01 2016-05-24 Here Global B.V. Occlusion resistant image template matching using distance transform
CN104794733B (zh) 2014-01-20 2018-05-08 株式会社理光 对象跟踪方法和装置
CN104091348B (zh) * 2014-05-19 2017-04-05 南京工程学院 融合显著特征和分块模板的多目标跟踪方法
CN105469380A (zh) * 2014-09-05 2016-04-06 株式会社理光 对于对象的遮挡进行检测的方法和装置
CN105654515A (zh) * 2016-01-11 2016-06-08 上海应用技术学院 基于分片及多特征自适应融合的目标跟踪方法
CN105678809A (zh) * 2016-01-12 2016-06-15 湖南优象科技有限公司 手持式自动跟拍装置及其目标跟踪方法

Also Published As

Publication number Publication date
KR20180033552A (ko) 2018-04-03
EP3483834A4 (en) 2020-02-26
WO2018008184A1 (ja) 2018-01-11
JP2018005839A (ja) 2018-01-11
EP3483834B1 (en) 2021-09-22
US20190114788A1 (en) 2019-04-18
CN107924568B (zh) 2021-08-10
CN107924568A (zh) 2018-04-17
KR102011231B1 (ko) 2019-08-14
EP3483834A1 (en) 2019-05-15
US10497133B2 (en) 2019-12-03

Similar Documents

Publication Publication Date Title
JP6439757B2 (ja) 画像処理装置および画像処理方法
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
JP6390671B2 (ja) 画像処理装置および画像処理方法
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
US10937176B2 (en) Object recognition apparatus
CN110033476A (zh) 目标速度估计方法、装置和图像处理设备
US10055674B2 (en) Confidence estimation for optical flow
CN111047908B (zh) 跨线车辆的检测装置、方法及视频监控设备
CN113269007A (zh) 道路监控视频的目标跟踪装置以及方法
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
KR101492366B1 (ko) 차량 사고 감지 방법 및 그 장치
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶***
JP4075879B2 (ja) 車両用衝突警報装置及び車両用衝突警報方法
JP4573590B2 (ja) 画像処理による移動物体計測方法及び装置
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP7435258B2 (ja) 車両速度の検出方法及び装置
JP7260499B2 (ja) 物体検出装置
US20230196773A1 (en) Object detection device, object detection method, and computer-readable storage medium
CN117078607A (zh) 航向角修正方法、装置及电子设备、存储介质
CN115272988A (zh) 一种车辆跟踪方法、装置、设备及介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R150 Certificate of patent or registration of utility model

Ref document number: 6439757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150