JP4246766B2 - 車両から対象物を位置測定して追跡する方法および装置 - Google Patents

車両から対象物を位置測定して追跡する方法および装置 Download PDF

Info

Publication number
JP4246766B2
JP4246766B2 JP2006508104A JP2006508104A JP4246766B2 JP 4246766 B2 JP4246766 B2 JP 4246766B2 JP 2006508104 A JP2006508104 A JP 2006508104A JP 2006508104 A JP2006508104 A JP 2006508104A JP 4246766 B2 JP4246766 B2 JP 4246766B2
Authority
JP
Japan
Prior art keywords
mask
image
vehicle
tracking
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006508104A
Other languages
English (en)
Other versions
JP2006527427A (ja
Inventor
ベーリング,ディートリッヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2006527427A publication Critical patent/JP2006527427A/ja
Application granted granted Critical
Publication of JP4246766B2 publication Critical patent/JP4246766B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K31/00Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
    • B60K31/0008Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • B60W2050/0025Transfer function weighting factor

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は,車両から対象物を位置測定して追跡する方法および装置に係り,特に位置測定システムとビデオ画像システムとを含む対象物を位置測定して追跡する方法および装置に関する。
車両においては,運転者の運転機能(認知,判断,操作)を車両側で実現することにより運転者を支援する電子的な運転支援システムの導入が進展している。運転支援システムの一例としてACC(Adaptive Cruise Control)システムが挙げられるが,ACCシステムを用いることにより,車両の走行速度を運転者の所望の速度に自動的に制御する,あるいは先行車両との車間距離を適切に制御することが可能となる。運転支援システムの他の例として衝突回避・緩和(Crush Mitigation)システムが挙げられるが,衝突回避・緩和システムを用いることにより,衝突を事前に回避,あるいは衝突による衝撃を緩和するために,運転者に対する警告,および/またはブレーキ制御および/またはステアリング制御への介入が可能となる。運転支援システムは,車両周辺の対象物(先行車両等の障害物)に関する信頼性の高い情報,特に先行車両の位置,運動,および空間分布に関する情報を必要とする。従来のACCシステムにおいては,対象物の位置測定のためにレーダまたはリーダ等の測距システムが用いられている。測距システムは,対象物との距離および相対速度を正確に測定しうるが,角度精度が限定されるため対象物の横位置(物標端)および空間分布に関する情報の提供には不向きである。他の位置測定システムの一例としては,ビデオカメラと画像認識処理装置とを備えた画像認識システムが挙げられる。画像認識システムは,対象物の横位置および空間分布に関する情報の提供に適するが,複雑な画像認識処理を要する。また,単眼視による画像認識処理では対象物との距離を直接測定できず,複雑な複眼視による画像認識処理では近傍領域においてのみ対象物との距離を高い精度で測定できる。
各々のシステムの特徴に基づいて,測距システムと画像認識システムとからなる複合システムが提案されている。例えば,Hofman,RiederおよびDickmanns共著の「高速道路用の複合型ACCのためのレーダと画像データの融合」(”Fusion of Radar and Vision Data for Hybrid Adaptive Cruise Control on Highways” von Hofman, Rieder und Dickmanns, Institut fuer Systemdynamik und Flugmechanik,Universitaet der Bundeswehr, Muenchen, in B. Schiele und G. Sagerer (Herausgeber): ICVS 2001, LNCS 2095, p.125-138, Springer Verlag Berlin/Heidelberg 2001)においては,対象物の最初の位置測定にレーダシステムを用いて,以降の追跡(tracking)に主に画像認識システムを用いる複合型ACCシステムが提案されている。同システムにおいては,運動推定に関する情報が画像認識処理により得られ,対象物の追跡に利用される。
Frank
DellaertとC.Thorpe共著の「カルマンフィルタリングとベイジアンテンプレートを用いた着実な車両追跡」(”Robust car tracking using Kalman filtering and Bayesian templates”, Frank Dellaert und C. Thorpe, Department of Computer Science and the Roboting Institute, Mellon University, Pitsburgh, USA)においては,カルマンフィルタを用いた単眼視のビデオ画像による車両追跡手法が提案されている。追跡される対象物(先行車両)は,車両後部の輪郭に概ね相当する略矩形の領域により表される。対象物は,ビデオ画像からフィルタ処理(エッジ抽出)により抽出されたエッジ画像上で識別されるが,画像上の画素はグレイ値ではなくグレイ値勾配,すなわち隣接画素間の明/暗の差を表す。新たな対象物の領域を識別するためには,エッジ画像内で水平および垂直の輪郭線が抽出され,各々2本からなる水平および垂直の輪郭線の可能な組合せから対象物の領域が識別される。その後,車両後部の輪郭に相当する領域が,蓋然性評価により識別される。
発明の利点
独立請求項に記載の本発明によれば,計算処理の簡略化によって,リアルタイムで正確に対象物の位置測定および追跡を行うことができる。
本発明に基づく対象物を位置測定して追跡する方法においては,まず,他の位置測定システム,例えばレーダシステムにより概ね位置測定された対象物が,二次元のビデオ画像として捉えられ,画像内で探索されるべき探索領域が定められる。レーダシステムから得られる角度情報は,探索領域を特定するための少なくとも1つの概略の位置情報を与える。また,探索領域の大きさは,レーダシステムから得られる対象物との距離情報に応じて選択されうる。
そして,探索領域全体が対象物の所定の画像特徴を求めて系統的に探索される。画像特徴とは,一般にビデオ画像またはビデオ画像から抽出される画像,例えばエッジ画像内で識別される所定の対象物の構造的な特徴である。画像特徴の例は,例えば乗用車両またはトラック車両の後部の典型的な略矩形状の輪郭である。画像特徴の他の例は,反射の大きい対象物でも車両の下方の路面上に現れる特徴的な影,あるいは車両の中心軸を対称軸とする構造上の特徴的な対称性である。探索領域全体を系統的に探索する場合には,所定の基本形状を有するマスクが探索領域内で移動され,探索領域内のマスクの各位置において画像特徴とマスクとの照合が確認され,すなわち,探索される画像特徴がマスク内でどの程度識別されるかが調べられる。そして,画像特徴とマスクとの照合が最適となる位置が,ビデオ画像内における対象物の概略の位置を与える。
マスクの所定の基本形状は,対象物種別毎の構造的な特徴に適合する。例えば,乗用車両を探索するためのマスクは,矩形のフレーム形状(領域)を有し,その縦横比が乗用車両の高さと幅の典型的な比に相当する。トラック車両を探索するためのマスクは,同様に,他の縦横比を有する。「所定の」という表現は,マスクの形状ではなく,その絶対的な大きさを意味する。よって,本発明の範囲において,マスクは,レーダシステムから得られる対象物との距離情報に応じて,画面上における対象物の領域の大きさに適合するように拡大縮小されうる。探索のためのマスクは,マスクと画像特徴とが完全に照合しなくても,ある程度の照合が確認されるアンシャープなものである。
上記の手順によりマスクの最初の位置と対象物の横位置とを示す情報が得られると(初期化),次の手順においては,マスクと画像特徴との照合を確認するために探索密度がより細かくされる。このため,高い空間解像度を有するビデオ動画像の一連の画像(フレーム)内において,マスク内における画像特徴の空間分布が確認される。一連のビデオ画像内において識別される画像特徴の空間分布が蓄積され,例えば加算または積分されるため,探索する動画像が増加するほど画像特徴がより明瞭かつ鮮明に現れて信号/ノイズ比が改良される。この場合,ビデオ画像内における画像特徴の位置が対象物の移動に応じてずれる可能性がある。よって,画像特徴がマスクにより適当な間隔で追跡され,すなわち画像特徴との間の照合が維持されるようにマスクが移動される。対象物を比較的長時間にわたり追跡する場合には,アンシャープなマスクの拡大縮小を間隔の変化に適合させることも必要となる。
他の手順においては,マスクの形状が基本形状から変化されて,蓄積された画像特徴の空間分布に適合される。例えば,探索される画像特徴が乗用車両の輪郭を有しており,マスクとして乗用車両の領域に相当する矩形のフレームが適用される場合には,フレームの幅は,車両の左端を表す画像特徴の分布状況の最大値を示す位置がマスクの左のフレーム辺の幅の中心に一致し,かつ車両の右端を表す画像特徴の分布状況の最大値を示す位置がマスクの右のフレーム辺の幅の中心に一致するように適合される。同様に,マスクの高さも選択的に適合されうる。上記のとおり,マスクの形状と位置が探索すべき画像特徴に最適に適合されるため,例えば車両輪郭に特徴を有する場合,実際の領域と同一のマスクが得られる。その後,対象物の横の位置および幅と,選択的には高さも,ビデオ画像におけるマスクの位置から著しく高い精度で特定される。
対象物をさらに追跡する場合には,対象物の移動に応じて形状を適合されたマスクにより追跡される。この場合には,照合すべき画素数を減少させることにより計算処理と計算時間が短縮されるために,マスクのアンシャープさが減少される。
本発明によれば,初期化,すなわち対象物の最初の位置測定は,レーダシステムからの位置情報のみならず,探索すべき対象物種別に適合された基本形状のマスクを用いることにより,探索すべき対象物についての事前情報が得られるため,簡略化されて効率化されうる。この場合,基本形状のマスクは,対象物との距離情報に基づいて適切に拡大縮小されることが望ましい。
実際上においては,探索は,少なくとも複数の対象物種別,例えば乗用車両,トラック車両および場合によっては二輪車,またはガードレール,道路標識等の道路端の静止目標にも適用される。複数の対象物種別を探索する場合には,初期化において,対象物種別毎に1つの複数のマスクにより,探索領域全体が系統的に探索される。この場合,探索は,出現確率の高い対象物種別(通常は乗用車両)用のマスクを用いて開始されることが望ましい。このマスクを用いた探索により所定の最小限の照合が確認されない場合には,対象物種別の最初の想定が覆されて,他の対象物種別のためのマスクを用いた探索が繰り返される。
また,本発明によれば,所定の期間にわたる画像特徴の蓄積により,対象物の位置と空間分布を特定するためのより正確な基準が得られる。
初期化の場合およびマスクを追跡する場合にも,マスクと画像特徴との照合が計算されて最適化されるため,照合の精度を適切に規格化することにより,位置測定結果の信頼性を表す品質パラメータとして用いられる。
実施例の説明
図1には,車両搭載のビデオカメラから撮像される車両前方のビデオ画像10−1が矩形のフレームとして示される。図1のビデオ画像10−1は,車両前方を走行する先行車両12,14を捉えている。車両12は,車両14より先行しており,遠近法のために小さく見える。
ビデオ画像10−1は,通常のグレイ値画像ではなく,対象物の輪郭を表すエッジ画像であり,例えば3x3−ゾーベル(Sobel)フィルタ処理により得られる。エッジ画像内の黒色画素は,ビデオ画像においてグレイ値勾配が大きい,すなわち明/暗の差が大きい位置を表す。エッジ画像内の画素値は,複数の値をもつことができ,原理的には,各画素の位置におけるグレイ値勾配の絶対値と方向性を表す勾配ベクトルに対応づけられる。図1の例における各画素は,グレイ値勾配の絶対値のみを表すが,グレイ値勾配のx成分またはy成分のみを選択的に表しうる。
車両14については,車両後部の輪郭以外に車両の左下方に伸びる影16の輪郭が認められ,さらにテールランプ18とナンバープレート20の輪郭も確認される。
本発明に係るACCシステムを搭載する車両は,ビデオカメラを備えた画像認識システムとともに,所定の角度幅でレーダを走査するレーダシステムを搭載し,車両前方を測定する。レーダシステムは,車両12,14の横位置(x位置)を所定の角度精度で測定する。図1の例において,レーダシステムは,車両14のダンパーの左端からの反射波を主に検知する。レーダシステムは,反射波の入射角度と車両14との距離に関する情報より車両位置22を算出して,ビデオ画像10−1内に「X」マークとして投影する。図1に示すとおり,算出された車両位置22は,相当の誤差を含む。しかし,ビデオ画像10−1の画像認識により,車両の横位置(x位置),幅,および高さをより高い精度で測定しうる。精度の高い測定情報とともに,レーダシステムから得られる距離情報により,三次元のグローバル座標上における車両14の正確な位置と空間分布が得られる。
図1の例において,車両14は,直前に右側から走行車線に進入してきたものと想定する。レーダシステムは,検知範囲(走査角度)が限定されているため,画像認識システムより遅れて車両14を認識する。図1は,車両14が初めてレーダシステムにより位置測定された時点を示す。これにより,画像認識システムは,新たに位置測定された車両14の探索を開始する。これと同時に,ビデオ画像10−1内には,レーダシステムにより位置測定された車両14の車両位置22にセンタリングされた探索領域(search field)24が設定される。探索領域24は矩形であり,大きさと縦横比が認識された対象物に適合されうる。さらに,距離および/または角度に応じて,測定位置に対する探索領域の移動を調整しうる。
レーダで捉えられた対象物(車両14)は,その実態が未だ不明であるため,まず,最も出現確率の高い乗用車両であると想定される。ビデオ画像内で乗用車両を識別するためには,探索領域24全体がアンシャープなマスク26を用いて系統的に探索される。マスク26は,乗用車両の高さと幅の典型的な比に相当する縦横比の矩形フレームの形状を有する。フレーム辺(図1の斜線部)は,ある程度の幅を有するため,左右の辺のx位置と上下の辺のy位置も,ある程度の不確定性を有する。
マスク26は,車両14との距離から想定される輪郭線28の大きさに適合するように拡大縮小される。輪郭線28は,適切な照合判定基準を用いてマスク26により探索されるべき画像特徴を表す。すなわち,マスク26が探索領域24内の行列方向に移動されることにより,探索領域24全体がマスク26を用いて系統的に探索される。マスク26のx方向およびy方向の移動間隔は,一定値,あるいはマスク26内,すなわち斜線を施された領域の内部で識別される画像パターンに依存する。マスク26の移動に応じて,マスク26内のエッジ画像の画素値(グレイ値勾配)が累加され,これは,数学的にみれば,マスク26によるエッジ画像の畳み込みに相当する。これにより,輪郭線28とマスク26との最適な照合位置,すなわちマスク内のグレイ値勾配の合計値が最大になる位置が探索され,図1に破線(符号26’)として示される。車両14の輪郭線28全体がマスク26の内部にある場合,マスク26が多少移動してもグレイ値勾配の合計値は変化しない。すなわち,輪郭線28とマスク26との最適な照合位置は,輪郭線28とマスク26のフレーム辺の幅の中心とのずれが最小化されることにより特定される。
他の車両12は,すでにレーダシステムにより位置測定されており,車両14と同様な方法により正確な位置が得られている。車両14の探索が車両12の領域により妨げられないようにするためには,探索領域24内における車両12の領域を探索期間にわたりフェードアウトさせることが効果的である。
ビデオカメラからは,40msサイクルで新たなビデオ画像が入力される。上記の探索処理は,理想的な状況においては同一サイクル内で終了されうるが,特に車両が近接している,すなわち大きく表示されている状況においては複数サイクルにわたり延長されうる。
図2は,図1に示すビデオ画像10−1に後続するビデオ画像10−2を示す。車両14は,左に移動し,かつ近接しているため,より大きく表示される。しかし,画像10−1と画像10−2との間における車両14の移動距離が僅かであるため,画像10−2内の探索領域は,最初の位置測定と比べて縮小され図1の位置26’の著しく近傍に限定されうる。図2の探索においては,必要に応じて,マスク26が車両14との距離の変化に応じて新たに拡大縮小され,探索領域が最初の位置測定の場合と比べて縮小されたことを除いては,上記と同様の探索処理によりマスク26”の位置が特定される。上記の手順により,車両14の移動後のマスク26の位置が後続の画像上において追跡される。ここで,車両14の移動後の位置測定に要する時間は,図1の最初の位置測定,いわゆる初期化に要する時間よりも短く,初期化の終了後は,リアルタイムの位置測定が可能となる。
マスク26による追跡は,他のシステムの情報,特にレーダシステムから得られる位置情報を利用することにより簡略化されて効率化されうる。ここで,レーダ情報と画像情報の効率的な融合の技術例は,本出願の発明者により同時に出願される特許文献「車両の運転支援システムにおける対象物測定方法および装置」に詳述される。
以降の手順においては,図3に示すとおり車両14の輪郭線28の正確な位置,形状および大きさが特定される。
図3は,車両14のエッジ画像,特に車両14の輪郭線28を適切に追跡したマスク26を示す。マスク26の輪郭線28の左端の境界は,マスク26の左のフレーム辺内における各画素列30上のグレイ値勾配が累加されることにより,さらに正確に特定されうる。図3の例では,画素列30と影16との交差点の2箇所のみで,“0”以外のグレイ値勾配が検出される。各x位置におけるグレイ値勾配の累積値がヒストグラム32−1として記録されるが,この記録操作がマスク26の左のフレーム辺内の各画素列に対して繰り返される。よって,最終的に得られるヒストグラム32は左のフレーム辺内におけるグレイ値勾配の頻度分布を示し,頻度分布が最大値(図3中の太い破線)を示す位置がかなりの確度で車両14の左端の境界を示すものと推定される。図3には示されていないが,同様にして対象物14の右端,ならびに上端および下端の境界も推定される。
しかし,グレイ値勾配画像が多少のノイズを含むため,車両14の推定された境界は,相当の誤差を含んでいる。ノイズの影響を解消するために,上記の手順が後続のビデオ画像についても繰り返されることにより,ヒストグラム32−2,32−3が順次記録される。必要であれば,後続のヒストグラムが記録される間,マスク26により車両14が比較的長い時間間隔で追跡されることが望ましい。同様に,必要であれば,マスク26は,さらに長い時間間隔で新たに拡大縮小されることが望ましく,この場合にはヒストグラム32−1も同様に拡大縮小される。
上記のとおり,比較的長い時間にわたり記録されたヒストグラム32−1,…(例えば連続する5〜6のヒストグラム)が蓄積されて一般化されることにより,ノイズにより歪曲されていないヒストグラム32が得られる。蓄積(合成処理)は,フェーディングメモリ理論に基づいて連続的に行われることが望ましい。すなわち,ヒストグラムの合成処理においては,新しいヒストグラムほど重みづけがなされるため,古いヒストグラムの影響が次第に少なくなる。合成処理は,例えば以下の式1により行われる。
Figure 0004246766
式1において,H(x)newが最新のビデオ画像のヒストグラム,すなわち最新のビデオ画像の画素列30におけるグレイ値勾配の合計値,H(x)が合成された古いヒストグラム,H(x)n+1が合成された新しいヒストグラム,kが0〜1の値に設定されるフェーディング係数である。
上記の手順は,さらに以下のとおり一般化される。画像特徴,すなわちグレイ値勾配画像の輪郭線28は,マスク26内で検出されるグレイ値勾配により識別される。初期化の後には,画像特徴とアンシャープなマスク26との照合がより高い空間解像度で確認される(例えば,輪郭線28の左端および右端の画素列30,同様に上端および下端の画素行において合計されることにより)。これにより,高い空間解像度で記録された画像特徴が,複数のビデオ画像において蓄積されるため,アンシャープなマスク26に対する画像特徴(輪郭線28)の正確な位置情報が得られる。すなわち,例えば,車両14の正確な幅Dは,x方向で記録されたヒストグラム32上の最大値を示す位置と,マスク26の右のフレーム辺に対応するヒストグラム34上の最大値を示す位置との間隔Dとして得られる。
図3に示すとおり,間隔Dは,マスク26の左と右のフレーム辺の幅の中心の間隔D’より小さい。よって,最初に適用された乗用車両用の基本形状マスクは,実際の車両14より少し大きく誤差を含むため,車両14の正確な形状を再現しえない。この誤差は,ヒストグラム32と34が十分な精度で記録されれば,マスクの幅(間隔D’)が間隔Dに適合され,同様にしてマスクの高さも適合される。よって,後続のビデオ画像,例えば図4のビデオ画像10−3のために新たなマスク36が適用されるが,新たなマスク36は実際の車両14の形状に適合されているため,車両14の略矩形の領域38に適合する。ビデオ画像10−3内のマスク36の位置,より正確には,マスク36の下のフレーム辺の中心点40のx座標とy座標は,二次元のビデオ画像における車両の位置,特に横位置を特定するための正確な基準を与える。この位置情報と,レーダシステムから得られる距離情報とを用いて,例えば中心点40をグローバル座標に対して遠近法で投影することにより,三次元のグローバル座標システム内における車両14の位置が正確に特定される。
さらに,マスク36の幅と高さからは,車両14の幅と高さについての正確な情報を得ることができる。この情報により,例えば,車両14が一時的に他の車両により隠蔽される状況においても,車両14の追跡と再認識が容易となる。車両の幅についての情報は,衝突回避・緩和システムにおいて,衝突を回避するための走行路を計算するためにも有用である。車両の高さについての情報は,車両種別をより詳しく識別することにより,エアバッグの動作を衝突車両の大きさに適合させるためにも用いられる。さらに,一般的に,位置測定された対象物を重要な障害物として検証することは,対象物の寸法形状を正確に把握することにより,著しく容易になるとともに改良されうる。
また,マスク36を車両14の幾何学配置により良く適合させることにより,マスク36のアンシャープの程度,すなわちフレーム辺の幅を減少させうる。これにより,車両の継続的な追跡に際して,図3を用いて説明された手順の計算作業が著しく簡略化されうる。
車両14を継続的に追跡する場合には,マスク36が連続的に適合されるが,この場合には,例えば車両の形状が大きく変化しないという蓋然性の判定基準も考慮されうる。
応用例としては,マスク36により特定された画像領域をビデオ画像から抽出することにより,フレームのみならず画像領域全体をより高精度な照合判定基準用のマスク(テンプレート)として用いることも考えられる。
位置測定方法の高い信頼性に基づくことにより,車両14が一時的にレーダシステムの検知範囲から逸脱した場合,あるいは他の理由でレーダ信号が失われた場合においても,さらに車両の追跡を継続しうる。
図3に示すヒストグラム32,34は,さらに,対象物の位置測定精度,すなわち実際の車両の輪郭とマスク26または36との照合の精度を示す基準を与える。車両14の後部の輪郭が正確な矩形形状を有する理想的な状況においては,ヒストグラム32,34の合計値が理論上可能となる最大値を与える。これにより,実際に得られた合計値と理論上の最大値との比は,対象物の輪郭とマスクとの照合の精度を示す0〜1の値で表される品質係数Gを与える。よって,品質係数Gを用いて評価することにより,位置測定された対象物の横位置と幅に関する情報についての信頼性を推定しうる。
初期化に用いられるマスクの基本形状は,多様な方法により所望の対象物種別に適合させうる。例えば,図5はトラック車両用のマスク42の基本形状を示し,図6は典型的な乗用車両の輪郭に適合されたマスク46の基本形状を示す。同様に,二輪車用,交通標識板用等のマスクも考えられる。さらに,正確なマスクは,手動で設定される多様な対象物の外見に基づいて学習法(例えば,Self Organizing Feature Maps)または統計手法(例えば,Principal Component Analysis)等により形成される。
暗がりまたは劣悪な視界条件で走行する場合には,乗用車両またはトラック車両のテールランプの特徴的なパターン,あるいはテールランプと照明されたナンバープレートとからなる特徴的なパターンに適合されたマスクが用いられる。この場合,例えば乗用車両用としては,「輪郭線28」で特徴付けられるマスク26または46,あるいは「テールライト」で特徴付けられるマスクが視界条件に応じて用いられる。ここで,マスクの切替えは,例えば環境光センサを用いて,あるいは霧のために「輪郭線」の特徴による初期化が困難な場合に自動的に行いうる。
画像認識処理に際しては,グレイ値画像またはエッジ画像により識別される,車両の下方の影と,車両の輪郭に特徴的な左右対称性も識別の対象として考慮されうる。エッジ画像による識別は,グレイ値勾配の絶対値のみならず方向性も識別対象として考慮することにより精度が向上されうる。このためには,例えば車両の左右の車輪を対象として逆方向の勾配を探索するマスクが用いられる。
図7は,車両からの対象物を位置測定して追跡するための装置の一般的な構成を示す。位置測定システムとしては,ビデオカメラ48と,レーダシステム50,例えば所定の角度幅でレーダを走査するFMCW(Frequency-Modulated Continuous Waves)方式のレーダとが設けられる。レーダシステム50から得られる位置測定信号は,先行車両との車間距離を制御するためにACCモジュール52内で利用される。この構成部品からなるシステムは,劣悪な視界条件の場合,または誤動作によりビデオカメラ48からの画像が入力されない場合にも機能しうる。正常な視界条件においては,ビデオカメラ48により記録されたビデオ画像が画像認識モジュール54に伝達される。画像認識モジュール54は,マイクロプロセッサまたは他の電子的な情報処理システムにより構成され,レーダシステム50からの位置測定信号も入力される。これにより,画像認識の結果に基づいて位置測定された対象物の位置と寸法は,補足信号としてACCモジュールに出力される。
図8は,画像認識モジュール54の作業手順のフローを示す。監視モジュール56は,ステップS1においてレーダシステム50の位置測定信号を用いて,所定の時間間隔で新たな対象物の検出の有無を確認する。新たな対象物が検出されると,ステップS2において追跡処理Tが開始される。追跡処理Tは,ステップS10から開始され,レーダシステムからの位置情報により探索領域24を定める。そして,ステップS11において,種々の対象物種別のための基本形状マスク,例えば乗用車両用のマスク26とトラック車両用のマスク42が,対象物との測定距離に応じて拡大縮小され,これらのマスクを用いて探索領域24全体が系統的に探索される。マスク26により十分な照合が認められない場合,すなわちマスクによるエッジ画像の畳み込みの結果が探索領域内のいかなる領域においても所定の最小値に達しない場合には,トラック車両用のマスク42による探索が繰り返される。レーダシステム50が,同一の車間距離および相対速度を有し,よって同一の対象物と想定される複数の信号を受信する場合には,対象物の角度分布を用いることにより,対象物がトラック車両であると推定される。この場合,同様にトラック車両用のマスク42により探索を開始しうる。全ての対象物種別のためのマスクにより探索した結果,有効な照合の認められるマスクが見出されない場合(ステップS12)には,レーダシステムにより検出された情報は,例えば走行路端における車両以外のレーダ目標物等を示すものとみなされ,対象物と想定された情報が棄却される(ステップS13)。
ステップS12において有効なマスクが見出された場合には,初期化処理が終了されて,ステップS14において本来の追跡処理,すなわち先行車両の移動に応じたマスクによる追跡が開始され,追跡処理の過程において画像特徴が図3に示すとおり蓄積される。そして,ステップS15において蓄積された画像特徴(ヒストグラム32,34)にマスクが適合されて,マスク26がマスク36に移行される。さらに,ステップS16において先行車両の幅および高さと品質係数Gとが算出されて,処理手順がステップS14に復帰し,対象物が追跡不能となるまでステップS14,S15およびS16からなる繰返し処理が実行される。
本発明に係る車両搭載のビデオカメラから撮像される車両前方のビデオ画像の例を示す。 図1に示すビデオ画像に後続する一連のビデオ画像を示す。 車両のエッジ画像,特に車両の輪郭線に適切に追跡されたマスクを示す。 ビデオ画像のために新たに適合されたマスクを示す。 異なる対象物(トラック車両)用マスクの基本形状の例を示す。 異なる対象物(乗用車両)用マスクの基本形状の例を示す。 本発明に係る対象物の位置認識装置の一般的な構成を示す。 画像認識モジュールの作業手順のフローを示す。
符号の説明
10 ビデオ画像
12,14 対象物(車両)
16 影
18 テールランプ
20 ナンバープレート
22 車両位置
26,36 マスク
28,38 画像特徴
30 画素列
32,34 ヒストグラム
40 下のフレーム辺
42 対象物(トラック車両)用のマスクの基本形状
46 対象物(乗用車車両)用のマスクの基本形状
48 ビデオカメラ
50 レーダシステム
52 ACCモジュール
54 画像認識モジュール
56 監視モジュール

Claims (9)

  1. ビデオ動画像を電子的に評価することにより車両から対象物(14)を位置測定して追跡する方法であって,
    a)他の位置測定システム(50)から得られる位置測定情報に基づいてビデオ画像(10−1)内の探索領域(24)を定めるステップと;
    b)前記対象物(14)の少なくとも一部の輪郭形状を表す画像特徴(28)と,前記画像特徴に対応する所定のフレーム形状を有し,フレーム辺がアンシャープさに相当する幅を有するアンシャープなマスク(26)との最適な照合を探索するために,前記探索領域(24)全体で前記マスクを系統的に移動させるステップと;
    c)前記ビデオ画像の後続のビデオ画像(10−2,10−3)内において,前記対象物(14)の移動に応じて前記マスク(26)を追跡し,一連の前記ビデオ画像内において高い空間解像度で識別される前記画像特徴(28,32,34)を蓄積するステップと;
    d)蓄積された前記画像特徴と前記マスク(26,36)との照合を最適化するように前記マスクの形状を適合させるステップと;
    e)適合された前記マスク(36)を用いてステップ(c)を繰り返すステップと;
    を含むことを特徴とする,対象物を位置測定して追跡する方法。
  2. ステップb)において,前記マスク(26)は,前記他の位置測定システム(50)から得られる前記対象物(14)との距離情報に応じて拡大縮小されることを特徴とする,請求項1に記載の対象物を位置測定して追跡する方法。
  3. ステップb)は,複数の前記マスク(26,42)を用いて継続的に実行され,前記画像特徴(28)と前記マスクとの間で所定の最小限の照合が確認された場合にのみ,ステップc)に移行されることを特徴とする,請求項1または2に記載の対象物を位置測定して追跡する方法。
  4. 前記画像特徴(28)は,前記対象物(14)の輪郭線であり,
    アンシャープな前記マスク(26)は,フレームの形状を有し,前記フレームの辺がアンシャープさに相当する幅を有し,
    前記ビデオ画像(10−1)から抽出されるエッジ画像が前記マスクを用いて畳み込まれて,前記画像特徴(28)と前記マスク(26)との照合が確認されることを特徴とする,請求項1〜3のいずれかに記載の対象物を位置測定して追跡する方法。
  5. 前記マスク(26)は,少なくとも2つの平行な前記フレームの辺を有し,前記フレーム辺がx座標沿いに互いに離隔距離を有し,
    ステップc)において,高い空間解像度で識別される前記画像特徴の蓄積に際しては,2つの平行な前記フレーム辺の幅内で各x座標の画素列が積分され,x座標沿いの前記画像特徴のヒストグラム(32,34)が得られて,一連の前記ビデオ画像において記録された前記ヒストグラムが蓄積され,
    ステップd)において,2つの平行な前記フレーム辺の間の間隔が,一方の前記フレーム辺の幅内で前記ヒストグラム(32)が最大値を示す位置と,他方の前記フレーム辺の幅内で前記ヒストグラム(34)が最大値を示す位置との間の間隔に適合されることにより,前記マスクの形状が適合されることを特徴とする,請求項4に記載の対象物を位置測定して追跡する方法。
  6. 前記蓄積は,フェーディングメモリ理論に基づいて行われることを特徴とする,請求項に記載の対象物を位置測定して追跡する方法。
  7. ステップc)において,前記マスク(26,36)追跡は,前記マスクが前記画像特徴との間に最適な照合が得られる位置に移動されて行われることを特徴とする,請求項1〜6のいずれかに記載の対象物を位置測定して追跡する方法。
  8. 得られた最適な照合の結果と理論上可能となる最適な照合とを比べることにより,対象物の位置測定結果の信頼性を表す品質係数(G)が算出されることを特徴とする,請求項7に記載の対象物を位置測定して追跡する方法。
  9. ビデオカメラ(48)と,他の位置測定システム(50)としてのレーダセンサとを備え,車両から対象物を位置測定して追跡する装置であって,
    前記ビデオカメラ(48)と前記他の位置測定システム(50)とからの信号を受信し,
    請求項1〜8のいずれかに記載の対象物を位置測定して追跡する方法が実施される画像認識モジュール(54)を備えることを特徴とする,対象物を位置測定して追跡する装置。
JP2006508104A 2003-05-30 2004-03-26 車両から対象物を位置測定して追跡する方法および装置 Expired - Fee Related JP4246766B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10324895A DE10324895A1 (de) 2003-05-30 2003-05-30 Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge
PCT/DE2004/000635 WO2004111943A1 (de) 2003-05-30 2004-03-26 Verfahren und vorrichtung zur objektortung für kraftfahrzeuge

Publications (2)

Publication Number Publication Date
JP2006527427A JP2006527427A (ja) 2006-11-30
JP4246766B2 true JP4246766B2 (ja) 2009-04-02

Family

ID=33441556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006508104A Expired - Fee Related JP4246766B2 (ja) 2003-05-30 2004-03-26 車両から対象物を位置測定して追跡する方法および装置

Country Status (4)

Country Link
EP (1) EP1634243B1 (ja)
JP (1) JP4246766B2 (ja)
DE (1) DE10324895A1 (ja)
WO (1) WO2004111943A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004018288A1 (de) * 2004-04-15 2005-11-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur näherungsweisen Indentifizierung eines Objekts
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
DE102005045017A1 (de) * 2005-09-21 2007-03-22 Robert Bosch Gmbh Verfahren und Fahrerassistenzsystem zur sensorbasierten Anfahrtsteuerung eines Kraftfahrzeugs
DE102007039377B4 (de) * 2007-08-21 2011-11-10 Audi Ag Verfahren zur automatischen Längsführung eines Kraftfahrzeugs mittels eines längsführenden Fahrerassistenzsystems mit Stop&Go-Funktion
DE102010002929A1 (de) * 2010-03-16 2011-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur automatischen Längsführung eines Kraftfahrzeugs
DE102010013815A1 (de) 2010-04-03 2011-10-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Erkennung und Verfolgung von Objekten im Umfeld eines Kraftfahrzeugs
DE102010029149B4 (de) * 2010-05-20 2012-04-05 Robert Bosch Gmbh Verfahren und Steuergerät zum Plausibilisieren eines Leuchtweite-Testwerts eines Lichtkegels eines Fahrzeugscheinwerfers
FI20106387A (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
DE102011102512A1 (de) * 2011-05-26 2012-11-29 Conti Temic Microelectronic Gmbh Verfahren zur Ableitung von Umfeldinformationen aus der Erkennung rückwärtiger Lichter vorausfahrender Fahrzeuge
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
CN103310213B (zh) * 2012-03-07 2016-05-25 株式会社理光 车辆检测方法和装置
JP5605395B2 (ja) * 2012-06-08 2014-10-15 株式会社デンソー 車両判定装置、及び、プログラム
DE102012020778B4 (de) * 2012-10-23 2018-01-18 Audi Ag Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
US9052393B2 (en) 2013-01-18 2015-06-09 Caterpillar Inc. Object recognition system having radar and camera input
US9167214B2 (en) 2013-01-18 2015-10-20 Caterpillar Inc. Image processing system using unified images
KR101372838B1 (ko) 2013-02-20 2014-03-12 (주)인펙비전 다기능 차량촬영 시스템 및 방법
KR101512237B1 (ko) * 2013-09-05 2015-04-16 (주) 너울정보 선박의 충돌방지장치
DE102013021840A1 (de) * 2013-12-21 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
JP6163453B2 (ja) * 2014-05-19 2017-07-12 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP6412345B2 (ja) * 2014-06-12 2018-10-24 株式会社Subaru 車外環境認識装置
KR102402359B1 (ko) * 2015-10-28 2022-05-27 주식회사 에이치엘클레무브 신뢰도 정보를 제공하는 전방 교통 상황 표시 장치 및 방법
DE102015121952A1 (de) 2015-12-16 2017-06-22 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016212716A1 (de) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Steuervorrichtung und verfahren
KR102612821B1 (ko) * 2017-12-11 2023-12-12 엘지전자 주식회사 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
US10748012B2 (en) * 2018-02-13 2020-08-18 Ford Global Technologies, Llc Methods and apparatus to facilitate environmental visibility determination
DE102018127990A1 (de) * 2018-11-08 2020-05-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs
JP7236853B2 (ja) * 2018-12-10 2023-03-10 アイホン株式会社 ベッド位置特定装置
DE102019207191A1 (de) * 2019-05-16 2020-11-19 Volkswagen Aktiengesellschaft Verfahren zum Einparken eines Fahrzeugs in eine Querparklücke mit Erkennung einer Orientierung des benachbarten Fahrzeugs anhand einer Prüfplakette, sowie Parkassistenzsystem
DE102019207190B3 (de) * 2019-05-16 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Einparken eines Fahrzeugs in einer Querparklücke unter Berücksichtigung von Scheinwerferpositionen benachbart geparkter Fahrzeuge, sowie Parkassistenzsystem

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2195418T3 (es) * 1997-09-22 2003-12-01 Siemens Ag Sistema de maniobras de aparcamiento para terminales de aeropuerto.
US6574353B1 (en) * 2000-02-08 2003-06-03 University Of Washington Video object tracking using a hierarchy of deformable templates
KR100364582B1 (ko) * 2000-04-28 2002-12-16 주식회사 네트웍코리아 다중 이동물체 추적/감시 시스템

Also Published As

Publication number Publication date
EP1634243B1 (de) 2012-02-01
JP2006527427A (ja) 2006-11-30
WO2004111943A1 (de) 2004-12-23
DE10324895A1 (de) 2004-12-16
EP1634243A1 (de) 2006-03-15

Similar Documents

Publication Publication Date Title
JP4246766B2 (ja) 車両から対象物を位置測定して追跡する方法および装置
US11348266B2 (en) Estimating distance to an object using a sequence of images recorded by a monocular camera
US7027615B2 (en) Vision-based highway overhead structure detection system
US7612800B2 (en) Image processing apparatus and method
US7764808B2 (en) System and method for vehicle detection and tracking
US7103213B2 (en) Method and apparatus for classifying an object
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
US8406472B2 (en) Method and system for processing image data
EP2639781A1 (en) Vehicle with improved traffic-object position detection
WO2004114202A1 (en) Vehicular vision system
EP1639516A2 (en) Method and apparatus for ground detection and removal in vision systems
CN114419098A (zh) 基于视觉变换的运动目标轨迹预测方法及装置
WO2019065970A1 (ja) 車両用外界認識装置
Kaempchen et al. Fusion of laserscanner and video for advanced driver assistance systems
JP3879874B2 (ja) 物流計測装置
JP5957182B2 (ja) 路面上パターン認識方法および車両用情報記録装置
Denasi et al. Early obstacle detection using region segmentation and model-based edge grouping
Inoue et al. Following vehicle detection using multiple cameras
CN117061723A (zh) 车辆及其控制方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090108

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees