JP3463858B2 - 周辺監視装置及び方法 - Google Patents

周辺監視装置及び方法

Info

Publication number
JP3463858B2
JP3463858B2 JP24126498A JP24126498A JP3463858B2 JP 3463858 B2 JP3463858 B2 JP 3463858B2 JP 24126498 A JP24126498 A JP 24126498A JP 24126498 A JP24126498 A JP 24126498A JP 3463858 B2 JP3463858 B2 JP 3463858B2
Authority
JP
Japan
Prior art keywords
image
vehicle
road surface
optical flow
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24126498A
Other languages
English (en)
Other versions
JP2000074645A (ja
Inventor
一幸 佐々木
直人 石川
真人 中島
照久 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP24126498A priority Critical patent/JP3463858B2/ja
Priority to US09/383,200 priority patent/US6445809B1/en
Publication of JP2000074645A publication Critical patent/JP2000074645A/ja
Application granted granted Critical
Publication of JP3463858B2 publication Critical patent/JP3463858B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自動車などの車両
等に設置されたビデオカメラ等の撮像手段によって、車
両の前方、後方及び後側方を撮像し、撮像された画像を
用いて、走行している自車両の前方、後方及び後側方よ
り接近してくる他車両を検知し、運転者に警告を与える
ための周辺監視装置及び方法に関するものである。
【0002】
【従来の技術】例えば、高速道路などの片側2車線以上
の道路を走行中の自動車等の車両の運転者が、異なった
車線への移動、すなわち車線の変更を行おうとした場
合、その車両(自車両)が変更しようとする隣接車線
に、自車両よりも速いスピードにて走行中の別の車両
(周囲の他車両)が後側方から追い上げてきた場合など
に、前記別の車両の存在を見落としたまま、前記運転者
が車線の変更を行った場合、大事故につながる可能性が
極めて高い。
【0003】また、自車両と同一の車線を、後続して別
の車両が走行している場合などにも、後続の他の車両が
自車両よりも速いスピード(対地速度)にて急接近して
きたような場合には、自車両が急ブレーキをかけるなど
すると追突される危険性があり、この意味でも周囲の他
車両を確実に認識しておくことが望ましい。
【0004】さらには、運転者が居眠りをした場合など
で、自車両と同一の車線前方を他の車両が自車両よりも
遅いスピード走行していた場合など、前方の車両に追突
する危険性があり、やはり周囲の他車両を確実に認識し
ておくことが望ましい。
【0005】特に近年では、乗用車をはじめとして道路
上を走行する各種の車両は、その走行速度も加速度も共
に強化され、高性能化の傾向にあり、上述の車線の変更
や加減速等の際における車両の動きはさらに俊敏なもの
となり、その結果、自車両の周囲を走行中の別の車両
(周囲の他車両)の存在を、前記運転者が見落とすこと
に起因した、大事故に発展しかねない危険な状態や、実
際の大事故発生の確率がますます高まってきている。
【0006】運転者による自車両以外の別の車両(周囲
の他車両)の見落としを防ぐためには、先ず、運転者自
身が周囲に対してさらに注意を喚起することが必要であ
ることは言うまでもないが、一方で、人間の集中力や認
知能力は、前述のような車両性能の向上に対して追随可
能な限界値に達しつつあるのも事実であり、実際、その
ような限界値の領域における周囲の他車両の存在の見落
としなどに起因した事故が増加の傾向にある。
【0007】また、特に高速走行となるにしたがって、
人間の視覚的な認識能力は急激に低下することが一般的
に知られており、車両のさらなる高速走行への対応につ
れ、上述のような、車線変更時等に発生する周囲の他車
両の存在の見落としなどの問題等の、さらなる深刻化が
危惧されている。
【0008】したがって、上述のような大事故に発展し
かねない危険な状態や、実際の大事故の発生を未然に防
止するためには、単に運転者による周囲の別の車両への
注意の喚起を高めるだけでは不十分であり、自車両の周
囲を走行中の別の車両(周囲の他車両)の存在を自動的
に正確に且つ確実に認識し、その情報を運転者に明確に
伝達(通知)してやることにより、人間の有する有限な
認識力を補完してやる必要がある。
【0009】従来より、このような危険性の問題を解決
するための技術として、特開平6−107096号公報
及び特開平7−50769号公報に記載のものがある。
特開平6−107096号公報にはオプティカルフロー
の検出を応用した接近車両の検出,及び衝突警報システ
ムについての開示がなされており、特開平7−5076
9号公報にはオプティカルフローの検出を応用し、自車
両に対する後側方からの接近車両を検出し、自車両が進
路変更する際に他車両と衝突の危険が有る場合に警報を
発するシステムについて開示がなされている。
【0010】このような従来の車両用周辺監視装置につ
いて、その主要点を図20及び図21を参照して説明す
る。図20は、ビデオカメラ1によって得られる後側景
画像の変化を説明するための図であり、(b)は(a)
に示す自車両を含む状況においてビデオカメラ1が時間
tで撮像した画像、(c)は時間t+Δtで撮像した画
像をそれぞれ示す。
【0011】今、自車両は平坦な道を直進しているとす
ると、例えば後方に見える(a)に示される道路標識及
び建物に注目すると、時間の経過により時間t、時間t
+Δtにおいて、(b)、(c)に示されるような画像
が得られる。この2枚の画像において対応する点を捜し
それらを結ぶと(d)に示されるような速度ベクトルが
得られる。これがオプティカルフローである。また、後
続車両が接近する場合は図20(d)で示すオプティカ
ルフローのベクトルの方向は逆になる。
【0012】ここでこれらオプティカルフローは、画像
内のFOE(Focus of Expansion)とよばれる1点から
放射状に現れる。FOEとは、無限遠点又は消失点と呼
ばれ、車両が直進している場合画像上において自車両の
進行方向の正反対方向を示す1点に対応する。このよう
に、自車両が走行している場合に求められるオプティカ
ルフローは、FOEから放射状の方向である。ここで後
続または隣接車線を走行中の車両から発せられたオプテ
ィカルフローは、自車両に対する後続または隣接車両の
位置、相対速度からなる情報を含んでおり、オプティカ
ルフローが長く、かつその方向がFOEより発散する場
合は危険度が高いと考えられる。
【0013】次に、その詳細を図21を参照して説明す
る。同図の光学的配置おいて、11はビデオカメラのレ
ンズ、12はビデオカメラのイメージプレーン、fはレ
ンズ11からイメージプレーン12までの距離、P
(X,Y,Z)は後続車両上の任意の1点、p(x,
y)はイメージプレーン12上の点Pに対応する点とす
ると、3角形の相似の比から x=f・X/Z ……(1) となる。
【0014】この式を変形して、時間微分すると、 X’=(Δx/Δt・Z+x・Z’)/f ……(2) となる。また、オプティカルフローのx方向成分uとは u=Δx/Δt ……(3) であるので、これを用いて Z=(f・X’−x・Z’)/u ……(4) となる。
【0015】 ここで、上記Z’は後続車両ないし隣接車線を走行中の他車両と自車両との相 対速度であるから、これをZ’=−α ……(5) とすると、上式(5)は、 Z=(f・X’+xα)/u ……(6) となる。よってオプティカルフローのx方向成分(即ちΔx/Δt=u)は、 u=(f・X’+xα)/Z ……(7) となる。Yについても同様に求まる。
【0016】よって上式(7)より、Zが小、すなわち
後続車両又は隣接車線を走行中の車両までの距離が小で
ある程、又はαが大(相対速度が大)である程、オプテ
ィカルフローのx成分は大きくなる。これはY方向につ
いても同様である。
【0017】従って、オプティカルフローは後続車両な
どとの距離が小な程、また、相対速度が大な程長くな
り、これよりオプティカルフローの方向がFOEに対し
て発散し、その長さが短いときより長いときの方が相対
的に後続車両又は隣接車両に対する危険度が大きいと求
められる。
【0018】以上のような処理を、時間tの画像の全て
の点において繰り返し行うことにより、画像全体のオプ
ティカルフローを求めることができ、各対象物における
危険度が求められる。そして、求められた危険度の大き
さに従って警報を鳴らすこと等によって運転者に対し注
意を促し、これにより、人間の有する有限な認識力を補
完することができ、上述の大事故に発展しかねない危険
な状態や、実際の大事故の発生を未然に防止している。
【0019】また、従来の技術では、図22に示す如く
に、直線道路にて自車両が走行している車線の白線を検
出することで、自車両走行車線とその横の隣接車線領域
とを識別し、監視領域を決定することで監視不要なもの
についての処理時間を省いて処理の高速化を図ってい
る。そして、検出された白線の延長からFOE点を求
め、自車線領域及び隣接車線領域についてそれぞれ前記
FOE点から放射状にオプティカルフローを求めること
で自車両に対する接近車両102の検出を行っており、
このオプティカルフローの大きさに基づき認識を行うよ
う構成されているので、後方や隣接車線を走行している
他車両102に関し、その危険度を自動的に判断でき、
且つ、特別な距離計を必要としない利点があり有効であ
る。
【0020】オプティカルフローとは、3次元空間にお
けるカメラと対象物体との相対的な運動によって生じる
画像上での動きベクトルを表す。現在提案されているオ
プティカルフロー検出方法の中で、実用化に近いレベル
まで達しているものは、相関法と濃度勾配法である。
【0021】ところで、車両から撮像して得た動画像
は、非常に速い速度で接近してくる背景から発生するオ
プティカルフローと、さまざまな速度で接近したり遠ざ
かったりする前方車両から発生するオプティカルフロー
とが混在し、時間的に複雑に変化するという特徴があ
る。したがって、濃度勾配法において必要とされる、画
像の輝度変化が時間・空間的に滑らかであるという仮定
が成立しないため、正確なオプティカルフローを検出す
ることができないと考えられる。即ち、濃度勾配法は、
本発明が対象としているような動画像に関しては不向き
な方法であるといえる。
【0022】一方、相関法は、設定した窓の対応点を周
辺の領域全方向に関して探索し、相関値の計算を行う必
要があるため、計算量が膨大になってしまうという問題
点があるが、本発明が対象としているような複雑な画像
に関しても、比較的正確にオプティカルフローを求める
ことが可能であるという利点もある。
【0023】
【発明が解決しようとする課題】上述したように、一般
的な相関法においては、ある時刻t=Tの画像に関して
オプティカルフローを求める際には、時刻t=Tの画像
の全画素について、それぞれの画素が、時刻t=T−Δ
Tの画像において、どの画素に対応しているかを全方向
にわたって探索する必要があるため、計算量が膨大にな
ると同時に誤対応が生じるという問題点がある。即ち、
対応点探索の際に、全画素に関して全方向に探索してい
ることにより、計算量が膨大となり誤対応が多くなる原
因になっているといえる。
【0024】そこで、監視領域を設定することにより、
監視領域外の壁や先行車両を検出するという問題点は解
消されることになる。しかし、設定された監視領域内の
全画素に関して、対応点探索を行ったとしても、依然と
して、処理時間および検出精度の面で問題は残る。
【0025】一般に、対応点の探索は、特徴的なテクス
チャを持つ画素以外に関しては正しく行うことができな
い。例えば、時刻ΔTの時間差にて撮像された2枚の画
像間にて対応点探索を行う場合について考えてみると、
路面のアスファルトのように濃度分布の狭い一様なテク
スチャに対して対応点探索を行っても、道路上のあらゆ
る点が対応点の候補となり、計算量の増加と同時に誤対
応の原因となってしまう。したがって、対応点探索を正
しく行うためには、特徴的なテクスチャを持つ画素を抽
出する必要がある。
【0026】特徴的なテクスチャを持つ画素を抽出する
ことを考えた場合、最も簡単な方法としては、画像のエ
ッジを抽出するということが考えられる。しかし、前記
時刻ΔTの時間差にて撮像された画像についてエッジ抽
出を行った場合、オプティカルフローを検出すべきでは
ない路面上の文字(「止まれ」などのペイント文字等)
もエッジとして抽出されることになり、このような画素
に関しても対応点探索を行うことによって計算量が増加
する原因となる。
【0027】さらに、路面上にゼブラゾーンや速度規制
等の模様や文字等がペイントされていた場合、これらペ
イントからオプティカルフローが発生してしまう。本
来、接近車両からのオプティカルフローのみを抽出した
いのであるが、これら路面上のペイントからもオプティ
カルフローが発生してしまうことにより、路面上からの
オプティカルフローが接近車両からのものであると誤検
出されることになるという問題点があった。
【0028】本発明は、上記問題に鑑みてなされたもの
で、路面上のペイントなどの検出不要な物体を周辺の他
車両として誤検出してしまうことをないようにした周辺
監視装置及び方法を提供することを課題とするものであ
る。
【0029】
【課題を解決するための手段】上記課題を解決するため
なされた請求項1記載の発明は、図1の基本構成図から
明らかなように、自車両から前方、後方または後側方を
撮像手段21により撮像して一定時間毎に画像を得、該
画像に基づいて自車両の走行している自車線の白線を検
出すると共に、該検出した白線に基づいて監視領域設定
手段23−1により自車線領域又は隣接車線領域に監視
領域を設定し、該設定した監視領域内にある周辺の他車
両から発生するオプティカルフローをオプティカルフロ
ー検出手段23−2により検出し、該検出したオプティ
カルフローを用いて自車両と周辺の他車両との相対関係
を監視する周辺監視装置において、前記オプティカルフ
ロー検出手段23−2は、前記画像を、前記撮像手段の
所定の光学配置に基づいて、実空間における路面に平行
なxz平面に逆射影変換して路面画像を得、前記一定時
間と自車両の速度情報とから相前後する2つの前記画像
における自車両の移動距離を算出し、該算出した移動距
離分だけ前記路面画像を平行移動し、該平行移動した路
面画像を射影変換して当該画像より時間的に遅い方の画
像の推定画像を得、前記時間的に遅い方の画像と前記推
定画像との差分をとって特徴点の抽出を行い、該抽出し
た特徴点に関して対応点の探索を行って前記オプティカ
ルフローの検出を行うことを特徴とする周辺監視装置に
存する。
【0030】上記請求項1に記載の発明である周辺監視
装置においては、オプティカルフロー検出手段23−2
は、画像を、撮像手段の所定の光学配置に基づいて、実
空間における路面に平行なxz平面に逆射影変換して路
面画像を得、一定時間と自車両の速度情報とから相前後
する2つの画像における自車両の移動距離を算出し、算
出した移動距離分だけ路面画像を平行移動し、平行移動
後の路面画像を射影変換して当該画像より時間的に遅い
方の画像の推定画像を得、時間的に遅い方の画像と推定
画像との差分をとって特徴点の抽出を行い、抽出した特
徴点に関して対応点の探索を行ってオプティカルフロー
の検出を行うようにしている。よって、オプティカルフ
ローを検出すべきでない路面上の影や文字、汚れなどが
全て消去され、オプティカルフローを検出すべき対象物
だけが残して対応点探索を行うことができる。
【0031】請求項2記載の発明は、前記路面画像を射
影変換する前に、前記路面画像における自車両近傍の白
線の角度をそれぞれ算出し、それらの平均角度を求め、
前記xz座標の原点を中心として前記路面画像を前記平
均角度だけ回転させ、該回転した路面画像を射影変換す
ることを特徴とする請求項1記載の周辺監視装置に存す
る。
【0032】上記請求項2に記載の発明である周辺監視
装置においては、オプティカルフロー検出手段23−2
は、平行移動後の路面画像における自車両近傍の白線の
角度をそれぞれ算出し、それらの平均角度を求め、xz
座標の原点を中心として路面画像を平均角度だけ回転さ
せ、回転した路面画像を射影変換して当該画像より時間
的に遅い方の画像の推定画像を得るようにしている。よ
って、カーブ路を考慮した推定画面をを得ることがで
き、オプティカルフローを検出すべきでない路面上の影
や文字、汚れなどが全て消去され、自車両がカーブ路を
走行している場合であっても、オプティカルフローを検
出すべき対象物だけが残して対応点探索を行うことがで
きる。
【0033】請求項3記載の発明は、請求項1又は2記
載の周辺監視装置において、前記オプティカルフローの
大きさをli 、オプティカルフローの発生数をNとした
場合、前方または後側方視界における危険度Dを、 で示されるオプティカルフローの大きさの平均値lが、
予め設定した値以上になった場合に危険であると判断す
る危険度評価手段23−3をさらに備えることを特徴と
する周辺監視装置に存する。
【0034】上記請求項3記載の発明である周辺監視装
置においては、危険度評価手段23−3が、前方または
後側方視界における危険度を示すオプティカルフローの
大きさの平均値が予め設定した値以上になった場合に危
険であると判断するようにしている。よって、周囲の他
車両の種類や色、大きさ、さらには昼夜のように周囲の
明るさに依存するオプティカルフローの発生数に左右さ
れることなく、危険度の評価を行うことができる。
【0035】請求項4記載の発明は、請求項3記載の周
辺監視装置において、前記危険度評価手段がさらに、前
記オプティカルフローの発生数が予め設定した値以上に
なった場合に危険であると判断することを特徴とする周
辺監視装置に存する。
【0036】請求項4に記載の発明である周辺監視装置
においては、オプティカルフローの発生数Nが予め設定
した値以上になった場合に危険度評価手段が危険である
と判断するようにしている。よって、自車両と周囲の他
車両との相対速度がゼロで、オプティカルフローの大き
さがゼロであっても、自車両と前方車両との車間距離が
非常に近い場合には危険度が高くなり、周囲の他車両と
の車間距離が小さい場合には、車種や色、大きさに依ら
ずオプティカルフローの発生数Nが多くなることを利用
して危険であると判断することができる。
【0037】また、上記課題を解決するためなされた請
求項5記載の発明は、自車両から前方または後側方を撮
像手段により撮像して一定時間毎に画像を得、該画像に
基づいて自車両の走行している自車線の白線を検出する
と共に、該検出した白線に基づいて自車線領域やそれ以
外の領域に監視領域を設定し、該設定した監視領域内に
ある周辺の他車両から発生するオプティカルフローを検
出し、該検出したオプティカルフローを用いて自車両と
周辺の他車両との相対関係を監視する周辺監視方法にお
いて、前記画像を、前記撮像手段の所定の光学配置に基
づいて、実空間における路面に平行なxz平面に逆射影
変換して路面画像を得、前記一定時間と自車両の速度情
報とから相前後する2つの前記画像における自車両の移
動距離を算出し、該算出した移動距離分だけ前記路面画
像を平行移動し、該平行移動した路面画像を射影変換し
て当該画像より時間的に遅い方の画像の推定画像を得、
前記時間的に遅い方の画像と前記推定画像との差分をと
って特徴点の抽出を行い、該抽出した特徴点に関して対
応点の探索を行って前記オプティカルフローの検出を行
うことを特徴とする周辺監視方法に存する。
【0038】請求項5記載の発明である周辺監視方法に
おいては、画像を、撮像手段の所定の光学配置に基づい
て、実空間における路面に平行なxz平面に逆射影変換
して路面画像を得、一定時間と自車両の速度情報とから
相前後する2つの画像における自車両の移動距離を算出
し、算出した移動距離分だけ路面画像を平行移動し、平
行移動後の路面画像を射影変換して当該画像より時間的
に遅い方の画像の推定画像を得、時間的に遅い方の画像
と推定画像との差分をとって特徴点の抽出を行い、抽出
した特徴点に関して対応点の探索を行ってオプティカル
フローの検出を行うようにしている。よって、オプティ
カルフローを検出すべきでない路面上の影や文字、汚れ
などが全て消去され、オプティカルフローを検出すべき
対象物だけが残して対応点探索を行うことができる。
【0039】請求項6記載の発明は、請求項5記載の周
辺監視方法において、前記平行移動した路面画像を射影
変換する前に、前記路面画像における自車両近傍の白線
の角度をそれぞれ算出し、それらの平均角度を求め、前
記xz座標の原点を中心として前記路面画像を前記平均
角度だけ回転させ、該回転した路面画像を射影変換する
ことを特徴とする周辺監視方法に存する。
【0040】請求項7記載の発明である周辺監視方法に
おいては、平行移動後の路面画像における自車両近傍の
白線の角度をそれぞれ算出し、それらの平均角度を求
め、xz座標の原点を中心として路面画像を平均角度だ
け回転させ、回転した路面画像を射影変換して当該画像
より時間的に遅い方の画像の推定画像を得るようにして
いる。よって、カーブ路を考慮した推定画面をを得るこ
とができので、オプティカルフローを検出すべきでない
路面上の影や文字、汚れなどが全て消去され、自車両が
カーブ路を走行している場合であっても、オプティカル
フローを検出すべき対象物だけが残して対応点探索を行
うことができる。
【0041】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明を行う。図2は本発明の周辺監視
装置の構成を示したブロック図である。尚、以降、本発
明の実施の形態では、周辺監視装置が車両の前方を監視
する場合を例にして説明を行う。
【0042】図2において、21は前方景を撮像するビ
デオカメラ、22はビデオカメラ21によって得られた
画像を入力し、画像処理を行う画像処理装置、23は画
像処理装置22の画像処理結果から後述の各種演算処理
並びに危険度判定処理を行う演算処理装置、24は警報
装置、25はビデオカメラ21の移動速度である自車両
の速度を検出して演算処理装置23に通知する速度検出
装置である。
【0043】図3は本発明の周辺監視装置における動作
の概要を示したフローチャートである。本発明による周
辺監視装置は、図3のフローチャートに示す如くに、ま
ず高速道路等を走行した際に取得した、時間的に連続す
る2枚の画像(時刻t−Δtでの画像及び時刻tでの画
像)を計算機により構成された演算処理装置23内に取
り込む(ステップS1,S2)。次に、ある時刻tの画
像上において、自車両が走行している車線(以下、自車
線と呼ぶ)を示す白や黄色で描かれたレーンマーカ(以
下、単に白線と呼ぶ)を検出することにより、自車線領
域の推定を行う(ステップS3)。
【0044】そして、時刻tの画像とともに時刻t−Δ
tの画像を用いることにより、推定された自車線領域内
に存在する他車両から発生するオプティカルフローを検
出する(ステップS4)。その後に、検出されたオプテ
ィカルフローから車両前方における危険度を評価し(ス
テップS5)、危険であると判断された場合には、運転
者に対して警告を行うための警告信号を警報装置24に
対して出力する(ステップS6)というものである。
【0045】以上により、演算処理装置23は、監視領
域設定手段23−1としての他、オプティカルフロー検
出手段23−2及び危険度評価手段として働いている。
【0046】以降、本発明におけるそれぞれの処理に関
する詳細な説明を行う。 〔自車両前方の動画像の取得〕図3のステップS1及び
ステップS2にて、ビデオカメラ21,画像処理装置2
2を介して演算処理装置23内に取り込まれた、時間的
に連続する2枚の画像、即ち時間的に早い方の時刻t−
Δtでの画像及び時間的に遅い方の時刻tでの画像は、
図3のステップS3にて最初の画像処理である自車線領
域の推定が行われる。
【0047】本発明では、比較的急なカーブが多く存在
する高速道路等を走行している場合にも、正しく自車両
前方の監視を行うことができるように、まず自車線領域
の推定という処理を行うことにより、監視領域を決定す
る。従来の周辺監視装置では、対象を高速道路の中でも
直線道路あるいは緩やかなカーブ路としており、比較的
急なカーブを想定していない。そのため、直線道路や非
常に緩やかなカーブ路を想定し、あらかじめ監視領域を
設定してしまっているものや、自車両近傍の白線を直線
近似し、その2直線で囲まれる範囲を監視領域としてい
るものが多い。
【0048】このため、図22に示す如くの直線道路を
走行している時は問題ないが、図23に示す如くの、比
較的急なカーブ路を走行している時には、検出すべきで
はない壁や標識あるいは隣接車線を走行している車両が
監視領域に入ってしまう場合や、検出すべき自車線を走
行中の前方車両が監視領域内に入らないという場合が発
生する。
【0049】自車線領域の推定は、まず左右2本の白線
の検出を行い、検出された2本の白線で囲まれる範囲を
自車線の領域と判断し、これを監視領域とするのが一般
的な方法であり、従来の車両用周辺監視装置に多く用い
られている。
【0050】一般的に、白線は実空間上において遠くに
存在するほど、画像平面上においては小さく撮像される
ことになる。そのため、曲線当てはめを行うためにエッ
ジ情報を用いる場合、遠くに存在する白線ほど、白線の
エッジであるという信頼性は低くなる。すなわち、遠く
の白線に関しては、白線のエッジであるか、白線以外の
エッジであるかという区別が困難になり、エッジ抽出の
際のエラーが多くなると考えられる。そして、その後
に、エラーを含んだエッジに対して、ある1本の曲線を
当てはめることになり、遠くの白線のエラーによって近
くの白線に対してさえも正しく曲線を当てはめることが
できないというような問題点が生じることも考えられ
る。
【0051】このように、比較的急なカーブ路を含むあ
らゆる道路に対して、画像平面上においてある一本の曲
線を厳密に当てはめるということは非常に困難であると
思われる。そこで本発明では、処理の簡単化および必要
とされる精度などを考慮し、以下のような方法を用いる
ことにする。
【0052】〔自車線領域の推定〕以下、図4のフロー
チャートを参照しながら自車線領域の推定方法について
詳細に説明を行う。図4は本発明の周辺監視装置におけ
る自車線領域の推定方法の一例を示したフローチャート
である。
【0053】図4に示す如くに本発明の周辺監視装置に
おける自車線領域の推定方法は、画像上で路面が存在す
ると考えられる範囲を小領域への分割するステップS3
−1と、前の画像について分割された小領域毎に既に求
められている仮想FOEの座標を用い、白線を正確に検
出するため白線の候補となるエッジを抽出するステップ
S3−2と、このステップにて抽出された複数のエッジ
群の中から、最も白線らしいと思われるエッジ群に対
し、小領域毎に直線を当てはめ各小領域における直線を
決定するステップS3−3と、各小領域の左右2本の直
線を延長した交点を仮想FOEの座標として推定するス
テップS3−4の4つのステップからなる。
【0054】以上により、自車線領域推定手段23−1
を構成している演算処置装置23は、小領域分割手段、
エッジ抽出手段、白線決定手段、仮想FOE推定手段と
して働いている。
【0055】先ず、図4のステップS3−1の小領域へ
の分割について説明を行う。本発明のような運転支援シ
ステムを目的とした、道路画像における白線検出に関す
る数多くの出願がなされている。本発明では、路面上の
影や文字、汚れ、あるいは白線の隠れや途切れに対して
可能な限りロバストに、白線検出することを目的の1つ
としている。また、比較的急なカーブ路が多く存在する
高速道路なども対象としているために、直線道路だけで
なくカーブ路にも対応できるものとなっている。さら
に、運転支援システムといった性格上、処理の高速性が
非常に重要となるために、個々の処理はできるたで簡単
化する必要がある。
【0056】したがって、本発明では、図5(a)に示
すような原画像上で路面が存在すると考えられる範囲を
図5(b)に示すように5つの小領域に分割する(ステ
ップS3−1)。これは、それぞれの小領域毎に、存在
するエッジに対して、例えばHOUGH変換等を用いて
直線近似を行うことにより、前記各小領域における左右
2本の直線を検出し、そして、検出された2直線で囲ま
れる領域を自車線領域とすることにするためのものであ
る。ここで、それぞれの小領域を画像上で下から上、す
なわち実空間において自車両に近い方から遠い方に向か
って、小領域1,…,5と呼ぶ。尚、図5(b)では、
画像上で路面が存在すると考えられる範囲を5つの小領
域に分割したが、これに限定されるものではない。
【0057】次に、図4のステップS3−2のエッジ抽
出について説明を行う。このステップS3−2は、詳細
には後述するステップS3−4において推定した前の画
像について分割された小領域毎に既に求められている仮
想FOEの座標を用い、白線を正確に検出するため白線
の候補となるエッジを抽出するためのものである。ここ
で、仮想FOE1,…,5の位置は、連続する2枚の画
像の時間間隔が微小の場合には、2枚の画像間で大きく
移動することはない。本発明では、この特徴を用いるこ
とにより、路面上の影や文字、汚れ、あるいは白線の隠
れや途切れに対してロバストに、自車線を示す左右2本
の白線検出を行うが、この特徴を理解し易くするため、
ステップS3−4における仮想FOEの推定を先に説明
する。
【0058】本発明で扱うような車両前方の動画像にお
いて、直線道路を走行している場合を想定すると、図6
で示すように、実空間上において、カメラに対して相対
的に接近してくる全ての物体は、画像平面上においては
画像上の固定されたある1点から放射状に広がる方向に
移動し、カメラに対して相対的に遠ざかる全ての物体
は、同様の点に向かって収束する方向に移動すると考え
られる。そして、その画像上のある1点はFOE(Focu
s Of Expansion)と呼ばれている。図6は直線道路走行
時におけるFOEを示した図である。
【0059】しかし、本発明が対象とするような急なカ
ーブ路を走行している場合には、厳密な意味でのFOE
は存在しない。したがって、本発明では、図7で示され
るように、各小領域1,…,5における左右2本の直線
を延長した交点をそれぞれ仮想FOE1,…,5とする
(ステップS3−4)。図7は各小領域毎の仮想FOE
を示した図である。
【0060】一般的に、直線道路を走行している場合に
は、FOEは動画像上で移動することはない。これに対
して、本発明で定義した仮想FOEは動画像上で移動す
るが、連続する2枚の画像の時間間隔が微小の場合に
は、2枚の画像間における仮想FOEの移動量は微小で
あるという特徴がある。本発明では、この特徴を用いる
ことにより、路面上の影や文字、汚れ、あるいは白線の
隠れや途切れに対してロバストに、自車線を示す左右2
本の白線を検出している(後述)。
【0061】また、上述のように直線道路を走行してい
る場合には、実空間上において、カメラに対して相対的
に接近してくる全ての物体は、動画像上ではFOEから
放射状に広がる方向に移動し、カメラに対して相対的に
遠ざかる全ての物体は、FOEに向かって収束する方向
に移動する。これに対して、カーブを走行している場合
には、厳密な意味でのFOEは存在しないが、各小領域
1,…,5に存在する物体は、動画像上でそれぞれ仮想
FOE1,…,5を中心とした放射状の方向に移動する
と考えられる。本発明では、この特徴を用いることによ
り、カーブ路を走行している場合にも高速かつ精度良く
オプティカルフローを検出している(後述)。
【0062】上述した仮想FOEの座標を用い、ステッ
プS3−1において分割した各小領域ごとに自車線を示
す左右2本の白線を正確に検出するため白線の候補とな
るエッジを抽出するステップS3−2の説明に戻る。
【0063】常に、路面の輝度は低くしかも一様であ
り、白線は路面と比較して輝度が十分に高い、というよ
うな理想的な画像であれば、白線を検出することは容易
である。しかし、実際の道路画像では、上述のように路
面上に影や文字、汚れがあったり、白線が他車両などに
よって隠れていたり途切れていたりすることが多い。エ
ッジを抽出する段階で、それら白線以外のエッジを全て
除去し、白線のエッジだけを正しく選び出すことができ
れば良いのだが、実際の画像でそれを行うのは非常に困
難である。
【0064】したがって、本発明では、エッジ抽出の段
階で、それが白線のエッジであるか、それ以外のエッジ
であるかを完全に判断してしまうのではなく、この段階
では白線らしいと思われるエッジ群を候補として幾つか
抽出しておき、その後に、抽出された候補の中から最も
白線らしいと思われる組み合わせを選び出すことにす
る。
【0065】ここでは、白線らしいと思われる複数のエ
ッジ群を抽出する方法について述べる。実際は、5つの
小領域全てに関して同様の処理を行うのであるが、ここ
では簡単のために小領域3に関してのみ説明する。
【0066】ある時刻t=Tにおける画像に関してエッ
ジ抽出を行う場合には、図8(a)に示す如くに、時間
的に接近している前画像を画像処理することで既に決定
している仮想FOE3の座標を中心として、図8(b)
に示すように、ある微小な角度を持った扇型の領域を少
しずつ回転させていき、それぞれの領域ごとにエッジ抽
出を行っていき、領域内のエッジ数があるしきい値以上
の場合に、これらを白線候補のエッジ群とする。図8
(b)はエッジ抽出の方法を示した図である。
【0067】ところで、既述したように、時間間隔が微
小の場合、仮想FOEの位置は大きく変化することはな
い。したがって、このような処理を行うことにより、実
際の白線が存在する方向とは大きく異なる方向を持った
エッジはノイズとして完全に除去されることになる。そ
して、同時に、実際の白線が存在する方向と同様の方向
を持つエッジが仮にあったとしても、図8(b)に示す
如くに、白線のエッジとそれ以外のエッジとは分離する
ことが可能となる。このようにして、白線らしいと思わ
れる複数のエッジ群が抽出される(ステップS3−
2)。
【0068】次に、図4のステップS3−3の各小領域
における直線の決定について説明を行う。前記ステップ
3−2で抽出された複数のエッジ群の中から、最も白線
らしいと思われるエッジ群に対して直線を当てはめるこ
とにより、自車線を示す左右2本の白線を検出する。そ
の際、まず、図9で示す如くに、複数のエッジ群に対し
てHOUGH変換等を用いて直線近似を行う。そして、
得られた複数の直線の中から、最も白線らしいと思われ
るものを2本選び出すわけであるが、その際に、本発明
では以下に示す2つの条件を用いることにする。尚、図
9はHOUGH変換による直線近似の一例を示した図で
ある。
【0069】(1)逐次処理による白線の連結性 本発明では、画像上で路面が存在すると考えられる範囲
を5つの小領域に分割し、それぞれの領域ごとに自車線
を示す左右2本の直線の検出を行っている。この時、正
しく直線が検出されていると仮定すれば、図5に示した
如くに、隣接する2つの領域における左右の直線はそれ
ぞれ連結していると考えられる。
【0070】本発明では、白線であると思われる直線を
決定する際に、このような小領域間の白線の連結性とい
う特徴を用いることにする。その際、一般的に、実空間
上で遠くに存在する白線ほど、画像平面上においては小
さく撮像される、という特徴も同時に考慮することにす
る。これは、即ち遠くにいけばいくほど、前記ステップ
S3−2で述べたような処理を行っているにも関わら
ず、エッジ抽出の段階で白線のエッジとともに白線以外
のエッジを抽出してしまっている可能性が高いというこ
とである。したがって、抽出されたエッジ群、さらには
そのエッジ群に対してHOUGH変換を行うことによっ
て近似された直線は、小領域1,…,5というように、
自車両から遠い領域ほど、白線としての信頼性は低いと
いうことが言える。
【0071】そこで、本発明では、白線らしい直線を選
び出す際に、小領域1,…,5の順に逐次的に直線を決
定するようにする。例えば、小領域1,2における左右
の2直線が、図10の実線で示される如くの直線である
と既に決定されている場合には、小領域間における左右
それぞれの直線の連結性から、小領域3では図10の点
線で示す直線は除去し、太線で示される2本の直線を白
線らしいと判断するというものである。尚、図10は逐
次処理による白線の連結性を示した図である。
【0072】(2)仮想FOEの座標および角度θの時
間的連続性 本ステップでは、HOUGH変換により近似された複数
の直線の中から、最も白線らしいと思われる左右2本の
直線を選び出すわけであるが、その際に、左右それぞれ
の直線を1本ずつ独立したものとして決定するよりも、
左右2本の直線を1つの組み合わせとして決定した方が
良い場合が多いと考えられる。そこで、2つ目の条件と
しては、以下のような特徴を用いる。
【0073】上述のように、本発明で定義した仮想FO
Eの位置は時間間隔が微小な場合において大きく移動す
ることはないので、図11に示す如くに、複数の直線の
中から全ての組み合わせに関して、左右の2直線を延長
した交点の座標(x1 ,y1),(x2,y2 ),
(x3 ,y3 )を算出し、時間的に接近している前画像
における仮想FOE3の座標(x,y)との差を算出す
る。
【0074】また、同時に、図11で示すように、複数
の直線の中から全ての組み合わせに関して、左右の2直
線のなす角度θ1 ,θ2 ,θ3 を算出し、時間的に接近
している前画像において既に決定された左右2直線のな
す角度θとの差も算出する。
【0075】以上で求めた、仮想FOEの座標の差およ
び2直線のなす角度の差の2つの値から、最も白線らし
い左右の2本の直線を1つの組み合わせとして決定する
というものである。図11は仮想FOEの座標および角
度θの時間的連続性を示した図である。
【0076】このように、本発明では、以上のような2
つの条件を用い、それぞれの小領域ごとに、自車線を示
す左右2本の直線を決定する(ステップS3−3)。そ
して、全ての小領域1,…,5において求まった左右2
直線で囲まれる範囲より、自車線領域の推定がなされる
(図3のステップS3)。
【0077】ところで、この時、求まった2直線そのも
のを用いて自車線領域とすると、実空間上で前方車両は
高さを持っているため、前方車両の上部が自車線領域外
になってしまう。したがって、図12で示す如くに、求
まった2直線よりもある幅Wだけ外側に広げた範囲を自
車線領域と設定する。図12は道路上における自車線領
域を示した図である。以上のようにして自車線領域の推
定がなされる(完了する)。
【0078】上述のようにステップS3−3において各
小領域1,…,5における左右2本の直線が決定したら
次にステップS3−4に進み、上述したようにを延長し
た交点をそれぞれ仮想FOE1,…,5とする。
【0079】尚、既に決定された仮想FOEが存在しな
いとき、すなわち、相前後する画像の最初の画像につい
ての処理の際には、既知の方法によってエッジ検出し、
この検出したエッジについて処理を行って白線を決定
し、この決定した白線に基づいて各小領域毎に仮想FO
Eを決定する処理が必要になる。ただし、1度このよう
に仮想FOEを決定した後は上述したように仮想FOE
を用い、白線の候補となるエッジ検出を簡単にかつ正確
に行うことができるようになる。
【0080】〔オプティカルフローの検出〕次に、図3
のステップS4におけるオプティカルフローの検出につ
いて、図13を参照しながら説明を行う。尚、図13は
本発明の周辺監視装置におけるオプティカルフローの検
出方法の一例を示したフローチャートである。
【0081】図13に示す如くに本発明の周辺監視装置
におけるオプティカルフローの検出方法は、対応点検索
を行う画素、即ちオプティカルフローの検出を行う画素
をできるだけ少なくするための処理である特徴点の抽出
を行うステップと、対応点検索を行う方向をできるだけ
少なくするための処理である対応点検索の方向の限定を
行うステップからなる。
【0082】したがって、本発明では、まず対応点探索
を行う画素、すなわちオプティカルフローの検出を行う
画素をできるだけ少なくすることを考える。この時、対
応点探索を行う画素数をただ単に少なくするのではな
く、オプティカルフローを検出すべき周辺の他車両だけ
に関して対応点探索を行い、検出すべきでない自車線外
に存在する壁、あるいは路面上の影や文字、汚れに関し
ては、事前に可能な限り除去し、そのような画素につい
ては対応点探索を行わないことにする(図13の特徴点
の抽出を行うステップS4−1)。
【0083】さらに、対応点探索を行う際に、全方向に
関して探索するのではなく、検出すべき周囲の他車両が
移動すると思われる方向に関してだけ探索し、明らかに
移動しないと思われる不必要な方向に関しては探索を行
わないことにする(図13の対応点検索方向の限定を行
うステップS4−2)。
【0084】本発明では、オプティカルフローを検出す
る際に、以上の2つの処理(ステップ)を行うことによ
り、計算量が膨大であると同時に、誤対応が多いとい
う、相関法の問題点を解決することが可能となる。
【0085】以下、本発明の周辺監視装置におけるオプ
ティカルフローの検出を行うにあたり、先ず、図13の
ステップS4−1の特徴点の抽出について説明を行う。
【0086】このステップS4−1では、画像上から、
オプティカルフローを検出すべきでない画素を可能な限
り除去し、検出すべき前方車両を構成する画素だけを抽
出する処理を行う(抽出する処理について詳しく述べ
る)。
【0087】前記図3のステップS3にて推定された自
車線領域に基づいて、図12に示すように、オプティカ
ルフローの検出を行う監視領域を設定することにより、
カーブ路を走行している際に、自車線外の壁や先行車両
を検出するという問題点は解消されることになる。
【0088】また、本発明では、画像上の特徴的なテク
スチャを持つ画素の中で、影や文字、汚れなどの検出す
べきではない路面上の静止物体を除去した結果、残った
画素を特徴点と呼ぶことにし、この特徴点を抽出するこ
とにより、この後に行う対応点探索の際の計算量を減ら
している。
【0089】処理の詳細について以下に述べる。ある時
刻t=Tの画像における特徴点抽出する際には、図14
で示すような処理を行う。まず、前フレーム(t=T−
ΔT)の画像(a)を、図15のような光学配置に基づ
いて、次式(8),(9)を用いて実空間における路面
に平行なxz平面に逆射影変換することによって(b)
のような路面画像を作成する。 x=h×(−f sinθ+u cosθ) /(v cosφ−f sinφ cosθ−u sinφ sinθ) ……(8) z=h×(f cosφ cosθ+u cosφ sinθ+v sinφ) /(v cosφ−f sinφ cosθ−u sinφ sinθ) ……(9)
【0090】そして、速度検出装置25にて検出記録さ
れた自車両の速度情報と、連続する2枚の画像の時間間
隔ΔTとを用いて、フレーム間における自車両の移動距
離を算出し、その移動距離分だけ、(b)の路面画像を
(c)のように平行移動する。
【0091】ここで、急なカーブ路を走行している場合
に、実空間において上から見た場合、すなわちxz平面
の概念図を図16に示す。自車両が図16(a),
(b),(c)のような、それぞれの位置に存在する時
に、撮像される路面部分は、図の正方形で囲まれる範囲
であるとする。そして、ある時刻t=T−ΔTにおい
て、図16(a)のような路面が撮像されているとす
る。これに対して、図14(c)で示したように、自車
両の移動距離分だけ平行移動することによって、図16
(b)で示されるような路面部分が撮像されている状態
を推定したことになる。しかし、実際にカーブ路を走行
している場合を考えると、運転者は常に車両を直進させ
ているわけではなく、走行しているカーブ路の曲率に合
わせて小刻みにハンドル操作をしている。したがって、
時刻t=Tにおいて、実際に撮像される路面部分は図1
6(c)のようになると考えられる。
【0092】したがって、本発明では、図14(d)で
示すように、平行移動した後の路面画像における自車両
近傍白線のz軸に対してなす角度θL 、θR を算出す
る。そして、それらの平均値θ′を求め、xz座標の原
点を中心として画像を回転させることにより、図14
(e)のような画像を作成する。
【0093】その後に、この画像に対して射影変換を行
うことにより、図14(f)で示すような推定画像が得
られる。この推定画像は、時刻t=T−ΔTにおける原
画像を逆射影変換した後に、自車両の移動距離分だけ平
行移動しているために、路面と同じ高さに存在し、かつ
静止している物体だけが正しく推定されていることにな
る。したがって、路面の影や文字、汚れなど、オプティ
カルフローを検出すべきでない物体は正しく推定され、
オプティカルフローを検出すべき周囲の他車両は高さを
持っているため、誤って推定されていることになる。さ
らに、回転処理を行っているため、本発明が対象として
いるような急なカーブ路を走行している場合にも、推定
は正しく行われる。
【0094】したがって、図14(g)のように、時刻
t=Tにおける原画像と、時刻t=T−ΔTの原画像か
ら次フレーム(t=T)を推定した推定画像との差分を
とると、図14(h)のように、オプティカルフローを
検出すべきでない、路面上の影や文字、汚れなどは全て
消去され、オプティカルフローを検出すべき周囲の他車
両だけが残ることになる。そして、図14(i)のよう
に、この差分画像のエッジを抽出したものを特徴点画像
とする(ステップS4−1)。
【0095】そして、以上のような処理によって抽出さ
れた特徴点に関してだけ、対応点探索を行うことにす
る。これにより、自車線を走行している周囲の他車両な
どの、検出すべき物体に関してだけ対応点探索を行うこ
とが可能となり、全画素に関して対応点探索を行う一般
的な発明と比較して、大幅に計算量が減少されると同時
に、誤対応を少なくすることができる。
【0096】次に、図13のステップS4−2の対応点
探索方向の限定について説明を行う。前記ステップS4
−1にて、特徴点を抽出することにより、対応点探索を
行う画素数は大幅に減少し、処理時間および検出精度と
いう問題点は、ある程度解消される。しかし、それでも
対応点を全方向にわたって探索すると、計算量が増加す
ると同時に、誤対応が多くなる。
【0097】したがって、検出すべき前方車両が移動す
ると思われる方向に関してだけ対応点の探索を行い、明
らかに移動しないと思われる不必要な方向に関しては探
索を行わないことにする。
【0098】直線道路を走行している場合、図17で示
すように、実空間上において、カメラに対して相対的に
接近してくる物体に関しては、画像平面上においてはF
OEから放射状に広がる方向にオプティカルフローが発
生し、カメラに対して相対的に遠ざかる物体に関して
は、FOEに向かって収束する方向にオプティカルフロ
ーが発生する。したがって、対応点探索をFOEを中心
とした放射状の方向に限定することが可能である。図1
7は直線走行時のオプティカルフローの発生方向を示し
た図である。
【0099】しかし、本発明が対象とするような急なカ
ーブ路を走行している場合には、厳密な意味でのFOE
は存在しない。ここで、カーブ路を走行している場合を
想定する。例えば、非常に遠くに存在する前方車両が接
近してくる時に、発生するオプティカルフローの方向
は、図18(a)で示すような方向になる。また、比較
的遠くに存在する前方車両が接近してくる時に、発生す
るオプティカルフローの方向は、図18(b)で示すよ
うな方向になる。そして、非常に近い位置に存在する前
方車両が接近してくる時に、発生するオプティカルフロ
ーの方向は、図18(c)で示すような方向になる。す
なわち、カーブ路を走行している場合には、直線を走行
している場合のようなFOEは存在せず、オプティカル
フローは画像上のある1点から発生するわけではないと
いうことがわかる。
【0100】したがって、本発明では、図4のステップ
S3−4で定義(推定)した仮想FOEを用いることに
する。仮想FOE1,…,5の位置は、図7で示される
ように、各小領域1,…,5における左右2本の直線を
延長した交点である。尚、図18はカーブ走行時のオプ
ティカルフローの発生方向を示した図である。
【0101】一般に、実空間上において、運転者は自車
線を示す左右2本の直線に対して、自車両が常に平行で
ある状態を保つようにハンドル操作を行っている。した
がって、画像平面上では、各小領域内に存在する物体
は、その領域における左右2本の直線の交点、すなわち
各仮想FOEを中心とした放射状の方向に移動すると考
えられる。そこで、本発明では、各小領域1,…,5に
存在する特徴点に関しては、対応点の探索を、それぞれ
各仮想FOE1,…,5を中心とした、放射状の方向に
限定することにする。すなわち、図19で示すように、
小領域4に特徴点が存在する場合には、仮想FOE4を
中心とした、放射状の方向に関してだけ対応点探索を行
う(ステップS4−2)。図19は対応点検索方向を示
した図である。
【0102】このような処理を行うことにより、カーブ
路を走行している場合にも、高速かつ精度良くオプティ
カルフローを検出することが可能になると考えられる。
以上のようにしてオプティカルフローの検出がなされる
(完了する)。尚、実際のオプティカルフロー成分の検
出は、従来と同様の方法にて、即ち、従来の車両用周辺
監視装置の説明における式(7)等を用いることにより
求める。
【0103】〔危険度の評価〕次に、図3のステップS
5における危険度の評価について説明を行う。以上の各
処理(ステップ)によって検出されたオプティカルフロ
ーから、運転者に警告を与えるための危険度の評価を行
う必要がある。高速道路を走行している際に、一般的に
危険であるかないかという評価の基準は、 (1)自車両と前方車両との車間距離が短ければ短いほ
ど危険 (2)自車両と前方車両との相対速度が大きければ大き
いほど危険 である、というものである。
【0104】ここで、オプティカルフローの大きさは、
もともと実空間上において対象物体がカメラに近ければ
近いほど大きく、相対速度が大きければ大きいほど大き
くなるという性質を持っている。したがって、個々のオ
プティカルフローの大きさをli 、オプティカルフロー
の発生数をNとした場合、前方視界における危険度D
を、 のように、監視領域内のオプティカルフローを単純に足
し込むことによって上述の評価基準を満たす危険度の評
価値を算出することができる。
【0105】しかし、この方法を用いた場合、オプティ
カルフローの大きさを全て足し込んでいるために、発生
するオプティカルフローの数Nに大きく依存している。
ここで、このNは前方を走行している車両の種類や色、
大きさによってかなり変化してしまう。また、夜間に走
行している場合やトンネルを走行している場合などは、
昼間と比較してオプティカルフローの発生数Nはかなり
少なくなってしまう。したがって、本発明では、危険度
Dをオプティカルフローの大きさの総和Lではなく、 で示されるオプティカルフローの大きさの平均値lを危
険度の評価に用いることにする。
【0106】しかし、ここでオプティカルフローの検出
を用いたことによるもう一つの問題点が考えられる。こ
れは、オプティカルフローの大きさの総和L、平均値l
のどちらを用いた場合にも、共通した問題である。即
ち、前記時間的に連続する2枚の画像間で、前方車両が
全く移動しない場合、つまり、自車両と前方車両との相
対速度がゼロの場合には、オプティカルフローの大きさ
はゼロとなってしまうため、総和L、平均値lはどちら
もゼロになってしまう。
【0107】これは、例えば、前記ステップS4−1に
より求まった各特徴点について、ステップS4−2にて
対応点検索を行いオプティカルフローを求めた結果、オ
プティカルフローの大きさゼロの位置で最も相関の高い
特徴点が見つかった場合、即ち特徴点が移動せず同じ位
置に存在し、よって大きさゼロのオプティカルフローを
抽出した場合であって、自車両の近くを相対速度ゼロ
(自車両と等速度)にて走行している他車両の特徴点か
らは大きさゼロのオプティカルフローが抽出されるため
である。
【0108】ところが、自車両と前方車両(他車両)と
の相対速度がゼロであっても、自車両と前方車両との車
間距離が非常に近い場合には、常識的には危険な状態で
あると判断される。
【0109】したがって、このような状況にも危険であ
ると評価できるように、本発明では以下に示す値(危険
度の評価値)をも同時に用いることにする。ここで、車
間距離が大きい場合には、上述のオプティカルフローの
大きさの平均値により危険であるかないかを判断するこ
とが可能であので、この場合には、相対速度がゼロであ
って、且つ危険であるほど車間距離が非常に近い場合だ
けに関して危険であるかどうか否かを判断すれば良い。
【0110】そこで、本発明における前記もう一つの危
険度の評価値として、オプティカルフローの発生数を用
いることにする。上述したように、オプティカルフロー
の発生数は、前方車両の種類や色、大きさ、さらには昼
夜やトンネルなど走行している時刻や環境などによって
も変化してしまうという問題がある。
【0111】しかし、これは通常の状況下では問題とな
るが、ここで重要なのは相対速度がゼロであって、且つ
危険であるほどに車間距離が非常に近い場合についてで
ある。それほど、前方車両との車間距離が小さい場合に
は、車種や色、大きさに依らずオプティカルフローの発
生数は多くなると考えられる。また、夜間に走行してい
る場合やトンネルを走行している時も、前方車両が遠く
にいる場合は、非常に暗いためにオプティカルフローの
発生数は少なくなるが、前方車両が非常に近くにいる場
合には、自車両のヘッドライトによって前方車両の後部
が照らされるためオプティカルフローの発生数は多く
(危険度が高く)なる。
【0112】したがって、本発明では、通常の状況にお
いてはオプティカルフローの大きさの平均値lを用い、
その欠点を補う意味で、前方車両との車間距離が非常に
近い場合に関しては、大きさゼロのものを含むオプティ
カルフローの発生数Nを用いることにする。2つの値
l,Nのどちらかでも、それぞれの予め設定したしきい
値以上になった場合に危険であると判断することにする
(ステップS5)。
【0113】尚、Nに基づく危険度の判断は、最も自車
両に近い前記小領域より得られるオプティカルフローの
発生数のみに基づいて行うようにしても良い。
【0114】〔運転者への警告〕最後に、図3のステッ
プS6における運転者への警告について説明を行う。運
転者に対する警告は、前記ステップS5の処理による危
険度の評価内容に基づいて行われる。本発明の周辺監視
装置の演算処理装置23は、前記ステップS5によって
求められた危険度の大きさに従って、警報装置24を制
御し、警報を鳴らすこと等によって運転者に対し注意を
促すことができる。これにより、人間の有する有限な認
識力を補完し、上述の大事故に発展しかねない危険な状
態や、実際の大事故の発生を未然に防止することができ
る。
【0115】尚、以上の説明において、自車両前方の監
視領域を自車両走行領域(車線)として説明したが、
(走行)車線が複数存在する場合等には、自車線とそれ
以外の領域、または前記監視領域を自車両走行領域(車
線)以外の領域(車線)に広げることにより、前方,後
方及び後側方における各領域(車線)を走行する他車両
の監視を行うことが可能である。
【0116】また、本実施の形態では車両前方の監視に
ついて説明を行ったが、後方及び後側方を監視する場合
においても適用可能であることは言うまでもない。これ
により、例えば、高速道路などの片側2車線以上のカー
ブ路を走行中の自動車等の車両の運転者が、異なった車
線への移動(車線の変更)を行おうとした場合、その車
両(自車両)が変更しようとする隣接車線に、自車両よ
りも速いスピードにて走行中の別の車両(周囲の他車
両)が後側方から追い上げてきた場合などに、前記別の
車両の存在を見落としたまま、前記運転者が車線の変更
を行うことで発生しうる大事故を未然に防止することが
できる。
【0117】さらに、前記図3のステップS5の処理に
おける危険度の評価は、特定の前記各小領域について行
うようにしても良い。また、前記各小領域毎の危険度
を、各小領域毎に、図示しない警告(通知)手段に供給
することで運転者に知らせるようにしても良い。また、
当然の如く、前記図3における各ステップの処理は、演
算処理装置23によって行われるものである。
【0118】
【発明の効果】以上説明したように、上記請求項1記載
の発明によれば、画像を、撮像手段の所定の光学配置に
基づいて、実空間における路面に平行なxz平面に逆射
影変換して路面画像を得、一定時間と自車両の速度情報
とから相前後する2つの画像における自車両の移動距離
を算出し、算出した移動距離分だけ路面画像を平行移動
し、平行移動後の路面画像を射影変換して当該画像より
時間的に遅い方の画像の推定画像を得、時間的に遅い方
の画像と推定画像との差分をとって特徴点の抽出を行
い、抽出した特徴点に関して対応点の探索を行ってオプ
ティカルフローの検出を行うようにしているので、オプ
ティカルフローを検出すべきでない路面上の影や文字、
汚れなどが全て消去され、オプティカルフローを検出す
べき対象物だけが残して対応点探索を行うことができ、
オプティカルフローを検出する際の計算量を大幅に減少
すると同時に、誤対応も少なくなって、より高速にかつ
正確にオプティカルフローを検出できる周辺監視装置が
得られる。
【0119】請求項2記載の発明によれば、平行移動後
の路面画像における自車両近傍の白線の角度をそれぞれ
算出し、それらの平均角度を求め、xz座標の原点を中
心として路面画像を平均角度だけ回転させ、回転した路
面画像を射影変換して当該画像より時間的に遅い方の画
像の推定画像を得るようにしているので、カーブ路を考
慮した推定画面をを得ることができので、オプティカル
フローを検出すべきでない路面上の影や文字、汚れなど
が全て消去され、自車両がカーブ路を走行している場合
であっても、オプティカルフローを検出すべき対象物だ
けが残して対応点探索を行うことができる周辺監視装置
が得られる。
【0120】請求項3記載の発明によれば、前方または
後側方視界における危険度を示すオプティカルフローの
大きさの平均値が予め設定した値以上になった場合に危
険であると判断するようにしているので、周囲の他車両
の種類や色、大きさ、さらには昼夜やトンネルなど走行
している時刻や環境などによってオプティカルフローの
数が大きく変化することに伴う、危険度の検出誤差を大
幅に低減することができる周辺監視装置が得られる。
【0121】請求項4記載の発明によれば、オプティカ
ルフローの発生数Nが予め設定した値以上になった場合
に危険度評価手段が危険であると判断するようにしてい
るので、自車両と周囲の他車両との相対速度がゼロで、
オプティカルフローの大きさがゼロであっても、自車両
と前方車両との車間距離が非常に近い場合には危険度が
高くなり、周囲の他車両との車間距離が小さい場合に
は、車種や色、大きさに依らずオプティカルフローの発
生数が多くなることを利用して危険であると判断するこ
とができ、運転者の安全を確保することができる周辺監
視装置が得られる。
【0122】請求項5記載の発明によれば、画像を、撮
像手段の所定の光学配置に基づいて、実空間における路
面に平行なxz平面に逆射影変換して路面画像を得、一
定時間と自車両の速度情報とから相前後する2つの画像
における自車両の移動距離を算出し、算出した移動距離
分だけ路面画像を平行移動し、平行移動後の路面画像を
射影変換して当該画像より時間的に遅い方の画像の推定
画像を得、時間的に遅い方の画像と推定画像との差分を
とって特徴点の抽出を行い、抽出した特徴点に関して対
応点の探索を行ってオプティカルフローの検出を行うよ
うにしているので、オプティカルフローを検出すべきで
ない路面上の影や文字、汚れなどが全て消去され、オプ
ティカルフローを検出すべき対象物だけが残して対応点
探索を行うことができ、オプティカルフローを検出する
際の計算量を大幅に減少すると同時に、誤対応も少なく
なって、より高速にかつ正確にオプティカルフローを検
出できる周辺監視方法が得られる。
【0123】請求項6記載の発明によれば、平行移動後
の路面画像における自車両近傍の白線の角度をそれぞれ
算出し、それらの平均角度を求め、xz座標の原点を中
心として路面画像を平均角度だけ回転させ、回転した路
面画像を射影変換して当該画像より時間的に遅い方の画
像の推定画像を得るようにしているので、カーブ路を考
慮した推定画面をを得ることができ、オプティカルフロ
ーを検出すべきでない路面上の影や文字、汚れなどが全
て消去され、自車両がカーブ路を走行している場合であ
っても、オプティカルフローを検出すべき対象物だけが
残して対応点探索を行うことができる周辺監視方法が得
られる。
【図面の簡単な説明】
【図1】本発明の周辺監視装置の基本構成図である。
【図2】本発明の周辺監視装置の構成を示したブロック
図である。
【図3】本発明の周辺監視装置における動作の概要を示
したフローチャートである。
【図4】本発明の周辺監視装置における自車線領域の推
定方法の一例を示したフローチャートである。
【図5】原画像を5つの小領域に分割したところを示し
た図である。
【図6】直線道路走行時におけるFOEを示した図であ
る。
【図7】各小領域毎の仮想FOEを示した図である。
【図8】エッジ抽出の方法を示した図である。
【図9】HOUGH変換による直線近似の一例を示した
図である。
【図10】逐次処理による白線の連結性を示した図であ
る。
【図11】仮想FOEの座標および角度θの時間的連続
性を示した図である。
【図12】道路上における自車線領域を示した図であ
る。
【図13】本発明の周辺監視装置におけるオプティカル
フローの検出方法の一例を示したフローチャートであ
る。
【図14】特徴点抽出の方法を説明するための図であ
る。
【図15】光学配置を示す図である。
【図16】カーブ走行時における状態を示した概念図で
ある。
【図17】直線走行時のオプティカルフローの発生方向
を示した図である。
【図18】カーブ走行時のオプティカルフローの発生方
向を示した図である。
【図19】対応点検索方向を示した図である。
【図20】ビデオカメラ1によって得られる後側景画像
の変化を説明するための図である。
【図21】障害物等の検出の方法を説明するための図で
ある。
【図22】直線路におけるFOEの位置を示した図であ
る。
【符号の説明】
21 撮像手段(ビデオカメラ) 23−1 監視領域設定手段(演算処理装
置) 23−2 オプティカルフロー検出手段(演
算処理装置) 23−3 危険度評価手段(演算処理装置)
フロントページの続き (56)参考文献 特開 平4−163249(JP,A) 特開 平6−282655(JP,A) 特開 平7−262375(JP,A) 特開 平8−94320(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 B60R 21/00 G08G 1/16 G01B 11/00

Claims (6)

    (57)【特許請求の範囲】
  1. 【請求項1】 自車両から前方、後方又は後側方を撮像
    手段により撮像して一定時間毎に画像を得、該画像に基
    づいて自車両の走行している自車線の白線を検出すると
    共に、該検出した白線に基づいて監視領域設定手段によ
    り自車線領域又は隣接車線領域に監視領域を設定し、該
    設定した監視領域内にある周辺の他車両から発生するオ
    プティカルフローをオプティカルフロー検出手段により
    検出し、該検出したオプティカルフローを用いて自車両
    と周辺の他車両との相対関係を監視する周辺監視装置に
    おいて、 前記オプティカルフロー検出手段が、前記画像を、前記
    撮像手段の所定の光学配置に基づいて、実空間における
    路面に平行なxz平面に逆射影変換して路面画像を得、
    前記一定時間と自車両の速度情報とから相前後する2つ
    の前記画像における自車両の移動距離を算出し、該算出
    した移動距離分だけ前記路面画像を平行移動し、該平行
    移動した後の前記路面画像を射影変換して当該画像より
    時間的に遅い方の画像の推定画像を得、前記時間的に遅
    い方の画像と前記推定画像との差分をとって特徴点の抽
    出を行い、該抽出した特徴点に関して対応点の探索を行
    って前記オプティカルフローの検出を行うことを特徴と
    する周辺監視装置。
  2. 【請求項2】 前記路面画像を射影変換する前に、前記
    路面画像における自車両近傍の白線の角度をそれぞれ算
    出し、それらの平均角度を求め、前記xz座標の原点を
    中心として前記路面画像を前記平均角度だけ回転させ、
    該回転した路面画像を射影変換することを特徴とする請
    求項1記載の周辺監視装置。
  3. 【請求項3】 前記オプティカルフローの大きさを
    i 、オプティカルフローの発生数をNとした場合、前
    方または後側方視界における危険度Dを、 で示されるオプティカルフローの大きさの平均値lが予
    め設定した値以上になった場合に危険であると判断する
    危険度評価手段をさらに備えることを特徴とする請求項
    1又は2記載の周辺監視装置。
  4. 【請求項4】 前記危険度評価手段はさらに、前記オプ
    ティカルフローの発生数Nが予め設定した値以上になっ
    た場合に危険であると判断することを特徴とする請求項
    3記載の周辺監視装置。
  5. 【請求項5】 自車両から前方または後側方を撮像手段
    により撮像して一定時間毎に画像を得、該画像に基づい
    て自車両の走行している自車線の白線を検出すると共
    に、該検出した白線に基づいて自車線領域やそれ以外の
    領域に監視領域を設定し、該設定した監視領域内にある
    周辺の他車両から発生するオプティカルフローを検出
    し、該検出したオプティカルフローを用いて自車両と周
    辺の他車両との相対関係を監視する周辺監視方法におい
    て、 前記画像を、前記撮像手段の所定の光学配置に基づい
    て、実空間における路面に平行なxz平面に逆射影変換
    して路面画像を得、 前記一定時間と自車両の速度情報とから相前後する2つ
    の前記画像における自車両の移動距離を算出し、 該算出した移動距離分だけ前記路面画像を平行移動し、 該平行移動した路面画像を射影変換して当該画像より時
    間的に遅い方の画像の推定画像を得、 前記時間的に遅い方の画像と前記推定画像との差分をと
    って特徴点の抽出を行い、 該抽出した特徴点に関して対応点の探索を行って前記オ
    プティカルフローの検出を行うことを特徴とする周辺監
    視方法。
  6. 【請求項6】 前記路面画像を射影変換する前に、前記
    平行移動した後の前記路面画像における自車両近傍の白
    線の角度をそれぞれ算出し、それらの平均角度を求め、 前記xz座標の原点を中心として前記路面画像を前記平
    均角度だけ回転させ、該回転した路面画像を射影変換す
    ることを特徴とする請求項5記載の周辺監視方法。
JP24126498A 1998-08-27 1998-08-27 周辺監視装置及び方法 Expired - Fee Related JP3463858B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP24126498A JP3463858B2 (ja) 1998-08-27 1998-08-27 周辺監視装置及び方法
US09/383,200 US6445809B1 (en) 1998-08-27 1999-08-26 Environment monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24126498A JP3463858B2 (ja) 1998-08-27 1998-08-27 周辺監視装置及び方法

Publications (2)

Publication Number Publication Date
JP2000074645A JP2000074645A (ja) 2000-03-14
JP3463858B2 true JP3463858B2 (ja) 2003-11-05

Family

ID=17071675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24126498A Expired - Fee Related JP3463858B2 (ja) 1998-08-27 1998-08-27 周辺監視装置及び方法

Country Status (2)

Country Link
US (1) US6445809B1 (ja)
JP (1) JP3463858B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008192060A (ja) * 2007-02-07 2008-08-21 Denso Corp 画像処理装置及び画像処理方法
EP1964719A2 (en) 2007-02-28 2008-09-03 Sanyo Electric Co., Ltd. Apparatus and method for monitoring a vehicle's surroundings

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
JP2001074444A (ja) * 1999-09-08 2001-03-23 Fujitsu Ltd 撮像装置の設置姿勢パラメータ自動抽出方法及び撮像装置を用いた監視システム
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
ES2391556T3 (es) 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
US7266220B2 (en) 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP3964287B2 (ja) * 2002-09-04 2007-08-22 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP3941640B2 (ja) * 2002-09-18 2007-07-04 日産自動車株式会社 車両用運転操作補助装置、車両用運転操作補助方法、およびその方法を適用した車両
US7375731B2 (en) * 2002-11-01 2008-05-20 Mitsubishi Electric Research Laboratories, Inc. Video mining using unsupervised clustering of video content
US7446798B2 (en) * 2003-02-05 2008-11-04 Siemens Corporate Research, Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
JP3882797B2 (ja) 2003-08-08 2007-02-21 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備える車両
JP3956926B2 (ja) * 2003-09-24 2007-08-08 アイシン精機株式会社 路面走行レーン検出装置
JP3864945B2 (ja) * 2003-09-24 2007-01-10 アイシン精機株式会社 路面走行レーン検出装置
JP2005215985A (ja) * 2004-01-29 2005-08-11 Fujitsu Ltd 走行車線判定プログラムおよびその記録媒体、走行車線判定装置ならびに走行車線判定方法
JP4185545B2 (ja) * 2004-03-29 2008-11-26 パイオニア株式会社 道路景観解析装置及び方法
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP3846494B2 (ja) * 2004-07-13 2006-11-15 日産自動車株式会社 移動障害物検出装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4353162B2 (ja) * 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
JP4899424B2 (ja) * 2005-11-04 2012-03-21 トヨタ自動車株式会社 物体検出装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070225914A1 (en) * 2006-03-21 2007-09-27 Hiroshi Kawazoe Lane departure avoidance control
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
CN101161524B (zh) * 2006-10-12 2010-10-27 财团法人车辆研究测试中心 侦测车距的方法与装置
US8462988B2 (en) * 2007-01-23 2013-06-11 Valeo Schalter Und Sensoren Gmbh Method and system for universal lane boundary detection
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP2009180536A (ja) * 2008-01-29 2009-08-13 Omron Corp 画像処理装置、画像処理方法、およびプログラム
JP5421072B2 (ja) * 2008-11-19 2014-02-19 クラリオン株式会社 接近物体検知システム
JP4988786B2 (ja) * 2009-04-09 2012-08-01 株式会社日本自動車部品総合研究所 境界線認識装置
WO2012131947A1 (ja) * 2011-03-30 2012-10-04 パイオニア株式会社 画像処理装置、及び画像表示装置
JP5459324B2 (ja) * 2012-01-17 2014-04-02 株式会社デンソー 車両周辺監視装置
JP6126849B2 (ja) * 2013-01-25 2017-05-10 株式会社メガチップス 車線識別装置および車線識別方法
KR101498114B1 (ko) * 2013-11-28 2015-03-05 현대모비스 주식회사 보행자를 검출하는 영상 처리 장치 및 그 방법
JP2015200976A (ja) 2014-04-04 2015-11-12 富士通株式会社 移動量推定装置、移動量推定方法、およびプログラム
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
US9205304B1 (en) 2014-10-17 2015-12-08 Acushnet Company Multi-coating layer color golf ball
WO2016151978A1 (ja) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 画像処理装置、運転支援システム及び画像処理方法
US10460511B2 (en) * 2016-09-23 2019-10-29 Blue Vision Labs UK Limited Method and system for creating a virtual 3D model
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
DE102016218852A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
CN107226023A (zh) * 2017-04-10 2017-10-03 江苏车视杰电子有限公司 图像处理实时预警***及方法
DE102017110407A1 (de) * 2017-05-12 2018-11-15 Nicolas Bissantz Fahrzeug
JP6720931B2 (ja) * 2017-07-14 2020-07-08 株式会社デンソー 車両周囲認識装置
JP6627152B2 (ja) * 2017-09-08 2020-01-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
DE112018006996B4 (de) 2018-03-01 2022-11-03 Mitsubishi Electric Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
US11206375B2 (en) 2018-03-28 2021-12-21 Gal Zuckerman Analyzing past events by utilizing imagery data captured by a plurality of on-road vehicles
CN112292286A (zh) * 2018-06-13 2021-01-29 里德视觉有限公司 骑乘者辅助***和方法
US11138418B2 (en) 2018-08-06 2021-10-05 Gal Zuckerman Systems and methods for tracking persons by utilizing imagery data captured by on-road vehicles

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4660037A (en) * 1982-01-28 1987-04-21 Honda Giken Kogyo Kabushiki Kaisha Current location indication apparatus for use in an automotive vehicle
US5221956A (en) * 1991-08-14 1993-06-22 Kustom Signals, Inc. Lidar device with combined optical sight
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH05296767A (ja) * 1992-04-20 1993-11-09 Mitsubishi Electric Corp 車間距離検出装置
JP3452268B2 (ja) 1993-08-06 2003-09-29 矢崎総業株式会社 車両用後側方監視方法
JP2863381B2 (ja) 1992-09-25 1999-03-03 矢崎総業株式会社 車両用監視方法
JP2887039B2 (ja) * 1993-03-26 1999-04-26 三菱電機株式会社 車両周辺監視装置
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
US5708427A (en) * 1996-04-18 1998-01-13 Bush; E. William Vehicle in-lane positional indication/control by phase detection of RF signals induced in completely-passive resonant-loop circuits buried along a road lane

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008192060A (ja) * 2007-02-07 2008-08-21 Denso Corp 画像処理装置及び画像処理方法
EP1964719A2 (en) 2007-02-28 2008-09-03 Sanyo Electric Co., Ltd. Apparatus and method for monitoring a vehicle's surroundings

Also Published As

Publication number Publication date
JP2000074645A (ja) 2000-03-14
US6445809B1 (en) 2002-09-03

Similar Documents

Publication Publication Date Title
JP3463858B2 (ja) 周辺監視装置及び方法
JP3580475B2 (ja) 周辺監視装置
US10940818B2 (en) Pedestrian collision warning system
EP2463843B1 (en) Method and system for forward collision warning
US5521633A (en) Motor vehicle obstacle monitoring system using optical flow processing
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
US6670912B2 (en) Method for detecting stationary object located above road
EP2741256B1 (en) Moving body detection device and method
Cualain et al. Automotive standards-grade lane departure warning system
JP2006184276A (ja) 視覚検知による全天候障害物衝突防止装置とその方法
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
CN111937002A (zh) 障碍物检测装置、利用了障碍物检测装置的自动制动装置、障碍物检测方法以及利用了障碍物检测方法的自动制动方法
EP3413267B1 (en) Object detection device, device control system, objection detection method, and program
JP2000285245A (ja) 移動体の衝突防止装置、衝突防止方法、および記録媒体
CN111332288A (zh) 一种基于视觉***的车辆行人碰撞避免方法
KR101406316B1 (ko) 차선 인식 장치 및 그 방법
CN114415171A (zh) 一种基于4d毫米波雷达的汽车可行驶区域检测方法
Cualain et al. Multiple-camera lane departure warning system for the automotive environment
Fuerstenberg et al. Pedestrian detection and classification by laserscanners
KR20070019347A (ko) 자동 주행 시스템의 이동체 검출 장치 및 그 방법
JP2001023092A (ja) 車両周辺領域監視装置
JP2002312799A (ja) 車線認識のための画像処理装置並びに画像処理法
Jeong et al. Autonomous detector using saliency map model and modified mean-shift tracking for a blind spot monitor in a car
JP2000149196A (ja) 車両監視装置および移動体認識装置
JP2003174642A (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030729

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees