JP7034231B1 - 車両位置検出装置および車両位置検出方法 - Google Patents

車両位置検出装置および車両位置検出方法 Download PDF

Info

Publication number
JP7034231B1
JP7034231B1 JP2020175731A JP2020175731A JP7034231B1 JP 7034231 B1 JP7034231 B1 JP 7034231B1 JP 2020175731 A JP2020175731 A JP 2020175731A JP 2020175731 A JP2020175731 A JP 2020175731A JP 7034231 B1 JP7034231 B1 JP 7034231B1
Authority
JP
Japan
Prior art keywords
vehicle
unit
area
road surface
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175731A
Other languages
English (en)
Other versions
JP2022067169A (ja
Inventor
卓也 岡本
宏樹 藤好
将大 矢田
考平 森
成晃 竹原
浩一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020175731A priority Critical patent/JP7034231B1/ja
Priority to DE102021209974.2A priority patent/DE102021209974A1/de
Priority to CN202111201980.8A priority patent/CN114379562B/zh
Application granted granted Critical
Publication of JP7034231B1 publication Critical patent/JP7034231B1/ja
Publication of JP2022067169A publication Critical patent/JP2022067169A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】他車両のヘッドライトによる路面の輝度から精度よく他車両の位置を検出することが可能な車両位置検出装置および車両位置検出方法を提供する。【解決手段】撮像部によって撮像された自車両の後側方の撮像画像に基づいて、点灯されたヘッドライトを含む車両候補領域を抽出する車両候補領域抽出部と、測距部よる検知結果に基づき、撮像画像から障害物を除いた路面領域を検出する路面領域検出部と、路面領域において、車両候補領域よりも前方に輝度比較領域を設定し、輝度比較領域から得られる輝度を比較する路面輝度比較部と、路面輝度比較部による比較結果に基づいて、前記車両の後側方の他車両が走行している走行領域を推定する走行領域推定部と、前記走行領域及び前記車両候補領域に基づいて前記他車両の位置を特定する車両位置特定部と、を備えた。【選択図】図3

Description

本願は、車両位置検出装置および車両位置検出方法に関するものである。
従来から、道路を含む領域を撮像した画像に基づいて、ヘッドライトの存在を判定し、夜間に後側方から自車両に接近する他の車両の位置を検出する方法が知られている。しかし、ヘッドライトの光軸の向き、ハイビームかロービームか、及びそのビームの角度などによって撮像されるヘッドライトが拡大されることがあり、隣の車線で後方から接近する他の車両なのか、2車線離れた車線で後方から接近する他の車両なのか誤検出する虞がある。誤検出が生じると、2車線離れた車線で後方から接近する他の車両について、本来不必要な警報を発してしまうことがある。
これに対し、特許文献1には、自車両の後側方を撮像する撮像手段によって得られた画像に基づいて、点灯されたヘッドライトを含む車両候補領域を抽出し、車両候補領域よりも前方に、自車両の隣接車線上の第1の路面位置と、隣接車線よりも1車線離れた車線上の第2の路面位置とを設定し、これら第1および第2の路面位置の輝度を比較した結果に基づいて、自車両の後側方の他の車両が走行している車線を決定し、抽出された車両候補領域に基づいてこの決定した車線上における他の車両の位置を特定することが開示されている。これにより、点灯したヘッドライトに対応する車両候補領域と、その前方の路面位置の輝度(路面反射)とを組み合わせることにより、自車両の後側方の他の車両の走行車線を把握することで他の車両の位置を正確に検出することができる。
特開2015-55968号公報
しかし、特許文献1では、ヘッドライトに係る輝度比較の対象は隣り合う車線上の領域であるので、自車両走行車線の隣接車線が1本しかない場合には、自車両走行車線の隣接車線上の領域の輝度と比較する対象として選定される領域は車線上の路面ではないため誤検知を起こす虞があった。
また、輝度の高い物体、例えば白色の車両などが輝度比較対象となる車線に存在する場合も同様に、路面同士の輝度比較とならないため、誤検知を起こす虞があった。
本願は、上記のような課題を解決するための技術を開示するものであり、他車両のヘッドライトによる路面反射の輝度から精度よく他車両の位置を検出することが可能な車両位置検出装置および車両位置検出方法を提供することを目的とする。
本願に開示される車両位置検出装置は、車両に設けられ、前記車両の周辺を撮像し出力する撮像部と、前記車両に設けられ、前記車両周辺の障害物を検知する測距部と、前記撮像部によって撮像された前記車両の後側方の撮像画像に基づいて、点灯されたヘッドライトを含む車両候補領域を抽出する車両候補領域抽出部と、前記測距部による検知結果に基づき、前記撮像画像から前記障害物を除いた路面領域を検出する路面領域検出部と、前記路面領域において、前記路面領域に存在する前記車両候補領域に対し、該車両候補領域よりも前方に輝度比較領域を設定し、前記輝度比較領域から得られる輝度値と、予め前記路面領域に設定された輝度サンプル領域の輝度値とを比較する路面輝度比較部と、前記路面輝度比較部による比較結果に基づいて、前記車両の後側方の他車両が走行している走行領域を推定する走行領域推定部と、前記走行領域及び前記走行領域の推定に用いられた前記車両候補領域に基づいて前記他車両の位置を特定する車両位置特定部と、を備えたものである。



本願に開示される車両位置検出装置および車両位置検出方法によれば、自車両周辺の路面領域を検出し、輝度を比較する対象領域を検出した路面領域内に設定することによって、後側方から接近する他車両の位置を車線によらず正確に検出することが可能となる。
実施の形態1に係る車両位置検出装置の概略構成図である。 実施の形態1に係る演算装置のハードウエア構成図である。 実施の形態1に係る車両位置検出装置の機能ブロック図である。 実施の形態1に係る車両位置検出装置の通知部の機能ブロック図である。 実施の形態1に係る車両位置検出装置の動作を示すフローチャートである。 実施の形態1に係るドライバーへの通知信号を生成するフローチャートである。 実施の形態1に係る車両位置検出装置で検出される他車両と自車両との位置関係を示す図である。 実施の形態1に係る車両位置検出装置のカメラによって撮像された画像から抽出された光源候補の位置関係を示す図である。 実施の形態1に係る車両位置検出装置のカメラによって撮像された画像から抽出された光源候補の位置関係と光源の種別から推定される他車両の候補領域を示す図である。 実施の形態1に係る車両位置検出装置のカメラによって撮像された画像内での、車両候補領域とそれらに対応する輝度比較領域を示す図である。 実施の形態1に係る車両位置検出装置で設定された警報対象領域と輝度サンプル領域との位置関係を示す図である。 実施の形態1に係る車両位置検出装置の画像生成部で生成される画像の例を示す図である。 実施の形態1に係る車両位置検出装置の画像生成部で生成され、映像出力部に表示される画像の例を示す図である。 実施の形態2に係る車両位置検出装置の機能ブロック図である。 実施の形態2に係る車両位置検出装置の動作を示すフローチャートである。 実施の形態2に係る車両位置検出装置で検出される他車両と自車両との位置関係を示す図である。 実施の形態2に係る車両位置検出装置の画像生成部で生成される画像の例を示す図である。 実施の形態2に係る車両位置検出装置の画像生成部で生成され、映像出力部に表示される画像の例を示す図である。 実施の形態2に係る車両位置検出装置の画像生成部で生成され、映像出力部に表示される画像の別の例を示す図である。
以下、本願で開示される車両位置検出装置および車両位置検出方法の実施の形態について図を参照して説明する。なお、各図中、同一符号は、同一または相当部分を示すものとする。
実施の形態1.
以下に、実施の形態1に係る車両位置検出装置および車両位置検出方法について図を用いて説明する。
図1は、実施の形態1に係る車両位置検出装置の概略構成図である。
図1において、車両1は、カメラ2、ソナーセンサ3、車両位置検出装置10を有している。ソナーセンサ3は車両前方、後方及び左右に複数設置され、それらはソナーセンサ配線8を介してソナーコントローラ12に接続されている。なお、図1では前後4つずつ、更に左右に1つずつソナーセンサ3を配しているが、本願では、カメラ2にて取得する路面画像の方向に最低1つ以上のソナーセンサ3があれば問題ない。カメラ2は車両前後及び左右に複数設置されるが、少なくとも後側方が撮像できるような位置に設置され、カメラ配線7を介して監視カメラコントローラ11に接続されている。なお、図1では前後左右に1つずつカメラ2を配しているが、少なくとも後側方が撮像できるような方向に限定して最低1つ以上配置すればよい。そのため、本願では左右あるいは後方が好ましい。取付け位置については、図1では左右のカメラ2については、現在一般的なドアミラー下部に設置し、前後のカメラ2についてはそれぞれバンパー中央に設置するよう図示しているが、必ずしも図1のように設置する必要はなく、本願の目的を満たすことが可能であれば設置位置は限定しない。車両位置検出装置10には、ソナーコントローラ12、監視カメラコントローラ11以外に、その他のセンサ13、車両位置検出装置10の演算装置14が含まれており、これらはそれぞれ通信線5、例えばCAN(Control Area Network:登録商標)等を用いて接続されている。
演算装置14は、図2に示すように、プロセッサ1000と記憶装置2000から構成され、図示していないが、記憶装置はランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ1000は、記憶装置2000から入力されたプログラムを実行し、図3、4で説明する機能ブロックに関する構成および図5、6で説明するフローチャートの動作の一部又は全部を遂行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ1000にプログラムが入力される。また、プロセッサ1000は、入出力される信号、演算の中間値、および演算結果等のデータを記憶装置2000の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。また、プロセッサ1000及び記憶装置2000に加え、ロジック回路、アナログ回路を併用してもよい。また、演算装置14は、後述する実施の形態2で説明する機能ブロック及びフローチャートの動作の一部又は全部を遂行する。
次に、本実施の形態1に係る車両位置検出装置の機能構成について図3、4の機能ブロック図を用いて、機能構成の動作について図5、6のフローチャートを用いて説明する。
なお、本実施の形態1では図7の他車両V2と自車両V1との位置関係を示す図および図8のカメラ2によって撮像された画像に示す通り、夜間にドライバーが操作し走行している自車両V1の後側方に、前照灯(ヘッドライト)h1、h2を点灯している他車両V2が存在する場合を想定する。
[車両位置検出装置の機能構成]
図3は、実施の形態1に係る車両位置検出装置10の機能構成を示す機能ブロック図である。図において、車両位置検出装置10は、撮像部101、測距部102、光源抽出部103、光源種別判定部104、車両候補領域抽出部105、路面領域検出部106、警報対象領域設定部107、輝度比較領域設定部108、輝度サンプル領域設定部109、路面輝度比較部110、走行領域推定部111、車両位置特定部112、車両接近判定部113、通知部114を備える。
撮像部101は、図1で示した複数のカメラ2のうち後側方が撮像可能なカメラ2とカメラ2により撮影された画像を出力するための監視カメラコントローラ11及びそれらをつなぐカメラ配線7を具備する。
測距部102は、自車両V1周辺に存在する障害物(立体物)を検知し、障害物との距離を計測する。測距部102は、図1で示した複数のソナーセンサ3と、ソナーコントローラ12及びそれらをつなぐソナーセンサ配線8を具備する。ここでは測距センサとしてソナーセンサを例示して説明するが、赤外線デプスセンサ、ミリ波レーダ、またはLiDAR(light Detection and Ranging)技術を用いたものであってもよい。
光源抽出部103は、撮像部101のカメラ2で撮像された自車両V1の後側方の画像に基づいて、その輝度値から光源を抽出する。
光源種別判定部104は、光源抽出部103によって光源が抽出された場合、抽出された光源それぞれについて、色情報から光源の種別を推定し、他車両V2のヘッドライトであるかそうでないかを推定する。
車両候補領域抽出部105は、光源種別判定部104の結果に基づいて、他車両V2のヘッドライトと推定された光源について、点灯されたヘッドライトを含む車両の位置を示す車両候補領域を抽出する。
路面領域検出部106は、撮像部101のカメラ2で撮像された自車両V1の後側方の撮像画像と測距部102のソナーセンサ3により検知された障害物とを用いて、自車両V1周辺の路面領域の検出を行う。
警報対象領域設定部107は、他車両が侵入した際に、警報を発するか否かの判定に用いる領域を設定する。この領域は、自車両V1付近の側方から後方にかけて設定された領域である。
輝度比較領域設定部108は、車両候補領域抽出部105で抽出された車両候補領域の前方側に輝度比較領域を設定する。輝度比較領域は、路面がヘッドライトに照らされているかどうかを、輝度の比較により判定するために用いる領域である。
輝度サンプル領域設定部109は、輝度比較領域設定部108で設定された各輝度比較領域から抽出した輝度値と比較するためのサンプルとなる輝度を抽出する領域である輝度サンプル領域を設定する。輝度サンプル領域は、路面領域検出部106で検出された路面領域内に設定される。
路面輝度比較部110は、輝度比較領域設定部108で設定された領域と輝度サンプル領域設定部109で設定された領域との輝度の比較を行う。
走行領域推定部111は、路面輝度比較部110の比較結果に基づいて、他車両V2が走行している領域を推定する。
車両位置特定部112は、車両候補領域抽出部105で抽出された車両位置の候補領域および走行領域推定部111で抽出された他車両V2が走行していると推定される領域に基づいて、他車両V2の路面と接している下端部分を特定し車両位置とする。
車両接近判定部113は、警報対象領域設定部107で設定された警報領域および車両位置特定部112で特定された車両位置に基づいて、他車両V2の位置が警報領域に侵入しており、かつ時系列で取得した画像を基に他車両V2が自車両V1に接近しているかどうかを判定する。
通知部114は、車両接近判定部113の判定結果に基づいて、ドライバーに通知を出すか否かの判定及び通知を行う。
図4は、通知部114の機能構成を示す機能ブロック図である。図において、通知部114は、出力判定部1141、画像生成部1142、音声生成部1143および振動制御部1144を具備する。
出力判定部1141は、ドライバーに通知を出力するか否かの判定を行う。
出力判定部1141の判定結果に基づき、画像生成部1142は警報画像を生成する。画像生成部1142で生成された警報画像は、映像出力部115において、カメラ2で撮像された画像を背景に重畳されて、出力される。映像出力部115は車両に具備する表示部に相当する。
また、出力判定部1141の判定結果に基づき、音声生成部1143は、警報音声を生成し、音声出力部116から警報音声を出力し、ドライバーに警報内容を通知する。
また、出力判定部1141の判定結果に基づき、振動制御部1144は、ハンドルあるいは運転席のシートを振動させ、ドライバーに警報を通知する。
[車両位置検出装置の動作]
次に、本実施の形態1に係る車両位置検出装置の機能構成の動作について図5、図6のフローチャート及び図7から図13を用いて説明する。
図5は、本実施の形態1に係る車両位置検出装置の動作を示すフローチャートである。
まず、ステップS101では、カメラ2により自車V1の周辺画像を撮像する。周辺画像は、自車V1の後側方の画像である。図7は、実施の形態1に係る車両位置検出装置で検出される他車両V2と自車両V1との位置関係を示す図で、自車両V1の右サイドミラー下方に取り付けられたカメラ2から他車両V2を含む後側方の領域が撮像されることが示されている。カメラ2の画角Sは60度とする。なお、カメラ2の画角Sは60度に限るものではない。なお、図中L1~L4は車両の走行する車線を示す白線である。
ステップS102では、ソナーセンサ3を用いて、自車両V1周辺の障害物(立体物)に関して検知を行い、それらの距離を計測する。ここで、本実施の形態1においては、ソナーセンサ3の測距可能距離はソナーセンサ位置より3mとする。ただし、測距可能距離は3mに限るものではないし、先に例示した他の測距センサを用いてもよい。
ステップS103では、光源抽出部103において、ステップS101で取得した撮像画像の輝度値から光源候補を抽出する。画像の輝度は、0(黒に相当)から255(白に相当)の256段階で表され、本実施の形態1では、例えば輝度値230以上のものを他車両V2のヘッドライト光源候補として抽出するものとする。なお、光源候補の輝度値の設定は230に限るものではない。
ここで、ヘッドライト光源候補として抽出するとき、2つの光源が近くで並進しているようなものは2つで1つのペアとして扱っても良い。また、その場合は2輪車のヘッドライトも考慮し、光源が単体であってもヘッドライト光源候補として抽出してもよい。図8は図7のカメラ2で撮像された画像から光源候補を抽出した画像を示すが、光源候補としてh1,h2,O1,O2を抽出し、h1,h2およびO1,O2をそれぞれペアとして考える。なお、図中、他車両V2のヘッドライトにより照射された路面をR1,R2で示している。
ステップS104では、光源種別判定部104において、光源抽出部103で抽出された光源候補であるh1,h2,O1,O2の撮像画像の色をそれぞれ抽出し、光源種別を判定する。例えば赤あるいは緑の色情報が抽出された場合、信号の光などであると判定して、光源候補から除外する処理を行う。また、撮像画像における消失点を用いることにより、画像上の路面領域の最高点が分かる。車両のヘッドライトは路面(車両下端)よりもやや上に位置することから、画像上でヘッドライトが存在する領域は消失点よりもやや上のラインから下側の領域と判断できる。このことから、撮像画像から消失点を算出し、消失点の高さよりも一定の画素分以上、上側の位置にある光源はヘッドライトではないと判断し、光源候補から除外する処理を含めても良い。なお、消失点の算出方法は、カメラ2のレンズの内部パラメータ、カメラ2の取り付け位置及び向きのようなカメラのキャリブレーション情報から推定する方法、及びオプティカルフローまたは白線検知によって検出した直線の交点から算出する方法など、どのような算出方法であっても効果に影響しない。
ステップS105では、車両候補領域抽出部105において、光源抽出部103で抽出された光源候補のうち光源種別判定部104で判別された光源候補に基づき、車両のヘッドライトの光源候補を含むように車両候補領域が抽出される。
図9は車両候補領域の抽出方法を説明するための図で、ヘッドライトの光源候補であるh1,h2を含む車両候補領域A1、光源候補であるO1,O2を含む車両候補領域A2が設定される。また、実際には、ヘッドライトの高さおよび水平方向の間隔は車種毎に異なる値を有するため、図8で示された光源候補であるh1,h2,O1,O2のみからでは、図9におけるA3,A4で示される領域も他車両がいると判断することも可能である。したがって、車両候補領域抽出部105は、4つの車両候補領域A1,A2,A3,A4を抽出する。
ステップS106では、路面領域検出部106において、カメラ2から得られた撮像画像およびソナーセンサ3から得られた障害物(立体物)距離計測結果を用いて演算し、路面領域RSを検出する。この路面領域RSの検出には、例えば本出願人による国際公開第2019/202627号に示した路面検出方法を用いることができる。この手法は、周辺の路面画像に基づいてその色情報のヒストグラムを演算し、そのヒストグラムに基づいて車両が走行可能な領域および障害物領域を抽出するものである。この手法によると路面領域RSは、概ね図8の撮像画像のうち白線L3よりも外側(白線L1側)で障害物(立体物)の検出された領域を除く領域である。
検出されたこの路面領域RSから、自車両V1が走行中の路面で最も遠方にある、路面の端を算出し、それよりも外側の領域を路面領域RSから除外する。この路面の端が白線L1である。この白線L1よりも外側の領域が除外された路面領域RSが図9に示されている。
ステップS107では、輝度比較領域設定部108において、車両候補領域抽出部105で抽出された車両候補領域A1,A2,A3,A4及び路面領域検出部106で検出された路面領域RSから輝度比較領域を設定する。路面領域検出部106で検出された路面領域RS外に位置する車両候補領域は候補から除外されるため、図9において、車両候補領域A2,A4は除外され、車両候補領域A1,A3のみが車両候補領域として残っている。この車両候補領域A1,A3についてそれぞれその前方に位置する領域を輝度比較領域C1,C2として設定する。
図10に、カメラ2によって撮像された画像上に車両候補領域A1,A3とそれらに対応する輝度比較領域C1,C2を示す。ここで、輝度比較領域C1,C2が自車両V1および他車両V2の走行方向に沿う楕円形ではなく、カメラ2の方向に沿う楕円領域として設定しているのは、図7で示した他車両V2のヘッドライトにより照射された路面R1,R2の領域が、撮像画像上では一般的にカメラ2方向に伸びるためである。ただし、輝度比較領域C1,C2がこのように楕円形に限るものではない。他車両V2のヘッドライトが照射された路面の輝度値を抽出できるように領域設定されていればよい。
ステップS108では、輝度サンプル領域設定部109において、輝度比較領域設定部108で設定された輝度比較領域C1,C2と比較するための輝度サンプル領域を設定する。輝度サンプル領域は、図11で示されるように、破線で囲まれた路面領域RSから図10で示された輝度比較領域C1,C2と比較するための輝度サンプル領域CSを設定する。路面領域RSは障害物を除いた領域であり、この路面領域RS内に輝度を比較する対象である輝度サンプル領域CSを設定することにより、従来の技術における輝度比較対象領域に障害物がある場合または自車走行車線以外に1車線しかない場合に他車両の検知が正しく行われない可能性があるという課題を解決することができる。
なお、本実施の形態において輝度サンプル領域CSは、路面である可能性が高いことから、後述の警報対象領域W内で最も自車両V1に近く、最も走行方向側にある領域に設定する。また、後述の通知部114において、前回の結果が警報を行うと判定されている場合、すなわち前回の撮像画像において警報対象領域Wに他車両V2が侵入している場合は、輝度サンプル領域CSは他車両V2のヘッドライトで照らされている可能性がある。そのため、輝度サンプル領域CSは警報対象領域W内ではなく、路面領域RS内の別の領域に設定するものとする。なお、この輝度サンプル領域CSは1m×1m程度の領域としているが、この範囲に限るものではない。
ステップS109では、警報対象領域設定部107において、他車両V2がその領域に侵入すると自車両V1に通知すべき警報対象領域Wを設定する。警報対象領域Wは、例えば、自車側端から2m、カメラ2位置から後方へ5mの領域であり、図11の斜線で示された領域である。なお、警報対象領域Wはこの範囲に限るものではない。
ステップS110では、路面輝度比較部110において、輝度比較領域C1,C2と輝度サンプル領域CSとの輝度値の比較を行う。ここでは、輝度サンプル領域CSの輝度値よりも輝度値が100以上大きい輝度比較領域C1を、ヘッドライトの照射領域として判定する。ヘッドライトの照射と判定する輝度値の差の閾値(判定基準)は100に限るものではない。
ステップS111では、走行領域推定部111において、路面輝度比較部110でヘッドライトの照射と判定された輝度比較領域C1に対応する車両候補領域A1を走行する他車両V2が存在する領域と推定する。
ステップS112では、車両位置特定部112において、他車両V2の位置を特定する。具体的には、他車両V2の下端を特定する。一般的に、夜間にヘッドライトを照射している車両が路面と接している付近の領域は輝度値が低い。そのため、路面輝度比較部110でヘッドライトの照射と判定された輝度比較領域C1と走行領域推定部111で走行する他車両V2が存在すると推定された車両候補領域A1との間の輝度値の低い領域を探索する。例えば、輝度値30未満を探索し、他車両V2の下端LCと決定し、車両位置を特定する。なお、車両の下端を判定する輝度値の基準(閾値)は30に限るものではなく、路面状態あるいは天候等に応じ適宜設定すればよい。図10中に他車両V2の下端LCの位置を例示している。
ステップS113では、車両位置特定部112において、他車両V2の下端LCが警報対象領域設定部107で設定された警報対象領域W内に存在するか否か判定を行う。他車両V2の下端LCが警報対象領域W内にない場合(ステップS113でNO)は、ステップS114以降の処理を行わず、ステップS101に戻り、次に後側方カメラ2によって入力される撮像画像について同様の手段で処理を行う。
ステップS113で、他車両V2の下端LCが警報対象領域W内に存在する場合(ステップS113でYES)ステップS114に進み、車両接近判定部113において、他車両V2が自車両V1に接近しているかどうか判定する。カメラ2で撮像された画像上で、他車両V2の下端LCを表示し、時系列でその下端LCが自車両V1に接近にしている場合、他車両は自車両に対して接近しているものと判定する。そして、自車両V1の後側方に存在する他車両V2が自車両V1に接近していると判定された場合(ステップS114でYES)、ステップS115に進み、通知部114の出力判定部1141によってドライバーに対する通知を行うと判定する。なお、自車両V1の後側方に存在する他車両V2が自車両V1に接近していないと判定された場合(ステップS114でNO)、ステップS101に戻り、次に後側方カメラ2によって入力される撮像画像について同様の手段で処理を行う。
次に、ステップS115のドライバーに通知する信号の生成について図6のフローチャートを用いて説明する。ドライバーへの通知信号として、映像信号、音声信号及び振動の例について説明する。
ステップS115で、通知部114の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1151では通知部114の具備する画像生成部1142において警報画像を生成し、ステップS1152で映像出力部115にその警報画像を出力する。
図12、図13は警報画像の一例を示す図で、カメラ2で撮像された画像上に、警報対象領域設定部107で設定された警報対象領域Wと他車両V2の下端LCが示され、画像の上方に警報画像WI101,WI102の表示領域が重畳されている。図12は、ステップS112で、他車両V2の下端LCが特定された状態に相当し、かつ下端LCが警報対象領域W内にないので、警報画像WI101は無表示である。図13は、ステップS113で、下端LCが警報対象領域W内にあると判断され、かつステップS114で、時系列で下端LCが下降して自車両V1に接近し、ステップS115で通知判定がなされた状態である。図13中の警報画像WI102はステップS1151で生成された警報画像が表示されている。これにより、ドライバーは警報画像WI102が表示されているのを視認することができ、自車両V1の後側方に他車両V2が接近していることを把握することができる。
なお、ステップS1151において、図12、13の画像がドライバーへの通知用の映像信号として生成され、警報の通知が必要な場合、警報画像WI102が表示されることになる。したがって、図12はドライバーに提示されない。
また、警報画像WI101,WI102がこれに限るものではなく、ドライバーが警報を視認できる表示であればよい。
ステップS115で、通知部114の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1153で通知部114の具備する音声生成部1143において警報音声を生成し、ステップS1154では音声出力部116に警報音声を出力する。
警報音声はドライバーへ通知する音声信号であり、警報音声の出力により、ドライバーは自車両V1の後側方に他車両V2が接近していることを把握することができる。
また、警報画像の表示および警報音声の出力の両方でドライバーに通知するようにしてもよい。
ステップS115で、通知部114の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1155で通知部114の具備する振動制御部1144においてハンドルを振動させる。
ハンドルを振動させることにより、ドライバーは自車両V1の後側方に他車両V2が接近していることを把握することができる。
ドライバーへの警報通知手段としては、ハンドルへの振動に限らず、運転席のシートあるいはハンドルに振動装置を組み込み振動により触覚的に警報を与えればよい。
また、警報画像の表示および警報音声の出力と合わせ複数の通知方法でドライバーに通知するようにしてもよい。
図5及び図6に示された各ステップS101~S115の動作は、自車両V1の走行中は繰り返し行われる。
以上のように、実施の形態1によれば、カメラ2及びソナーセンサ3を用いて自車両の後側方の障害物の除かれた路面領域RSを検出し、カメラ2による後側方の画像から他車両の存在する車両候補領域A1~A4を抽出し、路面領域RS内にある車両候補領域A1、A3に対し、その前方であって路面領域RS内に輝度比較領域C1,C2を設定し、路面領域RS内に設定された輝度サンプル領域CSとの輝度を比較することで、他車両V2の走行領域を推定して、警報を通知するようにしたので、輝度比較領域C1,C2及び輝度サンプル領域CSともに路面領域RS内であり、それらを比較するので、車線によらず他車両V2の検出精度が向上し、従来のような誤警報が抑制される。
したがって、夜間に自車両に接近する周辺車両についての正確な警報を実現することができ、ドライバーは自車両周辺の状況についてより正確に把握することができる。
実施の形態2.
以下に、実施の形態2に係る車両位置検出装置および車両位置検出方法について図14の機能ブロック図、図15のフローチャート及び図16から図19を用いて説明する。
[車両位置検出装置の機能構成]
図14は、実施の形態2に係る車両位置検出装置10の機能構成を示す機能ブロック図である。図14において、実施の形態1の図3と相違する点について説明し、相当する点については説明を省略する。図14において、車両位置検出装置10は、車線領域設定部221、走行車線推定部222を備える。なお、通知部214は、実施の形態1と同様に図4で示された機能構成を有する。
車線領域設定部221は、自車両V1周辺に存在する車線について、撮像画像上のどの領域がどの車線領域にあたるかを設定する。
路面輝度比較部210は、輝度比較領域設定部208で設定された複数の輝度比較領域それぞれの輝度値の比較を行う。実施の形態1では輝度サンプル領域設定部109で設定された輝度サンプル領域と複数の輝度比較領域とを比較していたが、本実施の形態2では輝度サンプル領域設定部を具備せず、複数の輝度比較領域同士の輝度値の比較を行う。
走行車線推定部222は、車線領域設定部221および路面輝度比較部210の結果に基づいて、他車両V2が走行している車線位置を推定する。図16は、自車両V1と他車両V2との位置関係を示す図である。走行車線推定部222は、他車両V2が白線L1と白線L2との間の車線LNを走行していることを推定する。すなわち、走行車線推定部222は、実施の形態1の走行領域推定部が推定する他車両の走行領域を、車線領域設定部221の結果をもとに走行車線まで推定するものである。
車両位置特定部212は、車両候補領域抽出部205で抽出された車両候補領域及び走行車線推定部222で推定された他車両V2の走行する車線から他車両V2の位置を特定する。
[車両位置検出装置の動作]
次に、本実施の形態2に係る車両位置検出装置の機能構成の動作について図15のフローチャート及び図16から図19を用いて説明する。
図15は、本実施の形態2に係る車両位置検出装置の動作を示すフローチャートである。
ステップS201からステップS206は、実施の形態1の図5のフローチャートで示したステップS101からステップS106と同様であるので、簡単に説明し詳細な説明を省略する。
ステップS201では、カメラ2により自車V1の後側方の周辺画像を撮像する。
ステップS202では、ソナーセンサ3を用いて、自車両V1周辺の障害物(立体物)に関して検知を行い、障害物との距離を計測する。
ステップS203では、光源抽出部203において、ステップS201で取得した撮像画像の輝度値から光源候補を抽出する。
ステップS204では、光源種別判定部204において、光源抽出部203で抽出された光源候補の撮像画像の色をそれぞれ抽出し、光源種別を判定する。
ステップS205では、車両候補領域抽出部205において、光源抽出部203で抽出された光源候補のうち光源種別判定部204で判別された光源候補に基づき、車両のヘッドライトの光源候補を含むように車両候補領域が抽出される。
ステップS206では、路面領域検出部206において、カメラ2から得られた撮像画像およびソナーセンサ3から得られた障害物(立体物)距離計測結果を用いて演算し、路面領域RSを検出する。
ステップS207では、車線領域設定部221において、自車両V1の周辺に存在する車線について、撮像画像上のどの領域がどの車線領域にあたるかを設定する。具体的には、例えば図16において自車両V1の周辺で検出された白線L1~L3、自車両V1の走行方向及び路面領域検出部206で検出された路面領域の時系列変化をもとに推定された他車両の走行方向等から自車両V1周辺の各車線領域を推定し設定する。
ステップS208及びステップS209は、それぞれ実施の形態1で説明したステップS107及びステップS109と同様である。
すなわち、ステップS208では、輝度比較領域設定部208において、車両候補領域抽出部205で抽出された複数の車両候補領域及び路面領域検出部206で検出された路面領域から輝度比較領域を設定する。
ステップS209では、警報対象領域設定部207において、他車両V2がその領域に侵入すると自車両V1に通知すべき警報対象領域Wを設定する。
ステップS210では、路面輝度比較部210において、輝度比較領域設定部208によって設定された輝度比較領域C1,C2それぞれの輝度値を抽出し、それらの輝度値を比較する。輝度比較領域C1,C2は、実施の形態1の図10に示されたものと同様である。実施の形態1においては輝度値の比較対象は輝度サンプル領域設定部109によって抽出された輝度サンプル領域CSとの比較を行ったが、本実施の形態2においては輝度比較領域同士の比較により、輝度比較領域がヘッドライトの照射領域か否かを判定する。
輝度比較領域C1と輝度比較領域C2とを比較したときに、両方とも輝度値が予め設定された閾値例えば150以上の箇所を含む場合は、両方ともヘッドライトの照射領域として判定する。その場合、後述する走行車線推定部222では2車線とも、走行車線として推定する。輝度比較領域C1が輝度比較領域C2の輝度値より例えば100以上大きい場合は、輝度比較領域C1をヘッドライトの照射領域として判定する。また、輝度比較領域C1、C2ともに輝度値が100以下の場合は、後述の走行車線推定部222では走行車両はないものとして判定する。本実施の形態2では、輝度比較領域C1が輝度比較領域C2の輝度値より例えば100以上大きく、輝度比較領域C1をヘッドライトの照射領域として判定した。なお、ヘッドライトの照射と判定する輝度値の差の閾値(判定基準)は100に限るものではない。輝度値の比較の基準は、天候、路面の状態及び走行車両の車速等を考慮して設定すればよい。
また、本実施の形態2においては自車両走行中の車線の横に、2車線ある場合に輝度比較領域を2つ設定し、それぞれの輝度を比較する。そのため、自車両走行中の車線の横に位置する車線数が1車線以下の場合には輝度比較領域を設定せず、輝度比較も行わない。自車両走行中の車線の横に位置する車線数が2以上かどうかは、白線検知あるいは路面領域などから推定する。車線数の推定は、これらの方法に限らずとも効果には影響しない。
ここで、例えば図10で示されるように、輝度比較領域C1,C2は路面領域検出部206で検出された路面領域RS内に設定する。この路面領域RS内に輝度を比較する輝度比較領域C1,C2を設定することにより、実施の形態1と同様に、従来の技術における輝度比較対象領域に障害物がある場合または自車走行車線以外に1車線しかない場合に他車両の検知が正しく行われない可能性があるという課題を解決することができる。
ステップS211では、走行車線推定部222において、車線領域設定部221で設定された車線の中で、他車両V2が走行している車線はどれにあたるかを路面輝度比較部210の結果に基づいて推定する。ここでは、路面輝度比較部210により輝度比較領域C1がヘッドライトの照射領域であると判定されているので、図16において車線LNを他車両V2が走行していると推定される。
ステップS212では、車両位置特定部212において、走行車線推定部222で推定された他車両V2の車線LNの情報、車両候補領域抽出部205で抽出された車両候補領域A1および路面輝度比較部210でヘッドライトの照射領域であると判定された輝度比較領域C1に基づいて、実施の形態1と同様に車両位置である車両の下端LCを決定する。
ステップS213では、車両位置特定部212において、他車両V2の下端LCが警報対象領域設定部207で設定された警報対象領域W内に存在するか否か判定を行う。他車両V2の下端LCが警報対象領域W内にある場合(ステップS213でYES)は、ステップS215に進み、ドライバーに対する通知を行うと判定する。他車両V2の下端LCが警報対象領域W内にない場合(ステップS213でNO)は、ステップS214に進む。
ステップS214では、車両位置特定部212において、他車両V2の下端LCが自車両V1の両隣接車線上にあるか否かの判定を行う。すなわち、他車両V2が警報対象領域W内に存在しなくても、警報対象領域Wは自車両V1の両隣接車線上に設定されるので、警報対象領域Wの設定された車線上に他車両V2が存在するかの判定を行う。他車両V2の下端LCが自車両V1の両隣接車線上にある場合(ステップS214でYES)ステップS215に進み、ドライバーに対する通知を行うと判定する。他車両V2の下端LCが自車両V1の両隣接車線上にない場合(ステップS214でNO)、以降の処理を行わず、ステップS201に戻り、次に後側方カメラ2によって入力される撮像画像について同様の手段で処理を行う。
なお、ステップS211において、走行車線推定部222で推定された車線LNが警報対象領域Wある車線と異なる場合は、ステップS213に進まない(ステップS201に戻る)ようにしておけば、本ステップS214をスキップすることができる。
次に、ステップS215のドライバーに通知する信号の生成について実施の形態1で示した図6のフローチャートを用いて説明する。ドライバーへの通知信号は実施の形態1と同様、映像信号、音声信号及び振動である。
ステップS215で、通知部214の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1151では通知部214の具備する画像生成部1142において警報画像を生成し、ステップS1152で映像出力部115にその警報画像を出力する。
図17~図19は警報画像の一例を示す図で、カメラ2で撮像された画像上に、警報対象領域設定部207で設定された警報対象領域Wと他車両V2の下端LCが示され、画像の上方に警報画像WI201~WI203の表示領域が重畳されている。図17は、ステップS212で、他車両V2の下端LCが特定された状態に相当し、かつ下端LCが警報対象領域W内になく、警報対象領域Wと同じ車線でもないので、警報画像WI201は無表示である。図18は、ステップS213で、下端LCが警報対象領域W内にないと判断され、かつステップS214で、他車両V2の下端LCが自車両V1の両隣接車線上にあると判断された状態である。図中、警報画像WI202にはステップS1151で生成された警報画像である注意喚起を示す画像が表示されている。図19は、ステップS213で、下端LCが警報対象領域W内にあると判断された状態である。図中、警報画像WI203にはステップS1151で生成された警報画像が表示されている。
以上により、ドライバーは警報画像WI203が表示されているのを視認することができ、自車両V1の後側方に他車両V2が接近していることを把握することができる。
また、本実施の形態2では、自車両V1に隣接する車線と他車両V2の走行車線LNが一致すると判定された場合、警報対象領域W内に車両位置を示す下端LCが存在しなくとも、自車両V1の走行車線の後側方の隣接車線上に他車両が存在することを図18中警報画像WI202で表示する。これにより、警報画像WI203の表示に至る前に、あらかじめドライバーに注意喚起を促すことができる。
なお、ステップS1151において、図17~図19の画像が生成され、警報の通知が必要な場合、警報画像WI202、WI203が表示されることになる。したがって、図17はドライバーに提示されない。
また、警報画像WI201~WI203はこれに限るものではなく、ドライバーが警報を視認できる表示であればよい。
ステップS215で、通知部214の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1153で通知部214の具備する音声生成部1143において警報音声を生成し、ステップS1154では音声出力部116に警報音声を出力する。
このとき、図18のように警報対象領域W内には車両の下端LCは存在しないが、自車両V1の隣接車線と他車両V2の車線LNが一致すると判断された場合には、「自車両走行車線に隣接する車線に他車両V2が存在している」旨を伝える音声を生成する。図19のように警報対象領域W内に車両の下端LCが存在すると判断された場合には、「自車両走行車線に隣接する車線上かつ自車両近辺に他車両V2が存在している」旨を伝える音声を生成する。
また、警報画像の表示および警報音声の出力の表示の両方でドライバーに通知するようにしてもよい。
ステップS215で、通知部214の出力判定部1141によってドライバーに対する通知を行うと判定された場合、ステップS1155で通知部214の具備する振動制御部1144においてハンドルを振動させる。このとき、図18のように警報対象領域W内には車両の下端LCは存在しないが、自車両V1の隣接車線と他車両V2の車線LNが一致すると判断された場合と、図19のように警報対象領域W内に車両の下端LCが存在すると判断された場合とでは、図19の場合の方が振動の強度(周波数あるいは振幅)が大きくなるようにすればよりドライバーに緊急度が伝わりやすくなる。
ハンドルを振動させることにより、ドライバーは自車両V1の後側方に他車両V2が接近していることを把握することができる。
ドライバーへの警報通知手段としては、ハンドルへの振動に限らず、ドライバーのシートあるいはハンドルに振動装置を組み込み振動により触覚的に警報を与えればよい。
また、警報画像の表示および警報音声の出力と合わせ複数の通知方法でドライバーに通知するようにしてもよい。
図15及び図6に示された各ステップS201~S215の動作は、自車両V1の走行中は繰り返し行われる。
以上のように、本実施の形態2によれば、実施の形態1と同様の効果を奏する。すなわち、カメラ2及びソナーセンサ3を用いて自車両の後側方の障害物の除かれた路面領域RSを検出し、カメラ2による後側方の画像から他車両の存在する車両候補領域A1~A4を抽出し、路面領域RS内にある車両候補領域A1、A3に対し、その前方であって路面領域RS内に輝度比較領域C1,C2を設定し、それら輝度比較領域C1,C2の輝度を比較することで、他車両V2の走行領域を推定して、警報を通知するようにしたので、輝度比較領域C1,C2ともに路面領域RS内であり、それらを比較するので、車線によらず他車両V2の検出精度が向上し、従来のような誤警報が抑制される。
したがって、夜間に自車両に接近する周辺車両についての正確な警報を実現することができ、ドライバーは自車両周辺の状況についてより正確に把握することができる。
また、本実施の形態2は、車線領域を検出し、他車両V2の走行する車線を推定しておくので、より他車両V2の検出精度が向上する。
[その他の変形例]
上記実施の形態1,2においては、ドライバーに通知しない場合の自車両V1と検出された他車両V2との位置関係を示す図12、図17はドライバーに提示されないとしていたが、それぞれ、ステップS112、S212において位置を特定したのちに、通知部114、214の画像生成部1142において、カメラ2で撮像された画像に車両の位置関係を重畳して示すようにし、通知が必要な場合は、警報画像WI101、WI102、WI201~WI203のいずれかの表示を行うようにしてもよい。
上記実施の形態1では、ステップS114で他車両V2が自車両V1に接近していないと判定された場合は、通知を行わないとしていたが、例えば、警報画像WI101と警報画像WI102との中間の警報状態を示す画像を作成して、自車両V1の後側方の近くに他車両V2がいることを通知するようにしてもよい。
上記実施の形態2では、車両接近判定部を具備していなかったが、実施の形態1と同様に車両接近判定部を備え、他車両の接近状態に合わせて警報を通知するようにしてもよい。
上記実施の形態2においても、路面領域RS内に輝度サンプル領域CSを設定して、輝度比較領域と比較するようにしてもよい。
上記実施の形態1においても、実施の形態2のように車線領域設定部を備えて車線が設定できるようにしてもよい。
本実施の形態1,2においては、図7、図16で自車両V1と他車両V2とが2車線離れた位置関係にあるように示したが、これは例示であり、自車両V1と他車両V2とが隣接する車線にいても他車両V2を精度よく検出することができることは言うまでもない。
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1:車両、 2:カメラ、 3:ソナーセンサ、 5:通信線、 7:カメラ配線、 8:ソナーセンサ配線、 10:車両位置検出装置、 11:監視カメラコントローラ、 12:ソナーコントローラ、 13:その他のセンサ、 14:演算装置、 101、201:撮像部、 102、202:測距部、 103、203:光源抽出部、 104、204:光源種別判定部、 105、205:車両候補領域抽出部、 106、206:路面領域検出部、 107、207:警報対象領域設定部、 108、208:輝度比較領域設定部、 109:輝度サンプル領域設定部、 110、210:路面輝度比較部、 111:走行領域推定部、 112、212:車両位置特定部、 113:車両接近判定部、114、214:通知部、 115:映像出力部、 116:音声出力部、 221:車線領域設定部、 222:走行車線推定部、1141:出力判定部、 1142:画像生成部、 1143:音声生成部、 1144:振動制御部、 1000:プロセッサ、 2000:記憶装置、 V1:自車両、 V2:他車両、 S:カメラの画角、 L1~L4:白線、 R1,R2:他車両のヘッドライトにより照射された路面、 h1,h2:他車両のヘッドライト、 O1,O2:光源候補(ヘッドライト以外の光源)、 A1~A4:車両候補領域、 RS:路面領域、 C1,C2:輝度比較領域、 CS:輝度サンプル領域、 LC:車両の下端(車両位置)、 LN:他車両の存在する車線、 W:警報対象領域、 WI101,WI102,WI201~WI203:警報画像。

Claims (12)

  1. 車両に設けられ、前記車両の周辺を撮像し出力する撮像部と、
    前記車両に設けられ、前記車両の周辺の障害物を検知する測距部と、
    前記撮像部によって撮像された前記車両の後側方の撮像画像に基づいて、点灯されたヘッドライトを含む車両候補領域を抽出する車両候補領域抽出部と、
    前記測距部による検知結果に基づき、前記撮像画像から前記障害物を除いた路面領域を検出する路面領域検出部と、
    前記路面領域において、前記路面領域に存在する前記車両候補領域に対し、該車両候補領域よりも前方に輝度比較領域を設定し、前記輝度比較領域から得られる輝度値と、予め前記路面領域に設定された輝度サンプル領域の輝度値とを比較する路面輝度比較部と、
    前記路面輝度比較部による比較結果に基づいて、前記車両の後側方の他車両が走行している走行領域を推定する走行領域推定部と、
    前記走行領域及び前記走行領域の推定に用いられた前記車両候補領域に基づいて前記他車両の位置を特定する車両位置特定部と、を備えた車両位置検出装置。
  2. 前記車両位置特定部によって位置が特定された前記他車両が、予め設定された警報対象領域内または警報対象領域の設定された車線と同じ車線に存在する場合、通知信号を生成する通知部をさらに備えた請求項1に記載の車両位置検出装置。
  3. 前記通知信号は映像信号であって、前記通知部は、前記撮像部によって撮像された前記撮像画像に、前記車両位置特定部で特定された前記他車両の位置と警報画像と重畳した画像を前記映像信号として生成する画像生成部を備えた請求項2に記載の車両位置検出装置。
  4. 前記通知信号は音声信号であって、前記通知部は、警報音声を音声信号として生成する音声生成部を備えた請求項2または3に記載の車両位置検出装置。
  5. 前記通知信号は振動であって、前記通知部は、前記車両のハンドルまたは運転席のシートを振動させる振動制御部を備えた請求項2から4のいずれか1項に記載の車両位置検出装置。
  6. 前記警報対象領域は、前記車両の走行する車線に隣接する車線に設定された請求項2から5のいずれか1項に記載の車両位置検出装置。
  7. 前記車両位置特定部で特定された前記他車両の位置の時系列変化から、前記他車両が接近しているか否か判定する車両接近判定部をさらに備え、前記車両接近判定部で前記他車両が接近していると判定された場合、前記通知部は接近していることを示す通知信号を生成する請求項2から6のいずれか1項に記載の車両位置検出装置。
  8. 前記路面輝度比較部は、前記路面領域に設定され前記車両候補領域よりも前方の輝度比較領域が複数ある場合、予め前記路面領域に設定された輝度サンプル領域の輝度値と比較するとともに、複数の前記輝度比較領域の輝度値を比較する請求項1から7のいずれか1項に記載の車両位置検出装置。
  9. 前記車両候補領域抽出部は、前記撮像部によって撮像された前記撮像画像の輝度値及び色から光源とその種類が判別された情報を基に、車両候補領域を抽出する請求項1から8のいずれか1項に記載の車両位置検出装置。
  10. 前記走行領域推定部は、前記撮像部によって撮像された前記撮像画像から推定された車線領域及び前記路面輝度比較部による比較結果に基づいて、前記車両の後側方の他車両が走行している走行車線を推定する請求項1から9のいずれか1項に記載の車両位置検出装置。
  11. 撮像部により車両の周辺を撮像するステップと、
    測距部により前記車両の周辺の障害物を検知するステップと、
    前記撮像部により撮像された前記車両の後側方の撮像画像に基づいて、車両候補領域抽出部において、点灯されたヘッドライトを含む車両候補領域を抽出するステップと、
    路面領域検出部において、前記撮像画像から検知された前記障害物を除いた路面領域を検出するステップと、
    路面輝度比較部により、前記路面領域において、前記路面領域に存在する前記車両候補領域に対し、該車両候補領域よりも前方に輝度比較領域を設定し、前記輝度比較領域から得られる輝度値と、予め前記路面領域に設定された輝度サンプル領域の輝度値とを比較するステップと、
    前記路面輝度比較部による比較結果に基づいて、走行領域推定部において前記車両の後側方の他車両が走行している走行領域を推定するステップと、
    前記走行領域及び前記走行領域の推定に用いられた前記車両候補領域に基づいて、車両位置特定部において記他車両の位置を特定するステップと、を備えた車両位置検出方法。
  12. 警報対象領域設定部において、前記車両の走行する車線に隣接する車線に警報対象領域を設定するステップと、
    位置が特定された前記他車両が、前記警報対象領域内または前記警報対象領域の設定された車線と同じ車線にいる場合、通知部において通知信号を生成するステップと、をさらに備えた請求項11に記載の車両位置検出方法。
JP2020175731A 2020-10-20 2020-10-20 車両位置検出装置および車両位置検出方法 Active JP7034231B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020175731A JP7034231B1 (ja) 2020-10-20 2020-10-20 車両位置検出装置および車両位置検出方法
DE102021209974.2A DE102021209974A1 (de) 2020-10-20 2021-09-09 Fahrzeugposition-erfassungsvorrichtung und fahrzeugposition-erfassungsverfahren
CN202111201980.8A CN114379562B (zh) 2020-10-20 2021-10-15 车辆位置检测装置及车辆位置检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175731A JP7034231B1 (ja) 2020-10-20 2020-10-20 車両位置検出装置および車両位置検出方法

Publications (2)

Publication Number Publication Date
JP7034231B1 true JP7034231B1 (ja) 2022-03-11
JP2022067169A JP2022067169A (ja) 2022-05-06

Family

ID=80929471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175731A Active JP7034231B1 (ja) 2020-10-20 2020-10-20 車両位置検出装置および車両位置検出方法

Country Status (3)

Country Link
JP (1) JP7034231B1 (ja)
CN (1) CN114379562B (ja)
DE (1) DE102021209974A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140515A (ja) 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
JP2015055968A (ja) 2013-09-11 2015-03-23 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
WO2019202627A1 (ja) 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193702A (ja) * 2006-01-20 2007-08-02 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
MY170485A (en) * 2011-04-13 2019-08-07 Nissan Motor Driving assistance device and adjacent vehicle detection method therefor
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
EP2821981A4 (en) * 2012-03-01 2015-05-20 Nissan Motor THREE DIMENSIONAL OBJECT DETECTION DEVICE
JP6035065B2 (ja) * 2012-07-03 2016-11-30 クラリオン株式会社 車載用周囲環境認識装置
FR3046393B1 (fr) * 2016-01-05 2022-08-19 Valeo Schalter & Sensoren Gmbh Procede mis en oeuvre dans un vehicule automobile et vehicule automobile associe

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140515A (ja) 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
JP2015055968A (ja) 2013-09-11 2015-03-23 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
WO2019202627A1 (ja) 2018-04-16 2019-10-24 三菱電機株式会社 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Also Published As

Publication number Publication date
CN114379562B (zh) 2024-05-10
CN114379562A (zh) 2022-04-22
JP2022067169A (ja) 2022-05-06
DE102021209974A1 (de) 2022-04-21

Similar Documents

Publication Publication Date Title
JP4815488B2 (ja) 車両周辺監視装置
JP5639283B2 (ja) 車両周辺監視装置
KR20150051735A (ko) 주차 보조 시스템 및 그 방법
JP4528283B2 (ja) 車両周辺監視装置
US20070211919A1 (en) Vehicle surroundings monitoring apparatus
CN112537295B (zh) 驾驶辅助装置
JP2008027309A (ja) 衝突判定システム、及び衝突判定方法
KR20120055458A (ko) 차량 주변의 캡쳐 방법
US10846833B2 (en) System and method for visibility enhancement
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
KR20180065527A (ko) 차량 후측방 경고 장치 및 이를 이용한 경고 방법
JP2001195698A (ja) 歩行者検知装置
JP2007030603A (ja) 車両用走行支援装置
JP4813304B2 (ja) 車両周辺監視装置
JP4930256B2 (ja) 隣接車両検出装置および隣接車両検出方法
JP2004349926A (ja) 障害物検出装置及び方法並びに障害物検出用プログラム
JP7034231B1 (ja) 車両位置検出装置および車両位置検出方法
JP6087240B2 (ja) 車両周辺監視装置
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP2010093569A (ja) 車両周辺監視装置
JP3586938B2 (ja) 車載用距離測定装置
JP2003151096A (ja) 進入警報装置
WO2008037473A1 (en) Park assist system visually marking up dangerous objects
CN112542060B (zh) 车用后侧方警报装置
JP3212235B2 (ja) 車両用障害物検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220301

R151 Written notification of patent or utility model registration

Ref document number: 7034231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151